DS가 되기 위한 여정 👩‍💻

AI/Linear Algebra, Math

[Essence of linear algebra] ch.7 Inverse matrices, column space and null space

Tashapark 2025. 5. 23. 00:08
728x90

https://www.youtube.com/watch?v=uQhTuRlWMxw&list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab&index=7

 

"To ask the right question is harder than to answer it."
— Georg Cantor

 

- 진실로 질문이 정확해야 답이 더 쉽게 나오니깐.

- 오랜만에 들어서 기억이 날 지 모르겠다..ㅎ


 

[선형 방정식계 Linear stystem of equations]

- 선형대수는 공간의 조작으로 생각할 수 있게 하기 때문에 매우 유용함. 

 

=> 선형대수는 어떤 방정식계이든 해결할 수 있음. 

- 방정식계(systems of equations): 미지수인 변수 리스트와 변수들과 관련된 방정식의 리스트를 가졌을 때를 의미함. 

- 방정식계는 매우 복잡할 수 있는 데 운이 좋으면  위처럼 특정한 형태일 수 있음. 

- 즉 각 변수의 역할이 어떤 상수를 스케일링 하고 스케일 된 변수들을 서로 더하는 것이 전부임. 

- 지수함수나, 사인이나 변수간 곱 같이 특이한 것이 없을 때 

- 좌항에 변수들 넣고, 우항은 상수항으로 하는 일반적으로 많이 봤던 방정식들. 

- 선형 방정식계라고 부르는데 행렬-벡터 곱셈이랑 비슷하고, 

모든 방정식을 하나의 벡터 방정식으로 표현 가능합니다!

- 계수의 행렬과 변수의 벡터를 만들어서 곱하면 상수벡터랑 같아짐. 

- 위 식은 선형방정식계를 간단하게 표현한 것 

- 너무 복잡하게 생각하지 말고, 공간을 변형시킨다고 생각하래. 이제껏 한 것처럼

 

- 아래처럼 예를 들면, 

- 행렬  A 변환이 공간을 더 낮은 차원으로 축소시키는 지, 공간이 남는지..래

- 즉, determinant가 0인 값인지 0이 아닌 값인 지로 나누는 것인지랑 같음. 

- det(A) !=0인 경우 -> 공간을 0영역으로 축소시키지 않는 것

 - 일대일 대응변환으로 하나의 벡터로만 변할 수 있음. 

- x를 찾으려면 v를 뒤로 돌리면 됌..

 

- 역행렬임. 

- 만약 반시계방향 90도 회전 행렬이라면 역행렬은 시계방향 90회전 행렬임. 

 

- 기울이는 거면 다시 반대방향으로 그만큼 기울이는 게 역행렬이 되는 것. 

 

- A적용한 후 역행렬 A-1 적용하면 다시 시작점으로 돌아옴. 

=> 항등변환 identity transfortations

- 변화가 없음. 

- 역행렬을 구했으면 선형방정식계에 곱할 수 있음. 

- 이건 v벡터에 역변환을 가한 것. 

 

- 0이 아닌 값을 곱한 경우에는 2개의 미지수에 2개의 방정식을 가진 문제와 같아짐. 

- > 하나의 해를 가짐. 

- 이러면 3차원이 될 뿐임. 

=> 즉, det가 0이 아니면 역행렬이 존재함. 

 

- 행렬을 곱하고 다시 역행렬을 곱하면 위랑 똑같이 아무것도 변하지 않음.

 

 

 

- 행렬식 값이 0이어서 더 작은 차원으로 뭉개버리면, 역행렬은 없음.

=> 뭉게진 선을 되돌려서 평면으로 만들 수는 없음. 

- 그렇게 하려면 뭉개진 각 점의 벡터를 선을 이루는 모든 벡터로 바꿔야 하고, 인풋 한 개당 아웃풋 하나이기 때문에..

그냥 말이 안됨. 

- 3차원도 뭉개는 것은 가능한데 되돌릴 수가 없음. 

=> 행렬식이 0이면 어떤 지역도 영부피로 만들기 때문 

- 그래도 해는 존재할 수 있음. 

- 어떤 변환이 공간을 하나의 선으로 변환시키는 경우고, 벡터 v가 그 선 위에 놓여있는 경우라면 해가 있음. 

- 선 밖에 있으면, 해가 없음

- 둘 다 행렬식의 값이 0이어도

공간을 평면으로 수축할 때 보다 선으로 수축할 때 더 해를 찾기 어려울 수 있음. 

 

[Rank]

- 행렬식 0보다 더 정확한 표현이 필요하고

- 벡터가 변환의 결과가 선이면, 즉 1차원이면 rank= 1임

 

- 2차원 평면이면 rank=2

=> 랭크는 현재 몇 바이 몇 행렬인지에 따라서 달라짐. 

- 축소가 된 것인지 아닌지가 달라지는 것

-> 3차원 변환의 행렬식 값이 0이 아니고, 온전한 3차원이면 rank =3

 

 

[열 공간 column space]

- 행렬의 가능한 공간 집합 => 열 공간 column space

- rank의 더 정확한 정의는 열공간의 차원 수임. 

-  full rank는 rank가 높아지는 것이고 열의 갯수와 같다는 뜻임. 

- 영벡터는 선형변환은 반드시 원점이 고정되어 있어야 하기 때문에 어는 열공간이든 포함되어 있음. 

- 2차원인 경우 줄어드면 점이 됨.

- 3차원인 평면으로 수축해도 축이 하나 사라지니깐. 원점으로 이동된 수많은 벡터가 있음. 

- 선이 되는 것도 결국 점이 되는 것이니깐. 

 

[Null space / Kernal]

 

- 원점으로 이동되는 벡터들의 집합

-> 널이 되는 모든 벡터의 공간

-  벡터v가 영벡터인 경우, 영곤간 모두가 해가 될 수 있음 -> 원점임. 

 

[recap]

- 그 변환이 역변환을 가지면, 계(sytem)를 풀기 위해 역변환을 사용하면 됨. 

- 널 공간은 

 

- 계산법이나 다루지 않은 부분들도 많은데

우선 직관적으로 보게 하려고 했다고 함..

와우.. 쉽지 않네.

그래도 gpt에게만 물었을 때 보다 공간을 실제로 볼 수 있어서 좋음. 

728x90
반응형