https://www.youtube.com/watch?v=uQhTuRlWMxw&list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab&index=7
"To ask the right question is harder than to answer it."
— Georg Cantor
- 진실로 질문이 정확해야 답이 더 쉽게 나오니깐.
- 오랜만에 들어서 기억이 날 지 모르겠다..ㅎ
[선형 방정식계 Linear stystem of equations]
- 선형대수는 공간의 조작으로 생각할 수 있게 하기 때문에 매우 유용함.
=> 선형대수는 어떤 방정식계이든 해결할 수 있음.
- 방정식계(systems of equations): 미지수인 변수 리스트와 변수들과 관련된 방정식의 리스트를 가졌을 때를 의미함.
- 방정식계는 매우 복잡할 수 있는 데 운이 좋으면 위처럼 특정한 형태일 수 있음.
- 즉 각 변수의 역할이 어떤 상수를 스케일링 하고 스케일 된 변수들을 서로 더하는 것이 전부임.
- 지수함수나, 사인이나 변수간 곱 같이 특이한 것이 없을 때
- 좌항에 변수들 넣고, 우항은 상수항으로 하는 일반적으로 많이 봤던 방정식들.
- 선형 방정식계라고 부르는데 행렬-벡터 곱셈이랑 비슷하고,
모든 방정식을 하나의 벡터 방정식으로 표현 가능합니다!
- 계수의 행렬과 변수의 벡터를 만들어서 곱하면 상수벡터랑 같아짐.
- 위 식은 선형방정식계를 간단하게 표현한 것
- 너무 복잡하게 생각하지 말고, 공간을 변형시킨다고 생각하래. 이제껏 한 것처럼
- 아래처럼 예를 들면,
- 행렬 A 변환이 공간을 더 낮은 차원으로 축소시키는 지, 공간이 남는지..래
- 즉, determinant가 0인 값인지 0이 아닌 값인 지로 나누는 것인지랑 같음.
- det(A) !=0인 경우 -> 공간을 0영역으로 축소시키지 않는 것
- 일대일 대응변환으로 하나의 벡터로만 변할 수 있음.
- x를 찾으려면 v를 뒤로 돌리면 됌..
- 역행렬임.
- 만약 반시계방향 90도 회전 행렬이라면 역행렬은 시계방향 90회전 행렬임.
- 기울이는 거면 다시 반대방향으로 그만큼 기울이는 게 역행렬이 되는 것.
- A적용한 후 역행렬 A-1 적용하면 다시 시작점으로 돌아옴.
=> 항등변환 identity transfortations
- 변화가 없음.
- 역행렬을 구했으면 선형방정식계에 곱할 수 있음.
- 이건 v벡터에 역변환을 가한 것.
- 0이 아닌 값을 곱한 경우에는 2개의 미지수에 2개의 방정식을 가진 문제와 같아짐.
- > 하나의 해를 가짐.
- 이러면 3차원이 될 뿐임.
=> 즉, det가 0이 아니면 역행렬이 존재함.
- 행렬을 곱하고 다시 역행렬을 곱하면 위랑 똑같이 아무것도 변하지 않음.
- 행렬식 값이 0이어서 더 작은 차원으로 뭉개버리면, 역행렬은 없음.
=> 뭉게진 선을 되돌려서 평면으로 만들 수는 없음.
- 그렇게 하려면 뭉개진 각 점의 벡터를 선을 이루는 모든 벡터로 바꿔야 하고, 인풋 한 개당 아웃풋 하나이기 때문에..
그냥 말이 안됨.
- 3차원도 뭉개는 것은 가능한데 되돌릴 수가 없음.
=> 행렬식이 0이면 어떤 지역도 영부피로 만들기 때문
- 그래도 해는 존재할 수 있음.
- 어떤 변환이 공간을 하나의 선으로 변환시키는 경우고, 벡터 v가 그 선 위에 놓여있는 경우라면 해가 있음.
- 선 밖에 있으면, 해가 없음.
- 둘 다 행렬식의 값이 0이어도
공간을 평면으로 수축할 때 보다 선으로 수축할 때 더 해를 찾기 어려울 수 있음.
[Rank]
- 행렬식 0보다 더 정확한 표현이 필요하고
- 벡터가 변환의 결과가 선이면, 즉 1차원이면 rank= 1임
- 2차원 평면이면 rank=2
=> 랭크는 현재 몇 바이 몇 행렬인지에 따라서 달라짐.
- 축소가 된 것인지 아닌지가 달라지는 것
-> 3차원 변환의 행렬식 값이 0이 아니고, 온전한 3차원이면 rank =3
[열 공간 column space]
- 행렬의 가능한 공간 집합 => 열 공간 column space
- rank의 더 정확한 정의는 열공간의 차원 수임.
- full rank는 rank가 높아지는 것이고 열의 갯수와 같다는 뜻임.
- 영벡터는 선형변환은 반드시 원점이 고정되어 있어야 하기 때문에 어는 열공간이든 포함되어 있음.
- 2차원인 경우 줄어드면 점이 됨.
- 3차원인 평면으로 수축해도 축이 하나 사라지니깐. 원점으로 이동된 수많은 벡터가 있음.
- 선이 되는 것도 결국 점이 되는 것이니깐.
[Null space / Kernal]
- 원점으로 이동되는 벡터들의 집합
-> 널이 되는 모든 벡터의 공간
- 벡터v가 영벡터인 경우, 영곤간 모두가 해가 될 수 있음 -> 원점임.
[recap]
- 그 변환이 역변환을 가지면, 계(sytem)를 풀기 위해 역변환을 사용하면 됨.
- 널 공간은
- 계산법이나 다루지 않은 부분들도 많은데
우선 직관적으로 보게 하려고 했다고 함..
와우.. 쉽지 않네.
그래도 gpt에게만 물었을 때 보다 공간을 실제로 볼 수 있어서 좋음.
'AI > Linear Algebra, Math' 카테고리의 다른 글
[Essence of linear algebra] ch.6 The determinant (0) | 2025.05.11 |
---|---|
[Essence of linear algebra] ch.5 Three-dimensional linear transformations (1) | 2025.05.09 |
[Essence of linear algebra] ch4. Matrix multiplication as composition (0) | 2025.05.06 |
[elice 머신러닝] 통계분석 (0) | 2025.05.04 |
[elice 머신러닝] 확률 변수와 조건부 확률 (0) | 2025.05.04 |