[인공지능을 위한 선형대수] 특성 방정식
Eigenvalues and Eigenvectors (𝐴−𝜆𝐼) 𝐱=𝟎 [1, 2, 3 [ 1, 2, 3 4, 5,6 -> 1, 2, 3 7, 8, 9] 3, 6, 9] 𝜆 = 3 이라고 할 때, [0]을 만족하는 벡터 𝐱를 찾는 과정에서 row space가 1차원이 된다. (e.g., [1,2,3], [3,6,9]) Example: Eigenvalues and Eigenvect 고유값(eigenvalue)는 어떻게 구할까? (𝐴−𝜆𝐼) 𝐱=𝟎 에서 선형독립(linearly dependent)한 컬럼이 나와야 nontrivial solution(자명하지 않은 해)을 구할 수 있다. 역행렬은 정사각형에서 존재하기 때문에, 정사각 행렬에서는 선형 독립 여부가 역행렬 존재 여부와 동치하게 된다. 이 부분에서 ..
2019. 10. 19.
[인공지능을 위한 선형대수] Least Squares Problem(최소자승법) 소개
이 글은 주재걸 교수님의 강의를 정리하였습니다. Least Squares Problem (최소 자승법) Over-determined Linear Systems (#equations >> #variables) 변수가 방정식 보다 많은 경우, over-determined 선형 시스템이라고 한다. 이 경우, 해(solution)이 존재하지 않는다. (e.g., 100개의 방정식을 단 3개의 변수만으로 만족하는 해를 찾기 어렵다.) 즉, 해가 존재한다는 것은 위 선형 시스템에서 방정식이 100개까지 증가한다고 가정할 때, 상수 벡터인 b 벡터 [66, 74, 78, ... ]가 100차원의 span 안에 있어야 한다. 광할한 공간인 100 차원이 3개의 벡터(x1, x2, x3) 안에 쏙 들어와야 한다는 것이다..
2019. 9. 24.