Eigenvalues and Eigenvectors
(𝐴−𝜆𝐼) 𝐱=𝟎
[1, 2, 3 [ 1, 2, 3
4, 5,6 -> 1, 2, 3
7, 8, 9] 3, 6, 9]
𝜆 = 3 이라고 할 때, [0]을 만족하는 벡터 𝐱를 찾는 과정에서 row space가 1차원이 된다. (e.g., [1,2,3], [3,6,9])
Example: Eigenvalues and Eigenvect
고유값(eigenvalue)는 어떻게 구할까?
(𝐴−𝜆𝐼) 𝐱=𝟎 에서 선형독립(linearly dependent)한 컬럼이 나와야 nontrivial solution(자명하지 않은 해)을 구할 수 있다.
역행렬은 정사각형에서 존재하기 때문에, 정사각 행렬에서는 선형 독립 여부가 역행렬 존재 여부와 동치하게 된다.
이 부분에서 선형독립과 역행렬 간의 접점이 생기게 된다.
고유벡터(eigenvector)은 정사각행렬만 다루며, (𝐴−𝜆𝐼) 𝐱=𝟎 을 만족하는 𝜆 를 찾는 게 목적이다.
즉, 선형독립(linearly dependent)한 컬럼을 갖는다는 것은 역행렬이 존재하지 않는 다는 말과 동치가 된다. 따라서, det(𝐴−𝜆𝐼) = 𝟎 이 될 때는 해당 메트릭스가 𝟎 이 될 때 만족된다.
Characteristic Equation
Eigenspace
고유값과 고유벡터를 찾는 과정을 다음과 같이 생각해볼 수 있다.
det(𝐴−𝜆) = 𝟎 을 만족하는 𝜆 = 8, -3 구했을 때, (𝐴−8𝐼)𝐱 가 null space 되는 𝐱 를 구할 때 그 값이 고유값이 되며 8과 pair한 상태가 된다.
주어진 매트릭스의 low들이 한 라인으로 이루어져 차원이 1이 되는 경우(e.g., [1,2,3], [2,4,6])에는 고유벡터의 공간(eigenspace)은 평면이 된다. 이 평면에 수직인 벡터는 고유벡터가 된다.
(𝐴−8𝐼)𝐱 = 𝟎(null space)를 만족하는 𝐱를 eigenspace라고 한다.
방향은 바꾸지 않고 크기만 줄인 𝜆=8은 방향은 유지하되 크기만 8배가 된다는 뜻이다. 벡터 𝐱를 곱하면 방향이 바뀌는 벡터는 만들 수 없게 된다.
Finding all eigenvalues and eigenvectors
'20. 인공지능과 딥러닝' 카테고리의 다른 글
[인공지능을 위한 선형대수] 고유값 분해와 선형변환 (0) | 2019.10.26 |
---|---|
[인공지능을 위한 선형대수] 대각화 (0) | 2019.10.20 |
[인공지능을 위한 선형대수] 영공간과 직교여공간 (0) | 2019.10.06 |
[인공지능을 위한 선형대수] Least Squares와 그 기하학적 의미 (0) | 2019.09.25 |
[인공지능을 위한 선형대수] Least Squares Problem(최소자승법) 소개 (0) | 2019.09.24 |
댓글