본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.
20. 인공지능과 딥러닝

[인공지능을 위한 선형대수] 특성 방정식

by WE DONE IT. 2019. 10. 19.

Eigenvalues and Eigenvectors

 

(𝐴−𝜆𝐼) 𝐱=𝟎

[1, 2, 3         [ 1, 2, 3

4, 5,6     ->    1, 2, 3

7, 8, 9]          3, 6, 9]

𝜆 = 3 이라고 할 때, [0]을 만족하는 벡터 𝐱를 찾는 과정에서 row space가 1차원이 된다. (e.g., [1,2,3], [3,6,9])

Example: Eigenvalues and Eigenvect

 

고유값(eigenvalue)는 어떻게 구할까?

(𝐴−𝜆𝐼) 𝐱=𝟎 에서 선형독립(linearly dependent)한 컬럼이 나와야 nontrivial solution(자명하지 않은 해)을 구할 수 있다. 

역행렬은 정사각형에서 존재하기 때문에, 정사각 행렬에서는 선형 독립 여부가 역행렬 존재 여부와 동치하게 된다. 

이 부분에서 선형독립과 역행렬 간의 접점이 생기게 된다.

 

고유벡터(eigenvector)은 정사각행렬만 다루며, (𝐴−𝜆𝐼) 𝐱=𝟎 을 만족하는 𝜆 를 찾는 게 목적이다.

즉, 선형독립(linearly dependent)한 컬럼을 갖는다는 것은 역행렬이 존재하지 않는 다는 말과 동치가 된다. 따라서, det(𝐴−𝜆𝐼) = 𝟎 이 될 때는 해당 메트릭스가 𝟎 이 될 때 만족된다. 

 

Characteristic Equation

Eigenspace

고유값과 고유벡터를 찾는 과정을 다음과 같이 생각해볼 수 있다.

det(𝐴−𝜆) = 𝟎 을 만족하는 𝜆 = 8, -3 구했을 때, (𝐴−8𝐼)𝐱 가 null space 되는 𝐱 를 구할 때 그 값이 고유값이 되며 8과 pair한 상태가 된다. 

주어진 매트릭스의 low들이 한 라인으로 이루어져 차원이 1이 되는 경우(e.g., [1,2,3], [2,4,6])에는 고유벡터의 공간(eigenspace)은 평면이 된다. 이 평면에 수직인 벡터는 고유벡터가 된다. 

 

(𝐴−8𝐼)𝐱 = 𝟎(null space)를 만족하는 𝐱를 eigenspace라고 한다. 

방향은 바꾸지 않고 크기만 줄인 𝜆=8은 방향은 유지하되 크기만 8배가 된다는 뜻이다. 벡터 𝐱를 곱하면 방향이 바뀌는 벡터는 만들 수 없게 된다. 

 

 

Finding all eigenvalues and eigenvectors

 

 

댓글