본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

전체 글74

[인공지능을 위한 선형대수] 특성 방정식 Eigenvalues and Eigenvectors (𝐴−𝜆𝐼) 𝐱=𝟎 [1, 2, 3 [ 1, 2, 3 4, 5,6 -> 1, 2, 3 7, 8, 9] 3, 6, 9] 𝜆 = 3 이라고 할 때, [0]을 만족하는 벡터 𝐱를 찾는 과정에서 row space가 1차원이 된다. (e.g., [1,2,3], [3,6,9]) Example: Eigenvalues and Eigenvect 고유값(eigenvalue)는 어떻게 구할까? (𝐴−𝜆𝐼) 𝐱=𝟎 에서 선형독립(linearly dependent)한 컬럼이 나와야 nontrivial solution(자명하지 않은 해)을 구할 수 있다. 역행렬은 정사각형에서 존재하기 때문에, 정사각 행렬에서는 선형 독립 여부가 역행렬 존재 여부와 동치하게 된다. 이 부분에서 .. 2019. 10. 19.
[인공지능을 위한 선형대수] 영공간과 직교여공간 이 글은 주재걸 교수님의 edwith 강의를 기반으로 영공간과 직교여공간 개념을 정리하였습니다. [LECTURE] 영공간과 직교여공간 : edwith 학습목표 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공간의 개념을 배워보도록 하겠습니다. 핵심 키... - 커넥트재단 www.edwith.org 고유벡터와 고유값 (Eigenvectors and Eigenvalues) (𝐴−𝜆𝐼) 𝐱 = 𝟎 영공간 (Null Space) 𝐴𝐱 = 𝟎 을 만족하는 𝐴 집합을 Nul 𝐴 라고 한다. 내적 관점에서는 '0'을 만족하는 x, y를 구하는 것이나, 서로 직교한다면 내적이 '0'이 되는 개념을 활용한다면, 매트릭스 𝐴 의 각각의 row 벡터(.. 2019. 10. 6.
[인공지능을 위한 선형대수] Least Squares와 그 기하학적 의미 Least Squares와 그 기하학적 의미 Least Square Problem 위 방정식에서 해(solution)이 없는 이유는 벡터 𝐴의 span인 Col 𝐴 를 𝐛 벡터가 포함되지 않기 때문이다. 오류를 최소로 만드는 해를 찾는 게 최소제곱법(Least Square)이다. 다시 풀어서 설명하면 주어진 Colum space 𝐴에 있을 수밖에 없는 어떤 점에서 𝐛 라는 벡터와 가장 가까운 벡터 𝐱 를 찾는 문제이다. 위의 그림을 보면, 𝐛 는 Col 𝐴 밖에 있기 때문에 해가 없지만, Col 𝐴 평면에서 𝐛 랑 가장 가까울 수 있는 점을 찾는 게 목표이다. 𝐴 와 그 지점에 해당하는 linear coefficent를 찾으면 𝐛 hat이 되며, 𝐛 hat은 최단거리가 된다. Geometric Inter.. 2019. 9. 25.
[인공지능을 위한 선형대수] Least Squares Problem(최소자승법) 소개 이 글은 주재걸 교수님의 강의를 정리하였습니다. Least Squares Problem (최소 자승법) Over-determined Linear Systems (#equations >> #variables) 변수가 방정식 보다 많은 경우, over-determined 선형 시스템이라고 한다. 이 경우, 해(solution)이 존재하지 않는다. (e.g., 100개의 방정식을 단 3개의 변수만으로 만족하는 해를 찾기 어렵다.) 즉, 해가 존재한다는 것은 위 선형 시스템에서 방정식이 100개까지 증가한다고 가정할 때, 상수 벡터인 b 벡터 [66, 74, 78, ... ]가 100차원의 span 안에 있어야 한다. 광할한 공간인 100 차원이 3개의 벡터(x1, x2, x3) 안에 쏙 들어와야 한다는 것이다.. 2019. 9. 24.
[인공지능을 위한 선형대수] 전사함수와 일대일함수(단사함수) 이 글은 주재걸 교수님의 강의를 중점으로 개념을 정리하였습니다. [LECTURE] 전사함수와 일대일함수 : edwith 학습목표 이번 강의에서는 전사함수와 일대일함수를 배워보겠습니다. 그리고 이 개념이 실제로 Neural networks에는 어떻게 응용될 수 있는지를 생각해보는 시간을 갖겠습니다. ... - 커넥트재단 www.edwith.org ONTO and ONE-TO-ONE ONTO(전사 함수) 정의 전체가 image인, "공역 = 치역"인 함수이다. 공역의 결과값의 전체는 치역과 같게 된다. 정의역의 개수가 공역의 개수보다 많아야지 이루어질 수 있다. 즉, 공역에서 어떤 원소를 뽑아도 그 원소는 어떤 정의역에 하나 이상의 함수값이 되어야 한다. 공역 한 개에 정의역은 여러 개일 수 있지만, 공역은.. 2019. 9. 7.
[인공지능을 위한 선형대수] 선형 변환 (Linear Transformation) 이 글은 주재걸 교수님의 edwith 강의를 기반으로 선형대수 개념을 정리하였습니다. 인공지능을 위한 선형대수 강좌소개 : edwith - 주재걸 교수 www.edwith.org Transformation 개념 Transformation Function Mapping Domain: 정의역 x Co-domain: 공역 y (함수의 출력값이 될 수 있는 결과값의 집합) Imange: 함수의 상 (output y given x) Range: 치역 (실제로 y 값으로 쓰이는 값) 함수의 특징 정의역은 하나의 화살표만 있어야 한다. 함수 값이 두 개 이상일 수 없다. the output mapped by a particular x is uniquely determined. -> 이 조건을 충족하지 않으면 함수(f.. 2019. 9. 7.
[인공지능을 위한 선형대수] 부분공간의 기저의 차원 Subspace 닫혀있는 결합의 연산 재료벡터가 있을 때, 모든 선형 집합을 포함하는 선형결합은 Basis of a Subspace 기저벡터 (Basis) Subspan을 Fully span 하는 집합 1. 벡터 두 개로 fully span 하는 경우, 이 subspace의 기저벡터이다. 2. linearly independent 해야됨 중복을 허용하지 않는 (=linearly independent) span이 주어져있고, 기저 벡트를 찾는 상황 Ununique of Basis 기저벡터는 유니크하지 않다 가중치(계수) 값이 0.8, 1.1 -> 105, 88 로 변경됨 기저벡터가 바뀌면 가중치(계수)가 변경된다. Dimension of Subspace 수학적 의미에서의 Dimension : Subspac.. 2019. 9. 4.
[인공지능을 위한 선형대수] 선형독립과 선형종속 이 글은 주재걸 교수님의 edwith 강의를 기반으로 선형대수 개념을 정리하였습니다. [LECTURE] 선형독립과 선형종속 : edwith 학습목표 이번 강의에서는 선형대수에서 중요한 개념 중 하나인 선형독립과 선형종속에 대해서 배우겠습니다. 그리고 이들이 선형 시스템 내에서 가지는 특성에 대해서도 알아보겠습니다. ... - MJ www.edwith.org Uniqueness of Solution for Ax = B 재료벡터 안에 상수벡터가 존재한다면 '해(solution)가 존재'하게 되는데, 해가 한 개인지 여러 개인지 확인할 수 있는 개념이 선형독립(Linear independence)이다. 선형의존이 되는 상황 여러 방법으로 평행사변형을 만들 수 있어, 해가 여러 개인 경우 (해가 유일하면 선형독.. 2019. 9. 1.
[인공지능을 위한 선형대수] 선형결합 (Linear combination) 이 글은 주재걸 교수님의 edwith 강의를 기반으로 선형대수 개념을 정리하였습니다. 인공지능을 위한 선형대수 강좌소개 : edwith - 주재걸 교수 www.edwith.org CHAPTER 2. 선형시스템 및 선형변환 선형 결합 2019. 9. 1.