본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

20. 인공지능과 딥러닝48

[세미나] AI Summit 2019 AI는 어떻게 예술(음악)을 만나 가치를 창출하나: 머신 뮤지션십(Machine Musicianship)에 적용된 AI 사례 이교구 교수 (서울대 융합과학기술대학원) Spotify Knows Me Better than I Know Myself 눈이 중요하기 때문에 비전에 많은 연구가 진행중 글 쓰는 인공지능 Open AI 음성 + 텍스트 데이터를 페어로 하여 그럴싸한 1시간 만에 만들 수 있음 TTS (Text to Speech) Few shot voic adaptation & singing gereration 발표 중 가장 인상 깊었던 연구이다. 아이유의 원곡 목소리를 학습하여, 부르지 않았던 곡의 아이유 버전을 만들 수 있다. 자율 주행 산업의 빅 픽쳐: AI는 어떻게 자율 주행 시대를 이끌고 있나?.. 2019. 11. 29.
[인공지능을 위한 선형대수] 선형대수 개념 주재걸 교수님의 스터디를 마치면서, 복습할겸 선형대수학의 주요 개념을 정리해 보았습니다. 책의 내용과 다른 자료들을 참고하여 정리하였습니다. Linear Algbra 선형대수 선형대수(線型代數)의 한자 의미를 살펴보면, 숫자(數)를 대신해서 선(線)의 형태(型)로 표현한다는 뜻을 가지고 있다. 즉, 어떤 함수가 선형(linear) 함수일 때 그 함수의 성질을 배우는 것으로, 벡터와 행렬을 주로 다룬다. 복잡한 비선형 문제를 간단한 선형 방정식으로 변환하여 문제를 해결할 수 있어, 자연과학과 물리학, 컴퓨터 그래픽 등의 다양한 분야에서 활용된다. 머신러닝에서는 PCA 등을 이용하여 차원(dimension)을 줄이거나, 학습(training)할 때 계산 과정을 줄이는 데 활용된다. 1. Linear Comb.. 2019. 11. 17.
[인공지능을 위한 선형대수] 고유값 분해와 선형변환 주재걸 교수님의 강의와 기타 교재를 참고하여 정리하였습니다. [LECTURE] 고유값 분해와 선형변환 : edwith 학습목표 드디어 이번 강의에서는 이제까지 우리가 배워온 개념을 토대로 고유값 분해에 대해 배워보겠습니다. 그리고 고유값 분해를 통한 선형변환의 과정을 다루겠습니다. 핵심 키워드... - 커넥트재단 www.edwith.org 고유값 분해 (Eigendecomposition) 𝑉𝐷 = 𝐴𝑉 • If 𝐴 is diagonalizable, we can write 𝐷 = 𝑉^(−1)𝐴𝑉. -> 대각행렬을 만들 수 있다는 것은 역행렬이 존재하다. 따라서 아래와 같은 식도 만들 수 있다. • We can also write 𝐴 = 𝑉𝐷𝑉^(-1). which we call eigendecomposit.. 2019. 10. 26.
[인공지능을 위한 선형대수] 대각화 주재걸 교수님의 수업의 내용과 다른 교재들을 참고하여 정리한 글입니다. [LECTURE] 대각화 : edwith 학습목표 이번 강의에서는 고유값 분해와 밀접한 관련을 가지는 대각화의 개념에 대해 배워보겠습니다. 이는 나중에 배울 특이값 분해(SVD: Singular Value Decom... - 커넥트재단 www.edwith.org Diagonalization (대각화) 코딩더매트릭스 책에서 설명하는 대각행렬의 정의는 다음과 같다. 정의역 D에 대해, D X D 행렬 M은 r ≠ c 인 모든 쌍 r,c ∈ D에 대해 M[r,c] = 0 이면 대각행렬이다. 대각화는 주어진 행렬을 대각행렬로 만드는 것이다. 𝐴 행렬의 양쪽에 𝑉 역행렬과 𝑉 를 곱하여, 𝐴 행렬을 𝐷 라는 새로운 행렬을 만드는 과정을 설명하.. 2019. 10. 20.
[인공지능을 위한 선형대수] 특성 방정식 Eigenvalues and Eigenvectors (𝐴−𝜆𝐼) 𝐱=𝟎 [1, 2, 3 [ 1, 2, 3 4, 5,6 -> 1, 2, 3 7, 8, 9] 3, 6, 9] 𝜆 = 3 이라고 할 때, [0]을 만족하는 벡터 𝐱를 찾는 과정에서 row space가 1차원이 된다. (e.g., [1,2,3], [3,6,9]) Example: Eigenvalues and Eigenvect 고유값(eigenvalue)는 어떻게 구할까? (𝐴−𝜆𝐼) 𝐱=𝟎 에서 선형독립(linearly dependent)한 컬럼이 나와야 nontrivial solution(자명하지 않은 해)을 구할 수 있다. 역행렬은 정사각형에서 존재하기 때문에, 정사각 행렬에서는 선형 독립 여부가 역행렬 존재 여부와 동치하게 된다. 이 부분에서 .. 2019. 10. 19.
[인공지능을 위한 선형대수] 영공간과 직교여공간 이 글은 주재걸 교수님의 edwith 강의를 기반으로 영공간과 직교여공간 개념을 정리하였습니다. [LECTURE] 영공간과 직교여공간 : edwith 학습목표 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공간의 개념을 배워보도록 하겠습니다. 핵심 키... - 커넥트재단 www.edwith.org 고유벡터와 고유값 (Eigenvectors and Eigenvalues) (𝐴−𝜆𝐼) 𝐱 = 𝟎 영공간 (Null Space) 𝐴𝐱 = 𝟎 을 만족하는 𝐴 집합을 Nul 𝐴 라고 한다. 내적 관점에서는 '0'을 만족하는 x, y를 구하는 것이나, 서로 직교한다면 내적이 '0'이 되는 개념을 활용한다면, 매트릭스 𝐴 의 각각의 row 벡터(.. 2019. 10. 6.
[인공지능을 위한 선형대수] Least Squares와 그 기하학적 의미 Least Squares와 그 기하학적 의미 Least Square Problem 위 방정식에서 해(solution)이 없는 이유는 벡터 𝐴의 span인 Col 𝐴 를 𝐛 벡터가 포함되지 않기 때문이다. 오류를 최소로 만드는 해를 찾는 게 최소제곱법(Least Square)이다. 다시 풀어서 설명하면 주어진 Colum space 𝐴에 있을 수밖에 없는 어떤 점에서 𝐛 라는 벡터와 가장 가까운 벡터 𝐱 를 찾는 문제이다. 위의 그림을 보면, 𝐛 는 Col 𝐴 밖에 있기 때문에 해가 없지만, Col 𝐴 평면에서 𝐛 랑 가장 가까울 수 있는 점을 찾는 게 목표이다. 𝐴 와 그 지점에 해당하는 linear coefficent를 찾으면 𝐛 hat이 되며, 𝐛 hat은 최단거리가 된다. Geometric Inter.. 2019. 9. 25.
[인공지능을 위한 선형대수] Least Squares Problem(최소자승법) 소개 이 글은 주재걸 교수님의 강의를 정리하였습니다. Least Squares Problem (최소 자승법) Over-determined Linear Systems (#equations >> #variables) 변수가 방정식 보다 많은 경우, over-determined 선형 시스템이라고 한다. 이 경우, 해(solution)이 존재하지 않는다. (e.g., 100개의 방정식을 단 3개의 변수만으로 만족하는 해를 찾기 어렵다.) 즉, 해가 존재한다는 것은 위 선형 시스템에서 방정식이 100개까지 증가한다고 가정할 때, 상수 벡터인 b 벡터 [66, 74, 78, ... ]가 100차원의 span 안에 있어야 한다. 광할한 공간인 100 차원이 3개의 벡터(x1, x2, x3) 안에 쏙 들어와야 한다는 것이다.. 2019. 9. 24.
[인공지능을 위한 선형대수] 전사함수와 일대일함수(단사함수) 이 글은 주재걸 교수님의 강의를 중점으로 개념을 정리하였습니다. [LECTURE] 전사함수와 일대일함수 : edwith 학습목표 이번 강의에서는 전사함수와 일대일함수를 배워보겠습니다. 그리고 이 개념이 실제로 Neural networks에는 어떻게 응용될 수 있는지를 생각해보는 시간을 갖겠습니다. ... - 커넥트재단 www.edwith.org ONTO and ONE-TO-ONE ONTO(전사 함수) 정의 전체가 image인, "공역 = 치역"인 함수이다. 공역의 결과값의 전체는 치역과 같게 된다. 정의역의 개수가 공역의 개수보다 많아야지 이루어질 수 있다. 즉, 공역에서 어떤 원소를 뽑아도 그 원소는 어떤 정의역에 하나 이상의 함수값이 되어야 한다. 공역 한 개에 정의역은 여러 개일 수 있지만, 공역은.. 2019. 9. 7.
[인공지능을 위한 선형대수] 선형 변환 (Linear Transformation) 이 글은 주재걸 교수님의 edwith 강의를 기반으로 선형대수 개념을 정리하였습니다. 인공지능을 위한 선형대수 강좌소개 : edwith - 주재걸 교수 www.edwith.org Transformation 개념 Transformation Function Mapping Domain: 정의역 x Co-domain: 공역 y (함수의 출력값이 될 수 있는 결과값의 집합) Imange: 함수의 상 (output y given x) Range: 치역 (실제로 y 값으로 쓰이는 값) 함수의 특징 정의역은 하나의 화살표만 있어야 한다. 함수 값이 두 개 이상일 수 없다. the output mapped by a particular x is uniquely determined. -> 이 조건을 충족하지 않으면 함수(f.. 2019. 9. 7.