전체 글74 [PyTorch로 시작하는 딥러닝 기초] 08. Perceptron edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초 의 강의를 정리한 내용입니다. [LECTURE] Lab-08-1 Perceptron : edwith 학습목표 퍼셉트론(Perceptron) 에 대해 알아본다. 핵심키워드 퍼셉트론(Perceptron) 선형분류기(Linear Classifier) AND, OR, XOR 게이트 - 커넥트재단 www.edwith.org Neuron 인공신경망은 뇌에 있는 뉴런의 동작 방식을 본 따 만든 것이다. 뉴런은 입력 신호가 들어왔을 때 입력 신호의 총 값이 임계치를 넘계되면 신호가 다음으로 전파한다. Perceptron 입력값이 있을 때, 가중치를 곱한 값과 bias를 더해 output을 만든다. Ouput을 만드는 과정에는 softmax와 같은 활성화 함수.. 2020. 2. 8. [PyTorch로 시작하는 딥러닝 기초] 05. Logistic Regression edwith의 의 'Lab-05 Logistic Regression' 강의를 정리하였습니다. [LECTURE] Lab-05 Logistic Regression : edwith 학습목표 로지스틱 회귀(Logistic Regression)에 대해 알아본다. 핵심키워드 로지스틱 회귀(Logistic Regression) 가설(Hypothesis) 손실함수(C... - tkddyd www.edwith.org Logistic Regression X라는 데이터는 m개의 데이터들이 d 차원(d 사이즈)의 벡터 => m이 '0' 또는 '1'로 이루어진 매트릭스 => m * d 차원의 매트릭스 로지스틱 회귀는 d 차원의 1d 벡터가 주어졌을 때, '0' 또는 '1'에 가까운지 찾는 문제 w (weight 파라미터)는 (.. 2020. 2. 2. [PyTorch로 시작하는 딥러닝 기초] 04-2. Loading Data edwith의 'Lab-o4-2 Loading Data' 강의를 정리하였습니다. [LECTURE] Lab-04-2 Loading Data : edwith 학습목표 미니배치 경사하강법(Minibatch Gradient descent)를 배우고 Dataset & DataLoader 사용법에 대해 알아본다. 핵심키워드 다항 선형 회귀(M... - tkddyd www.edwith.org Lab-04-2 Loading Data Minibatch Gradient Descent 수 많은 데이터를 한 번에 학습하면 시간이 오래 걸리며, 컴퓨터에 무리가 간다. 이 문제를 해결하기 위해, 딥러닝에서는 전체 데이터를 'minibatch'로 양을 균일하게 나눈 뒤, minibatch를 하나씩 학습한다. Minibatch Gr.. 2020. 2. 2. 2020년이 기대되는 이유, 나만의 OKR (1) 하루를 살아내다 내년을 기대하는 이유, OKR 사업계획의 시작과 함께 연말이 다가왔음을 몸소 실감하곤 한다. 그런데 내년부터 우리 회사에서 KPI가 아닌, OKR를 도입한다는 소식을 들었다. KPI도 제대로 이해하지 못한 2년차 사원인데, OKR은 처음 듣는 단어였다. OKR을 대표하는 책 두 권을 읽으면서 그 개념과 실제 적용사례, 활용 방법들을 공부했다. 공부할수록 이렇게 효과적인 도구를 굳이 회사에서 프로젝트 단위로만 쓰라는 가이드가 있던가? 이 좋은 도구를 나, 개인에게도 적용하기로 다짐했다. 그러자 웬걸. 2019년은 365일 중 94%가 흘렀다. 아직 23일이 남았음에도 내년이 너무 기대되기 시작했다. 목표와 이를 이룰 수 있는 계획을 세우는 것만으로도 이토록 간단하게 설렐 수 있다는 걸 잊고 살았다. 그동안.. 2019. 12. 7. [세미나] AI Summit 2019 AI는 어떻게 예술(음악)을 만나 가치를 창출하나: 머신 뮤지션십(Machine Musicianship)에 적용된 AI 사례 이교구 교수 (서울대 융합과학기술대학원) Spotify Knows Me Better than I Know Myself 눈이 중요하기 때문에 비전에 많은 연구가 진행중 글 쓰는 인공지능 Open AI 음성 + 텍스트 데이터를 페어로 하여 그럴싸한 1시간 만에 만들 수 있음 TTS (Text to Speech) Few shot voic adaptation & singing gereration 발표 중 가장 인상 깊었던 연구이다. 아이유의 원곡 목소리를 학습하여, 부르지 않았던 곡의 아이유 버전을 만들 수 있다. 자율 주행 산업의 빅 픽쳐: AI는 어떻게 자율 주행 시대를 이끌고 있나?.. 2019. 11. 29. [인공지능을 위한 선형대수] 선형대수 개념 주재걸 교수님의 스터디를 마치면서, 복습할겸 선형대수학의 주요 개념을 정리해 보았습니다. 책의 내용과 다른 자료들을 참고하여 정리하였습니다. Linear Algbra 선형대수 선형대수(線型代數)의 한자 의미를 살펴보면, 숫자(數)를 대신해서 선(線)의 형태(型)로 표현한다는 뜻을 가지고 있다. 즉, 어떤 함수가 선형(linear) 함수일 때 그 함수의 성질을 배우는 것으로, 벡터와 행렬을 주로 다룬다. 복잡한 비선형 문제를 간단한 선형 방정식으로 변환하여 문제를 해결할 수 있어, 자연과학과 물리학, 컴퓨터 그래픽 등의 다양한 분야에서 활용된다. 머신러닝에서는 PCA 등을 이용하여 차원(dimension)을 줄이거나, 학습(training)할 때 계산 과정을 줄이는 데 활용된다. 1. Linear Comb.. 2019. 11. 17. #2. 마라톤 10km 완주, 그리고 도전 경험해 보지 않은 것에는 늘 두려움 또는 가볍게 여기는 오만함이 숨어있다. 그 중 하나가 나에게는 '달리기'였다. 학창시절 체력검사로 오래 달리기를 하고나면 숨이 턱 끝까지 차오르고 고통스러웠던 기억이 강렬했던 탓인지도 모른다. 달리기, 러닝에 대한 막연한 두려움이 있었다. 그러던 중, 우연히 사람은 달리기에 최적화된 몸이라는 글을 보았다. 수 억년 동안 인간은 생존을 위해 걷고 달려왔다는 게 주된 논리이다. 그렇기 때문에 몸을 위해서 일부러 달리는 게 체력과 두뇌 활동 등에 좋다는 내용이었다. 일리있다는 생각이 들었다. 그리고 그 이후 집 근처 가까운 공원에서 달리기를 시작했다. 니가 이루고 싶은게 있다면, 체력을 먼저 길러라. 네가 이루고 싶은 것이 있거든 체력을 먼저 길러라. 평생 해야 할 일이라고.. 2019. 11. 3. [인공지능을 위한 선형대수] 고유값 분해와 선형변환 주재걸 교수님의 강의와 기타 교재를 참고하여 정리하였습니다. [LECTURE] 고유값 분해와 선형변환 : edwith 학습목표 드디어 이번 강의에서는 이제까지 우리가 배워온 개념을 토대로 고유값 분해에 대해 배워보겠습니다. 그리고 고유값 분해를 통한 선형변환의 과정을 다루겠습니다. 핵심 키워드... - 커넥트재단 www.edwith.org 고유값 분해 (Eigendecomposition) 𝑉𝐷 = 𝐴𝑉 • If 𝐴 is diagonalizable, we can write 𝐷 = 𝑉^(−1)𝐴𝑉. -> 대각행렬을 만들 수 있다는 것은 역행렬이 존재하다. 따라서 아래와 같은 식도 만들 수 있다. • We can also write 𝐴 = 𝑉𝐷𝑉^(-1). which we call eigendecomposit.. 2019. 10. 26. [인공지능을 위한 선형대수] 대각화 주재걸 교수님의 수업의 내용과 다른 교재들을 참고하여 정리한 글입니다. [LECTURE] 대각화 : edwith 학습목표 이번 강의에서는 고유값 분해와 밀접한 관련을 가지는 대각화의 개념에 대해 배워보겠습니다. 이는 나중에 배울 특이값 분해(SVD: Singular Value Decom... - 커넥트재단 www.edwith.org Diagonalization (대각화) 코딩더매트릭스 책에서 설명하는 대각행렬의 정의는 다음과 같다. 정의역 D에 대해, D X D 행렬 M은 r ≠ c 인 모든 쌍 r,c ∈ D에 대해 M[r,c] = 0 이면 대각행렬이다. 대각화는 주어진 행렬을 대각행렬로 만드는 것이다. 𝐴 행렬의 양쪽에 𝑉 역행렬과 𝑉 를 곱하여, 𝐴 행렬을 𝐷 라는 새로운 행렬을 만드는 과정을 설명하.. 2019. 10. 20. 이전 1 2 3 4 5 6 7 8 9 다음