전체 글74 GAN(Generative Adversarial Networks) 논문 리뷰 01. Taxonomy of Machine Learning GAN 모델을 설명하기 전에 딥러닝을 크게 두 가지로 나누면, 1) Supervised Learning과 2) Unsupervised Learning이 있다. A. Supervised Learning 지도 학습 대표적인 모델로 Discriminative Model이 있으며, 로지스틱 회귀분석, 뉴럴 네트워크 등이 해당된다. Input에 해당하는 클래스를 맞추기 위해 학습하게 된다. 예를 들어 남자냐, 여자냐를 구분하는 것이다. B. Unsupervised Learning 비지도 학습 label이 없는 데이터를 잘 학습하는 것이다. Generative Model에는 Naive Bayes, Gaussian discriminant analysis (G.. 2020. 6. 7. [PyTorch로 시작하는 딥러닝] Lab-11-2 RNN hihello and charseq edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! 'Hihello' example 'hihello' problem h가 들어오면 i를 예측하고, i가 들어오면 h, h가 들어오면 e (...) 를 예측하는 문제이다. 이렇게 character가 들어오면 다음 character를 예측하는 모델을 만들고자 한다. 'h'가 들어왔을 때, 'i', 'e' 중 어떤 게 출력되는지 올바르게 결정할 수 있도록 hidden state의 역할이 중요하게 된다. How can we represent charaters? One-hot encodding continuous하지 않고 categorical한 데이터를 표현할 때 주로 one-hot encodding을.. 2020. 3. 29. [PyTorch로 시작하는 딥러닝] Lab 11-1 RNN Basic edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! RNN in PyTorch 입력하고자 하는 데이터(input_data)는 세 가지 차원을 가지는 Tensor로 정의된다. shape = ( ___, ___, ___) 세 가지 차원은 아래에서 설명할 예정입니다. Example : Input 여기에서 사용한 1-hot encoidng은 단어를 구성하는 문자들을 사전식으로 쭉 나열한 뒤, 사전의 개수만큼 vector를 만들어 놓고 각각의 문자를 index에 해당하는 그 자리에 '1'을 주고 나머지는 '0'을 넣어주는 방식이다. 따라서, input_size는 input_data Tensor의 dimension 중 하나이다. Exampel : Hi.. 2020. 3. 29. [PyTorch로 시작하는 딥러닝 기초] Lab 11-0 RNN intro edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. [LECTURE] Lab-11-0 RNN intro : edwith 학습목표 순환신경망(Recurrent Neural Network)에 대해 알아본다. 핵심키워드 순환신경망(Recurrent Neural Network) - tkddyd www.edwith.org RNN (Recurrent Nenural Network) Intro Sequential 데이터가 중요한 경우에 RNN 모델을 사용한다. sequntial 데이터는 순서가 중요하며, 문장, 단어, 시간 등이 있다. 예를 들어서, 에서 사진을 입력하는 순서에 따라서 성능에 영향을 주지 않는다면 이 경우는 순서(sequntial)가 중요하지 않은 요소가 된다. 하지만 단어 .. 2020. 3. 29. [PyTorch로 시작하는 딥러닝 기초] Lab-10-3 visdom edwith의 [파이토치로 시작하는 딥러닝 기초] Lab-10-3 visdom 강의를 정리했습니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-3 visdom : edwith 학습목표 Visdom 사용 방법을 알아본다. 핵심키워드 Visdom CNN - tkddyd www.edwith.org 이번 강의에서는 Visdom 사용 방법을 익히고 MNIST-CNN의 loss graph를 그리는 것까지 적용할 예정입니다. Visdom Visdom은 라이브 데이터를 풍부하게 시각화 해주는 시각화 도구입니다. 연구원과 개발자가 원격 서버에서 과학 실험을 지속적으로 할 수 있도록 도와주며, 브라우저에서 실행되며 다른 사람과 쉽게 공유할 수 있습니다. Visdom 설치 pip install vi.. 2020. 3. 8. [PyTorch로 시작하는 딥러닝 기초] Lab-10-2 Mnist CNN edwith의 [파이토치로 시작하는 딥러닝 기초] Lab-10-2 Mnist CNN 강의를 정리했습니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-2 Mnist CNN : edwith 학습목표 MNIST 데이터를 CNN으로 적용해본다. 핵심키워드 딥러닝 학습 단계 CNN - tkddyd www.edwith.org 학습 단계 (코드 기준) 라이브러리 가져오고 (torch, torchvision, matplotlib 같은것들) GPU 사용 설정 하고 random value를 위한 seed 설정! 학습에 사용되는 parameter 설정!(learning_rate, training_epochs, batch_size, etc) 데이터셋을 가져오고 (학습에 쓰기 편하게) loader 만들.. 2020. 3. 7. [PyTorch로 시작하는 딥러닝 기초] Lab-10-1 Convolution edwith의 부스트코스 강의 Part 3 - CNN 를 정리한 글입니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-1 Convolution : edwith 학습목표 합성곱 (Convolution) 연산에 대해 알아본다. 핵심키워드 합성곱 (Convolution) 연산 필터(Filter) 스트라이드(Stride) 패딩(Padding) ... - tkddyd www.edwith.org Convolution 이미지 위에 stride 값 만큼 filter(kernel)을 이동시키면서 겹쳐지는 부분의 각 원소의 값을 모두 곱한 뒤 더한 값을 출력하는 연산 Stride and Padding stride: filter를 한 번에 이동하는 간격 padding: input의 크기 만큼 이미지.. 2020. 3. 7. [PyTorch로 시작하는 딥러닝 기초] 09-4 Batch-Normalization edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초 강의를 정리한 내용입니다. [LECTURE] Lab-09-4 Batch Normalization : edwith 학습목표 Batch Normalization 에 대해 알아본다. 핵심키워드 Batch Normalization 경사 소실(Gradient Vanishing) / 폭발(Explodi... - tkddyd www.edwith.org Batch Normalization Gradient Vanishing / Exploding Internal Covariate Shift Batch Normalization Code: mnist_batchnorm Gradient Vanishing / Exploding Gradient Vanishing Gradi.. 2020. 2. 9. [PyTorch로 시작하는 딥러닝 기초] 09-3 Dropout edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초의 Dropout 강의를 정리한 내용입니다. [LECTURE] Lab-09-3 Dropout : edwith 학습목표 드롭아웃(Dropout) 에 대해 알아본다. 핵심키워드 과최적화(Overfitting) 드롭아웃(Dropout) - tkddyd www.edwith.org Overfitting 데이터를 잘 fitting 시키는 게 목표라고 할 때, 위 그림의 왼쪽 'Underfitting' 모습처럼 선형으로 분리를 하면 적합하지 않을 수 있다. 반면 고차원(highdimension)으로 표현할 경우, 'Overfitting' 모습처럼 주어진 데이터에만 집중한 것을 알 수 있다. 오른쪽 Overfitting처럼 주어진 데이터를 잘 표현하는 게 왜 .. 2020. 2. 9. 이전 1 2 3 4 5 6 7 ··· 9 다음