본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

분류 전체보기74

[PyTorch로 시작하는 딥러닝 기초] Lab 11-0 RNN intro edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. [LECTURE] Lab-11-0 RNN intro : edwith 학습목표 순환신경망(Recurrent Neural Network)에 대해 알아본다. 핵심키워드 순환신경망(Recurrent Neural Network) - tkddyd www.edwith.org RNN (Recurrent Nenural Network) Intro Sequential 데이터가 중요한 경우에 RNN 모델을 사용한다. sequntial 데이터는 순서가 중요하며, 문장, 단어, 시간 등이 있다. 예를 들어서, 에서 사진을 입력하는 순서에 따라서 성능에 영향을 주지 않는다면 이 경우는 순서(sequntial)가 중요하지 않은 요소가 된다. 하지만 단어 .. 2020. 3. 29.
[PyTorch로 시작하는 딥러닝 기초] Lab-10-3 visdom edwith의 [파이토치로 시작하는 딥러닝 기초] Lab-10-3 visdom 강의를 정리했습니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-3 visdom : edwith 학습목표 Visdom 사용 방법을 알아본다. 핵심키워드 Visdom CNN - tkddyd www.edwith.org 이번 강의에서는 Visdom 사용 방법을 익히고 MNIST-CNN의 loss graph를 그리는 것까지 적용할 예정입니다. Visdom Visdom은 라이브 데이터를 풍부하게 시각화 해주는 시각화 도구입니다. 연구원과 개발자가 원격 서버에서 과학 실험을 지속적으로 할 수 있도록 도와주며, 브라우저에서 실행되며 다른 사람과 쉽게 공유할 수 있습니다. Visdom 설치 pip install vi.. 2020. 3. 8.
[PyTorch로 시작하는 딥러닝 기초] Lab-10-2 Mnist CNN edwith의 [파이토치로 시작하는 딥러닝 기초] Lab-10-2 Mnist CNN 강의를 정리했습니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-2 Mnist CNN : edwith 학습목표 MNIST 데이터를 CNN으로 적용해본다. 핵심키워드 딥러닝 학습 단계 CNN - tkddyd www.edwith.org 학습 단계 (코드 기준) 라이브러리 가져오고 (torch, torchvision, matplotlib 같은것들) GPU 사용 설정 하고 random value를 위한 seed 설정! 학습에 사용되는 parameter 설정!(learning_rate, training_epochs, batch_size, etc) 데이터셋을 가져오고 (학습에 쓰기 편하게) loader 만들.. 2020. 3. 7.
[PyTorch로 시작하는 딥러닝 기초] Lab-10-1 Convolution edwith의 부스트코스 강의 Part 3 - CNN 를 정리한 글입니다. 잘못된 부분이 있으면 말씀해 주세요! [LECTURE] Lab-10-1 Convolution : edwith 학습목표 합성곱 (Convolution) 연산에 대해 알아본다. 핵심키워드 합성곱 (Convolution) 연산 필터(Filter) 스트라이드(Stride) 패딩(Padding) ... - tkddyd www.edwith.org Convolution 이미지 위에 stride 값 만큼 filter(kernel)을 이동시키면서 겹쳐지는 부분의 각 원소의 값을 모두 곱한 뒤 더한 값을 출력하는 연산 Stride and Padding stride: filter를 한 번에 이동하는 간격 padding: input의 크기 만큼 이미지.. 2020. 3. 7.
[PyTorch로 시작하는 딥러닝 기초] 09-4 Batch-Normalization edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초 강의를 정리한 내용입니다. [LECTURE] Lab-09-4 Batch Normalization : edwith 학습목표 Batch Normalization 에 대해 알아본다. 핵심키워드 Batch Normalization 경사 소실(Gradient Vanishing) / 폭발(Explodi... - tkddyd www.edwith.org Batch Normalization Gradient Vanishing / Exploding Internal Covariate Shift Batch Normalization Code: mnist_batchnorm Gradient Vanishing / Exploding Gradient Vanishing Gradi.. 2020. 2. 9.
[PyTorch로 시작하는 딥러닝 기초] 09-3 Dropout edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초의 Dropout 강의를 정리한 내용입니다. [LECTURE] Lab-09-3 Dropout : edwith 학습목표 드롭아웃(Dropout) 에 대해 알아본다. 핵심키워드 과최적화(Overfitting) 드롭아웃(Dropout) - tkddyd www.edwith.org Overfitting 데이터를 잘 fitting 시키는 게 목표라고 할 때, 위 그림의 왼쪽 'Underfitting' 모습처럼 선형으로 분리를 하면 적합하지 않을 수 있다. 반면 고차원(highdimension)으로 표현할 경우, 'Overfitting' 모습처럼 주어진 데이터에만 집중한 것을 알 수 있다. 오른쪽 Overfitting처럼 주어진 데이터를 잘 표현하는 게 왜 .. 2020. 2. 9.
[PyTorch로 시작하는 딥러닝 기초] 08. Perceptron edwith의 [부스트코스] 파이토치로 시작하는 딥러닝 기초 의 강의를 정리한 내용입니다. [LECTURE] Lab-08-1 Perceptron : edwith 학습목표 퍼셉트론(Perceptron) 에 대해 알아본다. 핵심키워드 퍼셉트론(Perceptron) 선형분류기(Linear Classifier) AND, OR, XOR 게이트 - 커넥트재단 www.edwith.org Neuron 인공신경망은 뇌에 있는 뉴런의 동작 방식을 본 따 만든 것이다. 뉴런은 입력 신호가 들어왔을 때 입력 신호의 총 값이 임계치를 넘계되면 신호가 다음으로 전파한다. Perceptron 입력값이 있을 때, 가중치를 곱한 값과 bias를 더해 output을 만든다. Ouput을 만드는 과정에는 softmax와 같은 활성화 함수.. 2020. 2. 8.
[PyTorch로 시작하는 딥러닝 기초] 05. Logistic Regression edwith의 의 'Lab-05 Logistic Regression' 강의를 정리하였습니다. [LECTURE] Lab-05 Logistic Regression : edwith 학습목표 로지스틱 회귀(Logistic Regression)에 대해 알아본다. 핵심키워드 로지스틱 회귀(Logistic Regression) 가설(Hypothesis) 손실함수(C... - tkddyd www.edwith.org Logistic Regression X라는 데이터는 m개의 데이터들이 d 차원(d 사이즈)의 벡터 => m이 '0' 또는 '1'로 이루어진 매트릭스 => m * d 차원의 매트릭스 로지스틱 회귀는 d 차원의 1d 벡터가 주어졌을 때, '0' 또는 '1'에 가까운지 찾는 문제 w (weight 파라미터)는 (.. 2020. 2. 2.
[PyTorch로 시작하는 딥러닝 기초] 04-2. Loading Data edwith의 'Lab-o4-2 Loading Data' 강의를 정리하였습니다. [LECTURE] Lab-04-2 Loading Data : edwith 학습목표 미니배치 경사하강법(Minibatch Gradient descent)를 배우고 Dataset & DataLoader 사용법에 대해 알아본다. 핵심키워드 다항 선형 회귀(M... - tkddyd www.edwith.org Lab-04-2 Loading Data Minibatch Gradient Descent 수 많은 데이터를 한 번에 학습하면 시간이 오래 걸리며, 컴퓨터에 무리가 간다. 이 문제를 해결하기 위해, 딥러닝에서는 전체 데이터를 'minibatch'로 양을 균일하게 나눈 뒤, minibatch를 하나씩 학습한다. Minibatch Gr.. 2020. 2. 2.
2020년이 기대되는 이유, 나만의 OKR (1) 하루를 살아내다 내년을 기대하는 이유, OKR 사업계획의 시작과 함께 연말이 다가왔음을 몸소 실감하곤 한다. 그런데 내년부터 우리 회사에서 KPI가 아닌, OKR를 도입한다는 소식을 들었다. KPI도 제대로 이해하지 못한 2년차 사원인데, OKR은 처음 듣는 단어였다. OKR을 대표하는 책 두 권을 읽으면서 그 개념과 실제 적용사례, 활용 방법들을 공부했다. 공부할수록 이렇게 효과적인 도구를 굳이 회사에서 프로젝트 단위로만 쓰라는 가이드가 있던가? 이 좋은 도구를 나, 개인에게도 적용하기로 다짐했다. 그러자 웬걸. 2019년은 365일 중 94%가 흘렀다. 아직 23일이 남았음에도 내년이 너무 기대되기 시작했다. 목표와 이를 이룰 수 있는 계획을 세우는 것만으로도 이토록 간단하게 설렐 수 있다는 걸 잊고 살았다. 그동안.. 2019. 12. 7.