본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

분류 전체보기74

[WIP] AWS 솔루션즈 아키텍트 (SAA-CO2) 자격증 준비 AWS Solutions Associate 자격증 취득을 위해 자료와 정보 등을 정리한 글입니다. 목표 일정 : 2021년 여름 안에 AWS 솔루션 아키텍트 자격증을 취득해 보자 구매한 도서 : AWS 공인 솔루션스 아키텍트 올인원 스터디 가이드 : 어소시에이티드 References AWS Certified Solutions Architect - Associate (SAA-C02) 시험 가이드 2021. 6. 20.
[인공지능 및 기계학습 개론 II] Gibbs Sampling for LDA - 1 KAIST 산업및시스템공학과 문일철 교수님의 인공지능 및 기계학습 개론 II 중 강의를 위주로 기타 자료를 참고하여 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요. 베이지안 네트워크니깐 factorization 먼저 시작하자 알파, 베타는사전 지식이고 변치않음 펙토라이제이션 하려면, 1) 베타가 피에 영향을 줌, k만큼의플레이트가 있음 오른쪽 노테이션) 피 바 베타 (세미콜론으로 간략하게 표현 알파 -> 세타 : 여러번의 멀티플리케이션 궁극적으로 세타와 피를 없애줘야함 왜 없애야하냐면, 베리어블들이 w~베타가 있음 w는 관측치이기 때문에 없앨 수 없음 z는 깁스샘플링 대상이 되므로, z를 없애는 것은 좋지 않음 알파와 베타는 사전 지식이기 때문에,주어진 것이므로 없애면 안됨 -> 수식을 더 간단하게.. 2020. 12. 5.
[인공지능 및 기계학습 개론 II] Latent Dirichlet Allocation 모델 KAIST 산업및시스템공학과 문일철 교수님의 인공지능 및 기계학습 개론 II 중 강의를 위주로 기타 자료를 참고하여 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요. Topic Modeling LDA 모델은 주요 키워드를 스스로 선별하는 것이 핵심이며, 문서 모델링에서 적합하게 차원을 축소하는 방법 중 하나이다. 아래 그림은 오바마를 다룬 신문을 모두 수집 후 LDA 모델을 이용하여 토픽을 뽑은 것으로, 전체 내용의 비율을 100이라고 했을 때, 각 토픽의 비중(propotion)이 얼마만큼 다뤄졌는지 나타내는 그래프이다. 알 수 없는 대용량의 문서를 토픽모델링에 적용하여 나온 결과로 주제를 추측할 수 있다. LDA는 소프트 클러스터링이며, 하나의 주제를 하나의 클러스터로 볼 수 있다. LDA 모델 .. 2020. 11. 29.
Asynchronous Methods for Deep Reinforcement Learning (A3C) Asynchronous Methods for Deep Reinforcement Learning 논문과 관련 아티클 등을 참고하여 A3S(Asynchronous Advantage Actor-Critic)을 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! A3C는 Google의 Deepmind에서 범용적으로 사용할 수 있는 강화학습 프레임워크를 소개한 논문입니다. 기존의 DQN 강화학습은 한 개의 에이전트가 시간 순서대로 경험한 결과를 쌓은 뒤, correlation을 줄이기 위해 랜덤하게 학습하는 replay memory 방식이였다. A3C는 여러 에이전트를 다른 환경에서 경험을 쌓으나, 학습 시키는 policy network와 value network는 중앙에서 관리하며 각각의 환경에 비동기식으로 .. 2020. 9. 14.
DQN 실습 :: CartPole 게임 Deep Q-Network 튜토리얼 클래식한 게임 CartPole에 Deep Q-Learning(Reinforcement learning)을 적용한 코드를 실습해 보았습니다. 와 다른 아티클 등을 참고하여 정리하였습니다. OpenAI Gym에서 Chartpole 게임에 DQN을 적용한 튜토리얼과 설명을 확인할 수 있습니다. CartPole 게임 Chartpole은 카트를 왼쪽 또는 오른쪽으로 잘 밀어서 균형을 잡는 문제이다. 이 게임에 DQN을 적용하여, remember와 replay를 반복하며 스스로 방법을 터득하게 된다. reward function : 매 타임스텝마다 +1씩 보상을 받음 막대가 중심에서 2.4유닛 이상 기울어지거나, 멀리 떨어지면 종료됨 State space : 현재 위치, 막도의 .. 2020. 8. 30.
스터디 | Playing Atari with Deep Reinforcement Learning 강화학습 배우기 위해 입문편으로 논문을 읽고 관련 자료 등을 참고하여 정리한 블로그입니다. 잘못된 부분이 있다면 말씀해 주세요! Playing Atari with Deep Reinforcement Learning은 알파고를 만든 Deep Minde에서 2013년도 NIPS 워크샵에 소개한 논문이다. 1. Introduction 비전이나 음성처럼 높은 차원의 인풋(high-dimensional sensory input)은 강화학습 에이전트에서 직접 학습하기 어려웠다. 그나마 강화학습(Reinforcement learning, RL)은 대부분 hand-crafted feature에 의존했다. 최근에는 컴퓨터 비전의 낮은 센서 데이터에서 높은 차원의 피처를 추출하여 딥러닝하는 것이 가능해졌다. 이러한 접근을 .. 2020. 8. 9.
GAN| PyTorch Implementation Generative Adversarial Network PyTorch Implementation 2020. 7. 4.
GAN(Generative Adversarial Networks) 논문 리뷰 01. Taxonomy of Machine Learning GAN 모델을 설명하기 전에 딥러닝을 크게 두 가지로 나누면, 1) Supervised Learning과 2) Unsupervised Learning이 있다. A. Supervised Learning 지도 학습 대표적인 모델로 Discriminative Model이 있으며, 로지스틱 회귀분석, 뉴럴 네트워크 등이 해당된다. Input에 해당하는 클래스를 맞추기 위해 학습하게 된다. 예를 들어 남자냐, 여자냐를 구분하는 것이다. B. Unsupervised Learning 비지도 학습 label이 없는 데이터를 잘 학습하는 것이다. Generative Model에는 Naive Bayes, Gaussian discriminant analysis (G.. 2020. 6. 7.
[PyTorch로 시작하는 딥러닝] Lab-11-2 RNN hihello and charseq edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! 'Hihello' example 'hihello' problem h가 들어오면 i를 예측하고, i가 들어오면 h, h가 들어오면 e (...) 를 예측하는 문제이다. 이렇게 character가 들어오면 다음 character를 예측하는 모델을 만들고자 한다. 'h'가 들어왔을 때, 'i', 'e' 중 어떤 게 출력되는지 올바르게 결정할 수 있도록 hidden state의 역할이 중요하게 된다. How can we represent charaters? One-hot encodding continuous하지 않고 categorical한 데이터를 표현할 때 주로 one-hot encodding을.. 2020. 3. 29.
[PyTorch로 시작하는 딥러닝] Lab 11-1 RNN Basic edwith의 파이토치로 시작하는 딥러닝 기초 중 수업을 듣고 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! RNN in PyTorch 입력하고자 하는 데이터(input_data)는 세 가지 차원을 가지는 Tensor로 정의된다. shape = ( ___, ___, ___) 세 가지 차원은 아래에서 설명할 예정입니다. Example : Input 여기에서 사용한 1-hot encoidng은 단어를 구성하는 문자들을 사전식으로 쭉 나열한 뒤, 사전의 개수만큼 vector를 만들어 놓고 각각의 문자를 index에 해당하는 그 자리에 '1'을 주고 나머지는 '0'을 넣어주는 방식이다. 따라서, input_size는 input_data Tensor의 dimension 중 하나이다. Exampel : Hi.. 2020. 3. 29.