본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

전체 글74

[AWS SA-CO2] AWS EC2 온디맨드 인스턴스 - 시작하는 인스턴스에 대한 비용을 초 단위로 지불합니다. • Savings Plans – 1년 또는 3년 기간 동안 시간당 USD로 일관된 사용량을 약정하여 Amazon EC2 비용을 절감할 수 있습니다. • 예약 인스턴스 – 1년 또는 3년 기간 동안 인스턴스 유형 또는 지역을 포함해 일관된 인스턴스 구성을 약정하여 Amazon EC2 비용을 절감할 수 있습니다. • 예약된 인스턴스 - 1년 동안 항상 사용할 수 있는 인스턴스를 지정된 되풀이 일정으로 구입합니다. • 스팟 인스턴스 – 미사용 EC2 인스턴스를 요청하여 Amazon EC2 비용을 대폭 줄일 수 있습니다. • 전용 호스트 - 인스턴스 실행을 전담하는 실제 호스트 비용을 지불하며, 기존의 소켓, 코어 또는 VM 소프트웨어.. 2021. 8. 1.
[SAA-CO2] AWS 스토리지 S3 버킷에 객체를 저장하는 비용을 지불합니다. 부과되는 요금은 객체의 크기, 해당 월에 객체를 저장한 기간, 스토리지 클래스에 따라 다르며, 스토리지 클래스에는 S3 Standard, S3 Intelligent-Tiering, S3 Standard - Infrequent Access, S3 One Zone - Infrequent Access, S3 Glacier, S3 Glacier Deep Archive, Reduced Redundancy Storage(RRS)가 있습니다. 액세스 패턴을 모니터링하고 S3 Intelligent-Tiering 스토리지 클래스의 액세스 계층 간에 객체를 이동하도록 S3 Intelligent-Tiering에 저장된 객체당 월별 모니터링 및 자동화 요금을 지불합니다. S3 .. 2021. 7. 31.
[WIP] AWS 솔루션즈 아키텍트 (SAA-CO2) 자격증 준비 AWS Solutions Associate 자격증 취득을 위해 자료와 정보 등을 정리한 글입니다. 목표 일정 : 2021년 여름 안에 AWS 솔루션 아키텍트 자격증을 취득해 보자 구매한 도서 : AWS 공인 솔루션스 아키텍트 올인원 스터디 가이드 : 어소시에이티드 References AWS Certified Solutions Architect - Associate (SAA-C02) 시험 가이드 2021. 6. 20.
[인공지능 및 기계학습 개론 II] Gibbs Sampling for LDA - 1 KAIST 산업및시스템공학과 문일철 교수님의 인공지능 및 기계학습 개론 II 중 강의를 위주로 기타 자료를 참고하여 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요. 베이지안 네트워크니깐 factorization 먼저 시작하자 알파, 베타는사전 지식이고 변치않음 펙토라이제이션 하려면, 1) 베타가 피에 영향을 줌, k만큼의플레이트가 있음 오른쪽 노테이션) 피 바 베타 (세미콜론으로 간략하게 표현 알파 -> 세타 : 여러번의 멀티플리케이션 궁극적으로 세타와 피를 없애줘야함 왜 없애야하냐면, 베리어블들이 w~베타가 있음 w는 관측치이기 때문에 없앨 수 없음 z는 깁스샘플링 대상이 되므로, z를 없애는 것은 좋지 않음 알파와 베타는 사전 지식이기 때문에,주어진 것이므로 없애면 안됨 -> 수식을 더 간단하게.. 2020. 12. 5.
[인공지능 및 기계학습 개론 II] Latent Dirichlet Allocation 모델 KAIST 산업및시스템공학과 문일철 교수님의 인공지능 및 기계학습 개론 II 중 강의를 위주로 기타 자료를 참고하여 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요. Topic Modeling LDA 모델은 주요 키워드를 스스로 선별하는 것이 핵심이며, 문서 모델링에서 적합하게 차원을 축소하는 방법 중 하나이다. 아래 그림은 오바마를 다룬 신문을 모두 수집 후 LDA 모델을 이용하여 토픽을 뽑은 것으로, 전체 내용의 비율을 100이라고 했을 때, 각 토픽의 비중(propotion)이 얼마만큼 다뤄졌는지 나타내는 그래프이다. 알 수 없는 대용량의 문서를 토픽모델링에 적용하여 나온 결과로 주제를 추측할 수 있다. LDA는 소프트 클러스터링이며, 하나의 주제를 하나의 클러스터로 볼 수 있다. LDA 모델 .. 2020. 11. 29.
Asynchronous Methods for Deep Reinforcement Learning (A3C) Asynchronous Methods for Deep Reinforcement Learning 논문과 관련 아티클 등을 참고하여 A3S(Asynchronous Advantage Actor-Critic)을 정리하였습니다. 잘못된 부분이 있으면 말씀해 주세요! A3C는 Google의 Deepmind에서 범용적으로 사용할 수 있는 강화학습 프레임워크를 소개한 논문입니다. 기존의 DQN 강화학습은 한 개의 에이전트가 시간 순서대로 경험한 결과를 쌓은 뒤, correlation을 줄이기 위해 랜덤하게 학습하는 replay memory 방식이였다. A3C는 여러 에이전트를 다른 환경에서 경험을 쌓으나, 학습 시키는 policy network와 value network는 중앙에서 관리하며 각각의 환경에 비동기식으로 .. 2020. 9. 14.
DQN 실습 :: CartPole 게임 Deep Q-Network 튜토리얼 클래식한 게임 CartPole에 Deep Q-Learning(Reinforcement learning)을 적용한 코드를 실습해 보았습니다. 와 다른 아티클 등을 참고하여 정리하였습니다. OpenAI Gym에서 Chartpole 게임에 DQN을 적용한 튜토리얼과 설명을 확인할 수 있습니다. CartPole 게임 Chartpole은 카트를 왼쪽 또는 오른쪽으로 잘 밀어서 균형을 잡는 문제이다. 이 게임에 DQN을 적용하여, remember와 replay를 반복하며 스스로 방법을 터득하게 된다. reward function : 매 타임스텝마다 +1씩 보상을 받음 막대가 중심에서 2.4유닛 이상 기울어지거나, 멀리 떨어지면 종료됨 State space : 현재 위치, 막도의 .. 2020. 8. 30.
스터디 | Playing Atari with Deep Reinforcement Learning 강화학습 배우기 위해 입문편으로 논문을 읽고 관련 자료 등을 참고하여 정리한 블로그입니다. 잘못된 부분이 있다면 말씀해 주세요! Playing Atari with Deep Reinforcement Learning은 알파고를 만든 Deep Minde에서 2013년도 NIPS 워크샵에 소개한 논문이다. 1. Introduction 비전이나 음성처럼 높은 차원의 인풋(high-dimensional sensory input)은 강화학습 에이전트에서 직접 학습하기 어려웠다. 그나마 강화학습(Reinforcement learning, RL)은 대부분 hand-crafted feature에 의존했다. 최근에는 컴퓨터 비전의 낮은 센서 데이터에서 높은 차원의 피처를 추출하여 딥러닝하는 것이 가능해졌다. 이러한 접근을 .. 2020. 8. 9.
GAN| PyTorch Implementation Generative Adversarial Network PyTorch Implementation 2020. 7. 4.