본문 바로가기
  • 기술을 이야기하지만 사람을 생각합니다.

분류 전체보기74

Deep Learning Cookbook :: 04 위키피디아 외부 링크를 이용한 추천 시스템 구축 04 위키피디아 외부 링크를 이용한 추천 시스템 구축 이 책은 (주)느린생각에서 'Deep Learning Cookbook' 책을 지원 받아 이 책을 교재로 스터디를 진행하였습니다. 이 글은 Deep Learning Cookbook의 4장 를 실습을 목적으로 공부한 내용을 정리한 글입니다. INDEX 4장에서는 간단하게(?) 추천 시스템을 구축하는 방법을 소개한다. 방법은 크게 네 가지로 나눌 수 있다. 위키피디비아의 외부 링크에서 학습셋을 추출 이 링크들을 임베딩하여 학습(training) 그 다음 SVM을 구현하여 추천 제안 영화의 평점을 예측 4.1. 데이터 수집 위키피디아에서 최신 덤프 데이터를 내려받는다. Jupyter Notebook의 데이터 폴더 안에 미리 추출된 상위 10,000편의 영화정.. 2019. 4. 6.
Deep Learning Cookbook :: Chapter 03 단어 임베딩을 사용하여 텍스트 유사성 계산하기 (2) (feat. SVM) Chapter 03 단어 임베딩을 사용하여 텍스트 유사성 계산하기 이 책은 (주)느린생각에서 'Deep Learning Cookbook' 책을 지원 받아 이 책을 교재로 스터디를 진행하였습니다. 이 글은 Deep Learning Cookbook의 3장 를 실습을 목적으로 공부한 내용을 정리한 글입니다. 3장의 앞 부분은 다른 스터디원이 정리한 포스트를 참고해 주세요! Chapter 3.1 단어 임베딩 관련 포스트 Chapter 3 : 단어 임베딩을 사용하여 텍스트 유사성 계산하기 Note : 이 포스터는 (주)느린생각의 지원을 받아 딥러닝 쿡북이라는 교재로 스터디를 하고 작성하는 포스터입니다. 이론은 딥러닝을 이용한 자연여 처리 입문(https://wikidocs.net/22660) 교재를 사용하였고 코.. 2019. 3. 10.
Deep Learning Cookbook :: Chapter 03 단어 임베딩을 사용하여 텍스트 유사성 계산하기 (1) 03 단어 임베딩을 사용하여 텍스트 유사성 계산하기 이 책은 (주)느린생각에서 'Deep Learning Cookbook' 책을 지원 받아 이 책을 교재로 스터디를 진행하였습니다. 이 글은 Deep Learning Cookbook의 3장 를 실습을 목적으로 공부한 내용을 정리한 글입니다. 3장의 앞 부분은 다른 스터디원이 정리한 포스트를 참고해 주세요! Chapter 3.1 단어 임베딩 관련 포스트 Chapter 3 : 단어 임베딩을 사용하여 텍스트 유사성 계산하기 Note : 이 포스터는 (주)느린생각의 지원을 받아 딥러닝 쿡북이라는 교재로 스터디를 하고 작성하는 포스터입니다. 이론은 딥러닝을 이용한 자연여 처리 입문(https://wikidocs.net/22660) 교재를 사용하였고 코드.. eda-.. 2019. 3. 10.
[논문리뷰] DeepMind의 AlphaGO 논문 톺아보기 Nature 논문으로 살펴보는 AlphaGo 알고리즘 이 글은 최성준 박사님의 강의와 여러 자료들을 기반으로 AlphaGo 논문(다운로드)을 정리한 글입니다. 혹시 잘못된 내용이 있으면 말씀해 주세요! Silver, D., Schrittwieser, J., Simonyan, K., Antonoglou, I., Huang, A., Guez, A., ... & Chen, Y. (2017). Mastering the game of Go without human knowledge. Nature, 550(7676), 354. 딥마인드와 알파고 2011년에 설립한 딥마인드 테크놀로지(DeepMind Technologies)는 기계학습과 신경과학을 통해서 인공지능을 구현하고 개발하는 영국의 스타트업이다. 2014년 .. 2019. 2. 6.
[서비스리뷰] 다소 아쉬운 TOSS의 변화 톺아보기 TOSS의 세 번째 탈바꿈, 그 변화에 대한 주관적인 경험을 살펴보자 토스에는 크게 세 단계의 큰 변화가 있었다. 첫 번째 - 혁명적인 간편 송금 서비스의 등장 , 두 번째 - 다양한 금융 서비스와의 연동, 그리고 지금세 번째 탈바꿈에는 앞선 두 단계의 변화처럼 기능적으로 큰 혁신은 아니었지만, 시각적인 변화와 서비스 주요 기능의 컨셉에 대한 변화가 있었다.최근 변화에 대해서 살펴보고자 한다. 글을 시작하기에 앞서 토스의 간편한 송금 서비스에 반해서 가입 이후 쭉 애용하며, 주변에도 많이 극찬하며 추천했던 서비스이다.토스가 큰 투자를 받고 유니콘 기업이 되었을 때도 '역시...'라는 생각이 들었으며, 파격적인 연봉인상과 1억원 스톡옵션을 주었을 때도 응원하는 마음이 컸다. 물론 지금도 어떻게 성장할지 내.. 2019. 2. 3.
#01. 내게 작은 힘을 주는 글 (feat. 읽을만한 뉴스레터) 지금와 내일을 살아가는 월급쟁이이자 UX디자이너로서, 내게 생각할 힘과 영감을 주는 고마운 뉴스레터를 모아보았습니다. 일상과 관련된 뉴스레터 생각노트 리멤버 나우 (REMEMBER NOW) : 리멤버나우 앱 뉴닉 (NEWNNEK) 어피티 (UPPITY) 오디티 스테이션 (Space Oddity) Morning Brew 업무와 관련된 뉴스레터 디독 퍼블리 (PUBLLY) 일상과 관련된 뉴스레터 # 생각노트 # 리멤버 나우 (REMEMBER NOW) # 뉴닉 (NEWNNEK) # 업피티 (UPPITY) 머니레터 당신의 메일함에 돈에 대한 자신감을 전달합니다. 한창 $$$돈$$$에 관심은 많지만 어떻게 해야할지 모르는 사회초년생들에게 적극 추천하는 뉴스레터! 터부시 되지만 삶에서 빼놓을 수 없는 "돈" 이야기.. 2019. 2. 3.
[딥러닝개념] 딥러닝 효과적으로 학습하기(2) (ft. regularization) 이 글은 최성준 박사님의 의 'Overfitting을 막는 regularization' 강의에서 소개한 Ian Goodfellow의 Deep Learning 책에서 Regularization 챕터에서 나온 기법들을 소개합니다. 잘못된 부분이 있다면 알려주세요! 이전글 보기 Regularization for Deep LearningIan Goodfellow의 책의 Chp7. Regularization for deep learning에서 나온 기법들에 대해서 소개합니다. 머신러닝에서 주요 문제는 '학습셋뿐만 아니라 새로운 데이터(new input) 또한 어떻게 잘 맞추는가'이다. 이 문제에 답하기 위해서는 오버피팅을 해결해야 하며, 가장 효과적인 해결책은 정규화이다. 다양한 정규화 방법 중 하나는 모델의 복.. 2019. 1. 13.
[딥러닝개념] 딥러닝 효과적으로 학습하기(1) (ft. regularization) 이 글은 최성준 박사님의 강의 중 'Overfitting을 막는 regularization' 강의와 여러 자료들을 모아 정리했습니다. 잘못된 부분이 있다면 알려주세요! Overfitting을 막는 Regularization 딥러닝을 실제로 적용하는 데 초점을 둔다면 이번에 소개하는 기법들이 매우 중요하다!이 글에서는 오버피팅이 발생하는 이유와 이를 해결할 수 있는 기법인 정규화(regularization)에 대해 설명한다. Regularization이란?정규화(regularization)이란 오버피팅(overfitting)을 피하는 게 목적이다!오버피팅이란 학습 데이터를 너무 믿는 나머지, 테스트 데이터를 맞추지 못하는 문제이다.오버피팅이 발생한다는 건 간접적으로 밖에 알 수 없다. Overfitting.. 2019. 1. 13.
[논문리뷰] RNN :: LSTM(Long Short Term Memory) 톺아보기 이 블로그 글은 딥러닝 공부를 목적으로, 최성준 박사님 강의와 여러 자료들을 참고하여 LSTM의 개념에 대해 정리하였습니다. 기존의 인공 신경망의 은닉층에는 맥락이 고려되지 않은 단순한 뉴런만 배치되어 있는 구조이다. 과거의 은닉층(hidden layer)을 도입하여 시계열 데이터를 예측할 수 있지만 vanishing gradient 문제가 발생한다. 반면, 순환신경망(RNN)은 과거의 이벤트가 미래의 결과에 영향을 줄 수 있는 순환 구조(directed cycle)를 가지고 있다. 데이터 중에서도 연속적인 속성(sequence)을 띄고 있는 번역, 문자, 음성 인식 등 다양한 분야에서 RNN이 활용되고 있다. LSTM은 RNN의 주요 알고리즘으로 각광받고 있는 모델이다. LSTM(Long Short T.. 2019. 1. 5.
UX ISSUE :: 이메일 마케팅에 대한 단상(2) 서비스 이메일 효과적으로 보내는 방법 이메일을 더 효과적으로 보내는 방법 1. 맥락을 고려하여 이메일을 보내기이메일 발송에 있어서도 맥락(context)을 고려하는 것은 여전히 중요하다. 이메일은 주로 언제 확인할까?그렇다면 이메일 뉴스레터는 언제 보내는 게 가장 효과적일까? 업무와 관련된 메일이라면, 업무를 시작하기 전 또는 점심 식사를 한 후 등 이메일을 주로 확인하는 시간대에 보내는 게 오픈율에 긍정적인 영향을 줄 수 있다. 상황을 고려한 이메일 발송다양한 상황별 이메일 뉴스레터 사례 모음Really Googel Emails :: 베스트 이메일 사례 모음 2. MOBILE FIRST스마트폰이 등장하기 전에는 이메일을 확인하고 보내는 것이 PC의 전유물이였다면, 스마트폰이 일상화되면서 모바일에서도 이메일을 확인하는 빈도가 매우 높아지고 .. 2018. 12. 30.