Tag: statistics

  • 왜 딥 러닝이 잘 동작하는가

    관련된 글을 모아가면서 포스트를 계속 업데이트 하려 합니다. 우주의 원리가 딥러닝이 배우기에 적절하기 때문 K layer로 단순하게 표현가능한 함수를 2층으로 구현하면 크기가 지수적으로 커진다. IoT, 모바일 등으로 인해 증가하는 데이터를 활용할 수 있는 모형이다

  • Pseudo label – Semi supervised learning 방법

    Training의 막바지에 도달하면 레이블이 없는 데이터로 예측을 수행한 뒤 예측된 레이블이 진짜 레이블인 것처럼해서 모델을 튜닝한다. – http://deeplearning.net/wp-content/uploads/2013/03/pseudo_label_final.pdf – Why pseudo labels? – Kaggle Forum Self Training 과는 구분.

  • Batch Normalization

    Covariate shift – A Literature Survey on Domain Adaptation of Statistical Classifiers Why does batch normalization help? – Quora Batch Normalization – SanghyukChun’s Blog

  • Saving and loading numpy array

    Code snippet from http://course.fast.ai/.

  • Various ways to create One Hot Encoding

    Using numpy: Using sklearn: Using keras’s numpy util.

  • Linear Regression using Keras

    This is example code to perform linear regression using keras. Output:

  • Bay Area Deep Learning School 2016

    장장 20시간의 강의가 유튜브에 올라와 있습니다. Day 1: https://youtu.be/eyovmAtoUx0 Day 2: https://youtu.be/9dXiAecyJrY 그리고 http://www.bayareadlschool.org/schedule 에 보시면 발표 자료가 있습니다.

  • reshape2 vs tidyr

    같은 듯 다른 듯한 두 패키지를 잘 비교한글이 있어 링크합니다. Comparison of the reshape2 and tidyr packages tidyr은 어떤일이 벌어지는지 하나하나 적는 형식이라 단계별로 알기 쉽고 함축이 없어 명확한 반면, reshape은 좀 더 선언적이라 코드가 짧고 하고자 하는 일 자체를 더 잘 설명하지 않나 싶습니다. 코드가 선언적이어야하는지 절차적이어야하는지 이 두가지는 항상 업치락뒤치락 하면서 같이 가는…

  • word2vec in tensorflow

    공부하면서 참고한 자료들 올려봅니다. Tensorflow tutorial word2vec_basic.py에 대한 주석붙인 설명 CBOW와 Skip-gram의 차이 Xin Rong, word2vec Parameter Learning Explained. Context word가 여러개일때 어떻게 훈련하는가. 결론은 입력도 출력도 평균을 사용한다는 것.

  • Playing go

    인공지능 바둑에 대한 글들을 모아보려합니다. The Grand Challenge of Computer Go: Monte Carlo Tree Search and Extensions