Category Archives: Uncategorized

ZCA Whitening

Stack exchange 글인데 정말 훌륭한 설명입니다. 이렇게 핵심만 전달하는 능력이 있다니.. What is the difference between ZCA whitening and PCA whitening? 같은 사람의 PCA를 사용한 whitening 방법에 대한 글도 훌륭하네요.

Learning to execute

Learning to execute. 계산을 RNN으로 해보자. https://arxiv.org/abs/1410.4615 덧셈 문자열 구현을 RNN으로 만든 Keras 구현 예시. 이 구현에서는 입력을 뒤짚는 부분도 흥미로움. 예를들어 12+34는 43+21로 만드는데, 실제 덧셈은 일의 자리 다음 십의 자리를 계산한다는 것을 생각하면 충분히 이해가 됨. 실행해보면 성능도 매우 우수함.

Curriculum Learning

http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.149.4701 Humans and animals learn much better when the examples are not randomly presented but organized in a meaningful order which illustrates gradually more concepts, and gradually more complex ones. Here, we formalize such training strategies in the context of machine learning, and call them “curriculum learning” … significant improvements in generalization can be achieved. […]

Scheduled Sampling

RNN에서 훈련시 실제 시퀀스 대신 모델이 예측하는 값을 입력으로 준다. 예측이 잘못된 뒤 완전히 엉뚱한 시퀀스를 답으로 내놓는 문제를 해결. 또한 실제 예측시와 동일하게 훈련을 시킨다는데 의미가 있음. We propose a curriculum learning strategy to gently change the training process from a fully guided scheme using the true previous token, towards a less guided scheme […]

Skew 된 데이터에서의 기하 평균

​랜덤 변수 X가 로그 노말을 따르면 X의 기하평균이 중앙값과 같다. 또한 기하 평균은 산술 평균보다 같거나 작다. 따라서 outlier가 있는 데이터에서 기하 평균이 유용하게 쓰인다. 예를들어 웹 사이트 로딩 시간의 latency 를 로그 노말로 본다면 latency의 기하 평균을 구할 경우 그 값은 중앙값이 된다.중앙값은 outlier의 영향을 덜 받으므로 보다 더 대표적인 latency를 구할 수 있는 […]

Changing numpy array column or shape

Changing the order of columns. This is useful when you want to reorder image data, e.g., rgb -> bgr. Changing the order of axis. For image, this is useful if you want to change the channel axis to the arbitrary position. As an example, matplotlib.pyplt.plot() accepts images in the form of (x, y, channel). Your […]

왜 딥 러닝이 잘 동작하는가

관련된 글을 모아가면서 포스트를 계속 업데이트 하려 합니다. 우주의 원리가 딥러닝이 배우기에 적절하기 때문 K layer로 단순하게 표현가능한 함수를 2층으로 구현하면 크기가 지수적으로 커진다. IoT, 모바일 등으로 인해 증가하는 데이터를 활용할 수 있는 모형이다

Pseudo label – Semi supervised learning 방법

Training의 막바지에 도달하면 레이블이 없는 데이터로 예측을 수행한 뒤 예측된 레이블이 진짜 레이블인 것처럼해서 모델을 튜닝한다. – http://deeplearning.net/wp-content/uploads/2013/03/pseudo_label_final.pdf – Why pseudo labels? – Kaggle Forum Self Training 과는 구분.

Batch Normalization

Covariate shift – A Literature Survey on Domain Adaptation of Statistical Classifiers Why does batch normalization help? – Quora Batch Normalization – SanghyukChun’s Blog

Saving and loading numpy array

Code snippet from http://course.fast.ai/.