드디어 Learning Deep Architectures for AI 를 다 읽었습니다. 문서를 읽으면서 그동안 내가 알고 있다고 생각했던 Boltzmann machine이나 RBM에 대해 실은 내가 아무것도 모르는구나를 깨달았습니다. 그리고 layerwise greedy training이나 distributed sparse representation에 대해 배울 수 있었습니다.
하지만 정말 아무것도 모르는 사람이 읽기에 좋은 시작은 아니었던 듯 합니다. 내용에 디테일이 많은데 그 디테일을 쉽게 이해하기에는 수식이나 그림이 많이 부족했습니다.
이후 기초부터 설명한 내용을 보겠다고 결심하고 Neural net에 참고할만한 강의는 Coursera의 Neural Nets 강의를 보고 있습니다. 발음이 약간 어렵고 워낙 중요한 내용을 빨리 설명하기에 자주 뒤로 돌아가 반복해서 봐야하지만 설명은 이해하기 쉽습니다.
동영상 강의 외에는 딥러닝의 대가들이 Nature에 기고한 Deep Learning 을 보고 있습니다. 처음부터 이 글로 시작했어야하는데라는 생각이 들 정도로 기초부터 차근차근 설명되어있습니다. (그러나 Neural Net이 무엇인가 정도는 알고나서 읽는 것이 좋을 것입니다.)