笔记目录:
深度学习是个很有趣的领域。
深度学习入门这本书算是读完了,读书笔记没有第六章和第八章的内容,但书对应的章节是已经读了。之所以不记笔记,是因为这两章的内容是散碎的知识点,前驱后继关系不明显,换句话说就是没那么“成系统”。实际上 Convolution & Pooling 这一章也是有点这个意思,和前面的章节比起来,更像是框架内容的填充而不是知识框架的构筑。而且显然 CNN 一章讲得就没那么深入浅出了,比如完全没提池化层的输出怎么串到全连接层的输入,显然它们的shape
不一样。
这也不是第一次对 AI 领域产生兴趣,记得应该是入行第一年,我就试着读了基于 tensorflow 的神经网络教程——然后当然是没学进去。市面上很多机器学习的入门书,给我的感觉就是带着疑问翻开书,带着更多疑问合上书,带着更多更多疑问敲下代码,然后就神奇地跑起来了。至于写的代码到底在干啥,半懂不懂。总之就是神奇地跑起来了。
深度学习入门这本书很难得地从一个合适的角度切入,一点一点勾勒出了神经网络的基本原理框架。读书的时候会遇困难,但都处在一个解决起来有一点难度,但又不至于劝退的程度。读这本书的感觉就像是给脑子做个伸展运动,甚至有点解压。
算算时间,今年1月开始读深度学习入门这本书到现在有两个月了。中间有三四周的时间因为过年没接触电脑,就算读了一个月吧。当然我也不是整天在看=。=算读书的时间不用这么精细。总之两个月,总算读完了,粗读。虽然内容实践了很大一部分,自我感觉是有一定的理解了,脑子里的知识框架算搭了起来,知道神经网络的推理和训练是怎么回事了。
后续的计划是,读深度学习进阶前,先把深度学习入门的知识框架落实了。比如CNN卷积和池化的正/反向传播过程,书中没细讲。读书笔记也没展开太多。其次是结合主流框架如 PyTorch ,来构造神经网络,相互印证。
他山之石,可以攻玉。
预期是写一系列短文,写作的过程也是构筑和巩固知识框架的过程。计划是2到3篇框架,简单的神经网络长啥样,如何推理,如何训练。然后是激活函数和激活函数的属性(正向传播/反向传播)还有实现细节;各种层和层的属性(正向/反向传播)和实现细节,至少包括全连接层、Convolution、Pooling、Dropout,然后是Optimizer和超参,技巧。基本就是对深度学习入门这书全书知识点的复习和重新组织。尽量自己做一些简单的图片来帮助说明(也是帮自己,这方面知识运用的机会太少,以后万一忘了翻一下博客更容易想起来。)
领域 | 内容 |
---|---|
框架构筑 | 神经网络概念;一般推理过程;一般训练过程;特殊神经网络日后补充; |
激活函数 | 定义;正向传播过程;反向传播过程;实现细节;其他属性技巧补充; |
损失函数 | 定义;正向传播过程;反向传播过程;实现细节;其他属性技巧补充; |
各种层 | 定义;正向传播过程;反向传播过程;实现细节;其他属性技巧补充; |
优化器 | 定义;对应的超参数;实现细节;其他属性技巧补充; |
其他技巧 | 面对的问题;如何改善;效果评估; |
工业界 | 现实问题实践;工业界框架学习;网上的机器学习习题挑战;社区交流; |
好了大概就这样。