CS224d:DL&NLP学习笔记 Pset1题解推导

Posted by SkyHigh on October 13, 2016

CS224d:DL&NLP学习笔记 Pset1题解推导

做这部分练习的时候,需要知道下神经网络的基础知识,以及BP的原理,word2vec的SG和CBOW的实现、负样本损失函数的作用等。

一、Softfmax

(a)
这个不难推导,直接给出

1softmax

二、Neural Network Basics

2NN

2NN2

2NN3

关于(c)和(d)的BP推导我们放到后面进行完整的推导。

三、word2vec

对(a)、(b)、(c)、(d)进行总结概括。

3word2vec

3word2vec2

3word2vec3

3word2vec4

四、BP的推导

这节是原练习没有的,可以看作是对“二”里BP的一般化扩展。 本节参考的思路是UFLDL——BP推导

BP即Backprop,即误差反向传播。它的思路就是通过求导的链式法则,从而求出每个节点的变量对于误差函数的偏导数。

这节我们主要求解两个变量的导数:

  • 每个神经元的权重W
  • 每个神经元的偏置b

最后结合上面的导数,给出梯度下降算法和参数更新迭代策略。

推导过程如下:

4bp

4bp1

4bp2

4bp3

4bp4

4bp5

4bp6

感谢阅读。