神经网络向量化和梯度下降

最近在用tensorflow编程,看了一些代码例子,发现以前学的很多东西都忘了。比如,minibatch梯度下降原理。另外,Tensorflow的编程都是向量化的编程,全是矩阵和向量间的运算,所以又回去看了一下神经网络向量化。现在记下来以免以后再忘了。

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0495.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0496.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0497.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0498.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0499.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0500.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0501.jpg

C:\\Users\\jzeng\\Documents\\Tencent Files\\1534357193\\FileRecv\\MobileFile\\img_0502.jpg