研究者能够扩展神经网络并构建非常大型网络的原因之一,就是神经网络可以被向量化,vectorized;可以非常高效地用矩阵地乘法实现。
事实上,并行计算硬件,例如GPU,一些CPU的功能,非常擅长进行非常大的矩阵乘法,矢量化的神经网络是如何工作的。
将参数X, W, B, A_in, A_out 全部当作矩阵处理,会非常高效地得到某一层的输出A_out,matmul是NumPy中的矩阵乘法;
研究者能够扩展神经网络并构建非常大型网络的原因之一,就是神经网络可以被向量化,vectorized;可以非常高效地用矩阵地乘法实现。
事实上,并行计算硬件,例如GPU,一些CPU的功能,非常擅长进行非常大的矩阵乘法,矢量化的神经网络是如何工作的。
将参数X, W, B, A_in, A_out 全部当作矩阵处理,会非常高效地得到某一层的输出A_out,matmul是NumPy中的矩阵乘法;
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若转载,请注明出处:http://www.pswp.cn/news/918415.shtml 繁体地址,请注明出处:http://hk.pswp.cn/news/918415.shtml 英文地址,请注明出处:http://en.pswp.cn/news/918415.shtml
如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!