根据deeplearn.ai吴恩达深度学习课程3.11总结
因为如果W初始化为0 则对于任何Xi,每个隐藏层对应的每个神经元的输出都是相同的,这样即使梯度下降训练,无论训练多少次,这些神经元都是对称的,无论隐藏层内有多少个结点,都相当于在训练同一个函数。
本文共 180 字,大约阅读时间需要 1 分钟。
根据deeplearn.ai吴恩达深度学习课程3.11总结
因为如果W初始化为0 则对于任何Xi,每个隐藏层对应的每个神经元的输出都是相同的,这样即使梯度下降训练,无论训练多少次,这些神经元都是对称的,无论隐藏层内有多少个结点,都相当于在训练同一个函数。
转载于:https://www.cnblogs.com/guoyaohua/p/8053207.html