正则化
L1 正则化:向损失函数中增加
L2 正则化:向损失函数中增加
(也可以同时使用两个正则化:
(一般用 L2 正则化)
L1 正则化会让权重向量在最优化的过程中变得稀疏(即非常接近0),使用 L1 正则化的神经元最后使用的数据是那些最重要的输入数据的稀疏子集,同时对输入数据中的噪声不敏感。
L2 正则化后得到的权重向量大多是分散的小数字。
Dropout
让神经元以超参数
注意:在 predict 函数中不进行随机失活,但是对于两个隐层的输出都要乘以
L1 正则化:向损失函数中增加
L2 正则化:向损失函数中增加
(也可以同时使用两个正则化:
(一般用 L2 正则化)
L1 正则化会让权重向量在最优化的过程中变得稀疏(即非常接近0),使用 L1 正则化的神经元最后使用的数据是那些最重要的输入数据的稀疏子集,同时对输入数据中的噪声不敏感。
L2 正则化后得到的权重向量大多是分散的小数字。
Dropout
让神经元以超参数
注意:在 predict 函数中不进行随机失活,但是对于两个隐层的输出都要乘以