两个方面: 1.更好的拟合,但较小的过拟合风险 2.强健的初始化方法(纠正非线性) 研究:激活函数、训练的复杂性 初始化方法,帮助更好的收敛 在不同的channels,改变非线性激活函数。 额外参 … Continue reading relu和prelu
两个方面: 1.更好的拟合,但较小的过拟合风险 2.强健的初始化方法(纠正非线性) 研究:激活函数、训练的复杂性 初始化方法,帮助更好的收敛 在不同的channels,改变非线性激活函数。 额外参 … Continue reading relu和prelu