1.交叉熵代价函数
2.正则化方法:L1和L2 regularization、数据集扩增、dropout
3. 数据预处理
4.机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
5.随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
Optimization: Stochastic Gradient Descent
2023-07-25 12:49:34
1.交叉熵代价函数
2.正则化方法:L1和L2 regularization、数据集扩增、dropout
3. 数据预处理
4.机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
5.随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
Optimization: Stochastic Gradient Descent
下一篇:ansible安装及问题解决