导学
机器学习基础
Jupyter Notebook, numpy
- jupyter notebook基础
- jupyter notebook中的魔法命令
- Numpy数据基础
- 创建numpy数组和矩阵
- Numpy数组的基本操作
- Numpy数组的合并与分割
- Numpy中的矩阵运算
- Numpy中的聚合运算
- Numpy中的arg运算
- Numpy中的比较和FancyIndexing
- Matplotlib数据可视化基础
- 数据加载和简单的数据探索
k近邻算法
- k近邻算法基础
- scikit-learn中的机器学习算法封装
- 训练数据集,测试数据集
- 分类准确度
- 超参数
- 网格搜索与k近邻算法中更多超参数
- 数据归一化
- scikit-learn中的Scaler
- 更多有关k近邻算法的思考
线性回归
- 简单线性回归
- 最小二乘法
- 简单线性回归的实现
- 向量化
- 衡量线性回归法的指标 MSE,RMS,MAE
- 最好的衡量线性回归法的指标 R Squared
- 多元线性回归和正规方程解
- 实现多元线性回归
- 使用scikit-learn解决回归问题
- 线性回归的可解性和更多思考
梯度下降法
- 什么是梯度下降法
- 模拟实现梯度下降法
- 线性回归中的梯度下降法
- 实现线性回归中的梯度下降法
- 梯度下降的向量化和数据标准化
- 随机梯度下降法
- scikit-learn中的随机梯度下降法
- 如何确定梯度计算的准确性 调试梯度下降法
- 有关梯度下降法的更多深入讨论
PCA与梯度上升法
- 什么是PCA
- 使用梯度上升法求解PCA问题
- 求数据的主成分PCA
- 求数据的前n个主成分
- 高维数据映射为低维数据
- scikit-learn中的PCA
- 试手MNIST数据集
- 使用PCA对数据进行降噪
- 人脸识别与特征脸
多项式回归与模型泛化
- 什么是多项式回归
- scikit-learn中的多项式回归于pipeline
- 过拟合与欠拟合
- 为什么要训练数据集与测试数据集
- 学习曲线
- 验证数据集与交叉验证
- 偏差方差平衡
- 模型泛化与岭回归
- LASSO
- L1,L2和弹性网络
逻辑回归
评价分类结果
支撑向量机 SVM
决策树
集成学习和随机森林
- 什么是集成学习
- SoftVoting Classifier
- Bagging和Pasting
- oob(Out-of-Bag)和关于Bagging的更多讨论
- 随机森林和Extra-Trees
- Ada Boosting和Gradient Boosting
- Stacking