一、前述
数学基础知识对机器学习还有深度学习的知识点理解尤为重要,本节主要讲解极限等相关知识。
二、极限
1、例子
当 x 趋于 0 的时候,sin(x) 与 tan(x) 都趋于 0. 但是哪一个趋于 0 的速度更快一些呢?
我们考察这两个函数的商的极限,
所以当 x → 0 的时候,sin(x) 与 tan(x) 是同样级别的无穷小。
2、相关定理
如果三个函数满足 f(x) ≤ g(x) ≤ h(x), 而且他们都在 x0 处有极 限,那么
重要极限:
三、微分学
微分学的核心思想: 逼近.
1、函数导数:
如果一个函数 f(x) 在 x0 附近有定义,而且存在极限。
那么 f(x) 在 x0 处可导且导数 f ′ (x0) = L.
无穷小量表述: 线性逼近。
Definition (函数的高阶导数)
如果函数的导数函数仍然可导,那么导数函数的导数是二阶导 数,二阶导数函数的导数是三阶导数. 一般地记为
或者进一步
导数是对函数进行线性逼近,高阶导数是对导数函数的进一步逼 近,因为没有更好的办法,所以数学家选择继续使用线性逼近.
Example (初等函数的导数)
2、微分学:多元函数
且 Lx, Ly 分别是 f 在 x, y 方向上的偏导数. 一般记为
3、Definition (高阶偏导数)
并且二阶偏导数为
4、Example (偏导数的例子)
5、求导法则
6.总结
微分学的核心思想是逼近. 一阶导数:线性逼近 二阶导数:二次逼近 导数计算:求导法则
四、泰勒级数
1、泰勒/迈克劳林级数: 多项式逼近。
2、泰勒级数: 例子
3、应用
泰勒级数是一元微分逼近的顶峰,所以有关于一元微分逼近的问 题请尽情使用.
罗比塔法则
证明:
因为是在 x0 附近的极限问题,我们使用泰勒级数来思考这个问题
4、小结 (泰勒级数)
泰勒级数本质是多项式逼近
特殊函数的泰勒级数可以适当记一下
泰勒级数可以应用于很多与逼近相关的问题。
五、牛顿法与梯度下降法
很多机器学习或者统计的算法最后都转化成一个优化的问题. 也 就是求某一个损失函数的极小值的问题, 在本课范围内我们考虑 可微分的函数极小值问题.
1、优化问题
对于一个无穷可微的函数 f(x),如何寻找他的极小值点.
极值点条件。
全局极小值: 如果对于任何 x˜, 都有 f(x∗) ≤ f(˜x),那么 x∗ 就是全局极小值点.
局部极小值: 如果存在一个正数 δ 使得,对于任何满足 |x˜ − x∗| < δ 的 x˜, 都有 f(x∗) ≤ f(˜x),那么 x∗ 就是局部极 小值点.(方圆 δ 内的极小值点)
不论是全局极小值还是局部极小值一定满足一阶导数/梯度 为零,f ′ = 0 或者 ∇f = 0.
2、局部极值算法
这两种方法都只能寻找局部极值 这两种方法都要求必须给出一个初始点 x0
数学原理:牛顿法使用二阶逼近(等价于使用二阶泰勒级数),梯度下降法使用一阶逼近
牛顿法对局部凸的函数找到极小值,对局部凹的函数找到极 大值,对局部不凸不凹的可能会找到鞍点.
梯度下降法一般不会找到最大值,但是同样可能会找到鞍 点.
当初始值选取合理的情况下,牛顿法比梯度下降法收敛速度 快.
牛顿法要求估计二阶导数,计算难度更大.
3、牛顿法
首先在初始点 x0 处,写出二阶泰勒级数。
多变量函数二阶逼近
4、梯度下降法:多变量函数一阶逼近
如果函数 f(x) 是个多元函数,x 是一个向量. 在 x0 处对f做线性逼近。
5、小结 (牛顿法与梯度下降法)
牛顿法与梯度下降法本质上都是对目标函数进行局部逼近.
因为是局部逼近所以也只能寻找局部极值
牛顿法收敛步骤比较少,但是梯度下降法每一步计算更加简单,牛顿法不仅给出梯度的方向还给出具体应该走多少。梯度法的r只能自己定义。
不同的算法之间很难说哪一个更好,选择算法还要具体问题 具体分析(这也是数据科学家存在的意义之一)
梯度本身是向着最大方向的,加个负号才是向着最小方向的。
六、凸函数与琴生不等式
1、Definition (凸函数)
把如上定义中的 ≤ 换成 <, 那么这个函数就叫做严格凸函数。
2、(凸函数判断准则)
如果 f 是多元函数,x 是个向量, 那么 f 是凸函数的条件变为Hf 是一个半正定矩阵。
3、凸函数重要性质: 琴生不等式)