神经网络常用激活函数

激活函数:只是一个抽象概念,使用激活函数时为了让中间输出多样化,能够处理更复杂的问题。

激活函数给神经元引入了非线性因素,若无激活函数,则每一层最后输出的都是上一层输入的线性函数,不管加多少层神经网络,我们最后的输出也只是最开始输入数据的线性组合而已。当加入多层神经网络时,就可以让神经网络拟合任何线性函数及非线性函数,从而使得神经网络可以适用于更多的非线性问题,而不仅仅是线性问题。

>> 01 sigmoid函数

神经网络常用激活函数        

神经网络常用激活函数

神经网络常用激活函数

  •  sigmoid函数是机器学习中的一个比较常用的函数,用于隐层神经元输出,取值范围为(0,1);
  • 它可以将一个实数映射到(0,1)的区间,用来做二分类,而且是单调递增,比较容易优化;
  • 在特征相差比较复杂或是相差不是特别大时效果比较好;
  • 优点:平滑、易于求导;
  • 缺点:①收敛比较慢,反向传播求误差梯度时,求导涉及除法;②Sigmoid是软饱和,反向传播时,容易产生梯度消失,从而无法完成深层网络的训练;(当x趋于无穷大的时候,也会使导数趋于0)③Sigmoid函数并不是以(0,0)为中心点; 
from matplotlib import pyplot as plt
import numpy as np
import math

def sigmoid_function(x_list):
    fx = []
    for x in x_list:
        # print(x)
        fx.append(1 / (1 + np.exp(-x)))
    return fx

if __name__ == '__main__':
    x_list = np.arange(-10, 10, 0.01)
    fx = sigmoid_function(x_list)

    ax = plt.gca()                                     # get current axis 获得坐标轴对象
    ax.spines['right'].set_color('none')               # 将右边的两条边颜色设置为空
    ax.spines['top'].set_color('none')                 # 将上边的两条边颜色设置为空
    ax.xaxis.set_ticks_position('bottom')              # 指定下边的边为 x 轴
    ax.yaxis.set_ticks_position('left')                # 指定左边的边为 y 轴
    ax.spines['bottom'].set_position(('data', 0))      # 指定的x轴绑定到0这个点
    ax.spines['left'].set_position(('data', 0))        # 指定的y轴绑定到0这个点
    plt.plot(x_list, fx, label='Sigmoid ', linestyle="-")  # label为标签
    plt.legend(['Sigmoid '])

    plt.title('Sigmoid  Function')
    plt.show()

  >> 02 tanh函数

神经网络常用激活函数

神经网络常用激活函数

神经网络常用激活函数

  • 优点:①函数输出以(0,0)为中心;②收敛速度相对于Sigmoid更快;
  • 缺点:tanh函数并没有解决sigmoid梯度消失的问题
from matplotlib import pyplot as plt
import numpy as np
import math

def tanh_function(x_list):
    fx = []
    for x in x_list:
        fx.append((np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x)))
    return fx

if __name__ == '__main__':
    x_list = np.arange(-10, 10, 0.01)
    fx = tanh_function(x_list)

    ax = plt.gca()                                     # get current axis 获得坐标轴对象
    ax.spines['right'].set_color('none')               # 将右边的两条边颜色设置为空
    ax.spines['top'].set_color('none')                 # 将上边的两条边颜色设置为空
    ax.xaxis.set_ticks_position('bottom')              # 指定下边的边为 x 轴
    ax.yaxis.set_ticks_position('left')                # 指定左边的边为 y 轴
    ax.spines['bottom'].set_position(('data', 0))      # 指定的x轴绑定到0这个点
    ax.spines['left'].set_position(('data', 0))        # 指定的y轴绑定到0这个点
    plt.plot(x_list, fx, label='Tanh', linestyle="-")  # label为标签
    plt.legend(['Tanh'])

    plt.title('Tanh Function')
    plt.show()

 >> 03 tanh函数

神经网络常用激活函数

神经网络常用激活函数

  • 优点:①收敛速度快;②有效的缓解了梯度消失问题;③对神经网络可以使用稀疏表达;④对于无监督学习,也能获得很好的效果。
  • 缺点:在训练过程中容易出现神经元失望,之后梯度永远为0的情况。
from matplotlib import pyplot as plt
import numpy as np
import math

def sigmoid_function(x_list):
    fx = []
    for x in x_list:
        fx.append(np.where(x < 0, 0, x))
    return fx

if __name__ == '__main__':
    x_list = np.arange(-10, 10, 0.01)
    fx = sigmoid_function(x_list)
    print(len(fx))
    ax = plt.gca()  # get current axis 获得坐标轴对象
    ax.spines['right'].set_color('none')  # 将右边的两条边颜色设置为空
    ax.spines['top'].set_color('none')  # 将上边的两条边颜色设置为空
    ax.xaxis.set_ticks_position('bottom')  # 指定下边的边为 x 轴
    ax.yaxis.set_ticks_position('left')  # 指定左边的边为 y 轴
    ax.spines['bottom'].set_position(('data', 0))  # 指定的x轴绑定到0这个点
    ax.spines['left'].set_position(('data', 0))  # 指定的y轴绑定到0这个点
    plt.plot(x_list, fx, label='Tanh', linestyle="-")  # label为标签
    plt.legend(['Tanh'])

    plt.title('Tanh Function')
    plt.show()

 

  

上一篇:安装e(fx)clipse到Eclipse


下一篇:goland fx 依赖注入