20200129-autograd与逻辑回归

torch.autograd

torch.autograd.backward(
	tensor,					#待求导张量
	grad_tensors=None,		#多维度权重
	retain_graph=None,		#保存计算图
	create_graph=False)		#创造导数计算图,用于高阶求导
功能:自动求取梯度
torch.autograd.grad(
	outputs,				#用于求导的张量
	inputs,					#需要梯度的张量
	grad_tensors=None,		#多维度权重
	retain_graph=None,		#保存计算图
	create_graph=False)		#创造导数计算图,用于高阶求导
功能:自动求取梯度

tips:

  1. 梯度不自动清零,需要用如下代码清零
tensor.grad.zero_()		#下划线表原地操作
  1. 依赖于叶子结点的结点,requires_grad默认为True
  2. 叶子结点不可执行in-place(原地操作)

逻辑回归

逻辑回归是线性的二分类模型
表达式:y=f(Wx+b),f为sigmod函数,也称为logistics函数
取值范围为0,1,可设阈值为0.5,当y>0.5时类别为0,当y≤0.5时类别为1

线性回归是分析自变量x与因变量y(标量)之间关系的方法
逻辑回归是分析自变量x与因变量y(概率)之间关系的方法

逻辑回归又称对数几率回归

机器学习模型训练步骤
迭代训练:数据(数据采集、数据划分、数据清洗)
–>模型(线性模型、NN模型)
–>损失函数(线性模型中采用均方差,分类任务可采用交叉熵)
–>优化器

20200129-autograd与逻辑回归20200129-autograd与逻辑回归 qq_27860199 发布了14 篇原创文章 · 获赞 0 · 访问量 158 私信 关注
上一篇:Typical Loss and its gradient


下一篇:【OpenCV(C++)】图像变换:边缘检测