pytorch学习笔记-学习率调整策略

class _LRScheduler

主要属性:

• optimizer:关联的优化器
• last_epoch:记录epoch数
• base_lrs:记录初始学习率

class _LRScheduler(object):
	def __init__(self, optimizer, last_epoch=-1):

主要方法:

• step():更新下一个epoch的学习率
• get_lr():虚函数,计算下一个epoch的 学习率

class _LRScheduler(object):
	def __init__(self, optimizer, last_epoch=-1):
	def get_lr(self): raise NotImplementedErro

学习率调整小结

  1. 有序调整:Step、MultiStep、Exponential和CosineAnnealing
  2. 自适应调整:ReduceLROnPleateau
  3. 自定义调整:Lambda
上一篇:ElitesAI·动手学深度学习PyTorch版-第三次打卡task01


下一篇:TensorFlow Object Detection API中的Faster R-CNN /SSD模型参数调整