【深度学习】(6)--图像数据增强

文章目录

  • 图像数据增强
    • 一、作用
    • 二、增强方法
    • 三、代码体现
    • 四、增强体现
  • 总结

图像数据增强

数据增强(Data Augmentation),也称为数据增广,是一种在机器学习和深度学习中常用的技术,它通过对现有数据进行各种变换和处理来生成新的训练样本,从而增加数据集的多样性和数量。这种方法在解决数据稀缺、提高模型泛化能力和鲁棒性方面具有重要意义。

一、作用

缓解了深度学习中数据不足的场景,在图像领域首先得到广泛使用,进而延伸到 NLP 领域,并在许多任务上取得效果。一个主要的方向是增加训练数据的多样性,从而提高模型泛化能力。

二、增强方法

图像数据增强:

  • 几何变换:如翻转、旋转、缩放、平移、裁剪等,改变图像的空间位置或尺寸。
  • 颜色变换:调整图像的亮度、对比度、饱和度等颜色属性。
  • 噪声添加:在图像中添加随机噪声,如高斯噪声、椒盐噪声等。
  • 模糊处理:使用高斯模糊、运动模糊等模糊技术处理图像。
  • 仿射变换:进行更复杂的图像变换,如透视变换等。

三、代码体现

方法

-- RandomRotation() --> 随机旋转
-- CenterCrop() --> 中心剪裁
-- RandomHorizontalFlip() --> 随机水平旋转
-- RandomVerticalFlip() --> 随机垂直旋转
-- ColorJitter() --> 颜色变换
-- RandomGrayscale() --> 转化为灰度图
-- Normalize() --> 标准化
from torchvision import transforms
"""-----创建数据集的类---数据增强-----"""
data_transforms = {
    'train':
        transforms.Compose([
            transforms.Resize([300,300]),
            transforms.RandomRotation(45), # 随机旋转,-45到45度之间随便选
            transforms.CenterCrop(216), # 从中心开始剪裁
            transforms.RandomHorizontalFlip(p=0.5),# 随机水平反转,设定一个概率
            transforms.RandomVerticalFlip(p=0.5),# 随机垂直反转
            transforms.ColorJitter(brightness=0.2,contrast=0.1,saturation=0.1,hue=0.1),# 参数1亮度,参数2对比度,参数3饱和度,参数4色相
            transforms.RandomGrayscale(p=0.1),# 转化为灰度图
            transforms.ToTensor(),
            transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225]) # 标准化:均值,标准差(统一的)
        ]),
    'valid':
        transforms.Compose([
            transforms.Resize([216,216]),
            transforms.ToTensor(),
            transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
        ]),
}

上述代码中,完全体现了当有图像传入之后,图像会进行的变化。

四、增强体现

从上述代码中,我们也能发现,上述的操作只是将传入的图像进行调整变换并没有增加训练集呀?不像是在机器学习时进行的过采样拟合数据,直观的看到100条数据拟合成了1000条数据,数据明显增多了。这里的数据增强仅仅只是将传入的图像进行调整变换,训练的数据集数量并没有动,那它是怎么将上述代码的作用体现出来从而实现数据增强的呢?

重点环节就在epochs循环中:

epochs = 50
for t in range(epochs):
    print(f"Epoch {t+1} \n-------------------------")
    train(train_dataloader,model,loss_fn,optimizer)
print("Done!")

我们在进行epochs循环时,每次都需要调用train_dataloader,我们再看看train_dataloader数据加载器是什么:

train_dataloader = DataLoader(training_data,batch_size=64,shuffle=True)

我们又发现了,train数据加载器是对training_data训练集数据的处理,那我们再看看训练集数据是什么:

training_data = food_dataset(file_path='train_labels.txt',transform=data_transforms['train'])

在这里!!我们发现transform预处理参数设置的是数据增强的代码,所以意味着,每次循环时,原始数据集都会进入到transform操作中进行变换,每次变换都是随机的,也就意味着每次循环训练时都会有大量不同的数据进行训练,从而使得神经网络训练了大量的数据集。

总结

本篇介绍了:

  1. 数据增强的方法。
  2. 数据增强是如何体现的。

注意:数据增强与过采样直接拟合大量数据不同,数据增强体现在每次循环训练数据前,都给数据进行一次随机变换,使得每次训练的数据都不一样,从而实现训练大量的数据。

上一篇:前端html+css+js 基础总结


下一篇:产品管理 - 互联网产品(3) : 迭代管理