torch.nn.ReLU(inplace=True)的具体含义:

首先根据源文档中的ReLU(x)=max(0,x),得出结论。大于0的数值不变,小于0的数据变成0。

这是对应的文档链接:https://pytorch.org/docs/1.2.0/nn.html#torch.nn.ReLU  Ps:需要自取。

参数:inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出。

好处:省去了反复申请与释放内存的时间,直接代替原来的值。

测试代码:

import torch
from torch import nn
m = nn.ReLU()
# 随机生成5个数 有正有负。
input = torch.randn(5)
# 打印 随机生成的数
print(input)
output = m(input)
# 经过nn.ReLU()作用之后的数
print(output)
# 结果
# tensor([-0.7706, -0.1823,  0.2687,  0.2796, -1.7201])
# tensor([0.0000,   0.0000,  0.2687,  0.2796,  0.0000])

任务完成,下班。

 

上一篇:水很深的深度学习-Task04卷积神经网络CNN


下一篇:Limitations of the Lipschitz constant as a defense against adversarial examples