EEG脑地形图绘制程序

脑地形图绘制------将各个通道的能量值以地形图形式绘制

绘制脑地形图需要两个文件bp1.txt和topoplotEEG.m文件, 首先打开bp1.txt文档,将里面的通道重新手动排序为与 当前输入信号x_sign矩阵中的每列对应的哪一个通道顺序一致(不使用的通道有两种方法①在x_sign矩阵中将不使用通道赋值为0;或者②在bp1.txt中将不使用的通道删除)

文件:590m.com/f/25127180-494683561-fc536e(访问密码:551685)

以下内容无关:

-------------------------------------------分割线---------------------------------------------

一、持久化概述
在 torch 中,以下对象可以持久化到硬盘,并可以通过相应的方法把这些对象持久化到内存中:

Tensor
Variable
nn.Module
Optimizer
上述对象本质上最后都是保存为 Tensor。并且 Tensor 的保存和加载非常简单,使用 t.save 和 t.load 即可。

在 save/load 时可指定使用的 pickle 模块,在 load 时还可以把 GPU tensor 映射到 CPU 或者其他 GPU 上。

我们可以通过 t.save(obj, file_name) 保存任意可序列化的对象,然后通过 obj=t.load(file_name) 方法加载保存的数据。

对于 Module 和 Optimizer 对象,建议保存为对应的 state_dict,而不是直接保存整个 Module/Optimizer 对象。Optimizer 对象保存的是参数和动量信息,通过加载之前的动量信息,能够很有效地减少模型震荡。

二、tensor 对象的保存和加载
import torch as t

a = t.Tensor(3, 4)
if t.cuda.is_available():
a = a.cuda(1) # 把 a 转为 GPU1 上的 tensor
t.save(a, ‘a.pth’)

# 加载为 b,存储于 GPU1 上(因为保存时 tensor 就在 GPU1 上)
b = t.load('a.pth')

# 加载为 c,存储于 CPU
c = t.load('a.pth', map_location=lambda storage, loc: storage)

# 加载为 d,存储于 GPU0 上
d = t.load('a.pth', map_location={'cuda:1': 'cuda:0'})

三、Module 对象的保存和加载
t.set_default_tensor_type(‘torch.FloatTensor’)
from torchvision.models import AlexNet

model = AlexNet()

module 的 state_dict 是一个字典

model.state_dict().keys()

t.save(model.state_dict(), ‘alexnet.pth’)
model.load_state_dict(t.load(‘alexnet.pth’))

四、Optimizer 对象的保存和加载
optimizer = t.optim.Adam(model.parameters(), lr=0.1)
t.save(optimizer.state_dict(), ‘optimizer.pth’)
optimizer.load_state_dict(t.load(‘optimizer.pth’))
五、所有对象集合的保存和加载
all_data = dict(optimizer=optimizer.state_dict(),
model=model.state_dict(),
info=u’模型和优化器的所有参数’)
t.save(all_data, ‘all.pth’)

all_data = t.load(‘all.pth’)
all_data.keys()
dict_keys([‘optimizer’, ‘model’, ‘info’])
六、第七章总结
本章介绍了 torch 的很多工具模块,主要涉及数据加载、可视化和 GPU 加速相关的内容,合理地使用这些模块可以极大地提升我们的编码效率。

上一篇:排序使用filesort 时查看是否使用了临时表


下一篇:深度学习编译与优化Deep Learning Compiler and Optimizer