论文:《Spectral-Spatial Attention Networks for Hyperspectral Image Classification》
1. Motivation
在CNN和RNN中引入attention机制:
- RNN + attention:学习波谱内部相关性
- CNN + attention:关注空间维的显著特征以及相邻像元的空间相关性
2. Structure of Model
- 总体思路:分别用引入注意力机制的RNN和CNN提取光谱特征和空间特征,将最后的全连接层拼接在一起,然后再通过全连接层得到类别标签输出,相当于将两个网络提取的特征做了融合和提取。
3. Datasets
- Pavia Center
- Pavia University
- Indian Pines
Point:为了解决类别不均衡的问题,作者没用百分比的形式来选取train、val和test,而是每个类别选取相同的数量。
另外,作者还采用了PCA对原始高光谱数据进行降维,提取主要的波段。
4. Parameter Setting
- learning rate:[0.0003, 0.0005, 0.0008, 0.001, 0.003, 0.005, 0.01]
- Spatial size: 15×15, 19×19, 23×23, 27×27, 31×31
- Dropout:0.2, 0.3, 0.4 ,0.5, 0.6
5. Results
每个数据集测试20次,结果的表示形式为”平均±标准差“
- Pavia Center
- Pavia University
- Indian Pines
启发
- 数据集分割方式值得借鉴,比百分比选取更科学,尝试编程实现;
- 在使用PCA只保留少量波段的情况下,分类精度还是很高,而且减少了模型的计算量,值得一试。
- 文章主要思想相当于对引入注意力机制的CNN和RNN做了一个集成,结果表明精度很高。在后面的研究中,可以尝试用模型集成的方法来增加创新和提高精度。