目录
1 引言
论文地址
源码地址
提出了Meta-learning元学习来解决由于导频的数量通常不足以获得准确的信道估计,使用元学习能够快速适应不同的信道。作者提出了线上和线下的解决方法,在线上提出了一种集成的在线元学习和自适应导频数量选择方案
元学习方案多种
- 模型无关元学习(Model-Agnostic Meta-Learning,MAML)
- 一阶MAML(FOMAML)
- REPTILE
- 快速上下文适应VIA元学习(fast Context Adaptation VIA meta-learning ,CAVIA)
2 介绍
元学习的重要应用是获取训练程序,该训练程序可以使用很少的训练样本快速适应新的相关任务,类似于小样本学习。作者同时考虑了线下公式和线上设置。提出的新颖的线上解决方案是将元学习与导频数量的自适应选择相集成。
2.1 Meta-learning
Meta-learning(元学习)目的是利用来自不同但相关的任务的训练和测试数据,以获取适合于所有感兴趣的任务类别的归纳偏差。可以通过选择模型类别(例如通过特征提取器)或训练算法(例如通过模型参数或学习率的初始化)来优化归纳偏差。最重要的应用是小样本学习。
元学习的技术分为两种
- 线下的:元训练数据固定
- 线上的:来自相关任务的所有先前数据都将以流方式视为元训练数据《Online meta-learning》
最新的线下元学习算法 - MAML:《Model-agnostic meta-learning for fast adaptation of deep networks》
- FOMAML:《Model-agnostic meta-learning for fast adaptation of deep networks》
- REPTILE:《On fifirst-order meta-learning algorithms》
- CAVIA:《Fast context adaptation via meta-learning》
2.2 创新点
本文的关键思想是将来自其他物联网设备的先前传输中的导频用作元训练数据,以训练能够使解调器快速适应解调器的过程,而这仅需几个导频即可。
- 讨论了最新的几个元学习算法的相对优点以及对期望最大化(EM)算法的统一解释
- 验证了元学习相对于传统的基于模型的通信方案以及基于学习的通信方案的优势
- 对元学习解决方案的性能进行了比较
- 提出了一种新的线上解决方案,该方案是将元学习与导频数量的自适应选择相集成。并根据接收器的性能和导频数量将提出的解决方案与传统的非自适应解决方案进行比较
2.3 发展现状
- 《Mind: Model independent neural decoder 》-2019作者训练了一种基于神经网络的解码器,该解码器可以使用通过FOMAML进行的元学习,以最少的导频符号适应新的信道条件。
- 《RoemNet: Robust meta learning based channel estimation in OFDM systems-2019》-2020作者在FOMAML中通过元学习训练OFDM系统中基于神经网络的信道估计器,在给定导频的情况下获得有效的信道估计。 在首次提交论文之后,其他几篇论文已考虑了元学习以进行通信
- 《From learning to meta-learning: Reduced training overhead and complexity for communication Systems》-2020对通信系统应用程序的元学习的综述
- 《Deep transfer learning based downlink channel prediction for FDD massive MIMO systems》-2020元学习用于频分双工大规模MIMO信道中的下行链路/上行链路信道转换
- 《Meta-learning to communicate: Fast end-to-end training for fading channels》-2020《End-to-end fast training of communication links without a channel model via online meta-learning》-2020考虑分别在有和没有信道模型的情况下,对元学习进行物理层的端到端训练
- 《Deep hypernetwork-based MIMO detection》-2020考虑了一种基于超网络的相关方法,以帮助基于神经网络的MIMO检测
3 模型
3.1 符号总结
k
k
k 第k个元训练设备
s
k
s_k
sk 设备发送的复数信号
y
k
y_k
yk接收到的复数信号
S
S
S 表示调制方案确定的所有星座符号的集合
h
k
h_k
hk表示是从设备k到基站的复数信道增益
z
k
z_k
zk表示白高斯噪声
x
k
x_k
xk是由条件分布定义的一般随机变换的输出.这种有条件的分布解决了发射机的非理想因素,例如相位噪声,I / Q不平衡以及物联网设备的放大器特性
δ
k
\delta_k
δk相位不平衡因子
∈
k
\in _k
∈k振幅不平衡因子
p
(
s
∣
y
,
ϕ
)
p(s|y,\phi)
p(s∣y,ϕ)定义解调器的条件概率分布 ,作者说这是解调器的参数模型,其中
ϕ
\phi
ϕ是一个可训练参数
D
=
{
D
(
k
)
}
k
=
1
,
.
.
,
K
D =\{D(k)\}_{k=1,..,K}
D={D(k)}k=1,..,K表示元训练数据集,其中
D
k
=
{
(
s
k
(
n
)
,
y
k
(
n
)
)
}
,
n
=
1
,
.
.
.
,
N
D_k=\{(s_k^{(n)},y_k^{(n)})\},n=1,...,N
Dk={(sk(n),yk(n))},n=1,...,N,其中
(
s
k
(
n
)
,
y
k
(
n
)
)
(s_k^{(n)},y_k^{(n)})
(sk(n),yk(n))表示第k个元训练设备的第n个接收信号对
D
T
=
{
(
s
(
n
)
,
y
(
n
)
)
}
,
n
=
1
,
.
.
.
,
P
D_T =\{ (s^{(n)},y^{(n)})\},n=1,...,P
DT={(s(n),y(n))},n=1,...,P表示发送端和接收端基站的P个导频符号对组合
3.2 线下训练模型
将解调作为一个分类任务,将解调器的设置为L层的多层伸进网络,最后的一层是Softmax的非线性层,解调可以用公式表示为
其中
f
ϕ
(
t
)
(
x
)
=
σ
(
W
(
l
)
x
(
l
)
+
b
(
l
)
)
f_{\phi(t)}(x)= \sigma (W^{(l)}x^{(l)}+b^{(l)})
fϕ(t)(x)=σ(W(l)x(l)+b(l))表示第l层的激活函数,其中
ϕ
(
t
)
=
(
W
(
l
)
,
b
(
l
)
)
\phi(t)= (W^{(l)},b^{(l)})
ϕ(t)=(W(l),b(l))是权重矩阵和偏置向量。
其中
[
∗
]
s
[*]_s
[∗]s表示关于s的元素
其中
ϕ
=
ϕ
(
l
)
l
=
1
,
.
.
,
L
−
1
\phi = {\phi^{(l)}}_{l=1,..,L-1}
ϕ=ϕ(l)l=1,..,L−1表示参数的向量
σ
(
∗
)
\sigma (*)
σ(∗)表示非线性函数,可以是ReLU或者双曲正切函数
y 表示为接收到的信号的实部和虚部的二维向量
3.3 线下训练算法
(1)损失函数
标准互熵损失函数定义为解调器参数向量ϕ的函数
(2)联合训练
为了实验,需要一个Benchmark。使用元训练数据D和导频的训练数据DT进行模型p(s | y,ϕ)联合训练。联合训练将从元训练设备和元测试设备接收的所有导频集中在一起,并使用SGD对该模型的损失函数进行优化。 基于规则迭代去更新参数向量ϕ
(3)元学习模型
θ
\theta
θ是一个共享参数,会影响上下文变量
ϕ
\phi
ϕ的先验分布。根据元训练数据D使用最大期望(EM)算法估计得到
ϕ
\phi
ϕ是一个上下文变量,根据元测试数据
D
T
D_T
DT得到
EM算法是解决存在潜在变量(此处为上下文变量
ϕ
\phi
ϕ)的最大似然估计问题的标准工具,EM使来自元训练数据集D中所有数据集Dk的数据对(s,y)上的边缘似然性的总和最大化。公式如下
3.4 线上训练模型
待更新。。。。