随着开发团队争相开发AI工具,在边缘设备上训练算法变得越来越普遍。联合学习(Federated learning)是分布式机器学习的子集,是一种相对较新的方法,它允许公司在不显式访问原始用户数据的情况下改进其AI工具。
谷歌于2017年构想的联合学习是一种去中心化学习模型,通过该模型可以在边缘设备上训练算法。关于Google的“设备上机器学习(on-device machine learning)”方法,这家搜索巨头将其预测文本算法推到了Android设备上,汇总了数据,并将新知识的摘要发送回了*服务器。为了保护用户数据的完整性,此数据是通过同态加密或差分隐私传递的,这是对数据添加噪音以使结果模糊的一种做法。
一般来说,通过联合学习,可以对AI算法进行训练,而无需识别任何个人用户的特定数据。实际上,原始数据永远不会离开设备本身,仅汇总的模型更新会发回。这些模型更新随后在交付到*服务器后解密。然后,将更新后的模型的测试版本发送回选定的设备。在重复此过程数千次之后,显著改善了AI算法,同时又从未危及用户隐私。
这项技术有望在医疗领域掀起波澜。例如,医学初创公司Owkin目前正在探索联合学习。为了利用来自多个医疗机构的患者数据,Owkin使用联合学习,用来自不同医院的数据构建人工智能算法。这可能会产生深远的影响,特别是因为医院能够彼此共享疾病进展数据,同时保持患者数据的完整性并遵守HIPAA法规,这是非常宝贵的。医疗保健绝不是唯一采用这项技术的部门;联合学习将越来越多地被自动驾驶汽车公司、智慧城市、无人驾驶飞机和金融科技组织所使用。其他几家联合学习初创公司即将上市,包括Snips、S20.ai和Xnor.ai公司,后者最近被苹果收购。
潜在问题
中间人攻击(Man-In-The-Middle Attacks)
鉴于这些AI算法值得大量投资,因此预计这些模型将成为黑客有利可图的目标。 邪恶的黑客可能将尝试进行中间人攻击。但是,如前所述,通过添加噪声并汇总来自各种设备的数据,然后对这些汇总数据进行加密,公司可能会使黑客很难做到这一点。
模型中毒(Model Poisoning)
可能更令人担忧的是使模型本身中毒的攻击。可以想象,黑客可以通过自己的设备或通过接管网络上其他用户的设备来破坏模型。具有讽刺意味的是,由于联合学习聚集了来自不同设备的数据,并将加密的摘要发送回*服务器,因此通过后门进入的黑客得到了一定程度的掩盖。因此,很难(即使不是不可能)识别异常的位置。
带宽和处理限制
尽管设备上的机器学习有效地训练算法而不暴露原始用户数据,但它确实需要大量的本地电源和内存。公司试图通过仅在设备空闲,充电或连接到Wi-Fi时在边缘上训练其AI算法来规避这一问题;然而,这是一个永恒的挑战。
5G的影响
随着5G在全球的扩展,边缘设备将不再受到带宽和处理速度限制的限制。根据诺基亚最近的一份报告,4G基站每平方公里可支持10万台设备。而即将到来的5G基站将在同一地区支持多达100万个设备。通过增强的移动宽带和低延迟,5G将提供能源效率,同时促进设备到设备通信(D2D)。实际上,据预测,5G将带来10-100倍的带宽增加和5-10倍的延迟减少。
当5G变得更加流行时,我们将体验到更快的网络、更多的端点和更大的攻击面,这可能会吸引DDoS攻击的涌入。5G还具有切片功能,可以根据用户的需要轻松创建、修改和删除切片(虚拟网络)。根据一份关于5G破坏性力量的研究,这种网络切片组件是否会减轻安全担忧,还是会带来一系列新问题,还有待观察。
总而言之,从隐私和安全的角度来看,出现了新的担忧;然而,事实仍然是:5G最终对联合学习是一个福音。
原文链接