视频:链接
介绍
联邦学习是一种不需要收集各数据拥有方所有的数据,便能协作地训练一个模型的机器学习过程
旨在建立一个基于分散数据集的联邦机器学习模型。在模型训练过程中,隐私数据不离开本地,各方仅交换模型相关的信息或加密的数据,已训练好的联邦学习模型可以置于联邦学习系统的各参与方,也可以在多方之间共享。
联邦学习结合安全多方计算、同态加密、差分隐私等多种隐私计算技术,在保护数据安全的同时实现数据价值的共享。
目前,联邦学习已经应用在计算机视觉、自然语言处理(NLP)、推荐系统等领域,在金融、医疗、教育等领域均得到了广泛的应用。
工作流程
存在的问题
在联邦学习参数传递过程中,为了支持参数可以在密钥下进行无损的计算,需要使用同态加密,这就会带来计算量和传输量的剧增
解决方法
1、优化算法
2、异构系统
(1)将复杂运算转移至硬件设备执行
(2)硬件计算资源丰富
(3)支持高并发的计算
GPU
参考:链接
FPGA
是一种主流的可编程逻辑器件
开发者使用硬件描述语言构建硬件电路,通过编译器,将电路设计布局在FPGA芯片上,最终通过文件烧写,修改FPGA芯片内部电路
在通信、数字信号处理、视频图像处理、IC验证等领域,有着广泛的应用
目前主流的FPGA供应商为XiLinx和Intel
难点
模密和模乘运算量最大
模密
平方乘:将模运算转成乘法运算
模乘
通过蒙哥马利域将取模运算转换成移位运算
该方法的难点: