推进隐私计算技术,360数科提出分割式神经网络框架

自2016年谷歌首次提出联邦学习概念,这个初衷为保证数据交换时信息安全的人工智能基础技术随即在中国掀起风潮。在隐私数据保护上,360数科(原360金融)于2018年引入隐私计算研究,并在2019年宣布成立隐私保护与安全计算研究院,运用联邦学习技术发力大数据隐私保护。今年,360数科进一步推进隐私数据保护领域研究,在业内第一次提出分割式神经网络技术框架(Spilt Neural Network),并经过自主研发的一套系统实现算法落地。web

隐私数据项目主要牵头人、360数科隐私保护研究院院长沈赟博士表示,“咱们一直以来都在作一些技术上的创新。在隐私数据保护领域,使用神经网络算法更加灵活,能够把不一样类型数据提取出来,在统一架构下去学习,效率上可以大幅提高。”算法

与传统联邦学习不一样的是,分割式神经网络技术框架输出层数据的维度远小于原始输入层的维度,即便输出层的数据没有加密也没法反推原始输入层的数据,从而在框架设计上杜绝了数据泄露的问题。因为输出层数据的维度较小,也能够大幅下降服务器端的计算量与内存使用量,减小网络传输量,下降对带宽的要求。安全

目前国内行业内较为推崇的联邦学习,其原理在于参与学习的各方机器上部署的客户端从服务器端下载现有模型以及参数,然后根据各自全部的数据对模型的参数进行更新,并把结果传回客户端并更新模型。使用该方法不会与服务器交互原始数据,所以保证了原始数据不会出库。另外,原始数据或者梯度在使用前均可以使用某种方式进行加密或加噪,来加强安全性。服务器

与联邦学习相似,分割式神经网络技术框架不须要上传任何原始数据。在使用原始数据或者上传输出层结果前,可使用各类加密方式进行加密,从而切实保障了隐私数据安全。网络

而其与联邦学习的不一样之处在于,该框架下每一个参与学习的客户端各自部署自身的子神经网络,学习后的参数并不须要共享给服务器。每一个客户端只须要把最顶层输出层的数据回传给服务器,以后服务器综合各个客户端的结果再由各客户端各自进行更新迭代。架构

因为网络是分裂部署在各客户端上,它们自身的结构并不与其余各方共享,且自身的权重也不须要与服务器交互,所以能够解决联邦学习中庞大的深度网络带来的服务器与客户端之间大量数据交互带来的网络传输压力。另外,分割式神经网络技术输出层数据的维度会远小于原始输入层的维度,能够解决联邦学习中因为网络结构须要与服务器共享所带来的潜在原始数据泄露的风险。框架

360数科针对分割式神经网络技术框架的项目实施技术方案可以搭建出更安全、对硬件要求更低且更加灵活的框架。目前,该框架主要知足360数科在与合做方进行数据交互时的需求。将来,在360数科对外输出风控能力的过程当中,隐私计算也将做为技术输出的一部分,做为综合解决方案从底层解决数据安全问题。360数科将继续加大对于新技术的研发力量,营造健康与安全的数据生态。svg