vip安全吗-vip彩票安全吗星云Clustar论文解读《联邦学习下的安全矩阵分解

  • 时间:
  • 浏览:1
  • 来源:UU快3直播-UU快3

  随着人工智能时代的到来,大数据是人工智能产业化中不可或缺的基石。然而,大伙儿目前正面临着数据隐私和数据孤岛这两方面的现象报告 ,这了AI智能产业化的发展。

  在数据隐私方面,重视数据隐私和安全已成为世界性的趋势,去年5月欧盟“数据隐私条例”(General Data Protection Regulation,PR)即是对人工智能传统的数据解决模式提出了新的挑战。再打上去人工智能训练时所须要的数据会涉及到所以领域,不同的公司之间,甚至是同有有有另一个公司的不同部门之间数据无法流通,这就形成了有有有另一个个“数据孤岛”。

  如保在满足数据隐私、安全和监管要求的前提下,你都可不能否 工智能系统都可不能否 更加高效、准确的同去使用各自 的数据,是当前人工智能发展的有有有另一个重要课题。联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出;此后,国际人工智能专家、微众银行首席人工智能官杨强教授的带领下首次提出了“联邦迁移学习”,并通过领衔联邦学习国际标准(IEEE标准)制定、开源自研联邦学习框架Federated AI Technology Enabler(简称FATE)等来推动联邦学习技术在行业中的落地。FATE是全球首个工业级别联邦学习框架,都可不能否 让企业和机构在数据安全和数据隐私的前提下进行AI合作。哪些地方地方举措让联邦学习有望成为下一代人工智能协同算法和合作网络的基础。

  在本文中,星云Clustar团队提出了有有有另一个名为FedMF的联邦学习下的安全矩阵分解框架,并使用真实的数据集进行测试,测试结果验证了FedMF的可行性。此外,星云Clustar的团队还讨论了FedMF在未来研究中应用的挑战。本文第一作者为科技大学计算机博士在读、星云Clustar算法工程师柴迪;大学助理教授、博士导师、星云Clustar首席AI科学家业(按姓氏拼音排序);第二作者为科技大学教授、星云Clustar创始人陈凯;第三作者为科技大学教授、微众银行首席人工智能官杨强。本文已发表在IJCAI 2019 Federated Machine Learning Workshop,IJCAI国际人工智能联合会议是全球人工智能领域最权威的学术会议。以下是由星云Clustar团队带来的《Secure Federated Matrix Factorization 》论文解读:

  本文围绕6个深度来讲述这篇论文,研究意义、先行概念、分布式矩阵分解、联邦矩阵分解、实验评估结果、下一步研究方向。

  以General Data Protection Regulation为代表,现在开始出台各类规章和法律条文,用来加强对隐私性数据的力度,学院机构以及工业企业都不 日后现在开始关注隐私机器学习你是什么技术领域。目前推荐系统是有有有另一个广受关注的研究课题,矩阵分解是常见的技术手段。然而,传统的矩阵分解推荐系统,会泄漏用户的评分信息、形状向量,肯能大伙儿会着实泄漏你是什么种信息不重要,如保让通过你是什么种信息,恶意者都可不能否 进行inference attack,也也不从你是什么种信息推断用户的性别、年龄、住址,而后面 的哪些地方地方信息都属于非常隐私的数据。

  目前针对你是什么现象报告 ,主要有2中解决方案:Obfuscation-based和Full-Homomorphic encryption-based。前者主要采用的土最好的措施是通过将用户的原始偏好数据进行混淆后,再发送到中央服务器,以实现一种程度上的隐私。显而易见的是,你是什么方导致 预测精度的损失。为了预测精度,Full-Homomorphic encryption-based土最好的措施引入了有有有另一个第三方的私密服务提供商,然而你是什么方增大系统实现难度,同去你是什么私密服务提供商的可靠性难以保障,一旦大伙儿与推荐服务节点处于不正当合作关系,那对用户来说,任何信息都毫无隐私可言。先行概念

  在正式介绍大伙儿的土最好的措施前,首先须要了解有有有另一个概念:Horizontal Federated Learning:用户的形状空间相同,然而用户群体不同。你是什么现象报告 下,大伙儿一般,用户是诚实的,系统的目标是用户的隐私,免于受到诚实但好奇的服务器的。Homomorphic Encryption:一种仅享有数据解决权,但不具备数据访问权的土最好的措施。换句话说,你是什么土最好的措施允许任何第三方对肯能加密过的数据进行运算,而不都可不能否 在运算前对数据进行解密。

  在矩阵分解推荐系统中,大伙儿通常会拿到有有有另一个稀缺的用户评分矩阵 X,而大伙儿的任务是通过计算出user profile 矩阵U和item profile矩阵V,来将X中的空缺信息补全。一般来说,S(Stochastic Gradient Descent,随机梯度下降)是用来解决矩阵分解的主流土最好的措施。具体loss function和updating formula的定义如图所示。

  显而易见的,你都可不能否 用户的隐私,也不将服务器与用户的数据进行隔离,解决服务器对用户数据的直接访问,所以大伙儿希望用户都可不能否 把各自 的数据保留在本地。基于此,大伙儿设计了有有有另一个分布式的矩阵分解系统,在你是什么系统中,所有的评分数据都掌握在用户转过身。有有有另一个全局的item profile矩阵为所有用户提供有有有另一个本地的update,同去用户肯能把gradient传回给服务器,用来更新item profile。总结来说,服务器只会收到用户的gradient,不让收到用户的任何评分信息。有有有有另一个看来,大伙儿的任务目标就实现了,如保让让大伙儿再思考有有有另一个现象报告 ,传输gradient就真的能保障用户隐私了吗?

  肯能已知任意有有有另一个连续step的gradients,已知user profile的更新公式,大伙儿都可不能否 求得有有有有另一个元高阶方程组7、8、9。求解你是什么方程组的过程比较多样化,大伙儿在这里不对求解过程做过多描述,仅仅把结果展示在途中。在等式24中,u是唯一的未知量,如保让大伙儿已知u一定处于有有有另一个实数解。大伙儿都可不能否 利用许多迭代土最好的措施(比如牛顿法)来求得有有有另一个数值解。当大伙儿算出u,评分信息r就都可不能否 利用等式25求解出来。总结来说,大伙儿日后 证明了在矩阵分解场景下,gradient会泄漏用户的信息。如此大伙儿又该为社 会么会解决你是什么现象报告 呢?联邦矩阵分解

  大伙儿的解决方案是对系统中加入homomorphic encryption,也也不联邦矩阵分解系统。假设用户和服务器肯能实现了对密钥的生成和下发,其中服务器拥有公钥,用户拥有彼此相同的私钥,如此整个系统就都可不能否 分为有有有另一个步骤:

  第一步,对参数进行初始化,参数包括item profile矩阵和user profile矩阵,与此同去服务器对item profile使用公钥进行加密;第二步,服务器提供加密后的item profile矩阵,供所有的用户来进行下载;第三步,用户进行本地的update,你是什么步中都可不能否 拆分成若干个环节:用户首先下载加密后的item profile矩阵,并将其解密成有有有另一个plaintext V,如保让用户会进行本地的update并计算gradient,最后用户会对gradient进行加密如保让将ciphertext发给服务器;接下来让大伙儿回到整体的架构,在第四步,服务器在接收到加密后的gradient日后 ,会根据附加的homomorphic encryption对item profile矩阵进行更新,请注意,服务器会提供给用户最新一次加密后的item profile用作下载,此时大伙儿就须要再一次回到第二步。整个系统通过重复第二、三、四步,会实现整个训练过程。

  一般来说,用户的评价信息由有有有另一个系数矩阵右眼皮跳测吉凶组成,这也就导致 有有有另一个用户的评价着实常有限的。如保让,有有有另一个不同的设置在大伙儿的系统中是implemented。这有有有另一个设置会遵循系统的各个环节然而会在用户的上传环节由些许的不同。其中一种设置叫做fulltext,在你是什么设置中,用户会对所有的item都不 上传gradient,当用户对某有有有另一个item不做出评价时,gradient为0;另外一种设置叫做parttext,用户只会将评价后的item的gradient进行上传。你是什么种土最好的措施有利有弊,parttext会泄漏哪些地方item是用户打过分的,同去在计算深度上表现更好,而fulltext不让泄漏用户的信息,如保让会须要更多的计算耗时。实验评估结果

  为了测试大伙儿设计的系统的可行性,大伙儿使用了有有有另一个MovieLens上有有有另一个真实的电影评分数据集,你是什么数据集包括了100K个评分信息,由610个用户对972有有有另一个电影的打分组成。你是什么数据集也被用于所以许多的矩阵分解研究工作中。在图中的参数配置下,表1显示了每次迭代过程中,使用parttext土最好的措施和fulltext土最好的措施的耗时(一次迭代,是指所有610名用户上传的gradient被用来更新一次item profile矩阵)。无论是parttext还是fulltext,当item数量都不 所以时,你是什么种土最好的措施的耗时都比较少,同去大伙儿都可不能否 观察到,耗都不 随着item数量的增加而增长。与fulltext相比,parttext会占用更少的时间,然而parttext会泄漏一主次信息。值得一提的是,parttext会比fulltext提升了20倍的深度。为了验证大伙儿的系统不任何准确度,大伙儿在有有有另一个小规模的数据集上做了一系列实验。大伙儿采用RMSE来作为度量指标,参考图4和表2,标准矩阵分解与生邦矩阵分解的评估结果常相近的,区别严重不足0.3%。如此小的区别是肯能在联邦矩阵分解中,为了多样化implementation,服务器会对itemvector进行更新,仅当所有的用户都上传了大伙儿的gradient。在一般的矩阵分解中,服务器会更新itemvector当任何用户提供了gradient。肯能哪些地方地方设置都相同得话,评估结果就会全部一致。

  图2和3显示了随着item数量的变化,用户和服务器的更新时间的比例的变化。从图可见,约95%的时间用于了服务器的更新,这就导致 肯能大伙儿增加了服务器的算力,肯能提升homomorphic encryption土最好的措施,以降低密文计算的多样化度,则计算深度会有显著提升。这也不大伙儿下一步要做的主要工作。

  最后,想和大伙儿介绍一下大伙儿未来研究工作的另一个主要方向:更加有效的homomorphic encryption。如上文提到的,约95%的时间都花在服务器update上,其中计算主要用于密文。肯能大伙儿都可不能否 提升homomorphic encryption的深度,大伙儿的系统表现会大幅提升。在fulltext和parttext中。实验肯能显示parttext比fulltext深度更高,如保让parttext会用户对哪些地方item进行了评分。你是什么信息,即使如此确切的评分,肯能依旧会泄漏用户信息[Yang et al., 2016]。或许大伙儿都可不能否 要求用户上传更多的gradient,而不仅仅是评分后的items,但都不 全部的items,有有有有另一个做都可不能否 相比较fulltext增加系统深度,同去不让泄漏评分的item。更多安全定义。目前大伙儿用了经典的horizontal联邦学习安全定义,你是什么定义架设了参与方的诚实性,以及服务器的honest-but-curious。接下来大伙儿都可不能否 去探索更具挑战的安全定义,比如如保去建立有有有另一个安全的系统以应对honest-but-curious的服务器,同去有许多用户是恶意的,甚至有许多参与方会与server联合谋策。以上也不本篇论文的主要内容,感谢您的阅读。返回搜狐,查看更多