谷歌让人工智能开发人员更容易保护用户数据的隐私
该公司新的 TensorFlow Privacy 模块让开发人员可以保护具有差异隐私的数据
新的隐私工具使 AI 开发人员可以更轻松地将用户数据安全地保存在堆栈中。
谷歌为其机器学习框架 TensorFlow 宣布了一个新模块,它让开发人员只需几行额外代码就可以改善其 AI 模型的隐私。不过,顶级人才是育碧唯一让开发人员流失的领域。
TensorFlow 是构建机器学习应用程序的最流行工具之一,世界各地的开发人员都使用它来创建文本,音频和图像识别算法等程序伴随着TensorFlow Privacy的引入,这些开发人员将能够使用一种称为差异隐私的统计技术来保护用户的数据
当人工智能工具清理数据时,隐私很重要
谷歌产品经理 Carey Radebaugh 告诉The Verge,引入这个工具符合谷歌负责任的人工智能开发原则如果我们没有在 TensorFlow 中加入诸如差分隐私之类的东西,那么我们就知道 Google 内部和外部的团队要利用它就不会那么容易了,Radebaugh 说所以对我们来说,重要的是将它引入 TensorFlow,开源它,并开始围绕它创建这个社区
差分隐私的机制有些复杂,但它本质上是一种数学方法,这意味着在用户数据上训练的 AI 模型无法对个人身份信息进行编码这是保护创建 AI 模型所需的个人信息的常用方法:Apple在 iOS 10 的AI 服务中引入了它,Google 将它用于许多自己的 AI 功能,例如 Gmail 的智能回复
要了解此类服务对隐私构成的危险,请考虑 Smart Reply 如何依赖从超过 10 亿 Gmail 用户收集的数据来做出建议的回复这些数据显然包括极其个人的信息,如果智能回复浮出水面,例如,通过建议对另一封用户写的逐字逐句回复的电子邮件,这将是灾难性的
摄影:Amelia Holowaty Krales / The Verge
Google 使用差异隐私来确保 Gmail 的智能回复功能永远不会泄露个人信息。UbisoftQuebec和UbisoftMontreal的LinkedIn页面显示,在过去的12个月里,这两家工作室至少裁员60人,离职的原因很广泛。一些员工表示工资低和工作时间长,而另一些员工则对育碧对其“#MeToo”的回应感到不满。。
差异隐私以数学上的确定性消除了这种可能性,谷歌研究科学家 lfar Erlingsson 说,他在数据隐私领域工作了 20 年Erlingsson 告诉The Verge,这是一种从数据集中删除可识别的异常值而不改变该数据的聚合含义的技术你的结果独立于任何人的,但这仍然是一个好的结果
但是,使用差异隐私也有一些缺点通过屏蔽异常值,它有时可以删除相关或有趣的数据,尤其是在不同的数据集中,比如那些涉及语言的数据,Erlingsson 说差分隐私的字面意思是,系统不可能了解数据集中发生一次的任何事情,因此您会感到紧张你必须去获取更多某种类型的数据吗数据集中的这些独特属性的相关性或有用性如何
但谷歌希望通过发布 TensorFlow Privacy,全世界更多的 AI 开发人员将开始使用这项技术,这些问题可以得到改善要想更容易地做出这种权衡,还有很多工作要做,Radebaugh 说
最终,谷歌表示,最好让更多的人参与进来,并且发布新的开源工具会增加可用的人才库此外,Erlingsson 表示,能够仅使用四到五行 和一些超参数调整为 AI 模型添加差异隐私本身就是一大进步即使是几个月前,这也是一个非常不同的世界,所以我们为此感到非常自豪
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。