正在阅读:不作恶的Google回来了!发谷11条划清AI道德底线不作恶的Google回来了!发谷11条划清AI道德底线

2018-06-12 11:38 出处:其他 作者:PConline 责任编辑:liwen1

  【PConline资讯】在人工智能应该怎么“管”这个事上,Google大佬说话,我们要听。 

  在国防部合作项目被员工要求关闭的风波之后,Google发布了公司在使用人工智能的十一条准则。

  其中包括Google进行AI研发的七个目标,和GoogleAI绝不会进入的四种应用场景,堪称AI道德规范的“谷11条”。

  CEO颂达尔皮柴(SundarPichai)在发布准则的公开信里,也对国防部项目争议做出了直接回应,表示今后不会让AI涉及武器化的应用,但并未“一刀切”,和政府、军方划清界限。 

  作为AI界的带头大哥,Google并未对多如牛毛的AI应用领域一一作出指引,但这么多年经历了这么多“坑”之后,这本“谷11条”所体现出的智慧,也许会对所有关心AI道德问题的人有很大的帮助。

  下面,硅星人就带大家来捋一捋“谷11条”背后的思路。

  Google眼中“好AI”的标准

  首先,设计产品之初,价值观就要正。

  GoogleAI(原GoogleResearch)研究院克里斯汀·罗伯森曾向硅星人阐释,公司研发AI的领导思想是:按照对社会有益的原则进行设计,创造世界最棒的产品,让这些产品实现商业化,在竞争中保持领先,同时,让这些产品为世界做出贡献。 

  Google一向强调不作恶(don'tbeevil)的价值观,但它从来不是一家慈善机构。和所有科技公司一样,它需要靠好产品赚钱,只不过,在对“好”产品的定义上,Google和许多公司明显不同。 

“谷11条”一上来就告诉员工,AI产品一要对社会有益,二不能加重现实社会已有的问题:

  1要对社会有益

  ...当我们思考AI潜在的应用场景时,我们将会把一系列社会和经济因素考虑进内,在那些整体收益远远超过可预见风险和弊端的领域,进行推进。

  2要避免制造或加强不平等的偏见

  AI算法和数据集可以反映、加强或减少不平等的偏见...我们将努力避免人们受到不公正的影响,尤其是与种族、民族、性别、国籍、收入、性取向、残疾以及政治或宗教信仰等敏感特征相关的人群。

  确保方向正确后,接下来Google要保证自己的产品是业界最棒的。准则的第三到七条列出了好产品需要满足的标准。字里行间继续体现着以人为本的理念。

  3要保证安全性 

  4要对人负责... 我们的AI产品将易于接受合适的人类指导和控制

  5要结合隐私设计原则 

  6要维持科学卓越的高规格

  7要可以用于符合原则的使用场景

  仔细阅读这些准则,你甚至可以找到对应的具体产品。

  比如准则中Google提到,“AI加强了我们理解大规模内容含义的能力,我们将努力利用AI提供高质量和准确的信息”。这说的不就是最近上线的新版GoogleNews嘛。

  此外可以看到,在这些对产品标准的要求中,Google还加入了对最近科技界激辩的话题的思考:比如数据隐私,比如AI发展对人类本身可能带来的威胁。

  对国防部合作风波的回应

  “谷11条”的结构是“七要四绝不”。

  举了七个目标后,Google提出了四个绝对不碰的领域。首先:

  我们不会将AI应用于:

  1带来或可能带来伤害的技术 

  2武器或其他旨在给人们造成伤害的技术

  做出这段表述的背景:今年3月时,有媒体曝光Google的一份内部文件,显示该公司参加了五角大楼的无人机计划ProjectMaven,帮助开发应用于无人机的AI系统。

  与此同时,又有媒体曝出Google在内部行为准则里删掉了有三处“不作恶”的文案。

  和恨不得公司再坏一点的Facebook不同,大批Google员工对这个事实感到愤怒不满。内网激烈的讨论后,超过三千名员工联名上书CEO,要求退出项目。

  最终,公司向员工和外界妥协,宣布2019年国防部合同到期后不再与续约。 

  正是这件事,推动了“谷11条”的诞生。据报道,Google创始人拉里佩奇、谢尔盖布林、CEO皮柴和其他高管一起花了数月,最终制定了这版新的AI准则

  不过,在这两条表述里,Google并没有表达以后完全跟政府及国防部门彻底交割。

  显然在强大的合作关系面前,Google是纠结的,而这并没有错误。比如在云计算上,国防军事是个潜力巨大的领域。Google的竞争对手亚马逊微软都在积极竞标国防部的云计算及存储业务,Google不可能因噎废食。

  不过既然做了决定就要承担后果,Google的纠结之后肯定还会引发新的争议和讨论,Google只好表示准则会根据公司新的理解而不断改进。

  自己不作恶,也不让别人作恶

  更具体来说,坚决不允许别人利用自己的技术作恶,这是不能跨过的底线。

  四绝不的后两条:

  AI不会用于:

  3收集或使用信息用于监控并违反国际规范的科技

  4技术的目的违反了广泛接受的国际法与人权原则的科技 

  从这两个条款可以明显看到,“谷11条”再次稳固了不作恶三个字的地位,而且还更进了一步:不仅自己不作恶,还要防止别人利用Google的技术作恶。

  这在上面第七条的AI目标中也有体现: 

  许多技术同时拥有很多用途。我们会努力进行识别,限制可能有害或被滥用的应用。我们会评估以下因素:

  首要目的和用途……以及与有害的用途有多接近

  本质和独特性:我们的技术是普世的还是有独特应用场景的

  规模:这项技术的使用是否会带来重大影响 

  Google在其中参与的性质:我们是在提供普通的工具,还是为用户做集成的工具,还是在开发定制解决方案 

  Google希望借保证自己的AI技术不被滥用,这么做势必意味着跟更多可能得到的利益说再见。一个直接影响可能是Google重返某些市场的难度会变得更大。

  但没有人会因为Google坚持它的真诚和正义而怪罪它。有些事情必须做出取舍。 

  博客文章中,皮柴再次提到2004年Google上市时提到的两个原则:“让世界变得更好”,和“不作恶”:

  我们当时就表明了我们要用更长远目光看问题的愿望,即使这意味着需要作出短期的牺牲。我们当时这样说,我们现在还是这样相信。

  Google的准则体现着一家已经20岁高龄的新技术公司,对可能是未来最关键技术,和道德的思考。它给出了一个宽泛,但又方向明确的指引,让一些事情不再停留在想法和概念。

  这本“谷11条”,或许也能推动其他公司,扔掉“技术中立”的保护伞,更诚实地参与到这个话题的讨论中。

相关阅读:

Google说 情侣emoji不应该只有男女的搭配!

//pcedu.pconline.com.cn/1132/11328971.html

Google帐户登录界面将会在下周启用材料设计语言

//pcedu.pconline.com.cn/1132/11328772.html

Google和复旦大学正式合作:主攻人工智能!

//pcedu.pconline.com.cn/1128/11287604.html

 

关注我们

最新资讯离线随时看 聊天吐槽赢奖品