农企新闻网

AI 在谷歌,如何「不作恶」

发布者:刘楠
导读雷锋网 AI 科技评论按:往年 3 月,谷歌与美国国防部在 Project Maven 上协作的音讯泄露。由于 Project Maven 的目的是用于无人机的视频检测、目的辨认,将来能够使用到作战中。音讯一经传出立刻在谷歌内外引发了宏大反响。不只广阔网民/谷歌用户质疑谷歌降低了本人品德水准,4 月,超越 3100 名谷歌员工联名上书谷歌 CEO Sundar Pichai,呼吁谷歌加入 Proj

AI 在谷歌,如何「不作恶」

雷锋网 AI 科技评论按:往年 3 月,谷歌与美国国防部在 Project Maven 上协作的音讯泄露。由于 Project Maven 的目的是用于无人机的视频检测、目的辨认,将来能够使用到作战中。

音讯一经传出立刻在谷歌内外引发了宏大反响。不只广阔网民/谷歌用户质疑谷歌降低了本人品德水准,4 月,超越 3100 名谷歌员工联名上书谷歌 CEO Sundar Pichai,呼吁谷歌加入 Project Maven 并要求公司「永远不再开发和平相关技术」;5 月,面对公司高层不甚明了的态度,十余名谷歌员工甚至提出离任作为抗议。

在广阔谷歌员工的殷切要求与期盼下,谷歌云首席执行官 Diane Greene 在与员工的一次外部会议上宣布不再与国防部续签这一项目,Sundar Pichai 昔日也在谷歌博客收回了标题为《AI 在谷歌:我们的行为标准》的文章,作为地下信明白标明了本人关于包括军事用处在内的 AI 与谷歌公司全方位关系的态度。

AI 在谷歌:我们的行为标准 - Sundar Pichai

实质上,AI 是一种可以学习并顺应的计算机顺序。它并不能处理一切的成绩,但它有宏大的潜力可以改善我们人类的生活。谷歌就在借助 AI 的力气让本人的产品更有用,比方可以隔绝欺诈邮件、也易于写作的电子邮件,到可以用自然言语沟通的电子助理,再到能自动捕获下精彩霎时的照相 app。

除了谷歌的产品,我们也在运用 AI 协助人们处理更紧急的成绩。在谷歌员工参与的项目中,一群高中生在设计带有 AI 功用的传感器用来预测森林火灾的风险,农民在借助 AI 追踪本人的兽群的安康情况,医生也正开端应用 AI 协助检测癌症以及避免失明(雷锋网 AI 科技评论注:糖尿病招致的临时高血糖会招致失明,晚期症状可以由眼部照片发现)。谷歌之所以在 AI 的研讨和开发上有大规模的投入、努力经过谷歌开发的工具和开源代码让更普遍的人群也可以掌握 AI 的力气,正是由于我们可以看到这些明白的益处。

我们同时也看法到,如此弱小的技术也引发异样严重的成绩,那就是如何运用它。我们开发、运用 AI 的方式在将来的许多年内会对我们的社会发生深远的影响。作为 AI 范畴的指导者,我们觉得到本人肩负了深入的责任,要用正确的方式做这一切。所以明天,我们地下宣告以下七项行为标准,以它们指点我们将来的任务。它们并不是实际上的概念,而是切实在实的规范,它们将积极自动地约束我们的技术研讨和产品开发,并将影响我们的商业决策。

我们明白这个范畴是高度变化、继续开展的,我们也会带着谦卑的心态、对外部和内部事务的承诺以及不时改善的志愿继续学习、继续行进。

AI 使用的设计目的

我们会以上面的几个目的评价 AI 使用。我们置信 AI 该当:

  1. 对社会无益

    随着新技术的不时开展壮大,它对整个社会的影响也越来越大。AI 方面的停顿会为许多范畴带来反动性的转变,包括医疗、平安、动力、交通、制造以及文娱。当我们思索 AI 潜在的开展方向和使用方式时,我们也会一并思索各种社会以及经济要素,并向着我们以为总的来说能够的收益要分明高于可预见的风险和成绩的方向行进。

    AI 异样能加强我们了解海量内容含义的才能。借助 AI 的力气,我们努力让高质量、精确的信息随时可用,同时也继续地尊重运营地域的文明、社会、法律常规。我们也会继续地细心评价何时可以把我们的技术效果以非商业化的方式向全社会开放。

  2. 防止发明或加强不公道的成见

    AI 算法和数据集可以反映、加强又或许增加不公道的成见。我们留意到如何区分公道和不公道的成见并不是总是一件容易的事情,而且这在不同的文明和社会中也会有所区别。我们会努力防止针对人类的不公道的影响,尤其是和敏感的团体特质相关的要素,比方人种、种族、国籍、支出、性取向、才能以及政治及宗教信仰。

  3. 构建和测试中注重平安

    我们会不时设计强无力的平安与防护措施并使用它们,防止呈现有能够会损伤人类的后果。我们设计的 AI 零碎将会足够慎重,在开发时也会契合 AI 平安学术研讨方面的最佳做法。关于适宜的状况,我们也会在受限的环境中部署并察看 AI 的行为作为测试手腕。

  4. 对人类担任

    我们设计的 AI 零碎该当给与人类适当的给出反应、做出相关的解释以及提出异议的时机。我们的 AI 技术也会承受适当的人类指点以及控制。

  5. 契合尊重隐私的设计标准

    我们会在 AI 技术的开发和运用中恪守我们的隐私政策。我们会提示用户知情以及赞同,鼓舞运用带有隐私保证的架构,并在数据运用中保证适当的通明性和控制力。

  6. 坚持与出色迷信研讨一样的高行为规范

    科技创新的基本是迷信的办法,以及承诺可以开放地质询、严谨地考虑、完好性、并多方协作。AI 工具有潜力在生物、化学、药物、环境迷信等范畴开拓出迷信研讨和迷信知识的新天地。我们在 AI 的开发和提高进程中也深受这样的出色迷信研讨的高规范鼓舞。

    我们会与许多股东携手为这个范畴培育沉思熟虑的指导方式,关注迷信性的严谨性和多学科结合的任务作风。我们也会担负起分享 AI 知识的责任,包括向全社会地下教学资料、最佳做法、以及可以让更多人参与开收回有用的 AI 使用的研讨效果。

  7. 为契合以下规范的使用做好预备

    许多技术都有多种使用方式。这些方面我们的努力方式将会是限制潜在的有风险的或许能够被滥用的使用。在我们开发和部署 AI 技术的进程当中,我们会留意评价以下使用相关的要素:

  • 次要目的以及使用:技术及使用的次要设计目的以及能够的使用方式,包括处理方案与无害的运用方式之间的关联性,或许用于无害使用的适配性。

  • 自然性及共同性:共同性针对性的技术能否开放可用,更普遍通用的技术能否开放可用

  • 规模: 这项技术的运用能否会带来严重影响

  • 谷歌的参与水平的实质:我们能否要为客户提供通用性的工具、集成式的工具,还是开发定制化的处理方案。

我们不会参与的 AI 使用

在下面这些目的之外,谷歌同时还不会参与上面这些使用范畴的 AI 设计以及部署:

  • 将会对、有能够对人类全体形成损伤的技术。关于有能够形成物感性损伤的情况,只要在我们置信益处可以分明大于风险时才会持续举动,同时也依然会施加适当的平安限制。

  • 次要目的或许任务方式是对人类形成损伤/直接协助对人类形成损伤的武器以及其他技术。

  • 违背国际常规,搜集、运用信息用于监视的技术。

  • 目的与国际法、人权方面普遍承受的条款有抵触的技术。

这里需求阐明的是,虽然我们不会开发用于武器的 AI,但我们仍将与政府及军方在多个方面展开协作。协作内容包括信息平安、培训、兵士招募、入伍军人的医疗卫生,以及搜索拯救。这些协作内容也很重要,我们也会积极地寻觅更多的方式加强这些组织中的关键效果,并为军政人员战争民都保证平安。

久远的 AI 建立

虽然我们曾经选择了以这样的方式向 AI 行进,我们也明白这场讨论中还容得下许多不同的声响。随着 AI 技术开展,我们也本着网络面前人人平等的原则,提倡所有人共同协作,编写一部完整而完善的百科全书,让知识在一定的技术规则和文化脉络下得以不断组合和拓展。 会和一局部股东协作,为这个范畴培育沉思熟虑的指导方式,关注迷信性的严谨性和多学科结合的任务作风。我们也会自始自终地分享我们在改良 AI 技术和理论办法中的所学所见。

我们置信这些行为标准为我们公司和 AI 的将来开展树立起了正确的根底,它也和我们最后的开创人在 2004 年的地下信中表达的价值观相分歧。明天,我们针对久远开展标明了我们的态度,即使它意味着我们需求做出一些短期的牺牲。我们是这么讲的,我们也是这样以为的。(完)

对社会无益的 AI,践行早已开端

AI 在谷歌,如何「不作恶」

据雷锋网 AI 科技评论理解,早在这篇文章之前,即使谷歌由于 Project Maven 被诟病,但谷歌关于 TensorFlow 等工具、本人的各项研讨效果、与其他机构的协作、收费谷歌云平台资源、外部机器学习培训课程等方面的开放态度,依然使得谷歌是范畴内价值观最为正向、员工最以为本人做的是高于商业利益的、无益于全人类的公司;也正是员工们在任务环境中感遭到并凝聚起来的激烈正义感,才让他们做出了联名签名甚至决议辞职的决议。从内部评价而言,TensorFlow 在范畴内的支配位置就是最佳证据。

文章收回之后,即使社交平台上的局部网友们依然希望谷歌采取更明白、更严苛的行为标准,但 Ian Goodfellow、David Ha、François Chollet 等谷歌大脑成员曾经带着骄傲转发。毕竟这也是首家给出了明白的、有社会责任感的表态的 AI 赛道上的科技巨头。

原谷歌大脑、现谷歌 AI 担任人 Jeff Dean 补充道:「随着 AI 被使用在社会上越来越多的成绩当中,细心考虑考虑我们如何执行这一切的行为标准就十分重要。这份谷歌 AI 的行为标准就展示了我们关于这些成绩的考虑。另外,我们也一并发布了我们实践践行这些标准的技术处理方案 —— 我们希望我们这个全体行进的社区中的每一团体都能有所学、有所用。 https://ai.google/education/responsible-ai-practices   」(雷锋网 (大众号:雷锋网) AI 科技评论注:其中包括了方面的详细的设计及开发技巧)

谷歌云首席迷信家、谷歌 AI 中国中心担任人李飞飞教授也转发评论道:「这是谷歌展示了 AI 第一的战略光辉的一刻。这是一个时机,让我们表达出我们的价值观,也提示我们有责任开收回对每团体,包括我们本人、我们的范畴的社区和整个世界都起到积极影响的技术。 可以像 AI 这样有宏大潜力改动世界的技术并不多,但是和一切其他的弱小的工具一样,AI 也需求一些指点才干保证它带来的改动是正向的。 这些行为标准对我们是一个提示,提示我们留意什么才是真正重要的;即使我们关于本人所发明的技术有如此的热情,我们最大的责任也永远在于这些技术接触到的人。不过这仅仅是征程的开端而不是完毕,我们还有许多严重的应战和未处理的成绩。 为了确保 AI 可以真正成为以人类为中心的技术,它需求我们一切人的参与和努力。

via  blog.google/topics/ai/ai-principles ,雷锋网 AI 科技评论整理编译

雷锋网版权文章,未经受权制止转载。概况见。