农企新闻网

Facebook、微软、谷歌三大研讨巨头齐聚首,共同讨论人工智能开展现状和趋向

发布者:刘俊明
导读雷锋网 AI 科技评论音讯,日前,AAAS 在 reddit 上组织了一场问答,Facebook 人工智能研讨院 Yann LeCun,微软研讨院院长 Eric Horvitz,谷歌研讨总监 Peter Norvig 共同列席此次活动,答复了观众提出的一系列成绩,包括如何研讨更通用的人工智能,如何对待深度学习热,AI 的下一个打破点,量子计算能否会对 AI 发生影响,用户的平安隐私成绩等。雷锋网

雷锋网 AI 科技评论音讯,日前,AAAS 在 reddit 上组织了一场问答,Facebook 人工智能研讨院 Yann LeCun,微软研讨院院长 Eric Horvitz,谷歌研讨总监 Peter Norvig 共同列席此次活动,答复了观众提出的一系列成绩,包括如何研讨更通用的人工智能,如何对待深度学习热,AI 的下一个打破点,量子计算能否会对 AI 发生影响,用户的平安隐私成绩等。雷锋网 AI 科技评论选取局部内容,编译整理如下。

编辑:思颖、李诗。

Q:如今,为了让 AI 在围棋中打败人类选手,或许运用深度学习处理特定的迷信义务,我们投入了很多人力物力。获得的成就虽然很棒,但 AI 能处理的成绩极端无限。能否找到一种苏格拉底式的 AI,能说明它胜任的一切义务面前的原理。目前不将上百万种特定的 AI 组合在一同,你没法构建一个通用的 AI 零碎。如何将只能处理特定成绩的人工智能转为更通用的人工智能?

Yann LeCun:在我看来,让机器经过察看来学习预测模型是 AGI(通用人工智能)的最大妨碍。这并不是独一办法。人类婴儿和许多植物似乎经过察看世界、与其交互失掉一种知识 (与我们的 RL 零碎相比,需求的交互十分少)。我的直觉是,大脑中很大一局部相当于预测机器,它训练本人去预测它所能预测的一切 (从观测中预测出未观测到的变量,例如经过过来和如今预测将来)。

可以用预测模型方案和学习新的义务,这一进程中只需与世界停止极少的交互。目前的「无模型」RL 零碎,像 AlphaGo Zero,需求与「世界」停止少量的交互来学习 (虽然他们的确学得很好)。这种零碎在围棋和象棋上都做得很好,由于这里的「世界」很复杂,是确定的,而且可以在多个电脑上同时高速运转。与这种「世界」停止互动是可行的,本钱极低。但这在理想世界中行不通,你不能够为了让零碎只是学会不在悬崖边开车,而让它在悬崖边开有数次车。大脑中的模型通知我们,在悬崖边开车是个坏主见。我们只需求一次就晓得这个道理了。而如何让机器来学习这样的模型?

Eric Horvitz:是的,可以这样描述最近一系列获得成功的 AI 零碎——聪明而又片面的「学者」。人类智力面前存在着有数的未解之谜,我们并没有获得多大停顿。包括「人工智能」,其面前也存在一系列亟待处理的成绩。这些成绩中,包括人们如何在开放的世界中以一种「无监视」的方式学习,人类「知识」面前的机制和原理,以及人类是如何轻松将事情停止归结总结的。

目前有几个研讨方向可以答复这些应战,其中包括不时推进在特定范畴和某些使用范畴的研讨,那里一定会呈现打破。但是,我以为我们需求追求更通用的人工智能。

办法之一是采用综合人工智能:我们能否能将多种才能 (如语音辨认、自然言语、视觉、规划和推理) 整合起来,探求整合进程中的需求处理的难题。

另一种办法是不时推进 DNNs 这种中心办法的开展,并追求更通用的处理成绩的办法。我以为这一范畴的打破很难完成,但将十分有价值。

上面这篇文章是关于通用 AI 框架的一些有意思的开展方向:

http://erichorvitz.com/computational_rationality.pdf

Q:目前,很多关于机器学习的研讨都转向了深度学习。

(1)这会增加机器学习研讨的多样性吗?

(2)为了支持深度学习研讨,其他的范式如概率图模型、支持向量机等的研讨会被丢弃吗?正如 90 世纪的深度学习一样,也许如今这些表现不好的模型在将来会表现得很好。

Yann LeCun:随着我们在 AI 上获得提高,我的觉得是深度学习只是处理方案的一局部。在复杂的(能够是静态的)图形中集成参数化模块并从数据中优化参数的想法并没有过时。从这个意义上说,只需我们还没有找到不需求运用梯度来优化参数的好方法,深层学习就不会消逝。也就是说,正如我们明天所晓得的那样,深度缺乏以构成「完好」的人工智能。我不断喜欢说定义静态深层构造的才能(即依照顺序定义计算图,其构造随着新的输出而改动)的才能可以将深度学习推行为可微编程办法。

但现实上,我们至多脱漏了两件事:(1)可以推理的机器,而不只仅是感知和分类,(2)机器可以经过察看世界来学习,而不需求人类筹划的训练数据,不需求与世界停止太屡次交互。有些人称之为无监视学习,但这个短语太模糊了。

我们需求机器学习的一种方式是学习人类的婴儿和植物:他们次要经过察看来树立世界模型,并且有十分大批的交互作用。这是下一个十年的应战。

至于成绩(2)深度学习和图形模型之间没有统一。你可以这样运用图形模型,比方因子图,其中的因子是整个神经网络。这些是正交概念。人们已经在深度学习框架的根底上树立了概率规划框架。例如 Uber 的 Pyro,它是经过 PyTorch 树立的(概率编程可以看作图形模型的推行、相似可微编程是深度学习的泛化推行)。现实证明,在图模型中运用反向传达停止推理是十分有用的。当数据匮乏并且可以手动特征化时,SVM、核办法、树模型等更好用。

Eric Horvitz:人们关于深度神经网络在预测义务和分类的才能感到很兴奋。将其使用于对象辨认、语音辨认、翻译(结合强化学习思想)等的精确率不时进步。但是,AI 是一个广大的范畴,有着少量有出路的分支学科——并且 AI 的机器学习分支也还有着少量的分支。

我们需求持续开发有潜力的 AI 技术,包括概率图模型、决策实际剖析、逻辑推理、规划、算法博弈论、元推理和控制论等已有的丰厚效果。我们还需求将范畴停止扩展,例如将无限感性模型推行到开放世界中研讨智能体。

在微软研讨室,我们在 DNNs 上付出了不少努力,投资更普遍的 AI 项目。我们也对如何结合逻辑推理、DNNs 和其他的机器学习感兴味。例如,你可以看看我们用 DNNs+逻辑来自动编程的例子。

Q:你以为深度深度学习只是一时的潮流,还是临时的趋向?虽然我理解到基于深层学习的模型使得计算机视觉和 NLP 方面有了宏大的改良。你以为深度学习是处理视觉和 NLP 成绩的形式吗?或许,不久就会有新的范式呈现?

Peter Norvig:我以为「深度学习」这个品牌曾经发明了很大的价值,因而不论根底技术有多大变化,它还会维持很长一段工夫。即便 CNNs 和 Relus 衰亡,我以为「深度学习」这个名字还将继续。

至于根本概念或办法,我以为我们在形式婚配成绩上做得很好,但在关系推理和规划方面做得并不好。我们可以做一些笼统的方式,所以我们需求少量的新思想。

Q:我想晓得能否有人试图设计一种模拟情感的奖励零碎。我置信人工智能零碎必需与世界有某种联络,「情感」是真正把我们与环境结合在一同的粘合剂。我正在想象 AI 经过完成一项义务能到达的某种形态。例如,我们有可以打败国际象棋巨匠的计算机,但我们能拥有想要赢的计算机吗?一个想法能够是联系数据,假如完成了一个义务,就会翻开一个分区。一切的生命方式都经过一种奖励制度退化。

Peter Norvig:现实上,阿尔法狗等零碎在围棋对弈以及其他游戏中获得的效果,次要来源于:一个零碎的奖励,我们称之为「强化学习」。Alpha Zero 只从输掉一盘游戏或许博得一盘游戏中获益,没有任何事后的专家知识,有的只是游戏的规则和「尝试更多能取得积极奖励的行为,更少取得消极反应的行为」。所以,从某种意义上说,Alpha Zero 独一「想要」的是赢。在另一个意义上说,它不想任何东西,它没有感受或好或坏的事情的觉得,它只是想从计算上取得最大的比分。

Q:很多传通通计模型的价值在于:我们能清楚地晓得模型在做什么,它们是如何得出结论的,在推断/预测时的不确定要素。深度学习的办法在预测方面也很不错,但它们往往是「黑箱子」。关于 ANNs 等模型的外部机制,我们有哪些理解?理解模型的外部机制能否重要?我以为在做严重决策(例如自动驾驶、临床决策)时,理解模型的外部机制极端重要。

Peter Norvig:这是以后研讨的一个重要范畴。你可以从 Big Picture blog 或 Chris Olah 的博客中看到谷歌是如何来停止这一研讨的。我以为了解上的困难更多的是来自于成绩自身,而不是处理方案。当然,二维线性回归极易了解,但它不适用于非良好线性模型成绩。异样地,随机森林或许规范的 Python/Java 代码中「if/then」规则很容易了解,但是假如这些规则真的是了如指掌的话,代码中就不会有 bug 了。

我想说的不只仅是「了解」,还有「可信度」。我们什么时分可以信任一个零碎?特别是当零碎做出严重决策的时分。有很多方面:

能否可以了解代码/模型;

模型能否临时在很多案例上失掉过验证;

能否能确信世界没有发作变化,将我们带入模型从未见过的形态;

模型能否抵抗对立性攻击;

模型能否抵抗 degradation 测试,即成心减弱模型的一局部,看其他局部如何任务;

过来能否有成功的类似技术;

模型能否被继续监控、验证和更新;

模型内部采取了哪些反省措施?有其他零碎反省输出和输入零碎吗;

采取什么言语与零碎通讯?能问零碎正在做什么吗;

我能给它一些建议吗?假如它出错了,我只能给它不计其数个新的训练案例吗?能否可以直接对它说:「不,你得出的 X 是错误的,由于你疏忽了 Y。」

……

这是一个很伟大的研讨范畴,希望将来看到更多的任务。

Q:你以为 Capsule 网络怎样样?除了 MultiMNIST,你们在其他数据集上有成功使用过它吗?当输出更少数据时,CNN 和它相比方何?

Yann LeCun:将胶囊网络使用于大规模的数据集是个不错的想法,Geoff Hinton 曾经考虑了几十年。他不断在寻觅将其成功用于 MNIST 上的办法,假如想要将其成功用于 ImageNet 或其他数据集上,也需求破费很多的精神。此外,也不晓得其在功能上能否存在优势。胶囊网络可以看成是一种具有特殊池化方式的卷积网络。

Q:你们在研讨 AI 时发现最吓人的事情是什么?

Yann LeCun: 这项研讨没有什么可怕的(与一些小报有时宣称的相反)。

可怕的事情只发作在人们试图过早地部署 AI 零碎时。特斯拉自动驾驶仪功用超酷,但是,作为一个司机,你必需了解它的局限性,以便平安地运用它(它运用的是卷积网!)。

Eric Horvitz: 关于如何在平安关键范畴部署人工智能,我们有一些本人的了解——例如,当机器和人员协同任务时,我们努力完成「人工智能协作」。

我们在 AAAS 会议上有讨论这个话题:

https://aaas.confex.com/aaas/2018/meetingapp.cgi/session/17970

Q:当人工智能机器人可以比任何一个团队更好地预测/惹起市场动摇,然后以闪电般的方式买卖股票、产品、土地等,会发作什么?我们能采取什么样的保证措施来避免 AI 的一些先驱者称霸世界市场?

Peter Norvig:多年来,有少量买卖者将先进的统计模型运用到股票市场,获得了不错的效果。无论你有多聪明,你一直不晓得还有多少空间,能让你把事情做的更好。就我团体而言,我以为我们应该提早几年就采取举动,经过控制买卖的速度/或在买卖上施加更高的本钱,来抑制定量买卖的效果。比我更理解买卖的人或许有更好的保证方法,但我不以为 AI 从基本上改动了规则。

Yann LeCun:你越能精确地预测的市场,你就使得市场越难预测。完全无效的市场是完全不可预测的。因而,假如市场完全由一系列完满的(或准完满的)自动买卖零碎组成,每团体都会失掉完全相反的报答(这与市场指数的表现相反)。

Q:量子计算的提高驱动了 AI 研讨吗?如何对待二者在将来的交融?

Peter Norvig:目前我想做的很多事情量子计算都帮不上忙。我常常想要经过一个绝对复杂的算法来处置海量文本,而量子计算对此并无协助。不过,量子计算能够有助于更高效地搜索深度网络的参数空间。我不晓得能否有人做出了这样的量子算法,不需求思索如何用硬件来完成,假如在实际上可行也能够会有所协助。

Yann LeCun:驱动?当然不是,量子计算关于 AI 的影响如何,说假话,我目前还不清楚。我以为,它在短期内不能够对 AI 发生影响。

Q:许多人在运用搜索引擎和 Siri,Google Home 等语音助手时都会担忧隐私泄露。当 AI 成为我们生活中密不可分的一局部时,有什么措施可以使得用户在运用 AI 的同时维护其行为数据?

Eric Horvitz:我能了解这种担忧,我们公司的员工关于终端用户数据采取了严厉的匿名措施,数据长久停留后就会被删除,并且为用户提供了多种办法来察看,控制和删除数据。我置信 Google 和 Facebook 也采用了异样严厉的办法,对此我没有什么不满。

随着欧盟发布的「普通数据维护条例」(GDPR) 开端施行,关于用户数据的把控会越来越严厉。在维护用户隐私方面的努力让人觉得很棒,例如私下训练 AI 零碎和为用户提供更多选择。在几年前 IAPP 的会议上曾讨论当时者的处理方案,可以在这里检查:http://erichorvitz.com/IAPP_Eric_Horvitz.pdf

Q:这些开展 AI 的公司(特别是 Facebook)面前的动机是什么呢?在我看来用户并不像 AI 公司那样关怀 AI。一些公司借助 AI 来手机用户数据来盈利,更是激化了用户与公司之间的矛盾。如何让像我这样的用户置信这些产品不是打着 AI 的旗帜,实践上是为了搜集用户数据?

Peter Norvig:你提到了数字助手,我以为这个技术分明是站在用户一边的,你的数字助理将是你的——你可以训练它去做你想做的事情;在某些状况下,它只会在你的设备上运转你的公家数据,没有其别人可以拜访它的外部任务。它将作为你的代理人,你不必直接去一家大公司的网站,希望他们能提供应你有用的东西,而你的代理人会整理这些产品,确保你失掉你想要的东西。

Yann LeCun:这关于我们迷信家来说不成成绩。真正的成绩是「你信任你的数据吗?」你置信你的手机公司,你的 ISP,你的手机/操作零碎制造商,你最喜欢的搜索或社交网络效劳,你的信誉卡公司,你的银行,你运用的每一个挪动使用顺序的开发者吗?看看它们的数据政策,选择你可以信任的产品,确认他们不向第三方销售(或泄露)你的数据。在数据上服从伦理并不会带给公司利益抵触,由于从久远来看,服从数据伦理是独一的好政策。

Eric Horvitz:我赞同彼得的观念。在构建团体代理方面,存在着一些风趣的能够性,这些代理只依据他们所效劳的人的偏好共享数据,并且这些代理只会依据一切者的指令行事。这是一个不错的研讨范畴。

Q: 我是本科重生,几年前我就想在 AI 范畴任务,但是除了我的教授们我没有任何的资源。我的学校很小,要参与招聘会都得去别的城市,我如何能与 AI 范畴发生更多的联络呢?

Peter Norvig:我建议你本人经过课程或讨论论坛在线交友持续学习。分明地,要凭仗小学校的项目,找到 AI 方面的任务很难。但是,你可以在一家大公司取得软件工程师的职位,一旦你到了那里,表达你对 AI 的兴味,在任务中学习,亲密关注你所能从事的与 AI 相关的项目,并且很有能够在更短的工夫内获得博士学位,你将成为公司中一个公认的人工智能专家。

Q:我是一名学习核工程/等离子体物理学研讨生,正方案转向 AI 研讨。

关于 AI 范畴:AI 研讨的下一个里程碑会是什么?目前需求攻克哪些应战来到达这些里程碑?

关于专业技艺:我需求具有哪些关键技艺/知识?刚入门的人该如何学习?

Yann LeCun:深度无监视学习、可以停止推理的深度学习零碎是下一个里程碑。无监视学习需求面临的应战:学习世界的层次化表征,以了解变化的解释要素。如何在不完全可预测的世界中停止预测,这是机器需求学习的。关键技艺:良好掌握数学(线性代数、多变量微积分、概率统计、优化学等)、纯熟的编程技艺、迷信办法论。总的来说,发明力和知觉也很重要。

Peter Norvig:我对能真正了解人类言语、能停止实践对话的助理很感兴味,这将是很重要的里程碑事情。其中应战是结合笼统推理和规划将形式婚配,目前我们只能在十分方式化的范畴,如围棋中才干做的很好,而在理想世界中还远远不够。

作为物理学家是你的一大优势,你的数学背景、实验、建模和处置不确定性、误差的思想很合适学习 AI。我见到过很多物理学家在 AI 范畴做得不错。

雷锋网 (大众号:雷锋网) AI 科技评论编译整理。

reddit 地址: https://www.reddit.com/r/science/comments/7yegux/aaas_ama_hi_were_researchers_from_google/

雷锋网版权文章,未经受权制止转载。概况见。

Facebook、微软、谷歌三大研究巨头齐聚首,共同探讨人工智能发展现状和趋势