农企新闻网

CCCF:周志华

发布者:张同东
导读雷锋网 AI 科技评论按:本文作者周志华,首发于大众号中国计算机学会,来源于《中国计算机学会通讯》2018年第1期《专栏》,雷锋网(大众号:雷锋网)AI 科技评论受权转发。近来「人工智能」很热,关于「强者工智能」的一些讨论也见诸于网媒报端。作为一名人工智能研讨者,在此谈点深刻的看法仅供大家批判。关于人工智能,临时存在两种不同的目的或许理念。一种是希望自创人类的智能行为,研制出更好的工具以加重人类智

雷锋网 AI 科技评论按:本文作者周志华,首发于大众号中国计算机学会,来源于《中国计算机学会通讯》2018年第1期《专栏》,雷锋网 (大众号:雷锋网) AI 科技评论受权转发。

近来「人工智能」很热,关于「强者工智能」的一些讨论也见诸于网媒报端。作为一名人工智能研讨者,在此谈点深刻的看法仅供大家批判。

关于人工智能,临时存在两种不同的目的或许理念。一种是希望自创人类的智能行为,研制出更好的工具以加重人类智力休息,普通称为「弱人工智能」,相似于「初级仿生学」。另一种是希望研制出到达甚至逾越人类智慧程度的天然物,具有心智和认识、能依据本人的意图展开举动,普通称为「强者工智能」,实则可谓「天然智能」。

人工智能技术如今所获得的停顿和成功,是缘于「弱人工智能」而不是「强者工智能」的研讨。正如国际人工智能结合会前主席、牛津大学计算机系主任迈克尔·伍德里奇(Michael Wooldrige)教授在 2016 年 CCF-GAIR 大会¹报告中所说:强者工智能「简直没有停顿」,甚至「简直没有严肃的活动」(「little progress, little serious activity」)。现实上,人工智能国际主流学界所持的目的是弱人工智能,也少有人努力于强者工智能。那么,这是不是由于强者工智能「太难」,所以大家「退而求其次」呢?不然。现实上,绝大少数人工智能研讨者以为,不能做、不该做!

CCCF:周志华

牛津大学迈克尔·伍德里奇教授

首先,从技术下去说,主流人工智能学界的努力历来就不是朝向强者工智能,现有技术的开展也不会自动地使强者工智能成为能够。

无妨看看如今人工智能技术所获得的成功。在图像辨认、语音辨认方面,机器曾经到达甚至超越了普通人类的程度;在机器翻译方面,便携的实时翻译器已成为理想;在自动推理方面,机器很早就能停止定理自动证明;在棋类游戏方面,机器曾经打败了最顶尖的人类棋手……可以看出,上述成功有一个共同的特点:它们都是在思索某种特定类型的智能行为,而不是「完全智能」行为²。一方面,聚焦在特定类型的智能行为上,才使得义务成为能够而非空谈³;另一方面,假如目的是制造「工具」,那么思索特定类型的智能行为就已足够,自主心智、独立认识、甚至情感⁴之类的东西,基本无须思索。打个未必恰当的比如,假如人们的目的是造个工具砸东西,那么造出锤子来就好了,无须思索让锤子有心智、认识,也不用思索能否要让锤子本人觉得到「疼」。现实上,人工智能研讨活泼的子范畴,都是与制造智能「工具」直接相关的;而对「强者工智能」必不可少、却与「工具」不太相关的内容,如自主心智、独立认识、机器情感之类,罕有严肃的研讨。所以,现有技术即使开展再快、开展再好,也不会直接使得强者工智能成为能够。

第二,即使想研讨强者工智能,也不晓得路在何方。

有一种说法,以为假如可以模仿出「人脑」,把其中的神经元、神经突触等全部同规模地仿制出来,那么强者工智能就会自然发生。但是,这种说法历来没有失掉过一点点证明,严厉说来甚至不能称其为「猜测」,由于猜测也应该有一些即使不够齐备但尚能显示能够性的证据,例如经过仿制复杂细胞,做出了单细胞智能生物。实践上,我们完全有更激烈的理由以为,即使能准确地察看和仿制入迷经细胞的行为,也无法复原发生出智能行为。正如国际人工智能终身成就奖得主、多伦多大学赫克托·莱韦斯克(Hector J. Levesque)教授在他2017年的新著⁵中所说,即使在最理想的状况下,神经迷信家也仅是能取得「目的代码」而已,没有理由以为取得了目的代码就能复原出源代码,由于这样的「反向工程」即使对软件顺序来说也简直是不能够的,更何况神经细胞外部还存在「散布式表示」⁶。

第三,即使强者工智能是能够的,也不应该去研讨它。

任何一个迷信研讨范畴或许都存在一些不该去触碰的东西。例如克隆人是被主流生命迷信界所制止的。强者工智能的造物将具有自主心智、独立认识,那么,它凭什么能「甘愿」为人类效劳、被人类「奴役」?有人把阿西莫夫的「机器人三定律」⁷奉为圭臬,但现实上这是行不通的。且不管三定律本身的矛盾和破绽⁸,凭什么以为有自主心智和独立认识,且智能片面到达甚至逾越人类程度的机器,就不会把这些约束改掉呢?即使它是好心的,人类又凭什么以为它会赞同比它「愚笨」的人类的判别?例如它会不会以为把人类全部关进监狱就可以防止人类相互残杀,这才是对人类全体最好的?至于说,到时分人类假如觉得风险了,可以把机器的电源断开……这只是开个玩笑吧,真到那个时分,机器恐怕早就能采用其他的方式摄入动力了。总之,强者工智能呈现的那一天,恐怕真的就是人类面临最大生活危机的时分。所以,对严肃的人工智能研讨者来说,假如真的置信本人的努力会发生后果,那就不该去触碰强者工智能。

作者引见

周志华

CCCF:周志华

CCF会士、常务理事、人工智能与形式辨认专委主任。

南京大学教授、计算机软件新技术国度重点实验室常务副主任。

ACM / AAAS / AAAI / IEEE / IAPR Fellow,欧洲迷信院外籍院士。

研讨方向:人工智能、机器学习、数据发掘等。

脚注

1. 全球人工智能与机器人峰会,是由中国计算机学会(CCF)主办,雷锋网承办的。此会于2016年8月12~13日在深圳举行。

2.人类一直在不时努力制造出在某个特定方面逾越人类本身才能的工具,例如潜艇比人游得深、火箭比人飞得高,但似乎罕有人努力制造既是潜艇又是火箭的工具。相似地,人工智能研讨也是在努力制造出在某种智能行为方面逾越人类本身的工具。

3.现实上,「图灵测试」所思索的也仅是机器能否「考虑」(thinking),而不是强者工智能语境下的「完全智能」。

4.人工智能中有关于「情感计算」的研讨,但并非是研讨如何让天然物「拥无情感」。

5.《Common Sense, the Turing Test, and the Quest for Real AI》

6.并非由单一神经细胞对应单一功用,而是诸多神经细胞共同发作作用。

7.一、机器人不得损伤人,也不得见到人受损伤而袖手旁观;二、机器人应听从人的一切命令,但不得违背第一定律;三、机器人应维护本身的平安,但不得违背第一、第二定律。

8.由于发现三定律有破绽,阿西莫夫后来补充了第零定律:机器人不得损伤人类全体,或因不作为而使人类全体遭到损伤。


相关文章:

AIR 014 | 杨强对话Michael Wooldridge:我们关注的范畴有没有大数据?

AIR 074 | 牛津系主任Michael Wooldridge:AI让我们重新考虑社会关系

雷锋网版权文章,未经受权制止转载。概况见。

CCCF:周志华