农企新闻网

细思极恐!假如有一天机器人会变坏立功怎样办?

发布者:王龙
导读本文系网易智能任务室(大众号 smartman 163)出品。聚焦AI,读懂下一个大时代!【网易智能讯1月7日音讯】从微软“不测的种族主义机器人”到鼓励机器人的黑暗迷因,AI常常游走于立功范畴。为什么会这样,我们能阻止它吗?在科幻小说中,人工智能通常被以为是不品德的、罪恶的。从《2001:太空遨游》的HAL到《黑客帝国》中的机器人特工,人工智能是一个可信的反派角色,不难了解其中的缘由。一个经过设计

细思极恐!如果有一天机器人会变坏犯罪怎么办?

本文系网易智能任务室(大众号 smartman 163)出品。聚焦AI,读懂下一个大时代!

【网易智能讯1月7日音讯】从微软“不测的种族主义机器人”到鼓励机器人的黑暗迷因,AI常常游走于立功范畴。为什么会这样,我们能阻止它吗?

在科幻小说中,人工智能通常被以为是不品德的、罪恶的。从《2001:太空遨游》的HAL到《黑客帝国》中的机器人特工,人工智能是一个可信的反派角色,不难了解其中的缘由。一个经过设计的机器不会像你我一样觉得和考虑,因而,它成为一个很好的工具,用来投射我们一切的不信任、恐惧和伦理难题。

也就是说,人工智能曾经不再是将来主义者的想象――它曾经成为一个主流的理想,曾经在我们的厨房、汽车和手机上轻声细语。一些迷信家正告称,人工智能能够会带来潜在的罪恶,但尚处于初期阶段的人工智能没有密谋人类的沦亡。人工智能协助我们订购食品杂货,或许在谷歌上搜索我们提出的成绩,它是一种有害的却极为便当的古代创新产品。例如,Siri和Alexa很聪明,可以提供协助,但也在一定限制内不会构成要挟,除非这种要挟会让你不测地购置一个玩偶屋。

人工智能并不是天生具有品德或残忍,也不是天生就是不品德的或应受谴责的。但是,我们曾经看到,中性的人工智能常常会在偶尔状况下表现出守法倾向的特性,目前还不完全清楚其中的缘由。人工智能能够不会进入黑暗的领地,但我们依然需求小心肠监管它。

一个恰当的例子:微软。这家科技公司开收回一款名为Tay的聊天机器人,其设计初衷是基于从Twitter那里学到的东西来交谈,一天后,Tay变成了一个满嘴脏话的“傀儡”,声称“希特勒是对的”,“女权主义者应该在一天之内死去”。当然,Twitter上有很多漂亮的言论,但也不是那么蹩脚。但是,她变成了一个偏执狂。

人们很容易以为Tay是一个“变坏的机器人”,由于她的愚笨、品德缺失使她容易遭到立功的影响。不过,据其开发者说,Tay置身于一个不良的群体环境中:网络巨魔(internet trolls),当被要求模拟具有挖苦意味的攻击性言辞时,她变得十分厌恶,这不是机器人,而是令人恐惧的人类。Tay并没有由于她是一个没有感情的机器人而变得罪恶,而是由于她遭到了一群人的影响,这些人感知到了很多东西:仇恨、攻击性的幽默和打破社会强加界线的激动。我们可以责怪创作者没有预见到它的到来,也责怪那些让它发作的人,但科技自身既不自知也不应遭到责备。

安吉拉・纳格尔在她的《Kill All Normies》一书中,详细描绘了我们明天所知的“左翼”的崛起。在这本书中,安杰拉・纳格尔将“巨魔”(trolls)的行为描绘为“离经叛道”,是过来10年网络上盛行的文明产物。“离经叛道”是一种寻衅,往往是为了寻衅,在反讽和真诚的动摇之间模糊界线。纳格尔对互联网黑暗角落的深化研讨标明,这种态度曾经在网络上开展,并浸透到主流人群中。人类很容易遭到这种肉体形态的影响――如今很分明,人工智能也是如此。

另一团体工智能出错的例子是“鼓励机器人”。由挪威艺术家兼顺序员Peder J rgensen创作,灵感发生的人工智能发明出了一些模因,其来源假如不是机器人的话,那将是十分暗淡的。旧事媒体称其为“危机中的人工智能”,或许宣称这台机器人“疯了”。不过,由于它的幽默,鼓励机器人的越界行为与Tay不同。在这个世界上,人们对行为不当的容忍水平较低,这种行为的偏向是一种文娱。这个机器人变成的样子与其发明者的意图并不相符。

J rgensen以为缘由在于机器人的算法中心。他解释说:“这是一个搜索零碎,它可以将网上人们的对话和想法聚集、剖析,然后重新塑形成它以为适宜的鼓励点。”“思索到目前的互联网情况,我们担忧机器人的心情会随着工夫的推移而变得更糟。”

到目前为止,创作者们试图紧张“其向严酷和争议的倾斜”的尝试似乎只是“让它变得更先进,更虚无主义”。J rgensen说,他们将持续运转,以确定最终的后果。也许这并不令人振奋,但我以为,“鼓励机器人”的最大挖苦在于,它以推翻陈腐认知的方式发明了更多的意义,而不是更少。

侥幸的是,有成绩的聊天机器人和备忘录机器人对社会来说并不风险,假如有的话,它们是受欢送的搅扰。但它们的确代表了在没有适当的维护措施的状况下,人工智能有转变的能够性。假如有人在全国范围内劫持了亚马逊的Echos,给其提供种族主义宣传或虚无主义言论,那显然是一个更大的成绩。

毕竟,“巨魔”(Trolls)只是“巨魔”,直到有一天,它们被仔细看待,其才不再是“巨魔”。模因对文明和技术有着弱小的影响力,而且越来越多地触及政治。“巨魔”通常也有黑客攻击、泄露和传达宣传的技术技艺,因而,人们对假旧事的众多以及人工智能在其发明进程中扮演的角色越来越担忧。深度神经网络平台Keras的开创人弗朗索瓦?乔雷特表示:“可以说,人工智能最大的要挟是经过音讯定位大规模控制人口和宣传机器人军队。”

假如人工智能可以本人停止武器化,我们最不需求的就是让科技公司制造出更容易遭到攻击的机器。那么,我们能遏制这种趋向吗?让研发者进步警觉很容易,但毫无疑问,让其预测和阻止一切的异常后果比拟难。虽然这能够很复杂,但必需提早做好预备,尤其是在人工智能日益突出、作为一个值得信任的日常工具的状况下。我们必需确保计算机不会为了完成它们所设定的目的而采取合法或不品德的行为,或许依据不精确的数据做出严肃的决议。换句话说,我们需求将一些价值观编码到这些机器中,难以答复的成绩是:谁的价值观?

我们如今还没有答案,有能够我们永远也不会有答案。但在我们直面这些担忧之前,我们能够会让机器选择本人的认识形状,或许由主宰网络权利的一方来决议。我们留下的成绩和破绽越少,我们就越能保存控制和平安。虽然如今还是初期,但假如我们给机器人编码一条通往黑暗的路途,它的罪恶就更有能够呈现。

(选自:venturebeat 作者:Bennat Berger 编译:网易见外智能编译平台 审校:nariiy )