刚刚过来的一年,人工智能带来的冲击一波接着一波:继谷歌人工智能顺序“阿尔法狗”碾压中韩顶级棋手后,全球第一个被授予“公民身份”的机器人索菲亚又扬言“要消灭人类”,接着呈现了会后空翻的机器人“阿特拉斯”,以及可执行“斩首”义务的微型无人机纷繁登台亮相……
在人工智能高速开展的明天,正多么多专家所预言的那样,和平机器人能够是继核武器之后,又一把悬在人类头上的“达摩克利斯之剑”。这引发人们沉思:人工智能终究会被“征服”,成为人类的冤家?还是会“叛逆”,给人类带来无尽的灾难?
难以顺从的引诱
高度智能化打破人类生理极限
人工智能作为物联网、大数据、先进算法和弱小计算才能支持下的一种“群技术”,经过赋予“物”以人的智力,模仿和扩展人的智慧,辅佐甚至替代人完成多种功用,停止看法、剖析、决策、举动等活动。其中心优势是高度自主性,可以较少或完全不需求人工干涉就可完成复杂、繁重和准确性高的义务。
人工智能可以使人从繁重的反复性任务中束缚出来,专注于发现性、发明性的任务。比方,在以前的指挥决策中,指挥人员85%的工夫用于情报处置剖析,只要15%的工夫思索作战,而采取智能化情报处置零碎后正好相反。古代战场态势高度复杂、瞬息万变,完全依赖人的认知去了解战场态势变得越来越困难。而运用智能化数据处置技术,就可以在大数据中发现复杂事物间的关系,从实质上打破人类剖析联络事物的局限性,还可根据对少量战场数据的剖析,提供可行性的决策建议。
人工智能具有自主学习才能,且运算准确度高,不受环境与心思等要素影响。2017年12月14日,美国宇航局宣布应用谷歌人工智能机器人的学习才能,对开普勒太空望远镜搜集的3.5万个能够的行星信号、140亿个数据点及大约2万亿个行星轨道停止剖析,发现了首个简直和太阳系一样的星系,其效率和精确性远超传统的剖析办法。异样,高度自主化的无人作战零碎,在前方操纵人员的监控下,可以自动搜索和跟踪目的,自主辨认环境并规划机动道路,疾速捕获战机施行准确打击。
人工智能还可经过计算机视觉、语音处置、自然言语处置等技术,使零碎愈加精准天文解人的行为并依照人的意志举动,完成人机高度交融。比方,在智能控制范畴,可以经过语音方式下达指令,由零碎转化为机器言语,完成作战命令的疾速下达和武器配备的准确操控。在单兵助力方面,外骨骼零碎可经过感知人体运动意图,提升兵士的承载携行、搬举才能,同时又能完成人机一体化,坚持兵士的高度灵敏性。
可以预见的风险
人工智能带给人类宏大要挟
美国“脸书” CEO马克·扎克伯格曾放言:“人类当上面临的最大要挟是什么?无疑是人工智能!”但就以后来讲,人工智能的“要挟”还不存在,由于它只专注于完成某个特别设定的义务,比方下围棋就仅仅会下围棋。而将来超越人类智慧的超人工智能具有知识迁移才能,可以充沛应用已掌握的技艺处理新成绩,这就有能够给人类形成宏大要挟。
完成高度自主并能够“失控”。将来超人工智能开端具有自主思想认识,可以像人类一样独立考虑,并自我决议如何举动。因而,自主智能机器零碎虽然由人类设计制造,但它们的行为却不受人类的直接指令控制,而是可以基于在不同情境中对其所取得的信息停止剖析、判别和决策,构成不需求人类介入或干涉的“感知—考虑—举动”形式,并最终超出发明者意料或事前控制的范围而失控。
这种高度智能化的零碎还可以经过学习停止机器再造,可以疾速复制或再生其他新的人工智能体。据专家推算,一个得到控制的正在自我复制的纳米机器人,完成130个复制周期只需求3个半小时,思索到纳米机器人向外挪动扩张等要素,最多只需数周就可以“摧毁”地球上的一切生物。这也就是为什么霍金屡次“劝诫”人们:人工智能一旦脱离约束,就会以不时减速的形态重新设计本身。而人类由于遭到漫长生物退化的限制,无法与之竞争,最终或将被取代。
遭遇合法入侵能够被“黑化”。人工智能作为一种新兴的技术范畴,普通来说,没有平安破绽是不能够的。而假如有人应用这种破绽控制智能零碎或机器人去施行毁坏活动,这样的结果是极端可怕的。而且,随着人工智能的开展,其他工具包括人工智能的技术开发和复制也变得越来越容易。也就是说,将来任何人都可以运用该零碎去完成自我复制或繁衍其别人工智能零碎。因而,超人工智能零碎一旦被合法获取或操纵,将发生宏大的毁坏力气。
迸发机器和平形成武力“滥用”。将来少量智能化无人零碎将运用于战场,“死伤”的次要是没有生命并可以少量再造的“智能机器”,使和平本钱大大降低,并可以完成作战人员的“零伤亡”。和平的政治、内政风险分明降低,这就能够会因和平顾忌和压力增加而降低和平决策的门槛,招致军事强国在武力运用上愈加随意,从而使和平的迸发愈加频繁,和平从“最初的选择”转变为“首先的手腕”。为此,许多迷信家呼吁制止“致命性自主式武器”的研发和运用,并正告这将引发全球性人工智能“军备竞赛”,人类社会将能够深陷和平泥潭。
未雨绸缪的防备
给人工智能戴上“紧箍咒”
霍金曾这样评价人工智能:“它既能够成为人类迄今发作过的最好的事,也能够成为最蹩脚的事”。我们既不能自觉悲观,也不能因噎废食,必需及早给将来人工智能的开展套上必要的平安、伦理等方面的“紧箍咒”,同时又不能障碍技术创新和人类社会提高的步伐。
从技术平安角度树立共同恪守的开展原则。依据人工智能可预见的风险,树立世界范围内的人工智能开展原则,对研讨范围、内容、目的、用处等各个方面停止标准,确保平安、可控地开展人工智能。比方,关于智能零碎究竟应该完成到什么样的自主水平,赋予其多大的自主权益以及哪些方面不能完成等停止明白限制。2017年1月,在美国加利福尼亚州举行的阿西洛马人工智能会议上,近千名人工智能和机器人范畴专家已结合签署了《阿西洛马人工智能23条准绳》,呼吁世界在开展人工智能时共同恪守,成为人工智能平安、有序开展的良好末尾。
从品德伦理角度树立迷信严厉的评价机制。人工智能次要是基于算法,而算法在实质上是“以数学方式或计算机代码表达的意见”,是设计者、开发者的客观发明,有能够将本人的成见、价值观嵌入算法零碎,制造出不契合社会品德标准的智能机器,这就需求对其停止严厉评价以确保平安。2016年12月,美国电气和电子工程师协会启动了人工智能伦理工程,提出对嵌入智能零碎的标准和价值停止评价,以确定其能否和理想中的品德价值体系相分歧。我国在《新一代人工智能开展规划》中也提出“树立人工智能法律法规、伦理标准和政策体系,构成人工智能平安评价和管控才能”。
从标准运用角度树立具有法律约束力的普遍性制度条约。任何一种先进技术能否发生要挟,次要看运用者出于何种目的、如何运用。固然,面对人工智能的宏大优势和潜在利益,特别是在触及国度平安范畴方面,直接制止运用人工智能技术是不理想的。这正如国际上制止或限制运用“致命性自主武器零碎”一样,至今无法获得任何本质性停顿。因而,应呼吁树立具有法律约束力的国际性条约,对某些特殊功用的智能零碎风险和技术分散等停止标准和预防。
责任编辑:汤德正