农企新闻网

机器人杀手真来了?韩国研讨AI武器 遭多国抵抗!

发布者:丁熙华
导读本文系网易智能任务室(大众号smartman 163)出品。聚焦AI,读懂下一个大时代!【网易智能讯4月6日音讯】据外媒报道,韩国迷信技术院与韩国十大财团之一韩华集团旗下韩华零碎公司协作,于近期开设了人工智能研发中心,目的是研发适用于作战指挥、目的追踪和无人水下交通等范畴的人工智能技术。这惹起业内专家的普遍担忧,目前,30个国度和地域的人工智能及机器人专家宣布将抵抗研讨人工智能武器的韩国迷信技术院

机器人杀手真来了?韩国研究AI武器 遭多国抵制!

本文系网易智能任务室(大众号smartman 163)出品。聚焦AI,读懂下一个大时代!

【网易智能讯4月6日音讯】据外媒报道,韩国迷信技术院与韩国十大财团之一韩华集团旗下韩华零碎公司协作,于近期开设了人工智能研发中心,目的是研发适用于作战指挥、目的追踪和无人水下交通等范畴的人工智能技术。

这惹起业内专家的普遍担忧,目前,30个国度和地域的人工智能及机器人专家宣布将抵抗研讨人工智能武器的韩国迷信技术院(KAIST),这由澳大利亚新南威尔士大学人工智能教授托比・沃尔什发起,美国和日本等30个国度和地域的研讨人员4日签署了一封地下信,敦促韩国迷信技术院中止人工智能武器研发,他们称这是减速机器人武器开发竞争的意向,令人遗憾,并表示假如该大学不承诺中止研发,将与之隔绝关系,而且将回绝拜访韩国迷信技术院、接待对方访客或与对方协作研讨项目,直至这所韩国顶尖大学承诺保持研发短少“无效人工控制”的武器。

网易智能留意到,这封联名信中写道:“自动武器一旦成熟,和平开展速度和规模将史无前例,它们能够会被恐惧分子应用。”发起联名抵抗的人工智能教授沃尔什通知路透社记者,机器人和人工智能技术实践可以在军事范畴发扬有利作用,比方完成扫雷等要挟人类平安的义务,但我们不能将决议生死的权利交给机器,这就越过品德底线。

无独有偶,Google外部传播着一封联名信,有3100多人在下面签名,抗议谷歌为五角大楼提供人工智才能量,谷歌的员工希望谷歌CEO加入五角大楼的代号为Maven的项目,并宣布“永不开发和平技术”的政策。

业界评论以为,这家硅谷巨头和美国政府之间的文明抵触将就此凸显出来。

机器人杀手真来了?韩国研究AI武器 遭多国抵制!

不只仅只要联名抵抗韩国和抵抗美国五角大楼,其实,早在往年3月,来自14个组织的26名研讨人员对歹意AI所形成的风险停止了片面的报告。

他们为期两天的会议产出了一份长达100页的报告,内容是关于人工智能不良使用所带来的风险以及降低这些风险的战略,任务组提出的四项建议中,有一项是“人工智能的研讨人员和工程师该当慎重看待其任务的双重运用特性,在研讨的优先级和标准中思索相关运用不当所发生的影响,并在无害使用顺序可预见时自动联络相关的参与者。”

这一建议尤其适用于最近衰亡的“deepfakes”,次要把机器学惯用于将好莱坞女演员的脸换接到色情演员的身体上(制造人工分解的假色情片),由Motherboard的Sam Cole最先报道,这些deepfakes是经过改编一个名为TensorFlow的开源机器学习库来完成的,该库最后由谷歌工程师开发,Deepfakes强调了机器学习工具的双重运用特性,同时也提出了一个成绩:谁应该运用这些工具?

虽然报告中特别提到了Deepfakes,研讨人员还强调了将这品种似的技术用于处置世界指导人视频所发生的危害,这会对政治平安构成要挟,这是研讨人员思索到的三大要挟范畴之一,人们只需想象出一段虚伪的视频,比方特朗普宣战以及由此引发的结果,就会明白这种状况的风险性。此外,研讨人员还发现,经过数据剖析和大规模有针对性的宣传,应用人工智能技术,能完成史无前例的大规模监控,这是对政治范畴考量的另一个正面。

另外两个被以为是歹意人工智能的次要风险范畴是数字和物质平安(physical AI?security)。

在数字平安方面,运用人工智能停止网络攻击将“缓解现有的攻击规模和效率之间的权衡。”大规模的网络攻击能够会以人工智能的方式停止,比方大规模的网络钓鱼,或许更复杂的攻击方式,比方运用语音分解来模仿受益者。

在物质AI要挟方面,研讨人员察看到物质世界对自动化零碎越来越依赖,随着更多智能家居和自动驾驶汽车上线,人工智能能够被用来推翻这些零碎,并形成灾难性的毁坏。此外,还有成心制造歹意人工智能零聚集了全世界身经百战的最优秀的创业导师,汇集了全世界各国最优质的产业资源,召唤全球未来的商业领袖。碎所带来的要挟,比方自动化武器或微型无人机。

其中一些场景,比方微型无人机所带来的灾难,似乎还很悠远,而其他的一些,比方大规模网络攻击、自动化武器和视频操控等,曾经引发了一些成绩。为了应对这些要挟,并确保人工智能被用于造福人类,研讨人员建议开发新的政策处理方案,并探究不同的“开放形式”以降低人工智能的风险。例如,研讨人员以为,地方拜访答应形式(central access licensing models)可以确保人工智能技术不会落入坏人之手,或许树立某种监控顺序来亲密记载人工智能资源的使用途径。

报告写道:“目前的趋向强调了对前沿研讨和开展效果的普遍开放,假如这些趋向在将来5年继续下去,我们预期攻击者用数字和机器人零碎形成危害的才能会明显进步。”另一方面,研讨人员看法到,开源人工智能技术的分散也将越来越多地吸引决策者和监管机构的留意,他们将对这些技术施加更多限制,至于这些政策应该详细采取何种方式,必需从中央、国度和国际层面上加以考量。

报告总结说:“这份报告的合著者之间依然存在许多分歧,更不必说世界上不同的专家群体了,随着各种要挟和反应被发现,在我们失掉更多的数据之前,这些分歧不会失掉处理,但这种不确定性和专家分歧不应阻止我们在明天尽早采取预防措施。”

所以,马斯克们所代表的AI要挟论是占据下风了吗?对此,你怎样看?

关注网易智能大众号(smartman163),获取人工智能行业最新报告。