雷锋网 (大众号:雷锋网) AI 科技评论按:近期 Facebook 泄露海量用户数据,而且这些数据还被应用来针对性地影响 Facebook 用户的事情曾经闹得沸沸扬扬。除了用户隐私维护这一话题永远都不过时之外,「用来剖析用户、影响用户的 AI 算法该当担负怎样样的责任」这一话题也在 AI 圈中惹起了讨论。Keras 作者、谷歌大脑研讨员 François Chollet 也在 Twitter 上连发好几十条推文,表达了本人的观念。这些推文根本构成了一篇完好的文章,而且观念深入振聋发聩。雷锋网 AI 科技评论把这些推文编译整理如下。
François Chollet:
Facebook 曾经做了一系列「成功」的实验了,其中的内容包括经过控制信息流里展示的内容控制用户的心情和想法,以及预测用户将来能够做出的决议,比方预测分手、预测树立新爱情。假如 AI 有什么严重的要挟需求惹起足够的担忧的话,那它曾经在这里显现出来了:极为无效地、可以大规模实行地控制普通群众。Facebook 十分努力地想要成为 AI 方面的领军力气这件事,在看清它面前的全部隐喻之后,开端真正地让人毛骨悚然。
对 AI 研讨社区里的各位,下次你们以任何方式参与到 Facebook 的 AI 生态零碎中的时分,你们都需求想想,想想本人又帮 Facebook 增添了哪些才能。我们共同养大的这个怪兽,最终会把我们每一团体都吃掉。很抱歉我把这事说得很夸大,但是这件事的要挟水平值得用这么严重的词。Facebook 在这件事上表现出的成绩,并不只仅是得到了隐私并被用于泛极端主义。在我看来更值得担忧的是,它 把团体的数字信息用作心思控制的手腕 。
有两个临时趋向正在改动整个世界的容貌:一,我们每团体的生活越来越去物质化,越来越多地由「在网络上享用和发明内容」构成,任务中、上班在家的时分都是这样;二,AI 也在变得越来越聪明。在可以影响我们如何享用数字化内容的算法层面上,这两个趋向的作用开端叠加。决议我们能看到哪些文章、我们和谁联络、我们看到谁的观念、收到谁的反应等等有限多的事情的,变成了不通明的媒体算法。基于广阔用户这么多年积累的数据,用算法处置我们能享用哪些数据的做法让这些零碎对我们的生活、对我们要变成什么样有了可见的控制力。当我们的生活越来越多地由数字生活组成的时分,我们在这个世界的管理方 —— AI 算法 —— 面前,就越发地软弱。
假如在某几年的工夫里,你看到什么旧事(不管真假)、看到哪个政客的观念,以及谁能看到你的观念,等等这一切都是由 Facebook 控制的,那 Facebook 就对你的政管理念和你的世界观有了相当的我国这片创新热土正在发生一场全面而深刻的产业结构变革。影响。而这也并不是什么旧事,我们曾经晓得了至多从 2013 年起 Facebook 就停止了一系列实验,实验里他们可以经过封闭信息流里的某些内容的方式,控制不知情的被试用户的心境和决议,以及预测这些用户将来的举动。
冗长来说,Facebook 可以同时测量一切关于我们的信息,同时还控制我们接触到哪些信息。当你同时可以接触到感知和行为的时分,这就变成了一个 AI 成绩。那么你就可以开端为其中的人类行为 树立一个优化闭环。一个强化学习闭环。在这个闭环里可以察看到目的的以后形态,然后继续改良给他们看到的信息,不断改良到他们开端表现出你想看到的观念和行为为止。
AI 研讨里有相当一局部内容(尤其是 Facebook 不断在投资的这一局部),就是关于如何开发算法,尽能够高效地处理这种优化成绩的,以便能到达这样的闭环,对其中发作的景象有完全的掌控。以 Facebook 这件事来讲, 在闭环里被掌控的就是我们本人 。
人类的大脑天生就对复杂的社交控制没有任何抵抗力,这让到达这个目的变得不晓得有多么复杂。如今当我考虑这些成绩的时分,我曾经不由得想起了一系列无效得令人后怕的心思攻击手腕。其中的有一些曾经在广告业运用了很长的工夫,比方正面/负面社交强化,只不过执行得很弱、没有针对任何特定目的。
假如从信息平安的角度思索的话,这曾经可以称得上是「软弱性」,可以经过已知的零碎特性掌控整个零碎。关于人类心智来说,这些软弱性永远都没有方法修复,人类就是这样一种生物。我们的 DNA 就是这样的,我们的心思特点就是这样的。作为人类集体,我们没有任何无效的办法可以维护我们不受这种控制。AI 算法越来越聪明,它们对我们的所做、所信有完全的理解的同时,还对我们接纳的信息有完全的控制。人类心智这个静态的、软弱的零碎,在这样的 AI 面前只会越来越陷落。
而很重要的是,对少量人口的控制,尤其关于政治观念的控制来说,让 AI 控制我们看到哪些信息这样的做法其实都不一定需求很先进的 AI。一个没有自我看法的、没有超级智能的 AI 就曾经可以是明显的要挟。
所以,假如对少量人口的控制如今就曾经实际上可行的话,那为什么世界还没有走向消灭呢?复杂地说,我以为是由于我们做 AI 做得还太蹩脚了。不过这能够也很快就要发作变化了。你们可以看到,我们的技术才能就是此处的瓶颈。
直到 2015 年为止,一切企业运用的广告投放算法里运用的都只不过是逻辑回归。实践上,直到明天也还有很多公司是这样做的,只要市场里最大的玩家才切换到了更先进的模型。这就是我们在网上看到的各种广告里,有很多都显得和本人毫有关系的缘由。这些算法没有那么复杂。相似地,友好国度用来散播政治观念的社交媒体机器人外面要么没有 AI,要么只要一点点。它们都太初级了,目前来讲。
在最近几年里,AI 的开展日新月异,而这些新的技术效果才刚刚开端部署在针对性的广告投放和社交媒体机器人里而已。深度学习也是在 2016 年左右才开端浸透到信息流和社交网络这些范畴里。Facebook 在这些技术上都做了大规模的投资。
接上去还会发作什么谁也不晓得。细想之下,Facebook 在 AI 科研和开发方面不断都有大规模的投资,而且很直白地希望本人成为这个范畴的带头人。这通知了我们什么呢?当你的产品是信息流的时分,你需求 AI 和强化学习究竟是为了做什么?
我们如今面对的是这样一个有着弱小力气的实体:它为超越 20 亿人类辨别构建了细粒度的心思学档案,它会做大规模的行为控制实验,同时它还有「开发世界上最弱小的 AI 技术」的目的。以我团体来讲,真的是感到惧怕。
假如你也在 AI 范畴任务,请不要协助他们。不要认可他们的游戏规则。不要参与到他们的研讨生态零碎中。做人要有良知。
(关于「把团体的数字信息用作心思控制的手腕」)有人说谷歌也是这样的。这算得上是最懒散的一种思想方式了,仅仅由于两件事外表上看起来有一些类似性(它们都是大型科技企业),不代表它们就是相关联的。基本上,我讲的这些要挟并不会发作在谷歌身上。亚马逊也不会。苹果也不会。实际上,Twitter 是有能够的,不过实践上它根本上什么都没做。
产品是不通明的信息流算法、做大规模的心境/观念控制实验、快被操控选举丑闻吞没、一次又一次指导力破产的公司只要这样一个。所以请不要条件反射般地以为「一切迷信技术、一切广告都是坏的」,请细心思索我说的本质内容。
对我团体来说,我是无意识地选择了来谷歌任务的。假如我开端觉得不舒适了,那我一定会分开。而假如我事先选择了去 Facebook 任务的话,我 2017 年就会分开。
我们和这个信息密度越来越高的世界之间的沟通越来越多地依赖算法并不构成什么成绩。随着互联网和 AI 的开展崛起,这个趋向是不可防止的。 真正的成绩在于控制。我们需求让用户决议算法优化的目的是什么,而不是让信息流算法控制我们 ,从而到达它的某些不通明的目的(比方影响我们的政治观念,或许最大化我们在信息流上糜费的工夫)。
让用户本人配置他们的信息流,比方尽量协助用户本人的学习和团体生长之类的,该当成为一种能够性。这样一来,更复杂的 AI 也不再是人类的要挟,而会对我们有许多好处,可以让我们更高效地达成本人的目的。临时来看,我以为教育和自我提升将会是 AI 最具影响力的使用范畴之一。这个静态开展的进程似乎是如今这样希图控制我们的 AI 零碎的一个翻版,但独一的不同就是谁来给算法设定目的。
关于这个数字信息构成的世界来说,AI 就是我们和它之间的接口。它既可以让团体和集团有更大的力气控制本人的人生,也有能够引向被完全控制的不归路。很遗憾的是,我们正在错误的方向上行进。
从另一个角度来讲,谷歌搜索、Gmail、iOS 和安卓这样的技术产品对人类无益,而 Facebook 信息流对人类无害的缘由正是如此。前者是自动的,它们给了用户更多力气,让他们可以做更多、理解更多。后者则是控制你的世界观,而且试着让你在它外面尽能够多地糜费工夫。
人工智能作为一个产业,我们需求开发新品种的产品类别和市场,其中产品的动机是为了让人类具有对 AI 的控制权,而不是让 AI 应用人类的心智获利或许影响政治。我们需求努力向着「反 Facebook」的技术产品行进。
(完)
via François Chollet @fchollet ,雷锋网 AI 科技评论编译
相关文章:
Facebook千万用户信息泄露引发的另一考虑:线下视频监控用户数据如何守护?
我在 Facebook 上发了一张小狗的照片,Facebook 应该付钱给我吗?
实锤!走漏5000万用户信息后,Facebook 成操控美国大选的工具
雷锋网版权文章,未经受权制止转载。概况见。