随着Cambridge Analytica丑闻的继续发酵,Facebook成了众矢之的,一个让人有点不测的谴责来自:谷歌。
谷歌研讨员François Chollet在昨天宣布一系列推文,正告说, Facebook 的成绩不只仅是隐私泄露或缺乏信任,而是由AI驱动的Facebook很快就会成为“极权主义的圆形监狱”。
他呼吁研讨人员:“请表现出一些良知”。
François Chollet:有良知的迷信家都不该为Facebook任务
“我们目击的是一个弱小的实体,它树立了超越20亿人的精密心思特征,停止着大规模的行为操纵实验,它的目的是开收回世界上最好的AI技术。就我团体而言,这真的令我感到惧怕。”Chollet昨天发推特说,“假如你是做AI的,请不要协助他们。不要玩他们的游戏。不要参与他们的研讨生态零碎。请表现出一些良知。”
依据François Chollet的linkedIn团体材料,自2015年8月以来,Chollet不断是谷歌的一名软件工程师和AI研讨人员,专注于深度学习范畴的研讨。他最有名的头衔是Keras的次要作者,Keras是一个有世界各地数十万AI研讨人员运用的开源深度学习库。
Chollet以为,在Facebook事情中,成绩不只仅是“你的隐私遭到了损失”,也不只仅是你的隐私可以被用作极权主义的“圆形监狱”这一现实。 在我看来,更令人担忧的成绩是,数字信息消费被用作一种心思控制的媒介。
世界在很大水平上遭到两个临时趋向的影响:首先,我们的生活日益被非物质化,包括在任务和家中线上的信息消费和信息发生。其次,AI变得越来越聪明。
在影响我们如何消费数字内容的算法层面,上述两种趋向有堆叠。 不通明的社交媒体算法正在越来越多地决议我们阅读哪些文章,我们与谁坚持联络,我们阅读谁的观念,取得谁的反应。
经过多年的训练,算法对我们所消费信息的处置使得这些零碎在我们的生活中掌握了相当大的权益,决议了我们成为什么样的人。由于我们的生活很大水平上曾经转移到数字范畴,我们变得十分容易遭到那些规则——AI算法的影响。
在这么多年的工夫里,假如Facebook可以决议让你看到哪些旧事(真实的旧事或假旧事),让你看到谁的政治位置在提升,以及让谁看到你的静态,那么Facebook实践上就曾经在控制你的政治信仰和你的世界观。
这并不是什么新颖事,至多从2013年开端,Facebook就曾经停止了一系列的实验,它们经过调整旧事信息流(newsfeeds)的内容,成功地控制了不知情的用户的心情和决策,并且可以预测用户将来的决策。
简言之,Facebook可以同时窥伺我们的一切,并控制我们消费的信息。当你能同时触及感知和举动,你就会看到一个AI成绩。你可以开端为人类行为构建一个优化循环。一个RL循环。
在这个循环中,你可以察看目的的以后形态,并不时调整向它提供的信息,直到察看你想要的后果和行为。
人工智能 研讨范畴的很大一局部(特别是Facebook不断在投重资研讨的范畴)是开发算法,以尽能够无效地处理此类优化成绩,从而封闭这个loop,并完成对所处置的景象的完全控制。
在此次事情中,被完全控制的是“我们”。
“后任”们也倒戈:卸载Facebook,它是“社交验证反应循环”
与François Chollet相比,WhatsApp结合开创人Brian Acton对Facebook的态度愈加强硬,在剑桥剖析公司事情发作不久之后,他发了一条推特:It’s time.#deletefacebook(该卸载Facebook了)。
WhatsApp拥有每月15亿活泼用户,于2014年2月被Facebook以超越160亿美元的天价收买,Brian Acton在去年9月分开WhatsApp。
实践上,Brian Acton并非独一一个倒戈的“后任”。去年,Facebook有两位离任高管对前东家表现出担忧和质疑。
一位是Facebook的前用户增长主管(former head of user growth)、风险投资家Chamath Palihapitiya,他在Facebook有6年的任职阅历。去年11月他在斯坦福大学商学院演讲的时分说,Facebook鼓舞“虚伪、软弱的人气”,让用户感到充实,以及需求遭到关注,人们持续不得不分享他们以为会取得其别人赞同的帖子,构成了“恶性循环”。
“我们发明的工具正在撕裂社会运作的构造。我们的确是在这么干”。
之后,前Facebook总裁Sean Parker也在另外一个场所表达了对社交网络的担忧。他说,Facebook的开展让人上瘾,他将Facebook描绘为一种“社交验证反应循环”(a social-validation feedback loop)的形式,应用兽性的弱点来博取用户的留意力。
Sean Parker曾是Facebook的开创人之一,他自诩为社交媒体“有良知的支持者”,他以为像Facebook在全球每月有20亿用户的社交媒体巨头,实践上曾经改动了用户与社会之间的关系。
Sean Parker并没有详细阐明Facebook如何应用兽性的弱点来博取用户的留意力。但François Chollet以为,由于人类的思想极易遭到复杂的社交操纵形式的影响,这种行为被称为“心思攻击形式”。
其中一些攻击形式曾经在广告中运用了很长工夫(例如积极/消极的社交强化),但是它们是十分弱的、没有针对性的方式。从信息平安的角度来看,人的这种心思可以被视为“破绽”:已知可以用来控制一个零碎的破绽。
François Chollet,就人类的思想而言,这些破绽永远没法修补,由于它们就是人类的思想运作的方式。它们存在于DNA中。对团体而言,我们没有实在可行的办法来进攻它们。
“人类的思想是一个静态的、易受攻击的零碎,它将越来越多地遭到越来越智能的AI算法的攻击,这些算法同时察看着我们所做的、所置信的一切事情,并且完全控制着我们所接触到的信息。”
技术充任了Facebook刽子手,在敲开中国大门之前,小扎似乎别无选择
Chamath Palihapitiya和Sean Parker对前东家的担忧和质疑,针对的是事先被普遍报道的Facebook在美国总统大选时期发布了少量的俄罗斯政治广告,但事先并未惹起Facebook的注重。
到了2018年年终,扎克伯格在他的2018年团体应战中,稀有的将整理Facebook写了出来,而今年的团体应战都是读书、游览、周游交冤家等等活动。扎克伯格写道:整个世界都处在焦虑和分裂之中,他希望能让Facebook在2018年改动这种形态。
看上去,“后任们”的声响进到了扎克伯格的耳朵里。
假如不是剑桥剖析公司事情忽然曝光,Facebook应该会采取迟缓的措施堵住破绽,比方针对假旧事的状况,Facebook不久前改动信息流展现办法,优先引荐好友的信息而不是旧事信息。
但没有人会想到剑桥剖析事情会来的这么猛,估量Facebook也没有想到结果如此严重。在事情发作整整5天后,扎克伯格才现身公关,这5地利间里Facebook股价下跌超越10%,市值蒸发500亿美元。
在承受Recode采访时,扎克伯格说,Facebook将破费数百万美元去剖析数以万计的使用顺序。
不过,外部曾经有了分歧:Facebook能否能在全世界找到足够多的人来剖析这些顺序?
关于这次剑桥剖析事情,用扎克伯格的话说,“Facebook在这件事情中所犯的最大的错误”,是低估了用户隐私的重要性,Facebook几年前就晓得了此事却没有仔细追查。总体而言,剑桥剖析门似乎更多的是一个法律执行层面上成绩。
Facebook面临更深层次的成绩是,技术能否在坚持中立的状况下,让公司持续生长。
Chamath Palihapitiya和Sean Parker等“后任们”对前东家的担忧不无道理,一方面Facebook面临假旧事、恐惧暴力内容的困扰;另一方面,Facebook应用兽性的弱点来博取用户的留意力的做法越来越不得人心。
关于前者,虽然扎克伯格不想成为内容警察,但他调整Facebook信息流、推出媒体评级零碎、封禁ICO广告的做法,显然是让技术充任了刽子手。这样做虽然能制止局部假旧事,但也把局部流量赶到谷歌、亚马逊这样的平台上。
关于后者,由于用户量增长曾经到达瓶颈,Facebook在绞尽脑汁在让用户的停留工夫上越陷越深,只能用更多的技术、收买更多的社交公司。在敲开中国的大门以前,小扎似乎没有其他的方法。
5月25日,相约北京·千禧酒店,与安防大咖共话安防AI创新千人峰会,人脉、资源、投资人都在这里!亿欧呈献一场安防行业盛宴。
在安防、警务、刑侦、交通场景,AI无论在视频、图片、语音、文本等方向的打破,还是在资本和需求的推进下,都展现了创新改造者姿势。这次浪潮来得尤其猛烈,我们置信,AI正改动安防,AI正为安防带来创新。
点此理解概况: GIIS 2018·安防AI创新峰会