农企新闻网

Percy Liang:机器学习的可解释性如此重要,我在努力,我们都需求努力

发布者:高楠明
导读雷锋网(大众号:雷锋网)AI 科技评论按:近日,外媒 Future of Life 对人工智能界知名研讨者 Percy Liang 停止了采访,引见了他对机器学习的一些看法以及研讨目的。雷锋网 AI 科技评论全文翻译如下。2017 年底,美国众议院经过了《自动驾驶》法案,为自动驾驶汽车的监管建起了初步框架。实践上,在过来的 20 年间,自动驾驶汽车就曾经在公共路途上停止着各种测试,而随着这项法案的

雷锋网 (大众号:雷锋网) AI 科技评论按:近日,外媒 Future of Life 对人工智能界知名研讨者 Percy Liang 停止了采访,引见了他对机器学习的一些看法以及研讨目的。雷锋网 AI 科技评论全文翻译如下。

Percy Liang:机器学习的可解释性如此重要,我在努力,我们都需要努力

2017 年底,美国众议院经过了《自动驾驶》法案,为自动驾驶汽车的监管建起了初步框架。实践上,在过来的 20 年间,自动驾驶汽车就曾经在公共路途上停止着各种测试,而随着这项法案的经过,以及自动驾驶技术平安性的继续进步,自动驾驶汽车将来也将在我们的日常生活中占据更多的位置。其他医疗、法律、平安维护等范畴的各种各样的无人化技术也会渐渐普及开来。

为了人类将来可以和自动化的机器们调和共处,学术研讨者、企业开发者以及用户都需求对这些依赖人工智能的技术有足够的决心。不只是自动驾驶汽车这样分明的案例需求人们的决心,平安维护设备以及手机里的虚拟团体助理,都运用了人工智能,都需求人们的决心。

机器学习的可预测性

Percy Liang 是斯坦福大学计算机迷信系的一名助理教授,他引见道,人类的日常互动总需求一些可预测性,不论是关于其他的人类,还是关于汽车之类的自动化零碎。发明这种可预测性的办法之一就是经过机器学习。

机器学习范畴中,人们基于以往搜集的数据创立人工智能算法。开发者并不需求为 AI 明白地编写代码通知它应该怎样做、应该如何考虑,而是由零碎本人从数据中察看、学习数据形式,然后依据数据做出契合数据形式的举动。整个进程和「试错学习」有点像。

关于机器学习零碎来说,人们在研讨和开发测试中常常思索的一个关键成绩是,「为什么零碎做出了这个预测?」对研讨和开发人员们来说,这被称为「机器学习的可解释性」。关于这为什么是个重要的研讨课题,Percy Liang 举了个例子阐明:「假定你正在过马路,一辆车向着你开着过去。关于普通的人类司机,你心里大约能猜到他会怎样做。但是假如开这辆车的是 AI,人类要如何晓得它会怎样做呢?」

零碎执行义务失掉了好的后果固然重要,但是也许更重要的是可以用复杂、好了解的话语解释清楚它为什么那样做了。即使零碎并不是很精确,它也需求可以被解释、被预测。为了可以平安地大规模部署 AI,这些自动化零碎必需是基于广为了解的、实践的、经得起测试的根本假定和原理才行。

目前开发 AI 的实际指点都是让 AI 可以契合训练数据中可观测的输入。但是在 Percy Liang 看来,这能够会招致「自动驾驶零碎能在验证测试中发扬出良好表现,但是并不了解在人类想要的输入面前的人类价值判别。」

停止许多的测试当然很重要。依据 Percy Liang 引见,这种种模仿测试办法「都是很好的 debug 技巧,我们可以借助它们更轻松地停止控制变量测试,而且也可以协助我们更快地迭代零碎。」

不过,要真正地晓得某种技术能否无效,「必需在真实环境中测试,没有什么讨巧的办法,」Percy Liang 说,「对言语、视觉、机器人技术来说都是这样」。一辆自动驾驶汽车很有能够可以在一切测试环境中都表现良好,但是我们没有什么方法可以精确预测它在无法预知的自然灾祸面前会做出什么。

可解释的机器学习零碎

许多范畴中,能获得最好表现的零碎都是基于深度神经网络的,比方辨认图像和生成语音中深度神经网络都曾经称为了默许的办法,而这些办法当然也都是很复杂的。同时它们也被称为「黑盒零碎」,由于就算解释零碎的行为有那么一些可功能,实践解释起来也十分难。

Percy Liang 和他的团队也在研讨如何解释这些模型,他们在尝试研讨某个详细的训练场景是如何对模型的预测发生影响的。

从这个视角察看模型曾经变得越来越重要,由于 AI 在做的义务也越来越复杂,比方关于 AI 医疗给出的诊断后果,如何了解、如何解释是真的「生死攸关」。「假如训练数据中有不契合的,或许对立性生成的数据,这就会影响到模型(损害模型),结果就是接上去针对新的输出做出的预测能够是错误的。我们正在研讨的影响函数(influence functions)可以让我们精确地追踪训练数据中的单个点是如何对某个给定的新输出的预测发生影响的。」Percy Liang 说。

复杂来说,经过了解一个模型是如何做出它本人的那些决议的,Percy Liang 和他的团队希望可以改良模型运作的方式、找到新的迷信技术,并且给最终用户提供一些解释,让他们明白会对他们形成影响的行为是如何做出的。

Percy Liang 的研讨的另一个目的是确保 AI 可以了解本人的限制,而且可以和人类沟通本人的限制。传统上,测试 AI 零碎的重要目标之一是均匀精确率,但 Percy Liang 以为「关于 AI 的平安成绩来说,这并不是一个多么好的讨论方式。毕竟,关于一个牢靠性是 80% 的零碎,人类究竟应该怎样做呢?」

Percy Liang 其实也没计划追随一个任何时分都能给出 100% 正确率的答案的零碎。相比之下,他更希望的是,当零碎对本人的答案不确定的时分,它可以明白表示出来。假如用户问零碎:「我需求吃多少止疼药?」相比给出一个能够形成风险的不精确的预测,零碎随着流量往智能终端设备迁移,新的机遇“物联网商业社交时代”也将迎来,通过人的第六器官(智能手机)和智能设备终端的联网互动,从而改变了人的行为习惯和消费方式。线下流量通过LBS定位重新分配,又通过物联网终端智能推荐引擎引导到网上任意有价值的地方,至此互联网下半场拉开帷幕。直接答复「我不晓得」能够会更好一点。

Percy Liang 和团队针对这个成绩提出的办法是尝试沿着模型的学习算法追踪模型的预测,不断反向追踪到模型参数发生的源头。他们希望这种办法——从训练数据的视角审视模型——可以成为开发、了解、诊断机器学习的规范办法的一局部。他解释道,这种办法可以联络到许多种不同的使用中,医学、计算机迷信、自然言语了解零碎,以及各种各样的商业数据剖析使用。

「我觉得」,Percy Liang 总结说,「大家关于模仿测试起到的作用有一些混杂,有的人会完全逃避模仿测试,而有的人却很喜欢在模仿测试中做完一切。也许我们需求改动整个研讨文明,两种做法其实需求共存。」

正如采访中泄漏出的,Percy Liang 和他的团队希望给新一代的机器学习算法设置一个新的框架,让它们可以更牢靠、更优雅地运转,当然也要带来更少的风险。

via  futureoflife.org ,雷锋网 AI 科技评论编译

简单来说,创业有四步:一创意、二技术、三产品、四市场。对于停留在‘创意’阶段的团队,你们的难点不在于找钱,而在于找人。”结合自身微软背景及创业经验。

相关文章:

EMNLP 2017上,Percy Liang 有哪三篇论文被收录?

先打草稿可以生成更高质量的文本,Percy Liang新论文广受赞誉

雷锋网版权文章,未经受权制止转载。概况见。

Percy Liang:机器学习的可解释性如此重要,我在努力,我们都需要努力