雷锋网AI科技评论按 :深度学习范畴最知名的学者之一Yann LeCun昔日在本人facebook上宣布的一篇短文,霎时引爆了国际人工智能关注者们的冤家圈。这条静态讲的是什么呢?为何会惹起如此轩然大波?
我们经常提到的深度学习是全部深度学习算法的总称,卷积神经网络是深度学习算法在图像处置范畴的一个使用。而Yann LeCun就是卷积神经网路的创造者,也被称之为“卷积神经网络之父”。卷积神经网络的呈现对人工智能开展的重要性不用多说。而这次Yann LeCun的推文传达如此之快,是不是有比“卷积神经网络”更严重的学术效果出来了?为了使国际读者理解到 LeCun推送的内容,雷锋网编辑对推文停止了编译。
首先扫尾是一句极具有标题党作风的英法混合语:
Deep Learning est mort. Vive Differentiable Programming!
翻译成中文就是: 深度学习已死,可微分编程万岁!
为何突出此言?深度学习算法是人工智能多个范畴的底层框架,怎样就死了呢?接着往下看发现LeCun说的是“深度学习”这个词已死,该有新的名词来替代它了。
LeCun提到的新词是可微分编程。
他在推文中解释道“可微分编程”不过是把古代深度学习技术重新换了个叫法,这就跟当年神经网络还只要两个以上隐藏层时就被称之为“深度学习”差不多。关于古代深度学习技术,“深度学习”这个词曾经不够用了。
他又写道:
但重点的是,人们如今正经过组装参数化功用模块网络,构建一种新软件,并用某种基于梯度优化的办法来训练它们。
越来越多的人正在以一种依赖于数据的方式(循环和条件)来顺序化定义网络,让它们随着输出数据的静态变化而变化。这与普通的顺序十分相似,除了前者是参数化的、可以自动可微分,并且可训练和优化。静态网络变得越来越盛行(尤其是关于NLP),这要归功于PyTorch和Chainer等深度学习框架(留意:早在1994年,之前的深度学习框架Lush,就能处置一种称为Graph Transformer Networks的特殊静态网络,用于文本辨认)。
如今人们正在积极研讨开发命令式可微分编程言语编译器,这对开发基于学习的AI(learning-based AI)来说是一条十分令人兴奋的途径。
最初,LeCun还特别强调将“深度学习”改名为”可微分编程”还不够,其他的一些概念也需求改,比方“预测性学习”应该改为 “Imputative Learning”。他说稍后谈判更多......(读者们可以帮想想还有什么需求改名的,这句是雷锋网加的)。让我们一同来关注LeCun的最新静态吧!
LeCun的Facebook截图:
雷锋网
(大众号:雷锋网)
。