公众号/新智元
来源:zdnet
编辑:元子
【新智元导读】在普林斯顿高等研究院的深度学习讲习班上,LeCun提出为了使无监督学习成为可能,整个领域可能需要在一种称为基于能量学习的方法上开展更多工作。LeCun表示,人工智能的下一个发展可能是放弃深度学习的所有概率技巧,而是掌握一系列变化的能量值。
据说,工程师以及部分科学家有一种特殊能力,当他们坐下来开始构思接下来要做的东西的时候,脑海里就会浮现出这个洞的像。Facebook的人工智能负责人Yann LeCun,绝对是这样的典型。
LeCun最近推出了一本新书叫做《When the Machine Learns》。
该书属于半自传、半人工智能简史、半科普性质。他在书中坦言,自己就是一个非常“任性”的人,做事主要凭直觉。
拥有能够想象出不存在的事物的能力是工程师和创新者的标志。LeCun在AI专家中是很少见的存在,他是算法设计领域的专家,但在计算机工程领域也颇有建树。
LeCun今年因其对计算机科学的贡献而获得了ACM Turing奖,最出名的是在1990年代改进和完善了卷积神经网络(即CNN)并使其实用化。他没有从头开始发明这种东西,但他使CNN实用、可行,它们构成了机器学习革命的基础。
在过去十年中,LeCun与图灵奖获奖者Geoffrey Hinton和Yoshua Bengio一起在机器学习中脱颖而出。
“工程师”LeCun在Institute for Advanced Study,来解释一种听起来跟通常意义上的“直觉”很像,但实际叫fleshed-out直觉的概念。
LeCun认为:“在监督或多任务学习中,机器将不会获得像人类一样的智能,我们将不得不寻找其他东西。”而这个其他东西,LeCun指的是无监督的学习。为了使无监督学习成为可能,整个领域可能需要在energy-based学习方法上做更多的工作。LeCun表示,人工智能的下一个发展可能是放弃深度学习的所有概率技巧,而是掌握一系列变化的能量值。
Energy function在AI中已经存在数十年了。生物学家约翰·霍普菲尔德(John Hopfield)于1980年代首次通过后来称为“霍普菲尔德网络”(Hopfield Network)的方法进行了普及。这在当时的机器学习中是一个突破,它导致了其他类型的学习算法可以处理能量场的概念,例如Hinton所追求的“玻尔兹曼机器”。
LeCun指出:“Energy-based学习已经有一段时间了,由于需要减少监督,最近又引起了我的注意”
当然,如果深究细节很快就变得很深奥。但是其基本思想是:不需要创建大量带有标签的数据集(例如猫和狗的图片),也不用花费数千小时琢磨类似DeepMind的AlphaZero这样的国际象棋游戏,而只是获取一些丰富的原始数据,例如在视频网站上找很多视频片段,然后将其提供给计算机。
LeCun说:“只要弄一个足够大的机器然后让它整天观看YouTube或Facebook Live。”
可以训练机器预测每帧视频之后的下一帧。预测与现实之间的兼容性(就是所谓的能级)。能量越低越好,更兼容,更准确,因此神经网络试图达到理想的低能量状态。
参考链接:
https://www.zdnet.com/article/high-energy-facebooks-ai-guru-lecun-imagines-ais-next-frontier/