来源:Towards Data Science
编译:Kathy
本文是笔者对深度神经网络和机器学习在人工智能领域的展望,以及关于如何获得日益复杂的机器来帮助我们处理日常事务的一些意见。本文并不在于预测未来的发展趋势,而是想更详细地分析这个领域的发展轨迹,目前趋势和开发更有用的人工智能的技术。并非所有的机器学习都是以开发人工智能为目标的,有些是为了解决一些更容易解决的问题,本文也将一并在这里进行研究和探讨。
目 标
该领域的目标是使机器处理日常事务时达到人类或超越人类的能力。自动驾驶、智能家居、人工助理、安防摄像头是首要目标。家庭烹饪和清洁机器人,无人侦察机和机器人是第二个层次的目标。另一个目标是获得移动设备上的助理或全天候在线助理,再一个目标是开发出能够感受我们生活经历的全程陪同助理。我们的最终目标之一就是是构造一个完全自主的人造个体,它可以在日常任务中达到人类的水平上或超过人类。
软 件
软件在这里被定义为用优化算法训练以解决特定任务的神经网络结构。目前,神经网络是机器学习解决问题的实际工具,要解决的问题涉及到监督学习下的对大数据进行分类。
但这并不是人工智能的全部,真正的人工智能需要在现实世界中做出反应,要经常在没有监督的情况下学习并处理问题,要能从未知的经验中学习,要能够适应不同的环境并结合以往的知识来解决当前的挑战。
我们如何从目前的神经网络迈入人工智能
神经网络结构——几年前,当该领域蓬勃发展时,我们经常说它具有从数据中自动学习算法参数的优势,因此优于手动操作。但我们显然忘记了一个小细节…神经网络结构的基础是通过训练去解决一个特定的任务,而不是从数据中进行学习!事实上它仍然是手动设计的。从经验中进行手动操作,这是目前该领域的主要局限性之一。
在这方面已经有研究,但还任重道远。神经网络结构是学习算法的基本核心。即使学习算法能够掌握一个新的任务,如果神经网络不正确,学习算法也完成不了这个任务。从数据中去学习神经网络结构的问题是,花费太长时间在大数据集上进行多种结构的尝试。我们必须尝试从头开始训练多重结构,看看哪一个最有效。这正是我们今天使用的耗时的试错程序!我们应该克服这个局限性,在这个非常重要的问题上投入更多的脑力。
无监督的学习——我们不能总是陪伴神经网络左右,对他们训练过程中的每一步和每一个经验进行指导。我们无法在所有的情况下纠正它们的错误,并就其表现提供反馈。但这正是我们今天对受监督的神经网络所做的:我们帮助它们在每种情况下都正确地执行任务。相反的,人类只需从少数几个例子中学习,就可以自我纠正,并以连续的方式学习更复杂的数据。我们需要更广泛的发展无监督学习。
预测神经网络——当前神经网络的主要局限在于它们不完全具备人脑最重要的特征之一:预测能力。关于人脑如何工作的一个主要理论是人脑能不断地做出预测:预测编码。其实我们每天都会经历着这样的过程。例如:当你举起一个物体时,你认为它很轻,但结果却很重,这会让你有些意外,因为当你要去拿它的时候,你已经预测了它将如何影响你和你的身体,或者你周围的整体环境。
预测不仅可以让我们了解世界,更能让我们明白我们自身的局限。它让我们明白什么时候应该去学习、应该去学习什么。认知能力与我们大脑中的注意力机制明显相关:我们的本能会让我们放弃99.9%的感官输入信息,只专注于性命攸关的数据——威胁在哪里,我要往哪逃。或者,在现代世界里,当我们匆忙走出家门时,让我们搜索最重要的信息,我的手机在哪里?
建立预测神经网络的核心是与现实世界进行相互作用,对复杂的环境做出响应。因此,这是所有的强化学习工作的核心内容。
当前神经网络的局限性——我们之前已经讨论过神经网络的局限性。无法预测,不可解释性,并且存时间上的不稳定性——我们需要一种新的神经网络。神经网络胶囊是解决现有神经网络局限性的一种方法。
关于神经网络胶囊的概述可以参考>>https://medium.com/mlreview/deep-neural-network-capsules-137be2877d44。
神经网络胶囊必须扩展一些附加特征:
持续学习——这一点很重要,因为神经网络需要不断的持续学习新的数据点来维持下去。在每个实例中,目前的神经网络都要从头开始重新训练,否则就不能学习新数据。神经网络需要能够自我评估他们对新训练的需要,以及他们对某件事有所了解这一事实。这个也需要在现实生活中进行实施,也是强化学习任务所需的,也正是我们希望的让机器在不忘旧任务的情况下学做新任务。
迁移学习——或者说如何让这些算法通过观看视频独立学习,就像我们想学习如何烹饪新东西一样?这种能力需要上面列出的所有元素,而且对于强化学习也很重要。现在你真的只需给个范例就可以训练你的机器去做你想做的事情,就像我们人类学做每件事时一样!
强化学习——这是深层神经网络研究的最高境界:教机器如何学习对周围的坏境,即对真实的世界做出反应!这需要自我学习,持续学习,预测能力,以及很多我们还不知道的东西。强化学习领域有很多工作要做,但对我们来说,这些还都只是浅显的问题,离真正解决问题还有十万八千里。
强化学习通常被称为“蛋糕上的樱桃”,意思是它只是人造类脑上的小智能。但是,我们如何才能得到一个“放之四海而皆准”的大脑,来轻松解决所有问题?这是一个先有鸡还是先有蛋的问题!今天为了一个个解决强化学习问题,我们使用标准的神经网络:
这两个方法都是问题的明显解决方案,而目前这显然是错误的,但是每个人都在使用,因为它们是现成可用的模块。这样的结果并不会令人印象深刻:是的,我们可以从头开始学习玩电子游戏,并掌握全观察型的游戏,如象棋和围棋,但是不需要我来说你也知道,没有什么比在复杂世界中解决问题更困难。想象一个未来会出现一个玩《地平线:零黎明》比人类更优秀的人工智能程序…太想看到这一幕了!
不再使用循环神经网络——循环神经网络( RNN )就快要被淘汰了。RNN在训练的并行化方面特别差,甚至在特殊的定制机器上也很慢,这是因为它们的内存带宽使用非常高。因此,它们的内存带宽限制会比算力限制更加严重。基于注意力机制的神经网络在训练和部署方面效率更高、速度更快,而且在训练和部署方面受到的可扩展性影响更小。神经网络中的注意力有潜能真正彻底改变许多体系结构,虽然它还没有完全得到应有的认可。联想记忆和注意力的结合是下一波神经网络发展的核心。
注意力已经显示能够像RNNs那样学习序列,并且计算量减少多达100倍!谁能忽视这点?
我们认识到基于注意力的神经网络将慢慢取代基于RNN的语音识别,同时它们也在强化学习结构和通用人工智能方面摸索出道路来。
分类神经网络中的信息定位——我们已经讨论了如何定位和检测图像和视频中的关键点。这实际上是一个已解决的问题,将嵌入到未来的神经网络结构中。
硬件
深度学习的硬件是进步的核心。现在让我们先忘记2008 – 2012年深度学习的迅速发展,而最近几年则主要源自于硬件的进步:
在过去的1 – 2年中,机器学习硬件出现了蓬勃发展,尤其是针对深层神经网络的机器学习硬件。Abhishek Chaurasia 等人建立了深度神经网络加速器 FWDNXT(http://fwdnxt.com/)
有几家公司正涉足这个领域: NVIDIA (显而易见),英特尔,Nervana, Movidius, Bitmain, Cambricon, Cerebras, DeePhi,谷歌,Grapcore,Groq,华为,ARM,Wave计算。这些公司都在开发可定制的能够训练和运行深层神经网络的高性能微型芯片。
开发这些芯片的关键在于为神经网络操作提供最低的功率和最高的测量性能,而不是像许多人声称的那样每秒钟可以进行的原始理论操作。
但该领域很少有人知道硬件如何真正改变机器学习、神经网络和人工智能的。而且很少有人知道微芯片中重要的是什么以及如何开发它们。
以下是需要考虑和深思的方面:
程序
前面的“目标”部分简要讨论了应用,现在确实要详细介绍下细节了。人工智能和神经网络将如何进入我们的日常生活?
以下是我们要讨论的内容:
公众号/ 将门创投