本篇文章1123字,读完约3分钟

编者按深度学习作为一种机器学习方法,是实现人工智能的重要基础。最近,一些学者认为,随着人工智能的发展,深度学习的缺点日益突出,其瓶颈已经到来。深度学习的瓶颈真的到了吗?在这个问题上,本文将分为两个部分,讨论深度学习的利弊以及改进的方法,从而为读者梳理专家学者的不同思想。

深度学习并未走进死胡同

不久前,全球人工智能计算机视觉领域的创始人之一,约翰·霍普金斯大学教授艾伦&米多;你提出的计算机视觉领域深度学习的瓶颈已经结束的观点,引起了业内许多专家的共鸣和热烈讨论。

目前,深度学习作为实现人工智能的一种形式,旨在更紧密地模仿人脑。那么,业内专家学者是否同意这一说法?作为人工智能技术的重要基础,深度学习在其发展过程中遇到了哪些困难?如果深度学习的瓶颈已经到来,我们如何解决这个问题?带着相关问题,《科技日报》记者近日采访了国内外著名的人工智能专家,深入解读尤尔教授的观点。

深度学习并未走进死胡同

深入学习是最好的

起初,深度学习在进入大多数人工智能研究人员的眼中时遭到了蔑视,但在短短几年内,它的触角延伸到了许多高科技领域,跨越了许多企业,如谷歌、微软、百度甚至推特。

许多高科技公司热衷于探索一种特殊形式的卷积神经网络来进行深度学习。卷积网络由相互连接的卷积层组成,这与大脑中处理视觉信息的视觉皮层非常相似。不同之处在于,它可以在图像的多个位置重复使用相同的滤镜。一旦卷积网络学会识别一个位置的人脸,它也能自动识别其他位置的人脸。这个原理也适用于声波和手写字符。

深度学习并未走进死胡同

业内人士认为,卷积神经网络可以使人工神经网络快速接受训练,因为占用的内存是小空,而且不需要在图像的每个位置分别存储滤波器,因此使得神经网络非常适合创建可扩展的深层网络。这也使得卷积神经网络具有善于识别图形的优势。基于此,谷歌为安卓手机开发了语音识别系统,百度开发了新的视觉搜索引擎。

深度学习并未走进死胡同

当然,卷积神经网络需要强大的计算机和庞大的数据集才能正常工作,但在采集数据或计算平均值时效果并不理想。

Ian ·,卷积神经网络的支持者和facebook人工智能实验室的负责人;乐坤说,目前使用最广泛的卷积神经网络几乎完全依赖于监督学习。这意味着,如果你想让卷积神经网络学习如何识别一个特定的对象,你必须标记几个样本。无监督学习可以从无标签数据中学习,更接近人脑的学习模式。在此基础上开发的反向传播算法可以有效地将错误率降到最低,但它不太可能反映人脑的运行机制。

深度学习并未走进死胡同

乐坤说:我们几乎完全不熟悉大脑是如何学习的。尽管人们已经知道神经元的突触可以自我调节,但大脑皮层的机制仍不清楚。最终的答案是,无监督学习是一种更接近人脑的学习方法,但它无法解决大脑的认知机制。

瓶颈突出需要警惕

尽管深度学习优于其他技术,但它并不是普遍的。经过几年的发展,其瓶颈已经凸显。不久前,艾伦&米多;尤尔指出。

尤尔认为,深度学习有三个局限性:首先,深度学习几乎总是需要大量的注释数据。这使得视觉研究者专注于容易标记的任务,而不是重要的任务。

其次,深度网在基准数据集上表现良好,但在数据集外的真实世界图像上可能会严重失败。特别是,深层网络很难处理数据集中不常发生的罕见事件。然而,在现实应用中,这些情况会产生潜在的风险,因为相应的视觉系统故障可能会导致可怕的后果。例如,用来训练自动驾驶汽车的数据集几乎从不包括坐在路上的婴儿。

深度学习并未走进死胡同

第三,深网对图像的变化过于敏感。这种过度敏感不仅反映在图像中不可察觉的变化标准上,也反映在语境的变化上。由于数据集大小的限制,过度敏感会导致系统做出错误的判断,但这种过度敏感引起的图像变化很难欺骗人类观察者。

深度学习并未走进死胡同

例如,在一张丛林中猴子的照片中,ps上有一把吉他。这将导致人工智能把猴子误认为人类,把吉他误认为鸟类。可能是因为它认为人类比猴子更可能携带吉他,而鸟类比吉他更可能出现在附近的丛林中。

Yule认为,瓶颈背后的原因是一个被称为组合爆炸的概念:在视觉领域,从组合学的角度来看,真实世界的图像数量太大了。无论数据集有多大,都很难表达现实的复杂性。更重要的是,每个人都有不同的选择和放置对象的方式,并且创建的场景数量会呈指数级增长。这需要无限的数据集,这无疑对数据集的训练和测试提出了巨大的挑战。

深度学习并未走进死胡同

业内专家表示,尽管这三个限制不会扼杀深度学习,但它们都是需要警惕的紧急信号。

死亡理论是有争议的

标题:深度学习并未走进死胡同

地址:http://www.ictaa.cn/hlwxw/6203.html