人工智能研究中深度学习的局限性

点击上方关注,All in AI中国
人工智能研究中深度学习的局限性

由于深度学习,人工智能取得了令人难以置信的成就,但它仍然缺乏人的能力。

深度学习是机器学习的一个子集,在过去的十年中,它已经在各种实际应用中提供了超人类的准确性。从彻底改变客户体验、机器翻译、语音识别、自动驾驶汽车、计算机视觉、文本生成、语音理解到众多其他AI应用程序[2]。

与机器学习相比,AI agent基于机器学习算法从数据中学习,深度学习基于神经网络架构,其行为类似于人脑,并允许AI agent分析馈入的数据 - 在类似的结构中对人类的方式。深度学习模型不需要算法来指定如何处理数据,这是因为我们作为人类,收集和消费了大量的数据,它们反过来又被用于深度学习模型中[3]。

“传统”类型的深度学习融合了前馈模块(通常是卷积神经网络)和循环神经网络(现在和存储单元,如LSTM [4]或MemNN [5])的不同组合。这些深度学习模型在“推理”的能力方面受到了限制,例如进行长链扣除,或简化一种方法以获得答案方面。计算的步长受前馈网络中的层数量的限制,并且通过时间跨度,递归神经网络将重新收集事物。

在这一点上就有了一点点小问题。当深度学习模型得到训练时,并不总是清楚如何做出决策[6]。在许多设置中,无论它是否找到正确的解决方案,都是不可接受的;即假设银行利用人工智能评估您的信用价值,然后拒绝给您贷款,在许多州有法律规定银行需要澄清原因。如果银行正在使用深度学习模型进行贷款决策,他们的贷款部门(可能)将无法明确说明贷款被拒绝的原因。

人工智能研究中深度学习的局限性

图1 |由递归神经网络(RNN)生成的字幕,在这种情况下,RNN被训练以识别字幕中的高级图像呈现。

最重要的是缺乏常识。深度学习模型可能是最好的感知模式。然而,他们无法理解模式的含义,也没有理解它们的理由。为了使深度学习模型具有推理能力,我们必须改变它们的结构,以便它们不创建单一输出(即图像的可解释性,段落的翻译等),而是交付的整个安排可选输出(即不同的方式一个句子可以翻译)。这就是能源基础模型的目的:为每个可以想象的变量配置提供一个分数。

逐渐地,这些弱点正在引起广大公众人群对人工智能的关注,特别是自动驾驶汽车,利用类似的深度学习策略在道路上行驶[7]。然而人们总是将它与挫折和死亡关联在一起[8]。尽管对于自动驾驶的深入研究已经证明,它会造成比人类驾驶员少得多的伤亡,人类本身不会完全信任自动驾驶汽车,直至不涉及伤亡。

此外,深度学习的当前形式绝对受到限制,理由是它几乎所有的丰富用途都[19] [20] [21] [22] [23] [24] [25] [26] [27] ] [28] [29] [30] [31] [32]利用人工注释注释监督机器学习,这被认为是一个重要的弱点 - 这种依赖性阻止深度神经网络应用于输入数据不足的问题。为了捕捉现实世界的规律性,有必要从“粗糙”的非注释数据中寻找方法来构建广泛的神经网络。将深度学习与对抗性机器学习技术相结合[17] [18],可能就是我们要寻找的答案。

就一般民众而言 - 不幸的是,公众对于深度学习的认识并没有完全公平的一个理解。如果深度学习的工作仅限于AI研究实验室,那将是一回事。然而,现在每种可能的应用中都使用深度学习技术。技术高管和营销人员对深度学习技术的信任程度令人担忧。虽然深度学习是一项令人难以置信的壮举,但重要的是不仅要探索自己的优势,还要关注并注意其弱点,以便制定行动计划。

Mrinmaya Sachan关于走向文学人工智能的研究[33]提出了一个有趣的案例,探讨如何通过深度学习看到人工智能领域的显著发展,今天的人工智能系统仍然缺乏人类智能的内在本质。然后他深入反思,在人类开始构建具有人类能力(推理,理解,常识)的人工智能系统之前,我们如何在这些任务上评估人工智能系统? - 为了彻底了解和发展真正的智能系统。他的研究提出使用人工智能系统的标准化测试(类似于学生在正规教育系统中进行的测试),通过使用两个框架来进一步开发人工智能系统,其显著的好处可以以社会的形式应用良好的教育。

关于深度学习和决策,我们对神经网络有真正的理论认识吗?

试图模仿大脑结构的人工神经网络拥有众多人工神经元(节点)的连接,网络本身不是一个算法,而是一个框架,各种机器学习算法可以在其上运行以实现所需的任务。神经网络工程的基础几乎完全基于启发式,很少强调网络架构选择,遗憾的是没有明确的理论告诉我们如何为某个模型确定正确数量的神经元。然而,关于神经元数量和模型的整体容量的理论研究[12] [13] [14]还很少,实际应用也比较少。

斯坦福大学教授Sanjeev Arora,对深度神经网络的泛化理论采取了生动的阐述[15],其中他提到了深度学习的概括之谜:为什么训练有素的深度神经网络在以前看不见的数据上表现良好?也就是说,让我们说你用ImageNet训练一个深度学习模型并用随机标签训练它的图像,高精度将是结果。然而,使用推断更高泛化的正则化策略并没有多大帮助[16]。无论如何,训练好的神经网络仍然无法预测未知图像的随机标记,这反过来意味着神经网络不能泛化。

人工智能研究中深度学习的局限性

图2 |单像素攻击成功欺骗了在CIFAR-10数据集上训练的三种类型的深度神经网络。 [9] [10

最近,研究人员通过在大型图像数据集上添加小细微差别来揭示神经网络的模型输出[9],从而暴露出深度神经网络架构的漏洞。在此之前,其他几位研究人员也表示,根据输入的细微差别,显示出相似的脆性水平与输出结果不符。这些类型的结果并没有激发信心,即在自动驾驶汽车中,环境容易出现各种细微差别(雨,雪,雾,阴影,误报等) - 现在想象一个视觉系统被一个视觉系统抛弃了视觉输入的微小变化。我确信特斯拉,优步和其他几家公司已经确定了这些问题,并正在制定解决这些问题的计划,然而,公众也应该意识到这些问题,这一点很重要。

人工智能研究中深度学习的局限性

图3 |一个像素成功攻击深度神经网络(DNN)。首先是原始标签,然后是括号中的攻击输出[9]

如今,我们被技术所包围。从我们家的智能小工具,口袋里的智能手机,办公桌上的计算机到连接我们到互联网的路由器等等。在这些技术的每一种中,基础架构都能正常运行,这要归功于它们构建的坚实的工程原理在深度数学、物理、电气、计算机和软件工程等方面以及所有这些领域 - 数年的统计测试和质量保证。

重要的是要记住,深度学习模型需要大量数据来训练初始模型(为了获得高精度结果而不产生过度拟合,请记住,子序列任务可以从迁移学习中学习),以及最终没有深刻理解“深层神经结构”中真正发生的事情,从长远来看构建可持续的技术解决方案在实际上和理论上并不明智。

参考文献:

[1]深度学习评论| Yann LeCun,Yoshua Bengio,Geoffrey Hinton | http://pages.cs.wisc.edu/~dyer/cs540/handouts/deep-learning-nature2015.pdf

[2] 30个深度学习的惊人应用| Yaron Hadad | http://www.yaronhadad.com/deep-learning-most-amazing-applications/

[3]深度学习导论| Bhiksha Raj |卡内基梅隆大学| http://deeplearning.cs.cmu.edu/

[4]了解LSTM网络|克里斯托弗奥拉| http://colah.github.io/posts/2015-08-Understanding-LSTMs/

[5]记忆增强神经网络| Facebook AI研究| https://github.com/facebook/MemNN

[6]人工智能核心的黑暗秘密|麻省理工学院技术评论| https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/

[7]麻省理工学院6.S094:自动驾驶汽车的深度学习|麻省理工学院| https://selfdrivingcars.mit.edu/

[8]自驾车死亡人员名单|维基百科| https://en.wikipedia.org/wiki/List_of_self-driving_car_fatalities

[9]愚弄深度神经网络的一个像素攻击| Suwei Wei Su,Danilo Vasconcellos Vargas,Kouichi Sakurai | https://arxiv.org/pdf/1710.08864.pdf

[10]加拿大高等研究院数据集| CIFAR-10数据集| https://www.cs.toronto.edu/~kriz/cifar.html

[11]图片,由机器学习回忆录提供| https://mlmemoirs.xyz

[12]深度神经网络容量| Aosen Wang,周华,徐文耀,陈鑫| Arxiv | https://arxiv.org/abs/1708.05029

[13]使用代数拓扑表征神经网络的能力William H. Guss,Ruslan Salakhutdinov |卡内基梅隆大学计算机科学学院机器学习部| https://arxiv.org/pdf/1802.04443.pdf

[14]信息论,复杂性和神经网络| Yaser S. Abu-Mostafa |加州理工学院| http://work.caltech.edu/pub/Abu-Mostafa1989nnet.pdf

[15]泛化理论和深网,简介| Sanjeev Arora |斯坦福大学| http://www.offconvex.org/2017/12/08/generalization1/

[16]理解深度学习需要重新思考泛化| Chiyuan Zhang,Samy Bengio,Moritz Hardt,Benjamin Recht,Oriol Vinyals | https://arxiv.org/pdf/1611.03530.pdf

[17]对抗设置中深度学习的局限性| Nicolas Papernot,Patrick McDaniel,Somesh Jha,Matt Fredrikson,Z。Berkay Celik,Ananthram Swami |第一届IEEE欧洲安全与隐私研讨会论文集,IEEE 2016.德国萨尔布吕肯| http://patrickmcdaniel.org/pubs/esp16.pdf

[18]对抗设置中的机器学习| Patrick McDaniel,Nicolas Papernot和Z. Berkay Celik |宾州州立大学| http://patrickmcdaniel.org/pubs/ieeespmag16.pdf

[19] Alex Krizhevsky,Ilya Sutskever和Geoffrey E. Hinton。深度卷积神经网络的Imagenet分类。 “神经信息处理系统进展”,2012年。

[20] Yaniv Taigman,Ming Yang,Marc'Aurelio Ranzato和Lior Wolf。深入研究:在面部验证中弥补人类绩效的差距。在IEEE计算机视觉和模式识别会议论文集,第1701-1708页,2014年。

[21] Karen Simonyan和Andrew Zisserman。用于大规模图像识别的非常深的卷积网络。神经信息处理系统的进展,2015。

[22] Christian Szegedy,刘伟,杨洋庆,Pierre Sermanet,Scott Reed,Dragomir Anguelov,Dumitru Erhan,Vincent Vanhoucke,Andrew Rabinovich,et al。进一步深化卷积。在IEEE计算机视觉和模式识别会议(CVPR)的会议录中,2015年。

[23]何开明,张翔宇,任少卿,孙健。深入研究整流器:超越图像网络分类的人性化表现。在IEEE国际计算机视觉会议论文集,第1026-1034页,2015年。

[24]何开明,张翔宇,任少卿,孙健。深度残差学习用于图像识别。在IEEE计算机视觉和模式识别会议论文集(CVPR),第770-778页,2016年。

[25] Geoffrey Hinton,Li Deng,Dong Yu,George E Dahl,Abdel-rahman Mohamed,Navdeep Jaitly,Andrew Senior,Vincent Vanhoucke,Patrick Nguyen,Tara N Sainath,et al。用于语音识别中声学建模的深度神经网络:四个研究小组的共同观点。 IEEE信号处理杂志,29(6):82-97,2012。

[26] Awni Hannun,Carl Case,Jared Casper,Bryan Catanzaro,Greg Diamos,Erich Elsen,Ryan Prenger,Sanjeev Satheesh,Shubho Sengupta,Adam Coates,et al。深度演讲:扩展端到端语音识别。 arXiv preprint arXiv:1412.5567,2014。

[27] Wayne Xiong,Jasha Droppo,黄学东,Frank Seide,Mike Seltzer,Andreas Stolcke,Dong Yu和Geoffrey Zweig。在会话语音识别中实现人类平等。 arXiv preprint arXiv:1610.05256,2016。

[28] Chung-Cheng Chiu,Tara N Sainath,Wu Yonghui Wu,Rohit Prabhavalkar,Patrick Nguyen,Zhifeng Chen,Anjul

人工智能研究中深度学习的局限性