卷积网络虽动人,胶囊网络更传“神”
人工智能首页 > AI学习 > 正文

卷积网络虽动人,胶囊网络更传“神”

2018-07-14 阅读234次

江山代有才人出,各领风骚数百年。但在计算机科学领域,风骚数十年都非常难。卷积神经网络在短短三十多年里,几起几落。别看它现在依然如日冲天,要知道,浪潮之巅的下一步,就是衰落。而加快推动这一趋势的,正是卷积神经网络得以雄起的大功臣——Geoffrey Hinton。他提出了全新的“神经胶囊”理论,这“胶囊”里到底装的是什么“药”呢? 相关图书《深度学习之美:AI时代的数据处理与最佳实践》。

从神经元到神经胶囊

在大计算和大数据的背景下,深度学习大行其道、大受欢迎,究其原因,卷积神经网络的出色表现,可谓居功至伟。尽管如此,卷积神经网络也有其局限性,如训练数据需求大、环境适应能力、可解释性差、数据分享难等不足。

2017年10月,Hinton教授和他的团队在机器学习的顶级会议“神经信息处理系统大会(NIPS)”上发表论文,超越了自己前期的理论研究——反向传播算法(BP),提出了一种全新的神经网络——胶囊网络(CapsNet)。

2017年9月(论文发表的前一个月),在多伦多举行的人工智能会议上,Hinton对他参与构建的反向传播(BP)理论表示深深的怀疑。Hinton还引用了著名物理学家马克斯•普朗克的名言:“科学之道,不破不立”,来为自己的新理论站台。

在这次会议上,Hinton最后总结:

科学是踩着葬礼前行的,未来由极其质疑我所说的一切的那批学生所决定。

卷积神经网络面临的挑战

Hinton对CNN的“深深的质疑”是有原因的。CNN的内在缺陷主要体现在3个方面。

CNN生物学基础不足,难以“熟能生巧”。

CNN全连接模式过于冗余而低效。

CNN胜在特征检测,但穷于特征理解。

Hinton评价说:“CNN分类正确率很高,看似一个大好局面,实则是一场灾难。”据此,Hinton也断言:“卷积神经网络注定是没有前途的!”


随意打赏
WeixinPathErWeiMaHtml
ZhifubaoPathErWeiMaHtml