> 书中明确指出,感知机仅能处理线性可分问题,面对异或问题这类线性不可分的情况则无能为力,并且认为在当时的条件下,多层神经网络的训练算法难以实现。这一观点给神经网络的研究带来了极为沉重的打击。
后来的事实也的确在一定程度上验证了书中的说法,尽管神经网络的概念早已存在,但人们始终未能找到有效训练多层神经网络的方法。传统的神经网络在训练过程中,面对多层结构,往往难以有效地调整每一层的参数,致使网络难以很好地学习复杂模式。
这种困境一直持续到 1986 年,随着关于反向传播的论文发表,情况才会出现转机。论文中提出的 “反向传播” 算法,为训练多层神经网络提供了一种行之有效的途径。
该算法的核心思路是,通过计算每一层的误差,并将这些误差逐层向后传播,进而调整每一层的权重和偏置,使整个网络的输出误差达到最小化。
此后,神经网络总算是有了些许希望,吸引了不少人投身研究,被后来者称为“深度学习三巨头”的杨立昆就在反向传播论文发布后,构建了应用于图像分类的卷积神经网络,即 LeNet 的最初版本,并且首次使用了 “卷积” 一词,“卷积神经网络” 由此得名。
秦奕作为重生之人,自然知道神经网络与深度学习虽在当下发展迟缓,但未来必将大放异彩。
可历景铄并非穿越之人,显然无法预知未来,所以秦奕很好奇历景铄选择这个方向的理由:“历同学,你为什么会选择在神经网络这个方向进行研究呢?就目前的科研情况来看,它的发展状况似乎不太乐观。”
历景铄嘿嘿一笑,说道:“发展状况不乐观,那都是过去的事情了。我最近了解到,漂亮国那边的人工智能学术圈有不少人都研究出类似的反向传播训练算法。据说有了这个算法,神经网络的训练会变得简单可行,所以神经网络的发展环境马上就要迎来改变了!”
“原来如此,看来你在漂亮国那边积累了不少学术人脉啊!” 秦奕笑着说道,“不过说实话,即便有了便捷的训练算法,神经网络本身所能表达的内容,目前还不是很清晰,其发展潜能也不是很明朗啊。”
其实神经网络的内容何止是目前不清晰,就算是后来人工智能大放异彩的时候,其可解释性仍旧是一个相当复杂的问题。
另外就算有了合适的训练算法,以目前这个硬件环境,神经网络还是没法快速发展的。
前世神经网络在这
本章未完,请点击下一页继续阅读! 第2页 / 共3页