当前位置:首页 > 神经网络 > 正文

通俗理解神经网络和深度学习

从广义上说深度学习的网络结构也是多层神经网络的一种。 传统意义上的多层神经网络是只有输入层、隐层、输出层。 其中隐层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。

随后提出多层自动码器深层结构。 此外Lecun等提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。 深度学习是机器学习研究中的一个新的域,其动机在于建立、模拟脑进行分析学习的神经网络,它模仿脑的机来解释数据,例如图像,声音和文本。

原来多层神经网络做的步骤是:特征映射到值。 特征是工挑选。 深度学习做的步骤是 信号->特征->值。 特征是由网络自己选择。 另外,深度学习作为机器学习的域中一个新的研究方向,在引进机器学习后,让机器学习可以更加的接近最初的目标,也就是工智能。

"深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法。 新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了“部感受野”和“权植共享”的概念,大大减少了网络参数的数量。

区别于传统的浅层学习,深度学习的不同在于:1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。