神经网络是一系列算法,可以识别一组数据中的潜在关系。这些算法在很大程度上取决于人脑的工作原理。神经网络可以适应更改输入并生成最佳结果,而无需重新设计输出标准。在某种程度上,这些神经网络类似于生物神经元的系统。
深度学习是机器学习的重要组成部分,深度学习算法基于神经网络。有几种具有不同功能的神经网络体系结构,最适合特定的应用程序场景。本文介绍了一些最著名的架构,尤其是在深度学习中的建筑。
多层感知器
多层感知器(MLP)是一种前馈人工神经网络。术语感知器专门指的是单个神经元模型,该模型是大型神经网络的前体。
MLP包括三个主要层:输入层,隐藏层和输出层。在隐藏和输出层中,每个节点都使用非线性激活函数视为神经元。 MLP是使用称为的监督学习技术培训的。初始化神经网络时,为每个神经元设置权重。反向传播有助于调整神经元的权重,以使输出更接近预期。
MLP是涉及表格数据集,分类预测问题和回归预测问题的项目最理想的选择。
卷积神经网络
卷积神经网络(CNN)模型以网格模式(例如图像)处理数据。它旨在自动学习功能的空间层次结构。 CNN通常包括三种类型的层:卷积层,合并层和完全连接的层。
卷积层和合并层执行特征提取任务,这些任务由完全连接的层映射到最终输出中。 CNN最适合图像处理。
图像识别,图像分类,对象检测和面部识别是CNN的某些应用程序场景。
复发性神经网络
在递归神经网络(RNN)中,上一步的输出将回到当前步骤中作为输入。 RNN中的隐藏层实现了这种反馈系统。这种隐藏的状态可以存储有关序列中先前步骤的一些信息。
RNN中的“内存”有助于模型记住所有已计算的信息。反过来,它使用了这些相同的参数,因此每个输入都会生成一个输出,从而降低了参数的复杂性。
RNN是最广泛使用的神经网络之一,主要是因为RNN具有更强的学习能力,并且能够执行复杂的任务,例如学习手写或语言识别。适用RNN的其他一些领域包括预测问题,机器翻译,视频标签,文本摘要甚至音乐创作。
深信网络
深信仰网络(DBN)使用概率和无监督学习来产生输出。 DBN由二进制潜在变量,无向层和定向层组成。 DBN与其他模型不同,因为每个层都是按顺序调整的,并且每层都学习了整个输入。
在DBN中,每个子网的隐藏层是下一个可见层。这种组合允许快速逐层无监督的训练过程:从最低的可见层开始,将比较差异应用于每个子网。贪婪的学习算法用于训练DBN。学习系统一次需要一层。因此,每个图层都会收到不同版本的数据,每个层都使用上一层的输出作为其输入。
DBN主要用于图像识别,视频识别和运动捕获数据。
受限的玻尔兹曼机器
机器(RBM)是一种生成的非确定性(随机)神经网络,了解其输入集的概率分布。 RBM是构成深度信念网络构建块的浅两层神经网络。 RBM中的第一层称为可见层或输入层,第二层称为隐藏层。它由称为节点的神经元状单元组成;节点在各个层之间相互连接,但不在同一层之内。
RBM通常用于应用程序方案,例如降低维度,推荐系统和主题建模。但是,近年来,生成的对抗网络(GAN)正在逐渐取代RBM。
有兴趣的朋友可以一起讨论。