机器学习初学者 7小时前
彻底搞懂深度学习-从神经网络入门(动图讲解)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文回顾了深度学习的基础知识,从感知机到前馈神经网络,详细介绍了其结构、原理和应用。感知机是最早的神经网络模型,仅含输入层和输出层,通过加权求和加偏置后经激活函数输出二分类结果。前馈神经网络(FFNN)或多层感知器(MLP)则包含隐藏层,能够处理非线性问题。FFNN的学习过程包括参数初始化、前向传播、反向传播、参数更新和迭代训练。FFNN在现实世界中有着广泛的应用,例如在Transformer模型中通过非线性变换与特征整合,辅助Attention模块处理信息。

🔹 感知机是神经网络的基础模型,只有输入层和输出层,通过加权求和加偏置后经激活函数输出二分类结果,没有隐藏层,仅能解决线性二分类问题。

🤖 前馈神经网络(FFNN)或多层感知器(MLP)是神经网络模型中最常见的一种,包含输入层、输出层和至少一层隐藏层,通过隐藏层组合神经元形成复杂的决策边界,能够处理非线性多分类问题。

🔄 FFNN的学习过程包括参数初始化、前向传播、反向传播、参数更新和迭代训练,通过不断迭代优化模型参数,使模型在验证集上的性能达到满意的水平。

🌐 FFNN在现实世界中有着广泛的应用,例如在Transformer模型中通过非线性变换与特征整合,辅助Attention模块处理信息,提取和整合更多有用的信息,使其能够学习更加复杂的函数关系。

AllenTang 2025-08-06 12:00 浙江

深度学习“三巨头”——Geoffrey Hinton、Yann LeCun 和 Yoshua Bengio,为推动学术界更广泛地接纳深度学习,将 20 世纪 40 至 50 年代就已问世的神经网络重新包装,提出“深度学习”(Deep Learning)这一概念,本质上即深度的神经网络

一、感知机(Perceptron)

感知机于1957年提出的仅含输入层与输出层、通过加权求和加偏置后经激活函数输出二分类结果的早期神经网络模型。

(1)没有隐藏层:只有输入层和输出层,2层网络结构。

(2)线性运算:接收输入层的信号,通过加权求和并加上偏置值。

(3)激活函数通过一个激活函数(如阶跃函数)将结果转化为输出信号。

二、前馈神经网络(Feedforward Neural Network)或者多层感知机(Multilayer Perceptron, MLP)

前馈神经网络(FFNN)又名多层感知器 (MLP),是神经网络模型中最常见的一种。FFNN的基本结构包括输入层、输出层和至少一层或多层的隐藏层。其各层神经元分层排列,每个神经元只与前一层的神经元相连,接收前一层的输出并传递给下一层,各层之前没有反馈。

(1)输入层:接收输入特征,是数据的入口。

(2)隐藏层:位于输入层和输出层之间,用于提取特征与整合。

(3)输出层:给出最终的预测结果。

FFNN模型表达式:FFNN(x) = max(0, xW1 + b1)W2 + b2 (2)

在前馈神经网络中,权重(W)和偏置(b)是两个非常重要的参数,它们决定了神经元之间的连接强度和神经元的输出。(权重(W)和偏置(b)刚开始随机初始化,后续通过模型训练从数据中不断学习更新

    三、前馈神经网络(FFNN)的学习

    前馈神经网络(FFNN)通过随机初始化参数,利用反向传播算法计算梯度,并采用优化算法如随机梯度下降来迭代更新参数,以最小化损失函数并提升模型性能。

    模型学习的本质就是模型训练,通过不断训练、验证和调优,让模型达到最优的一个过程。(下面的流程对于初学者有点懵逼,可以借助Claude生成一个模型训练代码,找一个云算力平台实践下模型训练,打印下模型训练过程中损失曲线的变化,直观的感受下模型是如何从数据中学习)

    (1)参数初始化神经网络的参数(包括权重和偏置)在训练开始前会被随机初始化。

    (2)前向传播在训练过程中,输入数据通过神经网络进行前向传播,计算出模型的输出。这个过程涉及将输入数据与每一层的权重和偏置进行线性组合,然后应用激活函数来引入非线性。

    (3)反向传播利用反向传播算法来计算损失函数相对于模型参数的梯度。这个过程涉及从输出层开始,逐层计算损失对参数的偏导数,并将这些梯度信息从输出层传播回输入层。

    (4)参数更新得到梯度后,使用优化算法(如随机梯度下降SGD、Adam、RMSprop等)来更新模型的参数。优化算法根据计算出的梯度来调整模型参数,以最小化损失函数。

    (5)迭代训练上述步骤(从前向传播到参数更新)会反复进行,直到模型在验证集上的性能达到满意的水平,或者达到预设的训练轮数(epochs)。

    前馈神经网络(FFNN)从数据中学习的训练流程会贯穿整个深度学习,里面涉及的专业术语(前向传播、反向传播、激活函数、梯度下降、Adam和AdaGrad等其它优化器)都会在后面进行详细讲解。

    四、前馈神经网络(FFNN)的应用

    感知机(Perceptron)可以解决线性二分类问题,而现实世界中的复杂问题都是非线性多分类问题。

    前馈神经网络(FFNN)通过隐藏层将神经元组合在一起,能够形成复杂的决策边界,进而处理现实世界中复杂的非线性问题

    前馈神经网络(多层感知机MLP)在Transformer中通过非线性变换与特征整合,辅助Attention模块处理信息。(FFNN在Transformer中的应用会在后面进行详细讲解)

    (1)非线性变换:MLP通过引入激活函数(如ReLU)提供非线性变换,这有助于模型捕获输入数据中的复杂模式。

    (2)特征提取与整合:MLP进一步处理和转换注意力机制提取的特征,提取和整合更多有用的信息,使其能够学习更加复杂的函数关系。

    阅读原文

    跳转微信打开

    Fish AI Reader

    Fish AI Reader

    AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

    FishAI

    FishAI

    鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

    联系邮箱 441953276@qq.com

    相关标签

    深度学习 感知机 前馈神经网络 多层感知器
    相关文章