掘金 人工智能 前天 14:13
​​深度学习工程化实战:单神经元到MLP的PyTorch完整实现​
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入探讨了使用PyTorch实现线性回归、逻辑回归以及多层感知机(MLP)的过程。从单层神经元实现线性回归的数学原理和PyTorch代码,到利用逻辑回归实现二分类并可视化决策边界,再到手动推导和使用PyTorch自动梯度实现MLP,文章详细介绍了各种模型的原理和实现方法。此外,还分享了优化技巧,如权重初始化、学习率调度和梯度裁剪,并介绍了使用TensorBoard进行训练监控的方法。通过本文,读者可以掌握使用PyTorch构建和训练线性与非线性模型的基本技能。

📊 单层神经元线性回归:通过最小化均方误差(MSE)损失函数,使用PyTorch实现线性回归模型,包括生成数据、定义模型、训练循环和可视化。

🚀 逻辑回归二分类:利用Sigmoid函数将线性输出映射到(0,1)区间,使用二元交叉熵(BCE)作为损失函数,在PyTorch中实现逻辑回归,并可视化决策边界,展示了线性分类器的局限性。

🧠 多层感知机(MLP):手动推导反向传播过程,并使用PyTorch自动梯度实现MLP,包括网络结构设计、前向传播和反向传播梯度计算,以及权重初始化、学习率调度和梯度裁剪等优化技巧。

📈 训练监控:使用TensorBoard监控训练过程中的损失和准确率,通过SummaryWriter记录并在TensorBoard中展示,以便更好地分析和优化模型。

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院

一. 单层神经元实现线性回归

1.1 线性模型数学原理

线性回归模型定义为:

y=w⋅x+by=w⋅x+b

其中:

目标:通过最小化均方误差(MSE)损失函数学习参数:

1.2 PyTorch实现代码

import torch  import matplotlib.pyplot as plt  # 生成数据  X = torch.linspace(010100).reshape(-11)  y = 3 * X + 2 + torch.randn(1001) * 2  # 添加噪声  # 定义模型  class LinearModel(torch.nn.Module):      def __init__(self):          super().__init__()          self.linear = torch.nn.Linear(11)  # 单层神经元      def forward(self, x):          return self.linear(x)  model = LinearModel()  criterion = torch.nn.MSELoss()  optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 训练循环  losses = []  for epoch in range(100):      pred = model(X)      loss = criterion(pred, y)      optimizer.zero_grad()      loss.backward()      optimizer.step()      losses.append(loss.item())  # 可视化  plt.scatter(X.numpy(), y.numpy(), label='Data')  plt.plot(X.numpy(), model(X).detach().numpy(), 'r', label='Fitted Line')  plt.legend()  plt.show()

二. 线性模型实现二分类

2.1 逻辑回归原理

将线性输出通过Sigmoid函数映射到(0,1)区间:

损失函数使用二元交叉熵(BCE):

2.2 代码实现与决策边界

from sklearn.datasets import make_moons  # 生成二分类数据集  X, y = make_moons(n_samples=200, noise=0.1)  X = torch.tensor(X, dtype=torch.float32)  y = torch.tensor(y, dtype=torch.float32).reshape(-11)  # 定义模型(增加Sigmoid激活)  class LogisticRegression(torch.nn.Module):      def __init__(self):          super().__init__()          self.linear = torch.nn.Linear(21)          self.sigmoid = torch.nn.Sigmoid()      def forward(self, x):          return self.sigmoid(self.linear(x))  model = LogisticRegression()  criterion = torch.nn.BCELoss()  optimizer = torch.optim.Adam(model.parameters(), lr=0.1)  # 训练  for epoch in range(1000):      pred = model(X)      loss = criterion(pred, y)      optimizer.zero_grad()      loss.backward()      optimizer.step()  # 可视化决策边界  def plot_decision_boundary(model, X, y):      x_min, x_max = X[:,0].min()-0.5, X[:,0].max()+0.5      y_min, y_max = X[:,1].min()-0.5, X[:,1].max()+0.5      xx, yy = torch.meshgrid(torch.linspace(x_min, x_max, 100),                             torch.linspace(y_min, y_max, 100))      grid = torch.cat((xx.reshape(-1,1), yy.reshape(-1,1)), dim=1)      probs = model(grid).reshape(xx.shape)      plt.contourf(xx, yy, probs > 0.5, alpha=0.3)      plt.scatter(X[:,0], X[:,1], c=y.squeeze(), edgecolors='k')      plt.show()  plot_decision_boundary(model, X, y)

关键输出

三. 多层感知机(MLP)手动推导与实现

3.1 手动推导反向传播

网络结构:输入层(2) → 隐藏层(4, ReLU) → 输出层(1, Sigmoid)

前向传播

反向传播梯度计算

3.2 PyTorch自动梯度实现

class MLP(torch.nn.Module):      def __init__(self):          super().__init__()          self.fc1 = torch.nn.Linear(24)          self.fc2 = torch.nn.Linear(41)          self.relu = torch.nn.ReLU()          self.sigmoid = torch.nn.Sigmoid()      def forward(self, x):          x = self.relu(self.fc1(x))          x = self.sigmoid(self.fc2(x))          return x  model = MLP()  optimizer = torch.optim.Adam(model.parameters(), lr=0.05)  # 复用之前的训练循环  # ...  plot_decision_boundary(model, X, y)  # 显示非线性决策边界

优化技巧

四. 总结

4.1 核心要点总结

附:完整训练监控代码

from torch.utils.tensorboard import SummaryWriter  writer = SummaryWriter()  for epoch in range(1000):      pred = model(X)      loss = criterion(pred, y)      acc = ((pred > 0.5) == y).float().mean()      optimizer.zero_grad()      loss.backward()      optimizer.step()      writer.add_scalar('Loss/train', loss.item(), epoch)      writer.add_scalar('Accuracy/train', acc.item(), epoch)  # 启动TensorBoard  # tensorboard --logdir=runs

:本文代码基于PyTorch 2.0+实现,运行前需安装:

pip install torch matplotlib scikit-learn tensorboard

如果本次分享对你有所帮助,记得告诉身边有需要的朋友,"我们正在经历的不仅是技术迭代,而是认知革命。当人类智慧与机器智能形成共生关系,文明的火种将在新的维度延续。"在这场波澜壮阔的文明跃迁中,主动拥抱AI时代,就是掌握打开新纪元之门的密钥,让每个人都能在智能化的星辰大海中,找到属于自己的航向。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

PyTorch 线性回归 逻辑回归 多层感知机 深度学习
相关文章