python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > PyTorch TensorFlow搭建神经网络

使用PyTorch/TensorFlow搭建简单全连接神经网络

作者:gs80140

在本篇博客中,我们将介绍如何使用两大深度学习框架——PyTorch 和 TensorFlow,构建一个简单的全连接神经网络,该网络包含输入层、一个隐藏层和输出层,适合初学者理解神经网络的基本构建模块及训练流程,需要的朋友可以参考下

网络结构概述

我们的全连接神经网络(Fully Connected Neural Network,FCNN)由以下部分构成:

这种结构虽然简单,但能帮助我们理解前向传播、反向传播及梯度下降等基本概念。

1. 使用 PyTorch 构建网络

PyTorch 提供了灵活的动态计算图和简洁的 API,非常适合快速原型开发。下面是一个完整示例:

import torch
import torch.nn as nn
import torch.optim as optim
 
# 定义一个简单的全连接神经网络
class SimpleFCNN(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(SimpleFCNN, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size)  # 输入层到隐藏层
        self.relu = nn.ReLU()                           # 激活函数
        self.fc2 = nn.Linear(hidden_size, output_size)  # 隐藏层到输出层
 
    def forward(self, x):
        out = self.fc1(x)
        out = self.relu(out)
        out = self.fc2(out)
        return out
 
# 超参数设置
input_size = 10      # 输入特征数量
hidden_size = 5      # 隐藏层节点数
output_size = 1      # 输出节点数
learning_rate = 0.001
num_epochs = 100
 
# 实例化模型、定义损失函数和优化器
model = SimpleFCNN(input_size, hidden_size, output_size)
criterion = nn.MSELoss()  # 均方误差损失,用于回归问题
optimizer = optim.Adam(model.parameters(), lr=learning_rate)
 
# 构造一些模拟数据
x_train = torch.randn(100, input_size)
y_train = torch.randn(100, output_size)
 
# 训练模型
for epoch in range(num_epochs):
    outputs = model(x_train)
    loss = criterion(outputs, y_train)
 
    optimizer.zero_grad()  # 梯度清零
    loss.backward()        # 反向传播
    optimizer.step()       # 更新参数
 
    if (epoch + 1) % 10 == 0:
        print(f'Epoch [{epoch + 1}/{num_epochs}], Loss: {loss.item():.4f}')

解析:

2. 使用 TensorFlow 构建网络

TensorFlow 通过 Keras 接口提供了直观且高层次的 API 来搭建模型,适合快速搭建原型。下面是使用 TensorFlow 的示例代码:

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
 
# 超参数设置
input_size = 10      # 输入特征数量
hidden_size = 5      # 隐藏层节点数
output_size = 1      # 输出节点数
learning_rate = 0.001
num_epochs = 100
batch_size = 10
 
# 构建顺序模型
model = Sequential([
    Dense(hidden_size, activation='relu', input_shape=(input_size,)),  # 输入层到隐藏层
    Dense(output_size)                                                 # 输出层
])
 
# 编译模型:指定优化器和损失函数(这里依然使用均方误差)
model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=learning_rate),
              loss='mse')
 
# 构造一些模拟数据
import numpy as np
x_train = np.random.randn(100, input_size)
y_train = np.random.randn(100, output_size)
 
# 训练模型
history = model.fit(x_train, y_train, epochs=num_epochs, batch_size=batch_size, verbose=2)

解析:

总结

本博客展示了如何使用 PyTorch 和 TensorFlow 两种不同的深度学习框架构建一个简单的全连接神经网络。两种实现虽然在 API 设计和风格上有所不同,但核心思想是一致的:

通过这两个示例,读者可以选择自己更熟悉的框架进行实验,同时也能对比两种框架的差异。希望这篇博客能帮助大家更好地理解全连接神经网络的搭建与训练过程,迈出深度学习实践的第一步!

到此这篇关于使用PyTorch/TensorFlow搭建简单全连接神经网络的文章就介绍到这了,更多相关PyTorch TensorFlow搭建神经网络内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
阅读全文