当前位置: 首页 > article >正文

从零开始:用Python手把手实现一个前馈神经网络(FNN)完整代码示例

从零开始用Python手把手实现一个前馈神经网络FNN完整代码示例在人工智能领域前馈神经网络Feedforward Neural Network, FNN是最基础也最经典的模型之一。它不仅是深度学习入门的必经之路更是理解更复杂神经网络结构的基石。本文将带你从零开始用Python一步步实现一个完整的FNN包括网络构建、训练过程和性能评估。不同于理论讲解我们将聚焦于实际编码中的每个细节让你真正掌握FNN的实现精髓。1. 环境准备与基础概念在开始编码之前我们需要确保开发环境配置正确并理解一些核心概念。Python 3.7版本是必须的同时需要安装以下关键库pip install numpy matplotlib tensorflow为什么选择这些库NumPy提供了高效的数值计算能力Matplotlib用于可视化训练过程而TensorFlow虽然是一个深度学习框架但我们将仅使用其基础功能来验证我们手写实现的正确性。前馈神经网络的核心特点包括单向信息流数据从输入层流向输出层没有反馈连接全连接结构相邻层的每个神经元都相互连接非线性激活通过激活函数引入非线性变换能力提示虽然现代深度学习框架已经高度优化但从零实现能帮助你深入理解神经网络的工作原理这对调试复杂模型和解决实际问题至关重要。2. 网络结构设计与实现2.1 初始化网络参数让我们首先定义网络的结构。假设我们要构建一个具有以下结构的FNN输入层784个神经元对应28x28图像隐藏层1128个神经元使用ReLU激活隐藏层264个神经元使用ReLU激活输出层10个神经元使用Softmax激活用于多分类import numpy as np class FNN: def __init__(self, input_size, hidden_sizes, output_size): self.input_size input_size self.hidden_sizes hidden_sizes self.output_size output_size # 初始化权重和偏置 self.params {} layer_sizes [input_size] hidden_sizes [output_size] for i in range(1, len(layer_sizes)): # Xavier/Glorot初始化 scale np.sqrt(2.0 / (layer_sizes[i-1] layer_sizes[i])) self.params[fW{i}] np.random.randn(layer_sizes[i-1], layer_sizes[i]) * scale self.params[fb{i}] np.zeros((1, layer_sizes[i]))2.2 实现前向传播前向传播是神经网络的核心计算过程我们需要为每一层实现正确的计算逻辑def relu(self, x): return np.maximum(0, x) def softmax(self, x): exp_x np.exp(x - np.max(x, axis1, keepdimsTrue)) return exp_x / np.sum(exp_x, axis1, keepdimsTrue) def forward(self, X): self.cache {A0: X} A_prev X # 隐藏层前向传播 for i in range(1, len(self.hidden_sizes)1): Z np.dot(A_prev, self.params[fW{i}]) self.params[fb{i}] A self.relu(Z) self.cache[fZ{i}] Z self.cache[fA{i}] A A_prev A # 输出层前向传播 output_Z np.dot(A_prev, self.params[fW{i1}]) self.params[fb{i1}] output_A self.softmax(output_Z) self.cache[fZ{i1}] output_Z self.cache[fA{i1}] output_A return output_A3. 损失函数与反向传播3.1 交叉熵损失实现对于多分类问题交叉熵损失是最常用的选择def cross_entropy_loss(self, y_pred, y_true): m y_true.shape[0] log_likelihood -np.log(y_pred[range(m), y_true]) loss np.sum(log_likelihood) / m return loss3.2 反向传播算法反向传播是训练神经网络的关键需要仔细计算每一层的梯度def backward(self, X, y): m X.shape[0] grads {} L len(self.hidden_sizes) 1 # 总层数 # 输出层梯度 dZ self.cache[fA{L}].copy() dZ[range(m), y] - 1 dZ / m grads[fdW{L}] np.dot(self.cache[fA{L-1}].T, dZ) grads[fdb{L}] np.sum(dZ, axis0, keepdimsTrue) dA_prev np.dot(dZ, self.params[fW{L}].T) # 隐藏层梯度从后向前 for l in reversed(range(1, L)): dZ dA_prev * (self.cache[fZ{l}] 0).astype(float) grads[fdW{l}] np.dot(self.cache[fA{l-1}].T, dZ) grads[fdb{l}] np.sum(dZ, axis0, keepdimsTrue) dA_prev np.dot(dZ, self.params[fW{l}].T) return grads4. 训练过程与优化技巧4.1 实现小批量梯度下降完整的训练流程需要实现数据分批处理和参数更新def train(self, X, y, epochs100, batch_size32, learning_rate0.01): n_samples X.shape[0] losses [] for epoch in range(epochs): # 打乱数据 permutation np.random.permutation(n_samples) X_shuffled X[permutation] y_shuffled y[permutation] epoch_loss 0 for i in range(0, n_samples, batch_size): # 获取当前批次 X_batch X_shuffled[i:ibatch_size] y_batch y_shuffled[i:ibatch_size] # 前向传播 y_pred self.forward(X_batch) # 计算损失 loss self.cross_entropy_loss(y_pred, y_batch) epoch_loss loss * X_batch.shape[0] # 反向传播 grads self.backward(X_batch, y_batch) # 参数更新 for param in self.params: self.params[param] - learning_rate * grads[fd{param}] # 计算平均epoch loss epoch_loss / n_samples losses.append(epoch_loss) if epoch % 10 0: print(fEpoch {epoch}, Loss: {epoch_loss:.4f}) return losses4.2 实用优化技巧在实际训练中我们可以引入几种常见的优化技术学习率衰减learning_rate initial_lr * (1.0 / (1.0 decay_rate * epoch))动量加速velocity momentum * velocity - learning_rate * dw w velocityL2正则化loss 0.5 * lambda_ * np.sum(w**2 for w in self.params.values())注意当实现这些优化技术时务必在反向传播步骤中正确计算相应的梯度调整。5. 模型评估与调试5.1 评估指标实现除了损失函数我们还需要其他指标来评估模型性能def accuracy(self, X, y): y_pred self.forward(X) predictions np.argmax(y_pred, axis1) return np.mean(predictions y) def confusion_matrix(self, X, y): y_pred self.forward(X) predictions np.argmax(y_pred, axis1) cm np.zeros((self.output_size, self.output_size), dtypeint) for true, pred in zip(y, predictions): cm[true, pred] 1 return cm5.2 常见问题与调试在实现过程中你可能会遇到以下典型问题问题现象可能原因解决方案损失不下降学习率太小增大学习率或检查梯度计算损失为NaN学习率太大减小学习率或使用梯度裁剪准确率随机权重初始化不当使用Xavier/Glorot初始化训练慢批量大小不合适调整批量大小或使用优化器调试神经网络的关键步骤检查前向传播的输出范围是否合理验证反向传播的梯度计算是否正确监控训练过程中各层的激活值和梯度分布使用小数据集先过拟合确保模型能力足够6. 完整示例与MNIST实战让我们用MNIST数据集测试我们的实现from tensorflow.keras.datasets import mnist from tensorflow.keras.utils import to_categorical # 加载数据 (X_train, y_train), (X_test, y_test) mnist.load_data() # 预处理 X_train X_train.reshape(-1, 784).astype(float32) / 255.0 X_test X_test.reshape(-1, 784).astype(float32) / 255.0 # 创建模型 model FNN(input_size784, hidden_sizes[128, 64], output_size10) # 训练 losses model.train(X_train, y_train, epochs50, batch_size64, learning_rate0.01) # 评估 train_acc model.accuracy(X_train, y_train) test_acc model.accuracy(X_test, y_test) print(fTrain Accuracy: {train_acc:.4f}, Test Accuracy: {test_acc:.4f})在实际项目中你可能需要调整以下超参数以获得更好性能隐藏层数量和大小学习率和批量大小激活函数选择如尝试LeakyReLU正则化强度通过这个完整实现你应该已经掌握了FNN的核心原理和实现细节。虽然现代深度学习框架已经高度优化但理解底层实现原理能让你在遇到问题时更快定位原因在需要自定义层或特殊结构时更加得心应手。

相关文章:

从零开始:用Python手把手实现一个前馈神经网络(FNN)完整代码示例

从零开始:用Python手把手实现一个前馈神经网络(FNN)完整代码示例 在人工智能领域,前馈神经网络(Feedforward Neural Network, FNN)是最基础也最经典的模型之一。它不仅是深度学习入门的必经之路&#xff0c…...

别再只盯着代码行数了!用Tessy实测圈复杂度,教你一眼看穿函数有多“绕”

别再只盯着代码行数了!用Tessy实测圈复杂度,教你一眼看穿函数有多“绕” 在代码评审会上,你是否遇到过这样的场景:有人指着一段200行的函数说"太长了需要拆分",而另一段50行的嵌套逻辑却被所有人忽略&#x…...

Centos7防火墙高级策略:利用rich-rule实现精细化IP访问控制

1. 为什么需要精细化IP访问控制? 想象一下你家的防盗门——普通防火墙就像给大门装了一把锁,所有人都用同一把钥匙进出。而rich-rule则是给每个访客分配专属钥匙,还能规定谁可以进厨房、谁只能待在客厅。在企业服务器环境中,这种精…...

vscode-drawio:在VS Code中无缝集成专业图表设计的5大核心技术特性

vscode-drawio:在VS Code中无缝集成专业图表设计的5大核心技术特性 【免费下载链接】vscode-drawio This unofficial extension integrates Draw.io (also known as diagrams.net) into VS Code. 项目地址: https://gitcode.com/gh_mirrors/vs/vscode-drawio …...

从零构建MMRotate旋转检测实战:自定义数据集制作与模型调优全解析

1. 环境准备与MMRotate安装 第一次接触旋转目标检测时,我被各种坐标转换搞得头晕眼花。直到发现MMRotate这个神器,才让整个流程变得清晰可控。作为OpenMMLab家族成员,它封装了R3Det、Rotated Faster RCNN等主流旋转检测算法,特别适…...

SwiftUI DatePicker实战:打造一个旅行计划App(含完整代码)

SwiftUI DatePicker实战:构建旅行计划App的进阶技巧 每次规划旅行时,最让人头疼的莫过于安排行程日期。作为iOS开发者,我们可以用SwiftUI的DatePicker组件为用户打造流畅的日期选择体验。不同于基础教程,本文将带你深入实战&…...

Path of Building:流放之路玩家的终极离线Build规划指南

Path of Building:流放之路玩家的终极离线Build规划指南 【免费下载链接】PathOfBuilding Offline build planner for Path of Exile. 项目地址: https://gitcode.com/GitHub_Trending/pa/PathOfBuilding 你是否曾经在《流放之路》中花费数小时计算天赋点、装…...

GitHub 高效使用指南【实战篇】

1. GitHub 入门:从注册到创建第一个仓库 刚接触GitHub时,很多人会被各种专业术语吓到。其实GitHub就像是一个代码版的社交网络,你可以在这里分享代码、学习他人项目、参与开源贡献。我刚开始用GitHub时也犯过不少错误,比如把私钥文…...

终极指南:5分钟快速上手BiliTools哔哩哔哩工具箱

终极指南:5分钟快速上手BiliTools哔哩哔哩工具箱 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱,支持下载视频、番剧等等各类资源 项目地址: https://gitcode.com/GitHub_Trending/bilit/BiliTools 你是否…...

SpringCloud进阶--Seata与分布式事务畔

起因是我想在搞一些操作windows进程的事情时,老是需要右键以管理员身份运行,感觉很麻烦。就研究了一下怎么提权,顺手瞄了一眼Windows下用户态权限分配,然后也是感谢《深入解析Windows操作系统》这本书给我偷令牌的灵感吧&#xff…...

别再数据线了!用FastAPI 分钟搭个局域网文件+剪贴板神器茄

为 HagiCode 添加 GitHub Pages 自动部署支持 本项目早期代号为 PCode,现已正式更名为 HagiCode。本文记录了如何为项目引入自动化静态站点部署能力,让内容发布像喝水一样简单。 背景/引言 在 HagiCode 的开发过程中,我们遇到了一个很现实的问…...

Turbo Boost Switcher:终极Mac性能管理工具,轻松掌控CPU性能

Turbo Boost Switcher:终极Mac性能管理工具,轻松掌控CPU性能 【免费下载链接】Turbo-Boost-Switcher Turbo Boost disabler / enable app for Mac OS X 项目地址: https://gitcode.com/gh_mirrors/tu/Turbo-Boost-Switcher 你是否曾经在Mac上遇到…...

分布式电源优化配置的二阶锥模型编程方法

分布式电源优化配置 二阶锥 编程方法:采用matlabyalmip编程,cplex或gurobi作为求解器。 主要内容:考虑配电网二阶锥模型,运行主体包括光伏、微燃机以及负荷,创新性考虑敏感负荷及加权电压支撑能力指标,约束…...

大模型热更新失效的5个隐性陷阱(GPU显存泄漏、KV Cache错位、Tokenizer版本漂移全解析)

第一章:大模型工程化中的模型热更新机制 2026奇点智能技术大会(https://ml-summit.org) 模型热更新是支撑大模型服务持续可用与敏捷演进的核心能力,它允许在不中断推理请求的前提下动态加载新版本权重、替换推理图结构或切换Tokenizer配置。该机制显著降…...

3分钟快速上手!MaaYuan代号鸢如鸢自动化辅助工具终极指南

3分钟快速上手!MaaYuan代号鸢如鸢自动化辅助工具终极指南 【免费下载链接】MaaYuan 代号鸢 / 如鸢 一键长草小助手 项目地址: https://gitcode.com/gh_mirrors/ma/MaaYuan 还在为《代号鸢》和《如鸢》的日常任务重复操作而烦恼吗?MaaYuan作为一款…...

Springboot 实现多数据源(PostgreSQL 和 SQL Server)连接淤

一、环境准备 Free Spire.Doc for Python 是免费 Python 文档处理库,无需依赖 Microsoft Word,支持 Word 文档的创建、编辑、转换等操作,其中内置的 Markdown 解析能力,能高效实现 Markdown 到 Doc/Docx 格式的转换,且…...

AI 时代:祛魅、适应与重新定义蓖

指令替换 项目需求:将加法指令替换为减法 项目目录如下 /MyProject ├── CMakeLists.txt # CMake 配置文件 ├── build/ #构建目录 │ └── test.c #测试编译代码 └── mypass2.cpp # pass 项目代码 一,测试代码示例 test.c // test.c #includ…...

chromeplugin虑

正文 异步/等待解决了什么问题? 在传统同步I/O操作中(如文件读取或Web API调用),调用线程会被阻塞直到操作完成。这在UI应用中会导致界面冻结,在服务器应用中则造成线程资源的浪费。async/await通过非阻塞的异步操作解…...

避坑指南:Win10安装PyTorch2.0时CUDA版本冲突的那些事儿

深度学习环境搭建实战:PyTorch 2.0与CUDA版本冲突的终极解决方案 刚接触深度学习的开发者往往会在环境搭建阶段遭遇"版本地狱"——尤其是当PyTorch要求的CUDA版本与本地安装的NVIDIA驱动不匹配时,系统弹出的错误提示足以让人抓狂。本文将带你…...

用Stata复现经典论文:Card Krueger (1994)最低工资DID分析全流程(含数据与代码)

用Stata复现经典论文:Card & Krueger (1994)最低工资DID分析全流程 1994年,经济学家David Card和Alan Krueger发表了一篇颠覆传统经济学认知的经典论文,他们通过对比新泽西州和宾夕法尼亚州快餐店就业数据,发现最低工资上涨并…...

【PCL-8】从PCA到OBB:点云最小包围盒的数学原理与PCL实战

1. 点云包围盒:从AABB到OBB的进化 当我们处理三维点云数据时,经常需要用一个简单的几何体来近似表示复杂的点云形状。这就是包围盒(Bounding Box)的概念。最常见的两种包围盒是AABB(轴对齐包围盒)和OBB&…...

ThinkPad T480黑苹果终极指南:如何用OpenCore配置实现完美macOS体验?

ThinkPad T480黑苹果终极指南:如何用OpenCore配置实现完美macOS体验? 【免费下载链接】t480-oc 💻 Lenovo ThinkPad T480 / T580 / X280 Hackintosh (macOS Monterey 12.x - Sequoia 15.x) - OpenCore 项目地址: https://gitcode.com/gh_mi…...

数字万用表的二极管档和电阻档,测LED到底该用哪个?实测对比给你看

数字万用表的二极管档和电阻档,测LED到底该用哪个?实测对比给你看 当你面对一个未知好坏的LED,手头只有一块数字万用表时,可能会纠结该选择哪个档位进行测量。是二极管档?电阻档?还是传统的电压档&#xff…...

操作系统层优化:为 Stable Yogi 模型部署调优 Linux 内核参数

操作系统层优化:为 Stable Yogi 模型部署调优 Linux 内核参数 如果你已经成功部署了 Stable Yogi 模型,但总觉得它的推理速度还能再快一点,或者在高并发请求下系统偶尔会卡顿、报错,那么问题可能不在模型本身,而在于它…...

从死元组到事务回卷:图解PostgreSQL的MVCC机制与VACUUM底层原理

从死元组到事务回卷:图解PostgreSQL的MVCC机制与VACUUM底层原理 当你在PostgreSQL中执行一条简单的UPDATE语句时,数据库内部究竟发生了什么?这个看似平常的操作背后,隐藏着一套精妙的多版本并发控制(MVCC)机…...

AutoGen Studio实战:用Qwen3-4B模型快速打造智能客服助手

AutoGen Studio实战:用Qwen3-4B模型快速打造智能客服助手 1. AutoGen Studio简介 AutoGen Studio是一个低代码AI代理开发平台,它让开发者能够快速构建、组合和部署AI代理应用。基于AutoGen AgentChat框架构建,提供了可视化界面来管理多代理…...

BGE Reranker-v2-m3性能优化:算法与工程实践

BGE Reranker-v2-m3性能优化:算法与工程实践 1. 引言 在信息检索和RAG(检索增强生成)应用中,重排序模型的质量和效率直接影响着最终的用户体验。BGE Reranker-v2-m3作为北京智源研究院推出的轻量级重排序模型,凭借其…...

【操作系统】CTFos Pro-专为CTF优化的高性能虚拟机正式版

1. CTFos Pro虚拟机:专为CTF优化的高性能解决方案 如果你经常参加CTF比赛或者进行安全研究,肯定遇到过这样的烦恼:每次搭建环境都要耗费大量时间,各种工具安装配置让人头疼,不同比赛需要的环境还不一样。CTFos Pro就是…...

Gemini-CLI 从零到精通的命令行AI开发指南

1. 认识Gemini-CLI:你的命令行AI助手 第一次听说Gemini-CLI时,我也觉得这不过又是一个AI玩具。直到在本地终端里用它5分钟写完一个Python爬虫脚本,才意识到这个命令行工具的强大。简单来说,Gemini-CLI就像把Google最先进的AI模型…...

【华为云CCE实战】内网环境下的Nacos集群容器化部署全流程

1. 内网环境下的Nacos集群部署挑战 在企业级微服务架构中,Nacos作为服务注册中心和配置中心扮演着关键角色。但在内网隔离环境下部署Nacos集群,就像在没有GPS信号的隧道里组车队——既需要确保每辆车(节点)都能互相定位&#xff0…...