当前位置: 首页 > article >正文

AI 术语通俗词典:优化器

优化器是机器学习、深度学习、神经网络和人工智能中非常核心的一个术语。它用来描述模型在得到梯度之后如何更新权重和偏置使损失函数逐渐变小。 换句话说优化器是在回答模型已经知道自己错在哪里之后下一步参数应该怎样改。如果说反向传播负责计算“每个参数对错误负多少责任”那么优化器负责根据这些梯度真正调整参数。因此优化器常用于神经网络训练、梯度下降、深度学习框架、模型收敛、学习率设置和大模型训练是理解模型如何学习的重要基础概念。一、基本概念什么是优化器优化器Optimizer是用于更新模型参数的算法。在神经网络中模型参数主要包括• 权重 W• 偏置 b• 嵌入向量参数• 归一化层参数• 其他可学习参数训练模型时通常先通过前向传播计算预测结果再通过损失函数衡量预测错误然后通过反向传播计算梯度。得到梯度后优化器会根据一定规则更新参数。最基本的参数更新形式是其中• θ 表示模型参数• L 表示损失函数• ∂L/∂θ 表示损失对参数 θ 的梯度• η 表示学习率• ← 表示用右边的新值更新左边的参数从通俗角度看优化器就是根据梯度决定参数往哪个方向走、每次走多远。例如如果某个权重增大会让损失变大那么优化器就会把它调小如果某个权重减小会让损失变大那么优化器就会把它调大。因此优化器是模型训练过程中真正执行“学习动作”的部分。二、为什么需要优化器优化器之所以重要是因为神经网络训练本质上是一个优化问题。模型训练的目标是找到一组参数使损失函数尽可能小。可以写成其中• θ 表示模型参数• θ* 表示理想情况下最优的参数• L(θ) 表示参数为 θ 时的损失• argmin 表示使损失最小的参数取值从通俗角度看模型训练就像在一座山谷中寻找最低点• 损失函数是一片地形• 参数位置是人在地形中的当前位置• 梯度告诉我们哪里上坡、哪里下坡• 优化器决定我们如何往低处走如果没有优化器模型虽然能计算预测和梯度但不会真正改进参数。例如反向传播告诉我们表示损失对权重 W 的梯度。但仅仅知道梯度还不够还需要决定• 参数是否马上更新• 更新幅度多大• 是否结合历史梯度• 是否给不同参数使用不同步长• 是否加入动量或自适应调整这些问题都由优化器处理。从通俗角度看反向传播负责提供方向感优化器负责真正迈步。三、优化器与梯度下降的关系梯度下降Gradient Descent是最基础的优化方法也是理解优化器的起点。梯度下降的基本思想是沿着损失函数下降最快的方向更新参数。对于参数 θ更新规则为其中• ∇θL(θ) 表示损失函数对参数 θ 的梯度• η 表示学习率梯度指向损失上升最快的方向因此如果要让损失下降就要沿着梯度的反方向走。从通俗角度看• 梯度方向上坡最快的方向• 负梯度方向下坡最快的方向所以更新公式中有一个减号表示沿负梯度方向移动。优化器可以看作梯度下降思想的不同实现和改进。例如• SGD 是基础梯度下降的随机小批量版本• Momentum 在 SGD 中加入惯性• RMSProp 会根据历史平方梯度调整步长• Adam 同时结合动量和自适应学习率因此梯度下降是基本思想优化器是具体算法。四、学习率优化器中最重要的超参数学习率Learning Rate是优化器中最重要的超参数之一。它通常记为在更新公式中学习率 η 决定每次参数更新的步长。如果学习率太大参数更新可能过猛导致损失震荡甚至发散• 步子太大容易越过最低点如果学习率太小训练会非常慢模型可能长时间无法收敛• 步子太小虽然稳定但走得太慢从通俗角度看学习率决定优化器每次“下山”迈多大一步。学习率合适时模型可以较稳定地接近较低损失学习率不合适时即使模型结构正确也可能训练效果很差。在实际训练中常见做法包括• 先尝试常用默认学习率• 观察训练损失是否稳定下降• 使用学习率衰减• 使用 warmup• 使用自适应优化器• 结合验证集表现调整学习率因此优化器效果不仅取决于算法本身也强烈依赖学习率设置。五、常见优化器之一SGDSGD 是随机梯度下降Stochastic Gradient Descent的缩写。它是最基础、最经典的优化器之一。在完整梯度下降中每次更新参数都使用全部训练数据计算梯度。但真实数据集往往很大每次都用全部数据会很慢。SGD 的思想是每次只用一个样本或一小批样本估计梯度然后更新参数。在现代深度学习中更常见的是小批量随机梯度下降Mini-batch SGD。更新规则仍然可以写成其中• L_batch 表示当前小批量样本上的损失• ∇θL_batch(θ) 表示当前小批量上的梯度从通俗角度看SGD 不等看完整本书再总结规律而是看一小批样本就更新一次。SGD 的优点是• 简单• 计算开销较低• 泛化能力常常不错• 理论和实践都非常成熟SGD 的局限是• 更新方向有噪声• 对学习率较敏感• 收敛速度可能较慢• 在复杂损失地形中可能震荡因此SGD 常常和 Momentum、学习率调度等方法一起使用。六、Momentum给参数更新加入惯性Momentum 是在 SGD 基础上加入“动量”的方法。普通 SGD 每次只根据当前梯度更新参数。如果梯度方向不断变化参数可能来回震荡。Momentum 的思想是不要只看当前梯度还要参考过去一段时间的更新方向。可以写成其中• v_t 表示第 t 步的速度或动量• γ 表示动量系数• η 表示学习率• ∇θL(θ_t) 表示当前梯度从通俗角度看Momentum 像一个带惯性的球在山坡上滚动• 如果连续几步方向一致就加速前进• 如果某个方向来回震荡就互相抵消这使训练通常更加稳定也可能加快收敛。Momentum 的优势是• 减少震荡• 加速一致方向上的更新• 在狭长谷底中表现更好从实践角度看Momentum 常用于 SGD 优化深层神经网络尤其在计算机视觉模型训练中曾经非常常见。七、Adam最常用的自适应优化器之一Adam 是 Adaptive Moment Estimation 的缩写是现代深度学习中最常用的优化器之一。它结合了两类思想• Momentum记录梯度的一阶矩也就是平均方向• RMSProp 类方法记录梯度平方的二阶矩用于调整每个参数的步长Adam 的核心思想是不同参数可以根据自己的梯度历史使用不同的自适应更新幅度。简化理解可以认为 Adam 会同时估计表示梯度的移动平均表示梯度平方的移动平均。然后用它们调整参数更新。从通俗角度看Adam 不只是问“往哪里走”还会根据历史情况判断“每个参数应该走多快”。Adam 的优点是• 收敛通常较快• 对学习率相对不那么敏感• 适合稀疏梯度• 在自然语言处理、Transformer、大语言模型训练中非常常见Adam 的局限是• 泛化表现不一定总比 SGD 好• 默认参数虽然常用但不是所有任务最优• 在某些任务中需要配合权重衰减、学习率调度和 warmup在实践中Adam 或 AdamW 常常是训练神经网络时的默认首选。八、AdamW 与权重衰减AdamW 是 Adam 的一个重要变体尤其常用于 Transformer 和大语言模型训练。它主要改进了 Adam 中权重衰减的处理方式。权重衰减Weight Decay是一种正则化方法用来抑制参数过大。常见思想是让参数更新时额外向 0 收缩其中• λ 表示权重衰减系数• θ 表示参数从通俗角度看权重衰减像是在训练时提醒模型参数不要变得太大。参数过大可能导致模型过度依赖训练数据中的细节从而增加过拟合风险。AdamW 的特点是将权重衰减与 Adam 的梯度自适应更新更清楚地分离出来因此在很多深度学习任务中比普通 Adam 加 L2 正则更稳定。从实践角度看• Adam 常用于一般深度学习训练• AdamW 常用于 Transformer、大语言模型和预训练模型微调• 权重衰减可以帮助控制模型复杂度需要注意权重衰减不是越大越好。过强的权重衰减可能使模型欠拟合。九、优化器的优势、局限与使用注意事项1、优化器的主要作用优化器的主要作用可以概括为• 根据梯度更新参数• 使损失函数逐步减小• 控制训练过程的收敛速度• 影响训练稳定性• 影响最终模型效果从通俗角度看优化器决定模型如何从错误中学习。同一个模型、同一批数据如果优化器和学习率选择不同训练效果可能差别很大。2、常见优化器如何选择常见经验是• 入门或表格小模型可以从 SGD、Adam 开始• 深度神经网络Adam 是常见默认选择• Transformer 和大语言模型AdamW 更常见• 计算机视觉经典 CNNSGD Momentum 仍然常见• 稀疏特征任务Adam、Adagrad 等自适应方法可能更方便不过这些只是经验并不是绝对规则。最终选择要看• 数据规模• 模型结构• 损失曲线• 验证集表现• 训练稳定性• 泛化效果3、使用优化器时需要注意的问题使用优化器时需要注意• 学习率通常比优化器名称更关键• 损失不下降时要先检查学习率、数据和损失函数• 损失震荡可能说明学习率过大• 训练很慢可能说明学习率过小• Adam 收敛快但不一定总是泛化最好• 权重衰减可以缓解过拟合但过大可能欠拟合• 不同参数组可以设置不同学习率• 训练时通常需要定期观察训练集和验证集曲线从实践角度看优化器不是孤立发挥作用的。它必须与学习率、初始化、批量大小、归一化、损失函数和模型结构共同考虑。十、Python 示例下面给出几个简单示例用来帮助理解优化器的基本使用。示例 1手动实现一次梯度下降更新假设有一个简单模型损失为用 Python 手动更新参数# 输入特征、参数和真实值x 2.0 # 输入特征w 3.0 # 权重b 1.0 # 偏置y 10.0 # 真实标签 learning_rate 0.1 # 学习率 # 前向传播计算预测值和损失z w * x b # 预测值 w*x bloss (z - y) ** 2 # 平方损失 (预测值 - 真实值)^2 # 手动计算损失对各参数的梯度链式法则dL_dz 2 * (z - y) # ∂L/∂z 2(z - y)dL_dw dL_dz * x # ∂L/∂w ∂L/∂z * ∂z/∂w dL_dz * xdL_db dL_dz # ∂L/∂b ∂L/∂z * ∂z/∂b dL_dz * 1 # 梯度下降更新参数w w - learning_rate * dL_dwb b - learning_rate * dL_db print(更新后的 w, w)print(更新后的 b, b)print(更新前损失, loss) # 注意更新后损失未重新计算输出的是更新前的损失这个例子展示了优化器最基本的思想根据梯度和学习率更新参数。示例 2PyTorch 中使用 SGDimport torch # PyTorch框架import torch.nn as nn # 神经网络模块import torch.optim as optim # 优化器模块 # 构造训练数据y 2x 1X torch.tensor([[1.0], [2.0], [3.0], [4.0]]) # 输入特征y torch.tensor([[3.0], [5.0], [7.0], [9.0]]) # 真实标签 # 线性模型输入1维输出1维model nn.Linear(1, 1) # 均方误差损失函数loss_fn nn.MSELoss() # SGD优化器学习率0.01optimizer optim.SGD(model.parameters(), lr0.01) # 训练1000轮for epoch in range(1000): optimizer.zero_grad() # 清空梯度 y_pred model(X) # 前向传播预测值 loss loss_fn(y_pred, y) # 计算损失 loss.backward() # 反向传播计算梯度 optimizer.step() # 更新参数 print(权重, model.weight.item()) # 应接近2.0print(偏置, model.bias.item()) # 应接近1.0print(最终损失, loss.item()) # 接近0这个训练流程中• optimizer.zero_grad() 清空上一轮梯度• loss.backward() 计算当前梯度• optimizer.step() 根据梯度更新参数这就是 PyTorch 中最常见的训练循环结构。示例 3PyTorch 中使用 Adamimport torch # PyTorch框架import torch.nn as nn # 神经网络模块import torch.optim as optim # 优化器模块 # 训练数据y 2x 1X torch.tensor([[1.0], [2.0], [3.0], [4.0]]) # 输入特征y torch.tensor([[3.0], [5.0], [7.0], [9.0]]) # 真实标签 # 线性回归模型输入1维输出1维model nn.Linear(1, 1) # 均方误差损失函数loss_fn nn.MSELoss() # Adam优化器自适应学习率学习率0.01optimizer optim.Adam(model.parameters(), lr0.01) # 训练1000轮for epoch in range(1000): optimizer.zero_grad() # 清空梯度 y_pred model(X) # 前向传播预测值 loss loss_fn(y_pred, y) # 计算损失 loss.backward() # 反向传播计算梯度 optimizer.step() # 更新参数 # 输出训练结果print(权重, model.weight.item()) # 应接近2.0print(偏置, model.bias.item()) # 应接近1.0print(最终损失, loss.item()) # 接近0这个例子中Adam 会根据梯度历史自适应调整参数更新幅度。从通俗角度看SGD 更像固定步长下山Adam 更像会根据路况自动调整步伐。示例 4使用 AdamW 和权重衰减import torch # PyTorch框架import torch.nn as nn # 神经网络模块import torch.optim as optim # 优化器模块 # 定义一个简单的分类模型4维输入 → ReLU → 3维输出logitsmodel nn.Sequential( nn.Linear(4, 16), # 全连接层4 → 16 nn.ReLU(), # ReLU激活 nn.Linear(16, 3) # 输出层16 → 3) # AdamW 优化器Adam with weight decay学习率0.001权重衰减0.01optimizer optim.AdamW( model.parameters(), # 待优化的模型参数 lr0.001, # 学习率 weight_decay0.01 # 权重衰减L2正则化) print(optimizer) # 打印优化器配置这个例子中• lr0.001 表示学习率• weight_decay0.01 表示权重衰减系数• AdamW 常用于 Transformer、预训练模型和许多现代深度学习任务示例 5观察不同学习率的影响import torchimport torch.nn as nnimport torch.optim as optim def train_with_lr(lr): 使用指定学习率训练线性模型返回最终损失 # 训练数据y 2x 1 X torch.tensor([[1.0], [2.0], [3.0], [4.0]]) y torch.tensor([[3.0], [5.0], [7.0], [9.0]]) # 线性模型输入1维输出1维 model nn.Linear(1, 1) loss_fn nn.MSELoss() # 均方误差损失 optimizer optim.SGD(model.parameters(), lrlr) # SGD优化器 # 训练100轮 for epoch in range(100): optimizer.zero_grad() # 清空梯度 y_pred model(X) # 前向传播 loss loss_fn(y_pred, y) # 计算损失 loss.backward() # 反向传播 optimizer.step() # 更新参数 return loss.item() # 返回最终损失值 # 测试不同学习率对训练效果的影响for lr in [0.0001, 0.01, 1.0]: final_loss train_with_lr(lr) print(f学习率 {lr}最终损失{final_loss})这个例子可以观察• 学习率太小训练可能很慢• 学习率合适损失下降较稳定• 学习率太大训练可能震荡或发散因此在实际训练中学习率往往是最需要认真调节的超参数之一。 小结优化器是模型训练中根据梯度更新参数的算法。反向传播负责计算梯度优化器负责利用梯度调整权重和偏置使损失函数逐渐减小。SGD 是最基础的优化器Momentum 引入历史方向Adam 使用自适应更新AdamW 常用于现代深度学习和大模型训练。对初学者而言可以把优化器理解为模型根据错误得到梯度后真正决定参数如何迈出下一步的学习规则。“点赞有美意赞赏是鼓励”

相关文章:

AI 术语通俗词典:优化器

优化器是机器学习、深度学习、神经网络和人工智能中非常核心的一个术语。它用来描述:模型在得到梯度之后,如何更新权重和偏置,使损失函数逐渐变小。 换句话说,优化器是在回答:模型已经知道自己错在哪里之后&#xff0c…...

RT-Thread SMP启动流程深度解析:从多核同步到调度就绪

1. 项目概述:从单核到多核,RT-Thread的启动逻辑变迁如果你是从RT-Thread 3.x版本一路用过来的老用户,或者刚开始接触RT-Thread 4.x,可能会发现一个显著的变化:启动流程变“复杂”了。以前,一个main函数或者…...

尼泊尔语语音合成落地难?ElevenLabs官方未公开的3个语言模型限制(附2024年Q2实测延迟/错误率/重音支持对比表)

更多请点击: https://intelliparadigm.com 第一章:尼泊尔语语音合成落地难?ElevenLabs官方未公开的3个语言模型限制(附2024年Q2实测延迟/错误率/重音支持对比表) 尼泊尔语(नेपाली)作为IS…...

如何用免费开源通信调试工具Wu.CommTool提升工业自动化效率

如何用免费开源通信调试工具Wu.CommTool提升工业自动化效率 【免费下载链接】Wu.CommTool 基于C#、WPF、Prism、MaterialDesign、HandyControl开发的通讯调试工具。支持Modbus Rtu调试、Mqtt调试、TCP调试、串口调试、UDP调试 项目地址: https://gitcode.com/gh_mirrors/wu/W…...

暗黑破坏神II终极角色编辑器:Diablo Edit2完全使用指南

暗黑破坏神II终极角色编辑器:Diablo Edit2完全使用指南 【免费下载链接】diablo_edit Diablo II Character editor. 项目地址: https://gitcode.com/gh_mirrors/di/diablo_edit Diablo Edit2是暗黑破坏神II玩家必备的角色存档编辑器,这款开源工具…...

别再只会`cmatrix`了!解锁Linux终端屏保的10种炫酷玩法(含快捷键大全)

终端美学革命:10种cmatrix高阶玩法与快捷键全解析 当绿色代码雨第一次在终端流淌而下时,那种黑客帝国般的视觉冲击令人难忘。但你是否知道,这个看似简单的cmatrix命令背后隐藏着一个可编程的视觉艺术工具箱?本文将带你突破基础用法…...

SAP F110自动付款:从零到精通的配置全景图

1. SAP F110自动付款入门指南 第一次接触SAP F110自动付款功能时,我也被那一堆配置项搞得晕头转向。记得当时为了搞清楚银行确定逻辑,整整花了两天时间反复测试。现在回想起来,如果有个系统性的指导手册,至少能节省一半时间。F110…...

百度网盘Mac版破解插件:免费解锁SVIP高速下载的终极指南

百度网盘Mac版破解插件:免费解锁SVIP高速下载的终极指南 【免费下载链接】BaiduNetdiskPlugin-macOS For macOS.百度网盘 破解SVIP、下载速度限制~ 项目地址: https://gitcode.com/gh_mirrors/ba/BaiduNetdiskPlugin-macOS 还在为百度网盘Mac版的龟速下载而烦…...

保姆级教程:在OBS Studio里开启H.264帧内刷新,解决录屏文件体积暴增问题

保姆级教程:在OBS Studio里开启H.264帧内刷新,解决录屏文件体积暴增问题 你是否遇到过这样的困扰:用OBS Studio录制静态界面(比如文档、代码编辑器)时,明明画面几乎没有变化,生成的视频文件却像…...

TMP006红外热电堆传感器:从塞贝克效应到Arduino/Python实战应用

1. 项目概述:从“摸”到“看”的温度测量革命在嵌入式开发和物联网项目中,温度测量是个再常见不过的需求。传统上,我们习惯用DS18B20这类接触式传感器,需要把探头紧贴被测物体,甚至用导热硅脂来确保热传导。但有些场景…...

FontForge:从零到一的免费字体设计全攻略

FontForge:从零到一的免费字体设计全攻略 【免费下载链接】fontforge Free (libre) font editor for Windows, Mac OS X and GNULinux 项目地址: https://gitcode.com/gh_mirrors/fo/fontforge 你是否曾经想过亲手设计一款属于自己的字体?也许你为…...

别再只盯着图片了!用3DCNN处理视频动作识别,从原理到代码实战(PyTorch版)

3DCNN实战:从视频动作识别到PyTorch代码实现 当监控摄像头捕捉到一场突如其来的争执,或是体育赛事中运动员的关键动作,传统图像识别技术往往力不从心。这些场景中的信息不仅存在于每一帧画面里,更隐藏在帧与帧之间的动态变化中——…...

Arm Neoverse CMN-650架构解析与性能优化

1. Arm Neoverse CMN-650架构概览CMN-650是Arm Neoverse平台中的第三代一致性网格网络(Coherent Mesh Network)互连技术,专为高性能计算和数据中心场景设计。作为SoC内部的核心互连架构,它承担着连接处理器集群、内存控制器、I/O子系统以及加速器单元的关…...

Taotoken API Key精细化管理与审计日志的实际价值

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 Taotoken API Key精细化管理与审计日志的实际价值 在团队协作中引入大模型能力,往往伴随着对资源使用安全性与可控性的…...

复杂会场巡检机器人路径规划【附代码】

✨ 长期致力于路径规划、RRT~*算法、人工势场法、自动巡检研究工作,擅长数据搜集与处理、建模仿真、程序编写、仿真设计。 ✅ 专业定制毕设、代码 ✅ 如需沟通交流,点击《获取方式》 (1)提出基于安全边界与朝向合力场随机游走的改…...

Horos:让医学影像分析像翻阅相册一样简单

Horos:让医学影像分析像翻阅相册一样简单 【免费下载链接】horos Horos™ is a free, open source medical image viewer. The goal of the Horos Project is to develop a fully functional, 64-bit medical image viewer for OS X. Horos is based upon OsiriX an…...

从零开始通过Taotoken平台文档快速完成首个大模型API调用

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 从零开始通过Taotoken平台文档快速完成首个大模型API调用 对于初次接触大模型API的开发者而言,面对众多模型厂商、复杂…...

Claude API密钥自动化同步工具:架构设计与实战部署指南

1. 项目概述与核心价值最近在折腾一个挺有意思的自动化项目,起因是我发现团队里不同成员在使用Claude API时,经常遇到一个挺烦人的问题:每个人手里的API密钥状态不一致。有的同事的密钥突然失效了,有的配额用完了自己还不知道&…...

Agent 一接数据同步任务就开始造重复记录:从 Change Capture 到 Idempotent Sink 的工程实战

一、数据同步交给 Agent 后,为什么目标端会翻倍 💾 在很多 AI 团队的生产环境中,Agent 接管的数据同步任务运行数天后,目标表数据量常变成源端的数倍。这不是 SQL 写错,而是 Exactly-Once 保障缺失所致。一次网络抖动就…...

从零制作LED智能面具:三种方案详解与避坑指南

1. 项目概述:三种不同段位的LED化妆面具制作如果你对闪烁的灯光和可穿戴电子设备着迷,一直想亲手做一个能在派对或演出中吸引眼球的智能面具,但又觉得无从下手,那这个项目就是为你准备的。我花了几个周末的时间,从最简…...

Excalidraw结合MCP协议:实现智能架构图与开发生态动态连接

1. 项目概述:当Excalidraw遇见MCP,架构图绘制的效率革命如果你和我一样,日常工作中需要频繁绘制系统架构图、流程图,那么你一定对Excalidraw不陌生。这款开源的、手绘风格的绘图工具,以其简洁、直观和强大的协作能力&a…...

初创团队如何利用Token Plan套餐有效控制AI开发成本

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 初创团队如何利用Token Plan套餐有效控制AI开发成本 对于资源有限的初创团队和独立开发者而言,在原型开发和产品验证阶…...

不改变专业术语和逻辑的论文降重软件推荐|2026 实测 5 款,改写保真 + 双降达标

论文降重最怕 “改完重复率合格,术语乱改、逻辑断裂”,尤其理工科、医学、经管等专业,公式、术语、论证框架不容半点偏差。2026 年知网、维普全面升级 AIGC 检测,既要降重复率,更要保术语、保逻辑、降 AI 率。今天聚焦…...

Playnite完整指南:高效统一你的跨平台游戏库管理体验

Playnite完整指南:高效统一你的跨平台游戏库管理体验 【免费下载链接】Playnite Video game library manager with support for wide range of 3rd party libraries and game emulation support, providing one unified interface for your games. 项目地址: http…...

ARM虚拟化中VTCR寄存器详解与地址转换优化

1. VTCR寄存器概述与虚拟化地址转换背景在ARM架构的虚拟化环境中,内存管理单元(MMU)通过两阶段地址转换机制实现虚拟机内存隔离。VTCR(Virtualization Translation Control Register)作为第二阶段地址转换的核心控制寄…...

ModbusTool:工业自动化通信调试的技术实现与实践指南

ModbusTool:工业自动化通信调试的技术实现与实践指南 【免费下载链接】ModbusTool A modbus master and slave test tool with import and export functionality, supports TCP, UDP and RTU. 项目地址: https://gitcode.com/gh_mirrors/mo/ModbusTool 在工业…...

PPO算法终极实战指南:基于PyTorch的强化学习完整解决方案

PPO算法终极实战指南:基于PyTorch的强化学习完整解决方案 【免费下载链接】PPO-PyTorch Minimal implementation of clipped objective Proximal Policy Optimization (PPO) in PyTorch 项目地址: https://gitcode.com/gh_mirrors/pp/PPO-PyTorch PPO-PyTorc…...

用GeoDa给北京二手房做个体检:手把手教你计算莫兰指数,看看你家房价被谁‘传染’了

北京二手房价格的空间密码:用GeoDa解锁房价背后的聚集效应 北京的二手房市场总是充满话题性——为什么相邻的两个小区价格能差出两万?为什么某些区域的房价会集体"跳涨"?这些现象背后,往往隐藏着空间自相关的秘密。今天…...

卷积神经网络在图像分类中的历史(1989 年至今)

原文:towardsdatascience.com/the-history-of-convolutional-neural-networks-for-image-classification-1989-today-5ea8a5c5fe20?sourcecollection_archive---------5-----------------------#2024-06-28 深度学习和计算机视觉领域最伟大创新的视觉之旅。 https…...

零售行业 Multi-Agent 案例:智能导购与库存管理的协同系统拆解

零售行业 Multi-Agent 案例:智能导购与库存管理的协同系统拆解 摘要/引言 开门见山 “叮咚——您的专属导购Luna上线啦!请问今天想找什么风格的连衣裙?要不要看看系统为您推荐的通勤款A字裙,您上周收藏的碎花衫刚好可以搭配&#…...