当前位置: 首页 > article >正文

强化学习实战:用Python手把手实现值迭代与策略迭代算法(附完整代码)

强化学习实战用Python手把手实现值迭代与策略迭代算法附完整代码强化学习作为机器学习的重要分支近年来在游戏AI、自动驾驶、机器人控制等领域展现出惊人潜力。对于初学者而言理解算法原理固然重要但真正掌握强化学习的精髓在于能够将数学公式转化为可运行的代码。本文将聚焦两种经典算法——值迭代和策略迭代通过Python代码实现带你深入理解其工作原理和工程实现细节。1. 环境准备与问题建模在开始编码前我们需要明确强化学习问题的基本框架。马尔可夫决策过程(MDP)是强化学习的数学基础包含状态集合S、动作集合A、转移概率P和奖励函数R四个核心要素。让我们先定义一个简单的网格世界环境作为实验场景import numpy as np class GridWorld: def __init__(self, size5): self.size size self.actions [up, down, left, right] self.goal (4, 4) # 右下角为目标位置 self.obstacles [(1, 1), (2, 2), (3, 3)] # 障碍物位置 self.rewards {self.goal: 10} # 到达目标奖励10分 self.gamma 0.9 # 折扣因子 def step(self, state, action): if state self.goal: return state, 0, True # 已到达目标 next_state list(state) if action up: next_state[0] max(0, next_state[0]-1) elif action down: next_state[0] min(self.size-1, next_state[0]1) elif action left: next_state[1] max(0, next_state[1]-1) elif action right: next_state[1] min(self.size-1, next_state[1]1) next_state tuple(next_state) if next_state in self.obstacles: return state, -1, False # 撞到障碍物 reward self.rewards.get(next_state, 0) done (next_state self.goal) return next_state, reward, done这个5×5的网格世界中右下角(4,4)是目标位置三个对角线位置设置了障碍物。智能体可以执行上、下、左、右四个动作到达目标获得10奖励碰到障碍物则获得-1惩罚。2. 值迭代算法实现值迭代基于贝尔曼最优方程通过不断更新状态值函数来逼近最优策略。其核心思想可以概括为初始化所有状态值V(s)对每个状态s计算所有可能动作的期望回报选择最大期望回报作为新的V(s)重复步骤2-3直到值函数收敛下面是Python实现代码def value_iteration(env, theta1e-6): V np.zeros((env.size, env.size)) while True: delta 0 for i in range(env.size): for j in range(env.size): state (i, j) if state in env.obstacles or state env.goal: continue v_old V[i][j] max_value -float(inf) for action in env.actions: next_state, reward, _ env.step(state, action) ni, nj next_state value reward env.gamma * V[ni][nj] if value max_value: max_value value V[i][j] max_value delta max(delta, abs(v_old - V[i][j])) if delta theta: break # 提取最优策略 policy {} for i in range(env.size): for j in range(env.size): state (i, j) if state in env.obstacles or state env.goal: continue best_action None best_value -float(inf) for action in env.actions: next_state, reward, _ env.step(state, action) ni, nj next_state value reward env.gamma * V[ni][nj] if value best_value: best_value value best_action action policy[state] best_action return V, policy关键实现细节theta参数控制收敛阈值当值函数更新幅度小于该值时停止迭代障碍物和目标状态的值固定为0不参与更新算法收敛后通过贪婪策略提取最优动作运行算法并可视化结果env GridWorld() V, policy value_iteration(env) print(最优值函数) print(np.round(V, 2)) print(\n最优策略示例) for i in range(env.size): for j in range(env.size): state (i, j) if state in policy: print(f状态({i},{j}): {policy[state]})3. 策略迭代算法实现策略迭代算法由策略评估和策略改进两个步骤交替进行策略评估计算当前策略下的状态值函数策略改进基于当前值函数改进策略重复上述步骤直到策略稳定Python实现如下def policy_evaluation(env, policy, V, theta1e-6): while True: delta 0 for i in range(env.size): for j in range(env.size): state (i, j) if state in env.obstacles or state env.goal: continue v_old V[i][j] action policy[state] next_state, reward, _ env.step(state, action) ni, nj next_state V[i][j] reward env.gamma * V[ni][nj] delta max(delta, abs(v_old - V[i][j])) if delta theta: break return V def policy_improvement(env, V, policy): policy_stable True for i in range(env.size): for j in range(env.size): state (i, j) if state in env.obstacles or state env.goal: continue old_action policy[state] best_action None best_value -float(inf) for action in env.actions: next_state, reward, _ env.step(state, action) ni, nj next_state value reward env.gamma * V[ni][nj] if value best_value: best_value value best_action action policy[state] best_action if old_action ! best_action: policy_stable False return policy, policy_stable def policy_iteration(env): # 初始化随机策略 policy {} for i in range(env.size): for j in range(env.size): state (i, j) if state not in env.obstacles and state ! env.goal: policy[state] np.random.choice(env.actions) V np.zeros((env.size, env.size)) while True: V policy_evaluation(env, policy, V) policy, policy_stable policy_improvement(env, V, policy) if policy_stable: break return V, policy策略迭代的特点策略评估阶段需要多次迭代直到值函数收敛策略改进阶段采用贪婪策略更新整体收敛速度通常比值迭代更快测试策略迭代算法env GridWorld() V_pi, policy_pi policy_iteration(env) print(策略迭代最优值函数) print(np.round(V_pi, 2)) print(\n策略迭代最优策略示例) for i in range(5): for j in range(5): state (i, j) if state in policy_pi: print(f状态({i},{j}): {policy_pi[state]})4. 算法对比与工程实践技巧值迭代和策略迭代都是解决MDP问题的动态规划方法但在实现细节和性能上存在差异特性值迭代策略迭代更新方式直接优化值函数交替进行策略评估与改进收敛速度相对较慢通常更快每次迭代计算成本较低较高需策略评估收敛中间策略不明确明确适用场景状态空间大策略空间简单工程实践中需要注意的几个关键点收敛条件设置# 值迭代收敛条件 if delta theta: break # 策略评估收敛条件 if delta theta: breaktheta值的选择需要权衡精度和计算成本通常设置为1e-4到1e-6之间。迭代次数限制为避免无限循环应设置最大迭代次数max_iter 1000 for _ in range(max_iter): # 迭代逻辑 if delta theta: break可视化监控实时绘制值函数或策略变化有助于调试import matplotlib.pyplot as plt def plot_value_function(V): plt.imshow(V, cmaphot) plt.colorbar() plt.show()性能优化技巧向量化计算使用NumPy矩阵运算替代循环并行化对状态更新进行并行处理稀疏矩阵对于大型状态空间使用稀疏矩阵存储# 向量化计算示例 def vectorized_value_iteration(env, theta1e-6): V np.zeros((env.size, env.size)) actions_map {up: (-1,0), down: (1,0), left: (0,-1), right: (0,1)} while True: V_prev V.copy() for action in env.actions: di, dj actions_map[action] next_i np.clip(np.arange(env.size)[:,None] di, 0, env.size-1) next_j np.clip(np.arange(env.size)[None,:] dj, 0, env.size-1) reward np.zeros((env.size, env.size)) reward[env.goal] 10 for obs in env.obstacles: reward[obs] -1 V_temp reward env.gamma * V_prev[next_i, next_j] if action env.actions[0]: V_new V_temp else: V_new np.maximum(V_new, V_temp) delta np.max(np.abs(V_new - V_prev)) V V_new if delta theta: break return V5. 高级话题截断策略迭代与贝尔曼最优方程截断策略迭代是值迭代和策略迭代的折中方案通过在策略评估阶段限制迭代次数来平衡计算成本和收敛速度。实现代码框架def truncated_policy_iteration(env, k3): policy initialize_random_policy() V np.zeros((env.size, env.size)) while True: # 截断策略评估只进行k次迭代 for _ in range(k): V partial_policy_evaluation(env, policy, V) # 策略改进 new_policy, policy_stable policy_improvement(env, V, policy) if policy_stable: break policy new_policy return V, policy贝尔曼最优方程为这些算法提供了理论基础V*(s) max_a [R(s,a) γ * Σ P(s|s,a) * V*(s)]其中V*(s)表示状态s的最优值函数这个方程表明最优值函数是自身的最佳估计。在实际项目中我发现值迭代更适合状态空间较大但策略空间相对简单的问题而策略迭代则在策略空间有明确结构时表现更优。截断策略迭代通过调整k值可以在两者之间找到平衡点通常k3到5就能获得不错的加速效果。

相关文章:

强化学习实战:用Python手把手实现值迭代与策略迭代算法(附完整代码)

强化学习实战:用Python手把手实现值迭代与策略迭代算法(附完整代码) 强化学习作为机器学习的重要分支,近年来在游戏AI、自动驾驶、机器人控制等领域展现出惊人潜力。对于初学者而言,理解算法原理固然重要,但…...

VideoAgentTrek-ScreenFilter视觉盛宴:处理4K超高清屏幕录像的效果与性能挑战

VideoAgentTrek-ScreenFilter视觉盛宴:处理4K超高清屏幕录像的效果与性能挑战 最近在折腾一些屏幕录像的后期处理,特别是那些4K分辨率、高帧率的超高清素材。说实话,直接处理这种级别的视频,对硬件和软件都是不小的考验。我试用了…...

Graphormer部署教程(RTX 4090):3.7GB模型显存占用仅18.2GB实测

Graphormer部署教程(RTX 4090):3.7GB模型显存占用仅18.2GB实测 1. 项目介绍 Graphormer是一种基于纯Transformer架构的图神经网络,专门为分子属性预测任务设计。这个模型在分子图(原子-键结构)的全局结构…...

Phi-4-mini-reasoning惊艳效果:自动识别题目所属数学分支并推荐解法策略

Phi-4-mini-reasoning惊艳效果:自动识别题目所属数学分支并推荐解法策略 1. 模型介绍 Phi-4-mini-reasoning是微软推出的3.8B参数轻量级开源模型,专为数学推理、逻辑推导和多步解题等强逻辑任务设计。这个模型主打"小参数、强推理、长上下文、低延…...

大模型加载优化二选一:DeepSpeed Zero-3 vs Hugging Face device_map,我该如何抉择?

大模型加载优化二选一:DeepSpeed Zero-3 vs Hugging Face device_map,我该如何抉择? 在资源受限的环境下运行大型语言模型(LLM)时,内存优化策略的选择往往决定了项目的成败。面对动辄数十亿参数的模型&…...

戴森球计划FactoryBluePrints蓝图库:从新手到专家的终极工厂建设指南

戴森球计划FactoryBluePrints蓝图库:从新手到专家的终极工厂建设指南 【免费下载链接】FactoryBluePrints 游戏戴森球计划的**工厂**蓝图仓库 项目地址: https://gitcode.com/GitHub_Trending/fa/FactoryBluePrints FactoryBluePrints蓝图库是戴森球计划游戏…...

射频工程师必备:如何用ADS仿真优化PA和LNA的噪声系数?

射频工程师必备:ADS仿真优化PA与LNA噪声系数的实战手册 在5G和物联网设备爆发式增长的今天,射频前端模块的性能直接决定了通信质量的上限。作为射频电路设计的核心环节,功率放大器(PA)和低噪声放大器(LNA)的噪声系数优化,往往是决…...

vLLM-v0.17.1GPU优化:显存碎片率<5%的PagedAttention内存管理实录

vLLM-v0.17.1 GPU优化&#xff1a;显存碎片率<5%的PagedAttention内存管理实录 1. vLLM框架简介 vLLM是一个专注于大语言模型(LLM)推理和服务的高性能开源库。这个项目最初由加州大学伯克利分校的天空计算实验室开发&#xff0c;现在已经发展成为一个由学术界和工业界共同…...

Ubuntu 22.04下用mingw-w64交叉编译Windows程序的完整指南(附CMake配置)

Ubuntu 22.04下用mingw-w64交叉编译Windows程序的完整指南&#xff08;附CMake配置&#xff09; 在跨平台开发领域&#xff0c;能够从Linux系统生成Windows可执行文件是一项极具实用价值的技能。对于使用Ubuntu 22.04 LTS的开发者来说&#xff0c;mingw-w64工具链提供了稳定高…...

3分钟彻底搞定Axure RP汉化:免费中文语言包完整指南

3分钟彻底搞定Axure RP汉化&#xff1a;免费中文语言包完整指南 【免费下载链接】axure-cn Chinese language file for Axure RP. Axure RP 简体中文语言包&#xff0c;不定期更新。支持 Axure 9、Axure 10。 项目地址: https://gitcode.com/gh_mirrors/ax/axure-cn 还在…...

人工智能应用- 走向未来:06.人与人工智能

智能时代的到来已是不可逆转的趋势。我们不得不承认一个现实&#xff1a;在某些领域&#xff0c;人工智能已经超越了普通人的能力&#xff0c;而且这一趋势正在加速。那么&#xff0c;人与人工智能的关系未来将如何演变&#xff1f;是竞争&#xff0c;还是共存&#xff1f;人工…...

终极指南:深度实战OpenCore Legacy Patcher让老旧Mac重获新生

终极指南&#xff1a;深度实战OpenCore Legacy Patcher让老旧Mac重获新生 【免费下载链接】OpenCore-Legacy-Patcher Experience macOS just like before 项目地址: https://gitcode.com/GitHub_Trending/op/OpenCore-Legacy-Patcher OpenCore Legacy Patcher是一款革命…...

Qt属性动画进阶:QPropertyAnimation在自定义控件动态效果中的应用

1. QPropertyAnimation基础入门 第一次接触Qt动画框架时&#xff0c;我被QPropertyAnimation的简洁API惊艳到了。这个看似简单的类&#xff0c;却能创造出丝滑流畅的界面动效。先来看个最基础的例子&#xff1a;让按钮从左向右滑动。你只需要5行核心代码&#xff1a; QProperty…...

多智能体AI交易系统技术落地实践:从架构设计到生产部署

多智能体AI交易系统技术落地实践&#xff1a;从架构设计到生产部署 【免费下载链接】TradingAgents-CN 基于多智能体LLM的中文金融交易框架 - TradingAgents中文增强版 项目地址: https://gitcode.com/GitHub_Trending/tr/TradingAgents-CN 在金融科技快速发展的今天&am…...

金蝶K3生产任务单状态查询SQL全解析:从计划到结案

1. 金蝶K3生产任务单状态查询SQL入门指南 第一次接触金蝶K3的生产任务单查询时&#xff0c;我也被那些复杂的SQL语句搞得头晕眼花。后来才发现&#xff0c;只要理解了系统设计逻辑&#xff0c;这些查询其实就像查快递单号一样简单。生产任务单在系统中会经历计划、确认、下达、…...

NaViL-9B图文理解教程:从上传图片到获取结构化描述的完整步骤

NaViL-9B图文理解教程&#xff1a;从上传图片到获取结构化描述的完整步骤 1. 认识NaViL-9B多模态模型 NaViL-9B是一款原生支持多模态交互的大语言模型&#xff0c;能够同时处理文本和图像信息。与传统的纯文本模型不同&#xff0c;它可以直接"看懂"图片内容&#x…...

别再只用Axios了!Vue3项目里用MinIO实现文件上传的保姆级教程(含.env配置避坑)

别再只用Axios了&#xff01;Vue3项目里用MinIO实现文件上传的保姆级教程&#xff08;含.env配置避坑&#xff09; 当你在Vue3项目中需要实现文件上传功能时&#xff0c;第一反应是不是封装一个Axios请求&#xff0c;把文件发送到后端服务器处理&#xff1f;这种传统方案虽然可…...

【2024最新】Polars 2.0清洗效率提升417%实测报告:从default配置到生产就绪配置的7阶演进路径

第一章&#xff1a;Polars 2.0大规模数据清洗的性能跃迁本质Polars 2.0 的核心突破并非简单提速&#xff0c;而是通过内存布局重构、零拷贝计算图优化与原生并行执行引擎的深度融合&#xff0c;彻底重构了大规模数据清洗的底层范式。其性能跃迁的本质在于&#xff1a;将传统 Da…...

DSQC346G 3HAB8101-8 机器人伺服驱动单元

DSQC346G 3HAB8101‑8 机器人伺服驱动单元介绍DSQC346G&#xff08;3HAB8101‑8&#xff09;是一款专用于工业机器人伺服系统的驱动单元&#xff0c;用于控制伺服电机的运动与输出&#xff0c;实现机器人关节或轴的精确位置、速度和力矩控制&#xff0c;是机器人驱动链中的核心…...

中兴光猫配置解密工具:3步解锁家庭网络自主权

中兴光猫配置解密工具&#xff1a;3步解锁家庭网络自主权 【免费下载链接】ZET-Optical-Network-Terminal-Decoder 项目地址: https://gitcode.com/gh_mirrors/ze/ZET-Optical-Network-Terminal-Decoder 你是否曾经因为无法修改光猫配置而感到束手无策&#xff1f;当网…...

大模型本地推理显卡怎么选?实测Tesla P40、Titan RTX和RTX A3000的性价比之战

大模型本地推理显卡选购实战指南&#xff1a;Tesla P40、Titan RTX与RTX A3000深度横评 当你在深夜调试一个70亿参数的LLM模型时&#xff0c;突然弹出的"CUDA out of memory"错误提示可能是每个AI开发者最不愿看到的画面。选择一张合适的推理显卡&#xff0c;往往意…...

手把手教你用Qt6和Arduino Uno打造实时数据监控面板(附串口数据粘包处理源码)

基于Qt6与Arduino Uno的工业级数据可视化系统开发实战 在工业物联网和智能硬件开发领域&#xff0c;实时数据监控是核心需求之一。想象一下这样的场景&#xff1a;车间里的温度传感器阵列通过Arduino采集数据&#xff0c;工程师在办公室的PC端就能实时查看温度曲线波动&#x…...

无人机飞控入门:如何理解Pixhawk/PX4里的那个“六自由度模型”?

无人机飞控入门&#xff1a;从代码视角理解PX4的六自由度模型 当你第一次打开PX4的EKF2&#xff08;扩展卡尔曼滤波&#xff09;模块代码时&#xff0c;那些关于body_frame、earth_frame和angular_rates的变量命名是否让你感到困惑&#xff1f;这些看似抽象的术语背后&#xff…...

手把手教你编译运行openHiTLS社区的FrodoKEM源码(附完整环境配置)

从零构建FrodoKEM开发环境&#xff1a;openHiTLS社区源码实战指南 当量子计算机从理论走向现实&#xff0c;传统加密算法正面临前所未有的挑战。FrodoKEM作为后量子密码学领域的明星算法&#xff0c;以其坚实的数学基础和简洁的实现逻辑&#xff0c;成为开发者探索抗量子加密技…...

手把手教你用JavaScript实现国密SM4加密(附Node.js与微信小程序兼容代码)

从零构建JavaScript国密SM4加密引擎&#xff1a;跨平台实战指南 国密SM4算法作为我国商用密码体系的核心标准&#xff0c;正在金融、政务等领域加速替代国际加密算法。但对于JavaScript开发者而言&#xff0c;直接可用的SM4实现往往面临三大痛点&#xff1a;Node.js与微信小程序…...

CosyVoice语音克隆实战:如何用300M轻量级模型实现跨语种音色复制

CosyVoice语音克隆实战&#xff1a;如何用300M轻量级模型实现跨语种音色复制 在数字内容创作领域&#xff0c;语音合成技术正经历着从机械朗读到情感化表达的质变。CosyVoice-300M作为一款轻量级语音克隆模型&#xff0c;以其仅300MB的体量实现了专业级的音色复制与跨语种转换能…...

保姆级教程:用ESP8266-01S和机智云固件,5分钟搞定智能硬件联网(附烧录软件下载)

5分钟极速上手&#xff1a;ESP8266-01S与机智云固件实战指南 当你想把一盏台灯变成手机可控的智能设备&#xff0c;或是让温湿度传感器数据实时上传云端时&#xff0c;ESP8266-01S这个小巧的Wi-Fi模块就是最佳选择。它价格低廉、功能强大&#xff0c;配合机智云的固件&#xf…...

深入解析STM32 SysTick定时器:从原理到时间片轮询实战

1. SysTick定时器的前世今生 第一次接触STM32的开发板时&#xff0c;我就被这个叫做SysTick的神秘定时器吸引了。当时我正为如何实现精确延时发愁&#xff0c;GPIO翻转测试显示软件延时误差高达30%&#xff0c;直到一位资深工程师提醒我&#xff1a;"内核里就藏着个高精度…...

eSearch一站式屏幕效率工具安装指南

eSearch一站式屏幕效率工具安装指南 【免费下载链接】eSearch 截屏 离线OCR 搜索翻译 以图搜图 贴图 录屏 万向滚动截屏 屏幕翻译 Screenshot Offline OCR Search Translate Search for picture Paste the picture on the screen Screen recorder Omnidirectional scrolling sc…...

保姆级教程:手把手教你用Python+Control库仿真PLL噪声传递函数

保姆级教程&#xff1a;手把手教你用PythonControl库仿真PLL噪声传递函数 锁相环&#xff08;PLL&#xff09;作为现代电子系统中的核心组件&#xff0c;其噪声特性直接影响通信质量、时钟精度等关键指标。但教科书上复杂的传递函数公式总让人望而生畏——直到你发现用几行Pyth…...