当前位置: 首页 > article >正文

从Gridworld到吃豆人:用Python拆解强化学习三大核心算法(值迭代、策略调参、Q学习)

从Gridworld到吃豆人Python实战强化学习三大核心算法1. 强化学习基础与马尔可夫决策过程想象一下你正在训练一只小狗完成障碍赛跑。每次它正确跳过障碍你会给予零食奖励如果撞到障碍则没有任何奖励。经过多次尝试小狗逐渐学会了最优路径——这就是强化学习的核心思想。在人工智能领域我们通过类似的试错奖励机制让智能体Agent学会在复杂环境中做出最佳决策。马尔可夫决策过程MDP为这种学习提供了数学框架。一个标准的MDP包含五个关键要素状态State环境当前情况的完整描述。在Gridworld中可能是智能体所在的网格坐标在吃豆人中则包括Pacman位置、剩余豆子分布等。动作Action智能体在每个状态可以采取的行为。Gridworld中可能是上、下、左、右移动吃豆人中还包括停止动作。转移概率Transition Probability执行某动作后状态转换的可能性。Gridworld中向北移动可能有80%概率成功20%概率因噪声而偏移。奖励函数Reward即时反馈信号。吃豆人吃豆得10分被幽灵抓到则-100分。折扣因子γ权衡即时奖励与未来奖励重要性的参数通常取值0.9到0.99。# Gridworld状态示例 class GridWorldState: def __init__(self, x, y): self.x x # 水平坐标 self.y y # 垂直坐标 self.is_terminal False # 是否为终止状态 def __eq__(self, other): return self.x other.x and self.y other.y贝尔曼方程是MDP的核心数学工具它建立了当前状态价值与后续状态价值之间的关系V*(s) max_a [ R(s,a) γ * Σ_s P(s|s,a) * V*(s) ]其中V*(s)表示状态s的最优价值R(s,a)是立即奖励P(s|s,a)是转移概率。这个递归公式表明当前状态的最优价值等于立即奖励加上所有可能后续状态的最优价值的折扣期望。2. 值迭代算法离线规划的经典方法值迭代Value Iteration属于离线规划算法它假设我们完全了解环境的动态特性即知道所有状态的转移概率和奖励。这种方法通过反复迭代更新状态价值最终收敛到最优价值函数。算法实现可分为三个关键步骤初始化将所有状态价值设为0或随机值迭代更新对每个状态应用贝尔曼最优方程策略提取当价值函数收敛后选择使Q值最大的动作def value_iteration(mdp, epsilon0.001, max_iterations1000): # 初始化所有状态价值为0 V {state: 0 for state in mdp.get_states()} for i in range(max_iterations): delta 0 new_V {} for state in mdp.get_states(): if mdp.is_terminal(state): new_V[state] 0 continue # 计算所有可能动作的Q值 q_values [] for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) q_values.append(q_value) # 取最大Q值作为新状态价值 new_V[state] max(q_values) if q_values else 0 delta max(delta, abs(new_V[state] - V[state])) V new_V if delta epsilon: # 收敛判断 break # 提取最优策略 policy {} for state in mdp.get_states(): if mdp.is_terminal(state): policy[state] None continue best_action None best_value -float(inf) for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) if q_value best_value: best_value q_value best_action action policy[state] best_action return V, policy值迭代有两个重要特性值得注意收敛保证在折扣因子γ1的情况下算法保证收敛到唯一最优解异步更新可以使用就地更新用新值立即覆盖旧值或同步更新保留旧值直到所有状态计算完成在Gridworld实验中我们可以观察到值迭代的典型行为迭代次数最大价值变化策略稳定性11.00%50.4530%100.1265%200.00198%提示实际应用中通常会设置一个较小的阈值如0.001来判断收敛而非固定迭代次数。3. Q学习无需环境模型的在线学习与值迭代不同Q学习Q-Learning是一种无模型的强化学习算法它不需要预先知道环境的转移概率。这种特性使其特别适合真实世界的应用场景如游戏AI、机器人控制等。Q学习的核心是Q函数表示在状态s采取动作a后遵循最优策略的期望总回报Q(s,a) R(s,a) γ * max_a Q(s,a)算法通过以下更新规则逐步优化Q值Q(s,a) ← (1-α)Q(s,a) α[R γ * max_a Q(s,a)]其中α是学习率控制新信息覆盖旧值的速度。class QLearningAgent: def __init__(self, actions, alpha0.1, gamma0.9, epsilon0.1): self.q_table defaultdict(float) # Q值表 self.actions actions # 可用动作集 self.alpha alpha # 学习率 self.gamma gamma # 折扣因子 self.epsilon epsilon # 探索概率 def get_action(self, state): # ε-greedy策略选择动作 if random.random() self.epsilon: return random.choice(self.actions) else: return self.best_action(state) def best_action(self, state): # 找出当前状态下Q值最大的动作 q_values [self.q_table[(state, a)] for a in self.actions] max_q max(q_values) # 可能有多个动作具有相同Q值 best_actions [a for a in self.actions if self.q_table[(state, a)] max_q] return random.choice(best_actions) def learn(self, state, action, reward, next_state): # Q学习更新规则 current_q self.q_table[(state, action)] max_next_q max([self.q_table[(next_state, a)] for a in self.actions]) new_q current_q self.alpha * ( reward self.gamma * max_next_q - current_q) self.q_table[(state, action)] new_q在吃豆人游戏中应用Q学习时我们需要特别注意状态表示。完整的状态空间包括Pacman位置 (x,y)每个豆子的存在与否 (2^d种可能d是豆子数量)每个幽灵的位置和状态 (正常/恐慌)这种组合会导致状态空间爆炸。解决方法包括特征工程提取关键特征而非原始状态函数逼近使用神经网络近似Q函数即DQN状态抽象将相似状态分组处理注意Q学习属于off-policy算法意味着它可以学习最优策略同时遵循不同的行为策略如ε-greedy进行探索。4. 策略调参折扣因子与奖励设计的艺术强化学习算法的性能很大程度上取决于超参数设置和奖励函数设计。以Gridworld为例我们可以通过调整三个关键参数显著改变智能体行为折扣因子γ控制未来奖励的重要性γ接近0近视只关心即时奖励γ接近1远视考虑长期回报噪声参数ε动作执行的不确定性高噪声动作结果不可靠鼓励保守策略低噪声动作结果确定可采取更激进策略生存奖励Living Reward每步存活的小额奖励/惩罚正奖励鼓励延长生存时间负奖励鼓励快速完成任务下表展示了不同参数组合对Gridworld智能体行为的影响场景折扣因子噪声生存奖励典型行为快速安全0.50.1-0.1选择最近出口避开危险冒险捷径0.90.0-0.5冒险穿越危险区域获取高回报保守长线0.950.20.1绕远路确保安全无限徘徊0.990.01.0避免终止状态永远移动奖励函数设计是强化学习中最具挑战性的环节之一。常见的设计原则包括稀疏奖励只在关键事件给予奖励如吃豆、到达终点优点易于实现缺点学习效率低可能需要大量探索密集奖励提供丰富的中间反馈如距离目标的接近程度优点加速学习缺点可能导致奖励黑客找到获取奖励但不解决问题的策略基于势能的奖励使用启发式函数引导学习def potential_based_reward(state, next_state): base_reward ... # 基础奖励 potential heuristic(next_state) - heuristic(state) return base_reward potential在吃豆人项目中一个有效的奖励设计方案可能是def get_reward(state, action, next_state): if eaten_ghost(next_state): return 50 # 吃到恐慌状态的幽灵 elif eaten_pellet(next_state): return 10 # 吃到能量豆 elif eaten_food(next_state): return 1 # 吃到普通豆子 elif pacman_died(next_state): return -100 # 被幽灵抓到 else: return -0.1 # 每步小惩罚鼓励高效通关5. 算法对比与实战建议值迭代、策略迭代和Q学习代表了强化学习的不同方法论。理解它们的区别对实际应用至关重要特性值迭代Q学习策略梯度需求完整MDP模型仅需状态-动作-奖励仅需状态-动作-奖励更新方式离线批量更新在线增量更新在线/离线均可收敛性保证收敛在适当条件下收敛可能收敛到局部最优适用场景小规模已知环境中大规模未知环境高维/连续动作空间实现复杂度中等较低较高对于Python实现强化学习算法我有几个实用建议使用面向对象设计将MDP、Agent等概念封装为类class MDP: def get_states(self): ... def get_actions(self, state): ... def get_transitions(self, state, action): ... class Agent: def __init__(self, mdp): ... def update(self, state, action, reward, next_state): ... def get_action(self, state): ...可视化调试绘制价值函数和策略变化def plot_values(V): grid np.zeros((width, height)) for (x,y), v in V.items(): grid[x][y] v plt.imshow(grid.T, cmaphot) plt.colorbar()参数敏感性测试系统探索超参数空间for gamma in [0.5, 0.7, 0.9, 0.95, 0.99]: for epsilon in [0.01, 0.05, 0.1, 0.2]: agent QLearningAgent(gammagamma, epsilonepsilon) rewards train(agent, env, episodes1000) plot_learning_curve(rewards, labelfγ{gamma}, ε{epsilon})使用标准测试环境从Gridworld扩展到更复杂环境OpenAI Gymgym.make(FrozenLake-v1)PyGame自定义吃豆人环境Unity ML-Agents3D复杂环境在真实项目中我发现Q学习结合以下技巧效果显著提升经验回放Experience Replay存储转移样本(s,a,r,s)在缓冲区随机抽样训练目标网络Target Network使用独立网络生成目标Q值稳定训练双Q学习Double Q-Learning分离动作选择和价值评估减少过高估计class DQNAgent: def __init__(self, state_size, action_size): self.model self._build_model() # 主网络 self.target_model self._build_model() # 目标网络 self.memory deque(maxlen2000) # 经验回放缓冲区 def remember(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) def replay(self, batch_size): minibatch random.sample(self.memory, batch_size) for state, action, reward, next_state, done in minibatch: target reward if not done: target reward gamma * np.amax( self.target_model.predict(next_state)[0]) target_f self.model.predict(state) target_f[0][action] target self.model.fit(state, target_f, epochs1, verbose0) def update_target(self): self.target_model.set_weights(self.model.get_weights())

相关文章:

从Gridworld到吃豆人:用Python拆解强化学习三大核心算法(值迭代、策略调参、Q学习)

从Gridworld到吃豆人:Python实战强化学习三大核心算法 1. 强化学习基础与马尔可夫决策过程 想象一下,你正在训练一只小狗完成障碍赛跑。每次它正确跳过障碍,你会给予零食奖励;如果撞到障碍,则没有任何奖励。经过多次尝…...

从‘下载失败弹个错’到‘优雅的用户体验’:前端文件下载错误处理与PDF预览的进阶实践

从‘下载失败弹个错’到‘优雅的用户体验’:前端文件下载错误处理与PDF预览的进阶实践 在当今的Web应用中,文件下载功能几乎是每个系统的标配。然而,很多开发者往往只关注功能的实现,而忽略了异常处理和用户体验的细节。当用户点…...

【稀缺预警】Python 3.14 JIT编译器深度剖析:3类隐性CPU浪费模式+2套自动降本脚本(附真实AWS账单对比图)

第一章:Python 3.14 JIT编译器的演进逻辑与成本敏感性定位Python 3.14 并非官方发布的正式版本(截至2024年,CPython最新稳定版为3.12,3.13处于预发布阶段),但本章以假设性技术前瞻视角,探讨若Py…...

小白也能玩转的AI语音合成:超级千问语音世界快速体验报告

小白也能玩转的AI语音合成:超级千问语音世界快速体验报告 1. 初识超级千问语音世界 第一次打开超级千问语音世界,我仿佛穿越回了童年玩红白机的时代。复古的像素风界面、跳跃的蘑菇按钮、会移动的小乌龟,这哪里是AI工具,分明是个…...

Matlab与VeriStand无缝集成:开发环境配置全攻略

1. 环境准备:软件安装与版本匹配 搞过Matlab和VeriStand集成的朋友都知道,最头疼的不是写代码,而是环境配置。我当年第一次尝试时,光软件版本兼容性问题就折腾了两天。这里分享几个血泪教训: 首先Matlab和VeriStand的版…...

基于StructBERT的代码相似性检测在编程教育中的应用

基于StructBERT的代码相似性检测在编程教育中的应用 1. 引言 如果你是编程课的老师,面对几十份甚至上百份学生提交的作业,最头疼的是什么?是逐行检查代码逻辑,还是判断学生之间是否存在抄袭?传统的代码相似性检查工具…...

OpCore Simplify:三步搞定黑苹果EFI配置的智能工具

OpCore Simplify:三步搞定黑苹果EFI配置的智能工具 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 还在为黑苹果的复杂EFI配置而烦恼吗&am…...

保姆级教程:用BERT微调一个智能家居语音助手的意图识别模型(含完整代码)

智能家居场景下的BERT意图识别实战:从数据标注到模型部署 想象一下,当你对家里的智能音箱说"把客厅灯调暗一点"时,设备能准确理解你的意图并执行操作。这种自然交互的背后,是意图识别技术在发挥作用。不同于通用对话系…...

三驾马车驱动:OpenRGB如何重塑跨平台RGB灯光统一控制体验

三驾马车驱动:OpenRGB如何重塑跨平台RGB灯光统一控制体验 【免费下载链接】OpenRGB Open source RGB lighting control that doesnt depend on manufacturer software. Supports Windows, Linux, MacOS. Mirror of https://gitlab.com/CalcProgrammer1/OpenRGB. Rel…...

BepInEx:Unity游戏功能扩展的插件化架构实践指南

BepInEx:Unity游戏功能扩展的插件化架构实践指南 【免费下载链接】BepInEx Unity / XNA game patcher and plugin framework 项目地址: https://gitcode.com/GitHub_Trending/be/BepInEx BepInEx作为针对Unity/XNA引擎的开源插件框架,通过预加载机…...

Python自动化运维实战:用Paramiko库5分钟搞定SSH批量管理(附完整代码)

Python自动化运维实战:用Paramiko库5分钟搞定SSH批量管理(附完整代码) 运维工程师的日常工作中,服务器管理往往占据大量时间。想象一下,当你需要同时更新50台服务器的安全补丁,或者批量收集100台设备的日志…...

SDMatte效果深度评测:复杂发丝与透明物体的抠图表现

SDMatte效果深度评测:复杂发丝与透明物体的抠图表现 1. 开篇:当AI遇到抠图难题 抠图技术发展了几十年,但遇到复杂发丝和透明物体时,传统方法往往束手无策。直到AI技术的介入,这个老大难问题才有了突破性进展。SDMatt…...

s2-pro语音合成镜像快速上手:5分钟搞定专业级文字转语音

s2-pro语音合成镜像快速上手:5分钟搞定专业级文字转语音 1. 镜像简介与核心功能 s2-pro是Fish Audio开源的专业级语音合成模型镜像,能够将文本转换为自然流畅的语音。这个镜像特别适合需要快速部署文字转语音功能的开发者、内容创作者和企业用户。 1.…...

如何突破抖音内容保存限制?开源工具douyin-downloader的创新解决方案

如何突破抖音内容保存限制?开源工具douyin-downloader的创新解决方案 【免费下载链接】douyin-downloader 项目地址: https://gitcode.com/GitHub_Trending/do/douyin-downloader 在数字内容爆炸的时代,抖音已成为知识传播与创意展示的重要平台。…...

GD32F450VK移植RT-Thread时如何避免SRAM分区导致的HardFault(附解决方案)

GD32F450VK移植RT-Thread的SRAM分区陷阱与实战解决方案 在嵌入式开发领域,GD32F4系列微控制器凭借其出色的性价比和丰富的外设资源,正逐渐成为工业控制、物联网终端等场景的热门选择。然而,当开发者尝试将RT-Thread实时操作系统移植到GD32F4…...

Chord - Ink Shadow 跨模态应用探索:连接文本与MATLAB科学计算

Chord - Ink & Shadow 跨模态应用探索:连接文本与MATLAB科学计算 你有没有过这样的经历?面对一堆实验数据,脑子里已经想好了要画个什么样的图来分析,但打开MATLAB,却卡在了写代码这一步。复杂的函数名、繁琐的语法…...

Unity序列化为何拒绝多态

一个让无数开发者抓狂的"bug",其实是一个深思熟虑的设计决策 一、开篇:一个周五下午的惨案 故事从一个看似完美的设计开始。 你正在开发一个RPG游戏的技能系统。你学过面向对象,你知道继承和多态是好东西。于是你写出了这样优雅的代码: [System.Serializable]…...

OpenClaw+GLM-4.7-Flash开发提效:日志分析+异常告警自动化

OpenClawGLM-4.7-Flash开发提效:日志分析异常告警自动化 1. 为什么需要自动化日志监控 作为开发者,我每天要面对服务器、应用和中间件产生的海量日志。曾经为了排查一个线上问题,我需要手动grep几十MB的日志文件,眼睛盯着屏幕找异…...

Unity内联序列化类的秘密

一个藏在Inspector面板背后的"俄罗斯套娃" 一、开篇:一个看似简单的问题 你在Unity中写了一个脚本: public class Player : MonoBehaviour {public int health;public float speed...

告别默认ResNet-50:为你的病理图像特征提取,升级CLAM+CONCH v1.5的保姆级指南

告别默认ResNet-50:为你的病理图像特征提取,升级CLAMCONCH v1.5的保姆级指南 在病理图像分析领域,特征提取的质量直接影响下游任务的性能表现。许多研究者发现,使用默认的ImageNet预训练ResNet-50模型提取的特征,往往…...

Claude Tool Use 怎么用?从零到生产的完整教程(2026)

上周接了个需求,做一个能查天气、查数据库、还能发邮件的 AI 助手。一开始想着用 LangChain 套一层,后来发现 Claude 原生的 Tool Use(也叫 Function Calling)已经很成熟了,根本不需要额外框架。但官方文档写得有点绕&…...

TurboWarp Packager:让Scratch作品突破平台限制的跨平台打包工具

TurboWarp Packager:让Scratch作品突破平台限制的跨平台打包工具 【免费下载链接】packager Converts Scratch projects into HTML files, zip archives, or executable programs for Windows, macOS, and Linux. 项目地址: https://gitcode.com/gh_mirrors/pack/…...

电脑PC下载SMART200PLC和SMART 触摸屏程序的方法

西门子S7-200smartPLC和smart触摸屏通过本笔记本下载程序时,笔记本和smart触摸屏需完成相应设置,即笔记本电脑和smart触摸屏需通过固定IP通信下载程序,设置方法如下,本文档设置之前默认已将电脑、PLC和触摸屏通过RJ45接口网线连接…...

DeOldify图像上色服务完整流程:基于Flask的Web服务部署与使用

DeOldify图像上色服务完整流程:基于Flask的Web服务部署与使用 1. 项目概述与核心功能 DeOldify图像上色服务是一个基于深度学习技术的Web应用,能够将黑白或褪色的老照片自动转换为彩色图像。这个项目通过简单的Web界面,让用户无需任何技术背…...

springboot+vue基于web的大学生课程排课管理系统设计

目录 功能模块分析后台管理系统(SpringBoot)前端系统(Vue) 技术实现要点 项目技术支持源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作 功能模块分析 后台管理系统(SpringBoot&…...

CTF新手必看:攻防世界幂数加密题解(附Python脚本)

CTF密码学实战:从零破解幂数加密的完整指南 第一次接触CTF密码学题目时,看到那串神秘数字"8842101220480224404014224202480122",我的大脑就像被加密了一样完全空白。直到理解了幂数加密的精髓,才发现这不过是字母游戏…...

基于hadoop+spark+hive 机器学习物流管理系统 货运路线规划系统 智慧交通 计算机毕业设计 Echarts可视化

1、项目介绍 技术栈: Python语言、Django框架、Echarts可视化、MySQL数据库、HTML、报表、物流信息、多角色登录、物流管理该系统采用python和django两种常见的框架,通过MVT来实现对数据集 成和分析,从而更好地满足各种需求。此外&#xff0c…...

手把手教你用FreeRTOS创建第一个任务:从栈初始化到SVC调用的完整流程

深入解析FreeRTOS任务启动机制:从栈初始化到任务切换的实战指南 在嵌入式开发领域,实时操作系统(RTOS)已成为复杂项目的标配工具。作为开源RTOS中的佼佼者,FreeRTOS凭借其轻量级、可移植性强等特点,在STM32等Cortex-M系列MCU上广…...

泛微OA E9提醒功能实战:手把手教你用HTML美化定时邮件,告别枯燥系统通知

泛微OA E9邮件提醒设计指南:打造高转化率的HTML通知模板 每周五下午3点,市场部的李经理都会收到一封来自OA系统的周报提醒邮件。与往常不同的是,这次邮件的设计让人眼前一亮——精致的品牌配色、清晰的行动按钮、适配手机的版式布局。原本被…...

APIFox签名生成实战:从环境变量配置到MD5签名一键搞定

APIFox签名生成实战:从环境变量配置到MD5签名一键搞定 在接口开发与测试过程中,签名机制是保障接口安全性的重要手段。APIFox作为一款强大的API协作平台,提供了灵活的脚本功能,能够帮助开发者快速实现签名生成与自动化测试。本文将…...