当前位置: 首页 > article >正文

第26篇:强化学习实战:训练AI玩“贪吃蛇”——决策智能的第一步(项目实战)

文章目录项目背景技术选型架构设计核心实现踩坑记录效果对比项目背景在之前的文章中我们探讨了监督学习和无监督学习。但AI的“智能”不仅在于识别和分类更在于自主决策。这就是强化学习的核心魅力。作为AI工程师我一直在寻找一个直观又有趣的项目来入门强化学习。最终我选择了“贪吃蛇”——这个经典游戏规则简单但策略空间不小非常适合作为决策智能的“Hello World”。为什么是贪吃蛇首先它的状态空间蛇的位置、食物位置、身体长度和动作空间上、下、左、右都相对有限便于建模。其次其目标吃到食物、避免撞墙或撞到自己非常明确奖励信号吃到食物10死亡-10其他步-0.1以鼓励效率设计直观。通过这个项目我们可以亲手搭建一个从“零知识”开始通过不断试错最终学会玩游戏的AI深刻理解强化学习的训练闭环。技术选型在动手之前我们需要选择合适的技术栈。强化学习库有很多经过一番对比我选择了Stable-Baselines3。为什么是 Stable-Baselines3它基于PyTorch是经典库Stable-Baselines的升级版API设计非常清晰、统一。对于像我们这样的实践者来说它封装了PPO、DQN、A2C等主流算法让我们不必从零实现复杂的神经网络和训练逻辑能更专注于环境交互和策略学习本身。这就像用Keras快速搭建深度学习模型一样高效。环境模拟器我们使用PyGame来构建贪吃蛇游戏环境。它轻量、易用能让我们方便地控制游戏渲染、获取状态和接收动作指令。辅助工具使用OpenAI Gym的接口规范来封装我们的游戏环境。Gym定义了一套标准接口reset,step,render等Stable-Baselines3 与其完美兼容。这样做的好处是我们的环境可以无缝接入任何遵循Gym规范的算法库。最终的技术栈组合PyGame环境 Gym接口 Stable-Baselines3算法。这个组合在易用性和功能性上取得了很好的平衡。架构设计整个项目的架构遵循强化学习的经典范式智能体Agent与环境Environment交互。环境SnakeEnv基于PyGame和Gym接口实现。核心方法reset(): 初始化游戏返回初始状态如蛇头位置、食物位置、方向等构成的向量或图像。step(action): 执行动作0/1/2/3更新游戏状态计算奖励返回新状态 奖励 是否结束 额外信息。状态设计这是第一个关键决策点。为了简单起步我最初选择了低维特征向量包含蛇头与食物的相对方向、蛇头临近四个方向是否有障碍墙或自身等。这种设计能极大减小状态空间加速训练。奖励设计这是引导智能体学习的“指挥棒”。我的设计是吃到食物10游戏死亡-10每走一步-0.1鼓励尽快找到食物。智能体Agent由 Stable-Baselines3 提供的算法如PPO实例化。内部包含一个策略网络Policy Network通常是一个多层感知机MLP输入状态输出动作的概率分布。智能体的职责是根据当前状态选择动作并从环境反馈的状态动作奖励新状态序列中学习。训练循环由 Stable-Baselines3 的model.learn()方法封装。其内部大致流程是智能体与环境交互收集一定量的经验数据然后用这些数据更新策略网络循环往复。动作 action奖励 reward 新状态 new_state游戏状态/图像经验数据 s, a, r, s更新网络参数智能体 Policy NetworkSnakeEnv 游戏环境状态预处理算法学习模块 PPO核心实现接下来我们看看几个最核心的代码片段。1. 环境实现关键部分importpygameimportnumpyasnpimportgymfromgymimportspacesclassSnakeEnv(gym.Env):metadata{render.modes:[human]}def__init__(self,grid_size10):super(SnakeEnv,self).__init__()self.grid_sizegrid_size# 动作空间4个离散动作self.action_spacespaces.Discrete(4)# 状态空间一个自定义维度的向量例如[蛇头x, 蛇头y, 食物x, 食物y, 危险方向...]# 这里简化实际维度需要根据特征设计确定self.observation_spacespaces.Box(low0,highgrid_size,shape(11,),dtypenp.float32)# 初始化pygame仅在render时真正初始化self.screenNoneself.clockNoneself.reset()defreset(self):# 初始化蛇放在中间长度为3self.snake[(5,5),(5,4),(5,3)]self.direction0# 0:右, 1:下, 2:左, 3:上self._place_food()self.doneFalseself.steps0returnself._get_observation()# 返回状态向量defstep(self,action):self.steps1reward-0.1# 每步小惩罚鼓励效率# 1. 更新方向防止直接反向ifaction0andself.direction!2:self.direction0elifaction1andself.direction!3:self.direction1# ... 其他方向类似# 2. 移动蛇头head_x,head_yself.snake[0]ifself.direction0:new_head(head_x1,head_y)# ... 计算新蛇头位置# 3. 检查碰撞if(new_headinself.snakeornew_head[0]0ornew_head[0]self.grid_sizeornew_head[1]0ornew_head[1]self.grid_size):self.doneTruereward-10.0returnself._get_observation(),reward,self.done,{}# 4. 检查是否吃到食物self.snake.insert(0,new_head)ifnew_headself.food:reward10.0self._place_food()else:self.snake.pop()# 没吃到移除尾部returnself._get_observation(),reward,self.done,{}def_get_observation(self):将游戏状态转换为特征向量head_x,head_yself.snake[0]food_x,food_yself.food# 特征示例食物相对方向、四个方向是否有危险obs[head_x/self.grid_size,head_y/self.grid_size,# 归一化food_x/self.grid_size,food_y/self.grid_size,(food_x-head_x)/self.grid_size,(food_y-head_y)/self.grid_size,# 检查四个方向是否危险是墙或自身self._is_dangerous((head_x1,head_y)),self._is_dangerous((head_x-1,head_y)),self._is_dangerous((head_x,head_y1)),self._is_dangerous((head_x,head_y-1)),float(len(self.snake))/(self.grid_size**2)# 蛇长占比]returnnp.array(obs,dtypenp.float32)def_is_dangerous(self,pos):return(posinself.snakeorpos[0]0orpos[0]self.grid_sizeorpos[1]0orpos[1]self.grid_size)2. 训练智能体fromstable_baselines3importPPOfromstable_baselines3.common.env_checkerimportcheck_env# 1. 创建并检查环境envSnakeEnv(grid_size10)check_env(env)# 重要确保环境符合Gym规范# 2. 创建PPO智能体# MlpPolicy指使用多层感知机作为策略网络modelPPO(MlpPolicy,env,verbose1,learning_rate3e-4,n_steps2048,# 每次收集多少步数据再更新batch_size64,n_epochs10,# 每次更新时用数据训练多少轮gamma0.99)# 折扣因子权衡当前和未来奖励# 3. 开始训练print(开始训练...)model.learn(total_timesteps100000)# 总共交互10万步print(训练完成)# 4. 保存模型model.save(ppo_snake)踩坑记录这个项目看似简单但实际训练中我踩了不少坑这里分享两个最典型的坑1奖励设计不当导致“僵尸蛇”现象初期训练时蛇经常一动不动或者在一个小范围内来回转圈直到步数耗尽。它似乎“放弃”了寻找食物。排查分析日志发现蛇很快发现主动去寻找食物风险很高容易撞墙或自己而每步的惩罚-0.1相对于死亡惩罚-10微不足道。因此原地不动或小范围安全移动的长期累积奖励比冒险寻找食物更高。这是一个典型的奖励设计问题。解决调整奖励结构。我增加了“每走一步”的微小负奖励从-0.01调到-0.1并引入了一个稀疏的正向奖励例如当蛇头向食物靠近时给予0.1的小奖励基于曼哈顿距离缩短。这就像给迷路的人一个指南针引导它朝着正确方向前进而不仅仅是惩罚错误。坑2状态表征信息不足现象蛇学会了吃食物但长度变长后非常容易在转弯时撞到自己。它似乎“看不见”自己的身体。排查我最初的状态特征只包含了蛇头和食物的位置以及紧挨着蛇头四个方向是否有障碍。当蛇身变长时这种“近视”的感知无法预判更远一点的自身位置。解决我改进了_get_observation函数。除了临近危险我还加入了更远距离的视线检测例如朝四个方向看多远会遇到障碍或食物并将整个蛇身的相对位置信息如身体各节相对于头部的方向进行编码后输入网络。这相当于给蛇装上了“雷达”使其有了更好的空间感知能力。效果对比经过约10万步的训练我们可以直观地看到AI的进步训练初期 1万步蛇的行为完全是随机的走几步就撞墙或撞到自己平均长度在3-4节。训练中期~5万步蛇学会了主动追踪食物能吃到几个但策略不稳定长到7-8节后容易因“近视”而自杀。训练后期 8万步蛇能稳定地寻找食物并开始展现出“绕行”自己身体的初步能力平均长度能达到15节以上有时能几乎填满小半个棋盘。将训练好的模型加载并进行测试效果非常直观# 加载模型并测试modelPPO.load(ppo_snake)obsenv.reset()foriinrange(1000):action,_statesmodel.predict(obs,deterministicTrue)# 使用确定性策略obs,reward,done,infoenv.step(action)env.render()# 可视化ifdone:obsenv.reset()pygame.quit()通过这个项目我们完整地走通了强化学习的“环境搭建-智能体训练-策略评估”流程。它不仅是贪吃蛇AI更是理解智能决策如何从试错中诞生的绝佳范例。下一步你可以尝试更换算法如DQN、使用图像作为状态输入CNN网络甚至挑战更复杂的游戏环境。如有问题欢迎评论区交流持续更新中…

相关文章:

第26篇:强化学习实战:训练AI玩“贪吃蛇”——决策智能的第一步(项目实战)

文章目录项目背景技术选型架构设计核心实现踩坑记录效果对比项目背景 在之前的文章中,我们探讨了监督学习和无监督学习。但AI的“智能”不仅在于识别和分类,更在于自主决策。这就是强化学习的核心魅力。作为AI工程师,我一直在寻找一个直观又…...

免费精灵图打包工具:游戏与网页开发者的性能优化利器 [特殊字符]

免费精灵图打包工具:游戏与网页开发者的性能优化利器 🚀 【免费下载链接】free-tex-packer Free texture packer 项目地址: https://gitcode.com/gh_mirrors/fr/free-tex-packer 还在为游戏加载缓慢而烦恼?或者网页上几十个小图标让页…...

SCI/IF的本质:权力异化与变现的工具,无关科学与学术 |The Essence of SCI/IF: A Tool for Power Alienation and Monetization

SCI/IF的本质:权力异化与变现的工具,无关科学与学术所谓SCI(科学引文索引),表面看似是具有参考价值的学术工具,实则是一套权力异化与快速变现的工业化流水线,它用“引文、影响因子(I…...

小林计算机网络・传输篇TCP/UDP|三次握手|四次挥手|可靠传输

目录 传输层 说一下tcp的头部 TCP三次握手过程说一下? tcp为什么需要三次握手建立连接? TCP 三次握手,客户端第三次发送的确认包丢失了发生什么? 服务端发送第二个报文后连接的状态进入什么状态 三次握手和 accept 是什么关…...

用taskt释放Windows生产力:零代码自动化办公实战

用taskt释放Windows生产力:零代码自动化办公实战 【免费下载链接】taskt taskt (pronounced tasked and formely sharpRPA) is free and open-source robotic process automation (rpa) built in C# powered by the .NET Framework 项目地址: https://gitcode.com…...

【技术解析】轻量级超分新范式:CNN与Transformer混合架构的设计与实践

1. 为什么需要轻量级超分技术? 想象一下你用手机拍了一张照片,放大后发现细节模糊不清——这就是低分辨率图像放大的典型问题。传统超分辨率算法要么效果差强人意,要么需要消耗大量计算资源。在实际应用中,我们常常面临这样的矛盾…...

LV-DOT —— 用于自主机器人导航的激光雷达-视觉动态障碍物检测与跟踪文献解读

LV-DOT: LiDAR-Visual Dynamic Obstacle Detection and Tracking for Autonomous Robot Navigation文献信息 标题:LV-DOT: LiDAR-visual dynamic obstacle detection and tracking for autonomous robot navigation作者:Zhefan Xu, Haoyu Shen, Xinming …...

电路笔记(PCB) : 嘉立创EDA 导入、查找、设计管理器(快速寻找网络标签)功能+DRC错误检查和处理

文章目录导入功能查找功能设计管理器图层查看内电层DRC错误规则设置线距问题填充和焊盘距离太近CG导入功能 查找功能 可查找多种类型,如原件名称、网络标签等 设计管理器 图层查看 内电层 PCB多层板-电源分割PCB - 工具 - 图层管理器 - 内电层绘制线条绘制区域Shif…...

终极指南:如何绕过Phison 2251-03启动模式限制实现永久性固件修改

终极指南:如何绕过Phison 2251-03启动模式限制实现永久性固件修改 【免费下载链接】Psychson Phison 2251-03 (2303) Custom Firmware & Existing Firmware Patches (BadUSB) 项目地址: https://gitcode.com/gh_mirrors/ps/Psychson Psychson&#xff08…...

Focal状态管理库终极指南:如何用响应式编程简化React应用开发

Focal状态管理库终极指南:如何用响应式编程简化React应用开发 【免费下载链接】focal Program user interfaces the FRP way. 项目地址: https://gitcode.com/gh_mirrors/fo/focal Focal是一个基于FRP(函数式响应式编程)理念的状态管理…...

终极指南:理解CHIPageControl Puya的CADisplayLink驱动实时动画原理

终极指南:理解CHIPageControl Puya的CADisplayLink驱动实时动画原理 【免费下载链接】CHIPageControl A set of cool animated page controls written in Swift to replace boring UIPageControl. Mady by ChiliLabs - https://chililabs.io 项目地址: https://gi…...

终极指南:如何利用LCUI实现Flexbox与Block布局的完美结合

终极指南:如何利用LCUI实现Flexbox与Block布局的完美结合 【免费下载链接】LCUI C library for building user interfaces 项目地址: https://gitcode.com/gh_mirrors/lc/LCUI LCUI是一个强大的C语言用户界面库,它将Flexbox与Block布局无缝融合&a…...

如何快速掌握Ason:简化JSON操作的终极指南

如何快速掌握Ason:简化JSON操作的终极指南 【免费下载链接】ason [DEPRECATED]: Prefer Moshi, Jackson, Gson, or LoganSquare 项目地址: https://gitcode.com/gh_mirrors/as/ason Ason是一个专为简化JSON操作设计的Java开源库,它提供了直观的AP…...

终极Wish部署指南:从开发到生产环境的完整步骤

终极Wish部署指南:从开发到生产环境的完整步骤 【免费下载链接】wish Make SSH apps, just like that! 💫 项目地址: https://gitcode.com/gh_mirrors/wi/wish Wish是一款强大的SSH应用开发框架,能够帮助开发者快速构建安全、高效的SS…...

从CRISPE到LangGPT:Prompt框架的‘进化论’与我的踩坑心得

从CRISPE到LangGPT:Prompt框架的进化逻辑与实战避坑指南 当我在2022年第一次接触GPT-3时,像大多数初学者一样,我只会用"写一篇关于...的文章"这样的简单指令。直到项目交付被客户退回三次后,我才意识到:Prom…...

终极方案:mac-precision-touchpad驱动让苹果触控板在Windows上实现原生级精准触控

终极方案:mac-precision-touchpad驱动让苹果触控板在Windows上实现原生级精准触控 【免费下载链接】mac-precision-touchpad Windows Precision Touchpad Driver Implementation for Apple MacBook / Magic Trackpad 项目地址: https://gitcode.com/gh_mirrors/ma…...

开源项目常见问题终极解决方案:10个实用技巧助你轻松应对

开源项目常见问题终极解决方案:10个实用技巧助你轻松应对 【免费下载链接】tech.description 기술 문서 정리하는 저장소 项目地址: https://gitcode.com/gh_mirrors/te/tech.description 在参与开源项目的过程中,开发者经常会遇到各种技术难题和…...

【多智能体控制】虚拟领航者和势函数的多智能体群集运动,包含避碰 聚集行为、速度一致性【含Matlab源码 15376期】

💥💥💥💥💥💥💥💥💞💞💞💞💞💞💞💞💞Matlab武动乾坤博客之家💞…...

Anime4K:重新定义浏览器端实时动漫超分的革命性技术

Anime4K:重新定义浏览器端实时动漫超分的革命性技术 【免费下载链接】Anime4K A High-Quality Real Time Upscaler for Anime Video 项目地址: https://gitcode.com/gh_mirrors/an/Anime4K 你是否曾为老旧动漫的模糊画质而烦恼?是否梦想在浏览器中…...

【FAQ】HP Anyware文章汇总列表

方案原理 【方案原理】什么是PCoIP技术 【方案原理】什么是PCoIP Ultra协议增强 Anyware Agent Win10 22H2物理机安装总结 物理机消费级NVIDIA GPU的说明 PCoIP 会话后物理工作站本地显示器黑屏 【组件安装】Ubuntu 22.04.5 desktop 安装 Anyware Agent 【FAQ】安装Agent的…...

别再被‘试用版’骗了!手把手教你用Rufus制作NTFS格式Ubuntu 22.04安装U盘,彻底告别Errno 5输入输出错误

从根源解决Ubuntu安装陷阱:NTFS格式U盘制作全指南 你是否经历过这样的场景——按照教程一步步操作,Ubuntu安装过程看似顺利,重启后却找不到系统入口?这种"试用版陷阱"让无数Linux新手踩坑。本文将揭示错误背后的真相&am…...

Spider2-V:多模态AI代理GUI交互能力的真实基准测试

1. 项目概述:Spider2-V,一个衡量多模态AI代理真实能力的“试金石” 如果你最近在关注AI代理(AI Agent)领域,特别是那些号称能“看懂”屏幕、“操作”软件来完成复杂工作的多模态大模型(VLM)&…...

2024年国赛高教社杯数学建模B题生产过程中的决策问题解题全过程文档及程序

2024年国赛高教社杯数学建模 B题 生产过程中的决策问题 原题再现某企业生产某种畅销的电子产品,需要分别购买两种零配件(零配件1和零配件2),在企业将两个零配件装配成成品。在装配的成品中,只要其中一个零配件不合格&a…...

无人机日志分析的技术革命:当飞行数据在浏览器中重生

无人机日志分析的技术革命:当飞行数据在浏览器中重生 【免费下载链接】UAVLogViewer An online viewer for UAV log files 项目地址: https://gitcode.com/gh_mirrors/ua/UAVLogViewer 清晨六点,当第一缕阳光洒在无人机操作员的控制台上&#xff…...

Elasticsearch-Kopf核心功能解析:集群监控、索引管理与快照备份全攻略

Elasticsearch-Kopf核心功能解析:集群监控、索引管理与快照备份全攻略 【免费下载链接】elasticsearch-kopf web admin interface for elasticsearch 项目地址: https://gitcode.com/gh_mirrors/el/elasticsearch-kopf Elasticsearch-Kopf是一款功能强大的El…...

掌握虚幻引擎资源处理:UE Viewer与传统方法的全面对比指南

掌握虚幻引擎资源处理:UE Viewer与传统方法的全面对比指南 【免费下载链接】UEViewer Viewer and exporter for Unreal Engine 1-4 assets (UE Viewer). 项目地址: https://gitcode.com/gh_mirrors/ue/UEViewer 在游戏开发和3D资源处理领域,虚幻引…...

ConvLSTM_pytorch未来路线图:社区贡献与功能增强计划

ConvLSTM_pytorch未来路线图:社区贡献与功能增强计划 【免费下载链接】ConvLSTM_pytorch Implementation of Convolutional LSTM in PyTorch. 项目地址: https://gitcode.com/gh_mirrors/co/ConvLSTM_pytorch ConvLSTM_pytorch是一个基于PyTorch的卷积LSTM实…...

Mermaid Live Editor:3步完成专业图表创作,告别拖拽式编辑烦恼

Mermaid Live Editor:3步完成专业图表创作,告别拖拽式编辑烦恼 【免费下载链接】mermaid-live-editor Edit, preview and share mermaid charts/diagrams. New implementation of the live editor. 项目地址: https://gitcode.com/GitHub_Trending/me/…...

WebRTC for the Curious:SFU、MCU和Mesh架构对比分析

WebRTC for the Curious:SFU、MCU和Mesh架构对比分析 【免费下载链接】webrtc-for-the-curious WebRTC for the Curious: Go beyond the APIs 项目地址: https://gitcode.com/gh_mirrors/we/webrtc-for-the-curious WebRTC(Web实时通信&#xff0…...

Minideb实战手册:快速部署PHP、Node.js、Ruby等语言环境

Minideb实战手册:快速部署PHP、Node.js、Ruby等语言环境 【免费下载链接】minideb A small image based on Debian designed for use in containers 项目地址: https://gitcode.com/gh_mirrors/mi/minideb Minideb是一款基于Debian的极简容器基础镜像&#x…...