当前位置: 首页 > article >正文

卡内基梅隆大学研究团队告诉你,如何让AI代理既安全又好用

这项由卡内基梅隆大学软件工程研究团队主导的研究发表于2026年的软件工程与人工智能交叉领域论文编号为arXiv:2604.15579有兴趣深入了解的读者可以通过该编号查询完整论文。设想你开了一家医院雇了一位能力超群的新员工。这位员工聪明、高效几乎任何任务都能完成——但偶尔会做出让你捏把冷汗的举动有时候他会把病人的私密病历随手发给不相关的人有时候开了已经不适用的药方有时候不经授权就擅自修改医疗记录。你信任这个员工的能力但这些偶发的失误让你根本不敢把他一个人留在诊室里工作。这个比喻正是当今AI代理AI Agent技术所面临的真实困境。所谓AI代理就是那些能够主动使用工具、与外部系统交互、代替人类完成复杂任务的人工智能程序。它们可以帮你订机票、管理医疗记录、处理客户服务请求甚至操控电脑执行复杂操作。能力越强风险越大——这些AI代理一旦出错后果可能是数据泄露、财产损失乃至真实的人身伤害。现有的解决方案大多依赖于教育这位员工——通过训练让AI模型本身变得更安全或者安排另一个AI来盯着它的一举一动。但问题在于这些方法都是概率性的哪怕再严格的教育也无法保证员工百分之百不犯错。卡内基梅隆大学的研究团队提出了一种截然不同的思路与其寄希望于AI自己懂规矩不如直接给它装上一本规则手册——用硬性的程序化规则从外部约束它的行为。这套方法研究团队称之为符号化护栏Symbolic Guardrails。一、AI代理的安全困境为什么教它学好还不够回到那个医院员工的比喻。现在你可以用两种方式来防止员工犯错。第一种方式是持续培训不断给他上安全课、职业道德课希望他能从内心深处理解并遵守规则。第二种方式是设置制度性约束把某些操作直接锁死比如修改病历必须经过两人审核、给病人开高危药品时系统自动弹出确认框、某些权限只有特定职位的人才能获得。现有的AI安全方法大多属于第一种通过强化学习、人类反馈训练等手段试图让AI模型从内部学会安全行为。另一类流行的做法叫做神经护栏——安排一个独立的AI来旁观主AI的每一步操作判断它是否安全。就像在那个员工身边派一个监督员随时评估他的决定是否合规。然而这两种方法都有一个根本缺陷它们本质上都是概率性的。一个经过充分训练的AI也许在99%的情况下都会做出正确决定但那剩下的1%仍然可能造成灾难性后果。而负责监督的AI同样可能被攻击者欺骗或者自身判断出错。在医疗、金融、法律这类高风险场景下1%的失误率完全不可接受。卡内基梅隆大学的研究团队意识到软件工程领域其实早就有一整套成熟的方法来处理这类问题——那就是符号化的、确定性的规则约束。就像银行的转账系统不会仅仅依赖员工的职业判断来决定要不要转账而是有硬性的权限验证、金额上限、身份核实等机制。这些机制一旦触发结果是确定性的不存在也许合规的说法。研究团队的核心问题是我们能不能把这套思路移植到AI代理上为了回答这个问题他们设计了一项三部分的系统性研究涵盖文献综述、政策分析和实验验证最终得出了令人颇为惊喜的结论。二、摸清现状大多数AI安全评测根本没说清楚安全是什么研究的第一步是摸清楚目前学术界和工业界对AI代理安全性的期待究竟是什么。研究团队通过系统性文献综述从arXiv上检索了2022年1月至2026年3月间发表的相关论文经过层层筛选最终保留了80篇专门评测AI代理安全性或安全性的基准测试论文。这些基准测试就好比是给AI代理设计的驾照考试——考官出题考察AI在特定安全场景下是否表现合格。研究团队仔细审阅了每一份考卷并对其中的安全政策进行了分类。所谓安全政策就是告诉AI代理你应该怎么做、不应该怎么做的规则。研究团队将这些规则按具体程度分为四个层级。第一层是没有规则——考官什么都没说默认AI应该自己懂得什么是安全的。第二层是目标设定式规则——考官说了一些高度概括的话比如保持最高级别的谨慎和安全性但到底什么叫最高级别的谨慎完全说不清楚。第三层是具体规则——考官清清楚楚地说明了AI应该遵守的每一条具体操作规范没有歧义不需要猜测。第四层是任务特定规则——针对某一具体任务制定的规则换了别的任务就不适用了。结果令人有些意外。在这80份考卷中足足有49份占61%完全没有给AI代理提供任何明确的安全指引。这些评测隐隐地期望AI能凭常识判断什么是安全的但从来不说明白这个常识是什么。另有19份约24%只给出了模糊的目标性表达留下大量解释空间。真正给出清晰具体规则的只有7份而且几乎清一色只出现在为特定业务场景设计的领域专用代理测试中。更麻烦的是即便是同一个安全主题不同的测试对它的理解也可能截然相反。以用户隐私保护为例一些测试要求AI在任何情况下分享任何私人信息之前都必须征得用户同意而另一些测试则期望AI能够根据社交语境自主判断在适当情况下无需询问即可分享。如果一个AI同时面对这两份考卷它根本不知道该听哪个。这个发现揭示了一个根本性的问题当我们说AI代理应该安全时我们并没有说清楚安全具体意味着什么。安全规则越模糊就越难以验证AI是否真的做到了安全更别提用程序化手段去保证它。研究团队由此得出一个重要判断要让AI代理真正安全可靠必须首先把安全规则说清楚、写明白不留模糊地带。而这件事对于那些服务范围广泛的通用AI代理来说极其困难——你很难穷举出一个万能助手在所有可能场景下的所有安全规范。相比之下只服务于特定业务场景的领域专用代理由于任务范围有限、工具集合固定安全规则的制定就容易得多、也精确得多。这为符号化护栏的应用奠定了现实基础。三、解剖安全规则七成以上的要求可以用程序直接锁死确认了具体安全规则的价值之后研究团队开始分析这些规则中哪些可以用确定性的程序手段来强制执行为了回答这个问题他们选取了三个有具体安全规则的基准测试进行深入分析。第一个是τ?-Bench评测的是航空公司客服AI代理用于帮助乘客处理机票预订相关事务。第二个是CAR-bench评测的是车载语音助手处理导航、天气查询、车辆操作等任务。第三个是MedAgentBench评测的是电子医疗记录助手帮助医生查询病历、开具医嘱。研究团队为前两个直接使用其原有政策文档并为第三个基于系统性的危害分析方法生成了一套88条规则的综合安全政策。对于这些规则研究团队识别出六种可用于强制执行的符号化护栏手段每一种都对应软件工程中的成熟技术。API验证API Validation是最基础的一种在AI代理调用某个工具之前先验证它提供的参数是否符合要求。举个例子如果AI代理想要取消一张机票系统会先检查这张机票真的属于发出请求的用户吗如果不属于直接拒绝根本不给AI代理任何犯错的机会。模式约束Schema Constraint是对AI代理输出格式的强制限定。就好比一家餐厅只允许厨师按照固定菜单做菜不允许即兴发挥。如果AI代理的输出不是合法的工具调用也不是正常的用户回复系统直接拒绝这个输出。时序逻辑Temporal Logic用于控制操作的顺序。比如规定AI必须先完成用户身份验证才能调用任何涉及账户信息的工具。就像银行ATM取款必须先插卡验密才能进行后续操作。信息流控制Information Flow确保敏感信息不会流向不应到达的地方。比如禁止其他乘客的个人信息被传递给AI代理从而从源头杜绝隐私泄露的可能。用户确认User Confirmation要求在执行某些高风险操作之前必须获得用户明确的同意——而且这个确认流程是由系统程序强制触发的不是AI代理自己决定要不要问的。这就相当于银行转账时系统强制发送短信验证码而不是由柜员自己判断要不要让客户签字。响应模板Response Template用预设的固定回复替代AI自由生成的内容。执行某些特定操作后系统直接显示一段预先写好的确认信息而不是让AI临时编写从而避免AI发挥过度导致的信息错误或泄露。研究团队逐条分析了三个基准测试中的所有安全规则将它们归类为可符号化执行、不可符号化执行和不在范围内三类。结果显示在τ?-Bench中51条有效规则里有42条可以用符号化方式执行比例高达82%在CAR-bench中18条规则里有17条可执行比例接近94%在MedAgentBench中57条规则里有34条可执行约占60%。综合来看约75%的具体安全规则都可以通过符号化护栏来强制保证。更令人印象深刻的是在这些可执行的规则中大多数只需要API验证就能搞定。在τ?-Bench中81%的可执行规则仅靠API验证即可处理CAR-bench中这一比例为65%MedAgentBench中也有47%。那些需要信息流控制或时序逻辑这类复杂手段的规则在三个测试中合计只有五条。换句话说大多数安全问题其实可以用非常简单、低成本的方法来解决不需要大费周章部署复杂的监控系统。当然并非所有规则都能符号化执行。研究团队识别出四类难以处理的规则。第一类是关于AI代理的人设和沟通风格的规定比如要求AI保持中立语气、避免发表医学判断——这类规定本质上是在描述AI的说话方式程序无法直接检测或强制执行。第二类是不要产生幻觉的要求也就是不让AI凭空捏造信息——这需要判断AI的输出是否有事实依据依然高度依赖模型本身的能力。第三类是流程性规定比如先收集用户信息再询问行程细节——要严格执行这类顺序往往需要重构整个对话架构。第四类是即便在具体规则中也难免存在的常识性判断空间比如除非用户明确要求否则不要主动提供补偿——什么叫明确要求依然需要理解能力。这些无法符号化执行的规则就需要借助神经护栏等其他手段来辅助处理。四、实际测试护栏不仅没有妨碍AI完成任务反而帮了倒忙分析完理论研究团队开始动手验证把符号化护栏真正装进AI系统看看实际效果怎样。他们分别在三个基准测试上运行了实验每个测试设置了有护栏和没有护栏两种条件用GPT-4o和GPT-5作为骨干语言模型通过模拟用户与AI代理进行多轮交互。在τ?-Bench的航空客服场景中没有护栏时GPT-4o版本有高达52%的任务触发了至少一次安全规则违规即便是能力更强的GPT-5版本违规率也有20%而且其中10%的情况下连该提供的信息都无法确认是否合规。一旦加上符号化护栏违规率直接降为0%而且任务完成率不降反升GPT-4o从36%提升到48%GPT-5从68%提升到70%。在CAR-bench的车载助手场景中没有护栏时有21%的任务出现违规加上护栏后违规降为0%任务完成率从59%跃升至72%政策遵守度从83%提高到97%。这两项提升均达到统计显著水平。MedAgentBench的医疗场景最能说明问题因为研究团队还专门构建了一批对抗性任务——在这些任务中模拟用户会刻意尝试欺骗或操纵AI代理诱使其违反安全规则。在对抗性场景下没有任何护栏的原始版本有78%的任务被攻破即便加了工具封装但没有符号化护栏的版本违规率仍高达62%。符号化护栏条件下违规率归零且这一差异同样具有统计显著性。一个令人惊喜的发现是符号化护栏非但没有让AI变得更笨在多个场景下反而提高了任务完成率。研究团队在分析交互记录后找到了可能的原因当护栏拦截了一个违规操作时它会同时向AI代理返回一条明确的错误信息解释这次操作为什么不合规、违反了哪条规则。AI代理看到这条反馈后能够重新调整策略换一个既合规又能完成任务的方法继续执行。这相当于在AI代理走错路时及时给它一个具体的纠正信号帮助它更快找到正确方向而不是让它在错误的方向上越走越远。这个结果打破了一个常见的直觉假设很多人认为安全约束和功能发挥之间天然存在矛盾加了限制就必然损失能力。这项研究的实验数据表明至少对于那些可以被具体规则清晰界定的安全要求来说用程序手段强制执行这些规则完全可以在不牺牲能力的前提下显著提升安全性。五、这对真实世界意味着什么归根结底这项研究告诉我们一件很直接的事想让AI代理在医疗、金融、法律等高风险场景中可靠运转光靠训练它变好或再加一个AI来盯着它是不够的。就像公路交通安全不能仅靠驾驶员培训来保证还需要红绿灯、护栏、限速标志这些硬性的基础设施一样AI代理也需要硬性的符号化护栏来提供可靠的安全底线。研究团队发现现有的AI安全测试领域有一个普遍的问题大多数测试连安全规则本身都说不清楚更别提去保证它了。在那85%没有清晰安全政策的测试中整个安全评估体系建立在AI应该懂得常识这样一个虚幻的假设上。这个假设不但难以验证而且本身就充满争议——不同的人对常识安全的理解可以截然不同。对于企业和开发者来说这项研究提供了一个清晰的实践路径。第一步是把安全规则说清楚——不是高高在上的价值观宣言而是一条条具体、无歧义的操作规范。第二步是评估这些规则中有哪些可以通过程序手段直接锁死——研究表明这样的规则往往占大多数而且通常用最简单的参数验证就能搞定不需要复杂的AI判断系统。第三步才是对那些真正需要理解能力和判断力的规则考虑使用神经护栏等概率性手段来辅助。这套分层策略能够把有限的安全资源集中用在真正需要的地方同时为最核心的安全要求提供确定性的保证而不是把所有希望都寄托在概率性手段上。当然这项研究也有其边界。它主要针对领域专用代理而对于像ChatGPT这样的通用AI助手来说任务边界模糊、工具范围广泛想提前穷举所有安全规则几乎不可能。符号化护栏在通用代理上的适用性还需要更多研究来探索。此外研究中测试的基准场景数量有限实验成本较高每次运行耗费约80美元这在一定程度上制约了测试的规模和重复次数。符号化护栏的效果是否能稳定泛化到更广泛的真实业务场景仍需要进一步验证。说到底这项研究揭示的是一个软件工程中的老道理不要依赖系统组件的自觉性来保证安全要用明确的约束机制来保证。AI时代的到来并没有让这条原则失效反而让它比以往任何时候都更加紧迫和重要。一个每次操作都有明确规则约束的AI代理远比一个大多数时候都很乖但偶尔会擅自删掉你所有邮件的AI代理更值得信赖。QAQ1符号化护栏和神经护栏有什么区别各自适合什么场景A符号化护栏是通过硬编码的程序规则来约束AI代理的行为结果是确定性的只要规则触发行为就会被拦截不存在也许合规的情况。神经护栏则是用另一个AI模型来判断主AI的行为是否安全本质上是概率性的可能误判也可能被攻击绕过。符号化护栏适合那些能被明确表达为具体规则的安全要求比如取消机票前必须验证用户身份神经护栏更适合那些需要理解力和判断力的模糊要求比如不要对话风格太强硬。理想情况下两者结合使用符号化护栏保底神经护栏补充。Q2为什么只有领域专用代理适合用符号化护栏通用AI代理不行A因为符号化护栏依赖明确、具体、无歧义的安全规则。领域专用代理只处理特定任务工具集固定安全边界清晰可以提前枚举出所有相关的安全规则。通用AI代理要处理各种各样的任务工具范围极广很难提前想到所有可能的安全场景并为每个场景写出具体规则。规则写不全符号化护栏就无法覆盖所有情况这就是为什么通用代理目前更依赖训练和神经护栏来处理安全问题。Q3给AI代理加符号化护栏会不会让它变笨、完不成任务A卡内基梅隆大学的实验结果显示加了符号化护栏之后AI代理的任务完成率不降反升。在航空客服测试中任务完成率从36%提升到48%在车载助手测试中从59%提升到72%。可能的原因是当护栏拦截违规操作时会同时给AI代理一条明确的错误反馈说明被拦的原因和违反的规则。AI代理利用这个反馈调整策略能更快找到既安全又有效的解决方法反而提高了整体表现。

相关文章:

卡内基梅隆大学研究团队告诉你,如何让AI代理既安全又好用

这项由卡内基梅隆大学软件工程研究团队主导的研究,发表于2026年的软件工程与人工智能交叉领域,论文编号为arXiv:2604.15579,有兴趣深入了解的读者可以通过该编号查询完整论文。设想你开了一家医院,雇了一位能力超群的新员工。这位…...

Fewshot Corp与卡内基梅隆发现:超15%AI测试题存在可被绕过漏洞

这项由Fewshot Corp与卡内基梅隆大学联合开展的研究,以预印本形式于2026年4月19日发布,论文编号为arXiv:2604.17596,研究团队来自两个机构,分别是专注于少样本学习应用的Fewshot Corp,以及在AI安全领域具有重要影响力的…...

如何用Style2Paints实现专业级动漫上色:从草图到成品的完整指南

如何用Style2Paints实现专业级动漫上色:从草图到成品的完整指南 【免费下载链接】style2paints sketch style paints :art: (TOG2018/SIGGRAPH2018ASIA) 项目地址: https://gitcode.com/gh_mirrors/st/style2paints Style2Paints是一款强大的AI驱动工具&am…...

上海交通大学等机构开发出能“真正玩游戏“的AI程序员

这项由上海交通大学、浙江大学、腾讯光子工作室联合完成的研究,于2026年4月发表在ACM旗下期刊,论文编号为arXiv:2604.19742,感兴趣的读者可通过该编号查阅完整原文。说到底,让AI写代码这件事已经不算新鲜了。GPT系列、Claude系列这…...

告别僵硬动画:用mojs曲线编辑器打造丝滑路径动画的终极指南

告别僵硬动画:用mojs曲线编辑器打造丝滑路径动画的终极指南 【免费下载链接】mojs The motion graphics toolbelt for the web 项目地址: https://gitcode.com/gh_mirrors/mo/mojs mojs是一款专为网页设计的强大运动图形工具库,它以快速、支持视网…...

3步轻松下载B站资源:BiliTools跨平台工具箱使用指南

3步轻松下载B站资源:BiliTools跨平台工具箱使用指南 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱,支持下载视频、番剧等等各类资源 项目地址: https://gitcode.com/GitHub_Trending/bilit/BiliTools 还在…...

终极智能导航神器:autojump让终端操作效率翻倍

终极智能导航神器:autojump让终端操作效率翻倍 【免费下载链接】autojump A cd command that learns - easily navigate directories from the command line 项目地址: https://gitcode.com/gh_mirrors/au/autojump autojump是一款革命性的终端导航工具&…...

SDQM:合成数据质量评估的创新方法与实践

1. 合成数据质量评估的行业痛点与SDQM创新在计算机视觉领域,数据饥渴已成为制约模型性能提升的主要瓶颈。以工业质检场景为例,要训练一个能识别金属零件表面缺陷的YOLOv11模型,通常需要数万张标注精准的样本。但实际生产中,缺陷样…...

3分钟解锁Cursor Pro永久免费:终极破解工具完全指南

3分钟解锁Cursor Pro永久免费:终极破解工具完全指南 【免费下载链接】cursor-free-vip [Support 0.45](Multi Language 多语言)自动注册 Cursor Ai ,自动重置机器ID , 免费升级使用Pro 功能: Youve reached your trial…...

高通Open-Q SiP模块工业应用与开发实战

1. 高通平台Open-Q 2290CS与4290CS SiP模块深度解析在工业物联网和机器视觉领域,硬件模块的选型往往决定了整个项目的技术上限。Lantronix最新推出的Open-Q 2290CS和4290CS两款系统级封装(SiP)模块,基于高通QCS2290/QCS4290平台打造,为开发者…...

NVIDIA 发布 Nemotron 3 Nano Omni 模型

如今的 AI 智能体系统需要分别调用视觉、语音和语言模型 —— 而在模型间传递数据的过程中,不仅耗时,还会丢失上下文信息。 今日发布的 NVIDIA Nemotron 3 Nano Omni 是一款开放式多模态模型,它将上述功能集成至一个系统中,使智能…...

告别单调列表!Bootstrap-Vue列表组件BListGroup的10个高级玩法

告别单调列表!Bootstrap-Vue列表组件BListGroup的10个高级玩法 【免费下载链接】bootstrap-vue MOVED to https://github.com/bootstrap-vue-next/bootstrap-vue-next 项目地址: https://gitcode.com/gh_mirrors/bo/bootstrap-vue Bootstrap-Vue的BListGroup…...

防范智能体协作中的三大风险 蚂蚁集团提出全链路安全治理框架

随着AI智能体走向自主与协作,企业面临的安全挑战超越技术本身,转而演变为深层的信任危机。4月29日,第九届数字中国建设峰会“智能体创新与治理”论坛上,蚂蚁集团大安全CTO陈亮发表主题演讲,首次系统揭示了跨Agent协作中…...

10分钟极速部署DolphinScheduler:Kubernetes工作流编排的终极指南

10分钟极速部署DolphinScheduler:Kubernetes工作流编排的终极指南 【免费下载链接】dolphinscheduler Apache DolphinScheduler is the modern data orchestration platform. Agile to create high performance workflow with low-code 项目地址: https://gitcode…...

5分钟搞定微服务限流监控:Pinpoint集成Spring Cloud Alibaba Sentinel终极指南

5分钟搞定微服务限流监控:Pinpoint集成Spring Cloud Alibaba Sentinel终极指南 【免费下载链接】pinpoint APM, (Application Performance Management) tool for large-scale distributed systems. 项目地址: https://gitcode.com/gh_mirrors/pi/pinpoint P…...

保姆级教程:在VMware虚拟机里用DHCP搞定Security Onion 2.4.60独立版安装

从零构建企业级安全监控平台:Security Onion 2.4独立版虚拟机部署全解析 当企业安全团队需要快速搭建一套集网络流量分析、终端行为监控与威胁检测于一体的防御系统时,开源的Security Onion解决方案往往成为首选。这个基于Linux的安全监控平台将Suricata…...

C# 13主构造函数实战跃迁:从语法糖到对象生命周期控制的3层深度优化

更多请点击: https://intelliparadigm.com 第一章:C# 13主构造函数的核心演进与设计哲学 C# 13 将主构造函数(Primary Constructor)从语法糖全面升格为类型定义的一等成员,其核心目标是统一构造逻辑、消除冗余字段声明…...

React Native Voice核心架构揭秘:从JavaScript到Native的完整通信流程

React Native Voice核心架构揭秘:从JavaScript到Native的完整通信流程 【免费下载链接】voice :microphone: React Native Voice Recognition library for iOS and Android (Online and Offline Support) 项目地址: https://gitcode.com/gh_mirrors/voi/voice …...

AI神话Mythos:5亿美元的黑市标价与失控的AI安全

一个能发现零日漏洞的AI模型,在发布两周内就被非授权获取——这不是电影,这是2026年的现实。01 4月7日,Anthropic在red.anthropic.com悄悄挂出一份技术报告。 标题平平无奇,内容却像一颗炸弹: 他们新发布的Claude Myth…...

2025终极指南:Office Tool Plus多语言支持架构与本地化实战详解

2025终极指南:Office Tool Plus多语言支持架构与本地化实战详解 【免费下载链接】Office-Tool Office Tool Plus localization projects. 项目地址: https://gitcode.com/gh_mirrors/of/Office-Tool Office Tool Plus 是一款功能强大的 Office 部署与管理工具…...

intv_ai_mk11实际项目:为非技术人员提供零代码AI文本处理工作流

intv_ai_mk11实际项目:为非技术人员提供零代码AI文本处理工作流 1. 项目背景与价值 在日常工作中,非技术人员经常面临各种文本处理需求:从简单的邮件撰写、报告改写,到内容创作和知识问答。传统方式要么依赖人工处理效率低下&am…...

Qwen3-4B-Thinking高算力适配:4-bit GGUF量化后8GB显存高效运行方案

Qwen3-4B-Thinking高算力适配:4-bit GGUF量化后8GB显存高效运行方案 1. 模型概述 Qwen3-4B-Thinking-2507-Gemini-2.5-Flash-Distill是基于通义千问Qwen3-4B官方模型开发的高效推理版本。这个模型经过特别优化,能够在资源有限的硬件环境下高效运行&…...

semi-utils深度解析:高效的批量图片处理自动化方案

semi-utils深度解析:高效的批量图片处理自动化方案 【免费下载链接】semi-utils 一个批量添加相机机型和拍摄参数的工具,后续「可能」添加其他功能。 项目地址: https://gitcode.com/gh_mirrors/se/semi-utils semi-utils是一款专为摄影爱好者和专…...

从零到一:如何用开源OnStep系统将普通望远镜升级为智能寻星设备

从零到一:如何用开源OnStep系统将普通望远镜升级为智能寻星设备 【免费下载链接】OnStep Arduino telescope goto for equatorial and alt/az mounts 项目地址: https://gitcode.com/gh_mirrors/on/OnStep 在浩瀚的星空探索之旅中,精准的天文望远…...

如何每天节省25分钟:淘金币自动化脚本终极指南

如何每天节省25分钟:淘金币自动化脚本终极指南 【免费下载链接】taojinbi 淘宝淘金币自动执行脚本,包含蚂蚁森林收取能量,芭芭农场全任务,解放你的双手 项目地址: https://gitcode.com/gh_mirrors/ta/taojinbi 还在为每天重…...

机器人控制中的强化学习与模仿学习技术解析

1. 机器人控制中的强化学习与模仿学习概述在机器人控制领域,强化学习(RL)和模仿学习(Behavioral Cloning, BC)代表了两种截然不同的技术路线。RL通过设计奖励函数引导智能体在环境中探索和学习最优策略,而BC则直接从专家示范数据中学习控制策略&#xff…...

大型集团数字化用户主数据管理体系建设:从零到一的系统性规划实践(PPT)

作者按:这是一份面向某大型终端制造集团的数字化用户主数据管理项目规划方案的深度拆解。方案本身涵盖了从用户画像标准定义、数据采集方法论、用户唯一标识体系、组织架构调整到IT平台框架的全链路设计。本文将其核心方法论完整还原,并结合多年数字化咨…...

BiliTools跨平台工具箱:解决B站资源下载的三大难题

BiliTools跨平台工具箱:解决B站资源下载的三大难题 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱,支持下载视频、番剧等等各类资源 项目地址: https://gitcode.com/GitHub_Trending/bilit/BiliTools 还在…...

别乱升BIOS!给ThinkPad P53升级前,你必须知道的3件事和1个关键备份

ThinkPad P53 BIOS升级避坑指南:理性评估与终极备份方案 每次看到论坛里有人分享"升级BIOS后性能提升30%"的帖子,我的工程师本能就会拉响警报——这种缺乏风险评估的盲目操作,简直是在电子元件的刀尖上跳舞。上周又接到一位客户的P…...

ESP8266 AT指令连接阿里云MQTT全流程实测:从串口调试到物模型数据收发

ESP8266 AT指令连接阿里云MQTT全流程实测:从串口调试到物模型数据收发 在物联网开发中,ESP8266凭借其低廉的价格和稳定的性能,成为了连接云端服务的首选模块之一。而通过AT指令直接操作ESP8266,更是让开发者能够快速实现设备上云&…...