当前位置: 首页 > article >正文

大模型后训练:小白也能掌握的进阶秘籍,收藏提升技能!

后训练是提升大模型性能的关键步骤通过微调和对齐技术优化预训练模型。文章详细解析了后训练的理论与方法涵盖微调SFT、强化学习RL及对齐技术并以Llama 3为例展示实际操作流程。核心内容包括后训练重要性——突破预训练瓶颈提升模型泛化能力流程详解——从偏好pair样本生成到指令微调及持续迭代优化关键技术——LoRA、DPO、CoT等高效微调与对齐方法实战案例——DeepSeek R1与RLHF的融合应用。适合开发者系统学习后训练技术快速提升大模型实战能力。本文探讨了后训练的重要性、方法以及最新进展。文章将包含理论分析与实际操作指南适合希望深入了解并应用这些技术的开发者。什么是后训练后训练Post-Training是指在预训练模型的基础上针对特定的任务或数据集进行额外的训练。这个阶段通常涉及到微调Fine-tuning和对齐 Alignment即调整预训练模型的参数以适应新的任务。黑色 预训练阶段红色 后训练阶段紫色 推理测试阶段为什么要进行后训练Post-training重要性-后训练扩展律Post-training scaling laws 已经出现Pre-traing阶段的scaling law计算量C模型参数量N ,数据大小D当不受其它两个因素制约时模型性能与每个因素均呈幂等关系三者满足随着模型尺寸的逐渐增大预训练阶段参数扩展带来的边际收益开始递减基于RL的post-trainging将会成为下一个突破点自回归模型在数学推理问题上很难进步的一点在于没有办法进行回答的自主修正仅依靠生成式方法和扩大参数规模收益有限需要寻找额外的Scaling LawsGPTGenerative Pretrained Transformer系列是典型的自回归语言模型。在 GPT 模型中它的生成过程是基于自回归机制。例如在文本生成任务中给定一个初始的输入文本序列可以是一个单词、一个句子或一段话模型会预测下一个单词出现的概率分布。假设输入序列是 “The cat”模型会计算在这个序列之后不同单词如 “runs”“jumps”“sleeps” 等出现的概率然后从这个概率分布中采样一个单词作为下一个生成的单词。新的扩展维度Al能力的提升不再局限于预训练阶段还可以通过在 Post-Training 阶段中提升RL训练的探索时间和增加模型推理思考时间来实现性能提升即Post-Training Scaling Laws 以及 Test-time scaling Resoning 随着训练时的计算量和测试时的计算量的增加模型性能也会随之提升。常见大模型后训练流程这里以Llama 3来示例1.持续通过人工标注或机造方式生成偏好pair样本训练Reward Model2.基于当前能力最好的模型随机采集一批 {Prompt} 每个Prompt拿最好的模型做 K 次数据生成采样每个Prompt就得到 K 条 Prompt,Responsek 数据3.拒绝采样对第2步采样 K 个 Prompt,Responsek 数据用Reward Model打分并从中选取打分最高 topN 条样本。作为指令微调的精选样本训练SFT Model4.训完SFT Model再通过持续收集的偏好对样本同步骤1做对齐学习Llama使用的是DPO。最终得到了一个比当前模型更好的模型5.持续做步骤1~步骤4飞轮迭代优化模型。训练数据SFT data采样模型多次让RM选出最好的回复作为SFT data的一部分。部分细节如下采样什么模型两种情况。迭代中表现Avg score最好的模型或者在某个particular capability上表现最好的模型。采样多少次K10~30即一般采样10-30次。prompt哪来人工标注的prompts。并在后训练迭代后期引入特殊的system prompts。Preference data采样什么模型部署多个不同数据配比和对齐方法训练的模型针对每个prompt选取两个不同的模型进行采样。原因不同模型能够在不同的能力维度上表现出差异数据质量和多样性更好。偏好等级四个等级显著更好significantly better更好better稍微更好slightly better略微更好marginally better。允许修改标注同学可以进一步优化chosen response最后edited chosen rejected。迭代式难度最后随着模型改进逐步提高prompt复杂度。微调 Fine-tuning微调是指在预训练模型的基础上使用特定任务的数据集进行进一步训练以使模型适应特定任务或领域。其目的是优化模型在特定任务上的性能使模型能够更好地适应和完成特定领域的任务。SFT (Supvised Fine tuning ) 微调方法全量微调 VS 部分微调全量微调 Full Fine-TuningFFT是指在预训练模型的基础上使用特定任务的数据集对模型的所有参数进行进一步训练以使模型更好地适应特定任务或领域的过程。部分微调 PEFTparameter-efficient fine-tuning参数高效微调一种针对大型预训练模型的微调技术旨在减少训练参数的数量从而降低计算和存储成本同时保持或提升模型性能仅微调模型中的一小部分参数常见方法如下选择参数子集重新参数化LoRALow-Rank Adaptation 使用低秩表示重新参数化模型权重核心思想是将权重矩阵 W 分解为两个低秩矩阵 A 和 B 的乘积即其中是预训练模型的原始权重矩阵。A 和 B 是两个低秩矩阵其维度远小于 W。通过这种方式LoRA 只需要更新 A 和 B 的参数而不是整个 W。这显著减少了需要更新的参数数量从而提高了微调的效率。添加额外的可训练的tokenPrompt-tuning对齐 Alignment对齐是指通过各种技术手段使模型的输出与人类的偏好和价值观对齐确保模型的行为和决策符合人类社会的期望和标准。对齐技术旨在解决模型可能带来的潜在问题如生成有害内容、不符合伦理的输出等。强化学习是实现模型对齐的核心工具即可通过人类反馈强化学习RLHFReinforcement Learning from Human Feedback的方式通过训练奖励模型对齐模型输出与人类偏好强化学习中需要用到的关键组成部分如下带有人类偏好反馈的标签数据input,accept,reject奖励模型Reward Model- 奖励信号Rule-based RMModel-based RM强化学习策略优化算法DPO (Direct Preference Optimization) 直接偏好优化PPO Proximal Policy Optimization近端策略优化GRPOGroup Relative Policy Optimization组内相关策略优化算法强化学习策略优化算法 DPO VS PPO VS GRPORHLF即基于人类反馈的强化学习的训练流程中的涉及到的策略优化算法常见的有以下几种PPOProximal Policy Optimization近端策略优化是 OpenAI 在2017年提出的一种基于策略梯度Policy Gradient的强化学习算法。优化过程是构建一个损失函数 需要根据奖励模型的奖励信号和新旧策略差异计算损失函数并且会限制策略更新的幅度保证了模型的稳定性。损失函数其中是新旧策略概率之比反映新旧策略的改进情况。是优势估计值反映智能体选择某个动作的好坏。clip是剪辑机制反映经过剪辑后的改进结果防止进步过快或退步过多保待稳定的训练过程。选择最小值 1基于新策略直接计算出来的值2经过剪辑后的值保持训练的稳定性。DPO(Direct Preference Optimization)直接偏好优化优化过程相对直接。不需要训练一个单独的奖励模型。直接利用人类偏好排序数据概率比来构建目标函数并优化策略目标 最大化用户偏好数据的生成概率同时减少用户非偏好数据的生成概率无需明确的奖励模型更多依赖于用户提供的偏好排序或比较数据不需要同环境进行交互适用于需要从静态数据如用户的偏好反馈中学习的任务 并且高度依赖用户反馈的数据质量GRPOGroup Relative Policy Optimization组内相关策略优化算法与PPO相比无需额外训练价值模型通过从同一问题的多个输出中计算平均奖励来替代价值函数的作用从而减少了显存和计算负担但依赖于奖励模型的评分来区分输出的好坏这对于奖励模型的设计也提出了更高的要求。强化学习 RMReward Model奖励模型的优化思路在传统的强化学习RL框架中智能体通过与环境的交互来学习以最大化累积奖励。但这种方法有时会面临奖励设计困难和学习效率低下的问题。为了解决这些难题RLHF (Reinforcement Learning from Human Feedback)引入人类作为奖励信号的来源。人类反馈可以采取多种形式包括直接的奖励信号、排名反馈、偏好比较等。LLM as a judge判别式的RM的准确率不足可以用于事实性输出风格等的判定Generative RM先CoT自然语言推断的再给出奖励信号Let’s verfify step by step Critic Model随着大模型的不断迭代其输出的内容越来越准确错误也变得更加隐蔽就算是专业的AI训练师也很难察觉那些错误所在open ai训练了CriticGPT这种谈论家模型用于加强RLHF但注意用model去建模reward可能会因为过度对齐人类的偏好而引入biasOutcome-based Reward ModelORM 到 Process-based Reward ModelPRM 向着模型能生成正确的推理能力的方式去优化PRM过程奖励模型是在生成过程中分步骤对每一步进行打分是更细粒度的奖励模型。ORM结果奖励模型是不管推理有多少步对完整的生成结果进行一次打分是一个反馈更稀疏的奖励模型。注意reward model可能会被hacking的问题可以将不同的reward model混在一起训练 让模型训多轮后也比较难找到RM的漏洞。推理阶段Test-time computation的优化思路快思考 - 慢思考系统1思维一次性生成完整解法的方法Next Token Prediction 缺乏详细的中间推理步骤模型一开始可能会犯错错误会传播导致最终生成的答案也是错的系统2思维 模仿人类通过更慢更深的思考过程进行推理CoT: Training-Free的方式 通过分步的方式生成一系列中间推理步骤从而提升模型推理能力Let’s think step by step Best of N MCTS Monte Carlo Tree Search 蒙特卡洛树搜索 : 在Token或字句级别分解建模成节点后提供奖励信息Process-based-Reward-ModelToken级别的节点每个节点对应生成序列中的一个Token。通过MCTS模型可以探索不同的Token序列最终生成更连贯的响应句子级别的节点在复杂推理任务中每个节点可以代表一个完整的句子或推理步骤帮忙模型更好地处理多步推理任务STaRSelf - Taught Reasoner 教会模型从内部深入思考问题与答案的关联STaR 的核心思路是利用 LLM 已有的推理能力迭代式的引导模型产生合理推理过程 (Rationales) 的能力井将 Rationales 融入到训练过程内让模型学会进行推理通过few shot example 来prompt模型生成答案和推理过程过滤出正确的数据集生成微调数据集来微调deepseek-R1 强化学习训练时使用的prompt格式要求模型将推理的过程的思路输出到标签中引导模型进行慢思考Quiet-STaR (Self - Taught Reasoner)通过控制模型在生成文本时自动生成推理步骤即理由或rationales从而提高模型的预测能力和推理性能在训练阶段先基于前序token停下进行think阶段产出从多个thought选择某一个thought加上前序token进行预测下一个token然后经过奖励模型的评判进行反馈学习在推理阶段利用think及talk对应的prompt来引导进入慢思考在think结束后再进行talk微调SFT VS 强化学习RLSFT-示范给模型怎么样做是对的RL-在环境中不断的试错累积奖励理论上RL能榨干模型能突破人类的上限但reward要能写好SFT Memorizes, RL Generalizes: A Comparative Study of Foundation Model Post-trainingRL 在泛化方面的优势RL特别是在基于结果的奖励下进行训练时能够在基于规则的文本和视觉变体中实现泛化。这表明强化学习在处理不同情境和变化时具有更强的适应能力。强化学习通过与环境的交互不断调整策略从而能够学习到更通用的知识和行为模式。SFT 在记忆方面的倾向SFT 则倾向于记忆训练数据在分布外的场景中难以很好地泛化。这是因为监督微调主要是通过最小化预测与真实标签之间的误差来调整模型参数容易使模型过度拟合训练数据。SFT 对 RL 训练的重要性尽管 RL 在泛化方面表现出色但文章指出 SFT 对于有效的 RL 训练仍然至关重要。SFT 能够稳定模型的输出格式为后续的 RL 训练奠定基础。没有经过 SFT 的模型可能在输出格式上不稳定导致 RL 训练难以收敛或效果不佳。以DeepSeek R1示例后训练DeepSeek-R1对于test-time阶段的处理提及对于RPM及MCTS等手段未被证实有效果R1-ZERO仅使用RL未使用SFTReward Model未使用RPM等相对复杂的模型而是仅使用的了rule-based的RM强化学习算法使用的自家的GPPO相对于PPO等更加的简单也更考验RM的设计能力给后续的推理模型后训练很多启发仅RL也可以得到非常好的推理效果。总结–RL - deepseek R1 zreoSFTRL - deepseek R1 llama3SFT - 蒸馏的一些小模型test-time scaling - openai o1普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌02适学人群应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】

相关文章:

大模型后训练:小白也能掌握的进阶秘籍,收藏提升技能!

后训练是提升大模型性能的关键步骤,通过微调和对齐技术优化预训练模型。文章详细解析了后训练的理论与方法,涵盖微调(SFT)、强化学习(RL)及对齐技术,并以Llama 3为例展示实际操作流程。核心内容…...

天心大师浅谈人工智能与美学设计,如何营建大型AI盆景园

青石板路上落着刚被山风扫下的新竹叶,天心大师正端坐在临着半月池的石案旁,石案上摆着一盆用灵璧石拼出远山层峦的 AI 辅助创作盆景,池里游着几尾赤鳞红鱼,落在肩头的山隼歪着脑袋,盯着石案屏幕上流动的 AI 草图叫了两…...

工程师必读:Datasheet高效阅读与实战技巧

1. 为什么Datasheet是工程师的必修课第一次拿到TI的TPS5430电源芯片datasheet时,我盯着那58页的英文文档发呆了半小时。当时刚入行的我完全不明白,为什么一个简单的DC-DC转换器需要如此复杂的技术文档。直到项目deadline前三天,电路板上的电源…...

TurboDiffusion新手入门:5步搞定Wan2.1模型,快速出片

TurboDiffusion新手入门:5步搞定Wan2.1模型,快速出片 1. TurboDiffusion简介与准备工作 1.1 什么是TurboDiffusion TurboDiffusion是由清华大学、生数科技和加州大学伯克利分校联合开发的视频生成加速框架。它基于Wan2.1和Wan2.2模型进行二次开发&…...

手把手教你用Local SDXL-Turbo:从零到一的AI绘画实战

手把手教你用Local SDXL-Turbo:从零到一的AI绘画实战 【一键部署镜像】⚡ Local SDXL-Turbo 基于StabilityAI SDXL-Turbo的毫秒级实时绘画工具 支持流式提示词编辑、所见即所得构图、512512高清输出 想象一下:你刚输入"a futuristic city"&a…...

GN LM

非线性最小二乘问题: 一阶梯度法:找到了最速下降的方向,即:负梯度方向。步长可设置为1 或者再求解一个关于步长的函数,求其极值点。 一阶梯度法和二阶梯度法,中,H,J都是fx*fx 误差平…...

Wan2.1模型实测:用TurboDiffusion快速生成电商产品展示视频

Wan2.1模型实测:用TurboDiffusion快速生成电商产品展示视频 1. 引言:当电商遇上秒级视频生成 想象一下这个场景:你是一家电商公司的运营,明天就要上架一款新产品,需要制作10个不同风格、不同角度的产品展示视频。按照…...

3步掌握microeco:微生物网络分析的完整指南

3步掌握microeco:微生物网络分析的完整指南 【免费下载链接】microeco An R package for data analysis in microbial community ecology 项目地址: https://gitcode.com/gh_mirrors/mi/microeco 还在为复杂的微生物网络分析而头疼吗?面对海量的物…...

MySQL 8.0 新版专用参数优化实战:吃透新特性,榨干数据库极限性能

本文原创首发 CSDN,聚焦 MySQL 8.0 专属优化特性,拒绝照搬 5.7 通用配置,所有参数均经过生产环境验证,高并发场景实测 TPS 提升 30%,主从延迟降至毫秒级。摘要很多 DBA 和运维同学升级 MySQL 8.0 后,直接照…...

全面掌握AdvancedSessionsPlugin:从基础到进阶的实战指南

全面掌握AdvancedSessionsPlugin:从基础到进阶的实战指南 【免费下载链接】AdvancedSessionsPlugin Advanced Sessions Plugin for UE4 项目地址: https://gitcode.com/gh_mirrors/ad/AdvancedSessionsPlugin 副标题:构建高性能多人游戏的会话管理…...

OpenClaw技能市场探索:Qwen2.5-VL-7B专用图文处理工具推荐

OpenClaw技能市场探索:Qwen2.5-VL-7B专用图文处理工具推荐 1. 为什么需要为Qwen2.5-VL-7B选择专用技能? 当我第一次将Qwen2.5-VL-7B多模态模型接入OpenClaw时,发现一个有趣的现象:这个能理解图片和文本的模型,在默认…...

突破性解决方案:用cursor-free-vip开源工具解锁Cursor Pro功能的深度解析

突破性解决方案:用cursor-free-vip开源工具解锁Cursor Pro功能的深度解析 【免费下载链接】cursor-free-vip [Support 0.45](Multi Language 多语言)自动注册 Cursor Ai ,自动重置机器ID , 免费升级使用Pro 功能: Youv…...

如何快速掌握微信自动化:3步终极解决方案

如何快速掌握微信自动化:3步终极解决方案 【免费下载链接】wxhelper Hook WeChat / 微信逆向 项目地址: https://gitcode.com/gh_mirrors/wx/wxhelper 想要实现PC端微信的自动化操作吗?wxhelper为你提供了完整的微信Hook解决方案,让你…...

Flut Renamer终极指南:3分钟掌握跨平台批量文件重命名技巧

Flut Renamer终极指南:3分钟掌握跨平台批量文件重命名技巧 【免费下载链接】renamer Flut Renamer - A bulk file renamer written in flutter (dart). Available on Linux, Windows, Android, iOS and macOS. 项目地址: https://gitcode.com/gh_mirrors/ren/rena…...

深夜告警炸裂?这份Linux故障排查“作战地图”请收好判

先唠两句:参数就像餐厅点单 把API想象成一家餐厅的“后厨系统”。 ? 路径参数/dishes/{dish_id} -> 好比你要点“宫保鸡丁”这道具体的菜,它是菜单(资源路径)的一部分。查询参数/dishes?spicytrue&typeSichuan -> 好比…...

Graphormer效果展示:同一分子不同SMILES写法下的预测一致性验证

Graphormer效果展示:同一分子不同SMILES写法下的预测一致性验证 1. 模型概述 Graphormer是一种基于纯Transformer架构的图神经网络,专门为分子图(原子-键结构)的全局结构建模与属性预测而设计。该模型在OGB(Open Graph Benchmark)和PCQM4M等分子基准测…...

不满意Oh My Zsh启动卡顿,来试试Starship吧郧

pagehelper整合 引入依赖com.github.pagehelperpagehelper-spring-boot-starter2.1.0compile编写代码 GetMapping("/list/{pageNo}") public PageInfo findAll(PathVariable int pageNo) {// 设置当前页码和每页显示的条数PageHelper.startPage(pageNo, 10);// 查询数…...

Mapshaper:免费开源地图数据编辑器的完整使用指南

Mapshaper:免费开源地图数据编辑器的完整使用指南 【免费下载链接】mapshaper Tools for editing Shapefile, GeoJSON, TopoJSON and CSV files 项目地址: https://gitcode.com/gh_mirrors/ma/mapshaper 还在为复杂的地理数据处理而烦恼吗?Mapsha…...

Qwen2.5-0.5B如何快速上手?新手入门必看部署实操指南

Qwen2.5-0.5B如何快速上手?新手入门必看部署实操指南 你是不是也对最近火热的开源大模型Qwen2.5系列感到好奇?特别是那个号称“小身材大能量”的Qwen2.5-0.5B-Instruct模型。它只有5亿参数,却继承了阿里通义千问系列强大的指令跟随和多语言能…...

如何为数字创作者解决广色域显示器色彩失真问题?novideo_srgb的革新性精准色彩映射实践

如何为数字创作者解决广色域显示器色彩失真问题?novideo_srgb的革新性精准色彩映射实践 【免费下载链接】novideo_srgb Calibrate monitors to sRGB or other color spaces on NVIDIA GPUs, based on EDID data or ICC profiles 项目地址: https://gitcode.com/gh…...

KKS-HF Patch 完整解决方案:优化《Koikatsu Sunshine》游戏体验指南

KKS-HF Patch 完整解决方案:优化《Koikatsu Sunshine》游戏体验指南 【免费下载链接】KKS-HF_Patch Automatically translate, uncensor and update Koikatsu Sunshine! 项目地址: https://gitcode.com/gh_mirrors/kk/KKS-HF_Patch KKS-HF Patch 是针对《Koi…...

驾驭Mac散热:smcFanControl全方位温控指南

驾驭Mac散热:smcFanControl全方位温控指南 【免费下载链接】smcFanControl Control the fans of every Intel Mac to make it run cooler 项目地址: https://gitcode.com/gh_mirrors/smc/smcFanControl 当您的MacBook在视频会议中突然画面卡顿,或…...

构建企业级单点登录认证中心:Spring Boot OAuth2 Server完整实战指南

构建企业级单点登录认证中心:Spring Boot OAuth2 Server完整实战指南 【免费下载链接】oauth2-server spring boot (springboot 3) oauth2 server sso 单点登录 认证中心 JWT,独立部署,用户管理 客户端管理 项目地址: https://gitcode.com/gh_mirrors/oau/oauth2-…...

LeetDown:让老旧iOS设备重获新生的macOS降级工具

LeetDown:让老旧iOS设备重获新生的macOS降级工具 【免费下载链接】LeetDown a GUI macOS Downgrade Tool for A6 and A7 iDevices 项目地址: https://gitcode.com/gh_mirrors/le/LeetDown LeetDown是一款专为macOS设计的图形化iOS设备降级工具,它…...

如何在不影响员工效率的前提下,彻底杜绝Web威胁?

在数字化转型的浪潮中,浏览器早已从一个简单的网页浏览工具,演变为企业业务运转的核心枢纽。无论是访问云应用、处理内部系统,还是与客户协作,几乎每项工作都离不开它。然而,正是这种无处不在的依赖,让浏览…...

中小企业福音:Qwen3-14B私有化部署全流程,轻松搞定智能客服与文档处理

中小企业福音:Qwen3-14B私有化部署全流程,轻松搞定智能客服与文档处理 1. 为什么选择Qwen3-14B 对于中小企业来说,部署AI模型往往面临两难选择:公有云API担心数据安全,自研模型又缺乏技术实力。Qwen3-14B正好填补了这…...

项目迁移命令

1、选择不同分组 根据不同域名选择不同分组, 项目A:*.a.com项目B:*.b.com项目C:*.c.cnmobile:App所有项目接口:三个接口系统学习:运维学习项目、各岗位学习的框架类库等 2、创建项目 在对应…...

WSL2 Arch Linux快速安装Docker指南

1. 前言 在 WSL2 中使用 Arch Linux 时,Docker 是一个常用的工具。本文基于 Arch Linux Wiki 和相关技术资料,整理了完整的 Docker 安装流程,帮助读者快速完成配置。 2. 下载与启动设置 Arch Linux 的软件仓库已包含 Docker,可直接…...

浏览器中的开发革命:Core72在线IDE版本控制实战指南

浏览器中的开发革命:Core72在线IDE版本控制实战指南 【免费下载链接】core Online IDE powered by Visual Studio Code ⚡️ 项目地址: https://gitcode.com/gh_mirrors/core72/core 当你在咖啡馆突然收到紧急修复需求,却发现没带开发笔记本时&am…...

OpenClaw 终于遇到了真正的对手:Hermes Agent

全球开发者蜂拥而至的 OpenClaw,正在被一个两个月的新产品正面挑战Hermes Agent 出现了。它没有 OpenClaw 的生态,没有它的星标,没有 Nvidia 的背书。但它正在重新定义一个问题:Agent 到底应该是你配置的工具,还是一个…...