当前位置: 首页 > article >正文

SLEICL框架:用“魔法书”提示工程提升小模型上下文学习性能

1. 项目概述用“魔法书”解锁小模型的大潜能如果你最近在折腾大语言模型尤其是那些参数规模在7B、13B左右的“小模型”可能会发现一个头疼的问题想让它们通过上下文学习In-context Learning, ICL的方式也就是给几个例子让它模仿着完成任务效果总是不太稳定。有时候灵光一现有时候又答非所问性能波动得跟心电图似的。这背后的原因很复杂涉及到模型架构、训练数据量当然最直接的就是参数规模——模型越小理解和遵循复杂指令、从少量示例中抽象出规律的能力通常就越弱。今天要聊的这个项目Grimoire直译过来是“魔法书”或“秘籍”它提供了一套非常巧妙的解决方案。它的核心思路我称之为“名师出高徒”策略我们不直接让能力较弱的小模型去硬啃那些复杂的示例这就像让小学生直接看大学教材而是先请一位“名师”——比如GPT-4这样强大的大模型——去学习、消化这些任务示例并总结出一套精炼的“解题心法”或“技能秘籍”。然后我们把这本浓缩了精华的“魔法书”交给小模型。小模型拿到这本高度提炼、逻辑清晰的秘籍后再去推理和应用任务难度就大大降低了效果自然就上来了。这个方法在论文里被称为SLEICL。我实际跑下来发现它确实能让像Baichuan、Llama、Phi-2这类模型在多项数据集上的表现获得显著且一致的提升有些任务上甚至能逼近或超越GPT-4零样本zero-shot的效果。这对于资源有限、但又希望获得可靠AI能力的研究者和开发者来说无疑是个福音。接下来我就带你彻底拆解这本“魔法书”的炼制与使用全过程。2. 核心原理拆解SLEICL如何为小模型“开小灶”在深入代码之前我们必须先吃透SLEICL背后的逻辑。传统的ICL可以看作“题海战术”直接把一堆问题和答案Few-shot Examples塞给模型指望它能自己悟出规律。这对大模型可能有效但对小模型来说信息过载和规律提取的难度太高。SLEICL则把这个过程拆解成了两个阶段知识提炼与知识迁移。2.1 知识提炼强模型如何撰写“魔法书”这个阶段的主角是强语言模型如GPT-4。它的任务不是简单地回答问题而是扮演一个“超级教师”或“方法论专家”。任务理解与示例分析强模型会接收到针对特定任务如文本分类、推理、代码生成的一组标准示例。它需要深入分析这些示例之间的共性、解决问题的核心步骤、关键决策点以及容易出错的陷阱。生成“魔法书”基于分析强模型会生成一段或一系列高度凝练的文本描述。这段描述就是Grimoire。它可能包括任务定义的重述用更清晰、无歧义的语言重新定义任务。核心推理框架解决问题的标准化步骤或思维链。格式规范输出应该遵循的严格格式。避坑指南明确指出哪些地方容易误解应该如何避免。元提示指导模型如何利用这些信息进行思考。举个例子对于一个情感分析任务传统的ICL提示可能是“句子A: 这个电影太棒了 - 积极句子B: 服务很差。 - 消极请分析句子C: ...”。而Grimoire可能会生成“请执行情感分析。首先识别句子中表达主观感受的关键词或短语如形容词、动词。其次判断这些词汇的通常情感倾向积极/消极。注意反讽或双重否定需要特别处理。最终输出只允许是‘积极’或‘消极’。”关键点Grimoire不是新的训练数据而是一种高级的、可解释的提示。它把隐性的任务规律变成了显性的操作指南。2.2 知识迁移小模型如何运用“魔法书”在这个阶段弱模型小模型登场。它不再直接面对杂乱无章的原始示例而是接收到前置的Grimoire首先阅读并尽可能理解那本由强模型撰写的“魔法书”。可能精简后的示例有时为了节省上下文长度示例数量会减少或者示例本身也经过Grimoire的“润色”变得更规范。待推理的问题。此时小模型的任务变成了在Grimoire建立的清晰框架下应用从少数示例中观察到的模式来解决新问题。由于思考框架已经被大大简化小模型犯晕和跑偏的概率就降低了。项目中的实现对应在core/llm模块中你会看到加载不同规模模型的代码。core/data模块处理的就是如何将原始数据集、Grimoire文本和示例组装成符合SLEICL格式的最终提示。configs/experiment.yaml中的配置则决定了在哪个阶段使用哪个模型强模型生成Grimoire弱模型进行推理。3. 环境搭建与数据准备实战理解了原理我们动手把环境跑起来。Grimoire项目基于Python结构清晰搭建过程不算复杂。3.1 基础环境配置按照项目README的步骤来是没问题的但我会补充一些细节和避坑点。# 1. 克隆代码库 git clone https://github.com/IAAR-Shanghai/Grimoire.git cd Grimoire # 2. 创建并激活Conda环境 # 这里我强烈建议使用Python 3.8或3.9与大多数深度学习库的兼容性最好。 conda create -n grimoire python3.8.18 -y conda activate grimoire3.2 依赖安装与脚本执行接下来运行安装脚本# 3. 赋予脚本执行权限并运行 chmod x setup.sh ./setup.sh这里有个重要的注意事项setup.sh脚本通常会做两件事通过pip install -r requirements.txt安装Python依赖。执行一些初始化的数据预处理脚本如embed.py,compute_similarity.py。潜在问题与排查网络问题安装torch或transformers时可能较慢或失败。建议先配置国内镜像源如清华、阿里云。对于PyTorch更可靠的方法是去 官网 根据你的CUDA版本生成安装命令。权限问题如果脚本中涉及创建目录或下载数据到系统路径可能会因权限失败。可以尝试用bash -x setup.sh来调试看具体哪一步出错。缺失数据脚本可能会自动下载某些数据集如datasets库中的。确保网络通畅。如果某些数据集无法直接访问你可能需要手动寻找替代或使用代理此处需注意合规性仅指常规学术数据集的下载方式。3.3 关键配置文件详解环境准备好后核心的配置在于两个YAML文件。configs/llm.yaml定义你的“名师”和“高徒”这个文件配置了你要使用的所有语言模型。格式大致如下gpt-4: api_type: openai api_base: https://api.openai.com/v1 api_key: your-api-key-here model: gpt-4-1106-preview llama2-7b-chat: api_type: huggingface model_name_or_path: meta-llama/Llama-2-7b-chat-hf device_map: auto load_in_8bit: true # 使用8bit量化节省显存 baichuan2-7b-chat: api_type: vllm # 使用vLLM进行高效推理 model_name_or_path: baichuan-inc/Baichuan2-7B-Chat tensor_parallel_size: 1 # GPU数量你需要根据实际情况修改对于OpenAI API填入正确的api_key。如果你使用其他兼容OpenAI API的平替服务修改api_base。对于Hugging Face模型model_name_or_path可以是HF模型ID也可以是本地模型路径。device_map对于多GPU可设为auto或cuda:0。load_in_4bit/8bit非常关键对于7B、13B的模型在消费级显卡如24G显存上全精度加载几乎不可能。务必开启量化。8bit平衡了速度和精度4bit更省显存但可能略有精度损失。对于vLLM这是高性能推理框架尤其适合批量生成。需要先安装vLLM (pip install vllm)。tensor_parallel_size指定了张量并行使用的GPU数。configs/experiment.yaml设计你的实验这个文件控制实验流程。核心部分包括experiment_name: my_sleicl_test task: sentiment_analysis # 对应data目录下的数据集 strong_llm: gpt-4 # 指定“名师” weak_llms: [llama2-7b-chat, baichuan2-7b-chat] # 指定“高徒们” grimoire_generation: method: zero_shot # 如何让强模型生成Grimoire zero_shot / few_shot prompt_file: ./prompts/grimoire_gen.txt # 生成Grimoire的提示词模板 inference: use_grimoire: true # 是否在推理时使用Grimoire few_shot_num: 4 # 伴随Grimoire一起给的示例数量配置心得grimoire_generation.prompt_file是项目的精髓之一。你需要精心设计提示词来引导强模型写出高质量的“魔法书”。项目prompts/目录下通常会有一些模板你可以在此基础上迭代。few_shot_num需要权衡。示例太多会挤占上下文窗口导致小模型无法处理长输入示例太少可能不足以体现模式。一般从2-5个开始尝试。3.4 复现实验的快速通道如果你想直接复现论文中的实验结果项目很贴心地提供了缓存cp -r ./archived/.cache ./这个命令将论文实验中使用过的、已经生成好的Grimoire和筛选过的困难样本hard samples复制到当前目录的.cache文件夹中。这样你就可以跳过耗时的Grimoire生成和示例筛选阶段直接进行推理和评估快速验证效果。4. 核心代码模块深度解析现在我们深入项目核心看看代码是如何组织并实现SLEICL思想的。4.1 数据流处理 (core/data)这个模块负责将原始数据加工成模型可以消化的格式。主要步骤数据加载从data/目录或Hugging Facedatasets库加载特定任务的数据集。示例组装根据experiment.yaml的配置从数据集中随机或按特定策略选取few_shot_num个示例。提示模板填充这是关键。代码会读取prompts/下的模板文件并将Grimoire如果启用、选中的示例、以及当前待查询的问题按照模板格式拼接成一个完整的提示字符串。批处理为了效率会将多个查询提示组合成批次送给模型推理。一个简化的流程示意# 伪代码展示逻辑 def build_sleicl_prompt(task_description, grimoire_text, few_shot_examples, current_question): template 任务描述{task_desc} 【解题秘籍】 {grimoire} 【参考示例】 {examples} 【请解决以下问题】 {question} # 填充模板并返回 return template.format(...)4.2 模型加载与调用 (core/llm)这个模块抽象了不同后端模型OpenAI API, Hugging Face Transformers, vLLM的调用细节提供统一的接口。对于API模型如GPT-4使用openai库或requests发送HTTP请求。对于本地Hugging Face模型使用transformers的AutoModelForCausalLM和AutoTokenizer进行加载和生成。这里会应用llm.yaml中的量化配置。对于vLLM使用vllm的LLM类它内部实现了高效的注意力计算和连续批处理吞吐量远超原生Transformers。重要技巧在llm.yaml中为本地大模型设置max_model_len参数非常重要它决定了模型能接受的最大上下文长度。如果提示词Grimoire示例问题超过这个长度需要截断或报错。4.3 实验执行引擎 (experiments.py)这是整个项目的总控脚本。它大致的工作流程如下解析配置读取experiment.yaml和llm.yaml。生成或加载Grimoire如果.cache中没有则调用strong_llm使用指定的提示模板基于训练集样本生成Grimoire并保存。如果已有缓存则直接加载。迭代弱模型对weak_llms列表中的每一个模型加载模型。遍历测试集数据为每个数据点构建SLEICL提示。调用模型进行推理收集回答。评估与保存调用core/evaluator中的评估函数根据任务可能是准确率、F1值、代码执行通过率等计算模型性能。所有原始输出和评估结果保存到outputs/目录下以实验名和时间戳区分子目录。如何运行实验python experiments.py --config configs/experiment.yaml你需要确保在experiments.py的__main__部分或通过参数正确指定了配置文件路径。4.4 结果分析 (analyst.py)实验跑完后outputs/里会有一堆文件。analyst.py脚本帮你进行汇总和分析。结果汇总它会读取指定实验的所有输出计算每个模型在不同数据集上的平均性能、标准差等。性能对比生成模型使用Grimoire前后SLEICL vs. 标准Few-shot的性能对比表格。可视化可能会生成像项目主页上那样的柱状图或折线图直观展示性能增益。运行分析python analyst.py --output_dir outputs/my_sleicl_test5. 实战经验炼制高质量“魔法书”的技巧与避坑指南纸上得来终觉浅。在实际使用Grimoire的过程中我积累了一些至关重要的经验这些在官方文档里不一定找得到。5.1 Grimoire提示词设计心法Grimoire的质量直接决定小模型的天花板。让强模型写好Grimoire是一门提示工程。角色扮演法在提示词开头为强模型赋予一个专家角色。例如“你是一位资深的数据科学家擅长文本分类任务。你的任务是创建一份清晰、无歧义的指南帮助一个初级模型理解如何执行情感分析。”结构化输出要求明确要求Grimoire必须包含几个部分。例如“你的指南必须包含1. 任务重定义2. 分步推理流程3. 输出格式规范4. 常见错误及避免方法。”提供种子示例即使采用zero_shot生成也可以在提示词中隐含一两个非常简单的示例来锚定任务的格式和风格。迭代优化不要指望一次成功。生成第一批Grimoire后手动检查它们是否清晰、准确、无歧义。挑选出有问题的任务修改提示词模板重新生成。这是一个“提示词-评估-优化”的循环。5.2 本地模型部署与优化技巧显存是最大敌人对于7B模型FP16加载需要约14GB显存。务必使用load_in_8bit(约7GB) 或load_in_4bit(约4GB)。推荐使用bitsandbytes库进行量化。vLLM是吞吐量利器如果你需要批量处理大量查询例如在构建测试集时vLLM的并行化和内存管理能带来数倍甚至数十倍的加速。它的LLM类接口和Transformers类似上手容易。注意推理速度小模型在本地推理速度也可能受限于生成长度和硬件。在experiment.yaml中合理设置max_new_tokens最大生成令牌数避免生成无关内容浪费时间和算力。5.3 实验设计与评估的注意事项控制变量对比SLEICL和标准Few-shot时务必确保除了“是否添加Grimoire”这一点外其他条件完全一致如示例数量、示例内容、模型参数、随机种子。示例选择策略项目默认可能是随机选择示例。但对于某些任务示例的选择至关重要。你可以实现或引入更高级的策略如基于相似度的选择选择与当前测试问题最相似的训练样本作为示例。基于多样性的选择选择能覆盖不同情况或类别的示例以提供更全面的模式。这些策略的实现可以参考external/目录下基于分类器的Grimoire排序模型思路。评估指标准确率Accuracy是最直接的但对于分类不均衡的任务或生成任务要使用更合适的指标F1, BLEU, ROUGE, 代码执行通过率等。确保core/evaluator中的评估函数与你的任务匹配。5.4 常见错误与排查清单问题现象可能原因解决方案运行setup.sh时安装失败网络问题依赖冲突Python版本不匹配1. 检查网络更换pip源。2. 创建新的干净Conda环境。3. 查看错误日志手动安装指定版本的包。加载本地模型时OOM显存不足模型太大未启用量化max_model_len设置过长1. 在llm.yaml中开启load_in_8bit: true。2. 减小max_model_len。3. 升级显卡或使用模型并行。模型生成内容胡言乱语或不符合格式Grimoire质量差提示词模板有误模型本身能力不足1. 检查并优化Grimoire生成提示词。2. 手动检查生成的Grimoire内容。3. 在提示词中加强输出格式的要求如“必须输出JSON格式”。OpenAI API调用返回错误API密钥错误额度不足请求频率超限1. 检查llm.yaml中的api_key。2. 登录OpenAI平台检查额度和账单。3. 在代码中增加请求间隔如time.sleep(1)。评估结果异常低数据预处理出错提示词拼接错误评估函数有bug1. 打印出几条构建好的完整提示词检查Grimoire、示例、问题是否拼接正确。2. 单独运行评估函数测试已知输入输出是否正确。3. 检查测试集标签是否正确加载。6. 扩展思考Grimoire的潜力与未来玩法Grimoire的思想不仅限于论文中的实验它打开了一扇门。这里分享几个我想到的扩展方向领域自适应魔法书为法律、医疗、金融等垂直领域预先生成高质量的领域专用Grimoire。当一个通用小模型加载了法律Grimoire后它处理法律文本的能力就能得到专项提升而不需要昂贵的全参数微调。动态魔法书目前的Grimoire是静态的。是否可以设计一个机制让小模型在推理过程中对当前问题“检索”最相关的Grimoire片段或者根据初步结果动态请求强模型生成更针对性的微指导这有点像检索增强生成RAG和ICL的结合。魔法书蒸馏将强模型生成的、文本形式的Grimoire通过知识蒸馏的方式压缩成更小的、结构化的形式如一组规则、一个决策树、或嵌入到模型的一组软提示中从而完全脱离对原始冗长文本的依赖实现更高效的部署。多模态魔法书对于多模态大模型VLMsGrimoire可以包含如何理解图像-文本对、如何按步骤描述图像等指导从而提升小规模VLMs在复杂视觉推理任务上的表现。这个项目的价值在于它提供了一套简洁而强大的框架。它让你清晰地认识到提升小模型性能未必一定要增加参数或数据通过改进“信息的呈现方式”——即提供更好的“元指导”——同样可以挖掘出模型巨大的潜能。在实际操作中最大的乐趣和挑战往往就在于设计和迭代那本能让小模型“开窍”的完美魔法书。

相关文章:

SLEICL框架:用“魔法书”提示工程提升小模型上下文学习性能

1. 项目概述:用“魔法书”解锁小模型的大潜能 如果你最近在折腾大语言模型,尤其是那些参数规模在7B、13B左右的“小模型”,可能会发现一个头疼的问题:想让它们通过上下文学习(In-context Learning, ICL)的方…...

SyntaxUI:基于Tailwind CSS与Framer Motion的React组件库实战指南

1. 项目概述:SyntaxUI,一个为现代Web开发者提速的组件库如果你和我一样,常年奋战在React、Next.js项目的一线,那你一定对“重复造轮子”这件事深恶痛绝。每次新项目启动,从零开始搭建按钮、卡片、模态框、导航栏&#…...

Docker多阶段构建与镜像优化实战

Docker多阶段构建与镜像优化实战:从1GB到50MB的瘦身之旅 🐳 镜像太大?构建太慢?安全隐患太多?本文通过真实 Node.js + Python 项目,手把手教你用多阶段构建把 Docker 镜像从 1GB 压缩到 50MB,附带完整的优化策略和踩坑指南。 一、为什么你的 Docker 镜像这么大? 很多…...

KouriChat + DeepSeek + 微信接入:本地 AI 角色聊天机器人搭建实录

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: 前言1 KouriChat项目简介2 环境准备3 环境安装及项目部署3.1 Python3.11 安装3.2 启动KouriC…...

基于LangGraph与LLM的对话式BI工具OpenChatBI实战部署指南

1. 项目概述:当自然语言对话遇见数据分析 如果你和我一样,每天都要和数据仓库、BI报表打交道,那你肯定也经历过这样的场景:业务同事跑过来问,“帮我看看过去一周的CTR趋势”,或者“对比一下这两个渠道的转化…...

别再只测SSRF读内网了:手把手教你用dict/gopher协议探测并攻击内网Redis服务

从SSRF到内网Redis渗透:实战进阶指南 发现SSRF漏洞只是开始,真正的挑战在于如何将其转化为实际的攻击路径。当目标内网存在Redis服务时,一个看似简单的SSRF可能成为整个内网沦陷的起点。本文将带你深入探索如何通过dict和gopher协议&#xff…...

牛津树资源合集

022-牛津树学校版 1-16级 文件大小: 6.8GB内容特色: 16阶校园版绘本音频一次打包,6.8G进阶无痛适用人群: 想省补习费的3-12岁家长核心价值: 跟着牛津进度走,词汇语感双飙升下载链接: https://pan.quark.cn/s/1ae54f5fbf4f Susan教英语《牛津树家庭版 L…...

从 LLM 到 Agent Skill

AI Agent 入门指南:从零理解智能体的世界理解 AI Agent 生态中的核心概念,知道每个名词是做什么用的一、先搞清楚:什么是 AI Agent?想象你有一个超级聪明的数字助理:它不仅能聊天,还能主动帮你做事它会自己…...

AI CLI Kit:让AI助手生成环境感知的精准命令行指令

1. 项目概述:为什么我们需要一个“懂环境”的AI助手?如果你和我一样,每天有大量时间花在终端里,那你肯定经历过这种场景:你正在Windows的PowerShell里调试一个脚本,转头去问Claude:“怎么批量重…...

3分钟学会Xbox Game Pass存档提取:免费工具实现跨平台游戏进度迁移

3分钟学会Xbox Game Pass存档提取:免费工具实现跨平台游戏进度迁移 【免费下载链接】XGP-save-extractor Python script to extract savefiles out of Xbox Game Pass for PC games 项目地址: https://gitcode.com/gh_mirrors/xg/XGP-save-extractor 作为游戏…...

2026年市面上的培训机构管理系统对比,谁才是性价比之王

教务是培训机构的 “心脏”,而排课是教务最核心、最耗时、最容易出错的环节。传统人工排课:打开 Excel,手动填教师、教室、学员、时间,反复核对冲突,排一周课表要 1–3 天,还经常出现:老师时间撞…...

大模型赛道岗位大揭秘:小白也能轻松入行的5大方向!

文章详细介绍了大模型相关岗位的五大类,包括基座模型岗(理论派、工程派、能力派)、应用算法岗、大模型开发/Agent工程师、AI Infra工程师以及大模型数据工程师。文章强调了应用算法岗更注重项目经验和工程能力,而大模型开发岗则涉…...

ARM链接器命令行选项优化与实战技巧

1. ARM链接器命令行选项深度解析 在嵌入式开发领域,ARM链接器(armlink)作为工具链的关键组件,承担着将多个目标文件合并为可执行程序的重任。不同于简单的文件拼接,现代链接器提供了数十种精细控制选项,能够深度优化代码布局、调试…...

ensp关闭完美世界运行时显示权限不够

Windows PowerShell 版权所有(C) Microsoft Corporation。保留所有权利。安装最新的 PowerShell,了解新功能和改进!https://aka.ms/PSWindowsPS C:\Users\Administrator> net stop MessageTransfer 发生系统错误 5。拒绝访问。…...

RFID电动车智能门禁管理系统技术采用四层架构设计,实现电动车智能化管理。感知层采用防水防撕RFID电子车牌;识别层配置3-4米远距离读卡器;控制层集成ARM7处理器;执行层通过电动道闸或摆闸或广告门

RFID电动车智能门禁管理系统技术方案一、系统架构概览层级设备/组件功能说明感知层RFID电子车牌(DDC-RFID)车辆身份标识,防水防撕带刀口识别层RFID读卡器一体机(DAIC-DDC-RFID)3-4米远距离识别,920-925MHz频…...

基于OpenClaw协议的轻量级AI代理网关MiniClaw实战指南

1. 项目概述:一个轻量级的AI代理网关如果你正在开发一个基于OpenClaw协议的AI应用客户端,或者想快速搭建一个能与现有OpenClaw生态工具(比如各种仪表盘、集成插件)兼容的独立AI代理服务,那么你很可能需要一个能完整实现…...

dotUI设计系统生成器:基于品牌配置一键生成React组件库

1. 项目概述:dotUI,一个为品牌而生的设计系统在当今的Web开发领域,尤其是基于React的生态中,我们常常面临一个两难的选择:是使用现成的UI组件库快速搭建界面,还是投入大量时间从零开始构建一套完全符合品牌…...

西门子S7-300/400老系统改造:用DP/DP Coupler打通新旧产线数据(附Step7组态避坑点)

西门子S7-300/400老系统改造:用DP/DP Coupler打通新旧产线数据(附Step7组态避坑点) 在工业自动化领域,老旧产线升级改造往往面临新旧设备通讯协议不兼容的难题。当传统S7-300系统需要与现代化S7-400或带PN接口的PLC进行数据交互时…...

HDFS源码(二)

DataNode启动源码 创建HttpServer 初始化DataNode Rpc服务 获取NameNode Rpc代理 Datanode向NameNode注册 DataNode与NameNode周期心跳及block块汇报 数据上传源码 创建文件系统及初始化DFSClient 连接NN创建目录 启动DataStreamer线程 向dataQueue队列中写入packet 设置副本写…...

苍穹外卖 项目记录 第四天

第四天任务 完成套餐管理模块所有业务功能,包括:新增套餐套餐分页查询删除套餐修改套餐起售停售套餐每个功能的实现都要按照一般开发流程:需求分析和设计(结合产品原型,接口设计,数据库设计) -> 代码实现 -> 功能测试(成功后提交代码)套…...

XT2055 双灯显示微型线性电池充电管理芯片

■ 产品概述 XT2055 是一款完善的单节锂电池恒流/恒压线性充电管理芯片。较薄的尺寸和较小的封装使它适用于便携式产品的应用,XT2055 也适用于 USB 的供电电路。得益于内部的MOSFET 结构,在应用上不需要外部电阻和阻塞二极管。在高能量运行和外围温度较高…...

多说话人场景下的设备定向语音检测技术解析

1. 多说话人场景下的设备定向语音检测技术解析在智能语音交互系统中,准确识别用户何时在对设备说话(设备定向语音)而非与他人交谈,是提升用户体验的关键技术挑战。这项技术被称为设备定向语音检测(Device-Directed Spe…...

第1篇:认识Go——我的第一个程序 Go中文编程

第1篇:认识Go——我的第一个程序**作者:**中文编程倡导者—— 李金雨 联系方式: wbtm2718qq.com目标:让你成功运行第一个Go程序,建立学习信心! 预计时间:2课时(90分钟) 难…...

中国移联AI元宇宙产业委调研阿尔特汽车科技园 构建高精尖产业的“技术-场景-商业”融合生态

(央链知播 北京讯) 5月7日,中国移动通信联合会人工智能与元宇宙产业工作委员会(简称“中国移联AI与元宇宙产业委”)、中国移动通信联合会数字文化与智慧教育分会、中国通信工业协会区块链专业委员会等机构秘书长何超带…...

Butlerclaw:OpenClaw AI Agent的图形化桌面管理工具

1. 项目概述如果你和我一样,对AI Agent的潜力感到兴奋,但又对OpenClaw这类框架复杂的安装、配置和日常管理感到头疼,那么Butlerclaw的出现,绝对是一个值得庆祝的消息。简单来说,Butlerclaw是一个为OpenClaw量身打造的“…...

基于微信小程序的家政服务预约系统(30291)

有需要的同学,源代码和配套文档领取,加文章最下方的名片哦 一、项目演示 项目演示视频 二、资料介绍 完整源代码(前后端源代码SQL脚本)配套文档(LWPPT开题报告/任务书)远程调试控屏包运行一键启动项目&…...

英雄联盟游戏效率工具League Akari:智能自动化与数据分析完整指南

英雄联盟游戏效率工具League Akari:智能自动化与数据分析完整指南 【免费下载链接】League-Toolkit An all-in-one toolkit for LeagueClient. Gathering power 🚀. 项目地址: https://gitcode.com/gh_mirrors/le/League-Toolkit 还在为BP阶段手速…...

软考(系统架构师)-论分布式缓存架构设计及其应用

摘要 随着企业协同办公系统用户规模与并发请求量持续增长,作为核心支撑的用户中心系统面临高并发查询、数据库压力过载、通讯录同步缓慢、服务 CPU 与内存频繁告警等性能瓶颈。本人在项目中担任系统架构师,负责用户中心分布式多级缓存架构的选型、设计、…...

Android本地AI语音助手Cliff:开源、离线与可定制的边缘计算实践

1. 项目概述:Cliff,一个运行在Android上的本地化AI语音助手最近在GitHub上看到一个挺有意思的项目,叫“Cliff-Android-Voice-Assistant”。光看名字,你大概能猜到它是一个给安卓设备用的语音助手。但和Siri、小爱同学、Google Ass…...

终极指南:快速掌握碧蓝航线Live2D资源提取技术

终极指南:快速掌握碧蓝航线Live2D资源提取技术 【免费下载链接】AzurLaneLive2DExtract OBSOLETE - see readme / 碧蓝航线Live2D提取 项目地址: https://gitcode.com/gh_mirrors/az/AzurLaneLive2DExtract 在数字内容创作和游戏开发领域,Live2D动…...