当前位置: 首页 > article >正文

作为一名在读博士生,我在日常是如何与AI协作的?

前言当同事不当工具我是一名人工智能方向的在读博士生大概在 ChatGPT 出来以后还是 GPT-3.5 的时候就比较重度使用 AI 以及 AI 工具了。几年下来AI 已经渗透到我工作和学习很多环节有一些心得想分享一下~当同事不当工具我认为至少未来几年应该是人机协作的时代现在回头看我觉得过去很多所谓“会用电脑”其实有相当一部分是在给机器当翻译。人脑子里明明只有一个目标落到电脑上却总要拆成一堆很零碎的动作。很多时候不是事情本身真有那么复杂而是旧系统根本听不懂你的意图只能逼着你先把目标嚼碎再翻译成它能执行的步骤。这也是为什么我现在越来越自然地把 AI 当同事而不只是当工具。2. 几个方法论贯穿后文的所有场景元提示词思维让 AI 写操纵 AI 的 Prompt人做微调苏格拉底追问让 AI 从多角度逼问自己把模糊的想法变清晰多模型协作不同任务用不同模型后文会在各个场景展开经验沉淀把流程固化为 SkillAgent 中的术语越用越好越用越快一、日常使用AI 作为随身顾问划词工具栏我现在主要用的是豆包的划词工具栏功能它能在电脑全局实现划词唤醒。最方便的是支持自定义划词动作——比如我写了一个概念解释器划词后直接给出学术概念的通俗解释省去了每次都要打开浏览器搜索的麻烦。市面上类似的工具还有夸克、飞书等提供的划词工具栏。更进阶的方案比如 Pot Desktop、Cherry Studio 支持自定义 API可以接入更强的模型但目前豆包对我来说够用了。划词功能我一般拿来做日常问答以及基本的搜索翻译这些比较简单的事情。大家在日常使用 AI 的时候可以刻意降低使用 AI 的摩擦力让 AI 的入口尽可能贴近你的工作流。摩擦力越低越愿意用AI 能被挖掘出来的价值就容易越大。通过IM软件远程调用Agent可以通过类似cc-connecthappy这样的应用可以实现用IM软件远程调用现有的本地Coding AgentClaudeCodeCodex也可以直接使用类似OpenClawHermes的成品。我认为IM是最低摩擦的派活的一个入口可以随时把任务抛出去远端机器是Agent的工作台它可以下载、转写、分析、跑代码、生成 PDF、发回结果。但最吸引我的还是可持续培养性让Agent 记得你的偏好、知道你的项目结构、沉淀 skill/workflow逐渐变成“熟悉我的同事”。最近我主要是拿他们当咨询类的推送助手以及提醒我吃饭、睡觉、写日记之类的 chatbot。我会给它我的日记访问权限让它每天去读我近期的日记以及往年当天的日记用来督促我继续写日记。和我一起聊我的零散碎碎念帮我整理我的知识wiki…谈谈最近的GPT-Image-2文字回答可以解释概念但图像可以把层级、关系、流程、对比、因果、空间结构一次性摊开。GPT-Image-2 这类模型的价值不只是“画得像”而是能把前面讨论出来的上下文转成可检查、可讨论、可迭代的视觉对象。与此前的nanobanana类似当前image model从image generation迈向visual intelligence的模式模型不仅仅根据提示生成图片还需要理解上下文、规划版式、保持多图一致性、执行对话式修改并将丰富上下文转成可视化产物。GPT-Image-2生成图片的自然感能够达到“以假乱真”的水平这也要求我们提高评价标准从更细致的内容层面进行检查。如根据上下文生成科研绘图应根据自身理解与其进行交叉验证比较我们已经正式迈入了“有图未必有真相”“图片内容不再可靠”的时代未来我们很难通过肉眼以极短的时间判断出来一张高真实度的图片是否可信可能需要仔细检查细节一致性逻辑关系来源链路与发布主体。而不是“看起来像真的”。最近我真的在看到可能任何一张社交媒体传播的图片我都会怀疑是不是AI生成的特别是在这样一个魔幻的时代看到很多很多可能不太符合正常逻辑的事情发生二、科研科研文献阅读我把文献阅读分成四个阶段调研→筛选→精读→整合。阶段一课题调研我主要用 OpenAI 的 Deep Research以及GPT-5.5-Pro 做课题调研以及可行性分析我会要求 AI 不仅提供最新文献还必须包含该领域的开山之作之后将这些内容让agent按照个人偏好去构建wiki。阶段二文献网络分析Literature Network Analysis找到几篇感兴趣的论文以后找到锚点借助 Paper Connect 等工具可视化文献间的引用关系快速判断研究热度与技术脉络。这些数据应该也同步给Agent做成适合 Agent 用的 Skill调研的时候自动分析好文章的引与被引关系和我交流这些文献搞清楚这些文献之间的逻辑关系最终自动下载相关论文以供后续引用或精读。- 如果某篇论文的引用网络图非常庞大说明这个方向已经很卷了。反之可能还是蓝海。阶段三确定精读 → 逐篇攻克下载论文到相关文件夹以后我会先和 Agent 讨论一下当下研究已经推进到了什么地步再确定阅读顺序去除无关或暂时不感兴趣的论文。这里常用的就是 Codex、Claude Code这些Cli。整个过程要逐步扩充整理wiki精读环节我会用两个模型配合Gemini 负责宏观视角从 动机→数学建模→实验→结论→评述 五个角度分析一篇论文这个格式也方便写周报直接截图就行GPT 负责逐句精读最近我也发现了 HJFYhttps://hjfy.top/这样的网站可以先辅助做论文翻译另外我会结合自己做的 GPT 精读 Skill / GPTs对关键句子做更细的解释。阶段四知识整合精读讨论清楚了以后带着完整上下文直接交给gpt-image-2生成信息图一般一篇论文一张足矣带着个人的理解与这张图交叉验证最终存档。在执行这些过程通过 Agent 的 Skill 打通各个环节提升速度带来复利。等我一阵子开源~最近事情比较多心情很down关于科研绘图科研绘图的三个类别科研绘图分为三类。明白这些术语可以更好地操纵模型绘图插图Illustrations阐述论文核心思想的示意图Teaser图在学术界通常指为一篇论文制作的高度浓缩、引人注目的视觉摘要常见于顶级期刊的封面Cover或亮点介绍HighlightPoster海报学术海报用于在会议上展示研究成果要求信息密度高、逻辑清晰且视觉吸引力强策略让 AI 写操纵 AI 的 Prompt我发现让模型去生成 Prompt 的水平远超我自己尤其是科研绘图方面——让我自己描述我几乎完全描述不清楚。我会先让大语言模型理解我的论文内容然后由它来创造和优化用于生成图像的详细 Prompt。具体来说把论文/想法丢给 AI先问它在内容布局、配色、字体三个维度上如何规划可以主动指定大风格比如 “Nature/Science 风格”一个很有效的技巧是使用参考图把日常积累的优秀插图丢给 AI让它分析风格再基于你的论文内容生成新图像。目前我还是把 AI 作为草图助手。出了草图以后我会尽可能让 Agent 帮我做成 slides 或 HTML再由我自己微调。AI 绘图需要大量迭代和多次尝试。目前 AI 最适合的角色还是创意激发和草图设计助手所有生成结果尤其是涉及数据和逻辑的部分依然必须经过严格的人工审核与修正。严肃关于科研写作让 AI 多审几遍现在 AI 审稿越来越严重尤其是在 AI 领域。论文构思好以后起稿阶段就可以先用相关的论文润色 Skill 辅助打稿。有了相对完整的草稿以后建议多用专业的审稿 Agent 来审。我目前主要用 paperreview 和 cspaper 这两个网站前者好像可以无限用后者每个月有免费次数另外我也做了一个可以给 Code Agent 调用的 paperreview Skill放在 GitHub 仓库里了。拿到审稿意见以后再和 AI 讨论哪里需要修改。在给导师看论文之前先多迭代几轮把一些潜在的小问题尽量提前解决掉。另外其实这样写出来的论文也更容易被 AI 认可如果审稿人本身也在用 AI 审稿可能会更容易给 accept。和 AI 一起写可以但前提是它真的理解对了一定一定一定要确保 AI 对内容的理解是正确的一旦理解错了后面越写越多越写越偏非常危险沉淀不同领域的写作 Skill我现在越来越强烈的感受是不同领域的论文写作风格真的不太一样。有的领域注重严谨推导有的领域看重叙事铺垫有的领域对实验细节特别敏感。所以与其每次都去重新教 AI “这类论文应该怎么写”不如直接拿本领域你认可的参考论文去喂慢慢沉淀出一个更适合你自己的写作 Skill。可以先拿通用的科研写作 Skill 作为底子这个 Skill 不一定要多复杂但它最好是知道你这个领域常见的论文结构知道你偏好的写作风格知道哪些地方要展开哪些地方不能废话知道你对实验、图表、相关工作、贡献总结的习惯要求如果看到读起来特别舒服的高质量论文也记得让 Code Agent 去学一下。三、Code Agent工具演变我最先接触 Code Agent 的是 Cursor后面逐步进化到 Claude Code 与 Codex 这些。现在构思的时候是 Claude Code、Codex、Gemini CLI 以及 OpenCode 四个一起用通过 Claude-Code-Bridge也就是常说的 CCB。构思清楚以后交给 GPT 模型开 xhigh 模式一步一步严格执行。通常就是睡一觉的功夫问题就解决好了。复杂需求的处理流程简单需求就不展开了。说说复杂需求怎么做参考刘小排的经验先花数小时时间与多个模型讨论需求细节把模糊的想法逐渐写清楚能够落地。事实上我的很多个想法都是极其模糊的可能我想的一两句话背后有十几个决策点需要关注。具体做法我会先把一开始的需求同时发给四个 AI让他们用自己的话术整理需求然后向我提问他们有一个共同的原则宁可多探索 10 步也不要问用户自己原本就可以找到的东西。我不断回答各个 AI 提出的问题AI 继续追问这个过程要让 AI 多输出可视化的 ASCII 原型图加深自己的理解。不断让 Claude 模型去整理各个会话的内容Claude 的模型说的容易懂不断迭代直到所有 AI 都认为当前的方案已经没有问题或者说问题可以忽略不计最终交给 GPT 模型完成即可。如果遇到模型容易偷懒、过早停下来的情况可以用类似 pua 这样的 Skill适合拿来逼它继续发散。它本质上是用一套更强压迫感的话术驱动 AI 在放弃前先把方案尽量穷尽。各个模型特点GPT / Codex比较严谨。GPT-5.5 相比 GPT-5.4有了很大的改进特别是在语言表达上少了很多口癖说话没那么令人反感了hhh但是貌似没有找回以前第一次用gpt-5.2那种感觉ClaudeOpus 4.6表达能力强速度快工具调用各个能力都很优秀但价格比较贵不能随心所欲的用。貌似Opus4.7闹出了很多笑话看来现在GPT-5.5才是那个帕累托最优的模型。Gemini前端能力很不错然后发散思维不错有时候聊方案的时候会有意想不到的效果。但是跟前两家比明显落后。Grok搜索能力很优秀在审查上应该也是最松的还有 NSFW 模式。推荐 grok-search 这个 MCP。我最推荐的做法多使用元 Prompt 或 Skill——比如造 Skill 的 Skill把常用的工作流模板化不会的多问 Agent——很多东西 Agent 可以给你讲懂并且最终落实做出来可以用的东西。就不断迭代积累经验多向社区学习——参考他人的经验不断完善自己的工作流让自己的 AI 越用越方便让自己更擅长与 AI 协作四、多回顾最好定期复盘Skill 不是越多越好Skill / MCP 不是见一个就安一个。我原先就是这样遇到一个看起来不错的 Skill就想让我的 Code Agent 给装上。最近回头复盘才发现自己这里已经堆了很多做同一件事的 Skill。给同样的输入有时候模型选 A有时候选 B有时候选 C结果并不稳定。毕竟模型在选 Skill 的时候很多时候只能先看 description。OpenAI 和 Anthropic 都在官方文档里提到过相关工具最好尽量收敛一些。当工具数量太多、同类能力重叠、边界又写得不清楚时模型更容易选错、犹豫、变慢甚至被长输出拖垮上下文。所以我现在会定期回头复盘自己的 Skill 和 MCP看它们到底有没有真正给我带来增量我到底有没有长期用到它们。如果一个 Skill 只是“当时看起来很厉害”但后来几乎不用或者和别的 Skill 做的是同一件事那我就倾向于把它关掉甚至直接删掉。相反如果我发现一个东西自己反复在用而且确实好用我就会继续往里看搞清楚它到底为什么好用再决定要不要把它沉淀成自己更稳定的一套东西。另外其实现在很多网上公开的 Skill都是遇到需求以后直接让模型写出来的而不是“尝试 → 错误 → 修改 → 沉淀”的产物质量未必足够好。装好以后最好自己测一下看看“用这个 Skill”和“不用这个 Skill”之间到底有没有差别这件事也可以交给 Code Agent 自己做。这只是其中一个例子。和 AI 协作不是不断往系统里加东西也得经常做减法把真正有用的留下把制造噪声的去掉。但是我确实逐渐积累了很多很多不愿意删除的skill所以可以搭建一个skill编排层我这里比较推荐这个GitHub - foryourhealth111-pixel/Vibe-Skills: Vibe-Skills is an all-in-one AI skills package. It seamlessly integrates expert-level capabilities and context management into a general-purpose skills package enabling any AI agent to instantly upgrade its functionality—eliminating the friction of fragmented tools and complex harnesses. · GitHub 可以自由添加skill并入编排层警惕“效率幻觉”不知道大家有没有这种感觉每天用 AI 写代码的时候产出看起来很多推进也很快但等真正沉下心回顾时却很难说清楚自己到底做了什么甚至有时候连当时为什么要那样做都不一定想得起来。某种程度上AI 把“做”的门槛压得很低于是人很容易在需求还没想清楚的时候就先开做。想着“这个功能先 vibe 一下再说”结果写着写着需求开始漂方向盘也慢慢交了出去。以前人还可以靠不断操作、不断切软件、不断改细节制造一种“我在推进”的感觉现在 AI 会把执行这件事压得更便宜这层缓冲反而越来越薄。你没有想清楚它不会替你想清楚它只会更快地把一个模糊的东西做出来。如果只是一味把 AI 当替身让它一路写、一路改、一路带着你走那本来应该由自己完成的理解、判断和取舍也会一起被外包出去。最后得到的可能不是更强的能力而是一种更流畅的“虚假生产力”。对我来说一个很重要的边界就是我是否还能清晰地主导“问题表述”和“验收标准”。如果这两样开始模糊那就很危险了。这也是为什么我现在越来越觉得如果我自己都还不知道想要什么就先别急着干。后面虽然看起来还在推进但推进的东西到底对不对自己其实已经没那么确定了。我的做法大概有两步。第一步是把决策可视化。我会尽量把自己思考的东西打出来输入到幕布里再转成思维导图去看。这里最关键的不是工具而是要自己动手尽量不要复制粘贴。AI 可以辅助但这一步我更希望是我自己在输入、在整理、在重新组织。因为只有这样我才能确认这些内容真的是我自己想清楚的而不是只是看 AI 说得很顺就默认它是对的。某种意义上这一步对我来说是 100% 的“人在回路”。它会在物理层面强制我把思考重新接回来同时也能保证持续专注因为这件事没法并行也没法偷懒。第二步是主动抽离。抽离对我来说不只是休息一下而是一个避免局部最优、避免反刍、恢复元认知的过程。因为和 AI 协作久了以后很容易出现一种情况对话越来越顺内容越来越连贯于是人会慢慢产生一种“我们正在前进”的感觉。问题在于这种流畅感本身就会削弱人的警惕性。清醒的时候你还会不断追问这一步的依据是什么风险在哪里但到了后期尤其是累的时候人更容易接受那些“语言上讲得通”的东西于是决策权就会默默让渡出去。而且这种让渡通常不是一下子发生的它更像是一个渐变的滑坡。所以我的做法会更偏物理一些。比如我坐在电脑前工作一段时间以后会刻意离开电脑站起来走一走喝点水强制把自己从当前状态里抽出来。我的大脑并没有停止只是像经历了一次重启。然后我再回来重新看我们现在到底进展到了什么地步如果我要给别人汇报进展我会怎么汇报我们现在做的这件事真的是对的吗对我来说这一步很重要。因为很多时候所谓“效率幻觉”不是你做得不够多而是你已经做了很多但你开始说不清自己到底为什么这么做了。五、AI时代生存学习指南学会主动降噪这是一个什么时代呢因为我有每天听播客看最新的动态的习惯很容易会有一些错觉好像每天都有新模型、新工具、新Agent发布感觉世界每天都在被重写。变化当然是真的焦虑也不是空穴来风很多岗位裁员是真的岗位收缩是真的很多公司也确实把 AI、效率、组织重构这些话术和 headcount 变化绑在一起。但越是在这个时候越不能被噪声牵着走把所有信息都理解成“全完了过一阵子就全部都失业了”。同时要明白很多信息本身也带着浮夸、博眼球的成分。不要失真地理解现实不要被节奏带跑焦虑地过日子焦虑既不解决问题也伤身。主变量是人目前AI 可以辅助探索、生成、执行。但是不能替代你对【问题表述】【验收标准】【必要取舍】和【决策】的主导权。这应该要成为共识。变化是真的所以不能躺平起码在现在这个阶段大家能用到的 AI无论是 GPT、Claude、Gemini还是国内的 GLM、DeepSeek、Kimi、MiniMax 等等差距没有大到离谱的程度。当然能用最好的还是用最好的更大的区别还是在于用 AI 的人。同样的一个模型不同的人用出来的效果是不一样的。小学生和数学家用同一个 AI 去做数学最后发挥出来的力量肯定是不一样的。所以说这个时代要学习。如果把“人是主变量”这件事再画得更直接一点大概就是下面这个样子。不能只会用AI如果你完全不懂你现在让 AI 做的事情那你几乎是无法判断和分辨好坏的也是无法做到经验累积的你只能做一个搬运工。而这样长期下去过度依赖 AI 而不学习会导致能力萎缩最终个人能力可能逐渐倒退至完全被 AI 的能力所 cover这是很可怕的一件事情。如果你发现 AI 在跑你只是盯着控制台发呆刷手机最后再把结果原样拿来用或许该警惕了。学什么怎么学学什么呢去学概念去学原理去学表达去学审美去学判断。决定能不能进入一个领域的概念与原理的知识是不会太多的抓住这些主干你就能够更快进入这个领域的 space知道它的大致边界、结构和内在关系。所以不要碎片化地去追热点什么火去学什么可能这样学到的只是表象。应该要去学概念学原理。建立起自己的 landscape知道自己在哪知道哪些概念是主干哪些是枝叶。然后让 AI 帮你逐步展开、解释、练习。这是一个非常适合学习的时代。我个人深切感受到了很多过去晦涩难懂的知识现在都可以让 AI 用你能理解的话解释也可以扮演导师的角色拷打你可以用苏格拉底式的问答逼你去把问题想得更深一点。再往前走一步问题就不是“要不要学”了而是“具体学什么顺序怎么排”。对我来说更重要的是先建立 landscape再沿着概念、原理、表达、审美、判断这几条主线慢慢展开。人机关系最差的路线是自己不思考只会搬运 AI 的答案。最理想的路线是自己有知识基础有判断力知道什么是好的知道自己想要什么然后让 AI 去帮你探索、生成、执行。推荐的一些材料如果你暂时找不到意义不知道这样飞速发展的时代应该做什么感到焦虑和迷茫那么去学习吧。如果暂时不知道学什么或者想从 coding agent 这条线入门我推荐几个对我来说帮助比较大的材料Learn ClaudeCode / shareAI-lab/learn-claude-code适合从 0 到 1 理解 agent harness。Auto-claude-code-research-in-sleep / ARIS 的 skills适合做学术研究尤其是如果将 coding agent 与学术研究结合。obra/superpowers适合看一套完整的 agentic skills framework 和软件工程方法论。六、对于我来说不得不思考的一些问题当未来 AI 产品与我们生活方方面面紧密结合时会发生什么我现在也会警惕另一件事人和 AI 协作久了以后不一定只是效率更高了也可能是在慢慢学会用 AI 听得懂的方式去表达自己。目标可能会变得更结构化更 AI friendly原本那些模糊、犹豫的东西是不是会慢慢变少短期看是沟通成本变低执行变快效率变高了但反过来看是不是也意味着我们也正在一点点变成一个更容易被系统理解、也更容易被系统预测的人呢另外这种变化不是单向的 AI 会通过我的历史行为学习我而我也会通过的和 AI 协作的反馈学会怎么更快地得到结果。久而久之就可能形成一种闭环我越来越习惯某种提问方式、某种表达风格而 AI 也会越来越顺着我可这就是问题它这样做太容易让人觉得“这就是我的想法”了实际上可能是一种坍缩看似是 AI 和人共同进化实际上有可能只是你变简单了

相关文章:

作为一名在读博士生,我在日常是如何与AI协作的?

前言:当同事,不当工具 我是一名人工智能方向的在读博士生,大概在 ChatGPT 出来以后还是 GPT-3.5 的时候就比较重度使用 AI 以及 AI 工具了。几年下来,AI 已经渗透到我工作和学习很多环节,有一些心得想分享一下~ 当同…...

基于声网RTC与OpenAI Realtime API构建低延迟语音AI助手

1. 项目概述与核心价值 最近在折腾实时语音交互应用,特别是想给产品加上类似ChatGPT那种能听会说、还能实时思考的“智能体”能力。市面上现成的方案要么太贵,要么延迟高得没法用,要么就是集成起来一堆坑。直到我发现了声网开源的 AgoraIO/…...

论文降重新革命:书匠策AI,解锁学术纯净新境界

在学术的广阔天地里,论文写作是每位学者必经的修行之路。从选题构思到文献综述,从实验设计到数据分析,每一步都凝聚着学者的心血与智慧。然而,当论文初稿完成,降重和去除AIGC(人工智能生成内容)…...

Flux2-Klein-9B-True-V2惊艳效果:机械结构爆炸图+剖面标注+材质区分渲染

Flux2-Klein-9B-True-V2惊艳效果:机械结构爆炸图剖面标注材质区分渲染 1. 模型能力展示 1.1 机械结构爆炸图生成 Flux2-Klein-9B-True-V2在机械设计领域展现出惊人能力,能够生成专业级的爆炸分解图。输入简单描述如"机械手表内部结构爆炸图"…...

Python 玩转摄像头:MediaPipe 手势追踪贪吃蛇游戏(含完整环境配置教程)

本文将带你从零开始搭建一个 Python 多功能项目 Project2(https://github.com/WLHSDXN/Project2)。 无论你是想学习计算机视觉、自动化脚本,还是 Web 爬虫 邮件通知,这个项目都能给你完整的实践参考。 一、整体项目结构 Project2…...

避开Halcon点云分析第一个坑:手把手教你用`visualize_object_model_3d`正确显示与交互

Halcon 3D点云可视化实战:从参数解析到交互控制 第一次接触Halcon的3D点云分析时,我盯着屏幕上那团漆黑的点云数据手足无措——明明导入了数据,却不知道如何旋转查看不同角度,更别说测量特定高度了。visualize_object_model_3d这个…...

暗黑破坏神2存档编辑器:d2s-editor完全指南

暗黑破坏神2存档编辑器:d2s-editor完全指南 【免费下载链接】d2s-editor 项目地址: https://gitcode.com/gh_mirrors/d2/d2s-editor 还在为暗黑破坏神2漫长的刷装备过程感到疲惫吗?想要快速体验不同职业build却不想从头练级?d2s-edit…...

计算机视觉算法优化方法

计算机视觉算法优化方法:提升效率与精度的关键路径 计算机视觉作为人工智能的核心领域之一,广泛应用于自动驾驶、医疗影像、安防监控等场景。随着任务复杂度的提升,算法的计算效率、精度和泛化能力面临巨大挑战。如何优化算法成为研究者关注…...

百度Agent岗一面:你知道哪些更复杂的 RAG 范式?

👔面试官:你了解哪些更复杂的 RAG 范式?除了最基本的检索加生成,还有什么更高级的玩法? 🙋‍♂️我:呃,我觉得 Advanced RAG 就是最复杂的了吧,加个 Rerank 和 Query 改…...

JavaScript 需求稳定,多类证书助力职业发展,招聘看重实践与证书结合!

考取这些 JavaScript 证书,证明热门技能!招聘看重,多证书可选助力职业发展考取这些 JavaScript 证书,能证明你掌握了全球最常用编程语言的热门技能。JavaScript 一直是网页开发领域最受欢迎的编程语言之一,短期内这种情…...

python 基础学习文档

✨博文作者:烟雨孤舟 💖 喜欢的可以 点赞 收藏 关注哦~~ ✍️ 作者简介: 一个热爱大数据的学习者 ✍️ 笔记简介:作为大数据爱好者,以下是个人总结的学习笔记,如有错误,请多多指教! 1. 标识符命…...

Guru:终端AI集成工具的设计原理与实战应用

1. 项目概述:Guru,你的终端AI伙伴 如果你和我一样,大部分工作时间都“焊”在终端里,那么你一定经历过这样的场景:想快速写一段脚本,得切到浏览器,打开某个AI聊天页面,粘贴代码&#…...

Rust内存安全:所有权与借用 vs 引用计数,该如何选择?

所有权与借用 vs 引用计数Rust的标志性成就,是在不使用垃圾回收器的情况下实现内存安全。它通过一套严格的所有权系统达成这一目标,但该系统特意设置了一个“逃生出口”:引用计数。在Rust程序中,每个值在任何给定时刻都只有一个所…...

Transformer叠加态MoE:动态参数激活的NLP新范式

1. 项目概述在自然语言处理领域,Transformer架构已经成为事实上的标准。但传统的Transformer模型存在一个根本性限制:每个输入token都会激活整个模型的所有参数,即使这些参数中只有一小部分真正相关。这种"全激活"模式导致了巨大的…...

2026 AI 爆发之年:从 DeepSeek V4 开源到科交会热潮,一站式聚合平台成全民刚需

2026 年 4 月 26 日,国内科技圈迎来双线沸腾时刻:一边是第四届中国科交会在合肥正式启幕,以 “科技打头阵 创新赢未来” 为主题,集中展示 AI、量子、智能制造等前沿成果,成为新质生产力的重要展示窗口;另一…...

三分钟掌握Trippy:现代网络诊断工具的终极使用指南

三分钟掌握Trippy:现代网络诊断工具的终极使用指南 【免费下载链接】trippy A network diagnostic tool 项目地址: https://gitcode.com/GitHub_Trending/tr/trippy Trippy是一款功能强大的现代网络诊断工具,它将传统的traceroute和ping功能完美…...

AI时代,代码还要学吗?Python\+Java高效学习指南(附AI协同秘籍)

最近被很多朋友问同一个问题:“现在AI都能一键生成代码了,还费劲学Python、Java干嘛?” 尤其是有一点代码基础的人,更纠结——自己能写点基础代码,又能用上AI,到底该深耕代码,还是干脆依赖AI“躺…...

TEKLauncher:方舟生存进化终极管理工具,5分钟搞定游戏配置

TEKLauncher:方舟生存进化终极管理工具,5分钟搞定游戏配置 【免费下载链接】TEKLauncher Launcher for ARK: Survival Evolved 项目地址: https://gitcode.com/gh_mirrors/te/TEKLauncher TEKLauncher是一款专为《方舟:生存进化》设计…...

别再手动“投喂”AI了:OpenClaw让大模型长出“手”和“眼”,而永动虾让它1分钟开跑

你有没有遇到过这种情况:明明让AI写一份周报,它却需要你一次次复制粘贴数据;想让AI自动处理几十份合同,但每次都要手动上传文件;甚至希望AI像人一样操作电脑、识别界面……但卡在“第一步”就寸步难行?本质…...

AI智能体浏览器自动化实战:绕过反爬虫与验证码的终极方案

1. 项目概述:为AI智能体赋予“真实浏览器之手”如果你正在使用Claude Code、Cursor、OpenClaw这类AI编程助手,并且尝试过让它们帮你自动完成一些网页操作——比如抓取商品价格、监控新闻动态、或者自动填写表单——那你大概率经历过这样的挫败&#xff1…...

超级编导源码流出,技术大拿深度对比超级编导与超级智剪云混剪架构

引言:当“源码”遇见“架构选型”近日,技术社区中关于“超级编导源码流出”的讨论引发了不少开发者的关注。无论这一传闻的真实性如何,它都将一个核心问题推到了技术决策者面前:在构建或集成短视频矩阵视频混剪工具时,…...

终极指南:如何用Prompt Optimizer节省90%的LLM API成本

终极指南:如何用Prompt Optimizer节省90%的LLM API成本 【免费下载链接】prompt-optimizer Minimize LLM token complexity to save API costs and model computations. 项目地址: https://gitcode.com/gh_mirrors/pr/prompt-optimizer 你是否在为LLM API的高…...

用Python和Pygame复刻简化版植物大战僵尸:从数学建模到游戏开发的保姆级教程

用Python和Pygame复刻植物大战僵尸:从数学模型到游戏逻辑的工程实践 当数学建模遇上游戏开发,会碰撞出怎样的火花?十年前那道经典的SPSSPRO数学建模题,将"植物大战僵尸"的规则抽象成数学模型,而今天我们将用…...

Docker Sandbox + Llama3/DeepSeek部署实操:1小时构建不可逃逸、不可提权、不可侧信道泄露的AI推理沙箱

更多请点击: https://intelliparadigm.com 第一章:Docker Sandbox 运行 AI 代码隔离技术概览 Docker Sandbox 是一种轻量级、可复现的容器化执行环境,专为安全运行未经信任的 AI 代码(如用户提交的推理脚本、自定义训练逻辑或第…...

VS Code MCP权限体系设计:RBAC+策略即代码(Policy-as-Code)双模管控,附GRC兼容配置清单

更多请点击: https://intelliparadigm.com 第一章:VS Code MCP权限体系设计:RBAC策略即代码(Policy-as-Code)双模管控,附GRC兼容配置清单 VS Code 通过 Microsoft Cloud Platform(MCP&#xff…...

这个AI插件直接“接管编辑器”?Unity开发要变天了!

在过去两年里,AI 工具几乎席卷了整个开发领域,但对于 Unity 开发者来说,大多数 AI 插件仍停留在“聊天工具”的层面:写点示例代码、解释概念,却无法真正融入项目。 而 Brody AI – Your Agentic Developing Homie 的出…...

Linux 进程间通信(IPC):管道与信号量完全指南

引言 在 Linux 系统编程中,进程间通信(IPC,Inter-Process Communication) 是一个核心课题。进程是独立运行的单位,默认情况下彼此隔离。但很多时候,我们需要让进程之间交换数据或同步执行顺序——这就是进…...

Sqlserver 学习笔记

这次的学习内容主要是关于数据库的使用。数据库和表的创建,增删改查的内容一,数据库(1)数据库的创建create database StudentDB --创建数据库 on primary --定义在主文件组上的文件 ( nameStudentDB_data, --逻辑名称 filenameD:\…...

G5080,TS3380,G2810,MG3680,G3810,TS3440,IX6780,MP288,TS8380报错5B00,P07,E08,1700,5b04废墨垫清零,亲测有效

下载:点这里下载 备用下载:https://pan.baidu.com/s/1WrPFvdV8sq-qI3_NgO2EvA?pwd0000 常见型号如下: G系列 G1000、G1100、G1200、G1400、G1500、G1800、G1900、G1010、G1110、G1120、G1410、G1420、G1411、G1510、G1520、G1810、G1820、…...

4 个开源轮子,0 个后端大佬:我们是怎么让 AI 客服自己“卷”起来的

搭建智能体客服自动化平台的真实过程深夜十一点,客服小晴在群里发了一条消息:“同一个用户关于退换货的问题,我已经解释了五遍规则,他还在问‘能不能特殊处理’。” 紧接着是第二句:“要是今晚再这样下去,我…...