当前位置: 首页 > article >正文

谷歌与新加坡国立大学联手打造“视频导演AI“

这项由谷歌云AI研究院与新加坡国立大学联合完成的研究于2026年5月以预印本形式公开发布论文编号为arXiv:2605.06924v1。有兴趣深入阅读原文的读者可通过该编号在arXiv平台检索到完整论文。**研究背景AI拍视频为何总是记性不好**你有没有看过那种越来越长的AI生成视频主角的衣服颜色在第三分钟突然换了背景里的椅子凭空消失或者人物明明在室内下一秒却站在街头这不是你的错觉这是当前AI视频生成技术面临的一个根本性难题——它太容易忘事儿了。现有的AI视频工具在生成几秒钟的短片段时表现出色但当任务变成生成一分钟、五分钟乃至十分钟的长视频时问题就会接踵而至。人物的脸开始变化场景的布局开始偏移故事的逻辑开始松散。研究团队将这两种现象分别称为语义漂移和叙事崩溃——前者好比演员越演越不像自己后者好比编剧越写越忘了自己在讲什么故事。正是为了解决这个困扰业界已久的核心问题谷歌云AI研究院与新加坡国立大学的研究团队提出了一个全新的架构命名为A?RD发音类似英文单词hard中文读作阿方RD。这个名字是Agentic AutoRegressive Diffusion的缩写直译过来就是主动式自回归扩散模型。不过这些专业词汇不重要重要的是它背后的思路与其让AI被动地一段接一段生成视频不如让AI像一个有记忆、有判断力的导演一样主动地规划、生成、检查、修正每一个镜头。**一、从流水线工人到电影导演A?RD的核心理念**理解A?RD可以借助一个拍电影的比喻而且这个比喻会贯穿整篇文章。传统的AI视频生成方式就像一个没有剧本的流水线工人。他坐在工作台前只看得到面前的一小截传送带把当前这个零件装好之后传送带往前走他再装下一个。他不知道整条生产线做的是什么不知道前面发生了什么也不知道后面还要做什么。结果一个完整的产品交到最后往往是拼凑出来的东拼西凑、前后不一。A?RD则是把这个流水线工人换成了一位经验丰富的电影导演。这位导演在拍摄每一个场景之前会先翻阅剧本回看已经拍好的片段核对演员的造型档案和场景设计图然后才喊开机。拍完之后他还会在剪辑室里仔细审看刚拍好的素材检查是否有穿帮镜头如果发现问题立刻重拍。这种拍摄-检查-修正的闭环操作正是A?RD与传统方法最根本的区别。研究团队将这个导演的工作流程总结为四个步骤检索Retrieve、合成Synthesize、精炼Refine、更新Update。每拍一个片段导演先去片场档案室也就是系统的多模态视频记忆库调取相关资料然后根据资料和当前剧情选择最合适的拍摄方式拍完后交给一套层层把关的审查机制通过才更新档案库进入下一场景。值得一提的是这套系统完全不需要额外训练。就像一位导演不需要专门去学一门新技术他只是更聪明地调用和协调现有的摄像师视频生成模型、美工图像生成模型和剧本顾问大语言模型。**二、导演的档案室多模态视频记忆库**一位优秀的导演在拍长片时必须维护一套详尽的档案系统。记录每个演员在每场戏里的造型记录每个场景的灯光设置记录故事发展到了哪一步。A?RD中对应的组件叫做多模态视频记忆库简称MVMem可以把它理解为导演桌上那本厚厚的拍摄圣经。这本拍摄圣经里存放着三类核心内容。第一类是文字状态记录也就是对视频中每一个实体人物、物体和环境的详细文字描述。这不是简单的一句话概括而是结构化的、精细的状态图谱包括视觉弧线人物的外貌特征、衣着变化、动作轨迹、空间关系画面里谁站在谁左边、谁在谁前面以及摄像机运动轨迹。这种记录方式的灵感来自于计算机视觉领域对场景图的研究——把一幅图像的内容用结构化的方式表达出来而不仅仅依靠图像本身传达信息。第二类是参考帧图像。仅靠文字有时候说不清楚一件衣服的精确颜色或者一个房间的准确布局这时候图像就发挥了作用。档案库里存放了两种图像一种是在正式拍摄开始前就预先生成好的全局参考图相当于美术部门为每个角色和场景提前画好的定妆照和场景概念图另一种是每段视频的开头帧和结尾帧像书签一样标记着每个片段的视觉起点和终点。第三类是已经生成的视频片段本身。保存视频的目的主要是为了在生成后续片段时能够核实前一段视频结尾时人物和场景的运动状态确保动作能够顺滑衔接就像真正的电影剪辑要保证接戏的连贯性一样。档案库在每次生成新片段之前会根据当前场景的需要智能地筛选出最相关的历史记录而不是把所有历史信息一股脑儿全部塞给AI。这一点非常关键因为把所有历史信息都给AI看不仅计算代价高昂还可能引入干扰信息导致生成结果适得其反。这种有选择性地检索就像一个经验丰富的剧组助理知道什么时候该翻哪一页档案而不是每次都把整个档案柜翻个底朝天。在整个拍摄开始之前系统还会先专门生成一套全局参考图。导演会先把整个剧本通读一遍找出所有需要保持一致外观的角色和场景然后依次生成它们的参考图像。这个过程还考虑了依赖关系比如一个人物的定妆照应该在他所处的背景场景确定之后再生成就像拍戏时先搭好景才能给演员试装。系统会建立一个有向无环图来表示这些依赖关系并按照正确的先后顺序生成所有参考图最后再并行完成不相互依赖的部分提高效率。**三、导演的调度智慧自适应分段生成策略**一位经验老到的导演知道不是所有场景都用同一套拍法。连续的室内戏要保证流畅过渡而两场戏之间如果发生了时空跳跃就需要用另一种方式来衔接。A?RD在生成每个视频片段时也会先判断当前片段属于哪种情况然后选择最合适的生成模式。具体来说系统有两种拍摄模式。第一种叫做外推模式就是从当前片段的开头帧出发让视频自然地向前发展。这种模式适合场景连续、动作连贯的情况就像摄像机一直跟着演员走不切换场景。它的优点是视频进展自然劣势是如果画面中没有出现的细节比如演员背部的纹身在后续场景里需要出现就可能出现前后不一的情况。第二种叫做插值模式就是先分别生成这个片段的开头帧和结尾帧然后让AI去填充中间的过程就像给一个翻书动画定好第一页和最后一页让系统补全中间的过渡。这种模式对一致性的控制更强但如果开头和结尾两帧本身生成得不够自然合理中间的过渡就会显得生硬。A?RD的聪明之处在于它不强制要求全部用同一种模式而是逐个片段地做出判断。当当前片段与下一个片段处于同一个连续的时空环境中时选择外推模式当片段跨越了不同的场景、或者要跳转到一个已经在前面出现过的特定地点时选择插值模式。这个判断交给大语言模型来完成研究团队测试发现这个判断的准确率超过85%而且即使偶尔判断失误把应该用外推模式的场景误判为插值模式通常也不会导致严重问题因为图像生成模型有时候能够凭借充分的参考信息自行把一致性做好。这里有一个特别有意思的细节设计。当系统需要在插值模式下生成结尾帧而对应的场景是回到之前某个远处片段的某个状态时怎么办比如故事里的赛车在第6幕疾驰过海岸公路然后去了别的地方第12幕再度回到这条海岸公路。此时系统需要知道第6幕的赛车最后停在了哪里、是什么朝向才能顺畅接上第12幕。为了解决这个问题A?RD会从第6幕已存档的视频中提取出所有的镜头结尾帧然后让大语言模型挑出最适合作为第12幕开头的那一帧从而实现跨越较大时间跨度的运动连续性。这种机制是这篇研究中的原创贡献之一在此之前的工作都没有专门处理过这个问题。**四、导演的审片间层级化测试时自我提升机制**生成一段视频只是工作的一半。在真正的电影制作中每拍完一个镜头导演都要在监视器前盯着回放确认没有问题。如果发现穿帮立刻叫停重来。A?RD中的对应机制叫做层级化测试时自我提升简称HITS它分为两层审片室一层专门审查关键帧图像另一层专门审查生成好的视频片段。在图像审片室里系统对每一张关键帧图像进行八个维度的打分每项满分十分。这八个维度可以归入三组第一组关注跨片段一致性检查人物是否与之前的参考图保持一致、环境是否与之前的场景保持一致、叙事是否在合理地向前推进以及画面中各元素的空间逻辑是否合理第二组关注当前帧的状态准确性具体检查人物状态和环境状态是否正确第三组关注基本画面质量检查是否按照指令生成以及画面是否符合物理常识。审完之后系统会决定是微调这张图还是重新生成。选择微调时AI会给出一条具体的编辑指令比如给人物加上蓝色围巾并且每次只修改一个问题因为同时尝试修复多个问题会让编辑变得混乱。选择重新生成时系统则会先优化生成这张图时使用的文字描述也就是提示词再重新生成。最终在所有迭代版本中选出综合评分最高的那一张作为正式采用的帧。视频审片室的逻辑类似但针对视频的特点做了扩展覆盖十个维度分为三组第一组关注跨片段的动态一致性包括人物跨场景的外观一致性、环境跨场景的一致性、运动状态的一致性以及摄像机运动的一致性第二组关注片段内部的人物和环境一致性第三组关注基本视频质量包括是否遵循指令、物理合理性、叙事推进以及在插值模式下视频结尾是否自然衔接到预设的结尾帧。当处于插值模式时系统在发现问题后只需要优化提示词因为开头帧和结尾帧已经固定好了重新生成视频就能改善质量。当处于外推模式时优化提示词还不够因为问题往往出在视频末尾那些没有被开头帧覆盖的细节上。此时系统会先从已经生成的视频中提取出结尾帧把它经过微调处理后固定下来然后以这对开头帧结尾帧为锚点重新生成整段视频。这种联合优化的方式就像先把一场戏的首尾两个关键动作钉死再补全中间过程比单纯改台词要有效得多。**五、导演的经验库记忆增强提示词优化**优秀的导演还有一个特质善于从每一次拍摄经历中积累经验知道什么样的指令有效、什么样的指令会适得其反。A?RD中有一个专门的组件来模拟这种学习能力叫做记忆增强提示词优化简称MAPO。MAPO的工作方式是维护一个经验数据库里面记录着过去每一次提示词优化的完整记录原始提示词是什么优化后的提示词是什么当时的评分情况如何以及这次优化最终被标记为成功还是失败。当需要对某个提示词进行新一轮优化时系统会从数据库中找出最相似的成功案例和失败案例把它们放在一起对比从中归纳出规律性的指导原则比如把抽象的场景参照换成具体的物理锚点或者用排除法明确哪些物体不会出现在画面中。然后把这些原则应用到当前的提示词上生成优化版本。这个过程类似于拍片前让助理整理之前类似戏份的拍摄心得帮助导演避开已知的坑。论文里给出了一个生动的实际案例。原始提示词描述一位面包师从既定的四分之三右前方角度在工作台前操作背景里提到了储藏架。这个提示词有几个问题角度描述是抽象的没有给出物理参照背景元素缺乏空间顺序描述。MAPO检索到了相关成功案例提炼出了多条经验包括用具体的物理锚点替代抽象的场景参照、用排他性语句防止AI产生幻觉、按线性顺序描述环境元素等。优化后的提示词明确指出了工作台从前景斜向延伸到左后方、陶瓷碗放在后左侧、石砌烤炉居中、不锈钢水槽在烤炉左侧等具体的空间关系。优化前这张图的平均评分是6.4分优化后达到了8.3分多个维度直接满分。**六、这套系统的并行版本效率与质量之间的平衡**电影制作讲求效率有时候为了加快拍摄进度可以让多个摄制组同时开工拍不同的场景。A?RD也设计了一个并行版本叫做A?RD-Par用来在硬件允许的情况下大幅提升生成速度。在A?RD-Par中所有片段的关键帧仍然按照前后顺序依次生成这个步骤需要串行因为下一帧要参考上一帧但框架确定后所有视频片段可以并行生成。这意味着在理想硬件条件下生成速度不会随视频变长而线性增加。代价是并行版本不进行视频片段级别的自我改进这对于场景间存在环境变化的情况会带来一定的质量损失但对于场景相对稳定、人物外观一致性要求高的视频来说这个代价是可以接受的。**七、专为挑战长程一致性而生的新评测基准LVBench-C**研究团队在做实验时发现现有的视频生成评测基准普遍存在一个盲区它们测试的都是在同一个场景里保持一致而不是在角色或场景消失一段时间后重新出现时还能保持一致。这个区别至关重要因为真实的故事往往有这样的结构主角在第一幕出现然后视角切换到别人若干场景后主角再次出现这时候他的衣着造型应该和之前一致或者根据故事情节有合理的变化。为了填补这个空白研究团队构建了一个全新的评测基准命名为LVBench-CC代表挑战Challenge。这个基准包含三种类型的测试场景角色状态演变场景人物在消失一段时间后以不同的造型或状态重新出现、物体状态演变场景物体在消失后以不同的状态重新出现比如一个锅从空锅变成装满食物的锅以及环境状态演变场景场景在消失后以不同的状态重新出现比如一个灯塔房间从晴天变成暴风雨后的样子。这个基准中有一条硬性规则主要角色或场景必须消失至少10个场景片段才能重新出现。这确保了测试的确是对长程记忆的考验而不是对相邻片段一致性的简单检验。整个基准涵盖3分钟、5分钟和10分钟三种视频时长共120个完整的场景剧本。为了保证数据质量研究团队设计了一套人机协作的数据筛选流程。首先用大语言模型批量生成候选场景剧本然后去重接着用定制化的自我改进机制逐一验证剧本是否满足六项质量标准包括场景足够具体、逻辑自洽、角色行为自然、细节符合现实、内容不重复、前后不矛盾。未通过的剧本进行有限次数的迭代修改最后还引入了另一家公司的大语言模型进行交叉验证以避免同一模型自我评估时产生的偏好偏差并由研究人员人工抽样核查。**八、实验结果数字背后的故事**研究团队在公开基准VBench-Long上测试了大约一分钟长度的单场景视频生成效果同时在LVBench-C上测试了三分钟和五分钟多场景视频的生成效果并与六种基准方法进行了对比。这六种方法涵盖了当前主流的长视频生成策略包括最简单的直接逐段生成、仅靠上一段末帧续接的简单自回归方法、依靠插值框架并行生成的方法以及三种已有的多智能体长视频生成系统。在一分钟的单场景测试中A?RD在叙事连贯性上的得分达到0.90比最好的基准方法得分0.75高出了约20%。在角色跨片段一致性上A?RD达到0.74而最好的基准方法只有0.57提升幅度约为30%。环境跨片段一致性从基准的0.73提升到0.84。最令人惊喜的数字是相邻片段间的运动平滑度A?RD达到了0.9935意味着相邻两段视频的衔接几乎与同一次生成的流畅度相当这在此前的方法中是很难达到的。在三分钟和五分钟的多场景测试中所有基准方法的一致性指标相比一分钟测试都出现了明显下滑这印证了长程一致性确实是一个随时间积累而愈发严峻的问题。在三分钟测试中A?RD超越最强基准方法的幅度平均达到16%在五分钟测试中这一超越幅度约为13%。叙事连贯性方面A?RD在五分钟测试中的得分高达0.95比最强基准方法高出约10个百分点。一个有趣的观察是与一分钟测试相比多场景测试中各基准方法的叙事连贯性评分反而普遍偏高。这不是因为这些方法在长视频上表现变好了而是因为LVBench-C的多场景剧本天然带有清晰的场景切换结构而这些基准方法恰好都会强制在每个片段边界做场景切换这与剧本的节奏碰巧对应看起来叙事逻辑尚可但一致性依然不佳。研究团队还做了一个有趣的公平对比实验把基准方法也扩展到与A?RD消耗相同的计算资源生成同样多的候选视频然后选最好的。结果发现给基准方法更多计算资源确实能提升一致性但提升有限而且叙事连贯性并不总是随之改善。A?RD在同样条件下展现出了更强的以更多计算换来更好质量的潜力这得益于其多维度评判机制能够更可靠地从多个候选结果中识别出真正好的那个。研究团队还专门在A?RD框架下替换了视频生成底座分别用LTX-Video和Wan 2.2两个开源模型进行测试结果显示A?RD在这两个模型上同样能够带来显著的叙事连贯性和一致性提升在LTX-Video上叙事连贯性从0.59提升到0.79在Wan 2.2上从0.67提升到0.80验证了这套框架不依赖特定的视频生成模型具有良好的通用性。在10分钟的超长视频测试中研究团队使用了一种专门设计的一致性评估方法由大语言模型对比相关场景的关键帧来检测明显的不一致性。在LVBench-C的10分钟场景下A?RD的角色一致性保持率达到90.5%环境一致性保持率84.0%物体一致性保持率91.5%。**九、人类眼睛的评判用户研究的发现**数字可以说明很多问题但最终的检验还是来自真实的人类观看者。研究团队招募了7位经验丰富的评估员让他们对40个由不同方法生成的一分钟视频进行盲测评分评估员不知道哪个视频是哪种方法生成的从1到5分评价六个维度角色一致性、物体一致性、环境一致性、场景切换流畅性、叙事连贯性以及参考图像一致性测试时提供了参考图像的情况下。A?RD的平均综合得分为4.68分最强基准方法VideoMemory的综合得分为3.93分。在角色一致性上A?RD拿到了4.89分接近满分表明人类评估员认为角色外观保持得非常好。叙事连贯性4.75分参考图像一致性4.91分说明当用户提供了参考图像时生成的视频能够高度忠实地呈现参考图中的视觉细节。场景切换流畅性方面A?RD的得分为4.34远高于最强基准方法的3.34验证了自动指标中运动平滑度的改善在人眼看来同样明显。研究团队特别指出场景切换流畅性和物理环境一致性是所有基于分段生成方法中最难解决的维度这也是研究团队认为最值得未来继续攻关的方向。并行版本A?RD-Par在角色一致性上保持了不错的表现但在环境一致性和场景切换流畅性上明显下滑这与自动指标的结论一致说明自回归顺序生成对于视觉和时序连贯性而言是有实质意义的而不仅仅是计算方式的不同选择。**十、消融实验拆解导演的每一件工具**为了搞清楚A?RD的各个组件各自贡献了多少研究团队做了一系列拆零件实验逐一去掉某个组件看看整体表现会下降多少。去掉整个多模态视频记忆库之后系统的表现急剧下滑接近最简单的基准方法说明这个记忆库是整个系统的骨干失去它就失去了长程依赖追踪、一致性验证和自我提升的基础。分别去掉记忆库中的文字状态记录和视频存档可以看到文字状态对叙事连贯性和跨片段一致性的贡献更大视频存档主要影响运动连续性相对没那么关键。去掉HITS自我提升机制之后叙事连贯性从0.90跌到0.74角色一致性从0.74跌到0.68说明即使有了好的记忆库不经过审片和重拍质量依然会打折扣。去掉MAPO记忆增强提示词优化之后提示词的改进效果变弱整体指标也有所下滑。去掉全局参考图之后叙事连贯性和角色一致性变化不大但环境一致性从0.84跌到0.79说明环境更难维持一致对参考图的依赖更强。对生成模式的消融最有意思。强制始终使用外推模式时叙事连贯性尚可0.83但一致性下降强制始终使用插值模式时一致性更高但叙事连贯性下降到0.71。这两个极端的结果恰好说明了自适应策略的必要性一致性和叙事性并非可以同时无代价地极大化需要根据具体场景做出取舍和平衡而自适应模式正是这种平衡的实现方式。**研究的局限与诚实的自白**研究团队在论文中坦率地承认了这套系统的几个局限。首先是计算开销每个片段最多可能需要生成6段视频和6张图像加上大量的模型调用这比简单的基准方法消耗更多资源。研究团队估算在现有配置下使用Gemini 3 Flash作为推理模型每个片段的额外推理开销不超过0.5美元但额外生成的视频和图像的计算成本就取决于具体使用的视频生成服务了。其次这套系统对底层组件的能力要求较高需要一个足够强大的多模态语言模型和图像生成模型作为支撑。如果底层组件能力有限自我提升的效果也会打折扣。另外评判标准中的各项指标反映的是研究团队对好视频的理解这种理解可能不适用于所有文化背景、创作风格或专业领域。人类评估实验中部分视频只有两个人评分研究团队坦承这导致评分者一致性数据不够有意义所以没有报告这个指标。人工评估本身也具有主观性尤其是场景切换流畅性和叙事连贯性这类维度不同评估员的感受可能存在差异。归根结底这项来自谷歌云AI研究院和新加坡国立大学的研究给出了一个令人信服的答案解决AI视频生成中的记性差问题关键不是造一个更大的模型而是给现有的模型配上一套像导演一样工作的智慧调度系统。通过多模态记忆、自适应生成策略、层级化自我审查和经验积累式提示优化的组合一段十分钟的、包含复杂角色和场景变化的视频其角色一致性依然能维持在九成以上。这对于普通人意味着什么未来你或许能用自然语言描述一个故事然后由AI生成一部几分钟甚至十几分钟的高质量短片其中的人物从头到尾保持着一致的面孔和服装场景的布局始终合理故事的因果逻辑一以贯之——而这一切都不需要你懂视频制作也不需要专业级的设备和团队。---QAQ1A?RD和普通的AI视频生成工具有什么本质区别A普通AI视频工具通常是逐段生成、一旦生成就固定后续不再回头检查前面的内容也没有跨片段的记忆机制所以容易出现人物造型变化、场景穿帮等问题。A?RD的本质区别在于引入了主动的闭环机制每个片段生成后都会经过多维度自动审查不通过就修改或重新生成同时维护一个多模态记忆库持续追踪人物、物体和场景的状态实现了从被动输出到主动把关的转变。Q2LVBench-C评测基准和已有的视频评测基准有什么不同A现有的大多数评测基准只测试视频在连续播放过程中是否保持一致而LVBench-C专门设计了角色或场景消失至少10个片段后重新出现的测试场景模拟真实叙事中常见的时空跳转。它涵盖角色状态演变、物体状态演变和环境状态演变三种类型支持3分钟、5分钟和10分钟三种时长是目前针对长程循环一致性最具挑战性的评测基准之一。Q3A?RD框架能用在其他视频生成模型上吗A可以。研究团队专门在LTX-Video和Wan 2.2两个开源视频生成模型上进行了测试结果显示A?RD在这两个模型上同样能带来显著的叙事连贯性和一致性提升。这表明A?RD是一个与具体视频生成底座解耦的通用框架不需要重新训练模型只需要将其对接到支持文本加图像输入的视频生成模型上就可以使用。

相关文章:

谷歌与新加坡国立大学联手打造“视频导演AI“

这项由谷歌云AI研究院与新加坡国立大学联合完成的研究,于2026年5月以预印本形式公开发布,论文编号为arXiv:2605.06924v1。有兴趣深入阅读原文的读者可通过该编号在arXiv平台检索到完整论文。**研究背景:AI拍视频为何总是"记性不好"…...

LangChain 第一课:核心架构与组件(前端友好版)

一、先一句话搞懂:LangChain 到底是什么?LangChain 是一个大模型应用开发框架,专门帮你把「大模型、RAG、Agent、工具调用」这些功能,像搭积木一样快速拼起来,不用从零写复杂逻辑。前端类比秒懂你写 Vue 要用到 Vue、V…...

银行AI大模型应用火爆!小白也能学会的数智转型秘籍,速收藏!

文章阐述了银行业在金融行业AI转型中的领先地位,AI大模型已从试点探索进入规模化落地阶段。银行采用自研与合作模式发展大模型,应用场景覆盖智能客服、信贷风控、运营自动化、财富管理及合规审计等核心业务。文章通过多个银行案例展示了AI大模型在降本增…...

ES数据库安装

ES数据库安装 # 拉取 Elasticsearch 镜像 docker pull public-docker-virtual.artsz.zte.com.cn/elasticsearch:8.8.2创建宿主机挂载目录# 统一放在 /data/es,便于管理mkdir -p /mnt/data/es/{data,config,logs,plugins}# 权限必须给足(否则容器内用户无…...

如何在Windows上使用iperf3进行专业级网络性能测试:完整指南

如何在Windows上使用iperf3进行专业级网络性能测试:完整指南 【免费下载链接】iperf3-win-builds iperf3 binaries for Windows. Benchmark your network limits. 项目地址: https://gitcode.com/gh_mirrors/ip/iperf3-win-builds iperf3作为专业的网络性能基…...

3步解锁WeMod Pro:Wand-Enhancer免费增强工具完全指南

3步解锁WeMod Pro:Wand-Enhancer免费增强工具完全指南 【免费下载链接】Wand-Enhancer Advanced UX and interoperability extension for Wand (WeMod) app 项目地址: https://gitcode.com/gh_mirrors/we/Wand-Enhancer 阅读预期:你能从本文获得什…...

互联网大厂 Java 求职面试:微服务与云原生

互联网大厂 Java 求职面试:微服务与云原生 在某互联网大厂的面试中,面试官与求职者燕双非展开了一场关于微服务与云原生的深入对话。以下是他们的问答记录。第一轮提问 面试官:燕双非,首先请你简单介绍一下你对微服务架构的理解。…...

SAST 静态代码分析平台命令行接口介绍(终结篇)

下面软件工厂生成的报告展示,可以根据客户需要定制。特别说明,下面图中的所有数据均是虚构数据,仅仅是为了做图展示。1、扫描覆盖与项目分布2、漏洞总览和项目红黑榜3、按语言统计和项目修复趋势4、合规性分析5、人员缺陷统计和型号版本质量趋…...

对抗AI焦虑的最好方式是搞懂大模型的底层原理

文章指出,尽管AI技术如RAG、MCP、Skill、Agent、Harness等迭代迅速,但程序员应专注于掌握大模型的底层原理,如记忆、信息获取、操作能力等,这些原理不会因技术变迁而失效。通过理解这些基础认知,程序员能更好地应对技术…...

保姆级教程:在GD32F103上配置USART1的DMA通道5和6(附避坑指南)

GD32F103 USART1 DMA配置全攻略:从手册解读到实战避坑 在嵌入式开发中,USART与DMA的配合使用是提升串口通信效率的黄金组合。对于刚从STM32转向GD32F103的开发者来说,手册中DMA通道映射关系的不明确常常成为第一个"拦路虎"。本文将…...

Design - 一些免费图标网站

一些有用的工具网站;除了直接AI生成外,仍然有些有用的Icon免费网站,比较适合游戏的有:1. icons8.com最适合综合型游戏项目图标、插画、UI 资源比较全风格统一,适合游戏界面、按钮、功能图标可在线调整颜色和尺寸&#…...

为什么这个电路可以放大1V信号?

你的经验可能是你的枷锁这个三级直接耦合放大电路对于1kHz峰值1V信号的放大三极直接耦合放大电路参数优化被AI欺骗啦:一个有趣的三极直接耦合放大电路的调整一个三极直接耦合放大电路的设计 01 为何能够放大1V信号? 一、电路配置结果 今天很高兴&#xf…...

学生毕业管理系统(文档+源码)_kaic

第五章 详细设计与实现5.1系统前台功能的实现5.1.1登录界面的实现首先双击打开微信小程序客户端系统,连上网络之后会显示出本系统的登录界面,这是进入小程序的第初始页面“登录”,能成功进入到该登录界面则代表小程序的开启是成功的&#xff…...

算法融合自动紧急制动控制策略【附程序】

✨ 长期致力于自动紧急制动、路面识别、模糊算法、模型预测控制、联合仿真研究工作,擅长数据搜集与处理、建模仿真、程序编写、仿真设计。 ✅ 专业定制毕设、代码 ✅ 如需沟通交流,点击《获取方式》 (1)基于模糊逻辑的路面附着系数…...

用C语言和mciSendString函数,在VS2019里写一个带进度条的音乐播放器(附完整源码)

用C语言打造可视化音乐播放器:从零实现带进度条的音频控制工具 在枯燥的控制台程序与炫酷的图形界面之间,存在一个被许多C语言学习者忽视的中间地带——通过Windows API实现简单而实用的可视化反馈。本文将带你用mciSendString函数构建一个带有实时进度条…...

基于STM32F103C8T6标准库驱动2.4寸SPI TFT触摸屏:从零搭建嵌入式GUI交互系统

1. 项目概述与硬件准备 最近在做一个智能家居控制面板的项目,选用了STM32F103C8T6这块性价比超高的开发板作为主控,搭配2.4寸SPI接口的TFT触摸屏作为人机交互界面。说实话,刚开始接触这个组合时踩了不少坑,特别是用标准库开发的时…...

RJ45连接器工程实战:从PoE热故障到户外防水的12个设计禁区

一句话核心:RJ45连接器选型失败,往往不是速率不达标,而是热、水、地、工艺四个字中的一个出了问题。本文从电源供电发热、户外环境腐蚀、屏蔽接地错误、现场压接失控四个维度,梳理12个容易被忽视的设计禁区,并提供可复…...

Guava Ratelimiter实现单机接口限流

废话不多说直接上代码&#xff1a;1.依赖&#xff1a;<dependency><groupId>com.google.guava</groupId><artifactId>guava</artifactId><version>31.1-jre</version></dependency>2.配置类注册bean&#xff1a;package com.h…...

通过 Taotoken CLI 工具一键配置开发环境中的多工具 API 端点

&#x1f680; 告别海外账号与网络限制&#xff01;稳定直连全球优质大模型&#xff0c;限时半价接入中。 &#x1f449; 点击领取海量免费额度 通过 Taotoken CLI 工具一键配置开发环境中的多工具 API 端点 在接入多个大模型服务时&#xff0c;开发者常常需要为不同的工具和 …...

大模型产品经理进阶指南:从零基础到行业精英的完整学习路线图!

随着人工智能技术的发展&#xff0c;尤其是大模型&#xff08;Large Model&#xff09;的兴起&#xff0c;越来越多的企业开始重视这一领域的投入。作为大模型产品经理&#xff0c;你需要具备一系列跨学科的知识和技能&#xff0c;以便有效地推动产品的开发、优化和市场化。以下…...

八大网盘直链解析工具:告别限速,实现高速下载自由

八大网盘直链解析工具&#xff1a;告别限速&#xff0c;实现高速下载自由 【免费下载链接】Online-disk-direct-link-download-assistant 一个基于 JavaScript 的网盘文件下载地址获取工具。基于【网盘直链下载助手】修改 &#xff0c;支持 百度网盘 / 阿里云盘 / 中国移动云盘…...

AI产品经理的进阶路线图

本文深入探讨了AI产品经理的核心特质&#xff0c;强调AI思维的重要性远超单纯的技术知识。文章解析了AI产品设计以极度简单为标准背后的复杂系统&#xff0c;以及AI产业链的三大结构层——基础层、技术层与应用层。此外&#xff0c;文章还详细阐述了AI产品经理的四象限分类&…...

大模型“开源”到底开了什么?不同协议有什么区别?

大模型发布常以“开源”为噱头&#xff0c;但与传统软件开源不同&#xff0c;大模型开源可能仅开放代码、权重、训练方法或数据说明&#xff0c;且协议复杂多样。企业需关注开放深度&#xff0c;区分开放权重、开放代码、开放训练过程三个层次&#xff0c;警惕GPL、AGPL、CC-BY…...

ESP32-S3物联网开发实战:从ADC采样到MQTT云端通信

1. 项目概述&#xff1a;从传感器到云端的数据之旅在物联网项目的开发中&#xff0c;我们常常需要解决一个核心问题&#xff1a;如何让物理世界的信息被数字系统感知、处理&#xff0c;并最终在云端呈现或接受远程控制&#xff1f;这背后涉及三个关键环节&#xff1a;感知、处理…...

柔性构建板原理与实战:从材料科学到3D打印取模难题的工程解法

1. 项目概述&#xff1a;为什么你需要一块柔性构建板&#xff1f;如果你玩3D打印有一段时间了&#xff0c;大概率经历过这样的抓狂时刻&#xff1a;打印完成&#xff0c;模型牢牢地“焊”在玻璃板或者美纹纸胶带上&#xff0c;你用铲刀、刮片又撬又掰&#xff0c;结果要么是模型…...

2230固态硬盘延长安装技巧指南!

2230规格的M.2固态硬盘因体积小巧&#xff0c;广泛应用于掌机、轻薄笔记本和微型PC&#xff0c;但许多主板的M.2插槽默认为2280规格&#xff0c;导致2230硬盘“装不稳”。本文详细讲解2230与2280的尺寸差异、延长安装的核心方法&#xff08;转接支架、螺丝柱调整、散热适配&…...

【ITIL4】32服务实践 - 问题管理(Problem Management)

【ITIL4】32服务实践 - 问题管理&#xff08;Problem Management&#xff09; 文章目录【ITIL4】32服务实践 - 问题管理&#xff08;Problem Management&#xff09;一、核心定义1. 问题&#xff08;Problem&#xff09;2. 已知错误&#xff08;Known Error&#xff09;3. 变通…...

别再死记硬背MPNN公式了!用“邻居传纸条”的比喻彻底搞懂消息传递神经网络

用"班级传纸条"游戏理解消息传递神经网络 想象一下&#xff0c;你正坐在教室里&#xff0c;老师突然宣布要进行一个特殊的游戏——每个同学可以给任意一位朋友传递一张写有秘密信息的纸条。这个看似简单的游戏&#xff0c;恰恰揭示了人工智能领域最前沿的图神经网络(…...

深度学习优化算法(二)—— SGD + Momentum + Nesterov(三十四)

1. 定位导航 第 33 篇讲了为什么训练困难(病态、鞍点、梯度爆炸)。本篇正式介绍解决方案的第一波——三个经典优化算法: 算法 关键思想 年代 SGD 随机梯度估计 + 学习率衰减 1951(Robbins-Monro) Momentum 累积梯度方向加速 1964(Polyak) Nesterov 先"前瞻"再…...

深度学习优化算法(一)—— 学习 vs 纯优化 + 优化挑战(三十三)

1. 定位导航 第 7 章我们解决了"怎么防过拟合"。第 8 章正式进入深度学习的另一个核心——怎么训练得快、稳、好。 第 8 章规划(5 篇): 篇号 主题 33(本篇) 学习 vs 纯优化 + 优化挑战 34 基本优化算法(SGD + Momentum + Nesterov) 35 自适应学习率(AdaGra…...