当前位置: 首页 > news >正文

GPT-5 传言:一场正在幕后发生的 AI 变革

新的一年,让我们从一个引人入胜的话题开始:如果我告诉你,GPT-5 并非虚构,而是真实存在呢?它不仅真实存在,而且正在你看不见的地方悄然塑造着世界。我的基本假设是:OpenAI 已经秘密开发出 GPT-5,并将其用于内部,因为这样做带来的回报远大于将其开放给数百万 ChatGPT 用户。而他们追求的回报,并非单纯的金钱,而是更深远的战略价值。这个想法本身并不复杂,难点在于如何将零散的信息拼凑成完整的推论。本文将深入探讨,为何我认为所有线索都指向这个结论。
在这里插入图片描述

声明:

请注意,这纯属个人推测。所有信息均来自公开渠道,没有任何内幕消息或爆料能直接证实我的观点。事实上,本文并非传播既有说法,而是我构建理论的过程。我没有掌握任何特权信息——如果有,我早就被保密协议束缚了。这个假设之所以引人注目,是因为它逻辑自洽,且能解释许多现象。坦白说,这足以激发我对这个传言的深入探究。

我的推测是否正确,最终将由时间来验证。即便我的假设被证明是错误的(未来总会揭晓),我相信这个推理过程本身也颇具价值。我欢迎大家在评论区畅所欲言,但请保持建设性和理性思考。最重要的是,请在充分理解全文后再参与讨论。除此之外,任何形式的交流我都乐于接受。

I. Claude Opus 3.5 的神秘失踪:一个引人深思的开端

在深入探讨 GPT-5 之前,我们先来看看它的“远房亲戚”——同样神秘失踪的 Anthropic Claude Opus 3.5。

众所周知,三大 AI 实验室——OpenAI、Google DeepMind 和 Anthropic——都推出了多款模型,以满足不同价格、延迟和性能需求。OpenAI 有 GPT-4o、GPT-4o mini 以及 o1、o1-mini 等;Google DeepMind 提供 Gemini Ultra、Pro 和 Flash;Anthropic 则有 Claude Opus、Sonnet 和 Haiku。目标很明确:尽可能覆盖不同客户群体。有些人追求极致性能,不惜代价;也有人更注重成本效益,追求“够用就好”。一切似乎都井然有序。

然而,2024 年 10 月,情况突然变得有些诡异。人们普遍预期 Anthropic 会发布 Claude Opus 3.5,以对标 5 月推出的 GPT-4o。然而,10 月 22 日,他们只发布了 Claude Sonnet 3.5 的更新版本(后被称为 Sonnet 3.6),Opus 3.5 却不见踪影。这意味着 Anthropic 缺少了一款能与 GPT-4o 正面竞争的主力模型。这难道不奇怪吗?以下是关于 Opus 3.5 的时间线,以及人们的猜测和事件发展:

  • 10 月 28 日: 我在每周回顾文章中写道:“有传言称 Sonnet 3.6 是…… Opus 3.5 训练失败后中途保存的检查点。” 同一天,r/ClaudeAI 子版块出现一个帖子,声称“Claude 3.5 Opus 已被废弃”,并附上了 Anthropic 模型介绍页面的链接。至今,该页面仍未提及 Opus 3.5。有人猜测,这可能是 Anthropic 为即将进行的新一轮融资而采取的战略性举措,旨在维持投资者的信心。
  • 11 月 11 日: Anthropic CEO Dario Amodei 在 Lex Fridman 的播客中否认了放弃 Opus 3.5 的说法:“我没有确切的时间表,但据我们所知,仍然打算推出 Claude 3.5 Opus。” 他的表态虽然谨慎且模棱两可,但并未直接驳斥传言。
  • 11 月 13 日: 彭博社在一篇报道中证实了之前的传言:“在完成训练后,Anthropic 发现 3.5 Opus 在测试中表现优于上一代,但远未达到其规模、研发成本和推理开销所应有的水平。” 这意味着,Dario 不愿给出具体时间,是因为 Opus 3.5 虽然没有彻底失败,但其表现并不足以匹配其巨大的成本,尤其是推理成本,即用户使用模型时的资源消耗。
  • 12 月 11 日: 半导体专家 Dylan Patel 和他的 Semianalysis 团队给出了剧情的最终反转,他们的解释将所有信息点串联了起来:“Anthropic 确实完成了 Claude 3.5 Opus 的训练,而且表现良好,模型规模也符合预期…… 但 Anthropic 并未将其公开,而是用 Claude 3.5 Opus 来生成合成数据,并进行奖励模型训练,从而显著提升了 Claude 3.5 Sonnet 的质量,再加上用户数据。”

简而言之:Anthropic 确实训练了 Claude Opus 3.5,但由于其表现未达到预期,他们放弃了发布,并将其用于内部。Dario 希望在下一个训练版本中能提高结果,因此不愿给出确切发布日期。彭博社也指出,它确实比旧模型更好,但性能提升不足以抵消其运营成本。Dylan 及其团队则揭示,Sonnet 3.6 的提升得益于 Opus 3.5:后者被用于在内部生成合成数据,从而辅助前者大幅提升。

这可以用以下关系图来表示:

II. 更好,但更小、更经济?

利用强大而昂贵的模型生成数据,来提升性能稍弱但更经济(推理成本更低)的模型的性能,这种做法被称为蒸馏(distillation)。这是业界常见的策略。通过这种方法,AI 实验室能让自家较小的模型取得远超额外预训练所能带来的提升。

蒸馏的具体方法多种多样,这里不再赘述。你只需理解:一个强大的教师模型(teacher)可以让学生模型(student)从“[小、便宜、快] + 弱”进化为“[小、便宜、快] + 强”。换句话说,强大的模型就是一座金矿。Dylan 在文章中解释了 Anthropic 为何将 Opus 3.5 用于蒸馏 Sonnet 3.6:

“新的 Sonnet 与旧版本相比,推理成本没有显著增加,但性能却更强。既然从成本效益的角度来看,发布 3.5 Opus 并不划算,那么不如借助 3.5 Opus 进一步训练 3.5 Sonnet,然后直接发布一款性能更好且不昂贵的模型。”

回到成本问题:蒸馏可以在不显著增加推理成本的情况下提升模型性能,这正好解决了彭博社指出的主要问题。Anthropic 之所以不发布 Opus 3.5,一方面是因为其表现没有达到预期;另一方面是因为它在内部用途(作为其他模型的教师)反而更有价值。(Dylan 指出,这也是为什么开源社区能如此迅速地追赶上 GPT-4——因为他们直接挖掘了 OpenAI 金矿中产出的“黄金”。)

最令人惊讶的是,Sonnet 3.6 不仅表现出色,而且达到了 SOTA(当前最先进)水平。据称,它甚至比 GPT-4o 更强大。这意味着,Anthropic 的中档模型,凭借 Opus 3.5 的蒸馏(以及在 AI 发展中不算短的五个月时间里的其他改进),竟然全面超越了 OpenAI 的旗舰产品。由此可见,“高成本”不再等同于“高性能”。

“更大更好”的时代已经结束了吗?OpenAI 的 CEO Sam Altman 曾警告过,这个时代已经过去。我也曾撰文讨论过相关话题。当几家顶尖实验室对关键数据讳莫如深,将最宝贵的信息视为机密时,我们自然无法再依赖参数规模这一指标,而只能关注模型的基准测试结果。OpenAI 最后一次正式公布模型参数规模还是 2020 年的 GPT-3(1750 亿参数)。到 2023 年 6 月,有传言称 GPT-4 可能采用了专家混合(MoE)架构,参数量高达约 1.8 万亿。后来,Semianalysis 在 2023 年 7 月的详细分析中也证实,GPT-4 大约有 1.76 万亿参数。

直到 2024 年 12 月,又过了一年半,EpochAI 的研究员 Ege Erdil 估计,这一批最顶尖的模型——包括 GPT-4o 和 Sonnet 3.6——的规模比 GPT-4 小得多(尽管它们在基准测试中都超越了 GPT-4):

“目前的前沿模型,如最早版本的 GPT-4o 和 Claude 3.5 Sonnet,可能只有 GPT-4 大小的十分之一左右,GPT-4o 约 2000 亿参数,3.5 Sonnet 约 4000 亿。……当然,这种估算可能会有 2 倍的偏差,毕竟我的方法比较粗糙。”

他还详细阐述了在实验室不公布架构细节的情况下,自己如何得出这个数字。但对我们来说,关键在于:迷雾正在散去。Anthropic 和 OpenAI 最新的模型不仅性能更强,而且比上一代更小、更便宜。我们已经知道 Anthropic 如何利用 Opus 3.5 蒸馏出 Sonnet 3.6,那么 OpenAI 呢?他们又做了什么?

III. 驱动 AI 实验室的普遍力量

有人可能会认为,Anthropic 的蒸馏策略是因为 Opus 3.5 的训练效果低于预期,属于特殊情况。但事实并非如此。Google DeepMind 和 OpenAI 也都提到,他们在最近的训练中遇到了类似的“不理想”情况。(“不理想”并不意味着模型变差了,只是没有达到预期的大幅提升。)至于背后的原因,对本文来说并不重要:可能是数据见顶、Transformer 架构本身的局限,或是预训练规模定律逐渐趋于饱和…… 不管怎样,Anthropic 的处境在整个行业中都具有代表性。

再回顾彭博社的那句话:模型性能的好坏,需要结合成本来评估。而这一点在三大实验室身上都有体现。Ege 也解释了原因:ChatGPT/GPT-4 横空出世后,市场对生成式 AI 的需求激增,这让各大实验室都难以应对,亏损不断攀升。相比训练的“一次性”成本,“推理”开销会随着用户数量和使用量同步爆炸式增长。如果每周有 3 亿人在使用你的 AI 产品,运营费用随时可能让你破产。

Anthropic 之所以将 Opus 3.5 蒸馏成 Sonnet 3.6,是为了兼顾用户体验和经济效益。同样的市场压力在 OpenAI 身上只会更大。蒸馏的妙处在于,它可以一石二鸟:通过发布较小的模型来解决推理成本过高的问题,并且由于大型模型不公开,也就避免了“训练结果不佳”的负面影响。

Ege 认为,OpenAI 可能也尝试了另一种策略:过度训练(overtraining)。这意味着,如果推理成本成为主要支出,可以“给相对较小的模型灌输更多数据”,以弥补模型规模不足带来的性能损失。但问题是,过度训练已经越来越不可行,优质训练数据即将枯竭。Elon Musk 和 Ilya Sutskever 最近几周都坦言了这一点。

因此,最终还是要依靠蒸馏。Ege 总结道:“我认为 GPT-4o 和 Claude 3.5 Sonnet 也很有可能是从更大的模型蒸馏而来的。”

至此,所有线索都指向:OpenAI 和 Anthropic 的做法如出一辙,都是(1)先训练并“雪藏”一个大型模型;(2)通过蒸馏将其小型模型升级到可商用的水平;(3)背后的原因在于:性能不如预期,以及对成本的考量。但问题仍然存在:Opus 3.5 至今仍未公开,那么与之对应的 OpenAI 大型模型又在哪里?它是否还被藏在公司内部?你能猜到它的名字吗?……

IV. 先行者之路:挑战与机遇并存

之所以先从 Anthropic 的 Opus 3.5 入手,是因为这个案例的信息相对公开且详实。然后,我借助蒸馏的概念,将 Anthropic 的经验与 OpenAI 的情况联系起来,并探讨了两家公司都面临的共同压力。但还有一个新的障碍:作为领跑者,OpenAI 所面临的挑战可能比后发者 Anthropic 更大。

其中之一就是训练 GPT-5 的硬件要求。Sonnet 3.6 虽然能与 GPT-4o 媲美,但毕竟比 GPT-4o 晚了 5 个月才推出。我们有理由推测,GPT-5 可能是更高层次的存在:更强大,也更庞大,训练成本和推理成本都会更加惊人。也许一次训练就要花费高达 5 亿美元。那么,现有的硬件能够支持吗?

Ege 再次给出了答案:可以支持,但如果要为 3 亿用户提供推理服务,显然是无法承受的。然而,如果只是进行训练,情况就轻松多了:

“从理论上讲,即使使用我们现在的硬件,也能维持比 GPT-4 大 50 倍、约 100 万亿参数的模型的推理。不过,这可能意味着每 100 万个输出 token 的成本高达 3000 美元,输出速度在每秒 10~20 个 token。要想将这个模型投入公众使用,它必须能为客户带来极高的经济回报。”

也就是说,如果他们想将这种天价推理费用的大型模型直接开放给大众,即使是微软、谷歌或亚马逊(OpenAI、DeepMind、Anthropic 背后的金主)也难以承受。那该怎么办?答案很简单:只有在能够“解锁巨大经济价值”时,才需要对外开放。如果达不到这个目标,就不开放。

他们可能会说:“我们训练出来的新模型比现有产品更好,但还远远不够好,难以支撑如此巨大的推理成本。”(这句话听起来是不是很耳熟?《华尔街日报》上个月关于 GPT-5 的报道就是这个意思,与彭博社对 Opus 3.5 的描述如出一辙。)

然后,他们会声称模型表现不如预期(即使实际情况可能不差,只是达到预期所需的成本投入过高),将其留在公司内部作为教师模型,用于蒸馏更轻量的小型模型,再将小型模型发布出去。我们得到了 Sonnet 3.6、GPT-4o 和 o1 等产品,它们既便宜又好用;大家对 Opus 3.5 和 GPT-5 仍然充满期待,只是更加迫切了。而他们则利用这个流程,源源不断地挖掘金矿。

V. Altman 先生,您肯定还有更多理由吧!

当我推论到这里时,仍然感到有些疑问。虽然目前所有的证据都表明,对 OpenAI 来说,这种做法非常合乎逻辑,但“合理”并不必然等同于“真实”。我无法提供确凿的证据,毕竟本文只是基于推测。然而,我还可以补充一些佐证来增强说服力。

OpenAI 真的有更多理由这样做吗?除了“成绩不如预期”和“成本不断攀升”,还有其他动机吗?让我们看看 OpenAI 高层在公开场合谈论 GPT-5 时的言论。从他们屡次推迟 GPT-5 的发布中,我们能否看出一些端倪?OpenAI 毕竟是这场 AI 变革的领头羊,而 Anthropic 则在其阴影下发展。Anthropic 操作“雪藏大型模型”不会引起太大的反弹,但 OpenAI 呢?他们难道没有代价吗?

既然提到了代价,就不得不回到与微软的合作上。众所周知,OpenAI 与微软之间有一项“AGI 条款”被写入了 OpenAI 的架构说明。它列出了五条管控准则,阐明了 OpenAI 公司与非营利组织以及与微软的关系。第五条明确了 AGI 的定义:“能在大多数具有经济价值的工作中超越人类的高度自治系统”。一旦 OpenAI 董事会认定系统达到了 AGI,“微软只对这之前的技术享有 IP 许可和商业合作条款,AGI 系统本身除外。”

很明显,双方都不希望这种合作关系破裂。AGI 条款虽然由 OpenAI 起草,但他们也不希望真的触发该条款。而推迟发布可能是避免这种情况的一种方法。“不过,GPT-5 肯定算不上 AGI 吧?”你也许会这么想。但我告诉你另一个几乎无人知晓的事实:根据 The Information 的报道,OpenAI 和微软之间存在一个“对 AGI 的秘密定义”,它并非学术概念,而是法律合同层面的条款:AGI = “能够创造至少 1000 亿美元利润的 AI 系统”。

如果 OpenAI 以“还不成熟”为由,继续搁置 GPT-5,不仅能控制推理成本、缓解公众对性能的争议,还能避免大家去怀疑它是否已经接近“能带来 1000 亿美元利润”的 AGI。退一步讲,如果他们确信 GPT-5 一年就能直接赚取 1000 亿美元,他们也不介意触发 AGI 条款,与微软分道扬镳。但在不确定是否真的能解锁如此巨大的经济价值的情况下,按兵不动显然更为稳妥。

长期以来,外界对 OpenAI 不推出 GPT-5 的主要猜测是其未达到预期水平。但即使这个说法是正确的,也很少有人想到,OpenAI 也许有更好的内部用途,而不是将其用于赚取订阅费。要知道,“开发一个优秀的模型”与“开发一个既优秀又能服务 3 亿用户的模型”是两回事。如果你做不到后者,就不做。如果你根本不需要这样做,那就更没有必要了。他们之所以早期让公众使用最先进的模型,是因为他们需要海量的用户数据。如今,他们不缺数据,也不怎么缺钱(那是微软的问题,不是他们的问题)。他们的目标是 AGI,之后是 ASI。他们追求的是千秋功业。

VI. 这为何会改变一切

我们即将结束本文。我相信我已经提供了足够的证据,得出一个合理的推论:OpenAI 很可能已经在内部运行着 GPT-5,就像 Anthropic 拥有其 Opus 3.5 一样。而且,完全有可能 OpenAI 永远不会公开发布 GPT-5。如今,大家衡量性能的基准已经变成了 o1/o3,而不再仅仅是 GPT-4o 或 Claude Sonnet 3.6。随着 OpenAI 探索在推理阶段应用新的扩展方法(test-time scaling laws),GPT-5 要想碾压后续不断涌现的 o 系列(o1、o3、o4、o5……)变得越来越困难。此外,他们也不再特别需要我们的资金或数据。

继续训练新一代底层模型——GPT-5、GPT-6,以及未来更强大的模型——对 OpenAI 来说,内部用途一直都具有价值,但不一定需要将其作为产品出售。也许他们已经进入了下一个阶段,只想在幕后利用这些大型模型来生成更好的数据,迭代出更高阶的模型。就像一位隐居山林的高人,不直接下山与我们见面,却在暗中培养弟子,而那座山就是他们的大型数据中心。无论我们是否能看见这位“老隐士”,我们都会感受到他那强大的智慧所带来的影响。

即使 GPT-5 最终发布,这个事实也已经没有那么重要了。如果 OpenAI 和 Anthropic 真正开启了某种递归自我改进(即使仍有人类在其中把关),那么他们提供给公众使用的版本已经不再那么关键。他们会不断地将我们甩在身后,正如宇宙加速膨胀,以至于遥远星系的光芒再也无法到达地球。

也许,这就是他们能在短短三个月内,从 o1 迅速跃迁到 o3 的原因——以及今后迅速跃迁到 o4、o5 的原因。或许也解释了为何他们最近在社交媒体上如此兴奋,因为他们正在实施一种全新的、改良的运营模式。

难道你以为踏上 AGI 的征途,就意味着你能够使用越来越强大的公开模型吗?你以为他们会把每一次成果都双手奉上,让你随意使用吗?当然不会。他们早就说过,每次模型的升级都将让他们领先对手更远,直到无人能够追赶。每一代新的大型模型都是推进逃逸速度的引擎。已经飞到平流层的他们,恐怕只能与你挥手作别。

至于他们是否会回到地面?那就只能拭目以待了。

择译分享原文;GPT-5 传言:一场正在幕后发生的 AI 变革
原文:This Rumor About GPT-5 Changes Everything(https://albertoromgar.medium.com/this-rumor-about-gpt-5-changes-everything-f49e4af8efd5)

相关文章:

GPT-5 传言:一场正在幕后发生的 AI 变革

新的一年,让我们从一个引人入胜的话题开始:如果我告诉你,GPT-5 并非虚构,而是真实存在呢?它不仅真实存在,而且正在你看不见的地方悄然塑造着世界。我的基本假设是:OpenAI 已经秘密开发出 GPT-5&…...

CSS布局与响应式

学习链接 Grid网格布局 前端五大主流网页布局 flex布局看这一篇就够了 grid布局看这一篇就够了 用六个案例学会响应式布局 伸缩盒响应式页面布局实战 实现响应式布局的五种方式 - csdn 如何完成响应式布局,有几种方法?看这个就够了 响应式布局总…...

C++的auto_ptr智能指针:从诞生到被弃用的历程

C作为一种功能强大的编程语言,为开发者提供了众多便捷的特性和工具,其中智能指针是其重要特性之一。智能指针能够自动管理内存,有效避免内存泄漏等常见问题。然而,并非所有智能指针都尽善尽美,auto_ptr便是其中的一个例…...

iOS - Objective-C 底层实现中的哈希表

1. 关联对象存储&#xff08;AssociationsHashMap&#xff09; // 关联对象的哈希表实现 typedef DenseMap<const void *, ObjcAssociation> ObjectAssociationMap; typedef DenseMap<DisguisedPtr<objc_object>, ObjectAssociationMap> AssociationsHashMa…...

什么是软件架构

什么是软件架构 程序员说&#xff0c;软件架构是要决定编写哪些C程序或OO类、使用哪些库和框架 程序经理说&#xff0c;软件架构就是模块的划分和接口的定义 系统分析员说&#xff0c;软件架构就是为业务领域对象的关系建模 配置管理员说&#xff0c;软件架构就是开发出来的…...

【Golang/nacos】nacos配置的增删查改,以及服务注册的golang实例及分析

前言 本文分析的实例来源于nacos在github上的开源仓库 nacos配置的增删查改 先具体来看一段代码&#xff0c;我将逐步分析每一段的作用 package mainimport ("fmt""time""github.com/nacos-group/nacos-sdk-go/clients""github.com/naco…...

RabbitMQ集群安装rabbitmq_delayed_message_exchange

1、单节点安装rabbitmq安装延迟队列 安装延迟队列rabbitmq_delayed_message_exchange可以参考这个文章&#xff1a; rabbitmq安装延迟队列-CSDN博客 2、集群安装rabbitmq_delayed_message_exchange 在第二个节点 join_cluster 之后&#xff0c;start_app 就会报错了 (CaseC…...

Linux UDP 编程详解

一、引言 在网络编程领域&#xff0c;UDP&#xff08;User Datagram Protocol&#xff0c;用户数据报协议&#xff09;作为一种轻量级的传输层协议&#xff0c;具有独特的优势和适用场景。与 TCP&#xff08;Transmission Control Protocol&#xff0c;传输控制协议&#xff0…...

【2024年华为OD机试】(B卷,100分)- 计算最接近的数 (Java JS PythonC/C++)

一、问题描述 题目解析 我们需要找到一个下标 i&#xff0c;使得表达式 X[i] - X[i 1] - ... - X[i K - 1] 的结果最接近于数组的中位数。如果有多个 i 满足条件&#xff0c;则返回最大的 i。 关键点&#xff1a; 中位数计算&#xff1a; 将数组排序后&#xff0c;中位数…...

Pytorch 自学笔记(三):利用自定义文本数据集构建Dataset和DataLoader

Pytorch 自学笔记&#xff08;三&#xff09; 1. Dataset与DataLoader1.1 torch.utils.data.Dataset1.2 torch.utils.data.DataLoader Pytorch 自学笔记系列的第三篇。针对Pytorch的Dataset和DataLoader进行简单的介绍&#xff0c;同时&#xff0c;介绍如何使用自定义文本数据集…...

QT 使用QSqlTableModel对数据库进行创建,插入,显示

文章目录 效果图概述功能点代码分析初始数据插入数据数据显示 总结 效果图 概述 本案例用于对数据库中的数据进行显示等其他操作&#xff0c;其他表格筛选&#xff0c;过滤等功能可看此博客 框架&#xff1a;数据模型使用QSqlTableModel&#xff0c;视图使用QTableView&#x…...

如何学习Transformer架构

Transformer架构自提出以来&#xff0c;在自然语言处理领域引发了革命性的变化。作为一种基于注意力机制的模型&#xff0c;Transformer解决了传统序列模型在并行化和长距离依赖方面的局限性。本文将探讨Transformer论文《Attention is All You Need》与Hugging Face Transform…...

浅谈云计算22 | Kubernetes容器编排引擎

Kubernetes容器编排引擎 一、Kubernetes管理对象1.1 Kubernetes组件和架构1.2 主要管理对象类型 二、Kubernetes 服务2.1 服务的作用与原理2.2 服务类型 三、Kubernetes网络管理3.1 网络模型与目标3.2 网络组件3.2.1 kube-proxy3.2.2 网络插件 3.3 网络通信流程 四、Kubernetes…...

计算 SAMOut V3 在将词汇表从1万 增加到6千万的情况下能够减少多少参数

当我们将词汇表从 60,000,000&#xff08;六千万&#xff09;减少到 10,000 时&#xff0c;实际上是在缩小模型的词嵌入层及其共享的语言模型头&#xff08;LM Head&#xff09;的规模。这将导致参数量显著减少。我们可以通过以下步骤来计算具体的参数减少量。 参数量减少计算…...

03.选择排序

一、题目思路 选择排序是一种简单直观的排序算法。它的工作原理是&#xff1a;首先在未排序序列中找到最小&#xff08;或最大&#xff09;元素&#xff0c;存放到排序序列的起始位置&#xff0c;然后&#xff0c;再从剩余未排序元素中继续寻找最小&#xff08;或最大&#xff…...

02_登录窗口

新建场景 重命名为GameRoot 双击GameRoot进入新场景 同样摄像机清除格式 删除平行光并关闭渲染灯光的天空盒 新建空节点重命名为GameRoot GameRoot为游戏的根节点 在整个游戏中都不会被删除 在游戏的根节点下创建UI的根节点Canvas 创建一个空节点 作为UI根节点下的 登录场景UI…...

NodeJS | 搭建本地/公网服务器 live-server 的使用与安装

目录 介绍 安装 live-server 安装方法 安装后的验证 环境变量问题 Node.js 环境变量未配置正确 全局安装的 live-server 路径未添加到环境变量 运行测试 默认访问主界面 访问文件 报错信息与解决 问题一&#xff1a;未知命令 问题二&#xff1a;拒绝脚本 公网配置…...

SystemUI 实现音量条同步功能

需求&#xff1a;SystemUI 实现音量条同步功能 具体问题 以前在SystemUI 下拉框添加了音量条控制&#xff0c;目前发现在SystemUI下拉框显示状态的情况下&#xff0c; 按键或者底部虚拟导航点击音量加减时候&#xff0c;SystemUI音量条不更新。 如下图&#xff1a;两个Syste…...

嵌入式知识点总结 C/C++ 专题提升(一)-关键字

针对于嵌入式软件杂乱的知识点总结起来&#xff0c;提供给读者学习复习对下述内容的强化。 目录 1.C语言宏中"#“和"##"的用法 1.1.(#)字符串化操作符 1.2.(##)符号连接操作符 2.关键字volatile有什么含意?并举出三个不同的例子? 2.1.并行设备的硬件寄存…...

基础入门-传输加密数据格式编码算法密文存储代码混淆逆向保护安全影响

知识点&#xff1a; 1、传输格式&传输数据-类型&编码&算法 2、密码存储&代码混淆-不可逆&非对称性 一、演示案例-传输格式&传输数据-类型&编码&算法 传输格式 JSON XML WebSockets HTML 二进制 自定义 WebSockets&#xff1a;聊天交互较常…...

智慧医疗能源事业线深度画像分析(上)

引言 医疗行业作为现代社会的关键基础设施,其能源消耗与环境影响正日益受到关注。随着全球"双碳"目标的推进和可持续发展理念的深入,智慧医疗能源事业线应运而生,致力于通过创新技术与管理方案,重构医疗领域的能源使用模式。这一事业线融合了能源管理、可持续发…...

<6>-MySQL表的增删查改

目录 一&#xff0c;create&#xff08;创建表&#xff09; 二&#xff0c;retrieve&#xff08;查询表&#xff09; 1&#xff0c;select列 2&#xff0c;where条件 三&#xff0c;update&#xff08;更新表&#xff09; 四&#xff0c;delete&#xff08;删除表&#xf…...

从WWDC看苹果产品发展的规律

WWDC 是苹果公司一年一度面向全球开发者的盛会&#xff0c;其主题演讲展现了苹果在产品设计、技术路线、用户体验和生态系统构建上的核心理念与演进脉络。我们借助 ChatGPT Deep Research 工具&#xff0c;对过去十年 WWDC 主题演讲内容进行了系统化分析&#xff0c;形成了这份…...

Python爬虫实战:研究feedparser库相关技术

1. 引言 1.1 研究背景与意义 在当今信息爆炸的时代,互联网上存在着海量的信息资源。RSS(Really Simple Syndication)作为一种标准化的信息聚合技术,被广泛用于网站内容的发布和订阅。通过 RSS,用户可以方便地获取网站更新的内容,而无需频繁访问各个网站。 然而,互联网…...

1688商品列表API与其他数据源的对接思路

将1688商品列表API与其他数据源对接时&#xff0c;需结合业务场景设计数据流转链路&#xff0c;重点关注数据格式兼容性、接口调用频率控制及数据一致性维护。以下是具体对接思路及关键技术点&#xff1a; 一、核心对接场景与目标 商品数据同步 场景&#xff1a;将1688商品信息…...

高等数学(下)题型笔记(八)空间解析几何与向量代数

目录 0 前言 1 向量的点乘 1.1 基本公式 1.2 例题 2 向量的叉乘 2.1 基础知识 2.2 例题 3 空间平面方程 3.1 基础知识 3.2 例题 4 空间直线方程 4.1 基础知识 4.2 例题 5 旋转曲面及其方程 5.1 基础知识 5.2 例题 6 空间曲面的法线与切平面 6.1 基础知识 6.2…...

从零开始打造 OpenSTLinux 6.6 Yocto 系统(基于STM32CubeMX)(九)

设备树移植 和uboot设备树修改的内容同步到kernel将设备树stm32mp157d-stm32mp157daa1-mx.dts复制到内核源码目录下 源码修改及编译 修改arch/arm/boot/dts/st/Makefile&#xff0c;新增设备树编译 stm32mp157f-ev1-m4-examples.dtb \stm32mp157d-stm32mp157daa1-mx.dtb修改…...

BCS 2025|百度副总裁陈洋:智能体在安全领域的应用实践

6月5日&#xff0c;2025全球数字经济大会数字安全主论坛暨北京网络安全大会在国家会议中心隆重开幕。百度副总裁陈洋受邀出席&#xff0c;并作《智能体在安全领域的应用实践》主题演讲&#xff0c;分享了在智能体在安全领域的突破性实践。他指出&#xff0c;百度通过将安全能力…...

Python如何给视频添加音频和字幕

在Python中&#xff0c;给视频添加音频和字幕可以使用电影文件处理库MoviePy和字幕处理库Subtitles。下面将详细介绍如何使用这些库来实现视频的音频和字幕添加&#xff0c;包括必要的代码示例和详细解释。 环境准备 在开始之前&#xff0c;需要安装以下Python库&#xff1a;…...

JDK 17 新特性

#JDK 17 新特性 /**************** 文本块 *****************/ python/scala中早就支持&#xff0c;不稀奇 String json “”" { “name”: “Java”, “version”: 17 } “”"; /**************** Switch 语句 -> 表达式 *****************/ 挺好的&#xff…...