当前位置: 首页 > article >正文

2025年推荐使用的开源大语言模型top20:核心特性、选择指标和开源优势

李升伟 编译

随着人工智能技术的持续发展,开源大型语言模型(LLMs)正变得愈发强大,使最先进的AI能力得以普及。到2025年,开源生态系统中涌现出多个关键模型,它们在各类应用场景中展现出独特优势。

大型语言模型(LLMs)处于生成式AI革命的前沿。这些基于Transformer的AI系统依托数亿至数十亿的预训练参数,能够分析海量文本并生成高度拟人化的响应。尽管像ChatGPT、Claude、谷歌巴德(Gemini)、LLaMA和Mixtral等专有模型仍占据主流地位,但开源社区已迅速崛起,创造出兼具竞争力与可访问性的替代方案。

以下是预计将在2025年塑造AI未来的前20个开源大型语言模型(LLMs):

1. Llama 3.3(Meta)

Meta推出的Llama系列最新版本,基于前代模型改进了效率、推理能力和多轮对话理解。适用于聊天机器人、文档摘要和企业级AI解决方案。

核心特性:
✅ 支持更强大的微调能力
✅ 多语言支持
✅ 提升事实准确性与推理能力
✅ 优化小规模部署的效率

2. Mistral-Large-Instruct-2407(Mistral AI)

Mistral AI推出的指令调优模型,擅长自然语言处理(NLP)任务,如摘要、翻译和问答。

核心特性:
✅ 在文本生成和指令遵循方面表现优异
✅ 低延迟的高效分词处理
✅ 支持多轮对话处理

3. Llama-3.1-70B-Instruct(Meta)

Meta的另一款模型,针对复杂问题解决、编程和交互式AI任务进行了微调优化。

核心特性:
✅ 700亿参数量,提升上下文理解能力
✅ 优化指令调优以提升任务表现
✅ 强大的多语言支持

4. Gemma-2-9b-it(Google)

谷歌开源的Gemma系列改进版,专为指令遵循、编程辅助和数据分析优化。

核心特性:
✅ 紧凑的90亿参数模型,推理效率高
✅ 以负责任的AI原则训练
✅ 提升结构化输出的推理能力

5. DeepSeek R1

快速崛起的开源替代方案,专为高性能AI应用设计,支持多语言和强大的上下文感知能力。架构优化速度与效率,适合实际部署。

核心特性:
✅ 面向科研与工程任务的开源LLM模型
✅ 优化数学与逻辑问题解决
✅ 低计算成本的高效内存管理

6. Claude 3.5 Sonnet(Anthropic)

Anthropic虽多数模型为闭源,但Claude 3.5 Sonnet的开源版本聚焦安全与伦理AI开发。其推理与创造力的提升使其成为内容生成和决策任务的热门选择。

核心特性:
✅ 强大的推理与上下文理解
✅ 对话中更拟人化的回应
✅ 安全与隐私优先的AI开发

7. GPT-4 Turbo(OpenAI)

OpenAI的GPT-4 Turbo凭借速度与精度的平衡,仍是开发者首选的高质量AI响应模型。GPT-4.5作为其改进版,旨在弥合GPT-4与未来GPT-5的差距,提升效率、速度和准确性,并扩展多模态功能。

核心特性:
✅ 较前代更快、成本更低
✅ 支持复杂多步骤推理
✅ 优化代码生成与文本问题解决

8. Qwen2.5-72B-Instruct(阿里巴巴)

阿里巴巴的Qwen2.5-72B-Instruct在推理和多语言任务中表现卓越,可与西方模型竞争,适合科研和企业应用。

核心特性:
✅ 720亿参数模型,适用于企业与通用AI场景
✅ 支持复杂逻辑与指令驱动的响应
✅ 高效分词处理,实现实时AI响应

9. Grok 3(xAI)

埃隆·马斯克的xAI团队开发的Grok系列最新版,旨在与OpenAI的GPT模型竞争。通过深度集成X平台(原推特),Grok提供实时、上下文感知的响应,并带有鲜明的幽默与讽刺风格。

核心特性:
✅ 增强实时学习能力——通过实时网络数据获取最新见解
✅ 多模态支持——兼容文本、图像,未来或扩展视频
✅ 优化对话AI——自然流畅的对话,融入幽默与个性
✅ 深度集成X/推特——基于用户互动的个性化响应

典型应用场景:
📢 社交媒体互动
📊 实时数据分析
🤖 AI驱动的聊天机器人

10. Phi-4(微软)

Phi-4 是一款轻量级但功能强大的模型,专为边缘AI(Edge AI)和嵌入式应用设计,在更小的资源占用下实现高效性能。

核心特性:
✅ 针对个人AI助手优化的轻量级、高效率LLM
✅ 经过推理、数学和语言理解训练
✅ 在低计算资源需求下仍保持强劲性能

11. BLOOM(BigScience Project)

作为最早的大型开源LLM之一,BLOOM在多语言和研究型应用中仍具有实用性。其开源特性和伦理设计使其成为全球应用的热门选择。

核心特性:
✅ 全球最大的开源多语言模型之一
✅ 支持超过40种语言
✅ 开发透明且由社区驱动

12. Gemma 2.0 Flash(谷歌)

谷歌Gemma 2.0 Flash系列的改进版,专为实时交互和高速AI应用优化,适用于聊天机器人等场景。

核心特性:
✅ 低延迟响应,优化速度
✅ 实时AI应用表现优异
✅ 高效内存利用,适配AI工具

13. Doubao-1.5-Pro(字节跳动)

字节跳动的开源模型Doubao-1.5-Pro专为生成式AI任务设计,如内容创作、故事叙述和营销自动化。

核心特性:
✅ 专长于对话式AI和聊天机器人应用
✅ 优化内容审核与摘要生成
✅ 支持多语言

14. Janus-Pro-7B

开源领域的新晋模型,Janus-Pro-7B针对AI研究和通用用途设计,推理速度优化显著。其模块化架构支持灵活定制,深受开发者喜爱。

核心特性:
✅ 70亿参数模型,适配通用AI任务
✅ 高速推理,适用于聊天机器人和虚拟助手
✅ 可微调以满足特定业务需求

15. Imagen 3(谷歌)

虽以文本到图像生成为主,但Imagen 3具备强大的多模态能力,可集成到更广泛的AI系统中。

核心特性:
✅ 先进的文本到图像生成能力
✅ 更逼真的照片级图像合成
✅ 增强创意AI应用

16. CodeGen

专为AI辅助编程和自动化代码生成设计的强效工具,是开发者的首选。

核心特性:
✅ 优化AI辅助代码生成
✅ 支持多种编程语言
✅ 针对软件工程任务微调

17. Falcon 180B(阿联酋技术创新研究所)

Falcon 180B是开源领域领先的大型LLM,凭借其庞大的参数量和先进架构,成为研究和企业应用的首选。

核心特性:
✅ 1800亿参数,开源模型中性能最强之一
✅ 先进推理与文本补全能力
✅ 高适应性,适配多种AI应用

18. OPT-175B(Meta)

Meta的OPT-175B是完全开源的LLM,旨在与专有模型竞争。其透明性和可扩展性使其成为学术研究和大规模部署的热门选择。

核心特性:
✅ 专有LLM的开源替代方案
✅ 针对研究优化的大规模模型
✅ 强大的多语言支持

19. XGen-7B

开发者青睐的新兴模型,XGen-7B针对实时AI应用和对话代理优化。

核心特性:
✅ 70亿参数模型,专注企业级AI应用
✅ 支持法律和财务文档分析
✅ 优化快速响应时间

20. GPT-NeoX 和 GPT-J(EleutherAI)

EleutherAI开发的GPT-NeoX和GPT-J系列持续作为专有AI系统的开源替代方案,支持高质量NLP应用。

核心特性:
✅ GPT模型的开源替代方案
✅ 优化聊天机器人和通用AI应用
✅ 支持自定义微调

21. Vicuna 13B

基于LLaMA微调的Vicuna 13B专为聊天机器人交互、客户服务和社区驱动的AI项目设计。

核心特性:
✅ 基于微调的LLaMA架构
✅ 优化对话式AI
✅ 成本效益高且轻量级

22. Amazon Nova Pro(AWS)

AWS的Nova Pro是面向企业级应用的最新AI模型,旨在与OpenAI和谷歌的AI模型竞争,聚焦可扩展性、安全性和与AWS云服务的深度集成。

核心特性:
✅ 优化云计算——深度集成AWS服务
✅ 企业级安全——高级合规与数据保护
✅ 行业定制——为金融、医疗和电商等领域提供定制AI解决方案
✅ 高性能代码生成——适合使用AWS Lambda和SageMaker的开发者

使用场景:
🏢 企业级AI解决方案
📈 数据分析与预测建模
🤖 基于AI的客户服务自动化

选择适合您需求的开源大语言模型(LLM)🧠

随着开源大语言模型(LLMs)的兴起,选择适合特定需求的模型可能颇具挑战。无论是用于聊天机器人、内容生成、代码补全还是研究,选择最佳模型需考虑模型规模、速度、准确性和硬件要求等因素。以下是一份指南,助您做出明智选择。

1️⃣ 明确您的使用场景🎯

选择LLM的第一步是明确主要目标。不同模型在不同领域表现优异:

对话式AI与聊天机器人:LLaMA 3、Claude 3.5 Sonnet、Vicuna 13B
代码生成:CodeGen、GPT-NeoX、GPT-J、Mistral-Large
多模态AI(文本+图像+视频):Gemma 2.0 Flash、Imagen 3、Qwen2.5-72B
研究与通用知识:DeepSeek R1、Falcon 180B、BLOOM
企业级AI应用:GPT-4 Turbo、Janus-Pro-7B、OPT-175B
若需处理高度专业化的数据(如法律、医疗或金融领域),建议通过微调模型以提升领域特异性性能。

2️⃣ 考虑模型规模与性能

模型规模影响其准确度、计算需求及部署可行性:

小型轻量级模型(适合边缘AI与本地部署):
Phi-4(优化效率)
Llama-3.1-70B-Instruct(性能与速度的平衡)
Janus-Pro-7B(适合消费级GPU运行)

中型模型(适合通用AI应用):
Mistral-Large-Instruct-2407(性能均衡)
Qwen2.5-72B-Instruct(优化多语言支持)
DeepSeek R1(适合通用AI研究)

大型模型(适合企业AI与研究实验室):
GPT-4 Turbo(顶级性能,但需高性能计算)
Falcon 1和180B(功能强大的开源模型)
BLOOM & OPT-175B(高度可扩展,但运行成本高)

若计算资源有限,可考虑使用小型模型或量化版本(降低内存和处理需求)。

3️⃣ 开源许可与灵活性📜

不同开源LLM的许可协议差异显著:

完全开放且宽松:LLaMA 3、Falcon、Vicuna、GPT-NeoX
限制商业用途:部分DeepSeek R1、Gemma-2版本
企业级且允许商业用途:Mistral、Claude、Qwen
若开发商业AI产品,请确保模型许可允许无限制商业使用。

4️⃣ 多模态能力📸🎤

若需处理文本、图像或视频,可考虑:

Gemma 2.0 Flash(Google)——优化文本与图像
Imagen 3——高级图像生成模型
Claude 3.5 Sonnet——支持文本与图像的多模态能力
语音AI应用可选择OpenAI的Whisper或ElevenLabs模型。

5️⃣ 社区与生态支持🌍

强大的开发者社区和生态系统至关重要:

活跃社区:LLaMA、Mistral、Falcon、GPT-J
研究与论文支持:DeepSeek、Claude、Janus
企业支持模型:Qwen(阿里巴巴)、Gemma(谷歌)、OPT(Meta)
选择支持良好的模型,可获得预训练权重、微调指南和部署资源。

6️⃣ 计算与硬件需求💻

运行LLM需强大计算资源:

消费级GPU(低端,如RTX 3060,16GB内存) → Phi-4、Janus-Pro-7B、GPT-NeoX
中端GPU(如RTX 4090、A100,32GB+内存) → Mistral-Large、LLaMA 3、DeepSeek R1
企业级服务器(H100 GPU、云端计算) → GPT-4 Turbo、Falcon 180B、Claude 3.5 Sonnet
本地部署时,优先选择量化版本以减少显存消耗。

7️⃣ 微调与定制化🔧

部分模型支持对专有数据集的微调:

适合微调:LLaMA 3、Mistral、Qwen2.5、Janus-Pro-7B
微调支持有限:GPT-4 Turbo、Claude 3.5 Sonnet
若需训练自有数据,选择支持LoRA或全量微调的模型。

快速推荐✅
全能型最佳:LLaMA 3.3
多模态AI最佳:Claude 3.5 Sonnet、Gemma 2.0 Flash
企业级AI最佳:GPT-4 Turbo、Falcon 180B
代码生成最佳:CodeGen、GPT-NeoX、GPT-J
轻量级应用最佳:Phi-4、Janus-Pro-7B

开源LLM的优势🚀

开源大语言模型正成为开发者、企业和研究人员的变革工具。与专有模型相比,它们提供透明性、灵活性和成本效益。以下是主要优势:

1️⃣ 成本效益💰

开源LLM无需支付许可费,是初创公司、研究者和企业的经济之选。企业可部署自有模型,避免依赖闭源模型的API付费。

2️⃣ 完全定制与微调🎛️

开发者可对模型进行微调,优化特定领域应用(如医疗、金融或客服)。

3️⃣ 透明性与安全性🔍🔐

开源模型允许代码审查,确保无隐藏偏见或安全漏洞,这对需严格遵守隐私和安全法规的行业至关重要。

4️⃣ 减少对科技巨头的依赖🏢🚀

降低对OpenAI、谷歌或Anthropic等大公司的依赖,企业可自主部署模型,掌控数据与运营成本。

5️⃣ 快速创新与社区支持🌍🤝

开源模型依赖社区贡献,推动快速技术进步、性能提升和广泛采用。

6️⃣ 本地与边缘AI能力🏠📶

企业可本地运行模型,减少延迟并保障数据隐私,尤其适用于医疗等敏感数据领域。

7️⃣ 多语言与多模态支持🌍🖼️🔊

许多开源模型支持多语言和多模态输入(文本、图像、音频),适合全球应用和创意工具。

8️⃣ 伦理AI与开放研究📜⚖️

开源AI促进伦理发展,允许研究者分析偏见、提升公平性并确保负责任的AI实践。

9️⃣ 可扩展性与企业级性能🚀📈

开源模型兼具可扩展性和企业级性能,满足从边缘设备到云端的多样化需求。

10️⃣ 无API调用限制与内容审查🚫🔄

与施加严格API调用限制和内容约束的闭源模型不同,开源LLM提供无限制的使用权限。这对于需要大规模处理且不受限的企业而言是理想选择。

开源LLM的未来前景🚀

开源LLM通过提供高成本效益、可定制化且注重隐私的解决方案,正在重塑AI的未来。无论是开发AI驱动的应用程序、开展研究,还是优化业务流程,利用开源模型都能带来无与伦比的灵活性和创新性。

总结与展望

随着这些开源LLM在2025年引领AI发展,开发者和企业已拥有一系列强大的工具。无论是用于代码编写、研究、自动化,还是对话式AI,这些模型正在塑造下一代AI应用,同时让创新成果惠及所有人。

您今年使用或计划探索哪些开源LLM?欢迎在评论区分享!

原文链接:https://bigdataanalyticsnews.com/top-open-source-llm-models/

相关文章:

2025年推荐使用的开源大语言模型top20:核心特性、选择指标和开源优势

李升伟 编译 随着人工智能技术的持续发展,开源大型语言模型(LLMs)正变得愈发强大,使最先进的AI能力得以普及。到2025年,开源生态系统中涌现出多个关键模型,它们在各类应用场景中展现出独特优势。 大型语言…...

Linux 入门九:Linux 进程间通信

概述 进程间通信(IPC,Inter-Process Communication)是指在不同进程之间传递数据和信息的机制。Linux 提供了多种 IPC 方式,包括管道、信号、信号量、消息队列、共享内存和套接字等。 方式 一、管道(Pipe&#xff09…...

Spark-SQL核心编程实战:自定义函数与聚合函数详解

在大数据处理领域,Spark-SQL是极为重要的工具。今天和大家分享一下在Spark-SQL开发中的自定义函数和聚合函数的使用,这些都是基于实际项目开发经验的总结。 在Spark-SQL开发时,第一步是搭建开发环境。在IDEA中创建Spark-SQL子模块&#xff0c…...

[Mysql][Mybatis][Spring]配置文件未能正确给驱动赋值,.properties文件username值被替换

这是最初的.properties配置文件&#xff1a; drivercom.mysql.cj.jdbc.Driver urljdbc:mysql://localhost:3306/qykf usernameroot password123456 在Mybatis中引入后进行赋值&#xff1a; <environments default"development"><environment id"deve…...

go 指针接收者和值接收者的区别

go 指针接收者和值接收者的区别 指针接收者和值接收者的区别主要有两点&#xff1a; Go 中函数传参是传值&#xff0c;因此指针接收者传递的是接收者的指针拷贝&#xff0c;值接收者传递的是接收者的拷贝---在方法中指针接收者的变量会被修改&#xff0c;而值接收者的成员变量…...

Redis之缓存更新策略

缓存更新策略 文章目录 缓存更新策略一、策略对比二、常见的缓存更新策略三、如何选择策略四、实际应用示例五、使用 Cache-Aside TTL 的方式&#xff0c;实现缓存商铺信息详情1.引入StringRedisTemplate2.将查询商铺信息加入缓存3.更新商铺信息时移除缓存总结 六、注意事项 一…...

【leetcode100】杨辉三角

1、题目描述 给定一个非负整数 numRows&#xff0c;生成「杨辉三角」的前 numRows 行。 在「杨辉三角」中&#xff0c;每个数是它左上方和右上方的数的和。 示例 1: 输入: numRows 5 输出: [[1],[1,1],[1,2,1],[1,3,3,1],[1,4,6,4,1]]示例 2: 输入: numRows 1 输出: [[1]…...

git reset详解

一、git reset 的核心作用 用于 移动当前分支的 HEAD 指针 到指定的提交&#xff0c;并可选择是否修改工作区和暂存区。 ⚠️ 注意&#xff1a;若提交已被推送到远程仓库&#xff0c;强制重置&#xff08;--hard&#xff09;后需谨慎操作&#xff0c;避免影响协作。 二、三种模…...

Selenium2+Python自动化:利用JS解决click失效问题

文章目录 前言一、遇到的问题二、点击父元素问题分析解决办法实现思路 三、使用JS直接点击四、参考代码 前言 在使用Selenium2和Python进行自动化测试时&#xff0c;我们有时会遇到这样的情况&#xff1a;元素明明已经被成功定位&#xff0c;代码运行也没有报错&#xff0c;但…...

OpenStack Yoga版安装笔记(十九)启动一个实例(Self-service networks)

1、概述 1.1 官方文档 Launch an instancehttps://docs.openstack.org/install-guide/launch-instance.html 《OpenStack Yoga版安装笔记&#xff08;十四&#xff09;启动一个实例》文档中&#xff0c;已经按照Option1: Provider networks创建网络。 本文按照Option2&#…...

数据结构(java)栈与队列

栈&#xff1a;&#xff08;先进后出&#xff09; 入栈: 1.普通栈一定要放、最小栈放的原则是: *如果最小栈是空的&#xff0c;那么放 *如果最小栈的栈顶元素没有当前的元素小&#xff0c;则放 2.如果要放的的元素小于等于最小栈栈顶元素可以放吗?放 出栈: 需要…...

Flask+Plotly结合动态加载图形页面实践

1. DeepSeek帮我实践 1.1. 我的提问既设计方案 原有如下主页:dashboard.html,现增加“预测模型学习”,对感知机神经网络描述如下: 1、输入与输出为固定值,例如输入层215,输出层48; 2、模型为回归神经网络; 3、中层是可动态调整的,例如定义如下:第二层,200,第三层…...

数学教学通讯杂志数学教学通讯杂志社数学教学通讯编辑部2025年第6期目录

课程教材教法 “课程思政”视域下的高中数学教学探索与实践——以“函数概念的发展历程”为例 赵文博; 3-617 PBL教学模式下高中统计教学的探索与实践——以“随机抽样&#xff08;第一课时&#xff09;”为例 陈沛余; 7-10 “三新”背景下的高中数学教学困境与应对…...

整活 kotlin + springboot3 + sqlite 配置一个 SQLiteCache

要实现一个 SQLiteCache 也是很简单的只需要创建一个 cacheManager Bean 即可 // 如果配置文件中 spring.cache.sqlite.enable false 则不启用 Bean("cacheManager") ConditionalOnProperty(name ["spring.cache.sqlite.enable"], havingValue "t…...

C#容器源码分析 --- Dictionary<TKey,TValue>

Dictionary<TKey, TValue> 是 System.Collections.Generic 命名空间下的高性能键值对集合&#xff0c;其核心实现基于​​哈希表​​和​​链地址法&#xff08;Separate Chaining&#xff09;。 .Net4.8 Dictionary<TKey,TValue>源码地址&#xff1a; dictionary…...

在 Visual Studio Code 中安装通义灵码 - 智能编码助手

高效的编码工具对于提升开发效率和代码质量至关重要。 通义灵码作为一款智能编码助手&#xff0c;为开发者提供了全方位的支持。 本文将详细介绍如何在 Visual Studio Code&#xff08;简称 VSCode&#xff09;中安装通义灵码&#xff0c;以及如何进行相关配置以开启智能编码…...

【AutoTest】自动化测试工具大全(Java)

&#x1f60a; 如果您觉得这篇文章有用 ✔️ 的话&#xff0c;请给博主一个一键三连 &#x1f680;&#x1f680;&#x1f680; 吧 &#xff08;点赞 &#x1f9e1;、关注 &#x1f49b;、收藏 &#x1f49a;&#xff09;&#xff01;&#xff01;&#xff01;您的支持 &#x…...

idea报错java: 非法字符: ‘\ufeff‘解决方案

解决方案步骤以及说明 BOM是什么&#xff1f;1. BOM的作用2. 为什么会出现 \ufeff 错误&#xff1f;3. 如何解决 \ufeff 问题&#xff1f; 最后重新编译&#xff0c;即可运行&#xff01;&#xff01;&#xff01; BOM是什么&#xff1f; \ufeff 是 Unicode 中的 BOM&#xff0…...

PHY芯片与网络变压器接线设计指南——不同速率与接口的硬件设计原则

一、PHY与网络变压器的核心作用 • PHY芯片&#xff08;物理层芯片&#xff09; • 功能&#xff1a;实现数据编码&#xff08;如Manchester、PAM4&#xff09;、时钟恢复、链路协商&#xff08;Auto-Negotiation&#xff09;。 • 接口类型&#xff1a;MII/RMII/GMII/RGMII/…...

【学习笔记】计算机网络(八)—— 音频/视频服务

第8章 互联网上的音频/视频服务 文章目录 第8章 互联网上的音频/视频服务8.1概述8.2 流式存储音频/视频8.2.1 具有元文件的万维网服务器8.2.2 媒体服务器8.2.3 实时流式协议 RTSP 8.3 交互式音频/视频8.3.1 IP 电话概述8.3.2 IP电话所需要的几种应用协议8.3.3 实时运输协议 RTP…...

linux: 文件描述符fd

目录 1.C语言文件操作复习 2.底层的系统调用接口 3.文件描述符的分配规则 4.重定向 1.C语言文件操作复习 文件 内容 属性。所有对文件的操作有两部分&#xff1a;a.对内容的操作&#xff1b;b.对属性的操作。内容是数据&#xff0c;属性其实也是数据-存储文件&#xff0c…...

记录一次后台项目的打包优化

文章目录 前言分析问题寻找切入点根据切入点逐一尝试cdn引入node包遇到的一些问题记录最终结果 前言 优化&#xff0c;所有开发者到一定的程度上&#xff0c;都绕不开的问题之一 例如&#xff1a; 首页加载优化白屏优化列表无限加载滚动优化&#xff0c;图片加载优化逻辑耦合…...

问题记录(四)——拦截器“失效”?null 还是“null“?

拦截器“失效”&#xff1f;null 还是"null"&#xff1f; 问题描述 这个问题本身并不复杂&#xff0c;但是却是一个容易被忽略的问题。 相信大家在项目中一定实现过强制登录的逻辑吧&#xff0c;巧了&#xff0c;所要介绍的问题就出现在测试强制登录接口的过程中&am…...

前端面试-HTML5与CSS3

HTML5/CSS3 1. HTML5语义化标签的作用是什么&#xff1f;请举例说明5个常用语义化标签及其适用场景 解答&#xff1a; 语义化标签通过标签名称直观表达内容结构&#xff0c;有利于&#xff1a; 提升可访问性&#xff08;屏幕阅读器识别&#xff09;改善SEO&#xff08;搜索引…...

blender 导出衣服mesh为fbx,随后导入UE5,坐标轴如何保存一致

When exporting a clothing mesh from Blender to UE5 as an FBX file, maintaining consistent coordinate axes is crucial for proper positioning and orientation. Heres how to ensure coordinate consistency throughout the workflow: 当从 Blender 导出衣服 mesh 为 U…...

前端开发中的问题排查与定位:HTML、CSS、JavaScript(报错的解决方式)

目录 1.html 1. 结构错误调试&#xff1a;标签未正确嵌套 2. 语法问题调试&#xff1a;缺失引号 3. 断点调试&#xff1a;动态生成内容时的 JavaScript 错误 4. 网络调试&#xff1a;资源加载错误 5. 性能调试&#xff1a;页面加载性能 总结&#xff1a; 2.CSS 1. 定位…...

图论整理复习

回溯&#xff1a; 模板&#xff1a; void backtracking(参数) {if (终止条件) {存放结果;return;}for (选择&#xff1a;本层集合中元素&#xff08;树中节点孩子的数量就是集合的大小&#xff09;) {处理节点;backtracking(路径&#xff0c;选择列表); // 递归回溯&#xff…...

MIMO预编码与检测算法的对比

在MIMO系统中&#xff0c;预编码&#xff08;发送端处理&#xff09;和检测算法&#xff08;接收端处理&#xff09;的核心公式及其作用对比如下&#xff1a; 1. 预编码算法&#xff08;发送端&#xff09; 预编码的目标是通过对发送信号进行预处理&#xff0c;优化空间复用或…...

C++修炼:vector模拟实现

Hello大家好&#xff01;很高兴我们又见面啦&#xff01;给生活添点passion&#xff0c;开始今天的编程之路&#xff01; 我的博客&#xff1a;<但凡. 我的专栏&#xff1a;《编程之路》、《数据结构与算法之美》、《题海拾贝》、《C修炼之路》 欢迎点赞&#xff0c;关注&am…...

案例-索引对于并发Insert性能优化测试

前言 最近因业务并发量上升,开发反馈对订单表Insert性能降低。应开发要求对涉及Insert的表进行分析并提供优化方案。   一般对Insert 影响基本都在索引,涉及表已按创建日期做了分区表,索引全部为普通索引未做分区索引。 优化建议: 1、将UNIQUE改为HASH(64) GLOBAL IND…...