当前位置: 首页 > article >正文

从零开始部署tao-8k:xinference环境配置与模型使用指南

从零开始部署tao-8kxinference环境配置与模型使用指南1. 为什么你需要关注tao-8k如果你正在寻找一个能够处理超长文本的嵌入模型tao-8k绝对值得你花时间了解一下。这个模型最大的亮点就是它的名字——支持8192个字符的上下文长度也就是我们常说的8K上下文。想象一下这个场景你需要分析一篇完整的技术文档、一份详细的产品说明书或者是一段很长的对话记录。传统的嵌入模型可能只能处理几百个字符你需要把文本切分成很多小块这样会丢失整体的语义连贯性。而tao-8k可以一次性处理整个文档保持完整的上下文理解。我最近在几个项目中测试了tao-8k发现它在处理长文档语义搜索、文档分类、内容推荐这些任务上表现很不错。特别是当你需要从大量文本中快速找到相关信息时它的长上下文能力能带来明显的效果提升。2. 环境准备与快速部署2.1 理解tao-8k的核心特点在开始部署之前我们先简单了解一下tao-8k到底是什么嵌入模型它能把文本转换成数学向量这些向量包含了文本的语义信息8K上下文一次性能处理8192个字符大约是4-5页A4纸的内容开源免费由Hugging Face社区的开发者amu开源可以自由使用基于xinference使用xinference框架部署这是一个专门为AI模型推理设计的框架2.2 部署前的准备工作部署tao-8k其实比你想象的要简单。如果你已经有一个可用的xinference环境整个过程可能只需要几分钟。首先确认一下你的环境# 检查Python版本 python --version # 建议使用Python 3.8或更高版本 # 检查xinference是否安装 pip list | grep xinference如果还没有安装xinference可以通过下面的命令快速安装pip install xinference3. 一步步部署tao-8k模型3.1 启动xinference服务部署的第一步是启动xinference服务。这里有两种方式你可以根据自己的情况选择方式一直接启动服务# 启动xinference服务 xinference-local --host 0.0.0.0 --port 9997这个命令会在本地启动一个服务监听9997端口。启动成功后你会看到类似下面的输出INFO: Started server process [12345] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:9997方式二使用Docker部署如果你更喜欢用Docker可以这样操作# 拉取xinference镜像 docker pull xprobe/xinference:latest # 运行容器 docker run -p 9997:9997 xprobe/xinference:latest3.2 加载tao-8k模型服务启动后我们需要加载tao-8k模型。根据文档说明模型已经预置在镜像中路径是/usr/local/bin/AI-ModelScope/tao-8k如果你使用的是预置镜像模型应该已经在这个位置了。如果没有你可以从Hugging Face下载from xinference.client import Client # 连接到xinference服务 client Client(http://localhost:9997) # 加载tao-8k模型 model_uid client.launch_model( model_nametao-8k, model_typeembedding )加载过程可能需要一些时间特别是第一次加载时。模型大小大概在几个GB左右具体取决于你的网络速度。3.3 验证模型是否启动成功这是很多人容易忽略的一步但很重要。模型加载完成后我们需要确认它真的可以用了。根据文档的提示检查日志文件cat /root/workspace/xinference.log如果看到类似下面的输出说明模型启动成功了INFO: Loading model tao-8k... INFO: Model tao-8k loaded successfully INFO: Embedding service ready有时候在加载过程中可能会看到模型已注册这样的提示这通常是正常的不影响最终结果。只要最后显示加载成功就行。4. 使用tao-8k的三种方式4.1 通过Web界面使用这是最简单直观的方式。打开浏览器访问xinference的Web界面找到Web UI入口根据你的部署方式访问对应的地址通常是http://你的服务器IP:9997进入模型界面在模型列表中找到tao-8k点击进入开始使用你会看到一个简单的界面可以输入文本进行测试在Web界面里你可以输入文本点击生成嵌入按钮查看生成的向量结果测试文本相似度计算查看模型的基本信息4.2 通过Python API使用对于开发者来说通过API调用更加灵活。下面是一个完整的示例from xinference.client import Client import numpy as np # 初始化客户端 client Client(http://localhost:9997) # 获取模型 model client.get_model(tao-8k) # 生成单个文本的嵌入 text 这是一个测试文本用于验证tao-8k的嵌入功能 embedding model.create_embedding(text) print(f嵌入向量维度: {len(embedding)}) print(f前10个值: {embedding[:10]}) # 批量生成嵌入 texts [ 人工智能正在改变世界, 机器学习是AI的核心技术, 深度学习在图像识别中表现出色 ] embeddings model.create_embedding(texts) print(f批量生成完成共{len(embeddings)}个向量)4.3 通过REST API使用如果你需要在其他语言或系统中调用tao-8k可以使用REST APIimport requests import json # 定义API端点 url http://localhost:9997/v1/embeddings # 准备请求数据 headers {Content-Type: application/json} data { model: tao-8k, input: [需要嵌入的文本内容], encoding_format: float } # 发送请求 response requests.post(url, headersheaders, datajson.dumps(data)) # 处理响应 if response.status_code 200: result response.json() embedding result[data][0][embedding] print(f成功获取嵌入向量长度: {len(embedding)}) else: print(f请求失败: {response.status_code})5. 实际应用示例5.1 文本相似度计算tao-8k最常用的功能之一就是计算文本相似度。下面是一个完整的示例def calculate_similarity(text1, text2): 计算两个文本的余弦相似度 # 获取两个文本的嵌入 embeddings model.create_embedding([text1, text2]) # 计算余弦相似度 vec1 np.array(embeddings[0]) vec2 np.array(embeddings[1]) # 余弦相似度公式 similarity np.dot(vec1, vec2) / (np.linalg.norm(vec1) * np.linalg.norm(vec2)) return similarity # 测试相似度计算 text_a 我喜欢吃苹果 text_b 苹果是一种水果 text_c 我今天去了超市 similarity_ab calculate_similarity(text_a, text_b) similarity_ac calculate_similarity(text_a, text_c) print(f文本A和B的相似度: {similarity_ab:.4f}) print(f文本A和C的相似度: {similarity_ac:.4f})5.2 文档搜索系统利用tao-8k的长上下文能力我们可以构建一个简单的文档搜索系统class DocumentSearch: def __init__(self): self.documents [] self.embeddings [] def add_document(self, content): 添加文档到搜索系统 self.documents.append(content) # 为文档生成嵌入 embedding model.create_embedding(content) self.embeddings.append(embedding) def search(self, query, top_k3): 搜索相关文档 # 为查询生成嵌入 query_embedding model.create_embedding(query) # 计算相似度 similarities [] for doc_embedding in self.embeddings: similarity np.dot(query_embedding, doc_embedding) / ( np.linalg.norm(query_embedding) * np.linalg.norm(doc_embedding) ) similarities.append(similarity) # 获取最相关的文档 indices np.argsort(similarities)[-top_k:][::-1] results [] for idx in indices: results.append({ document: self.documents[idx], similarity: similarities[idx] }) return results # 使用示例 search_system DocumentSearch() # 添加一些文档 search_system.add_document( 人工智能是计算机科学的一个分支它企图了解智能的实质 并生产出一种新的能以人类智能相似的方式做出反应的智能机器。 ) search_system.add_document( 机器学习是人工智能的核心是使计算机具有智能的根本途径。 它主要研究计算机如何模拟或实现人类的学习行为。 ) search_system.add_document( 深度学习是机器学习的一个分支它试图使用包含复杂结构 或由多重非线性变换构成的多个处理层对数据进行高层抽象。 ) # 搜索相关文档 results search_system.search(什么是机器学习, top_k2) for i, result in enumerate(results): print(f结果{i1} (相似度: {result[similarity]:.4f}):) print(result[document][:100] ...) print()5.3 文本分类任务tao-8k也可以用于文本分类。虽然它本身不是分类模型但我们可以用它的嵌入作为特征from sklearn.svm import SVC from sklearn.model_selection import train_test_split import numpy as np def prepare_classification_data(texts, labels): 准备分类数据 # 为所有文本生成嵌入 embeddings [] for text in texts: embedding model.create_embedding(text) embeddings.append(embedding) return np.array(embeddings), np.array(labels) # 示例数据 texts [ 这个产品非常好用我很喜欢, 服务态度很差不会再来了, 质量不错价格合理, 完全不值这个价钱, 推荐购买物超所值, 非常失望体验很糟糕 ] # 情感标签1表示正面0表示负面 labels [1, 0, 1, 0, 1, 0] # 准备数据 X, y prepare_classification_data(texts, labels) # 划分训练测试集 X_train, X_test, y_train, y_test train_test_split( X, y, test_size0.3, random_state42 ) # 训练分类器 classifier SVC(kernellinear) classifier.fit(X_train, y_train) # 测试 accuracy classifier.score(X_test, y_test) print(f分类准确率: {accuracy:.2f}) # 预测新文本 new_text 这个产品一般般没什么特别 new_embedding model.create_embedding(new_text) prediction classifier.predict([new_embedding]) print(f预测情感: {正面 if prediction[0] 1 else 负面})6. 性能优化与实用技巧6.1 批量处理提升效率如果你需要处理大量文本批量处理可以显著提升效率def batch_process_texts(texts, batch_size32): 批量处理文本 all_embeddings [] for i in range(0, len(texts), batch_size): batch texts[i:ibatch_size] # 批量生成嵌入 batch_embeddings model.create_embedding(batch) all_embeddings.extend(batch_embeddings) print(f已处理 {min(ibatch_size, len(texts))}/{len(texts)} 个文本) return all_embeddings # 示例处理100个文本 sample_texts [f这是第{i}个测试文本 for i in range(100)] embeddings batch_process_texts(sample_texts, batch_size16) print(f总共生成 {len(embeddings)} 个嵌入向量)6.2 处理超长文本的技巧虽然tao-8k支持8K上下文但有时候我们可能需要处理更长的文档。这时候可以这样做def process_long_document(document, max_length8192): 处理超长文档 # 如果文档不超过最大长度直接处理 if len(document) max_length: return model.create_embedding(document) # 如果文档超长分段处理 chunks [] for i in range(0, len(document), max_length): chunk document[i:imax_length] chunks.append(chunk) # 为每个分段生成嵌入 chunk_embeddings model.create_embedding(chunks) # 计算平均嵌入作为文档表示 document_embedding np.mean(chunk_embeddings, axis0) return document_embedding # 处理长文档 long_document 这是一个很长的文档... * 1000 # 模拟长文档 embedding process_long_document(long_document) print(f长文档嵌入向量维度: {len(embedding)})6.3 缓存机制减少重复计算在实际应用中我们经常需要重复处理相同的文本。添加缓存可以避免重复计算from functools import lru_cache import hashlib class CachedEmbeddingModel: def __init__(self, model): self.model model self.cache {} def get_embedding(self, text): 获取文本嵌入带缓存 # 生成文本的哈希作为缓存键 text_hash hashlib.md5(text.encode()).hexdigest() # 检查缓存 if text_hash in self.cache: print(f从缓存获取: {text[:50]}...) return self.cache[text_hash] # 计算并缓存 print(f计算并缓存: {text[:50]}...) embedding self.model.create_embedding(text) self.cache[text_hash] embedding return embedding # 使用缓存模型 cached_model CachedEmbeddingModel(model) # 第一次计算 embedding1 cached_model.get_embedding(测试文本) # 第二次相同文本从缓存获取 embedding2 cached_model.get_embedding(测试文本)7. 常见问题与解决方案7.1 模型加载失败怎么办如果你在加载模型时遇到问题可以尝试以下步骤检查磁盘空间确保有足够的空间存放模型文件检查网络连接如果是下载模型确保网络通畅查看详细日志运行xinference --log-level debug查看详细错误信息尝试重新下载删除模型缓存重新下载7.2 推理速度慢怎么优化如果觉得推理速度不够快可以考虑使用GPU如果有GPU确保xinference正确识别并使用调整批量大小适当增加批量大小但不要超过内存限制启用量化如果模型支持可以尝试量化版本使用缓存如上所述对重复文本使用缓存7.3 内存占用过高怎么办tao-8k作为大模型内存占用可能较高。解决方法减少批量大小降低同时处理的文本数量使用内存映射如果支持使用内存映射方式加载模型定期清理缓存及时清理不需要的缓存数据考虑模型量化使用量化后的模型减少内存占用7.4 如何监控模型性能你可以添加简单的监控代码import time from collections import deque class PerformanceMonitor: def __init__(self, window_size100): self.latencies deque(maxlenwindow_size) def measure_latency(self, func, *args, **kwargs): 测量函数执行时间 start_time time.time() result func(*args, **kwargs) latency time.time() - start_time self.latencies.append(latency) return result, latency def get_stats(self): 获取性能统计 if not self.latencies: return None latencies list(self.latencies) return { avg_latency: sum(latencies) / len(latencies), max_latency: max(latencies), min_latency: min(latencies), total_requests: len(latencies) } # 使用示例 monitor PerformanceMonitor() # 在调用模型时测量性能 result, latency monitor.measure_latency( model.create_embedding, 测试性能的文本 ) print(f本次推理耗时: {latency:.3f}秒) print(f性能统计: {monitor.get_stats()})8. 总结通过这篇文章你应该已经掌握了tao-8k的完整部署和使用方法。我们来回顾一下关键点部署流程很简单启动xinference服务 → 加载tao-8k模型 → 验证服务状态。整个过程如果顺利的话十几分钟就能搞定。使用方式很灵活你可以通过Web界面快速测试也可以通过Python API集成到自己的应用中还可以通过REST API供其他系统调用。实际应用价值大tao-8k的8K上下文能力让它特别适合处理长文档在语义搜索、文档分类、内容推荐这些场景下能发挥很大作用。性能可以优化通过批量处理、缓存机制、合理配置你可以在保证效果的同时获得不错的性能。我建议你从简单的示例开始先熟悉基本的文本嵌入和相似度计算然后再尝试更复杂的应用场景。在实际使用中记得多关注模型的响应时间和资源使用情况根据你的具体需求做适当的调整。tao-8k是一个很有潜力的嵌入模型特别是它的长上下文能力在很多实际场景中都很实用。希望这个指南能帮助你快速上手把它应用到你的项目中。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

从零开始部署tao-8k:xinference环境配置与模型使用指南

从零开始部署tao-8k:xinference环境配置与模型使用指南 1. 为什么你需要关注tao-8k? 如果你正在寻找一个能够处理超长文本的嵌入模型,tao-8k绝对值得你花时间了解一下。这个模型最大的亮点就是它的名字——支持8192个字符的上下文长度&…...

PROJECT MOGFACE编程助手实战:辅助完成C语言基础代码编写与调试

PROJECT MOGFACE编程助手实战:辅助完成C语言基础代码编写与调试 最近在辅导几个刚入门编程的朋友学习C语言,发现他们遇到的困难出奇地一致:对着教材上的语法规则一头雾水,想写个简单函数却不知从何下手,调试时面对一堆…...

小智AI嵌入式merge.bin制作实战:从多文件到单一固件的完整指南

1. 为什么需要merge.bin文件 第一次接触嵌入式开发的朋友可能会好奇:为什么不能直接把编译生成的bootloader.bin、partition-table.bin这些文件单独烧录到芯片里?这个问题我也曾经纠结过。在实际项目中,特别是量产环节,每次烧录都…...

造相-Z-Image-Turbo镜像免配置优势:预装CUDA/Torch/Diffusers全栈环境

造相-Z-Image-Turbo镜像免配置优势:预装CUDA/Torch/Diffusers全栈环境 1. 开箱即用的AI图像生成体验 想象一下这样的场景:你想要体验最新的AI图像生成技术,但面对复杂的环境配置、依赖安装、模型部署,只能望而却步。现在&#x…...

5个维度解析Unity游戏马赛克移除技术:从问题诊断到跨场景应用

5个维度解析Unity游戏马赛克移除技术:从问题诊断到跨场景应用 【免费下载链接】UniversalUnityDemosaics A collection of universal demosaic BepInEx plugins for games made in Unity3D engine 项目地址: https://gitcode.com/gh_mirrors/un/UniversalUnityDem…...

【CMN-700】核心组件解析与应用场景指南

1. CMN-700架构概述与核心组件定位 CMN-700作为ARM新一代一致性片上网络(Coherent Mesh Network)解决方案,其设计理念类似于城市交通枢纽系统。想象一下,XP组件就像十字路口的智能交通灯,HN-F相当于带停车场的大型购物…...

从零到一:在本地环境搭建Arize Phoenix模型监控平台

1. 为什么选择本地部署Phoenix? 当你训练了一个机器学习模型并部署到生产环境后,最头疼的问题是什么?对我来说,就是模型在线上环境的表现和线下测试时完全不同。你可能也遇到过这种情况:测试集上准确率95%的模型&#…...

掌握RAG,解锁大模型落地秘籍!小白程序员必备,收藏提升技能!

本文探讨了为何超长上下文模型并不能完全取代RAG。文章指出,尽管大模型能处理大量数据,但RAG在成本、延迟和避免信息丢失方面仍有优势。现代RAG技术已进化出GraphRAG和Agentic RAG等高级形式,能够进行复杂推理和动态任务执行。文章还分析了构…...

用TTP223触摸模块改造旧家电:5分钟实现免按键控制(Arduino实战)

用TTP223触摸模块改造旧家电:5分钟实现免按键控制(Arduino实战) 周末整理储物间时,那台陪伴我十年的老台灯又出现在眼前。金属开关已经有些接触不良,每次开灯都要反复按好几次。作为创客,我决定用3块钱的TT…...

SecGPT-14B实战教程:用curl命令批量测试不同temperature对漏洞解释准确性影响

SecGPT-14B实战教程:用curl命令批量测试不同temperature对漏洞解释准确性影响 1. 引言 如果你是网络安全工程师或者对AI安全分析感兴趣,你肯定遇到过这样的困惑:同一个安全漏洞问题,问AI模型两次,得到的回答可能差别…...

DeepSeek-OCR 2快速入门:Windows11环境部署指南

DeepSeek-OCR 2快速入门:Windows11环境部署指南 1. 引言 如果你正在寻找一个强大的OCR工具来处理文档、图片或者PDF,DeepSeek-OCR 2绝对值得一试。这个模型不仅能准确识别文字,还能理解文档结构,甚至能把复杂的PDF转换成整洁的M…...

Nanbeige 4.1-3B极简WebUI作品集:天蓝波点背景+呼吸阴影气泡效果展示

Nanbeige 4.1-3B极简WebUI作品集:天蓝波点背景呼吸阴影气泡效果展示 今天给大家分享一个我最近折腾出来的好东西——一个专为南北阁(Nanbeige)4.1-3B模型打造的本地Web聊天界面。如果你受够了那些千篇一律、界面呆板的AI对话工具&#xff0c…...

SQLite数据库管理神器:用SQLite Studio实现跨平台数据可视化(Windows/Mac双教程)

SQLite数据库管理神器:用SQLite Studio实现跨平台数据可视化(Windows/Mac双教程) 在数据驱动的时代,SQLite作为轻量级数据库的典范,凭借其零配置、单文件存储和跨平台特性,已成为移动应用、嵌入式系统和本…...

VSCode 远程开发:实现服务器图形化界面(GUI)的高效操作指南

1. 为什么需要远程GUI操作? 很多开发者在使用VSCode连接远程服务器时都会遇到一个尴尬的问题:当代码需要显示图形界面时,比如用matplotlib画图,或者想用gedit编辑文件,系统就会报错。这是因为默认情况下,远…...

【快速EI检索 | IEEE出版】2026年信息通信、物联网技术与智慧城市国际学术会议(IITS 2026)

2026年信息通信、物联网技术与智慧城市国际学术会议(IITS 2026) 2026 International Conference on Information Communication, IoT Technology, and Smart Cities (IITS 2026) 2026年4月10-12日 马来西亚 吉隆坡 大会官网: www.icscsd.org 截稿…...

驯服Transformer:百万级别文本分类新方法

驯服Transformer:百万级别文本分类新方法 新方法在保持模型规模可控的同时,实现了最先进的分类效果。 在自然语言理解领域,文本分类是最基础的任务。例如,用户向某智能助手发出的请求需要按领域进行分类,如天气、音乐…...

2026年税务季薪酬系统钓鱼攻击的演化机制与防御策略研究

摘要 随着2026年美国国税局(IRS)发布年度“十二大税务诈骗”名单,网络钓鱼与身份冒充再次位居榜首。然而,当前的威胁格局已发生显著偏移:传统的IRS官方冒充正逐渐被更具隐蔽性和破坏力的企业内部薪酬及人力资源部门冒充…...

【含文档+PPT+源码】基于SpringBoot+Vue的在线手机商城的设计与实现

项目介绍本课程演示的是一款基于SpringBootVue的在线手机商城的设计与实现,主要针对计算机相关专业的正在做毕设的学生与需要项目实战练习的 Java 学习者。1.包含:项目源码、项目文档、数据库脚本、软件工具等所有资料2.带你从零开始部署运行本套系统3.该…...

C语言高级编程_动态内存池管理器

这段代码实现了一个**动态内存池管理器**,其核心设计理念是通过集中化管理多个动态分配的内存块,实现批量分配与统一释放的自动化内存管理机制。下面从数据结构设计、函数实现逻辑、技术优势及潜在风险四个维度进行深度解析。### 一、数据结构架构分析c …...

跨境网络诈骗中钓鱼基础设施的协同治理与取证分析

摘要随着数字化经济的全球化演进,网络犯罪已突破地理边界,呈现出高度组织化、跨境化及基础设施复杂化的特征。2026年3月,欧洲司法合作组织(Eurojust)协调德国等多国执法机构,成功瓦解了一个针对德国公民的大…...

从SQL到MapReduce:Hive的数据仓库“翻译魔法”与未来演进

在大数据技术卷疯了的今天,Hive早就不是单纯的“SQL解析工具”那么简单,而是撑起企业级数据仓库的核心大佬。它最绝的“魔法”,就是把咱们写起来顺手又好懂的SQL,自动转成分布式计算框架MapReduce能跑的任务——哪怕你不懂Java、P…...

代码随想录算法训练营第五十四天|108.冗余连接、109.冗余连接II

题目链接:108.冗余连接 解题思路:并查集 具体思路: 首先定义全局变量 n 和长度为 1001 的父节点数组 father,实现并查集核心函数,find 带路径压缩的查找,找到节点根节点并进行路径压缩,降低查…...

理解机器学习中监督学习,无监督学习和强化学习区别

在CDGA(数据治理工程师)的知识体系中,理解监督学习、无监督学习和强化学习,关键在于把握它们学习方式的差异——即模型从什么样的数据中、通过怎样的反馈来“学习”。简单来说,它们的核心区别在于是否有“标准答案”以…...

配电网最优潮流与二阶锥:解决配电网规划难题

配电网 最优潮流 二阶锥 最优潮流模型,用于解决配电网规划(DNP)问题。 数学优化模型,旨在找到基于给定参数和约束条件的最优配电网规划解决方案。 SOCPR方法用于处理问题中的非凸性,从而更容易找到大规模配电网的近似…...

永磁同步“发电机”双闭环控制模型(PLECS)仿真之旅

#永磁同步“发电机”双闭环控制模型(PLECS) PMSM永磁同步发电机仿真三电平(NPC)的矢量控制; 控制上采用电压外环,电流内环 三电平NPC逆变器以及SVPWM均为plecs自带模块; 仿真波形说明&#xff1…...

每日一题Day6(递归专栏---FBI数)

个人主页:小则又沐风 个人专栏:<数据结构> <竞赛专栏> <C语言> 今天我们将要学习地算法是递归. 提起来递归大家一定不会陌生,因为我们地二叉树 快速排序,归并排序.....都使用了递归.那么我们要怎么借助递归来解决问题呢? 我们来看使用递归地场景. 以我…...

计算机毕业设计springboot考察检测系统 基于SpringBoot的在线考试与成绩分析平台 基于SpringBoot的智能化教学测评管理系统

计算机毕业设计springboot考察检测系统l3bx04f5 &#xff08;配套有源码 程序 mysql数据库 论文&#xff09; 本套源码可以在文本联xi,先看具体系统功能演示视频领取&#xff0c;可分享源码参考。随着信息技术的飞速发展和教育数字化转型的深入推进&#xff0c;传统的纸质考试与…...

计算机毕业设计springboot考公信息网的设计与实现 基于SpringBoot的公务员考试资讯服务平台的设计与实现

计算机毕业设计springboot考公信息网的设计与实现yv90rbrl &#xff08;配套有源码 程序 mysql数据库 论文&#xff09; 本套源码可以在文本联xi,先看具体系统功能演示视频领取&#xff0c;可分享源码参考。随着公务员招录规模的持续扩大和考试竞争的日益激烈&#xff0c;考生对…...

UROVAs 端到端自动驾驶模型训练、开闭环测试与上车联调

序言&#xff1a;为什么端到端训练方式如此革命性&#xff1f;因为它让AI自己学会开车&#xff0c;而不是靠人写规则。传统自动驾驶系统通常是“拼积木式”的&#xff1a;先做感知&#xff08;识别物体&#xff09;、再做定位&#xff08;知道我在哪&#xff09;、然后规划路径…...

电力变换控制技术的奇妙世界

级联H桥&#xff0c;级联H桥型statcom&#xff0c;APF&#xff0c;储能变换器&#xff0c;PCS&#xff0c;SVG&#xff0c;光伏并网逆变器&#xff0c;双闭环控制&#xff0c;自抗扰控制&#xff0c;无差控制&#xff0c;重复控制&#xff0c;载波移相调制&#xff0c;载波重叠…...