当前位置: 首页 > article >正文

dplyr和tidyr用法亚

1. 引入在现代 AI 工程中Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为最好的办法就是自己封装 Hugging Face tokenizers 的 C 绑定从而可以被 C / C# / Java 这些高级编程语言调用。2. 封装 C 接口首先要说明的是要做的不是完整的封装 Hugging Face tokenizers 的 C 的 FFIForeign Function Interface接口而是封装自己需要的接口就可以了。比如执行分词接口和计算Token的接口use std::ffi::CStr;use std::os::raw::c_char;use tokenizers::{PaddingParams, Tokenizer, TruncationParams};// 1. 定义 C 兼容的返回结构体 #[repr(C)]pub struct TokenizerResult {pub input_ids: *mut i64,pub attention_mask: *mut i64,pub token_type_ids: *mut i64,pub length: u64,}// 2. 内部状态包装 Tokenizer struct TokenizerHandle {tokenizer: Tokenizer, // 用于 encode带 paddingraw_tokenizer: Tokenizer, // 用于 count无 padding}// 3. 辅助函数将 Rust Vec 转为 C 可拥有的指针 fn vec_to_c_ptr(vec: Vec) - *mut i64 {let mut boxed vec.into_boxed_slice();let ptr boxed.as_mut_ptr();std::mem::forget(boxed); // 防止 Rust 自动释放ptr}// 4. 创建 tokenizer #[unsafe(no_mangle)] // 禁用 name mangling让 C 能找到符号pub extern C fn tokenizer_create(tokenizer_json_path: *const c_char) - *mut std::ffi::c_void {if tokenizer_json_path.is_null() {return std::ptr::null_mut();}let path_cstr unsafe { CStr::from_ptr(tokenizer_json_path) };let path_str match path_cstr.to_str() {Ok(s) s,Err(_) return std::ptr::null_mut(),};let mut tokenizer match Tokenizer::from_file(path_str) {Ok(t) t,Err(_) return std::ptr::null_mut(),};// 设置 padding/truncation 到 512BGE 默认tokenizer.with_padding(Some(PaddingParams {strategy: tokenizers::PaddingStrategy::Fixed(512),..Default::default()}));if tokenizer.with_truncation(Some(TruncationParams {max_length: 512,..Default::default()})).is_err(){return std::ptr::null_mut();}let mut raw_tokenizer tokenizer.clone();raw_tokenizer.with_padding(None);raw_tokenizer.with_truncation(None).ok();let handle TokenizerHandle {tokenizer,raw_tokenizer,};Box::into_raw(Box::new(handle)) as *mut std::ffi::c_void}//计算句子token#[unsafe(no_mangle)] // 禁用 name mangling让 C 能找到符号pub extern C fn tokenizer_count(handle: *mut std::ffi::c_void, text: *const c_char) - u64 {if handle.is_null() || text.is_null() {return 0;}let handle_ref unsafe { *(handle as *mut TokenizerHandle) };let text_cstr unsafe { CStr::from_ptr(text) };let text_str match text_cstr.to_str() {Ok(s) s,Err(_) return 0,};match handle_ref.raw_tokenizer.encode(text_str, true) {Ok(encoding) encoding.len() as u64,Err(_) 0,}}// 5. 销毁 tokenizer #[unsafe(no_mangle)]pub extern C fn tokenizer_destroy(handle: *mut std::ffi::c_void) {if !handle.is_null() {unsafe {let _ Box::from_raw(handle as *mut TokenizerHandle);// Drop 自动调用}}}// 6. 执行分词 #[unsafe(no_mangle)]pub extern C fn tokenizer_encode(handle: *mut std::ffi::c_void,text: *const c_char,) - TokenizerResult {let default_result TokenizerResult {input_ids: std::ptr::null_mut(),attention_mask: std::ptr::null_mut(),token_type_ids: std::ptr::null_mut(),length: 0,};if handle.is_null() || text.is_null() {return default_result;}let handle_ref unsafe { *(handle as *mut TokenizerHandle) };let text_cstr unsafe { CStr::from_ptr(text) };let text_str match text_cstr.to_str() {Ok(s) s,Err(_) return default_result,};let encoding match handle_ref.tokenizer.encode(text_str, true) {Ok(e) e,Err(_) return default_result,};let input_ids: Vec encoding.get_ids().iter().map(|x| x as i64).collect();let attention_mask: Vec encoding.get_attention_mask().iter().map(|x| x as i64).collect();let token_type_ids: Vec encoding.get_type_ids().iter().map(|x| x as i64).collect();// BGE 不需要但 C 代码传了// let token_type_ids: Vec vec![0u32; input_ids.len()];let len input_ids.len(); // 应该是 512但更通用TokenizerResult {input_ids: vec_to_c_ptr(input_ids),attention_mask: vec_to_c_ptr(attention_mask),token_type_ids: vec_to_c_ptr(token_type_ids),length: len as u64,}}// 7. 释放结果内存 #[unsafe(no_mangle)]pub extern C fn tokenizer_result_free(result: TokenizerResult) {if !result.input_ids.is_null() {unsafe {let _ Vec::from_raw_parts(result.input_ids,result.length as usize,result.length as usize,);}}if !result.attention_mask.is_null() {unsafe {let _ Vec::from_raw_parts(result.attention_mask,result.length as usize,result.length as usize,);}}if !result.token_type_ids.is_null() {unsafe {let _ Vec::from_raw_parts(result.token_type_ids,result.length as usize,result.length as usize,);}}}对应的 C 接口如下// tokenizer_result.h#pragma oncestruct TokenizerResult {int64_t* input_ids;int64_t* attention_mask;int64_t* token_type_ids;uint64_t length;};#ifdef __cplusplusstatic_assert(std::is_standard_layout_v std::is_trivially_copyable_v,TokenizerResult must be C ABI compatible);#endif// hf_tokenizer_ffi.h#pragma once#include#include tokenizer_result.h#ifdef __cplusplusextern C {#endifvoid* tokenizer_create(const char* tokenizer_json_path);void tokenizer_destroy(void* handle);TokenizerResult tokenizer_encode(void* handle, const char* text);uint64_t tokenizer_count(void* handle, const char* text);void tokenizer_result_free(TokenizerResult result);#ifdef __cplusplus}#endif具体的封装细节笔者就不多说了因为与本文的主题无关。不过可以稍稍了解一下其中的原理也就是说操作系统大多数是由 C 实现的或者提供了 C 的接口。因此绝大多数比 C 高级的编程语言都提供了与 C 交互的能力当然前提是必须得按照 C 得规范组织数据和封装接口。比如这里的struct TokenizerResult就是一个兼容 C 的结构体#[unsafe(no_mangle)]则表明这是一个 C 语言形式的函数接口。3. 经典 C 封装如上接口是一个标准的 C 风格式的接口将分词器封装成一个 Handle 也就是俗称的句柄。而后续具体的分词操作就通过这个句柄来进行包括最后对资源的释放。在 C 中当然也可以直接使用这种形式的接口不过这样就需要遵循 C 的资源控制规则资源申请和释放必须成对出现——比如这里的 tokenizer_create 和 tokenizer_destroy。3.1 RAII 机制不过这样就会有一个问题过程式的流程中很难保证 tokenizer_create 和 tokenizer_destroy 能够成对调用例如tokenizer_create()if(...){return;}tokenizer_destroy()只要在 tokenizer_create 和 tokenizer_destroy 之间出现分支程序提前返回就会导致资源没有释放而内存泄漏。为了避免这个问题就需要在每次 return 之前都调用 tokenizer_destroy()——这当然是非常不优雅的既容易忘掉又是冗余代码。为了解决这种资源管理难题C 提供了一种强大而优雅的机制RAIIResource Acquisition Is Initialization资源获取即初始化。它的核心思想是将资源的生命周期绑定到对象的生命周期上。具体来说就是利用面向对象的思想将资源控制的行为封装成一个类对象并且保证资源在对象构造函数中获取在析构函数中自动释放。由于 C 中栈对象在离开作用域时会自动调用析构函数在离开作用域时会自动调用析构函数。因此这些资源总是可以被正确释放从根本上杜绝内存泄漏或资源泄露。例如Tokenizer tokenizer;//...操作if(...){return;}//...更多操作3.2 拷贝语义复习一下 C 面向对象设计的经典五法则Rule of Five如果一个类自定义了以下任意一个函数析构函数Destructor拷贝构造函数Copy Constructor拷贝赋值运算符Copy Assignment Operator移动构造函数Move Constructor移动赋值运算符Move Assignment Operator那么大概率也需要自定义另外四个函数或者显式 default / delete 来控制行为。很多 C 程序员并不理解移动语义但这并没有关系我们可以先假定不定义移动构造函数和移动赋值运算符或者显式 default此时移动操作就会退化为拷贝语义的行为。而关于拷贝语义绝大多数 C 程序员应该都知道这个问题当在类对象中管理资源时编译器生成的默认拷贝行为是“浅拷贝”可能导致双重释放、内存泄漏等问题因此需要自定义拷贝构造函数和拷贝赋值运算符来实现“深拷贝”的行为。因此这个链条就很明确了因为类中需要定义析构函数所以需要同时定义拷贝构造函数和拷贝赋值运算符。3.3 移动语义进一步讨论反正移动语义可以默认那么是不是只用定义拷贝语义就行了呢这个要看资源的定义如果只是管理内存资源那么这样做是没有问题的至少是安全的。但是资源管理不仅仅指的是内存资源还可以是一些文件句柄、网络连接等等。这些资源往往是独占性的进行深拷贝往往会出现问题。因此就出现了 C 11 开始规定的移动语义可以安全得实现“浅拷贝”的行为。同时还可以解决“深拷贝”的性能问题。基于以上的思想笔者封装的分词器对象如下// HfTokenizer.h#pragma once#include#include hf_tokenizer_ffi.hnamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 析构函数~Tokenizer() noexcept;// 禁止拷贝Tokenizer(const Tokenizer) delete;Tokenizer operator(const Tokenizer) delete;// 移动语义Tokenizer(Tokenizer rhs) noexcept;Tokenizer operator(Tokenizer rhs) noexcept;// 其他接口方法// TokenizerResult Encode(const char* text) const;// uint64_t Count(const char* text) const;private:void* handle; // 来自 tokenizer_create 的指针};} // namespace hf// HfTokenizer.cpp#include HfTokenizer.h#includenamespace hf {Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str())) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}Tokenizer::~Tokenizer() noexcept {if (handle) {tokenizer_destroy(handle);}}// 移动语义Tokenizer::Tokenizer(Tokenizer rhs) noexcept : handle(rhs.handle) {rhs.handle nullptr;}Tokenizer Tokenizer::operator(Tokenizer rhs) noexcept {if (this ! rhs) {if (handle) {tokenizer_destroy(handle);}handle rhs.handle;rhs.handle nullptr;}return *this;}} // namespace hf如前所述因为封装的是一个句柄为了避免资源控制的麻烦就禁止掉拷贝语义// 禁止拷贝Tokenizer(const Tokenizer) delete;Tokenizer operator(const Tokenizer) delete;进行()拷贝构造或者赋值构造看起来似乎很简单其实在代码层层嵌套之后就可能很难分析出是不是调用了默认的拷贝的行为比如函数传参、容器操作等等。当然深拷贝的实现也不是性能最优因此干脆就直接删除掉拷贝构造函数和拷贝赋值运算符。没有拷贝语义那么就需要移动语义来进行传递对象了。其实移动语义没那么难我们只要把握住一点移动语义的目的是安全地实现“浅拷贝”。以移动赋值运算符的实现来说如果要实现如下移动赋值Tokenizer A();Tokenizer B();B std::move(A);就需要以下的行为释放掉B管理的资源。将A中的成员“浅拷贝”到B中让B接管A的资源。将A中成员初始化。具体实现就是如下所示Tokenizer Tokenizer::operator(Tokenizer rhs) noexcept {if (this ! rhs) {if (handle) {tokenizer_destroy(handle);}handle rhs.handle;rhs.handle nullptr;}return *this;}移动构造函数就更加简单了因为B对象在移动构造之前成员并没有初始化Tokenizer A();Tokenizer B(std::move(A));因此可以省略掉释放自身资源的步骤具体实现也就是如下所示Tokenizer::Tokenizer(Tokenizer rhs) noexcept : handle(rhs.handle) {rhs.handle nullptr;}最后还有一个问题A通过移动语义转移到B了A还能使用吗不能也没必要使用A了无论是A对象和B对象其实是一个栈对象当然内部管理的数据成员可能放在堆上或者说是一个值对象这跟引用对象或者地址对象完全不同。移动语义的本质是对象所有权的转移转移之后原对象中资源所有权就不存在了即使强行访问要么访问不到要么会程序崩溃。4. 高级 C 封装4.1 零法则使用 RAII 机制 经典五法则来设计一个类对象还有一个优点就是使用这个类对象作为数据成员的类就不用再显式实现析构函数。不用显式实现析构函数也就意味着不用实现拷贝语义和移动语义完全可以依赖类对象拷贝和移动的默认行为。举例来说一个MyResource对象管理着一段内存 buffer 它的类定义为class MyResource {public:// 构造申请资源MyResource() {data new int[100];}// 析构释放资源~MyResource() {delete[] data;}// 拷贝构造深拷贝MyResource(const MyResource other) {data new int[100];copy(other.data, other.data 100, data);}// 拷贝赋值MyResource operator(const MyResource other) {if (this ! other) {delete[] data;data new int[100];copy(other.data, other.data 100, data);}return *this;}// 移动构造接管资源MyResource(MyResource other) noexcept {data other.data;other.data nullptr;}// 移动赋值MyResource operator(MyResource other) noexcept {if (this ! other) {delete[] data;data other.data;other.data nullptr;}return *this;}private:int* data nullptr;};但是如果我使用 std 容器vector 相应的代码就可以简写为#includeclass MyResource {public:// 构造自动分配内存MyResource() : data(100) {} // vector 自动初始化为 100 个元素// ? 无需显式定义析构函数// ? 无需自定义拷贝构造 / 拷贝赋值// ? 无需自定义移动构造 / 移动赋值// 编译器自动生成的版本已正确、高效、异常安全private:std::vector data; // RAII 自动管理内存};这不是因为 vector 使用了什么魔法而是 vector 本身就是使用了 RAII 机制 经典五法则来设计的一个模板类对象在 MyResource 对象进行拷贝或者移动的时候作为数据成员std::vector data也会采取同样的拷贝或者移动的行为并且默认的、由编译器自动生成的版本就可以正确处理。以上这个思想就是现代 C 更推荐的零法则Rule of Zero尽量不要手动管理资源而是使用 RAII 类型让编译器自动生成所有特殊成员函数。而这个 RAII 类型可以是 std 的任何容器对象、智能指针也可以是自己按照五法则实现的类对象。4.2 智能指针回到本文引入的问题如果我的分词器实现不像写拷贝语义和移动语义怎么办呢毕竟都是样板代码写不好还容易出问题。此时我们就可以使用智能指针 unique_ptr 。常规意义上我们都知道智能指针可以在没有任何其他对象引用的情况下自动 delete 其实智能指针还可以自定义资源的释放行为#pragma once#include#includenamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 编译器自动生成// - 析构函数// - 移动构造 / 移动赋值// - 禁止拷贝因为 unique_ptr 不可拷贝private:std::unique_ptr handle;};} // namespace hf#include HfTokenizer.h#include#include hf_tokenizer_ffi.hnamespace hf {static void HandleDeleter(void* handle) noexcept {if (handle) {tokenizer_destroy(handle);}}Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str()), HandleDeleter) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}} // namespace hf如上实现所示函数 HandleDeleter 就是 std::unique_ptr handle 的自定义析构行为在类对象析构的时候就会自动调用这个函数释放资源。既然资源被智能托管了那么自然就不用写析构函数析构函数不用写那么拷贝构造函数、拷贝赋值运算符、移动构造函数以及移动赋值运算符都可以不用实现全部可以依赖编译器自动生成。当然由于 unique_ptr 只能移动不能拷贝Tokenizer也就只能移动不能拷贝。5. 总结最后笔者就给出 C 封装 C FFI 接口的完整实现如下所示// HfTokenizer.h#pragma once#include#include#include tokenizer_result.hnamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 编译器自动生成// - 析构函数调用 Deleter// - 移动构造 / 移动赋值// - 禁止拷贝因为 unique_ptr 不可拷贝// 其他接口方法uint64_t Count(const std::string text) const;// 向量化using ResultPtr std::unique_ptr;ResultPtr Encode(const std::string text) const;private:std::unique_ptr handle;};} // namespace hf// HfTokenizer.cpp#include HfTokenizer.h#include#include hf_tokenizer_ffi.hnamespace hf {static void HandleDeleter(void* handle) noexcept {if (handle) {tokenizer_destroy(handle);}}static void ResultDeleter(TokenizerResult* p) noexcept {if (p) {tokenizer_result_free(*p);delete p;}}Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str()), HandleDeleter) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}uint64_t Tokenizer::Count(const std::string text) const {return tokenizer_count(handle.get(), text.c_str());}Tokenizer::ResultPtr Tokenizer::Encode(const std::string text) const {auto result std::make_unique(tokenizer_encode(handle.get(), text.c_str()));return {result.release(), ResultDeleter};};} // namespace hf不仅是句柄连传递的数据对象笔者都托管给智能指针从而避免大量写特殊成员函数这些样板代码。不得不说RAII 的设计思路非常精妙同时保证了安全性与简洁性给人一种回归编程原始状态的感觉。所谓“大道至简”不是代码越繁复就越安全也不是代码越抽象就越厉害真正好的代码是在正确性、可维护性与简洁性之间取得平衡让资源管理如呼吸般自然而非负担。亚邮中厝

相关文章:

dplyr和tidyr用法亚

1. 引入 在现代 AI 工程中,Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的,官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为,最好的办法…...

游戏虚拟资产交易安全技术解析:以三角洲生态为例

一、引言随着《三角洲》等射击类游戏虚拟经济体系的成熟,哈夫币、战备账号、游戏道具等虚拟资产交易需求激增。据 2026 年游戏行业数据显示,三角洲虚拟资产月交易规模突破 5 亿元,但传统交易平台存在黑币溯源难、账号易封禁、资金无保障等核心…...

STM32F407VET6+TB6612驱动4路直流电机:从硬件接线到PID调参全流程实战

STM32F407VET6TB6612驱动4路直流电机:从硬件接线到PID调参全流程实战 1. 硬件连接与电路设计 1.1 核心器件选型与特性 在开始硬件连接前,我们需要充分了解核心器件的特性:STM32F407VET6: Cortex-M4内核,带FPU&#xff…...

C# 学习笔记:从IO文件操作到窗体应用开发

前言在C#学习过程中,从IO文件操作到窗体应用开发是一个重要的进阶阶段。本文将系统总结day14到day17的学习内容,涵盖文件读写、多线程编程、窗体复习以及高级窗体应用等内容,帮助读者建立起完整的知识体系。一、IO文件操作(day14&…...

YOLOv8实战:用Grad-CAM可视化模型注意力区域(附完整代码)

YOLOv8实战:用Grad-CAM可视化模型注意力区域(附完整代码) 在计算机视觉领域,理解模型如何"看待"图像正变得越来越重要。想象一下,当你的目标检测模型将一只猫误判为狗时,如果能直观看到模型关注了…...

大模型工程化容灾落地难?揭秘头部AI公司正在用的5级备份分级策略与自动故障注入验证法

第一章:大模型工程化容灾备份方案设计 2026奇点智能技术大会(https://ml-summit.org) 大模型工程化过程中,模型权重、训练检查点、推理缓存及元数据的高可用性与一致性是系统稳定运行的核心前提。容灾备份不能仅依赖传统周期快照,而需融合多…...

PostCSS 实战指南:从零构建高效前端样式工作流

1. 为什么你需要PostCSS? 第一次接触PostCSS时,我也和很多前端开发者一样疑惑:已经有Sass/Less这些预处理器了,为什么还需要它?直到在一个大型项目中,我遇到了需要同时处理浏览器兼容性、CSS压缩、样式变量…...

告别编译烦恼:Python非官方预编译轮子(.whl)高效检索与下载指南

1. 为什么我们需要非官方预编译轮子? 很多Python开发者都遇到过这样的场景:在Windows上安装某个科学计算库时,pip install命令运行后突然报出一堆红色错误,提示缺少Visual C编译工具或者某些系统依赖。这时候你会发现,…...

Mac M1芯片用户必看:DBeaver 22.2连接TDengine 3.0的完整避坑指南

Mac M1芯片用户必看:DBeaver 22.2连接TDengine 3.0的完整避坑指南 在Apple Silicon架构的Mac上部署开发环境时,总会遇到一些x86生态特有的兼容性问题。最近帮团队搭建TDengine数据分析平台时,发现M1芯片在连接时序数据库时确实存在几个关键卡…...

为什么92%的企业选错推理硬件?SITS2026 2026Q1实测数据揭示:模型精度损失>0.8%的隐性成本藏在这3个硬件参数里

第一章:SITS2026专家:大模型推理加速硬件选型 2026奇点智能技术大会(https://ml-summit.org) 大模型推理对硬件的吞吐、延迟、显存带宽与能效比提出严苛要求。SITS2026专家团队基于千余次真实场景基准测试(包括Llama-3-70B、Qwen2-57B、Deep…...

笔试训练48天:过河卒

[NOIP2002 普及组] 过河卒_牛客题霸_牛客网https://www.nowcoder.com/practice/cc1a9bc523a24716a117b438a1dc5706?tpId230&tqId40428&ru/exam/oj知识点动态规划 描述 棋盘上 A点有一个过河卒,需要走到目标 B点。卒行走的规则:可以向下、或者…...

基于yolo26算法的大坝缺陷识别 智慧水利工程监测 防寒抗洪监测 水坝安全防护监测 水利工程安全监测 坝体结构状态分析第10428期

数据集说明一、核心信息概览项目详情类别数量及中文名称2 类,分别为: 裂缝、剥落数据总量1400 条(图像数据)数据集格式种类YOLO 格式最重要应用价值支持大坝坝段实例分割模型训练,为水利工程安全监测、坝体结构状态分析…...

【个人博客—山东大学项目实训——古诗词与文章智能创作助学平台(一)】

个人博客—山东大学项目实训——古诗词与文章智能创作助学平台(一)大模型API接入与诗词检索的提示词工程一、功能概述二、大模型API接入2.1 ArkService初始化2.2 基础对话方法三、诗词检索的提示词设计3.1 提示词内容3.2 检索服务实现四、JSON解析容错处…...

网安护网面试-3-鸿鹄科技护网面试

以下为已总结“网络安全”及“护网”面试,均在:(https://www.haotaoyun.com/category/soc “网安 护网”终极 300 多问题面试笔记 - 全“网安 护网”终极 300 多问题面试笔记 - 1 共 3 - 内网 & 域相关“网安 护网”终极 300 多问题面试笔记 - 2…...

告别pip install失败!Ubuntu 20.04上搞定python-pcl的两种保姆级方案

告别pip install失败!Ubuntu 20.04上搞定python-pcl的两种保姆级方案 在Ubuntu 20.04上使用python-pcl进行点云处理时,很多开发者会遇到一个令人头疼的问题:直接使用pip install python-pcl命令安装时,往往会遭遇各种报错。这主要…...

【关注合作源码】-家政服务管理系统|家政预约|家政平台

博主介绍: 所有项目都配有从入门到精通的安装教程,可二开,提供核心代码讲解,项目指导。 项目配有对应开发文档、解析等 项目都录了发布和功能操作演示视频;项目的界面和功能都可以定制,包安装运行&#xff…...

IntelliPro 企业级产研协作平台:前端智能生产模块设计与落地

摘要 当前企业级前端研发面临复杂度高、迭代快、跨团队协作成本高的痛点,传统开发模式难以适配高效产研需求。本文围绕 IntelliPro 平台前端智能生产模块,拆解其定位、分层架构、智能代理体系与落地保障,输出企业前端智能化研发的实践方案。 …...

图像自回归生成(Auto-regressive image generation)实战学习(六)

相关项目下载链接 基于 Transformer 的自回归图像生成模型完整的链路是:1、先用 Patch AutoEncoder BSQ 量化器,把原始图像压缩为离散的 token 序列(每个整数 token 对应原图的一个小图像 patch)2、训练这个自回归 Transformer …...

etcd Raft 实现:分布式一致性核心原理

# etcd Raft 实现:分布式一致性核心原理> **源码版本**: etcd 3.5.9 | Go 1.21.5 > **阅读时间**: 约 25 分钟 > **难度**: ⭐⭐⭐⭐## 📋 引言在分布式系统中,如何让多个节点达成一致是一个经典难题。etcd 作为云原生时代的核心…...

.NET 新特性概览与相关文章索引蜕

从 UI 工程师到 AI 应用架构者 13 年前,我的工作是让按钮在 IE6 上对齐; 13 年后,我用 fetch-event-source 订阅大模型的“思维流”,用 OCR 解锁图片中的文字——前端,正在成为 AI 产品的第一道体验防线。 最近&#x…...

Mware虚拟机去虚拟化DLL版

、 链接:https://pan.quark.cn/s/d2f35a95a54a...

【实战】Streamlit搭建Python章节代码可视化系统

【实战】Streamlit搭建Python章节代码可视化系统 在日常学习和教学中,我们经常会遇到多章节代码文件管理的问题,手动切换文件夹、打开文件查看代码效率极低。本文将手把手教你用Streamlit快速搭建一个Python章节代码可视化系统,支持左侧章节…...

.NET10之 HttpClient 使用指南

一、HttpClient 核心概念与工作原理 System.Net.Http.HttpClient 是 .NET 中用于发送 HTTP 请求和接收 HTTP 响应的核心类,它封装了与 HTTP 服务交互的底层细节,提供了简洁、一致的编程接口。每个 HttpClient 实例包含一套应用于所有请求的配置集合&…...

TinyXML2嵌入式XML解析实战指南

1. TinyXML2 嵌入式应用技术指南:轻量级 XML 解析器在资源受限环境中的工程实践TinyXML2 是一款专为嵌入式系统与资源受限平台设计的 C XML 解析库,其核心定位并非功能完备的全功能 XML 处理引擎,而是以“小、快、可靠”为设计哲学的底层数据…...

鸿蒙Flutter实战:30.在Pub上发布鸿蒙化插件

背景 当我们编写好鸿蒙化插件后,特别是以 xxx_ohos 命名的联合插件,可以将其发布到 pub.dev 仓库中,以便其他开发者可以轻松地使用。 步骤 准备工作 包括但不限于: 做好插件的测试,尤其要在真机上进行测试&#x…...

维普、万方、知网 AI 检测有什么区别?一文讲清三大平台差异

国内高校目前主要使用知网 AIGC 检测、维普 AI 检测和万方 AI 检测三大平台。很多同学发现,同一篇论文在不同平台上的检测率差异很大。本文将详细对比三大平台的差异,帮助你针对性地准备。 三大平台基本信息 平台全称主要用户检测方式知网 AIGC学术文献…...

HCIP---VRRP实验

网络拓扑:分析:1.pc1和pc2处于不同vlan,所以处于不同网段。2.sw1为vlan10即pc1的网关,sw2为vlan20即pc2的网关,所以要使用vlanif接口。3.实现负载分担效果,使用pc1流量主要从sw1过,如果sw1故障或…...

大模型到底是啥?运维人分钟搞懂(不用数学)匙

1. 流图:数据的河流 如果把传统的堆叠面积图想象成一块块整齐堆叠的积木,那么流图就像一条蜿蜒流淌的河流,河道的宽窄变化自然流畅,波峰波谷过渡平滑。 它特别适合展示多个类别数据随时间的变化趋势,尤其是当你想强调整…...

保姆级 uPyPi 教程|从 到 :MicroPython 驱动包一键安装 + 分享全攻略蕾

这个代码的核心功能是:基于输入词的长度动态选择反义词示例,并调用大模型生成反义词,体现了 “动态少样本提示(Dynamic Few-Shot Prompting)” 与 “上下文长度感知的示例选择” 的能力。 from langchain.prompts impo…...

【2026年最新600套毕设项目分享】基于微信小程序的商品展示(30033)

有需要的同学,源代码和配套文档领取,加文章最下方的名片哦 一、项目演示 项目演示视频 二、资料介绍 完整源代码(前后端源代码SQL脚本)配套文档(LWPPT开题报告/任务书)远程调试控屏包运行一键启动项目&…...