当前位置: 首页 > article >正文

Big-Yellow-J

1. 引入在现代 AI 工程中Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为最好的办法就是自己封装 Hugging Face tokenizers 的 C 绑定从而可以被 C / C# / Java 这些高级编程语言调用。2. 封装 C 接口首先要说明的是要做的不是完整的封装 Hugging Face tokenizers 的 C 的 FFIForeign Function Interface接口而是封装自己需要的接口就可以了。比如执行分词接口和计算Token的接口use std::ffi::CStr;use std::os::raw::c_char;use tokenizers::{PaddingParams, Tokenizer, TruncationParams};// 1. 定义 C 兼容的返回结构体 #[repr(C)]pub struct TokenizerResult {pub input_ids: *mut i64,pub attention_mask: *mut i64,pub token_type_ids: *mut i64,pub length: u64,}// 2. 内部状态包装 Tokenizer struct TokenizerHandle {tokenizer: Tokenizer, // 用于 encode带 paddingraw_tokenizer: Tokenizer, // 用于 count无 padding}// 3. 辅助函数将 Rust Vec 转为 C 可拥有的指针 fn vec_to_c_ptr(vec: Vec) - *mut i64 {let mut boxed vec.into_boxed_slice();let ptr boxed.as_mut_ptr();std::mem::forget(boxed); // 防止 Rust 自动释放ptr}// 4. 创建 tokenizer #[unsafe(no_mangle)] // 禁用 name mangling让 C 能找到符号pub extern C fn tokenizer_create(tokenizer_json_path: *const c_char) - *mut std::ffi::c_void {if tokenizer_json_path.is_null() {return std::ptr::null_mut();}let path_cstr unsafe { CStr::from_ptr(tokenizer_json_path) };let path_str match path_cstr.to_str() {Ok(s) s,Err(_) return std::ptr::null_mut(),};let mut tokenizer match Tokenizer::from_file(path_str) {Ok(t) t,Err(_) return std::ptr::null_mut(),};// 设置 padding/truncation 到 512BGE 默认tokenizer.with_padding(Some(PaddingParams {strategy: tokenizers::PaddingStrategy::Fixed(512),..Default::default()}));if tokenizer.with_truncation(Some(TruncationParams {max_length: 512,..Default::default()})).is_err(){return std::ptr::null_mut();}let mut raw_tokenizer tokenizer.clone();raw_tokenizer.with_padding(None);raw_tokenizer.with_truncation(None).ok();let handle TokenizerHandle {tokenizer,raw_tokenizer,};Box::into_raw(Box::new(handle)) as *mut std::ffi::c_void}//计算句子token#[unsafe(no_mangle)] // 禁用 name mangling让 C 能找到符号pub extern C fn tokenizer_count(handle: *mut std::ffi::c_void, text: *const c_char) - u64 {if handle.is_null() || text.is_null() {return 0;}let handle_ref unsafe { *(handle as *mut TokenizerHandle) };let text_cstr unsafe { CStr::from_ptr(text) };let text_str match text_cstr.to_str() {Ok(s) s,Err(_) return 0,};match handle_ref.raw_tokenizer.encode(text_str, true) {Ok(encoding) encoding.len() as u64,Err(_) 0,}}// 5. 销毁 tokenizer #[unsafe(no_mangle)]pub extern C fn tokenizer_destroy(handle: *mut std::ffi::c_void) {if !handle.is_null() {unsafe {let _ Box::from_raw(handle as *mut TokenizerHandle);// Drop 自动调用}}}// 6. 执行分词 #[unsafe(no_mangle)]pub extern C fn tokenizer_encode(handle: *mut std::ffi::c_void,text: *const c_char,) - TokenizerResult {let default_result TokenizerResult {input_ids: std::ptr::null_mut(),attention_mask: std::ptr::null_mut(),token_type_ids: std::ptr::null_mut(),length: 0,};if handle.is_null() || text.is_null() {return default_result;}let handle_ref unsafe { *(handle as *mut TokenizerHandle) };let text_cstr unsafe { CStr::from_ptr(text) };let text_str match text_cstr.to_str() {Ok(s) s,Err(_) return default_result,};let encoding match handle_ref.tokenizer.encode(text_str, true) {Ok(e) e,Err(_) return default_result,};let input_ids: Vec encoding.get_ids().iter().map(|x| x as i64).collect();let attention_mask: Vec encoding.get_attention_mask().iter().map(|x| x as i64).collect();let token_type_ids: Vec encoding.get_type_ids().iter().map(|x| x as i64).collect();// BGE 不需要但 C 代码传了// let token_type_ids: Vec vec![0u32; input_ids.len()];let len input_ids.len(); // 应该是 512但更通用TokenizerResult {input_ids: vec_to_c_ptr(input_ids),attention_mask: vec_to_c_ptr(attention_mask),token_type_ids: vec_to_c_ptr(token_type_ids),length: len as u64,}}// 7. 释放结果内存 #[unsafe(no_mangle)]pub extern C fn tokenizer_result_free(result: TokenizerResult) {if !result.input_ids.is_null() {unsafe {let _ Vec::from_raw_parts(result.input_ids,result.length as usize,result.length as usize,);}}if !result.attention_mask.is_null() {unsafe {let _ Vec::from_raw_parts(result.attention_mask,result.length as usize,result.length as usize,);}}if !result.token_type_ids.is_null() {unsafe {let _ Vec::from_raw_parts(result.token_type_ids,result.length as usize,result.length as usize,);}}}对应的 C 接口如下// tokenizer_result.h#pragma oncestruct TokenizerResult {int64_t* input_ids;int64_t* attention_mask;int64_t* token_type_ids;uint64_t length;};#ifdef __cplusplusstatic_assert(std::is_standard_layout_v std::is_trivially_copyable_v,TokenizerResult must be C ABI compatible);#endif// hf_tokenizer_ffi.h#pragma once#include#include tokenizer_result.h#ifdef __cplusplusextern C {#endifvoid* tokenizer_create(const char* tokenizer_json_path);void tokenizer_destroy(void* handle);TokenizerResult tokenizer_encode(void* handle, const char* text);uint64_t tokenizer_count(void* handle, const char* text);void tokenizer_result_free(TokenizerResult result);#ifdef __cplusplus}#endif具体的封装细节笔者就不多说了因为与本文的主题无关。不过可以稍稍了解一下其中的原理也就是说操作系统大多数是由 C 实现的或者提供了 C 的接口。因此绝大多数比 C 高级的编程语言都提供了与 C 交互的能力当然前提是必须得按照 C 得规范组织数据和封装接口。比如这里的struct TokenizerResult就是一个兼容 C 的结构体#[unsafe(no_mangle)]则表明这是一个 C 语言形式的函数接口。3. 经典 C 封装如上接口是一个标准的 C 风格式的接口将分词器封装成一个 Handle 也就是俗称的句柄。而后续具体的分词操作就通过这个句柄来进行包括最后对资源的释放。在 C 中当然也可以直接使用这种形式的接口不过这样就需要遵循 C 的资源控制规则资源申请和释放必须成对出现——比如这里的 tokenizer_create 和 tokenizer_destroy。3.1 RAII 机制不过这样就会有一个问题过程式的流程中很难保证 tokenizer_create 和 tokenizer_destroy 能够成对调用例如tokenizer_create()if(...){return;}tokenizer_destroy()只要在 tokenizer_create 和 tokenizer_destroy 之间出现分支程序提前返回就会导致资源没有释放而内存泄漏。为了避免这个问题就需要在每次 return 之前都调用 tokenizer_destroy()——这当然是非常不优雅的既容易忘掉又是冗余代码。为了解决这种资源管理难题C 提供了一种强大而优雅的机制RAIIResource Acquisition Is Initialization资源获取即初始化。它的核心思想是将资源的生命周期绑定到对象的生命周期上。具体来说就是利用面向对象的思想将资源控制的行为封装成一个类对象并且保证资源在对象构造函数中获取在析构函数中自动释放。由于 C 中栈对象在离开作用域时会自动调用析构函数在离开作用域时会自动调用析构函数。因此这些资源总是可以被正确释放从根本上杜绝内存泄漏或资源泄露。例如Tokenizer tokenizer;//...操作if(...){return;}//...更多操作3.2 拷贝语义复习一下 C 面向对象设计的经典五法则Rule of Five如果一个类自定义了以下任意一个函数析构函数Destructor拷贝构造函数Copy Constructor拷贝赋值运算符Copy Assignment Operator移动构造函数Move Constructor移动赋值运算符Move Assignment Operator那么大概率也需要自定义另外四个函数或者显式 default / delete 来控制行为。很多 C 程序员并不理解移动语义但这并没有关系我们可以先假定不定义移动构造函数和移动赋值运算符或者显式 default此时移动操作就会退化为拷贝语义的行为。而关于拷贝语义绝大多数 C 程序员应该都知道这个问题当在类对象中管理资源时编译器生成的默认拷贝行为是“浅拷贝”可能导致双重释放、内存泄漏等问题因此需要自定义拷贝构造函数和拷贝赋值运算符来实现“深拷贝”的行为。因此这个链条就很明确了因为类中需要定义析构函数所以需要同时定义拷贝构造函数和拷贝赋值运算符。3.3 移动语义进一步讨论反正移动语义可以默认那么是不是只用定义拷贝语义就行了呢这个要看资源的定义如果只是管理内存资源那么这样做是没有问题的至少是安全的。但是资源管理不仅仅指的是内存资源还可以是一些文件句柄、网络连接等等。这些资源往往是独占性的进行深拷贝往往会出现问题。因此就出现了 C 11 开始规定的移动语义可以安全得实现“浅拷贝”的行为。同时还可以解决“深拷贝”的性能问题。基于以上的思想笔者封装的分词器对象如下// HfTokenizer.h#pragma once#include#include hf_tokenizer_ffi.hnamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 析构函数~Tokenizer() noexcept;// 禁止拷贝Tokenizer(const Tokenizer) delete;Tokenizer operator(const Tokenizer) delete;// 移动语义Tokenizer(Tokenizer rhs) noexcept;Tokenizer operator(Tokenizer rhs) noexcept;// 其他接口方法// TokenizerResult Encode(const char* text) const;// uint64_t Count(const char* text) const;private:void* handle; // 来自 tokenizer_create 的指针};} // namespace hf// HfTokenizer.cpp#include HfTokenizer.h#includenamespace hf {Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str())) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}Tokenizer::~Tokenizer() noexcept {if (handle) {tokenizer_destroy(handle);}}// 移动语义Tokenizer::Tokenizer(Tokenizer rhs) noexcept : handle(rhs.handle) {rhs.handle nullptr;}Tokenizer Tokenizer::operator(Tokenizer rhs) noexcept {if (this ! rhs) {if (handle) {tokenizer_destroy(handle);}handle rhs.handle;rhs.handle nullptr;}return *this;}} // namespace hf如前所述因为封装的是一个句柄为了避免资源控制的麻烦就禁止掉拷贝语义// 禁止拷贝Tokenizer(const Tokenizer) delete;Tokenizer operator(const Tokenizer) delete;进行()拷贝构造或者赋值构造看起来似乎很简单其实在代码层层嵌套之后就可能很难分析出是不是调用了默认的拷贝的行为比如函数传参、容器操作等等。当然深拷贝的实现也不是性能最优因此干脆就直接删除掉拷贝构造函数和拷贝赋值运算符。没有拷贝语义那么就需要移动语义来进行传递对象了。其实移动语义没那么难我们只要把握住一点移动语义的目的是安全地实现“浅拷贝”。以移动赋值运算符的实现来说如果要实现如下移动赋值Tokenizer A();Tokenizer B();B std::move(A);就需要以下的行为释放掉B管理的资源。将A中的成员“浅拷贝”到B中让B接管A的资源。将A中成员初始化。具体实现就是如下所示Tokenizer Tokenizer::operator(Tokenizer rhs) noexcept {if (this ! rhs) {if (handle) {tokenizer_destroy(handle);}handle rhs.handle;rhs.handle nullptr;}return *this;}移动构造函数就更加简单了因为B对象在移动构造之前成员并没有初始化Tokenizer A();Tokenizer B(std::move(A));因此可以省略掉释放自身资源的步骤具体实现也就是如下所示Tokenizer::Tokenizer(Tokenizer rhs) noexcept : handle(rhs.handle) {rhs.handle nullptr;}最后还有一个问题A通过移动语义转移到B了A还能使用吗不能也没必要使用A了无论是A对象和B对象其实是一个栈对象当然内部管理的数据成员可能放在堆上或者说是一个值对象这跟引用对象或者地址对象完全不同。移动语义的本质是对象所有权的转移转移之后原对象中资源所有权就不存在了即使强行访问要么访问不到要么会程序崩溃。4. 高级 C 封装4.1 零法则使用 RAII 机制 经典五法则来设计一个类对象还有一个优点就是使用这个类对象作为数据成员的类就不用再显式实现析构函数。不用显式实现析构函数也就意味着不用实现拷贝语义和移动语义完全可以依赖类对象拷贝和移动的默认行为。举例来说一个MyResource对象管理着一段内存 buffer 它的类定义为class MyResource {public:// 构造申请资源MyResource() {data new int[100];}// 析构释放资源~MyResource() {delete[] data;}// 拷贝构造深拷贝MyResource(const MyResource other) {data new int[100];copy(other.data, other.data 100, data);}// 拷贝赋值MyResource operator(const MyResource other) {if (this ! other) {delete[] data;data new int[100];copy(other.data, other.data 100, data);}return *this;}// 移动构造接管资源MyResource(MyResource other) noexcept {data other.data;other.data nullptr;}// 移动赋值MyResource operator(MyResource other) noexcept {if (this ! other) {delete[] data;data other.data;other.data nullptr;}return *this;}private:int* data nullptr;};但是如果我使用 std 容器vector 相应的代码就可以简写为#includeclass MyResource {public:// 构造自动分配内存MyResource() : data(100) {} // vector 自动初始化为 100 个元素// ? 无需显式定义析构函数// ? 无需自定义拷贝构造 / 拷贝赋值// ? 无需自定义移动构造 / 移动赋值// 编译器自动生成的版本已正确、高效、异常安全private:std::vector data; // RAII 自动管理内存};这不是因为 vector 使用了什么魔法而是 vector 本身就是使用了 RAII 机制 经典五法则来设计的一个模板类对象在 MyResource 对象进行拷贝或者移动的时候作为数据成员std::vector data也会采取同样的拷贝或者移动的行为并且默认的、由编译器自动生成的版本就可以正确处理。以上这个思想就是现代 C 更推荐的零法则Rule of Zero尽量不要手动管理资源而是使用 RAII 类型让编译器自动生成所有特殊成员函数。而这个 RAII 类型可以是 std 的任何容器对象、智能指针也可以是自己按照五法则实现的类对象。4.2 智能指针回到本文引入的问题如果我的分词器实现不像写拷贝语义和移动语义怎么办呢毕竟都是样板代码写不好还容易出问题。此时我们就可以使用智能指针 unique_ptr 。常规意义上我们都知道智能指针可以在没有任何其他对象引用的情况下自动 delete 其实智能指针还可以自定义资源的释放行为#pragma once#include#includenamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 编译器自动生成// - 析构函数// - 移动构造 / 移动赋值// - 禁止拷贝因为 unique_ptr 不可拷贝private:std::unique_ptr handle;};} // namespace hf#include HfTokenizer.h#include#include hf_tokenizer_ffi.hnamespace hf {static void HandleDeleter(void* handle) noexcept {if (handle) {tokenizer_destroy(handle);}}Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str()), HandleDeleter) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}} // namespace hf如上实现所示函数 HandleDeleter 就是 std::unique_ptr handle 的自定义析构行为在类对象析构的时候就会自动调用这个函数释放资源。既然资源被智能托管了那么自然就不用写析构函数析构函数不用写那么拷贝构造函数、拷贝赋值运算符、移动构造函数以及移动赋值运算符都可以不用实现全部可以依赖编译器自动生成。当然由于 unique_ptr 只能移动不能拷贝Tokenizer也就只能移动不能拷贝。5. 总结最后笔者就给出 C 封装 C FFI 接口的完整实现如下所示// HfTokenizer.h#pragma once#include#include#include tokenizer_result.hnamespace hf {class Tokenizer {public:explicit Tokenizer(const std::string path);// 编译器自动生成// - 析构函数调用 Deleter// - 移动构造 / 移动赋值// - 禁止拷贝因为 unique_ptr 不可拷贝// 其他接口方法uint64_t Count(const std::string text) const;// 向量化using ResultPtr std::unique_ptr;ResultPtr Encode(const std::string text) const;private:std::unique_ptr handle;};} // namespace hf// HfTokenizer.cpp#include HfTokenizer.h#include#include hf_tokenizer_ffi.hnamespace hf {static void HandleDeleter(void* handle) noexcept {if (handle) {tokenizer_destroy(handle);}}static void ResultDeleter(TokenizerResult* p) noexcept {if (p) {tokenizer_result_free(*p);delete p;}}Tokenizer::Tokenizer(const std::string path): handle(tokenizer_create(path.c_str()), HandleDeleter) {if (!handle) {throw std::runtime_error(Failed to create tokenizer from path);}}uint64_t Tokenizer::Count(const std::string text) const {return tokenizer_count(handle.get(), text.c_str());}Tokenizer::ResultPtr Tokenizer::Encode(const std::string text) const {auto result std::make_unique(tokenizer_encode(handle.get(), text.c_str()));return {result.release(), ResultDeleter};};} // namespace hf不仅是句柄连传递的数据对象笔者都托管给智能指针从而避免大量写特殊成员函数这些样板代码。不得不说RAII 的设计思路非常精妙同时保证了安全性与简洁性给人一种回归编程原始状态的感觉。所谓“大道至简”不是代码越繁复就越安全也不是代码越抽象就越厉害真正好的代码是在正确性、可维护性与简洁性之间取得平衡让资源管理如呼吸般自然而非负担。赘钡饭琴

相关文章:

Big-Yellow-J

1. 引入 在现代 AI 工程中,Hugging Face 的 tokenizers 库已成为分词器的事实标准。不过 Hugging Face 的 tokenizers 是用 Rust 来实现的,官方只提供了 python 和 node 的绑定实现。要实现与 Hugging Face tokenizers 相同的行为,最好的办法…...

从电话线到光纤:手把手拆解家庭网络升级史(附DSL、HFC、FTTH技术演进图)

从电话线到光纤:家庭网络技术演进全解析 记得2000年初,我家第一次安装宽带时,那台吱吱作响的56K调制解调器拨号上网的声音至今难忘。二十年间,家庭网络技术经历了翻天覆地的变化——从最初依靠电话线传输数据的DSL,到利…...

保姆级教程:用Python+ArcGIS Pro处理MOD13A1 NDVI数据,5分钟搞定HDF转TIF

5分钟极速转换:PythonArcGIS Pro批量处理MOD13A1 NDVI数据实战指南 当面对数百个MOD13A1的HDF格式NDVI数据时,传统手动操作不仅耗时费力,还容易因重复劳动导致错误。本文将分享一套全自动化处理流程,结合Python脚本与ArcGIS Pro的…...

YOLOv8模型评估进阶:修改metrics.py和val.py,解锁mAP75监控与可视化

YOLOv8模型评估进阶:深度定制mAP75监控与可视化全流程指南 在目标检测模型的迭代优化过程中,评估指标的选择直接影响着模型性能的判断标准。当mAP50达到90%以上的高饱和状态时,引入mAP75指标能够提供更严格的性能评估维度。本文将系统介绍如何…...

TypeScript交集计算终极指南:5步掌握Intersection类型挑战

TypeScript交集计算终极指南:5步掌握Intersection类型挑战 【免费下载链接】type-challenges Collection of TypeScript type challenges with online judge 项目地址: https://gitcode.com/GitHub_Trending/ty/type-challenges TypeScript作为JavaScript的超…...

Forge模组进阶:深入Mixin内部机制,从字节码层面理解你的代码如何‘注入’Minecraft

Forge模组进阶:深入Mixin内部机制,从字节码层面理解你的代码如何‘注入’Minecraft 当你在Minecraft中看到自己开发的模组成功修改了游戏行为时,那种成就感无与伦比。但作为中高级开发者,你是否曾好奇:那些Inject注解背…...

.NET C# New Features 新增功能介绍-.NET CLI工具改进

1 实用案例 1.1 表格样式生成 本示例用于生成包含富文本样式与单元格背景色的Word表格文档。 模板内容: 渲染代码: # python-docx-template/blob/master/tests/comments.py from docxtpl import DocxTemplate, RichText # data: python-docx-template/bl…...

taniarascia.com社区贡献:开源项目协作与维护指南

taniarascia.com社区贡献:开源项目协作与维护指南 【免费下载链接】taniarascia.com 💾 ‎ Personal website running on Gatsby, React, and Node.js. 项目地址: https://gitcode.com/gh_mirrors/ta/taniarascia.com taniarascia.com是一个基于G…...

Molecule内部原理揭秘:Compose运行时如何与协程Flow集成

Molecule内部原理揭秘:Compose运行时如何与协程Flow集成 【免费下载链接】molecule Build a StateFlow stream using Jetpack Compose 项目地址: https://gitcode.com/gh_mirrors/mol/molecule Molecule是一个强大的库,它能够使用Jetpack Compose…...

Struts2-Scan与漏洞环境搭建:完整测试环境配置教程

Struts2-Scan与漏洞环境搭建:完整测试环境配置教程 【免费下载链接】Struts2-Scan Struts2全漏洞扫描利用工具 项目地址: https://gitcode.com/gh_mirrors/st/Struts2-Scan Struts2-Scan是一款功能强大的Struts2全漏洞扫描利用工具,能够帮助安全测…...

视觉驱动智能测试架构重构:企业自动化测试效率提升85%的技术实践

视觉驱动智能测试架构重构:企业自动化测试效率提升85%的技术实践 【免费下载链接】midscene AI-powered, vision-driven UI automation for every platform. 项目地址: https://gitcode.com/GitHub_Trending/mid/midscene Midscene.js作为新一代AI驱动的跨平…...

如何高效使用Semi-Utils:完整批量水印处理方案

如何高效使用Semi-Utils:完整批量水印处理方案 【免费下载链接】semi-utils 一个批量添加相机机型和拍摄参数的工具,后续「可能」添加其他功能。 项目地址: https://gitcode.com/gh_mirrors/se/semi-utils Semi-Utils是一款专业的批量图片处理工具…...

AI渗透测试工具:从“脚本跑腿“到“Agent大脑“的范式革命

本文能帮你解决什么? 1. 搞懂FastAPI异步(async/await)到底在什么场景下能真正提升性能。 2. 掌握在FastAPI中正确使用多线程处理CPU密集型任务的方法。 3. 避开常见的坑(比如阻塞操作、数据库连接池耗尽、GIL限制)。 …...

基于安卓的母婴用品租赁与回收平台毕设源码

博主介绍:✌ 专注于Java,python,✌关注✌私信我✌具体的问题,我会尽力帮助你。一、研究目的本研究旨在设计并实现一个基于安卓平台的母婴用品租赁与回收系统以解决当前母婴用品市场中存在的资源浪费与供需失衡问题。随着我国二孩政策实施及生育观念转变母…...

5分钟快速上手:ONNX+AWS Lambda打造超轻量AI推理服务终极指南

5分钟快速上手:ONNXAWS Lambda打造超轻量AI推理服务终极指南 【免费下载链接】onnx Open standard for machine learning interoperability 项目地址: https://gitcode.com/gh_mirrors/onn/onnx ONNX作为机器学习互操作性的开放标准,让AI模型能够…...

用 PHP 实现一个简单的“背包算法”,解决优惠券最优组合问题。

它的本质是:在有限的“预算约束”(背包容量)下,从一组“优惠券”(物品)中选择子集,使得“减免金额”(价值)最大化。这是一个经典的 0/1 背包问题 (0/1 Knapsack Problem)…...

【AI Infra 核心】从零剖析大模型服务框架:如何榨干 GPU 算力实现极致推理吞吐?

🚀【AI Infra 核心】从零剖析大模型服务框架:如何榨干 GPU 算力实现极致推理吞吐?摘要:上一篇我们通过 PagedAttention 解决了大模型推理时的“显存爆炸”危机。但在实际的生产环境中,光有显存是不够的。老板花重金买的…...

pyglet入门指南:从零开始构建跨平台游戏应用的完整教程

pyglet入门指南:从零开始构建跨平台游戏应用的完整教程 【免费下载链接】pyglet pyglet is a cross-platform windowing and multimedia library for Python, for developing games and other visually rich applications. 项目地址: https://gitcode.com/gh_mirr…...

ComfyUI-to-Python-Extension 安装教程:如何正确配置开发模式选项

ComfyUI-to-Python-Extension 安装教程:如何正确配置开发模式选项 【免费下载链接】ComfyUI-to-Python-Extension A powerful tool that translates ComfyUI workflows into executable Python code. 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-to-Pyt…...

Dinghy架构解析:深入理解docker-machine包装器的设计哲学

Dinghy架构解析:深入理解docker-machine包装器的设计哲学 【免费下载链接】dinghy faster, friendlier Docker on OS X 项目地址: https://gitcode.com/gh_mirrors/di/dinghy Dinghy作为一款为macOS用户打造的Docker工具,通过巧妙包装docker-mach…...

告别卡顿闪退!3步构建TV应用的模块化测试防护网

告别卡顿闪退!3步构建TV应用的模块化测试防护网 【免费下载链接】my-tv 我的电视 电视直播软件,安装即可使用 项目地址: https://gitcode.com/GitHub_Trending/my/my-tv TV应用的流畅体验是用户最基本的需求,但卡顿和闪退问题却常常影…...

jQuery Masked Input项目架构分析:从Grunt构建到模块化设计

jQuery Masked Input项目架构分析:从Grunt构建到模块化设计 【免费下载链接】jquery.maskedinput jQuery Masked Input Plugin 项目地址: https://gitcode.com/gh_mirrors/jq/jquery.maskedinput jQuery Masked Input Plugin是一款轻量级的表单输入格式化工具…...

3DTilesRendererJS插件系统完全指南:扩展你的3D渲染能力

3DTilesRendererJS插件系统完全指南:扩展你的3D渲染能力 【免费下载链接】3DTilesRendererJS Renderer for 3D Tiles in Javascript using three.js, Babylon.js, and r3f 项目地址: https://gitcode.com/gh_mirrors/3d/3DTilesRendererJS 3DTilesRendererJS…...

你的LaTeX参考文献引用对了吗?详解\cite, \citet, \citep的区别与选用场景

LaTeX参考文献引用权威指南:从基础语法到期刊规范实战 第一次用LaTeX写论文时,我被参考文献引用折磨得差点放弃学术生涯。导师批注的"引用格式不统一"像魔咒一样出现在每一页——有时是"(作者, 年份)",有时变成"作者…...

基因编辑分析:CRISPR实验的数据处理流程

基因编辑技术正以前所未有的速度改变生命科学研究,其中CRISPR-Cas9系统因其高效性和精准性成为核心工具。实验成功的关键不仅在于操作技术,更依赖于对海量数据的科学处理。本文将系统解析CRISPR实验的数据处理流程,帮助研究者从原始数据中挖掘…...

D2L.ai音乐生成:AI作曲与音乐风格转换的终极指南

D2L.ai音乐生成:AI作曲与音乐风格转换的终极指南 【免费下载链接】d2l-en Interactive deep learning book with multi-framework code, math, and discussions. Adopted at 500 universities from 70 countries including Stanford, MIT, Harvard, and Cambridge. …...

GLM-4-9B-Chat-1M企业落地:构建私有法律知识引擎,支持类案推送与裁判规则提炼

GLM-4-9B-Chat-1M企业落地:构建私有法律知识引擎,支持类案推送与裁判规则提炼 想象一下,你是一家律师事务所的合伙人,手头有一个复杂的商业合同纠纷案件。为了准备诉讼策略,你需要查阅过去十年内所有相关的判例、法律…...

【稀缺实测数据集+可运行代码】:R语言实现LLM输出偏见量化评估(含chi2_residual_bias、KL-divergence_error等6种统计检验报错修复方案)

更多请点击: https://intelliparadigm.com 第一章:R语言在大语言模型偏见检测中的统计方法报错解决方法 在使用R语言对LLM输出进行偏见量化分析(如性别/种族倾向性卡方检验、嵌入空间KL散度计算)时,常见报错多源于数据…...

2026小程序店铺装修模板怎么选?小程序店铺装修教程是什么?

在想要搭建小程序的时候,我们往往会问2026小程序店铺装修模板怎么选?小程序店铺装修教程是什么?的确,这是许多人心中的疑问。老规矩,先看一组数据。《2026年2月北京本地商家数字化发展报告》显示,2026年以来…...

终极WinCDEmu虚拟光驱使用指南:免费开源的光盘镜像管理神器

终极WinCDEmu虚拟光驱使用指南:免费开源的光盘镜像管理神器 【免费下载链接】WinCDEmu 项目地址: https://gitcode.com/gh_mirrors/wi/WinCDEmu WinCDEmu是一款功能强大的开源虚拟光驱软件,它能够让你在Windows系统中轻松挂载ISO、IMG、CUE/BIN、…...