当前位置: 首页 > article >正文

Python 爬虫采集训练数据:构建自定义场景的 Lingbot 微调数据集

Python 爬虫采集训练数据构建自定义场景的 Lingbot 微调数据集想用最新的视觉模型做点自己的事比如让它专门看懂你所在行业的图片却发现网上找不到现成的数据集这可能是很多开发者遇到的头疼事。就拿室内设计来说通用的深度估计模型在识别复杂家具布局、光影效果时效果总差那么点意思。最近在尝试微调 Lingbot-Depth-Pretrain-ViTL-14 这类视觉模型发现最大的瓶颈不是算法而是数据。你需要一个高质量、场景特定的图片集。今天我就来分享一个实战方案如何用 Python 爬虫从零开始构建一个属于你自己的、高质量的微调数据集。整个过程就像是为你的模型准备一份定制化的“视觉教材”。1. 为什么需要自定义数据集从通用到专用的价值跃迁现成的公开数据集比如 NYU Depth V2 或者 KITTI覆盖了卧室、厨房、街道、公路等常见场景对于训练一个通用模型来说功不可没。但当你需要模型在你关心的特定领域表现得更出色时这些数据就有点“隔靴搔痒”了。举个例子如果你想做一个专注于室内设计效果图深度估计的模型你需要的是大量高清的室内设计渲染图或实景图这些图片的构图、光影、家具样式都非常专业和统一。通用数据集中混杂的日常卧室照片在细节和风格上都无法满足这种专业需求。自定义数据集的核心价值就在这里让模型在你关心的数据分布上学得更深、更准。通过爬虫你可以从专业的室内设计图库如某些设计社区、设计师作品集网站或街景分享平台批量获取风格统一、质量较高的原始图片。这为后续的模型微调打下了坚实的数据基础。简单说就是“吃什么补什么”给模型喂它最需要“消化”的图片。2. 实战第一步规划爬虫目标与伦理边界动手写代码之前清晰的规划和正确的认知比技术本身更重要。2.1 明确数据源与采集目标首先你需要确定一两个高质量、图片风格符合你要求的网站。比如对于室内设计场景可以寻找那些展示完整设计方案、提供高清大图的平台。目标要具体网站示例专业的室内设计论坛、设计师作品发布站、家居灵感分享社区等。图片要求分辨率尽量高建议 1024x768 以上、构图完整、涵盖多种房间类型客厅、卧室、厨房、卫生间。采集规模对于微调起步初期目标可以设定在 5000 - 10000 张高质量图片。不必一味求多质量优先。2.2 严格遵守爬虫伦理与法律法规这是必须严肃对待的部分。爬虫不能无法无天。查看robots.txt在目标网站的根目录下如https://example.com/robots.txt查看该文件。它会告诉你网站允许或禁止爬虫访问哪些路径。尊重这些规则是基本的网络礼仪。识别并遵守服务条款很多网站的用户协议中明确禁止了大规模自动化抓取数据用于商业或训练目的。务必仔细阅读。控制访问频率在代码中设置合理的延时例如每请求一页或下载一张图片后休眠 1-3 秒避免对目标网站服务器造成瞬时高负载这既是道德要求也能有效降低被反爬机制封禁的风险。标注数据来源虽然最终数据集是自用的但在内部文档中记录数据来源是对原创者的一种尊重。我们的目标是合规地、有限度地获取用于个人学习和研究的数据任何可能侵犯版权或干扰网站正常运营的行为都应避免。3. 动手搭建Python 爬虫核心代码实现接下来我们进入实战环节。这里以爬取一个假设的设计图片网站为例展示核心步骤。我们将使用requests库进行网页请求用BeautifulSoup库解析HTML并用concurrent.futures实现简单的并发下载以提升效率。首先安装必要的库pip install requests beautifulsoup43.1 分析网页结构与图片链接爬虫的第一步是“观察”。打开目标网站按 F12 进入开发者工具查看图片在网页HTML代码中的位置。通常高清图片的链接会放在img标签的src或data-src属性里。import requests from bs4 import BeautifulSoup import time import os from urllib.parse import urljoin def fetch_image_links_from_page(page_url, base_url): 从单个列表页中解析出所有图片详情页的链接或直接解析出大图链接。 headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 } try: resp requests.get(page_url, headersheaders, timeout10) resp.raise_for_status() soup BeautifulSoup(resp.text, html.parser) image_links [] # 假设图片详情页的链接在 class 为 ‘design-item’ 的 a 标签里 for item in soup.find_all(a, class_design-item): href item.get(href) if href: full_url urljoin(base_url, href) image_links.append(full_url) # 或者如果图片直接以大图形式展示在列表页 # for img_tag in soup.find_all(img, class_preview-image): # src img_tag.get(data-src) or img_tag.get(src) # if src and thumbnail not in src: # 过滤缩略图 # full_url urljoin(base_url, src) # image_links.append(full_url) return image_links except Exception as e: print(f获取页面 {page_url} 失败: {e}) return [] # 示例爬取前5页的图片链接 base_url https://example-design-site.com/gallery all_image_page_links [] for page_num in range(1, 6): page_url f{base_url}?page{page_num} links fetch_image_links_from_page(page_url, base_url) all_image_page_links.extend(links) time.sleep(1.5) # 礼貌性延时 print(f第 {page_num} 页完成找到 {len(links)} 个链接)3.2 下载高清图片文件获取到图片详情页链接或直接的大图链接后我们需要访问这些链接并定位到最终的高清图片文件地址进行下载。def download_image(image_page_url, save_dir, headers): 访问图片详情页找到最高清的图片地址并下载。 try: # 1. 获取详情页 resp requests.get(image_page_url, headersheaders, timeout10) resp.raise_for_status() detail_soup BeautifulSoup(resp.text, html.parser) # 2. 寻找高清图源。常见位置meta标签og:image或特定的大图img标签 high_res_url None # 方法A: 检查 Open Graph 标签 (常用于社交媒体预览通常是大图) og_image_tag detail_soup.find(meta, propertyog:image) if og_image_tag: high_res_url og_image_tag.get(content) # 方法B: 如果方法A没找到寻找特定class或id的img标签 if not high_res_url: img_tag detail_soup.find(img, idmain-image) or detail_soup.find(img, class_fullsize) if img_tag: high_res_url img_tag.get(src) if not high_res_url: print(f在 {image_page_url} 中未找到高清图链接) return False # 确保链接是完整的URL high_res_url urljoin(image_page_url, high_res_url) # 3. 下载图片 img_resp requests.get(high_res_url, headersheaders, timeout30, streamTrue) img_resp.raise_for_status() # 从URL生成文件名 filename os.path.join(save_dir, high_res_url.split(/)[-1].split(?)[0]) # 简单处理重复文件名 if os.path.exists(filename): base, ext os.path.splitext(filename) filename f{base}_{int(time.time())}{ext} with open(filename, wb) as f: for chunk in img_resp.iter_content(chunk_size8192): f.write(chunk) print(f下载成功: {filename}) time.sleep(1) # 下载每张图片后的延时 return True except Exception as e: print(f下载 {image_page_url} 失败: {e}) return False # 创建保存目录 save_directory ./downloaded_design_images os.makedirs(save_directory, exist_okTrue) headers {User-Agent: 你的浏览器User-Agent} success_count 0 for idx, img_page_link in enumerate(all_image_page_links[:50]): # 先测试50个 print(f处理 [{idx1}/{len(all_image_page_links[:50])}]: {img_page_link}) if download_image(img_page_link, save_directory, headers): success_count 1 print(f下载完成成功 {success_count} 张失败 {len(all_image_page_links[:50]) - success_count} 张)3.3 应对常见反爬策略网站可能会设置一些简单的反爬机制User-Agent 检查我们已经通过headers模拟了浏览器。请求频率限制我们通过time.sleep()进行了控制。更高级的做法可以使用随机延时。IP 封禁如果请求太频繁你的IP可能会被暂时封禁。对于大规模采集需要考虑使用代理IP池但这涉及更多复杂性和成本对于个人学习项目保持低频、礼貌的访问是最稳妥的方式。重要提示如果网站采用了复杂的验证码、动态加载需要执行JavaScript或 API 加密上述简单爬虫可能失效。此时可能需要用到Selenium或Playwright等浏览器自动化工具或者尝试寻找网站官方提供的公开 API。这超出了基础教程的范围但值得你了解。4. 从原始图片到训练数据集清洗与标注爬虫得到的是一堆原始图片距离成为 Lingbot 等模型可用的数据集还差关键两步清洗和标注。4.1 数据清洗与初步筛选不是所有下载的图片都是合格的。你需要一个简单的脚本来过滤掉问题图片import os from PIL import Image import concurrent.futures def is_valid_image(filepath): 检查图片是否损坏、尺寸是否过小、模式是否正确RGB。 try: with Image.open(filepath) as img: img.verify() # 验证文件完整性 img Image.open(filepath) # 重新打开以获取属性 width, height img.size mode img.mode # 筛选条件尺寸大于一定值且为RGB模式 if width 512 and height 512 and mode RGB: return True else: print(f剔除{filepath} (尺寸:{width}x{height}, 模式:{mode})) return False except Exception as e: print(f损坏图片{filepath}, 错误: {e}) return False def clean_image_dataset(image_dir): 遍历目录删除无效图片。 valid_count 0 invalid_files [] image_files [os.path.join(image_dir, f) for f in os.listdir(image_dir) if f.lower().endswith((.png, .jpg, .jpeg, .webp))] # 使用线程池加速检查 with concurrent.futures.ThreadPoolExecutor(max_workers4) as executor: future_to_file {executor.submit(is_valid_image, f): f for f in image_files} for future in concurrent.futures.as_completed(future_to_file): file_path future_to_file[future] if not future.result(): invalid_files.append(file_path) else: valid_count 1 # 删除无效文件建议先注释掉检查日志确认无误后再执行 # for f in invalid_files: # os.remove(f) # print(f已删除: {f}) print(f清洗完成。有效图片: {valid_count}, 无效图片: {len(invalid_files)}) return valid_count, invalid_files # 执行清洗 clean_image_dataset(save_directory)4.2 为深度估计生成伪标签Lingbot-Depth-Pretrain-ViTL-14 是一个深度估计模型训练它需要“图片-深度图”对。我们只有图片没有真实的深度图这是最难获取的。这时伪标签技术就派上用场了。思路是用一个现成的、表现不错的单目深度估计模型比如MiDaS、ZoeDepth对我们爬取的图片进行预测生成的深度图就作为我们数据集的“标签”。虽然这些标签不如激光雷达采集的真实深度图精确但对于微调一个专门针对我们场景的模型来说这通常是一个有效且高效的起点。# 示例使用 Hugging Face Transformers 库中的 MiDaS 模型生成伪深度标签 import torch from transformers import DPTForDepthEstimation, DPTImageProcessor from PIL import Image import numpy as np import os # 加载模型和处理器确保已安装 transformers 和 torch device torch.device(cuda if torch.cuda.is_available() else cpu) processor DPTImageProcessor.from_pretrained(Intel/dpt-hybrid-midas) model DPTForDepthEstimation.from_pretrained(Intel/dpt-hybrid-midas).to(device) def generate_pseudo_depth(image_path, output_dir): 为一张图片生成伪深度图并保存。 try: image Image.open(image_path).convert(RGB) # 预处理和预测 inputs processor(imagesimage, return_tensorspt).to(device) with torch.no_grad(): outputs model(**inputs) predicted_depth outputs.predicted_depth # 后处理调整深度图尺寸与原图一致并归一化到可视范围 prediction torch.nn.functional.interpolate( predicted_depth.unsqueeze(1), sizeimage.size[::-1], # (height, width) modebicubic, align_cornersFalse, ).squeeze().cpu().numpy() # 归一化到0-255并保存为PNG depth_min, depth_max prediction.min(), prediction.max() depth_normalized (prediction - depth_min) / (depth_max - depth_min 1e-8) depth_uint8 (depth_normalized * 255).astype(np.uint8) depth_image Image.fromarray(depth_uint8) # 保存深度图文件名与原始图片对应 base_name os.path.splitext(os.path.basename(image_path))[0] depth_save_path os.path.join(output_dir, f{base_name}_depth.png) depth_image.save(depth_save_path) print(f生成深度图: {depth_save_path}) return True except Exception as e: print(f为 {image_path} 生成深度图失败: {e}) return False # 创建保存深度图的目录 depth_save_dir ./pseudo_depth_maps os.makedirs(depth_save_dir, exist_okTrue) # 为清洗后的图片生成伪标签示例处理前10张 image_files [os.path.join(save_directory, f) for f in os.listdir(save_directory) if f.lower().endswith((.png, .jpg, .jpeg))] for img_file in image_files[:10]: generate_pseudo_depth(img_file, depth_save_dir)现在你就拥有了一个初步的、可用于微调的数据集原始图片和对应的伪标签深度图。你可以将它们组织成标准的数据集格式如创建一个meta.csv文件记录对应关系然后就可以喂给 Lingbot 模型进行微调了。5. 总结走完这一整套流程你会发现构建一个自定义数据集虽然有些繁琐但每一步都有明确的目标和技术手段。从合规地规划爬虫、编写健壮的采集代码到严谨地清洗数据再到巧妙地利用现有模型生成伪标签这个过程本身就是一个极佳的工程实践。最终得到的不仅仅是一个数据集更是你对特定问题域数据的深刻理解。用这样的数据去微调模型比如 Lingbot-Depth它学到的特征会更贴合你的室内设计场景在后续应用中的表现很可能远超使用通用数据集训练的版本。数据工作往往是AI项目里最耗时但也是最值得投入的部分它直接决定了你模型能力的天花板。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

Python 爬虫采集训练数据:构建自定义场景的 Lingbot 微调数据集

Python 爬虫采集训练数据:构建自定义场景的 Lingbot 微调数据集 想用最新的视觉模型做点自己的事,比如让它专门看懂你所在行业的图片,却发现网上找不到现成的数据集?这可能是很多开发者遇到的头疼事。就拿室内设计来说&#xff0…...

办公文档处理神器!OpenDataLab MinerU智能文档理解5分钟上手教程

办公文档处理神器!OpenDataLab MinerU智能文档理解5分钟上手教程 1. 为什么你需要这个工具? 每天面对堆积如山的PDF报告、PPT演示文稿和扫描文件,你是否也遇到过这些烦恼? 重要会议前需要快速提取几十页PDF中的关键数据&#x…...

Arduino轻量Morse编码库:音频/光脉冲实时输出

1. 项目概述 MorseEncoder 是一款专为 Arduino 平台设计的轻量级嵌入式 Morse 编码库,其核心目标是将常见数据类型(字符、字符串、整数等)实时转换为符合国际标准的 Morse 码信号,并通过硬件外设以 音频脉冲 或 光脉冲 两种物…...

Qwen3.5-35B-AWQ-4bit效果对比:AWQ-4bit量化 vs GPTQ-4bit在图文任务精度差异

Qwen3.5-35B-AWQ-4bit效果对比:AWQ-4bit量化 vs GPTQ-4bit在图文任务精度差异 1. 多模态量化模型概述 Qwen3.5-35B-A3B-AWQ-4bit是一款面向视觉多模态理解的量化模型,支持图片理解、图文问答、视觉描述等核心能力。该模型特别适合需要图片分析和图文对…...

Windows下开源C/C++库动态链接实战指南

1. Windows平台开源库编译与动态链接实践指南在嵌入式系统开发中,跨平台代码迁移是常见需求。当需要将原本运行于嵌入式Linux环境的通信中间件、协议栈或算法模块迁移到Windows平台进行功能验证、性能仿真或上位机开发时,开发者面临的核心挑战并非逻辑重…...

智谱AI GLM-Image实践:旅游宣传册图片自动生成

智谱AI GLM-Image实践:旅游宣传册图片自动生成 1. 引言:当旅游营销遇上AI绘图 想象一下,你是一家旅行社的市场专员,老板要求你在一周内为即将到来的“海岛度假季”制作一套全新的宣传册。你需要几十张不同主题、不同风格的图片&…...

嵌入式RNG硬件随机数生成器工程实践与安全集成

1. RNG:嵌入式系统中真随机数生成器的工程实现与安全应用在嵌入式系统开发中,“随机性”远非rand()函数所能承载。从TLS握手密钥派生、安全启动种子生成,到无线通信跳频序列初始化,再到防重放攻击的nonce构造,高质量随…...

Qwen1.5-1.8B-Chat-GPTQ-Int4效果对比:中文数学推理(MathGLM Benchmark)表现

Qwen1.5-1.8B-Chat-GPTQ-Int4效果对比:中文数学推理(MathGLM Benchmark)表现 1. 模型简介与测试背景 通义千问1.5-1.8B-Chat-GPTQ-Int4是一个经过量化压缩的轻量级对话模型,基于Qwen1.5架构开发。这个模型采用了GPTQ量化技术&am…...

面向工业落地的目标检测:实时手机检测-通用DAMOYOLO框架优势解读

面向工业落地的目标检测:实时手机检测-通用DAMOYOLO框架优势解读 1. 快速上手:用ModelScope和Gradio部署手机检测模型 想要快速体验高性能手机检测?不用复杂的环境配置,不用漫长的模型训练,通过ModelScope和Gradio&a…...

Pycharm+Python之wxPython环境配置与实战入门

1. 为什么选择wxPython开发GUI应用 如果你正在寻找一个简单易用但又功能强大的Python GUI开发工具,wxPython绝对值得考虑。作为一个在Python领域摸爬滚打多年的开发者,我尝试过各种GUI框架,最终发现wxPython是最适合快速开发桌面应用的选择之…...

Nanbeige4.1-3B保姆级教程:WebUI中上传文件解析PDF/Markdown内容

Nanbeige4.1-3B保姆级教程:WebUI中上传文件解析PDF/Markdown内容 你是不是经常遇到这样的烦恼:手头有一堆PDF报告、Markdown文档,想快速提炼里面的关键信息,却要一页页翻看,费时又费力?或者,你…...

VSCode党福音:通义灵码插件深度体验,从代码补全到单元测试一键搞定

VSCode党福音:通义灵码插件深度体验,从代码补全到单元测试一键搞定 作为一名长期与VSCode为伴的全栈开发者,我几乎尝试过市面上所有主流代码辅助工具。从早期的IntelliSense到后来的GitHub Copilot,每次技术迭代都带来效率的跃升。…...

面试官问起Python高级特性,我用这7个知识点让他闭嘴惊艳

从浅拷贝到装饰器,一文搞定Python高级语法核心要点在Python面试中,高级语法往往是区分初级和中级开发者的分水岭。很多人在写Python代码时,只停留在基础语法层面,但对于浅拷贝与深拷贝的区别、迭代器与生成器的原理、闭包与装饰器…...

02、电机控制进阶——归一化在定点DSP中的实战解析

1. 归一化在电机控制中的核心价值 第一次接触电机控制时,我被各种三角函数和浮点运算搞得头大。直到发现归一化这个"神器",才真正理解为什么老工程师总说"能用整数就别用浮点"。在资源受限的定点DSP上,归一化处理就像是给…...

Minecraft模组本地化:Masa Mods中文体验优化指南

Minecraft模组本地化:Masa Mods中文体验优化指南 【免费下载链接】masa-mods-chinese 一个masa mods的汉化资源包 项目地址: https://gitcode.com/gh_mirrors/ma/masa-mods-chinese 对于中文玩家而言,语言障碍往往是体验国际优质模组的最大门槛。…...

Stable Yogi Leather-Dress-Collection应用案例:虚拟偶像直播背景皮衣造型迭代

Stable Yogi Leather-Dress-Collection应用案例:虚拟偶像直播背景皮衣造型迭代 1. 项目背景与核心价值 虚拟偶像直播行业近年来快速发展,对角色造型的多样性和个性化需求日益增长。传统手工绘制皮衣造型存在效率低、风格单一、修改成本高等痛点。Stabl…...

从Windows到Linux:给硬件新手的Cadence Virtuoso IC618保姆级安装与初体验指南

从Windows到Linux:给硬件新手的Cadence Virtuoso IC618保姆级安装与初体验指南 第一次在Linux系统上安装专业EDA工具的经历,往往伴随着各种"惊喜"。作为一名习惯了Windows图形化操作的设计师,当我第一次面对Ubuntu终端闪烁的光标时…...

LumiPixel Canvas Quest肖像画风格探索:从古典油画到现代插画

LumiPixel Canvas Quest肖像画风格探索:从古典油画到现代插画 1. 开启艺术风格之旅 第一次打开LumiPixel Canvas Quest时,我就被它的风格多样性震惊了。这个工具不仅能生成肖像画,还能精准捕捉不同艺术流派的神韵。从达芬奇时代的古典油画到…...

Python原型链污染防御指南:从CTF漏洞到安全编码实践(附Flask应用示例)

Python原型链污染防御实战:构建安全代码的七个关键策略 在2023年OWASP发布的十大安全风险中,不安全的对象引用依然位列前端威胁前三。当我们谈论Python原型链污染时,许多开发者第一反应是"这不是JavaScript的问题吗?"这…...

Qwen3-ForcedAligner-0.6B部署教程:阿里云ECS+GPU实例一键部署全流程

Qwen3-ForcedAligner-0.6B部署教程:阿里云ECSGPU实例一键部署全流程 1. 项目概述 Qwen3-ForcedAligner-0.6B是阿里巴巴基于Qwen3-ASR-1.7B和ForcedAligner-0.6B双模型架构开发的智能语音转录工具。这个工具最大的特点是能够在本地完成高精度的语音识别&#xff0c…...

图图的嗨丝造相-Z-Image-Turbo多场景落地:短视频封面/轻小说插画/虚拟偶像视觉设计

图图的嗨丝造相-Z-Image-Turbo多场景落地:短视频封面/轻小说插画/虚拟偶像视觉设计 1. 引言:当AI绘画遇上“渔网袜”风格 最近,一个名为“图图的嗨丝造相-Z-Image-Turbo”的AI绘画模型在创作者圈子里悄悄火了起来。你可能好奇,一…...

LumiPixel Canvas Quest写实与幻想风格对比:从真人肖像到奇幻角色

LumiPixel Canvas Quest写实与幻想风格对比:从真人肖像到奇幻角色 1. 开篇:跨越现实与幻想的创作工具 最近试用LumiPixel Canvas Quest这款AI绘图工具时,发现它有个特别有意思的能力——能在写实与幻想风格之间自由切换。就像一位同时精通古…...

Hunyuan-MT-7B开源镜像实操手册:支持藏/蒙/维/哈/朝五语的国产翻译方案落地

Hunyuan-MT-7B开源镜像实操手册:支持藏/蒙/维/哈/朝五语的国产翻译方案落地 想用一张消费级显卡,就搞定几十种语言的高质量翻译,特别是涉及藏语、蒙古语、维吾尔语、哈萨克语、朝鲜语这些少数民族语言的场景?今天要介绍的Hunyuan…...

三星电视变身游戏主机:Moonlight串流技术完整指南

三星电视变身游戏主机:Moonlight串流技术完整指南 【免费下载链接】moonlight-chrome-tizen A WASM port of Moonlight for Samsung Smart TVs running Tizen OS (5.5 and up) 项目地址: https://gitcode.com/gh_mirrors/mo/moonlight-chrome-tizen 你是否曾…...

智能学习助手:OpenClaw+Qwen3-32B自动生成复习题与知识图谱

智能学习助手:OpenClawQwen3-32B自动生成复习题与知识图谱 1. 为什么需要AI学习助手? 去年备考专业认证时,我发现自己陷入了"资料沼泽"——收集了3GB的PDF、网页和笔记,却不知从何复习起。手动整理耗时费力&#xff0…...

Cosmos-Reason1-7B多场景:支持图像/视频双模态输入的物理AI生产部署

Cosmos-Reason1-7B多场景:支持图像/视频双模态输入的物理AI生产部署 想象一下,你给AI看一张厨房的照片,它不仅能告诉你“桌上有杯水”,还能推理出“杯子放在桌沿,如果被碰到可能会摔碎”。或者给它看一段机器人抓取物…...

EagleEye惊艳效果展示:20ms内完成多目标检测的高清结果图实录

EagleEye惊艳效果展示:20ms内完成多目标检测的高清结果图实录 如果你正在寻找一个又快又准的目标检测工具,那么今天要聊的EagleEye绝对值得你花几分钟了解一下。它不是什么遥不可及的实验室产品,而是一个基于DAMO-YOLO TinyNAS架构&#xff…...

AgIsoStack:面向Teensy的轻量级ISOBUS/J1939开源CAN协议栈

1. AgIsoStack项目概述AgIsoStack是一个面向嵌入式农业机械通信场景的轻量级、开源、可裁剪的CAN协议栈实现,专为Arduino生态中的Teensy系列微控制器设计。它完整支持ISO 11783(ISOBUS)与SAE J1939两大农业及商用车辆核心通信标准&#xff0c…...

【DFT】阅读-Read and Select 类型习题 (简单题型)

这种源于词汇的积累这个模块已经全部做完了。简单。A-06-Reading-1-Historyembody 体现devise 设计charcoal 木炭steam-powered a.蒸汽动力的turnpike 收费公路TPO-06-Reading-2-Geologyrudimentary 基本的excavate 挖掘occasional 偶然的thorough 彻底的canal 运河apprentice …...

紧急!MCP 2.0 v2.0.3补丁已强制要求——未完成这6项安全基线配置的系统将于Q3下线(附自动化审计POC)

第一章:MCP 2.0 v2.0.3补丁强制升级的合规性通告与Q3下线倒计时根据《金融行业核心平台安全基线规范(2024修订版)》第7.3条及监管机构《关键信息基础设施软件生命周期管理指引》要求,MCP 2.0平台自即日起对所有生产环境节点实施v2…...