当前位置: 首页 > article >正文

GLM-OCR开源镜像免配置部署指南:一键启动7860端口Web服务

GLM-OCR开源镜像免配置部署指南一键启动7860端口Web服务1. 引言你是不是遇到过这样的场景手头有一堆扫描的合同、发票或者学术论文图片想把里面的文字、表格甚至数学公式都提取出来但一个个手动录入太费时间用传统的OCR工具又经常识别不准特别是遇到复杂排版或者公式时基本就束手无策了。今天我要介绍的GLM-OCR就是专门为解决这类复杂文档识别问题而生的。它不是一个简单的文字识别工具而是一个能理解文档结构、识别表格、解析公式的智能多模态模型。最棒的是现在有了一个开源镜像让你不用折腾环境配置不用处理复杂的依赖关系一键就能启动一个功能完整的Web服务。这篇文章我就带你从零开始手把手教你如何部署和使用这个GLM-OCR镜像。整个过程非常简单哪怕你之前没接触过深度学习模型部署也能在10分钟内搞定。我们会从最基础的启动服务开始一步步教你如何使用Web界面怎么通过代码调用API以及遇到常见问题该怎么解决。2. 什么是GLM-OCR在开始动手之前我们先花两分钟了解一下GLM-OCR到底是什么它能做什么这样你用起来心里更有底。2.1 核心能力不只是文字识别GLM-OCR和传统的OCR工具最大的区别在于它真的能“理解”文档。传统的OCR可能只能识别出一个个字符但GLM-OCR能理解文档的结构和语义。举个例子你上传一张包含表格的图片传统OCR可能把表格线识别成乱码把表头、数据混在一起输出GLM-OCR能识别出这是一个表格自动整理成结构化的数据甚至能理解表头和数据的关系它主要支持三大功能文本识别最基础的功能识别图片中的文字支持中英文混合表格识别自动检测表格区域提取表格结构输出可编辑的表格格式公式识别识别数学公式、化学方程式等输出LaTeX格式2.2 技术亮点为什么它更聪明GLM-OCR背后用了一些很巧妙的技术设计这也是它比普通OCR更强大的原因多模态架构它同时处理图像和文本信息视觉部分用CogViT编码器提取图像特征语言部分用GLM解码器生成识别结果两者通过一个轻量级的连接器协同工作多令牌预测传统的OCR是一个字一个字识别GLM-OCR可以同时预测多个字符大大提升了识别速度全任务强化学习在训练时同时优化文本、表格、公式等多个任务让模型在各种场景下都有不错的表现不过你不用担心这些技术细节因为镜像已经把所有复杂的东西都封装好了你只需要知道它很强大、很好用就行了。3. 环境准备与快速部署好了理论部分了解得差不多了现在我们开始动手。首先确保你的环境满足基本要求。3.1 系统要求在开始之前先检查一下你的机器配置操作系统Linux推荐Ubuntu 20.04或以上内存至少8GB RAM存储空间至少10GB可用空间模型文件2.5GBGPU可选但推荐有GPU的话识别速度会快很多需要NVIDIA显卡显存至少4GB网络能正常访问互联网首次运行需要下载模型如果你用的是CPU也能运行只是识别速度会慢一些。对于偶尔使用或者测试来说完全够用。3.2 一键启动服务这是整个部署过程中最简单的部分只需要两条命令。镜像已经预装了所有需要的环境包括Python、PyTorch、各种依赖库还有最重要的——GLM-OCR模型文件。# 第一步进入项目目录 cd /root/GLM-OCR # 第二步启动服务 ./start_vllm.sh执行第二条命令后你会看到类似这样的输出正在加载模型... 模型加载完成 服务已启动在 http://0.0.0.0:7860第一次启动需要一点耐心因为要加载2.5GB的模型文件到内存中。根据你的机器性能这个过程大概需要1-2分钟。之后再次启动就会快很多。如果一切顺利现在GLM-OCR的Web服务已经在你的机器上运行起来了监听在7860端口。4. Web界面使用指南服务启动后最直观的使用方式就是通过Web界面。这是一个基于Gradio构建的交互式界面设计得很简洁即使完全不懂技术也能轻松上手。4.1 访问Web界面打开你的浏览器在地址栏输入http://你的服务器IP地址:7860如果你是在本地机器上部署的可以直接用http://localhost:7860你会看到一个干净的界面主要分为三个区域左侧图片上传区域和功能选择中间识别结果展示区域右侧历史记录和设置选项4.2 三步完成文档识别使用Web界面识别文档只需要简单的三步第一步上传图片点击“上传”按钮选择你要识别的图片文件。支持常见的图片格式PNG、JPG、JPEG最常用的格式WEBP网页常用的压缩格式BMP位图格式图片大小建议不要超过10MB太大的图片可能会影响识别速度。第二步选择识别任务根据你的图片内容选择对应的识别模式文本识别适用于普通的文档、书籍、海报等表格识别适用于Excel截图、数据报表、统计表格等公式识别适用于数学公式、化学方程式、物理公式等如果你不确定该选哪个可以先试试“文本识别”GLM-OCR会自动判断内容类型。第三步开始识别点击“开始识别”按钮等待几秒钟具体时间取决于图片复杂度和你的硬件配置。识别完成后结果会显示在右侧区域。对于文本识别你会看到纯文本输出对于表格识别会看到结构化的表格数据对于公式识别会输出LaTeX代码你可以直接复制到论文或者文档中使用。4.3 实用小技巧在实际使用中有几个小技巧能让识别效果更好图片质量很重要尽量使用清晰、正对拍摄的图片避免强烈的反光或阴影如果图片歪斜可以先用简单的图片编辑工具调整一下角度复杂文档分段处理如果文档很长包含多种内容比如既有文字又有表格可以把文档截图分成几个部分分别识别每个部分最后手动拼接结果批量处理建议Web界面一次只能处理一张图片如果你有很多图片需要识别建议使用后面会讲到的Python API这样可以写个脚本批量处理。5. Python API调用方法除了Web界面GLM-OCR还提供了Python API方便你集成到自己的项目中或者进行批量处理。调用方法非常简单几行代码就能搞定。5.1 基础调用示例我们先来看一个最简单的文本识别例子from gradio_client import Client # 连接到本地服务 client Client(http://localhost:7860) # 准备图片路径和提示词 image_path /path/to/your/document.png prompt Text Recognition: # 告诉模型我们要做文本识别 # 调用识别接口 result client.predict( imageimage_path, promptprompt, api_name/predict # 这是固定的API名称 ) print(识别结果) print(result)这段代码做了三件事创建客户端连接到我们的GLM-OCR服务指定要识别的图片和任务类型调用predict接口获取结果5.2 不同任务的调用方式GLM-OCR支持三种主要任务调用时只需要改变prompt参数# 表格识别 table_result client.predict( image/path/to/table.png, promptTable Recognition:, # 注意这里的提示词 api_name/predict ) # 公式识别 formula_result client.predict( image/path/to/formula.png, promptFormula Recognition:, # 公式识别的提示词 api_name/predict ) # 如果不指定prompt默认是文本识别 default_result client.predict( image/path/to/image.png, prompt, # 空提示词默认文本识别 api_name/predict )5.3 批量处理脚本示例如果你有很多图片需要处理可以写一个简单的批量处理脚本import os from gradio_client import Client import json class GLMOCRProcessor: def __init__(self, server_urlhttp://localhost:7860): self.client Client(server_url) def process_image(self, image_path, task_typetext): 处理单张图片 # 根据任务类型选择提示词 prompts { text: Text Recognition:, table: Table Recognition:, formula: Formula Recognition: } prompt prompts.get(task_type, Text Recognition:) try: result self.client.predict( imageimage_path, promptprompt, api_name/predict ) return {status: success, result: result} except Exception as e: return {status: error, message: str(e)} def batch_process(self, image_dir, output_fileresults.json): 批量处理目录下的所有图片 results [] # 支持常见的图片格式 image_extensions [.png, .jpg, .jpeg, .webp, .bmp] for filename in os.listdir(image_dir): if any(filename.lower().endswith(ext) for ext in image_extensions): image_path os.path.join(image_dir, filename) print(f正在处理: {filename}) # 这里可以根据文件名判断任务类型或者统一用文本识别 result self.process_image(image_path, task_typetext) results.append({ filename: filename, path: image_path, result: result }) # 保存结果到JSON文件 with open(output_file, w, encodingutf-8) as f: json.dump(results, f, ensure_asciiFalse, indent2) print(f处理完成结果已保存到: {output_file}) return results # 使用示例 if __name__ __main__: processor GLMOCRProcessor() # 处理单张图片 single_result processor.process_image(document.png, task_typetext) print(single_result) # 批量处理 # processor.batch_process(./images, output.json)这个脚本提供了两个主要功能process_image()处理单张图片可以指定任务类型batch_process()批量处理整个目录下的图片自动识别图片格式你可以根据自己的需求修改这个脚本比如添加进度条、错误重试、结果后处理等功能。6. 常见问题与解决方案在实际使用中你可能会遇到一些问题。别担心大部分问题都有简单的解决方法。6.1 服务启动问题问题1端口7860被占用Error: Port 7860 is already in use解决方法# 查看哪个进程占用了7860端口 lsof -i :7860 # 如果确实有进程占用停止它 kill 进程ID # 或者换个端口启动修改start_vllm.sh脚本 # 把里面的7860改成其他端口比如7861问题2首次启动特别慢这是正常的因为需要下载和加载模型文件。模型文件有2.5GB根据你的网络速度和磁盘性能可能需要几分钟到十几分钟。首次加载后再次启动就会快很多。问题3内存不足如果看到内存不足的错误可以尝试# 查看当前内存使用情况 free -h # 如果内存确实紧张可以尝试 # 1. 关闭其他不必要的程序 # 2. 增加交换空间如果有硬盘空间 sudo fallocate -l 4G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile6.2 识别效果问题问题1文字识别不准确可能原因图片质量差、文字太小、字体特殊解决方法确保图片清晰分辨率足够如果是手写体尽量书写工整对于特殊字体可以尝试调整图片对比度问题2表格识别结构混乱可能原因表格线不清晰、单元格合并复杂解决方法确保表格线在图片中清晰可见复杂的表格可以尝试分段识别手动调整识别结果GLM-OCR通常能识别出大部分结构问题3公式识别错误可能原因公式太复杂、符号模糊解决方法确保公式部分在图片中清晰复杂的公式可以拆分成多个部分识别检查输出的LaTeX代码手动修正小错误6.3 性能优化建议如果你觉得识别速度不够快可以尝试以下优化使用GPU加速如果你有NVIDIA显卡确保PyTorch能正确识别CUDA。启动脚本应该会自动检测GPU如果没有可以检查# 检查PyTorch是否能识别CUDA python -c import torch; print(torch.cuda.is_available())调整批量大小如果是批量处理可以适当调整同时处理的图片数量。在API调用时可以一次传入多张图片如果API支持的话。图片预处理在识别前对图片进行预处理可以提升识别速度和准确率调整到合适的大小建议宽度不超过2000像素转换为灰度图对于黑白文档增强对比度7. 进阶使用与定制如果你对GLM-OCR的基本功能已经熟悉了可以看看这些进阶用法。7.1 自定义模型参数虽然镜像提供了默认配置但你可以根据需要调整一些参数。修改serve_gradio.py文件中的相关设置# 在模型加载部分可以调整这些参数 model_args { model_name_or_path: /root/ai-models/ZhipuAI/GLM-OCR, trust_remote_code: True, device_map: auto, # 自动选择设备可以改为cuda:0强制使用GPU torch_dtype: torch.float16, # 使用半精度浮点数节省显存 max_length: 4096, # 最大生成长度对于长文档可以适当增加 }7.2 集成到其他系统GLM-OCR的API非常简单可以轻松集成到各种系统中集成到Web应用# Flask示例 from flask import Flask, request, jsonify from gradio_client import Client app Flask(__name__) ocr_client Client(http://localhost:7860) app.route(/ocr, methods[POST]) def ocr_api(): # 从请求中获取图片和任务类型 image_file request.files[image] task_type request.form.get(task_type, text) # 保存临时文件 temp_path f/tmp/{image_file.filename} image_file.save(temp_path) # 调用GLM-OCR prompts { text: Text Recognition:, table: Table Recognition:, formula: Formula Recognition: } result ocr_client.predict( imagetemp_path, promptprompts.get(task_type, Text Recognition:), api_name/predict ) # 清理临时文件 os.remove(temp_path) return jsonify({result: result}) if __name__ __main__: app.run(host0.0.0.0, port5000)集成到自动化流程# 自动化文档处理管道 def document_processing_pipeline(document_path): 完整的文档处理流程 1. 提取文本内容 2. 识别表格并转换为Excel 3. 提取公式并转换为LaTeX 4. 整理结构化数据 # 这里可以添加更多的处理步骤 # 比如调用其他NLP模型进行内容分析 # 或者将结果存储到数据库 return processed_data7.3 监控与日志了解服务的运行状态很重要GLM-OCR提供了日志功能# 查看实时日志 tail -f /root/GLM-OCR/logs/glm_ocr_*.log # 查看错误日志 grep -i error /root/GLM-OCR/logs/glm_ocr_*.log # 查看服务运行时间 ps aux | grep serve_gradio日志中会记录服务启动和停止时间每次识别的请求信息识别耗时和资源使用情况错误和警告信息8. 总结GLM-OCR开源镜像的部署和使用其实比想象中简单得多。我们回顾一下今天学到的关键点部署方面真的就是两条命令的事。镜像已经把最复杂的环境配置、依赖安装、模型下载都搞定了你只需要启动服务就行。这种开箱即用的体验对于想要快速尝试AI能力的开发者来说太友好了。使用方面你有两种选择喜欢图形界面的可以用Web服务点点鼠标就能完成识别喜欢编程的可以用Python API几行代码就能集成到自己的项目中。特别是批量处理功能对于有大量文档需要数字化的场景特别实用。效果方面GLM-OCR在复杂文档识别上确实有优势。它不只是识别文字还能理解文档结构这对处理表格、公式这些传统OCR的难点很有帮助。当然它也不是万能的对于特别模糊或者排版极其复杂的文档可能还需要人工校对。最后给几个实用建议如果是生产环境使用建议部署在有GPU的服务器上识别速度会快很多对于重要的文档识别后最好人工检查一下特别是数字和专有名词可以结合其他工具使用比如用GLM-OCR提取文字再用其他NLP模型进行内容分析这个镜像最大的价值在于它把原本需要专业AI知识才能使用的先进OCR技术变成了人人都能用的工具。无论你是学生、研究人员、开发者还是普通用户现在都能轻松享受AI带来的便利。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

GLM-OCR开源镜像免配置部署指南:一键启动7860端口Web服务

GLM-OCR开源镜像免配置部署指南:一键启动7860端口Web服务 1. 引言 你是不是遇到过这样的场景:手头有一堆扫描的合同、发票或者学术论文图片,想把里面的文字、表格甚至数学公式都提取出来,但一个个手动录入太费时间,用…...

Qwen3-ForcedAligner-0.6B步骤详解:自定义词典注入+专业术语强化识别

Qwen3-ForcedAligner-0.6B步骤详解:自定义词典注入专业术语强化识别 1. 引言:当语音识别遇上专业术语 你有没有遇到过这样的场景? 一段关于“Transformer架构”的技术讨论录音,识别出来的文字却是“变压器架构”;一…...

StructBERT零样本分类-中文-base生产环境:日均10万+文本零样本分类部署方案

StructBERT零样本分类-中文-base生产环境:日均10万文本零样本分类部署方案 1. 模型核心能力解析 StructBERT零样本分类模型是阿里达摩院专门为中文文本处理设计的智能分类工具。这个模型最大的特点就是"零样本"——你不需要准备训练数据,不需…...

Qwen3-ASR-0.6B保姆级部署:CSDN GPU实例创建→安全组开放7860→镜像启动

Qwen3-ASR-0.6B保姆级部署:CSDN GPU实例创建→安全组开放7860→镜像启动 1. 前言:为什么选择Qwen3-ASR-0.6B 如果你正在寻找一个既强大又轻量的语音识别解决方案,Qwen3-ASR-0.6B绝对值得关注。这个由阿里云通义千问团队开发的开源模型&…...

GTE+SeqGPT生成多样性评估:同一输入下n=5采样结果覆盖度与重复率统计

GTESeqGPT生成多样性评估:同一输入下n5采样结果覆盖度与重复率统计 1. 引言 当你用AI模型生成文本时,有没有遇到过这样的困惑:同一个问题问了好几遍,得到的回答都差不多?或者你希望AI能给你提供更多样化的创意&#…...

比迪丽LoRA开源价值解析:免授权费、可商用、支持二次开发定制

比迪丽LoRA开源价值解析:免授权费、可商用、支持二次开发定制 1. 为什么比迪丽LoRA值得你关注? 如果你玩过AI绘画,肯定遇到过这样的烦恼:想画一个特定的动漫角色,比如《龙珠》里的比迪丽,结果要么画得不像…...

中文文本分割模型部署指南:BERT+Gradio+ModelScope组合

中文文本分割模型部署指南:BERTGradioModelScope组合 1. 快速了解文本分割的价值 你有没有遇到过这样的情况:拿到一份长长的会议记录或者讲座文字稿,从头读到尾感觉特别费劲?文字密密麻麻连成一片,找不到重点&#x…...

Leather Dress Collection开箱即用方案:SSH连接后一行命令启动皮革时装生成服务

Leather Dress Collection开箱即用方案:SSH连接后一行命令启动皮革时装生成服务 你是不是也遇到过这样的烦恼?想用AI生成一些酷炫的皮革时装设计图,结果发现要安装一堆软件、配置复杂的环境、下载各种模型,折腾半天还没跑起来。 …...

文脉定序快速部署:开源镜像开箱即用,免编译免依赖安装教程

文脉定序快速部署:开源镜像开箱即用,免编译免依赖安装教程 你是不是也遇到过这样的问题?用搜索引擎或者自己的知识库找资料,明明搜出来一大堆结果,但排在前面的往往不是最相关的,真正有用的答案可能藏在第…...

Nano-Banana开源镜像教程:基于Diffusers+PyTorch的本地化部署

Nano-Banana开源镜像教程:基于DiffusersPyTorch的本地化部署 1. 引言:让AI帮你“拆解”万物 你有没有想过,把一双复杂的运动鞋、一件精致的连衣裙,或者一台精密的相机,像说明书一样“拆开”来展示?不是真…...

GME-Qwen2-VL-2B-Instruct入门指南:图文匹配工具与知识图谱构建联动方案

GME-Qwen2-VL-2B-Instruct入门指南:图文匹配工具与知识图谱构建联动方案 1. 工具简介与核心价值 GME-Qwen2-VL-2B-Instruct是一个专门用于图文匹配度计算的本地化工具,基于先进的视觉语言模型开发。这个工具解决了传统图文匹配中的关键痛点&#xff1a…...

Qwen3-0.6B-FP8惊艳效果实录:Chainlit界面实时响应思维模式/非思维模式切换

Qwen3-0.6B-FP8惊艳效果实录:Chainlit界面实时响应思维模式/非思维模式切换 你有没有想过,一个模型既能像数学家一样严谨推理,又能像朋友一样轻松聊天?今天要介绍的Qwen3-0.6B-FP8,就实现了这种"双重人格"的…...

卡证检测矫正模型效果惊艳:矫正后卡证四边平行度误差<0.5°

卡证检测矫正模型效果惊艳&#xff1a;矫正后卡证四边平行度误差<0.5 你是否遇到过这样的烦恼&#xff1f;用手机拍摄身份证、驾照等证件时&#xff0c;因为角度不正&#xff0c;拍出来的照片总是歪歪扭扭&#xff0c;边缘不齐。手动裁剪和矫正不仅费时费力&#xff0c;还很…...

LightOnOCR-2-1B从零部署:CentOS/Ubuntu下镜像启动+API调试完整指南

LightOnOCR-2-1B从零部署&#xff1a;CentOS/Ubuntu下镜像启动API调试完整指南 本文面向需要快速部署多语言OCR服务的开发者和技术团队&#xff0c;提供从环境准备到API调用的完整实操指南。 1. 环境准备与系统要求 在开始部署前&#xff0c;请确保您的服务器满足以下基本要求…...

Qwen3-TTS效果对比评测:1.7B小模型 vs 主流TTS在中英文情感表达差异

Qwen3-TTS效果对比评测&#xff1a;1.7B小模型 vs 主流TTS在中英文情感表达差异 评测声明&#xff1a;本文基于实际测试结果&#xff0c;对比Qwen3-TTS-1.7B模型与主流TTS方案在中英文情感表达方面的差异&#xff0c;所有测试音频均使用相同文本和相似音色进行生成&#xff0c;…...

Asian Beauty Z-Image Turbo实操教程:结合ControlNet实现姿势精准控制

Asian Beauty Z-Image Turbo实操教程&#xff1a;结合ControlNet实现姿势精准控制 想用AI生成一张充满东方韵味的古风美人图&#xff0c;却总被模型“自由发挥”的奇怪姿势劝退&#xff1f;比如&#xff0c;你明明想要一个“执扇回眸”的优雅姿态&#xff0c;结果生成的却是“…...

granite-4.0-h-350m部署详解:Ollama模型量化+INT4推理加速教程

granite-4.0-h-350m部署详解&#xff1a;Ollama模型量化INT4推理加速教程 想体验一个轻量、快速、多语言能力还不错的AI助手吗&#xff1f;今天要聊的granite-4.0-h-350m&#xff0c;就是一个能让你在普通电脑甚至边缘设备上跑起来的“小钢炮”模型。 它只有3.5亿参数&#x…...

flying RC 飞控出现:PreArm: Internal errors 0x4000 I:215 spi:fail

这个问题是飞控设置导致的问题&#xff0c;解决方案&#xff1a; LOG_BACKEND_TYPE 1 然后在arming_check 中把log检查关闭掉 问题链接&#xff1a;https://discuss.ardupilot.org/t/critical-prearm-internal-errors-0x4000-l-215-spi-fail/113967/3...

【JDK17-HttpClient】异步请求的线程模型是什么?使用什么线程池?如何自定义?

深度解密 JDK17 HttpClient 异步请求线程模型:线程池选择、自定义与生产调优全指南 发布时间:2023-10-31 当前聚焦技术问题:异步请求的线程模型是什么?使用什么线程池?如何自定义? 一、问题引入:异步调用背后的线程陷阱 在高并发微服务架构中,HTTP 客户端的异步调用能…...

find/some/every/includes:数组查找与判断实战用法|JS 基础语法与数据操作篇

【find/some/every/includes】数组查找与判断&#xff1a;从核心逻辑到落地实操&#xff0c;彻底搞懂数组判断的最佳写法&#xff0c;避开高频坑&#xff01; &#x1f4d1; 文章目录 前言一、先搞清楚&#xff1a;find / some / every / includes 在干什么二、数组查找与判断…...

1. LangGraph 综述

Langgraph 系统教程(基于 1.1.X 版本) LangGraph 综述 LangGraph 安装指南 LangGraph 快速入门 用 LangGraph 的思维构建智能体 LangGraph 工作流与智能体详解...

二分答案题目

二分答案&#xff08;oj&#xff1a;洛谷&#xff09; 姊妹篇&#xff1a;二分答案&#xff08;浮点数&#xff09;二分答案与浮点数 二分查找 二分查找 二分答案与贪心 文章目录二分答案&#xff08;oj&#xff1a;洛谷&#xff09;前言题目一&#xff1a;P1873 [COCI 2011/20…...

咨询进阶——解读战略解码方法– 战略地图的应用【附全文阅读】

该方案适用于企业战略规划人员、管理层、人力资源及运营负责人、战略咨询从业者。其重要性体现在&#xff1a;针对战略描述模糊、执行脱节、无形资产价值难转化等痛点&#xff0c;依托平衡计分卡构建 “财务 - 客户 - 内部流程 - 学习与成长” 四维战略地图体系。通过 5S 步骤清…...

投入式浊度仪 投入式浊度计

水质浊度监测是环保、水利、市政等领域的核心需求&#xff0c;传统浊度监测设备普遍存在采样滞后、维护繁琐等痛点&#xff0c;难以满足实时精准监测需求。这款高精度投入式浊度仪&#xff0c;以技术革新破解行业痛点&#xff0c;凭借便捷操作与稳定性能&#xff0c;广泛应用于…...

非接触式路面传感器 非接触式路面状况检测器

路面状态监测是道路安全运维的核心环节&#xff0c;传统埋入式传感器存在安装繁琐、易损坏、维护成本高的痛点&#xff0c;难以适配复杂交通场景需求。非接触式路面传感器依托先进遥感技术&#xff0c;以无损安装、高精度监测的核心优势&#xff0c;打破传统监测局限&#xff0…...

Agent社会实验室

当你的分身开始社交&#xff0c;会发生什么&#xff1f; Social Mirror 晚间即将震撼发布&#xff5e; 知乎 x Second Me 全球A2A黑客松...

浏览器存储实战:localStorage/sessionStorage/cookie 用法详解|JS 进阶必会篇

【浏览器存储&#xff08;localStorage/sessionStorage/cookie&#xff09;】【前端开发常见场景】&#xff1a;从【核心特性与用法】到【落地实操选型】&#xff0c;彻底搞懂浏览器存储的最佳用法&#xff0c;避开跨tab不同步、容量超限、XSS攻击等高频坑&#xff01; &#x…...

Minecraft 1.21.1 NeoForge开发笔记 #1 开发环境

1.1安装JavaMinecraft&#xff08;以下简称MC&#xff09;1.21.1要求的最低Java版本为21。从oracle官网下载该版本的JDK并安装&#xff0c;并配置环境变量&#xff0c;该环节操作细节大家可以从很多地方找到就不赘述了。1.2下载NeoForge开发MDK登录NeoForge官网&#xff1a;neo…...

OpenClaw版本降级实操(含全量卸载)

降级的核心动因是新版本有 Bug、兼容性差,或功能 / 性能不符合需求,比如2026.2.3 是更稳定、适配性更好的版本; 实操中最常见的是 “配置 / 模型兼容问题” 和 “新版本 Bug”,这也是之前降级指南中强调 “重置配置”“验证模型” 的原因; 降级本质是 “放弃新版本的新功能…...

NT3H1101W0FHKH 中文规格书开放获取(完整中英对照/能量采集NFC标签IC)

项目说明&#xff1a; 已完成NXP NT3H1101W0FHKH 能量采集NFC标签IC官方数据手册的完整汉化&#xff0c;主要特性&#xff1a;页数&#xff1a;65页&#xff08;中文版&#xff09;/130页&#xff08;双语版&#xff09;格式&#xff1a;完美保留原版排版、状态图、表格与公式文…...