当前位置: 首页 > article >正文

SOONet视频时序定位入门必看:3步完成本地Web服务搭建(含A100适配说明)

SOONet视频时序定位入门必看3步完成本地Web服务搭建含A100适配说明1. 引言让AI帮你从长视频里“找片段”你有没有过这样的经历面对一个长达几小时的会议录像、教学视频或者家庭录像只想快速找到其中某个特定场景——比如“领导总结发言的那段”、“老师讲解公式的那几分钟”或者“宝宝第一次走路的画面”。以前你只能手动拖动进度条凭感觉一点点找费时又费力。现在有个叫SOONet的AI模型能帮你彻底解决这个痛点。你只需要用一句简单的自然语言描述比如“a man takes food out of the refrigerator”它就能在几分钟甚至几秒钟内从一部长达数小时的视频中精准定位到相关片段的开始和结束时间。这篇文章就是为你准备的SOONet本地部署“保姆级”教程。我会带你用最简单的三步在自己的电脑或服务器上搭建一个Web服务让你能通过浏览器轻松使用这个强大的视频定位工具。无论你是开发者、研究人员还是普通视频爱好者都能快速上手。特别地我们还会详细说明在性能强大的A100 GPU上的适配和优化要点。2. 准备工作环境与模型在开始动手之前我们需要确保“舞台”已经搭好。这包括准备好运行SOONet所需的软件环境和核心的模型文件。2.1 硬件与软件环境要求首先我们来看看对“舞台”的基本要求GPU核心SOONet依赖GPU进行加速推理。推荐使用NVIDIA的GPU。我们会在A100上进行测试和说明但其他具备足够显存的GPU如V100、3090等同样可以运行。内存与存储建议系统内存RAM不少于8GB。此外需要预留大约2GB的磁盘空间来存放模型文件。Python环境这是运行SOONet的“语言”。你需要安装Python 3.7或更高版本。我们的教程基于Python 3.10.19这是一个稳定且兼容性好的选择。接下来安装必要的“工具包”Python库。创建一个新的Python虚拟环境是个好习惯可以避免包版本冲突。然后执行以下安装命令# 安装核心的深度学习框架和计算机视觉库 pip install torch torchvision opencv-python # 安装ModelScope框架这是SOONet模型运行的平台 pip install modelscope # 安装Gradio用于构建我们即将用到的Web界面 pip install gradio6.4.0 # 安装文本处理相关的辅助库 pip install ftfy regex # 特别注意需要安装特定版本的numpy pip install numpy2.0为什么是numpy2.0这是因为一些底层库如某些版本的OpenCV或PyTorch扩展可能尚未完全兼容numpy 2.0这个较新的主要版本。锁定一个稍旧的稳定版本如1.x可以避免潜在的兼容性错误这是深度学习项目部署中一个常见的小技巧。2.2 获取SOONet模型文件模型文件是SOONet的“大脑”。你需要获取以下核心文件并将它们放在一个统一的目录下例如/root/ai-models/iic/multi-modal_soonet_video-temporal-grounding/。你的模型目录结构应该看起来像这样/root/ai-models/iic/multi-modal_soonet_video-temporal-grounding/ ├── SOONet_MAD_VIT-B-32_4Scale_10C.pth # 主模型权重文件 (约264MB) ├── ViT-B-32.pt # 视觉编码器权重文件 (约338MB) ├── configuration.json # 模型配置文件 └── soonet_video_temporal_grounding_test_video.mp4 # 可选的测试视频主模型文件 (.pth)这是SOONet的核心包含了它学习到的如何关联文本和视频时序的知识。视觉编码器文件 (.pt)用于提取视频帧的特征是模型理解视频内容的基础。配置文件 (.json)告诉程序如何加载和使用上述模型文件。这些文件通常可以从ModelScope模型库或项目官方仓库下载。确保这些文件都已就位是我们下一步成功启动服务的关键。3. 三步搭建本地Web服务环境准备好后我们就可以开始搭建服务了。整个过程非常清晰只有三个主要步骤。3.1 第一步启动后端服务首先我们需要进入项目的工作目录。根据提供的指南执行以下命令cd /root/multi-modal_soonet_video-temporal-grounding python /root/multi-modal_soonet_video-temporal-grounding/app.py当你运行这行命令后终端会开始加载模型。你会看到一系列输出信息包括加载配置、加载模型权重等。当看到类似Running on local URL: http://0.0.0.0:7860的提示时恭喜你后端服务已经成功启动了这个过程在做什么cd命令将你的终端工作路径切换到包含服务启动脚本 (app.py) 的目录。python app.py命令执行这个Python脚本。这个脚本利用Gradio库快速创建了一个Web服务器并将SOONet模型的功能封装成了这个服务器可以提供的接口。3.2 第二步访问Web界面服务启动后它就在你的机器上的7860端口“监听”请求。你可以通过浏览器访问它。如果你就在运行服务的这台电脑上操作直接在浏览器地址栏输入http://localhost:7860或http://127.0.0.1:7860。如果服务运行在另一台服务器上比如云服务器你需要输入http://你的服务器IP地址:7860。例如服务器IP是192.168.1.100那么就访问http://192.168.1.100:7860。访问成功后你将会看到一个简洁的Web界面。它通常包含几个主要部分一个文本框让你输入描述文字一个区域让你上传视频文件以及一个开始处理的按钮。3.3 第三步使用与获取结果现在来到了最有趣的环节——使用它。整个操作流程和用任何一个普通网站没有区别输入查询文本在“Query Text”或“查询文本”输入框中用英文描述你想在视频中查找的内容。例如a person is riding a bicycle一个人在骑自行车、a cat jumps onto the table一只猫跳上桌子。尽量使用简单、直接的描述效果最好。上传视频文件点击上传区域选择你电脑里的一个视频文件。SOONet支持MP4、AVI、MOV等常见格式。点击开始定位点击“Submit”或“开始定位”按钮。界面会显示“Processing...”之类的状态表示模型正在工作。查看定位结果处理完成后页面会显示结果。结果通常会包括时间戳找到的片段的开始时间和结束时间例如00:01:23 - 00:01:45。置信度分数一个0到1之间的数字表示模型对这个片段匹配你描述的确信程度。分数越高通常意味着匹配度越好。至此你已经完成了从零到一的完整部署和使用流程。你可以尝试用不同的描述和视频看看SOONet的精准度如何。4. A100 GPU适配与性能优化如果你有幸使用NVIDIA A100这样的高性能GPUSOONet的表现会更加出色。这里有一些针对A100的适配说明和优化建议。4.1 A100环境配置要点A100采用了安培Ampere架构在安装PyTorch等深度学习框架时为了充分发挥其性能建议使用CUDA 11.x及以上版本并安装对应的、支持安培架构的PyTorch。你可以使用以下命令来安装兼容A100的PyTorch以CUDA 11.8为例pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118安装后可以在Python中运行以下代码验证GPU是否被正确识别和利用import torch print(fPyTorch版本: {torch.__version__}) print(fCUDA是否可用: {torch.cuda.is_available()}) print(fGPU设备名称: {torch.cuda.get_device_name(0)}) print(f当前显存占用: {torch.cuda.memory_allocated(0)/1024**3:.2f} GB)如果一切正常你会看到A100被识别出来并且CUDA可用。4.2 性能表现与优势在A100上运行SOONet你能直观感受到两大优势极快的推理速度SOONet论文中提到的“14.6x - 102.8x 的速度提升”是相对于传统逐帧扫描方法而言的。在A100上这种速度优势会被硬件进一步放大。处理一段几分钟的视频定位过程可能只需要几秒钟。高效的长视频处理A100拥有大容量显存如40GB或80GB版本。这意味着你可以一次性处理更长的视频而无需担心显存不足。SOONet本身设计就支持小时级视频结合A100的大显存处理超长视频如完整电影、全天监控录像的可行性大大增加。一个简单的性能对比感受你可以用同一段视频和查询分别在CPU如果支持和A100 GPU上运行。在A100上从点击按钮到出结果的时间通常会比CPU快数十倍甚至上百倍这种体验提升是颠覆性的。5. 进阶使用与代码集成除了使用Web界面SOONet也提供了Python API方便你将视频时序定位能力集成到自己的自动化脚本或应用程序中。5.1 通过Python代码直接调用下面是一个完整的示例展示如何在你自己的Python程序中使用SOONetimport cv2 from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks # 1. 初始化SOONet推理管道 # 指定任务类型为‘video_temporal_grounding’并给出模型所在的目录路径 soonet_pipeline pipeline( Tasks.video_temporal_grounding, model/root/ai-models/iic/multi-modal_soonet_video-temporal-grounding # 请修改为你的实际模型路径 ) # 2. 准备输入 # 文本描述你想在视频中找什么 query_text a man opens the refrigerator and takes out a drink # 视频文件路径 video_path path/to/your/home_video.mp4 # 3. 执行推理 # 将文本和视频路径组成一个元组传入 result soonet_pipeline((query_text, video_path)) # 4. 处理结果 print( 视频时序定位结果 ) print(f查询文本: {query_text}) print(f视频文件: {video_path}) # 结果是一个字典包含scores和timestamps if result[scores]: for i, (score, (start_sec, end_sec)) in enumerate(zip(result[scores], result[timestamps])): # 将秒数转换为时分秒格式更易读 start_time f{int(start_sec//3600):02d}:{int((start_sec%3600)//60):02d}:{int(start_sec%60):02d} end_time f{int(end_sec//3600):02d}:{int((end_sec%3600)//60):02d}:{int(end_sec%60):02d} print(f片段 {i1}:) print(f 时间范围: {start_time} - {end_time}) print(f 置信度: {score:.4f}) else: print(未在视频中找到匹配的片段。)这段代码做了以下几件事利用ModelScope的pipeline函数加载我们之前准备好的SOONet模型。定义你要搜索的内容query_text和视频文件位置video_path。调用模型进行推理。将模型返回的以秒为单位的时间戳转换成更容易理解的“时:分:秒”格式并打印出来。5.2 处理批量任务与结果导出基于上面的代码你可以轻松地扩展功能例如批量处理多个查询或多个视频或者将结果保存到文件如JSON或CSV中方便后续分析。import json # 假设有多个查询任务 tasks [ {query: person walking dog, video: video1.mp4}, {query: car parking, video: video2.mp4}, ] all_results [] for task in tasks: result soonet_pipeline((task[query], task[video])) # 整理结果 task_result { query: task[query], video: task[video], timestamps: result[timestamps], scores: result[scores] } all_results.append(task_result) print(f处理完成: {task[query]}) # 将所有结果保存到JSON文件 with open(soonet_batch_results.json, w) as f: json.dump(all_results, f, indent2) print(批量处理结果已保存到 soonet_batch_results.json)6. 常见问题与排错指南在部署和使用过程中你可能会遇到一些小问题。这里列出一些常见的“坑”及其解决方法。问题启动时提示“ModuleNotFoundError”或“ImportError”。原因缺少某个Python库或者库的版本不兼容。解决请严格按照“2.1 硬件与软件环境要求”一节中的命令安装所有依赖。最稳妥的方法是使用项目提供的requirements.txt文件如果有的话进行安装pip install -r requirements.txt。问题访问http://localhost:7860时连接失败。原因1后端服务没有成功启动。请检查终端窗口是否有错误信息。原因2端口7860已被其他程序占用。解决回到终端确认app.py脚本是否在正常运行并检查是否有错误日志。如果端口被占用可以修改app.py文件如果允许将server_port7860改为其他未被占用的端口如server_port7861然后重启服务。问题模型加载失败提示找不到文件。原因模型文件路径不正确或文件缺失。解决使用ls -lh命令仔细核对“2.2 获取SOONet模型文件”一节中提到的模型文件是否全部存在于指定目录。并确保在初始化pipeline或启动app时指向的路径是正确的。问题处理视频时程序崩溃或报内存错误。原因视频分辨率过高或长度太长导致显存不足。解决对A100用户这通常不是问题但如果是特别大的视频可以尝试在代码中或修改配置让模型以较低的分辨率或采样率处理视频。对显存较小的GPU用户考虑先将长视频切割成较短的片段分别处理。问题定位结果不准确或找不到片段。原因1查询文本描述不够精确或使用了模型不擅长的表述。解决尝试使用更简单、更客观的英文描述。例如将“一个人高兴地跑着”改为“a person is running”。原因2视频内容本身模糊、光线太暗或目标太小。解决这属于模型能力的边界。目前的技术对清晰、主体明显的视频片段定位效果更好。7. 总结通过这篇教程我们完整地走通了SOONet视频时序定位模型的本地化部署和应用流程。我们来简单回顾一下核心要点核心价值SOONet解决了从长视频中快速、精准定位特定片段的难题只需一句文字描述极大提升了效率。部署三步曲准备环境与模型 → 启动Web后端服务 → 通过浏览器访问并使用。这个过程清晰简单即便是初学者也能跟随完成。A100加持在A100这样的高性能GPU上SOONet能发挥出最快的推理速度并能轻松应对小时级别的长视频处理任务体验如虎添翼。灵活集成除了开箱即用的Web界面SOONet还提供了Python API让你能够将这项强大的能力嵌入到自己的数据流水线或应用系统中实现自动化处理。无论是用于管理个人视频库、分析监控录像还是作为视频编辑工具的智能插件SOONet都提供了一个非常出色的技术基础。现在你已经掌握了搭建它的钥匙下一步就是发挥你的创意用它去解决实际场景中的问题吧。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

SOONet视频时序定位入门必看:3步完成本地Web服务搭建(含A100适配说明)

SOONet视频时序定位入门必看:3步完成本地Web服务搭建(含A100适配说明) 1. 引言:让AI帮你从长视频里“找片段” 你有没有过这样的经历?面对一个长达几小时的会议录像、教学视频或者家庭录像,只想快速找到其…...

renderer数学库解析:3D图形学中的向量、矩阵与四元数

renderer数学库解析:3D图形学中的向量、矩阵与四元数 【免费下载链接】renderer A shader-based software renderer written from scratch in C89 项目地址: https://gitcode.com/gh_mirrors/re/renderer 想要从零开始构建一个完整的3D渲染器吗?r…...

WizQTClient安全加密技术:保护你的知识资产的最佳实践

WizQTClient安全加密技术:保护你的知识资产的最佳实践 【免费下载链接】WizQTClient 为知笔记跨平台客户端 项目地址: https://gitcode.com/gh_mirrors/wi/WizQTClient 为知笔记WizQTClient作为一款专业的个人知识管理工具,采用了多重安全加密技术…...

s2-pro开源TTS价值:填补中文专业级开源语音合成模型空白

s2-pro开源TTS价值:填补中文专业级开源语音合成模型空白 1. 为什么我们需要专业级中文TTS 在语音技术领域,中文语音合成(TTS)长期面临一个尴尬局面:虽然商业解决方案众多,但高质量的开源模型却寥寥无几。这种状况直到s2-pro的出…...

MySQL 高并发核心:MVCC 底层原理彻底讲透,一篇吃透面试 + 实战 + 性能优化

前言:为什么你总搞不懂 MVCC,却又处处离不开它?只要做 MySQL 开发、面试、调优,MVCC 绝对是绕不开的大山。有人背了三遍概念,一到面试就被问懵:什么是脏读、不可重复读、幻读?RC 和 RR 到底差在…...

Chord在科研视频处理中的应用:实验过程帧级语义标注与行为时序建模

Chord在科研视频处理中的应用:实验过程帧级语义标注与行为时序建模 1. 引言:科研视频分析的挑战与机遇 在科学研究领域,特别是生物学、心理学、医学和工程学等学科中,实验过程视频记录已成为不可或缺的研究手段。研究人员通过视…...

清音听真实战案例:Qwen3-ASR-1.7B在会议纪要场景的100%标点还原效果

清音听真实战案例:Qwen3-ASR-1.7B在会议纪要场景的100%标点还原效果 1. 引言:当AI“听懂”了会议的呼吸与停顿 想象一下这个场景:一场持续两小时的产品需求评审会刚刚结束。你看着录音文件,想到要逐字逐句地整理成会议纪要&…...

百川2-13B量化模型+OpenClaw:低成本搭建24/7内容摘要服务

百川2-13B量化模型OpenClaw:低成本搭建24/7内容摘要服务 1. 为什么需要本地化内容摘要服务 在信息爆炸的时代,我们每天都会接触到大量网页内容。从行业报告到技术文档,从新闻资讯到研究论文,手动阅读和整理这些内容既耗时又低效…...

PP-DocLayoutV3开发者案例:对接LangChain文档加载器,输出标准Unstructured格式

PP-DocLayoutV3开发者案例:对接LangChain文档加载器,输出标准Unstructured格式 1. 项目背景与需求 在实际的文档处理流程中,我们经常需要将各种格式的文档(PDF、图片、扫描件等)转换为结构化的数据,以便后…...

SEO_电商网站SEO优化全攻略,驱动销售额增长

SEO:电商网站SEO优化全攻略,驱动销售额增长 在当今数字化时代,电子商务已成为企业赢得市场份额和提升销售额的重要途径。仅仅拥有一个电商网站并不足以吸引大量流量和转化成交。这时,电商网站SEO优化就显得尤为重要。本文将详细介绍电商网站…...

Python爬虫实战:用Qwen2.5-VL智能解析网页图片内容

Python爬虫实战:用Qwen2.5-VL智能解析网页图片内容 1. 引言 你有没有遇到过这样的情况:爬取了大量网页图片,却要人工一张张查看内容?或者需要从海量图片中筛选出特定类型的商品、识别图中的文字信息?传统爬虫只能获取…...

AI写春联真简单:春联生成模型-中文-base 新手零基础教程

AI写春联真简单:春联生成模型-中文-base 新手零基础教程 春节将至,贴春联是中国人最重要的年俗之一。但你是否遇到过这样的困扰:想写一副好春联却缺乏灵感,或者书法不够漂亮不好意思贴出来?现在,有了AI技术…...

如何通过SEO总监的工作经验提升个人价值

SEO总监的工作经验:如何提升个人价值 在当今数字化时代,SEO(搜索引擎优化)已经成为各行各业不可或缺的一部分。作为一名SEO总监,你不仅要了解如何提升企业网站的搜索排名,更要通过自己的工作经验提升个人价…...

小白友好型OCR文字识别镜像:无需深度学习基础,开箱即用体验

小白友好型OCR文字识别镜像:无需深度学习基础,开箱即用体验 1. 为什么选择这款OCR镜像? 在日常工作和生活中,我们经常需要从图片中提取文字信息 - 可能是扫描的文档、拍摄的发票、或是路牌照片。传统OCR软件要么功能有限&#x…...

新手必看!阿里通义Z-Image-Turbo WebUI常见问题与解决指南

新手必看!阿里通义Z-Image-Turbo WebUI常见问题与解决指南 1. 快速入门:认识Z-Image-Turbo WebUI 阿里通义Z-Image-Turbo WebUI是一款基于扩散模型的AI图像生成工具,由开发者科哥二次开发构建。它最大的特点是支持"一步生成"技术…...

科研助手实战:OpenClaw调用Qwen3-32B实现论文摘要与归类

科研助手实战:OpenClaw调用Qwen3-32B实现论文摘要与归类 1. 为什么需要自动化文献管理 作为一名经常需要阅读大量文献的研究者,我长期被两个问题困扰:一是下载的PDF论文堆积如山却难以快速定位关键内容;二是手动整理文献耗时耗力…...

intv_ai_mk11Web界面定制化:Gradio配置修改指南,支持自定义标题/Logo/欢迎语

intv_ai_mk11 Web界面定制化:Gradio配置修改指南,支持自定义标题/Logo/欢迎语 1. 为什么需要定制化Web界面 当你部署好intv_ai_mk11 AI对话机器人后,默认的Web界面可能无法完全满足你的需求。通过Gradio框架提供的配置选项,你可…...

ComfyUI 高频报错排查与修复指南(实战经验总结)

1. ComfyUI环境依赖冲突的终极解决方案 第一次打开ComfyUI就遇到红色报错提示?八成是环境依赖出了问题。我见过太多开发者在这个环节卡住好几天,其实大部分问题都有固定解法。先别急着重装系统,跟着我的排查清单一步步来。 最常见的环境冲突往…...

Kandinsky-5.0-I2V-Lite-5s部署教程:Linux服务器supervisor配置+开机自启设置

Kandinsky-5.0-I2V-Lite-5s部署教程:Linux服务器supervisor配置开机自启设置 1. 环境准备与快速部署 在开始部署Kandinsky-5.0-I2V-Lite-5s之前,我们需要确保服务器环境满足以下要求: 操作系统:Ubuntu 20.04/22.04 LTS&#xf…...

【2026新版】 DirectX Repair 修复工具操作步骤【图文教程】,DirectX修复工具彻底解决DirectX报错与游戏闪退

DLL缺失、游戏闪退及DirectX错误 要怎么处理?DirectX修复工具可以快速修复DLL缺失、游戏闪退及DirectX错误,支持一键扫描和自动修复。DirectX修复工具是一款专门给 Windows 系统打补丁的小程序,可以把电脑里缺失或损坏的 DirectX 文件重新补全…...

一键部署GLM-4.6V-Flash-WEB:GitCode镜像真香,省去半天环境搭建时间

一键部署GLM-4.6V-Flash-WEB:GitCode镜像真香,省去半天环境搭建时间 1. 为什么选择GLM-4.6V-Flash-WEB 在多模态大模型快速发展的今天,开发者最头疼的不是模型性能,而是如何快速部署和运行。GLM-4.6V-Flash-WEB作为智谱AI最新开…...

seo兼职如何做外链建设_seo兼职如何进行社交媒体优化

SEO兼职如何做外链建设 在当今互联网时代,外链建设无疑是SEO(搜索引擎优化)中最重要的一环。对于SEO兼职者来说,如何有效地进行外链建设是一项必须掌握的技能。本文将从问题分析、原因说明、解决方法及注意事项四个方面&#xff…...

[GROMACS]氢键分析工具的版本迭代:“-life”等参数的消失

引言:一次意外的发现 “为什么我的GROMACS没有gmx hbond中的-life参数?” 当我在Windows终端中输入gmx hbond -h,仔细翻看帮助文档中每一个参数,却始终找不到期待已久的-life选项时,一种困惑油然而生。氢键寿命分析&…...

被裁两次,赔了30万,我真得感谢公司。21年赔10万,24年赔20万,平时月光,全靠裁员攒下第一桶金

今天刷到一个帖子,一个程序员说自己被裁了两次,21年赔了10万,24年赔了20万,加起来30万。他说平时一分钱都攒不下,全靠这两次裁员才有了存款,真得感谢公司。我第一反应是:这话听着挺魔幻&#xf…...

Qwen3-ASR-1.7B语音识别进阶指南:上下文联想纠错机制原理与提示词增强技巧

Qwen3-ASR-1.7B语音识别进阶指南:上下文联想纠错机制原理与提示词增强技巧 1. 引言:从“听清”到“听懂”的跨越 如果你用过一些基础的语音转文字工具,可能会遇到这样的困扰:明明每个字都识别出来了,但连成句子却感觉…...

卡证检测矫正模型Web界面使用教程:中文操作+实时结果可视化

卡证检测矫正模型Web界面使用教程:中文操作实时结果可视化 你是不是经常需要处理身份证、护照、驾照这些卡证图片?比如要上传证件照办业务,或者批量处理一堆证件材料。最头疼的就是拍出来的照片歪歪扭扭,背景杂乱,还得…...

单向链表的创建、插入、删除、遍历

文章目录单向链表:从创建到操作全解析 📝1. 单向链表的基本概念 🧠2. 实现单向链表 🛠️2.1 定义节点类2.2 创建链表3. 插入操作 ➕3.1 在头部插入3.2 在尾部插入3.3 在特定位置插入4. 删除操作 ❌4.1 删除头部节点4.2 删除特定值…...

Qwen3-14B Function Calling功能详解:让AI不仅能说,更能实干

Qwen3-14B Function Calling功能详解:让AI不仅能说,更能实干 你有没有想过,让AI不仅能和你聊天,还能帮你查天气、订机票、甚至处理工作流程?这听起来像是科幻电影里的场景,但现在,通过Qwen3-14…...

CosyVoice多语言语音合成实测:中英文混合文本生成,自然流畅

CosyVoice多语言语音合成实测:中英文混合文本生成,自然流畅 1. 测试环境与模型介绍 1.1 测试硬件配置 本次测试使用的硬件环境如下: 组件规格GPUNVIDIA RTX 4090 (24GB)CPUIntel i9-13900K内存64GB DDR5操作系统Ubuntu 22.04 LTS 1.2 Co…...

Phi-3-Mini-128K效果实测:128K长上下文代码分析与摘要生成

Phi-3-Mini-128K效果实测:128K长上下文代码分析与摘要生成 最近,一个名为Phi-3-Mini-128K的模型在开发者社区里引起了不小的讨论。大家关注的焦点,不是它有多大的参数量,而是它那个惊人的“128K”上下文长度。简单来说&#xff0…...