当前位置: 首页 > article >正文

OpenCode-Tokenscope 安装和使用指南

OpenCode-Tokenscope 安装和使用指南全面的 OpenCode AI 会话 token 使用分析和成本追踪插件安装方法 1: npm (推荐)步骤 1: 全局安装npminstall-gramtinj95/opencode-tokenscope步骤 2: 配置 opencode.json在以下位置之一创建opencode.json项目根目录~/.config/opencode/opencode.json(全局配置){$schema:https://opencode.ai/config.json,plugin:[ramtinj95/opencode-tokenscope]}要始终使用最新版本使用latest{plugin:[ramtinj95/opencode-tokenscopelatest]}步骤 3: 创建 /tokenscope 命令创建命令文件~/.config/opencode/command/tokenscope.mdmkdir-p~/.config/opencode/commandcat~/.config/opencode/command/tokenscope.mdEOF --- description: Analyze token usage across the current session with detailed breakdowns by category --- Call the tokenscope tool directly without delegating to other agents. Then cat the token-usage-output.txt. DONT DO ANYTHING ELSE WITH THE OUTPUT. EOF步骤 4: 重启 OpenCode完全重启 OpenCode然后运行/tokenscope方法 2: 安装脚本curl-sSLhttps://raw.githubusercontent.com/ramtinJ95/opencode-tokenscope/main/plugin/install.sh|bash然后重启 OpenCode 并运行/tokenscope更新npm 安装更新opencode.json 配置行为ramtinj95/opencode-tokenscope使用安装时的版本永不自动更新ramtinj95/opencode-tokenscopelatest每次启动 OpenCode 时获取最新版本ramtinj95/opencode-tokenscope1.4.0固定到确切版本 1.4.0永不更新手动更新npmupdate-gramtinj95/opencode-tokenscope脚本安装更新curl-sSLhttps://raw.githubusercontent.com/ramtinJ95/opencode-tokenscope/main/plugin/install.sh|bash-s----update--update标志跳过依赖安装更新更快。使用方法在 OpenCode 中输入/tokenscope插件将分析当前会话统计各类别 token递归分析所有子代理 (Task 工具) 子会话基于 API 遥测计算成本保存详细报告到token-usage-output.txt功能特性全面的 Token 分析特性说明5 类别分解系统提示、用户消息、助手回复、工具输出、推理轨迹可视化图表易读的 ASCII 条形图带百分比和 token 计数智能推断从 API 遥测自动推断系统提示因为会话消息中未暴露上下文分解分析系统提示组件显示基础提示、工具定义、环境上下文、项目树、自定义指令的 token 分布自动估算当系统提示内容不可用时从cache_writetoken 估算分解工具计数显示加载的工具数量及其组合 token 成本工具定义成本估算每个工具估算列出所有启用的工具及其估算的 schema token 成本参数分析从会话中的实际工具调用推断参数数量和复杂度复杂度检测区分简单参数和复杂参数数组/对象缓存效率指标缓存命中率缓存读取 vs 新鲜输入 token 分布的可视化显示成本节省计算提示缓存带来的实际节省有效费率显示实际支付的每 token 成本 vs 标准费率精确成本追踪支持 41 种模型包括Claude 模型Claude Opus 4.5, 4.1, 4Claude Sonnet 4, 4-5, 3.7, 3.5, 3Claude Haiku 4-5, 3.5, 3OpenAI 模型GPT-4, GPT-4 Turbo, GPT-4o, GPT-4o MiniGPT-3.5 TurboGPT-5 及其所有变体其他模型DeepSeek (R1, V2, V3)Llama (3.1, 3.2, 3.3)Mistral (Large, Small)Qwen, Kimi, GLM, Grok等等…子代理成本追踪子会话分析递归分析 Task 工具生成的所有子代理会话汇总总计显示主会话和所有子代理的合并 token、成本和 API 调用每个代理分解列出每个子代理及其类型、token 使用、成本和 API 调用计数可选切换使用includeSubagents参数启用/禁用子代理分析配置选项创建tokenscope-config.json文件自定义输出{enableContextBreakdown:true,enableToolSchemaEstimation:true,enableCacheEfficiency:true,enableSubagentAnalysis:true,enableSkillAnalysis:true}将任何选项设置为false可隐藏该部分输出。输出示例═══════════════════════════════════════════════════════════════════════════ Token Analysis: Session ses_50c712089ffeshuuuJPmOoXCPX Model: claude-opus-4-5 ═══════════════════════════════════════════════════════════════════════════ TOKEN BREAKDOWN BY CATEGORY ───────────────────────────────────────────────────────────────────────── Input Categories: SYSTEM ██████████████░░░░░░░░░░░░░░░░ 45.8% (22,367) USER ░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ 0.8% (375) TOOLS ████████████████░░░░░░░░░░░░░░ 53.5% (26,146) Subtotal: 48,888 estimated input tokens Output Categories: ASSISTANT ██████████████████████████████ 100.0% (1,806) Subtotal: 1,806 estimated output tokens Local Total: 50,694 tokens (estimated) TOOL USAGE BREAKDOWN ───────────────────────────────────────────────────────────────────────── bash ██████████░░░░░░░░░░░░░░░░░░░░ 34.0% (8,886) 4x read ██████████░░░░░░░░░░░░░░░░░░░░ 33.1% (8,643) 3x task ████████░░░░░░░░░░░░░░░░░░░░░░ 27.7% (7,245) 4x webfetch █░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ 4.9% (1,286) 1x CACHE EFFICIENCY ───────────────────────────────────────────────────────────────────────── Cache Hit Rate: 86.2% Cost Savings: $1.4421 (77.6% reduction) ESTIMATED SESSION COST ───────────────────────────────────────────────────────────────────────── Input tokens: 10 × $5.00/M $0.0001 Output tokens: 3,331 × $25.00/M $0.0833 Cache read: 320,479 × $0.50/M $0.1602 Cache write: 51,866 × $6.25/M $0.3242 ───────────────────────────────────────────────────────────────────────── ESTIMATED TOTAL: $0.5677 ═══════════════════════════════════════════════════════════════════════════技能分析技能工作原理技能是通过skill工具加载的按需指令。它们有两个 token 消耗点可用技能列表技能名称和描述嵌入在skill工具的描述中作为 XML。这是系统提示的一部分每次 API 调用都产生成本。加载的技能内容当代理调用skill({ name: my-skill })时完整的 SKILL.md 内容作为工具结果加载。多次调用技能为何增加 Token 成本重要OpenCode不会去重技能内容。每次调用相同的技能完整内容都会作为新的工具结果再次添加到上下文中。例如如果你调用skill({ name: git-release })3 次每次包含 500 token总上下文成本 500 × 3 1,500 tokens这是 OpenCode 设计的行为。技能内容受保护不会被修剪见 compaction.ts 中的PRUNE_PROTECTED_TOOLS: [skill]。建议谨慎调用技能由于每次调用都添加完整内容避免多次调用相同技能监控技能 token 使用使用 TokenScope 查看哪些技能消耗最多 token考虑技能大小大型技能1000 tokens在重复调用时会快速增加上下文故障排除/tokenscope命令未出现验证tokenscope.md是否存在ls~/.config/opencode/command/tokenscope.md如果缺失重新创建见安装步骤 3完全重启 OpenCodeToken 计数不正确插件使用 API 遥测真实数据。如果计数看起来不对预期与 TUI 有约 2K 差异插件在添加自己的响应之前分析模型检测检查输出中模型名称是否被识别隐私与安全所有处理都是本地进行不向外部服务发送会话数据开源可自行审计代码资源链接GitHub: https://github.com/ramtinj95/opencode-tokenscopeNPM: https://www.npmjs.com/package/ramtinj95/opencode-tokenscopeIssues: https://github.com/ramtinj95/opencode-tokenscope/issuesDiscussions: https://github.com/ramtinj95/opencode-tokenscope/discussions文档版本: 基于 opencode-tokenscope v1.5.2修改 Token 费用单价Token 费用单价存储在插件的models.json文件中。你可以通过编辑这个文件来自定义各模型的价格。配置文件路径~/.cache/opencode/node_modules/ramtinj95/opencode-tokenscope/models.json价格格式说明{模型名称:{input:1.00,// 输入 token 每百万的价格美元output:3.00,// 输出 token 每百万的价格美元cacheWrite:0.00,// 缓存写入每百万的价格美元cacheRead:0.00// 缓存读取每百万的价格美元}}支持的模型目前支持 41 种模型包括类别模型Claudeclaude-opus-4, claude-sonnet-4, claude-haiku-4-5, claude-3.7-sonnet, claude-3.5-sonnet, claude-3.5-haiku, claude-3-opus, claude-3-sonnet, claude-3-haikuOpenAIgpt-4o, gpt-4o-mini, gpt-4.1, gpt-4.1-mini, gpt-3.5-turbo, gpt-5 系列DeepSeekdeepseek-r1, deepseek-v3, deepseek-v2Llamallama-3.3, llama-3.2, llama-3.1Mistralmistral-large, mistral-small其他kimi-k2, grok-code, qwen3-coder, glm-4.5 等修改示例示例 1修改 kimi-k2 的价格# 编辑 models.json 文件vim~/.cache/opencode/node_modules/ramtinj95/opencode-tokenscope/models.json找到kimi-k2部分kimi-k2:{input:0.60,output:2.50,cacheWrite:0.00,cacheRead:0.00}修改为kimi-k2:{input:0.80,// 改为新价格output:3.00,// 改为新价格cacheWrite:0.00,cacheRead:0.00}示例 2修改 Claude Sonnet 4 的价格claude-sonnet-4:{input:3.00,output:15.00,cacheWrite:3.75,cacheRead:0.30}修改步骤打开配置文件vim~/.cache/opencode/node_modules/ramtinj95/opencode-tokenscope/models.json找到要修改的模型使用搜索功能 (/模型名称) 快速定位或滚动查找对应模型条目修改价格参数input: 输入 token 每百万价格output: 输出 token 每百万价格cacheWrite: 缓存写入每百万价格如适用cacheRead: 缓存读取每百万价格如适用保存文件:wq# vim 保存并退出立即生效无需重启 OpenCode直接运行/tokenscope即可使用新价格注意事项⚠️重要提醒插件更新会覆盖当你更新ramtinj95/opencode-tokenscope插件时models.json文件会被重置为默认值建议备份自定义价格# 创建备份cp~/.cache/opencode/node_modules/ramtinj95/opencode-tokenscope/models.json\~/.config/opencode/tokenscope-pricing-backup.json更新后恢复价格# 插件更新后恢复自定义价格cp~/.config/opencode/tokenscope-pricing-backup.json\~/.cache/opencode/node_modules/ramtinj95/opencode-tokenscope/models.json默认值回退如果某个模型没有在models.json中找到会使用default条目default:{input:1.00,output:3.00,cacheWrite:0.00,cacheRead:0.00}配置完成示例实际配置文件路径~/.config/opencode/opencode.json ~/.config/opencode/command/tokenscope.md配置后的 opencode.json 示例{$schema:https://opencode.ai/config.json,plugin:[superpowersgithttps://github.com/obra/superpowers.git,oh-my-openagent,ramtinj95/opencode-tokenscopelatest]}注意: 使用了latest标签每次启动 OpenCode 时会自动获取最新版本。tokenscope.md 命令文件内容--- description: Analyze token usage across the current session with detailed breakdowns by category --- Call the tokenscope tool directly without delegating to other agents. Then cat the token-usage-output.txt. DONT DO ANYTHING ELSE WITH THE OUTPUT.使用步骤总结安装插件:npm install -g ramtinj95/opencode-tokenscope创建命令文件:~/.config/opencode/command/tokenscope.md配置 opencode.json: 添加ramtinj95/opencode-tokenscopelatest到 plugin 数组重启 OpenCode: 完全关闭并重新打开运行分析: 输入/tokenscope输出文件运行/tokenscope后会在当前目录生成token-usage-output.txt- 详细的 token 使用分析报告

相关文章:

OpenCode-Tokenscope 安装和使用指南

OpenCode-Tokenscope 安装和使用指南全面的 OpenCode AI 会话 token 使用分析和成本追踪插件安装 方法 1: npm (推荐) 步骤 1: 全局安装 npm install -g ramtinj95/opencode-tokenscope步骤 2: 配置 opencode.json 在以下位置之一创建 opencode.json: 项目根目录~/.…...

3步实现飞书文档高效转换:Cloud Document Converter全场景解决方案

3步实现飞书文档高效转换:Cloud Document Converter全场景解决方案 【免费下载链接】cloud-document-converter Convert Lark Doc to Markdown 项目地址: https://gitcode.com/gh_mirrors/cl/cloud-document-converter 一、三大痛点:飞书文档管理…...

UNTRUNC:视频修复破局者——从文件截断到数据重生的技术解密

UNTRUNC:视频修复破局者——从文件截断到数据重生的技术解密 【免费下载链接】untrunc Restore a damaged (truncated) mp4, m4v, mov, 3gp video. Provided you have a similar not broken video. 项目地址: https://gitcode.com/gh_mirrors/unt/untrunc 诊…...

二、PXE+Kickstart 无人值守批量部署操作系统;使用物理路由器的dhcp:ProxyDHCP+TFTP+HTTP+Kickstart应答文件(VMware测试环境)

前文不使用物理设备的 DHCP ,选择自行安装 DHCP 服务进行的PXEKickstart 无人值守部署操作系统的方法难以适用于家庭或企业环境,本文尝试一种使用物理设备(家庭路由器、企业交换机)的DHCP功能批量部署物理机操作系统的方案。 建议…...

WarcraftHelper:魔兽争霸3兼容性救星,让经典游戏在现代电脑上重生!

WarcraftHelper:魔兽争霸3兼容性救星,让经典游戏在现代电脑上重生! 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper …...

树莓派 AP 模式作为中继器或子路由器配置

树莓派 AP 模式作为中继器或子路由器配置设备:Raspberry Pi 4B W | 日期:2026-04-02 WiFi 芯片:BCM43455 | 系统:Raspberry Pi OS (64-bit)一、环境信息项目值设备型号Raspberry Pi Zero 2 WWiFi 芯片BCM43455内核版本6.6.x操作系…...

GCP 成本优化指南

5 分钟速览 我想… 用什么 预期效果 看钱花在哪了 Billing Reports + Cost Table 按服务/项目/标签拆分费用 费用超了自动告警 Budget Alerts 50%/80%/100% 阈值通知 深度分析费用趋势 BigQuery 费用导出 自定义 SQL 分析任意维度 降低计算成本 CUD / Spot VM 计算费用降 30%-7…...

深度测评|2026AI短剧出海服务商

2026 年短剧出海进入全球化传播阶段,声画同步与多语种适配成为短剧出海的基础核心能力,更是保障海外受众观剧体验的关键要素。相较于国内市场,海外受众来自不同的语言区域,对多语种配音的自然度、口型同步的精准度、台词翻译的适配…...

为什么BaiduPCS-Web成为百度网盘下载的终极解决方案?

为什么BaiduPCS-Web成为百度网盘下载的终极解决方案? 【免费下载链接】baidupcs-web 项目地址: https://gitcode.com/gh_mirrors/ba/baidupcs-web 你是否曾经面对百度网盘几十KB/s的下载速度感到绝望?当重要的文件需要下载,而进度条却…...

GCP 项目 IAM 与结算账号管理指南

5 分钟速览 快速完成 GCP 项目的用户权限和结算管理。 我想… 操作 给用户添加项目结算管理权限 IAM → Grant Access → 分配 Viewer + Project Billing Manager 查看谁有结算权限 IAM → 筛选 Billing 相关角色 修改项目关联的结算账号 Billing → Account Management → Cha…...

2026AIGC 短剧出海全链路落地服务测评

2026 年 AIGC 短剧出海行业已迈入精细化商业落地阶段,专业全链路服务商与AI 视频生成平台的赛道分化成为行业发展的核心特征,二者依托差异化的服务模式、能力体系与价值输出,精准覆盖不同出海主体的需求场景。集之互动作为深耕短剧出海领域的…...

实战应用:基于快马平台快速开发openclaw视觉分拣机器人demo

实战应用:基于快马平台快速开发openclaw视觉分拣机器人demo 最近在研究工业自动化场景,正好用InsCode(快马)平台尝试做了一个视觉分拣机器人的demo。这个项目模拟了流水线上用机械臂分拣不同颜色物品的场景,特别适合用来验证自动化分拣方案的…...

智能架构革新黑苹果配置:OpCore Simplify的3大技术突破解析

智能架构革新黑苹果配置:OpCore Simplify的3大技术突破解析 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 在开源系统定制领域&#xff0…...

十分钟搞定登录原型:用快马AI快速生成全站登录应用前端与后端

今天想和大家分享一个快速搭建全站登录应用原型的经验。最近在做一个新项目,需要验证登录模块的流程设计,传统开发方式至少要花一两天时间配置前后端环境,但这次尝试用InsCode(快马)平台的AI生成功能,十分钟就搞定了可交互的原型。…...

百度网盘下载加速终极方案:免费解锁满速下载的完整指南

百度网盘下载加速终极方案:免费解锁满速下载的完整指南 【免费下载链接】baidupcs-web 项目地址: https://gitcode.com/gh_mirrors/ba/baidupcs-web 还在为百度网盘下载速度只有几十KB/s而烦恼吗?你是否曾经面对大文件下载时感到绝望&#xff1f…...

5分钟掌握BilibiliDown:新手快速上手的B站视频下载指南

5分钟掌握BilibiliDown:新手快速上手的B站视频下载指南 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/…...

KART-RERANK在AIGC内容审核中的应用:自动化识别与排序低质生成文本

KART-RERANK在AIGC内容审核中的应用:自动化识别与排序低质生成文本 1. 引言 现在打开任何一个内容平台,无论是文章、评论还是商品描述,你都能看到大量由AI生成的内容。这些内容来得快、数量多,但质量却参差不齐。有的写得有模有…...

Qwen3.5-9B基础教程:start.sh脚本解析+环境变量注入+PATH调试技巧

Qwen3.5-9B基础教程:start.sh脚本解析环境变量注入PATH调试技巧 1. 项目概述 Qwen3.5-9B是一个拥有90亿参数的开源大语言模型,具备强大的逻辑推理、代码生成和多轮对话能力。该模型支持多模态理解(图文输入)和长上下文处理&…...

Omni-Vision Sanctuary 数据库集成指南:MySQL配置与视觉数据存储方案

Omni-Vision Sanctuary 数据库集成指南:MySQL配置与视觉数据存储方案 1. 前言:为什么需要数据库集成 视觉识别应用每天会产生大量数据,如果没有合适的存储方案,这些宝贵的数据很容易丢失或难以管理。MySQL作为最流行的关系型数据…...

5分钟快速了解回归测试

🍅 点击文末小卡片,免费获取软件测试全套资料,资料在手,涨薪更快 1、什么是回归测试 (Regression Testing) 回归测试是一个系统的质量控制过程,用于验证最近对软件的更改或更新是否无意中引入…...

让旧电脑焕发新生:RyTuneX系统优化工具全解析

让旧电脑焕发新生:RyTuneX系统优化工具全解析 【免费下载链接】RyTuneX RyTuneX is a cutting-edge optimizer built with the WinUI 3 framework, designed to amplify the performance of Windows devices. Crafted for both Windows 10 and 11. 项目地址: http…...

Z-Image-Turbo-rinaiqiao-huiyewunv保姆级教程:如何将本地Turbo模型接入Discord Bot提供绘图服务

Z-Image-Turbo-rinaiqiao-huiyewunv保姆级教程:如何将本地Turbo模型接入Discord Bot提供绘图服务 你是不是也想过,让自己的Discord服务器里有一个专属的“画师”?当群友描述一个二次元角色时,这个Bot就能立刻画出来,而…...

数据仓库实战:复杂多层级维度建模全解 + 模型优化最佳实践

数据仓库实战:复杂多层级维度建模全解 模型优化最佳实践摘要一、基础认知:什么是复杂多层级维度?1.1 核心定义1.2 典型多层级维度场景1.3 多层级维度三大特征二、标准流程:多层级维度建模完整流程2.1 建模流程图2.2 分步流程说明…...

数据仓库实战:数据分层设计全面解析——如何大幅提升数据可用性与性能

数据仓库实战:数据分层设计全面解析——如何大幅提升数据可用性与性能摘要一、基础认知:数据仓库为什么必须做数据分层?1.1 核心定义1.2 不做分层的严重问题1.3 数据分层核心目标二、标准架构:数据仓库经典 5 层设计(企…...

Air8101 搭载 RGB 直驱与 AirUI 适配工业电容屏开发

Air8101专为工业电容屏优化设计,RGB接口可直驱各类尺寸LCD电容屏,最高可支持1024*720分辨率屏,无需额外转接,大幅降低硬件开发成本。 一、硬件直驱: 目前正在支持完善:480*272分辨率:4.3寸屏800…...

数据仓库实战:查询优化器工作原理深度解析 + 性能提升实战指南

数据仓库实战:查询优化器工作原理深度解析 性能提升实战指南摘要一、基础认知:数据仓库查询优化器是什么?1.1 核心定义1.2 数仓优化器与数据库优化器的区别1.3 优化器核心目标二、工作流程:查询优化器完整执行链路(带…...

告别重复劳动:用快马ai编程自动生成表单验证工具,效率翻倍

最近在开发一个用户注册系统时,发现表单验证这块特别耗费时间。每次都要重复写各种正则表达式,还要考虑各种边界情况,效率实在太低。于是我开始寻找能提升效率的解决方案,最终在InsCode(快马)平台上找到了理想的工具。 表单验证的…...

交通运输部关于印发《交通运输综合应急预案》等5项突发事件应急预案的通知

交通运输部于 2026 年印发的《交通运输综合应急预案》等五项突发事件应急预案,构建起总领统筹、分领域专项、全链条衔接的交通运输应急管理体系,分别从综合协同、公路设施、水路运行、道路运输、工程建设五个维度,明确了突发事件预防、预警、…...

快速验证抓取逻辑:在快马平台用AI十分钟搭建龙虾openclaw演示原型

最近在研究机器人抓取控制相关的技术,偶然发现了龙虾openclaw这个开源库,想快速验证下它的抓取逻辑。传统开发流程需要先搭建环境、写大量样板代码,但借助InsCode(快马)平台,整个过程变得异常简单。下面分享我的十分钟原型搭建经验…...

dify可以干什么

Dify 是一个开源的大模型(LLM)应用开发平台,旨在帮助你快速构建、管理和部署生成式 AI 应用,而无需从零开始写代码。简单来说,你可以把它理解为一个可视化的 AI 应用“工作台”,通过拖拉拽的方式&#xff0…...