当前位置: 首页 > article >正文

Sdcb Chats 1.10 私有化代码执行器部署教程

了 Chats 1.10 最激动人心的新功能——内置代码执行器Code Interpreter。文章发出后反响很热烈但也有很多朋友在问“这功能看着很强但到底怎么部署及其配置啊”回头看了一下前一篇文章确实光顾着兴奋地介绍功能把最关键的部署实操给略过了。为了让大家都能尽快用上这个“硬核”功能今天特地补上这篇详细的保姆级部署配置文档。想要在 Chats 中使用“代码执行”功能主要分两步走基础设施层让 Chats 服务能连上 Docker Daemon因为代码是在隔离的 Docker 容器中运行的。应用配置层在 Chats 后台和前台开启相应的功能开关。第一部分连接 Docker DaemonChats 的代码执行器原理是当模型需要执行代码时Chats 会动态创建一个一次性的 Docker 容器沙箱在里面运行代码并获取结果。因此Chats 必须拥有管理 Docker 的权限。这里主要介绍两种最常见的场景纯 Docker 环境Linux 服务器和 Windows 下的 Docker Desktop。场景一Linux 服务器 / 纯 Docker 环境这是生产环境最常用的方式。你只需要将宿主机的 Docker Socket 挂载到 Chats 容器中即可。1. Docker 镜像说明Chats 的 Docker 镜像托管在sdcb/chats我们提供了完善的多架构支持描述Docker 镜像 Tag说明Latest推荐latest包含最新稳定版功能多架构支持指定完整版本{version}(如1.10.0)生产环境推荐锁定版本指定主/次版本{major}/{major.minor}如1,1.10自动更新到该系列最新版特定平台...-linux-x64等仅在必须手动指定架构时使用关于 Manifest (多架构支持)我们的latest和语义化版本标签如1.10.0都是Manifest List。这意味着你不需要手动区分linux-x64还是linux-arm64。无论你在 x64 的 Linux 服务器、ARM64 的树莓派还是 Windows Server (Nano Server) 上执行docker pull sdcb/chats:latestDocker 都会自动检测并拉取最适合当前系统的镜像层。2. 启动配置由于 Docker Socket 默认属于 root 用户为了避免权限问题Permission Denied建议显式指定--user 0:0以 root 身份运行容器。在启动 Chats 的docker run命令或docker-compose.yml中添加 user 配置和挂载卷-v /var/run/docker.sock:/var/run/docker.sock --user 0:0完整的 docker run 命令示例# 创建数据目录并授权 mkdir -p ./AppData chmod 755 ./AppData # 启动容器 docker run -d --restart unless-stopped --name sdcb-chats \ -p 8080:8080 \ -e DBTypesqlite \ -e ConnectionStrings__ChatsDBData Source./AppData/chats.db \ -v ./AppData:/app/AppData \ -v /var/run/docker.sock:/var/run/docker.sock --user 0:0 \ sdcb/chats:latest示例 docker-compose.ymlversion: 3 services: chats: image: sdcb/chats:latest user: 0:0 # 关键必须使用 root 用户才能访问 docker.sock volumes: - /var/run/docker.sock:/var/run/docker.sock # 关键配置挂载 Docker 守护进程 - ./data:/app/data ports: - 8080:8080场景二Windows 环境在 Windows (使用 Docker Desktop) 上部署时情况稍微特殊一点取决于你是在 Docker 容器内运行 Chats还是直接运行 Chats 的 Windows 可执行文件 (.exe)。情况 AChats 运行在 Docker 容器内推荐如果你是通过docker run启动 Chats 的那么恭喜你配置方法其实和 Linux完全一样Docker Desktop for Windows 做了很好的兼容你只需要把/var/run/docker.sock挂载进去即可不需要配置 npipe 或 TCP。PowerShell 启动命令示例docker run -d -p 8080:8080 -v /var/run/docker.sock:/var/run/docker.sock -v ${PWD}/data:/app/data sdcb/chats:latest情况 BChats 作为原生可执行文件运行如果你不习惯使用 Docker 部署应用我们提供了基于预编译的原生可执行文件无需安装任何运行时如 .NET SDK/Runtime即可直接运行启动速度较快且内存占用低。可执行文件列表平台文件名说明Windows 64位chats-win-x64.zip推荐大多数 Windows 用户Linux 64位chats-linux-x64.zip常见的 Linux 服务器 (glibc)Linux ARM64chats-linux-arm64.zip树莓派、Mac M系列docker等Linux Muslchats-linux-musl-*.zip适用于 Alpine 等轻量级发行版macOSchats-osx-*.zip支持 x64 (Intel) 和 ARM64 (M系列芯片)通用包chats.zip需安装 .NET 10跨平台你可以从 下载指南文档 页面获取下载地址。该文档详细列出了 GitHub Releases 及国内加速镜像的下载方式。配置与启动如果你下载了Chats.BE.exe(Windows 版后端) 直接运行而不是使用 Docker 镜像那么你需要通过命令行参数指定 Windows 的命名管道 (Named Pipe)来连接 Docker 引擎。下载程序下载并解压对应的chats-win-x64.zip。启动命令使用--CodePod:DockerEndpoint参数指定 Docker 接入点。PowerShell 启动命令示例# 启动后端程序并指定 Docker 引擎地址 .\Chats.BE.exe --CodePod:DockerEndpoint npipe://./pipe/docker_engine你也可以同时指定其它参数如端口.\Chats.BE.exe --urls http://:5000 --CodePod:DockerEndpoint npipe://./pipe/docker_engine这样原生运行的 Chats 也能顺利指挥 Docker Desktop 创建沙箱环境了。第二部分在 Chats 中启用功能连上 Docker 只是打通了经脉接下来还需要在 Chats 内部“解锁”这个技能。1. 后端配置模型设置首先我们要告诉 Chats哪些模型允许使用这个能力。以管理员身份登录 Chats。进入后台管理-模型配置。展开你想要的模型提供商-模型密钥然后编辑你想要使用的模型例如deepseek-v3.2。注意任何支持 Tool Call (工具调用) 的模型 API 都可以无论是 OpenAI 原生的 Chat Completions还是Responses API/Messages API。在功能列表中找到并勾选“代码执行 (Code Execution)”。⚠️ 特别注意用户权限分配很多第一次添加模型的朋友容易忽略这一点启用功能后必须明确授权给用户。在模型编辑页面的底部展开用户列表 (User Access)确保给你自己的账号或需要使用的用户勾选上权限。如果不勾选你在前台是看不到这个模型的或者无法调用该功能。2. 前端配置开启会话开关后端准备就绪后最后一步是在聊天界面开启使用。回到聊天 (Chat)界面。在顶部的模型配置栏通常显示模型名称的地方点击展开配置面板。找到“代码执行”开关将其打开。效果演示一切就绪现在你可以像使用 ChatGPT 的高级数据分析一样上传一个 Excel 文件或者让它帮你画一张图表了。试试发送这样的指令请帮我分析这个 Excel 文件https://cv-public.sdcb.pub/2026/changsha_weather_2025.xlsx生成一个包含每月平均气温和降水量的报告并附上图表Chats 会自动创建一个隔离的 Docker 环境编写 Python 代码执行并把生成的图片直接贴在对话框里。安全性考量⚠️重要提示与模型 API 调用不同代码执行功能目前不进行任何计费仅通过全局配置做了一些基础限制。如果你打算将 Chats 开放给未经充分信任的用户使用例如搭建类似 ChatGPT/Manus 的公开服务务必认真配置以下安全策略避免服务器资源被滥用甚至被攻击。1. 网络隔离代码执行容器的默认网络模式为bridge这与 ChatGPT 的完全隔离沙箱不同——容器是可以联网的。这个设计是有意为之的因为它带来了更强大的能力AI 可以在容器内下载文件、调用外部 API、安装依赖包。甚至可以让 AI 创建多个 Docker 容器协同工作比如一个跑 Web 应用、一个跑数据库Chats 会在工具调用响应中返回容器的局域网 IP 地址模型可以据此进行容器间通信。但这也意味着潜在风险容器可以访问宿主机同一 Docker 网络内的其他服务包括你的数据库、Redis 等。恶意用户可能利用此能力进行内网扫描或攻击。建议安全敏感环境将CodeInterpreter:MaxAllowedNetworkMode设置为none完全禁止容器联网。物理隔离在一台独立的虚拟机或物理机上运行 Docker DaemonChats 通过 TCP 远程连接从而实现网络层面的彻底隔离。2. 资源限制AI 可以创建任意数量的 Docker 会话通过create_docker_session工具。虽然空闲会话会在一定时间后自动清理但仍存在以下风险算力滥用恶意用户可能运行高负载任务耗尽服务器 CPU/内存。磁盘占用AI 可能拉取不同版本的镜像这些镜像不会自动清理长期积累会占满磁盘。Chats 提供了细粒度的资源限制配置强烈建议根据实际情况调整配置项默认值说明CodeInterpreter:DefaultResourceLimits:MemoryBytes2147483648(2GB)单个容器内存上限CodeInterpreter:DefaultResourceLimits:CpuCores2.0单个容器 CPU 核数CodeInterpreter:DefaultResourceLimits:MaxProcesses200单个容器最大进程数CodeInterpreter:MaxResourceLimits:*null(不限制)硬上限防止 AI 请求超额资源CodeInterpreter:SessionIdleTimeoutSeconds1800(30分钟)空闲会话自动回收时间CodeInterpreter:DefaultTimeoutSeconds300(5分钟)单次命令执行超时默认的 2 核 2GB 配置可以完成大多数日常任务数据分析、图表生成、文档处理等。如果你的场景需要更多资源如视频处理、大规模计算可以适当放宽反之如果是公开服务建议收紧限制。3. 文件上传限制AI 执行代码后可以将生成的文件artifacts回传给用户。为防止滥用Chats 也提供了相应限制配置项默认值说明CodeInterpreter:MaxArtifactsFilesToUpload50每轮最多回传文件数CodeInterpreter:MaxSingleUploadBytes157286400(150MB)单个文件最大大小CodeInterpreter:MaxTotalUploadBytesPerTurn314572800(300MB)单轮总上传大小4. 其他建议定期清理镜像使用docker image prune或docker system prune定期清理未使用的镜像和悬挂资源。监控与告警对 Docker 宿主机的 CPU、内存、磁盘使用率设置监控告警。用户权限管理仅对信任的用户开放代码执行功能在模型配置中谨慎分配权限。

相关文章:

Sdcb Chats 1.10 私有化代码执行器部署教程

了 Chats 1.10 最激动人心的新功能——内置代码执行器(Code Interpreter)。 文章发出后,反响很热烈,但也有很多朋友在问:“这功能看着很强,但到底怎么部署及其配置啊?” 回头看了一下前一篇文…...

Yarle:Evernote到Markdown的文档转换开源工具全指南

Yarle:Evernote到Markdown的文档转换开源工具全指南 【免费下载链接】yarle Yarle - The ultimate converter of Evernote notes to Markdown 项目地址: https://gitcode.com/gh_mirrors/ya/yarle 文档转换是现代知识管理的重要环节,而Yarle作为一…...

Verilog | 基4 Booth乘法器设计与优化实践

1. 基4 Booth乘法器基础原理 我第一次接触Booth算法是在大学计算机体系结构课上,当时就被这种巧妙的编码方式惊艳到了。相比传统的移位相加乘法,Booth算法通过重新编码乘数,能显著减少部分积的数量。而基4 Booth算法更是将效率提升了一倍——…...

Z-Image-Turbo_Sugar脸部Lora数据库集成:人脸特征向量存储与检索方案

Z-Image-Turbo_Sugar脸部Lora数据库集成:人脸特征向量存储与检索方案 1. 引言 你有没有遇到过这样的麻烦?用AI生成了一大堆风格各异的人脸图片,比如用Z-Image-Turbo_Sugar这个Lora模型生成了几百张不同发型、不同表情的虚拟人像。过几天想找…...

SI9000算出的线宽,板厂做出来阻抗为啥对不上?聊聊阻抗计算中那些容易被忽略的‘软因素’

SI9000算出的线宽,板厂做出来阻抗为啥对不上?聊聊阻抗计算中那些容易被忽略的‘软因素’ 在高速PCB设计领域,阻抗控制是确保信号完整性的关键环节。许多工程师熟练使用SI9000等工具进行理论计算后,却常常在实际打板测试时发现阻抗…...

WarcraftHelper终极指南:三步实现魔兽争霸3现代化适配与性能释放

WarcraftHelper终极指南:三步实现魔兽争霸3现代化适配与性能释放 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper WarcraftHelper是一款专为…...

SpacetimeGaussians 从入门到实践:实时动态视图合成解决方案

SpacetimeGaussians 从入门到实践:实时动态视图合成解决方案 【免费下载链接】SpacetimeGaussians [CVPR 2024] Spacetime Gaussian Feature Splatting for Real-Time Dynamic View Synthesis 项目地址: https://gitcode.com/gh_mirrors/sp/SpacetimeGaussians …...

【立煌】G101EVN01.3友达10.1寸LCD工业液晶显示屏幕规格参数

G101EVN01.3是AUO(友达)一款比较成熟的10.1英寸工业液晶屏,分辨率为1280800(WXGA,16:10),有效显示区216.96135.6mm,外形尺寸常见口径约227.9148.07.6~8.34mm。 从公开资料看&#x…...

【书生·浦语】internlm2-chat-1.8b效果实测:中文合同关键条款识别与风险提示

【书生浦语】internlm2-chat-1.8b效果实测:中文合同关键条款识别与风险提示 1. 引言:当AI遇上合同,会发生什么? 想象一下这个场景:你收到一份长达几十页的合同,密密麻麻的条款让你看得头晕眼花。里面有没…...

- 当数据遇上AI,Twitter的数据挖掘实战(二)

你好,我是程序员贵哥。 在上节课里,我们一起了解了Twitter整体搭建数据系统的经验。不过,那一篇论文的主要内容还是在方法论上,一旦我们想要把这个方法论利用到我们当下就在搭建的数据系统里,就有些无从下手的感觉。 …...

Qwen-Image-Edit-F2P人脸生成教程:多角度人像生成策略与camera参数模拟技巧

Qwen-Image-Edit-F2P人脸生成教程:多角度人像生成策略与camera参数模拟技巧 想用AI生成一张完美的人像照片,但总感觉角度单一、表情呆板?或者想为虚拟角色创建一套不同角度的形象参考图,却苦于没有专业摄影设备?今天&…...

PyEMD:Python信号处理的终极分解工具,5分钟快速掌握经验模态分解

PyEMD:Python信号处理的终极分解工具,5分钟快速掌握经验模态分解 【免费下载链接】PyEMD Python implementation of Empirical Mode Decompoisition (EMD) method 项目地址: https://gitcode.com/gh_mirrors/py/PyEMD 在数据分析和信号处理领域&a…...

Qwen3-VL-WEBUI部署指南:Docker环境搭建+模型加载+WebUI访问全解析

Qwen3-VL-WEBUI部署指南:Docker环境搭建模型加载WebUI访问全解析 1. 环境准备与快速部署 1.1 硬件与软件要求 在开始部署Qwen3-VL-WEBUI之前,请确保您的系统满足以下最低要求: 硬件配置: GPU:NVIDIA RTX 3090或更…...

Lingyuxiu MXJ LoRA效果展示:同一Prompt下不同LoRA版本风格迁移对比

Lingyuxiu MXJ LoRA效果展示:同一Prompt下不同LoRA版本风格迁移对比 1. 项目简介 Lingyuxiu MXJ LoRA创作引擎是一款专门针对唯美真人人像风格设计的轻量化文本生成图像系统。这个项目在人像生成的细腻五官表现、柔化光影效果和写实质感方面做了深度优化&#xff…...

保姆级教程:在Windows上用Ollama+Page Assist插件,给你的浏览器装个本地AI助手(含GPU加速配置)

在Windows上打造浏览器本地AI助手:Ollama与Page Assist全流程指南 引言:为什么选择本地AI助手? 想象一下,当你浏览网页时遇到一段晦涩难懂的技术文档,或是需要快速总结一篇长文的核心观点,传统做法是复制…...

热力图回归避坑指南:从Adaptive Wing Loss看损失函数设计的5个关键维度

热力图回归损失函数设计的核心逻辑与实践指南 在计算机视觉领域,热力图回归已成为关键点检测任务的主流方法之一。不同于直接回归坐标值的传统方式,热力图回归通过预测每个关键点的高斯分布图,能够更精确地捕捉目标位置的概率分布。然而&…...

CosyVoice长文本处理实战:如何高效处理大规模语音合成任务

最近在做一个有声书生成的项目,遇到了一个很典型的问题:当需要合成的文本内容非常长时,传统的语音合成(TTS)引擎要么内存占用飙升,要么响应慢得让人抓狂。经过一番调研和实战,我最终选择了 Cosy…...

HTTP/2头部压缩HPACK实战:如何用静态表和动态表提升网站性能

HTTP/2头部压缩HPACK实战:如何用静态表和动态表提升网站性能 当你在Chrome开发者工具中看到瀑布流里那些细小的绿色请求块时,是否思考过它们为何能如此高效?背后功臣之一就是HTTP/2的HPACK头部压缩机制。作为现代Web性能优化的隐形加速器&…...

Windows服务器日志管理:Nginx日志切割与自动清理实战(附BAT脚本)

Windows服务器Nginx日志管理全攻略:从切割到清理的自动化实践 在Windows服务器环境中,Nginx作为高性能Web服务器被广泛使用,但其日志文件会随时间不断增长,若不加以管理,轻则占用宝贵磁盘空间,重则导致服务…...

MedGemma-X模型优化:使用STM32CubeMX实现边缘计算部署

MedGemma-X模型优化:使用STM32CubeMX实现边缘计算部署 医疗边缘设备的智能化革命正在悄然发生,而MedGemma-X模型与STM32CubeMX的结合,为床边医疗设备带来了前所未有的实时影像分析能力。 1. 医疗边缘计算的新机遇 在急诊室、ICU病房或偏远地…...

数字内容自由行:Bypass Paywalls Clean技术探索与实践指南

数字内容自由行:Bypass Paywalls Clean技术探索与实践指南 【免费下载链接】bypass-paywalls-chrome-clean 项目地址: https://gitcode.com/GitHub_Trending/by/bypass-paywalls-chrome-clean 一、价值定位:打破信息获取的无形边界 1.1 知识获取…...

Jimeng LoRA实操手册:自定义LoRA文件夹路径配置与权限设置说明

Jimeng LoRA实操手册:自定义LoRA文件夹路径配置与权限设置说明 1. 项目概述 Jimeng LoRA是一个专为LoRA模型测试设计的轻量级文生图系统。基于Z-Image-Turbo底座,它实现了单次底座加载和动态LoRA热切换功能,让你能够快速测试不同训练阶段的…...

终极CAD自动化方案:用ACadSharp实现C工程图纸智能处理

终极CAD自动化方案:用ACadSharp实现C#工程图纸智能处理 【免费下载链接】ACadSharp C# library to read/write cad files like dxf/dwg. 项目地址: https://gitcode.com/gh_mirrors/ac/ACadSharp 在工程设计数字化浪潮中,CAD文件处理一直是技术团…...

从零搭三菱FX3U+MR-J4/JE伺服定位:接线、公共参数、指令全搞定,附新手友好程序

FX3U和三菱伺服控制的框架标准适合新手学习定位用,也是个直接调用到自己所用,用 标签分层,说明了定位控制中的公共参数设定、回原点、JOG手动、绝对定位、相对定位、控制等部分,有伺服驱动器的针脚接线 plc用的是三菱的3u&#xf…...

让旧Mac重获新生:OpenCore Legacy Patcher完全指南

让旧Mac重获新生:OpenCore Legacy Patcher完全指南 【免费下载链接】OpenCore-Legacy-Patcher 体验与之前一样的macOS 项目地址: https://gitcode.com/GitHub_Trending/op/OpenCore-Legacy-Patcher 你是否有一台2017年之前的Mac,看着新系统功能眼…...

避坑指南:Java自定义异常开发中90%新手会犯的3个错误(附EduCoder案例)

Java自定义异常开发实战:避开新手常踩的三大坑 在Java开发中,异常处理是保证程序健壮性的重要机制。自定义异常更是让我们的代码能够更精确地表达业务逻辑错误的关键手段。但很多初学者在使用自定义异常时,往往会陷入一些典型的误区。今天我们…...

Claude Code + OpenSpec 安装

Claude Code OpenSpec 文章是从安装到配置再到使用的全链路详解 一、Claude Code 详解 1.Claude Code 是什么Claude Code 是 Anthropic 推出的 AI 驱动 CLI(命令行界面)编码辅助工具。它直接运行在你的终端里,能够读取代码、执行命令、编辑文…...

协议转换不求人:耐达讯自动化CC-Link IE对接Modbus RTU

在现代工业自动化领域,我们常常面临“新旧交替”的集成难题:主控层往往采用以三菱PLC为代表的CC-Link IE高速工业以太网,追求千兆级的实时响应;而设备层却遍布着大量采用经典Modbus RTU协议的变频器、传感器和仪表。如何让这两套“…...

InstructPix2Pix零基础入门:用英语指令修图,电商图片处理从未如此简单

InstructPix2Pix零基础入门:用英语指令修图,电商图片处理从未如此简单 电商从业者每天都要面对海量的图片处理需求:商品换背景、调色修图、瑕疵修复、季节适配...传统方式要么成本高昂,要么效果不佳。现在,只需用简单…...

OpenClaw+Qwen3-VL:30B:打造个人多模态AI助手

OpenClawQwen3-VL:30B:打造个人多模态AI助手 1. 为什么选择这个组合? 去年冬天,我在整理团队活动照片时突然想到:如果能自动识别照片内容并生成对应的活动记录该多好?这个想法让我开始探索多模态AI助手的可能性。经过…...