当前位置: 首页 > article >正文

Ollama API 实战:5分钟搞定本地大模型聊天机器人(Python版)

Ollama API 实战5分钟搞定本地大模型聊天机器人Python版在AI技术快速发展的今天本地运行大型语言模型已成为可能。Ollama作为一个轻量级框架让开发者能够轻松在本地计算机上部署和运行各种开源大模型。本文将带你快速实现一个基于Ollama API的Python聊天机器人从环境搭建到交互实现全程只需5分钟。1. 环境准备与Ollama安装要在本地运行大模型首先需要安装Ollama框架。Ollama支持Windows、macOS和Linux三大主流操作系统安装过程极为简单。对于macOS用户可以使用Homebrew一键安装brew install ollamaLinux用户可以通过curl直接安装curl -fsSL https://ollama.com/install.sh | shWindows用户可以从Ollama官网下载安装包双击运行即可完成安装。安装完成后启动Ollama服务ollama serve提示首次运行Ollama时它会自动在后台启动服务默认监听11434端口。如果端口冲突可以通过环境变量OLLAMA_HOST修改监听地址。验证安装是否成功curl http://localhost:11434如果返回Ollama is running则表示服务已正常启动。2. 模型下载与管理Ollama支持多种开源大模型我们可以根据需求选择合适的模型。以下是几个常用模型的对比模型名称参数量内存需求适合场景llama38B8GB RAM通用对话、文本生成mistral7B6GB RAM代码生成、推理任务gemma2B4GB RAM轻量级应用、移动端下载模型非常简单例如下载llama3模型import requests response requests.post( http://localhost:11434/api/pull, json{name: llama3, stream: False} ) print(response.json())查看已下载的模型列表response requests.get(http://localhost:11434/api/tags) print(response.json()[models])如果需要删除模型释放空间response requests.delete( http://localhost:11434/api/delete, json{name: llama2} )3. 构建基础聊天机器人现在我们来创建一个最简单的聊天机器人。首先实现单轮对话功能import requests def simple_chat(prompt): response requests.post( http://localhost:11434/api/generate, json{ model: llama3, prompt: prompt, stream: False } ) return response.json()[response] # 测试对话 user_input 你好介绍一下你自己 print(simple_chat(user_input))这个基础版本已经可以实现问答功能但缺乏对话上下文。接下来我们实现多轮对话def multi_turn_chat(): messages [] while True: user_input input(你: ) if user_input.lower() in [退出, exit]: break messages.append({role: user, content: user_input}) response requests.post( http://localhost:11434/api/chat, json{ model: llama3, messages: messages, stream: False } ) assistant_reply response.json()[message][content] messages.append({role: assistant, content: assistant_reply}) print(f助手: {assistant_reply}) multi_turn_chat()4. 高级功能实现4.1 流式响应处理为了提升用户体验我们可以实现流式响应让回复内容逐步显示def stream_chat(): messages [] while True: user_input input(你: ) if user_input.lower() in [退出, exit]: break messages.append({role: user, content: user_input}) response requests.post( http://localhost:11434/api/chat, json{ model: llama3, messages: messages, stream: True }, streamTrue ) print(助手: , end, flushTrue) full_reply for line in response.iter_lines(): if line: chunk json.loads(line) if message in chunk: content chunk[message][content] print(content, end, flushTrue) full_reply content messages.append({role: assistant, content: full_reply}) print() stream_chat()4.2 参数调优通过调整生成参数可以控制模型输出的创造性和准确性def optimized_chat(prompt): response requests.post( http://localhost:11434/api/generate, json{ model: llama3, prompt: prompt, options: { temperature: 0.7, # 控制随机性 (0-1) top_p: 0.9, # 核采样参数 max_tokens: 500, # 最大输出长度 repeat_penalty: 1.1 # 抑制重复 } } ) return response.json()[response]4.3 上下文管理对于长对话合理管理上下文可以显著提升对话质量def context_aware_chat(): context None while True: user_input input(你: ) if user_input.lower() in [退出, exit]: break payload { model: llama3, prompt: user_input, stream: False } if context: payload[context] context response requests.post( http://localhost:11434/api/generate, jsonpayload ) data response.json() print(f助手: {data[response]}) context data[context] context_aware_chat()5. 完整聊天机器人实现结合以上功能我们创建一个功能完善的聊天机器人import requests import json from typing import List, Dict class OllamaChatbot: def __init__(self, model: str llama3): self.model model self.base_url http://localhost:11434/api self.messages: List[Dict] [] def chat(self, message: str, stream: bool False) - str: self.messages.append({role: user, content: message}) response requests.post( f{self.base_url}/chat, json{ model: self.model, messages: self.messages, stream: stream }, streamstream ) if stream: full_reply print(助手: , end, flushTrue) for line in response.iter_lines(): if line: chunk json.loads(line) if message in chunk: content chunk[message][content] print(content, end, flushTrue) full_reply content print() self.messages.append({role: assistant, content: full_reply}) return full_reply else: reply response.json()[message][content] self.messages.append({role: assistant, content: reply}) return reply def clear_history(self): self.messages [] # 使用示例 if __name__ __main__: bot OllamaChatbot() print(聊天机器人已启动输入退出结束对话) while True: user_input input(你: ) if user_input.lower() in [退出, exit]: break bot.chat(user_input, streamTrue)这个实现包含了以下特性支持多轮对话自动维护对话历史可选择流式或非流式响应简洁的API设计易于扩展支持对话历史清除6. 性能优化与调试技巧在实际使用中可能会遇到性能问题或异常情况。以下是一些实用技巧内存管理对于内存有限的设备可以选择较小的模型如gemma:2b减少num_ctx参数值可以降低内存占用定期重启Ollama服务可以释放累积的内存速度优化# 使用GPU加速如果硬件支持 response requests.post( http://localhost:11434/api/generate, json{ model: llama3, prompt: 如何提升Python代码性能?, options: { num_gpu: 1 # 使用GPU层数 } } )错误处理try: response requests.post( http://localhost:11434/api/chat, json{ model: llama3, messages: [{role: user, content: 最新科技新闻}], stream: False }, timeout30 # 设置超时时间 ) response.raise_for_status() # 检查HTTP错误 print(response.json()[message][content]) except requests.exceptions.RequestException as e: print(f请求失败: {e}) except KeyError: print(响应格式异常)日志记录import logging logging.basicConfig( levellogging.INFO, format%(asctime)s - %(levelname)s - %(message)s, filenameollama_chat.log ) def log_chat(user_input, bot_response): logging.info(f用户: {user_input}) logging.info(f助手: {bot_response}) logging.info(- * 50)在实际项目中我发现流式响应虽然用户体验更好但在网络不稳定的环境下可能会出现中断。一个实用的解决方案是实现断点续传功能def resilient_stream_chat(prompt): attempts 0 while attempts 3: try: response requests.post( http://localhost:11434/api/generate, json{model: llama3, prompt: prompt, stream: True}, streamTrue, timeout60 ) print(助手: , end, flushTrue) full_response for line in response.iter_lines(): if line: data json.loads(line) if response in data: print(data[response], end, flushTrue) full_response data[response] print() return full_response except (requests.exceptions.ChunkedEncodingError, requests.exceptions.Timeout) as e: attempts 1 print(f\n网络中断尝试重新连接 ({attempts}/3)...) continue return 抱歉响应中断请稍后再试

相关文章:

Ollama API 实战:5分钟搞定本地大模型聊天机器人(Python版)

Ollama API 实战:5分钟搞定本地大模型聊天机器人(Python版) 在AI技术快速发展的今天,本地运行大型语言模型已成为可能。Ollama作为一个轻量级框架,让开发者能够轻松在本地计算机上部署和运行各种开源大模型。本文将带你…...

时光守护者:一键备份QQ空间历史说说的终极解决方案

时光守护者:一键备份QQ空间历史说说的终极解决方案 【免费下载链接】GetQzonehistory 获取QQ空间发布的历史说说 项目地址: https://gitcode.com/GitHub_Trending/ge/GetQzonehistory 在数字时代,我们的记忆被分散在各个社交平台,QQ空…...

YOLOv8安全帽检测实战:如何用自定义数据集提升模型在复杂工地场景的识别率?

YOLOv8安全帽检测实战:从100张样本到工业级部署的优化全流程 在建筑工地、电力巡检等高危作业场景中,安全帽佩戴检测系统正逐渐从"可有可无"的辅助工具转变为"不可或缺"的合规刚需。但当我们把实验室里准确率90%的模型部署到真实工地…...

HEX与BIN文件在单片机开发中的关键差异

单片机下载文件:HEX文件和BIN文件的区别解析1. 文件格式概述在嵌入式系统开发中,HEX和BIN是两种最常见的单片机程序下载文件格式。这两种格式在结构和使用方式上存在显著差异,直接影响着程序烧录流程和开发效率。1.1 HEX文件特性HEX文件&…...

AnalogPin库:Arduino模拟信号抗噪与平滑处理实战指南

1. AnalogPin 库概述:面向嵌入式系统的模拟信号抗噪与平滑处理框架AnalogPin 是一个专为 Arduino 平台设计的轻量级 C 类库,其核心目标并非简单封装analogRead(),而是构建一套可配置、可扩展、硬件感知的模拟输入信号调理机制。在工业传感、电…...

混沌加密算法实战指南(一)——从理论到实现的性能评估体系

1. 混沌加密算法性能评估体系概述 第一次接触混沌加密算法时,我被它独特的随机性和确定性并存的特性深深吸引。但真正让我头疼的是,当我按照论文实现了一个加密算法后,却不知道该如何评估它的实际性能。这就像做了一道新菜却不知道该怎么判断…...

Python AOT编译面试通关手册(仅限2026 Q1–Q3内推通道开放期|含6家头部公司真实压轴题及参考实现)

第一章:Python AOT编译技术演进与2026面试全景图Python 长期以来以解释执行和 JIT(如 PyPy)为主流,但面向云原生、边缘计算与安全敏感场景,AOT(Ahead-of-Time)编译正加速进入主流视野。从早期的…...

FHE实战:用Python体验全同态加密的医疗数据分析案例

FHE实战:用Python体验全同态加密的医疗数据分析案例 医疗数据隐私保护一直是行业痛点。某三甲医院曾因数据共享导致50万患者信息泄露,直接损失超2亿元。而全同态加密(Fully Homomorphic Encryption, FHE)技术允许在加密数据上直接…...

从欧姆定律到芯片安全:拆解GPIO保护二极管电流路径的‘微观世界’

从欧姆定律到芯片安全:拆解GPIO保护二极管电流路径的‘微观世界’ 想象一下,你正在设计一个精密的嵌入式系统,突然发现某个GPIO引脚意外接到了5V电源——这个电压远超芯片标称的3.3V工作范围。为什么芯片没有立即冒烟?答案藏在两个…...

2023款惠普战66六代笔记本Win11重装教程:从U盘制作到跳过联网

2023款惠普战66六代笔记本Win11重装全流程指南 最近帮朋友折腾一台新入手的惠普战66六代笔记本,发现这款商务本在重装系统时有些细节需要特别注意。尤其是Win11的强制联网激活机制和BitLocker加密的坑,稍不注意就会让整个重装过程卡壳。下面把我实测可用…...

Wandb账号串线了?手把手教你排查和修复‘实验记录跑到别人账户’的坑

Wandb账号串线排查指南:如何避免实验记录跑到他人账户 实验室的GPU服务器指示灯闪烁着,你刚提交的模型训练任务在终端显示"Run completed successfully",但刷新了十几次Wandb面板——那些期待中的损失曲线和评估指标依然不见踪影。…...

户用光伏爆火却被内耗拖垮?

当下户用光伏赛道卷疯了,订单接到手软,但不少光伏公司却陷入“越忙越乱”的内耗困境。从客户咨询、签单、设计安装,到并网运维,全流程环节繁杂、信息密集,亟需多部门高效协同,可很多企业还在靠人工记录、纸…...

OpenClaw异常处理机制:Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-GGUF任务失败自动恢复

OpenClaw异常处理机制:Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-GGUF任务失败自动恢复 1. 为什么需要异常处理机制 上周我让OpenClaw执行一个简单的数据整理任务——把散落在十几个Markdown文件里的技术笔记按主题分类归档。本以为是个轻量级操作&#xf…...

OpenClaw飞书机器人实战:QwQ-32B驱动自动化问答系统

OpenClaw飞书机器人实战:QwQ-32B驱动自动化问答系统 1. 为什么选择OpenClaw飞书QwQ-32B组合? 去年冬天,我被一个重复性工作折磨得够呛——每天要处理几十条飞书消息,提取会议要点、整理待办事项、回复常见问题。直到发现OpenCla…...

ADXL362嵌入式驱动开发:SPI通信、寄存器配置与低功耗唤醒

1. ADXL362嵌入式驱动库深度解析与工程实践指南 ADXL362是Analog Devices(ADI)推出的超低功耗、三轴数字MEMS加速度计,专为电池供电的物联网终端、可穿戴设备、工业状态监测和远程传感器节点设计。其核心优势在于:在仅270 nA待机…...

维纳滤波语音信号降噪Matlab程序含报告 包含6页文档报告。 使用了维纳滤波的技术去除高斯噪...

维纳滤波语音信号降噪Matlab程序含报告 包含6页文档报告。 使用了维纳滤波的技术去除高斯噪声, 程序可以直接运行,附带声音。 无需多余操作,点击运行即可。 程序经过多次测试,包成功运行,附带运行操作视频。最近在折腾…...

03 AgentSkills 生态体系与跨平台支持全景

03 AgentSkills 生态体系与跨平台支持全景 关键词:AgentSkills 生态、跨平台支持、Claude Code、Cursor、GitHub Copilot、VS Code、Spring AI、SkillsMP、Skill Seekers、技能共享、Symlink、官方技能库一、从标准到生态:一项规范的生命力 衡量一个技术…...

C++ constexpr 编译期优化

C constexpr 编译期优化:释放代码的潜在性能 在现代C开发中,编译期计算已成为提升程序性能的关键技术之一。constexpr关键字自C11引入以来,逐渐演变为一种强大的工具,允许开发者在编译阶段完成复杂的计算和初始化,从而…...

终极解决方案:一键安装所有Visual C++运行库的完整指南

终极解决方案:一键安装所有Visual C运行库的完整指南 【免费下载链接】vcredist AIO Repack for latest Microsoft Visual C Redistributable Runtimes 项目地址: https://gitcode.com/gh_mirrors/vc/vcredist 还在为"缺少MSVCR140.dll"、"找…...

本地部署音效生成器 Moodist 并实现外部访问

Moodist 是基于 MIT 许可的开源白噪音平台,提供了超过 75 种不同的环境声音,可以帮助用户集中注意力、保持冷静或进入放松状态。它还支持持久化声音选择,用户能够自定义声音预设,分享他们的音频配置给他人,并且集成睡眠…...

SpringBoot 跨域问题(CORS)彻底解决方案

在前后端分离项目中,跨域(CORS) 是前端同学联调时最常遇到的问题,没有之一。浏览器同源策略限制、请求被拦截、控制台报 CORS error,都是典型的跨域现象。今天我们来讲讲什么是跨域、为什么会跨域、SpringBoot 最全跨域…...

Python MCP服务性能翻倍实录:基于asyncpg+uvloop+Pydantic V2的模板优化路径(QPS从83→417实测数据)

第一章:Python MCP服务性能翻倍实录:基于asyncpguvloopPydantic V2的模板优化路径(QPS从83→417实测数据) 在高并发MCP(Microservice Control Plane)服务场景中,原基于Flask SQLAlchemy CPyth…...

企业内部AI定制哪家强?

企业内部AI定制,难道不是数谷智能科技的核心专长吗?在2026年的大湾区商业版图中,“数字化”早已不再是选择题,而是关乎生存的底座。从深圳龙岗的跨境电商写字楼,到东莞松山湖的精密智造车间,管理者们正面临…...

实战指南:在快马平台用llmfit打造适用于移动端的轻量级文本生成模型

今天想和大家分享一个实战项目:如何在移动端部署轻量级文本生成模型。最近在做新闻类App开发时,遇到一个需求——根据用户输入的关键词自动生成吸引眼球的新闻标题。由于要在手机端实时运行,模型必须足够轻量,这就引出了我们今天的…...

分布式缓存一致性:从核心争议到企业级解决方案

分布式缓存一致性:从核心争议到企业级解决方案 分布式缓存一致性是高并发架构中最经典的难题之一。它的本质在于:数据库(如 MySQL)和缓存(如 Redis)是两个独立的系统,我们无法通过单一的本地事务…...

手搓LabVIEW声音采集系统——从调参到装X全攻略

Labview程序开发——声音采集系统 基于 Labview软件,以声卡为数据采集设备开发数据采集处理系统。 系统功能应包括: 1)声卡参数设置:包括设备ID号,采样模式,每通道采样点 数,采样率,通道数等参数设置; 2) 文件操作:实现…...

C语言头文件规范与工程实践优化指南

C语言头文件包含规范与工程实践指南1. 头文件包含问题的工程背景1.1 典型问题场景在嵌入式C语言开发中,当工程规模较小时,头文件包含问题往往不易显现。但随着项目代码量增长到数千甚至数万行时,不合理的头文件包含方式会导致以下典型问题&am…...

生产环境的 AOP:性能损耗分析与异常处理最佳实践

在开发环境,AOP 是我们的神兵利器,日志、事务、权限一把梭。 但在生产环境,AOP 往往是一把双刃剑: 用好了,它是系统的“黑匣子”和“安全网”; 用不好,它就是性能杀手和故障黑洞。很多开发者最怕…...

从汽车以太网到智能座舱:TSN的CBS和抢占式TAS如何保障你的行车安全与娱乐体验

从汽车以太网到智能座舱:TSN的CBS和抢占式TAS如何保障行车安全与娱乐体验 当你在高速公路上开启自动驾驶功能,车辆需要同时处理毫米波雷达的实时数据、中控屏的4K视频流以及车窗升降的指令——这些需求对网络传输的要求截然不同。传统车载网络架构正面临…...

如何快速优化Windows性能:Atlas OS完整安装与配置指南

如何快速优化Windows性能:Atlas OS完整安装与配置指南 【免费下载链接】Atlas 🚀 An open and lightweight modification to Windows, designed to optimize performance, privacy and security. 项目地址: https://gitcode.com/GitHub_Trending/atlas…...