How do I format markdown chatgpt response in tkinter frame python?
题意:怎样在Tkinter框架中使用Python来格式化Markdown格式的ChatGPT响应?
问题背景:
Chatgpt sometimes responds in markdown language. Sometimes the respond contains ** ** which means the text in between should be bold and ### text ### which means that text is a heading. I want to format this correctly and display it properly in tkinter. If it's bold or a heading, it should be formatted to bold or to a heading in tkintter. How to do this?
ChatGPT有时会以Markdown语言回应。有时回应中包含** **,这表示中间的文本应该是粗体的;而### text ###则表示该文本是一个标题。我想在Tkinter中正确地格式化并显示这些文本。如果它是粗体或标题,则应该在Tkinter中以粗体或标题的形式显示。如何做到这一点?
My code:
import tkinter as tk
from tkinter import ttk
from datetime import datetime
import openai
import json
import requestshistory = []
# Create a function to use ChatGPT 3.5 turbo to answer a question based on the prompt
def get_answer_from_chatgpt(prompt, historyxx):global historyopenai.api_key = "xxxxxxx"append_to_chat_log(message="\n\n\n")append_to_chat_log("Chatgpt")print("Trying")messages = [{"role": "user", "content": prompt}]try:stream = openai.chat.completions.create(model="gpt-3.5-turbo",messages=messages,stream=True,)for chunk in stream:chunk = chunk.choices[0].delta.contentchunk = str(chunk)if chunk != "None":append_to_chat_log(message=chunk)append_to_chat_log(message="\n\n\n")print("Streaming complete")except Exception as e:print(e)return "Sorry, an error occurred while processing your request."# Create a function to use OpenAI to answer a question based on the search resultsdef append_to_chat_log(sender=None, message=None):chat_log.config(state="normal")if sender:chat_log.insert("end", f"{sender}:\n", "sender")if message:chat_log.insert("end", message)chat_log.config(state="disabled")chat_log.see("end")chat_log.update()def send_message(event=None):global historymessage = message_entry.get(1.0, "end-1c") message = message.strip()message_entry.delete(1.0, tk.END)message_entry.update()if not message:pass else:append_to_chat_log("User", message)history.append(("user", message))if len(history) >4:history = history[-4:]print(message)response = get_answer_from_chatgpt(message, history)history.append(("assistant", response))root = tk.Tk()root.title("Chat")# Maximize the window
root.attributes('-zoomed', True)chat_frame = tk.Frame(root)
chat_frame.pack(expand=True, fill=tk.BOTH)chat_log = tk.Text(chat_frame, state='disabled', wrap='word', width=70, height=30, font=('Arial', 12), highlightthickness=0, borderwidth=0)
chat_log.pack(side=tk.LEFT, padx=(500,0), pady=10)message_entry = tk.Text(root, padx=17, insertbackground='white', width=70, height=1, spacing1=20, spacing3=20, font=('Open Sans', 14))
message_entry.pack(side=tk.LEFT, padx=(500, 0), pady=(0, 70)) # Adjust pady to move it slightly above the bottom
message_entry.mark_set("insert", "%d.%d" % (0,0))
message_entry.bind("<Return>", send_message)root.mainloop()
问题解决:
I solved my own question 我解决了我自己提出的问题
import tkinter as tk
from datetime import datetime
import openaihistory = []# Create a function to use ChatGPT 3.5 turbo to answer a question based on the prompt
def get_answer_from_chatgpt(prompt, historyxx):global historyopenai.api_key = "xxxx"append_to_chat_log(message="\n\n\n")append_to_chat_log("Chatgpt")print("Trying")messages = [{"role": "user", "content": prompt}]try:stream = openai.chat.completions.create(model="gpt-3.5-turbo",messages=messages,stream=True,)buffer = ""heading = ""bold = Falsewhile True:chunk = next(stream)chunk = chunk.choices[0].delta.contentchunk = str(chunk)if chunk != "None":buffer += chunkif "**" in buffer:while "**" in buffer:pre, _, post = buffer.partition("**")append_to_chat_log(message=pre, bold=bold)bold = not boldbuffer = postif "###" in buffer:while "###" in buffer:pre, _, post = buffer.partition("###")append_to_chat_log(message=pre, bold=heading)heading = not headingbuffer = postelse:append_to_chat_log(message=buffer, bold=bold)buffer = ""append_to_chat_log(message="\n\n\n")print("Streaming complete")except Exception as e:print(e)return "Sorry, an error occurred while processing your request."def append_to_chat_log(sender=None, message=None, bold=False, heading=False):chat_log.config(state="normal")if sender:chat_log.insert("end", f"{sender}:\n", "sender")if message:if bold:chat_log.insert("end", message, "bold")if heading:chat_log.insert("end", message, "heading")else:chat_log.insert("end", message)chat_log.config(state="disabled")chat_log.see("end")chat_log.update()def send_message(event=None):global historymessage = message_entry.get(1.0, "end-1c")message = message.strip()message_entry.delete(1.0, tk.END)message_entry.update()if not message:pass else:append_to_chat_log("User", message)history.append(("user", message))if len(history) > 4:history = history[-4:]print(message)response = get_answer_from_chatgpt(message, history)history.append(("assistant", response))root = tk.Tk()
root.title("Chat")# Maximize the window
root.attributes('-zoomed', True)chat_frame = tk.Frame(root)
chat_frame.pack(expand=True, fill=tk.BOTH)chat_log = tk.Text(chat_frame, state='disabled', wrap='word', width=70, height=30, font=('Arial', 12), highlightthickness=0, borderwidth=0)
chat_log.tag_configure("sender", font=('Arial', 12, 'bold'))
chat_log.tag_configure("bold", font=('Arial', 12, 'bold'))
chat_log.tag_configure("heading", font=('Arial', 16, 'bold'))
chat_log.pack(side=tk.LEFT, padx=(500,0), pady=10)message_entry = tk.Text(root, padx=17, insertbackground='white', width=70, height=1, spacing1=20, spacing3=20, font=('Open Sans', 14))
message_entry.pack(side=tk.LEFT, padx=(500, 0), pady=(0, 70)) # Adjust pady to move it slightly above the bottom
message_entry.mark_set("insert", "%d.%d" % (0,0))
message_entry.bind("<Return>", send_message)root.mainloop()

相关文章:
How do I format markdown chatgpt response in tkinter frame python?
题意:怎样在Tkinter框架中使用Python来格式化Markdown格式的ChatGPT响应? 问题背景: Chatgpt sometimes responds in markdown language. Sometimes the respond contains ** ** which means the text in between should be bold and ### te…...
vs2019 QT无法打开源文件QModbusTcpClient
vs2019无法打开源文件QModbusTcpClient 如果配置的msvc2019,则查找到Include目录 然后包含: #include <QtSerialBus/qmodbustcpclient.h>...
初识c++(命名空间,缺省参数,函数重载)
一、命名空间 1、namespace的意义 在C/C中,变量、函数和后面要学到的类都是大量存在的,这些变量、函数和类的名称将都存在于全 局作用域中,可能会导致很多冲突。使用命名空间的目的是对标识符的名称进行本地化,以避免命名 冲突…...
印尼Facebook直播网络需要达到什么要求?
在全球化浪潮的推动下,海外直播正受到企业、个人和机构的广泛关注和青睐。无论是用于营销、推广还是互动,海外直播为各种组织提供了更多机会和可能性。本文将探讨在进行印尼Facebook直播前,需要满足哪些网络条件以确保直播的质量和用户体验。…...
力扣题解(最长回文子串)
5. 最长回文子串 给你一个字符串 s,找到 s 中最长的 回文子串 。思路: 对于第i个字符,可能的回文子串构成方式有两种,一种是以i位置元素为中心元素,向着两边扩展,一种是以i位置和i1位置元素为中心…...
数据湖表格式 Hudi/Iceberg/DeltaLake/Paimon TPCDS 性能对比(Spark 引擎)
当前,业界流行的集中数据湖表格式 Hudi/Iceberg/DeltaLake,和最近出现并且在国内比较火的 Paimon。我们现在看到的很多是针对流处理场景的读写性能测试,那么本篇文章我们将回归到大数据最基础的场景,对海量数据的批处理查询。本文…...
脚本练习-每5分钟执行一次获取当前服务器的基本情况
设计一个shell程序,每5分钟执行一次获取当前服务器的基本情况(内存使用率,CPU负载,I/O,磁盘使用率),保存到120.20.20.20数据库上数据库帐号aaa密码bbb库名test表名host 创建一个名为server_stat…...
技术探索之kotlin浅谈
Kotlin是一种静态类型编程语言,它运行在Java虚拟机(JVM)上,可以与Java代码互操作。Kotlin由JetBrains开发,是一种现代、简洁且安全的编程语言。它在2011年首次亮相,2017年被谷歌宣布为Android官方开发语言。…...
机器学习之常用优化器
机器学习之常用优化器 1、SGD 优化器1.2、 SGD 的优缺点 2、 Adam 优化器2.1、设置 Adam 优化器2.2、使用 Adam 优化器的训练流程2.3、Adam 优化器的优缺点 3. AdamW 优化器3.1、示例3.2、训练过程3.3、AdamW 优化器的优点 1、SGD 优化器 在 PyTorch 中,设置 SGD 优…...
机器学习基本概念,Numpy,matplotlib和张量Tensor知识进一步学习
机器学习一些基本概念: 监督学习 监督学习是机器学习中最常见的形式之一,它涉及到使用带标签的数据集来训练模型。这意味着每条训练数据都包含输入特征和对应的输出标签。目标是让模型学会从输入到输出的映射,这样当给出新的未见过的输入时…...
博客前端项目学习day01
这里写自定义目录标题 登录创建项目配置环境变量,方便使用登录页面验证码登陆表单 在VScode上写前端,采用vue3。 登录 创建项目 检查node版本 node -v 创建一个新的项目 npm init vitelatest blog-front-admin 中间会弹出询问是否要安装包,…...
java Collections.synchronizedCollection方法介绍
Collections.synchronizedCollection 是 Java 中的一个实用方法,用于创建一个线程安全的集合。它通过包装现有的集合对象来实现线程安全,以确保在多线程环境中对集合的访问是安全的。 主要功能 线程安全:通过同步包装现有的集合,使得在多线程环境中对集合的所有访问(包括…...
力扣每日一题:3011. 判断一个数组是否可以变为有序
力扣官网:前往作答!!!! 今日份每日一题: 题目要求: 给你一个下标从 0 开始且全是 正 整数的数组 nums 。 一次 操作 中,如果两个 相邻 元素在二进制下数位为 1 的数目 相同 &…...
ubuntu 上vscode +cmake的debug调试配置方法
在ubuntu配置pcl点云库以及opencv库的时候,需要在CMakeLists.txt中加入相应的代码。配置完成后,无法调试,与在windows上体验vs studio差别有点大。 找了好多调试debug配置方法,最终能用的有几种,但是有一种特别好用&a…...
使用Redis实现签到功能:Java示例解析
使用Redis实现签到功能:Java示例解析 在本博客中,我们将讨论一个使用Redis实现的签到功能的Java示例。该示例包括两个主要方法:sign()和signCount(),分别用于用户签到和计算用户当月的签到次数。 1. 签到方法:sign()…...
tableau标靶图,甘特图与瀑布图绘制 - 9
标靶图,甘特图与瀑布图 1. 标靶图绘制1.1 筛选器筛选日期1.2 条形图绘制1.3 编辑参考线1.4 设置参考线1.5 设置参考区间1.6 四分位设置1.7 其他标靶图结果显示 2.甘特图绘制2.1 选择列属性2.2 选择列属性2.3 创建新字段2.4 设置天数大小及颜色 3. 瀑布图绘制3.1 she…...
双向链表专题
在之前的单链表专题中,了解的单链表的结构是如何实现的,以及学习了如何实现单链表得各个功能。单链表虽然也能实现数据的增、删、查、改等功能,但是要找到尾节点或者是要找到指定位置之前的节点时,还是需要遍历链表,这…...
SpringCoud组件
一、使用SpringCloudAlibaba <dependencyManagement><dependencies><dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-alibaba-dependencies</artifactId><version>2023.0.1.0</version><…...
向量的定义和解释
这是一个向量: 向量具有大小(大小)和方向: 线的长度显示其大小,箭头指向方向。 在这里玩一个: 我们可以通过将它们从头到尾连接来添加两个向量: 无论我们添加它们的顺序如何,我们都…...
IoTDB 集群高效管理:一键启停功能介绍
如何快速启动、停止 IoTDB 集群节点的功能详解! 在部署 IoTDB 集群时,对于基础的单机模式,启动过程相对简单,仅需执行 start-standalone 脚本来启动 1 个 ConfigNode 节点和 1 个 DataNode 节点。然而,对于更高级的分布…...
Emby高级功能革新解锁方案:emby-unlocked颠覆式技术实现与部署指南
Emby高级功能革新解锁方案:emby-unlocked颠覆式技术实现与部署指南 【免费下载链接】emby-unlocked Emby with the premium Emby Premiere features unlocked. 项目地址: https://gitcode.com/gh_mirrors/em/emby-unlocked 在数字媒体日益普及的今天…...
3大优势让学术翻译更安全:Zotero PDF翻译插件离线方案全解析
3大优势让学术翻译更安全:Zotero PDF翻译插件离线方案全解析 【免费下载链接】zotero-pdf-translate Translate PDF, EPub, webpage, metadata, annotations, notes to the target language. Support 20 translate services. 项目地址: https://gitcode.com/gh_mi…...
Wan2.2-I2V-A14B一文详解:适配CUDA 12.4与550.90.07驱动的稳定部署方案
Wan2.2-I2V-A14B一文详解:适配CUDA 12.4与550.90.07驱动的稳定部署方案 1. 镜像概述与核心价值 Wan2.2-I2V-A14B是一款专为文生视频任务优化的私有部署镜像,针对RTX 4090D 24GB显存显卡和CUDA 12.4环境进行了深度适配。这个镜像的最大特点是开箱即用&a…...
华硕笔记本性能调校新纪元:GHelper如何重塑硬件控制体验
华硕笔记本性能调校新纪元:GHelper如何重塑硬件控制体验 【免费下载链接】g-helper Lightweight, open-source control tool for ASUS laptops and ROG Ally. Manage performance modes, fans, GPU, battery, and RGB lighting across Zephyrus, Flow, TUF, Strix, …...
2026AI大模型入门学习教程(建议收藏),大模型入门学习路线,非常详细看这一篇就够了!
一、LLM Fundamentals 基础 1. 机器学习的数学基础 在掌握机器学习之前,理解支撑这些算法的基本数学概念非常重要。 线性代数:这是理解许多算法(特别是深度学习算法)的关键。主要概念包括向量、矩阵、行列式、特征值和特征向量、…...
藏在化橘红里的数字农业隐喻:拼多多将“地方风物”做成了新爆款
图片 2026年两会期间,化橘红因为一个点赞意外“出圈”。 不少人将化橘红的“走红”归结为偶然的流量红利,只要深入化橘红的产业肌理,就会发现并非是一场单纯的“流量造神”,而是电商供应链、新农人回流、产业化升级交织下的必然。…...
OpenClaw二次开发:修改Qwen3-4B的prompt模板提升效果
OpenClaw二次开发:修改Qwen3-4B的prompt模板提升效果 1. 为什么要修改prompt模板? 第一次使用OpenClaw对接Qwen3-4B模型时,我发现默认的prompt模板在处理复杂任务时经常出现"任务拆解不完整"或"工具调用顺序混乱"的问题…...
AI 学习笔记:LLM 的部署与测试
关于 LLM 的本地部署 正如我之前在《[[关于 AI 的学习路线图]]》一文中所提到的,从学习的角度来说,如果我们要想切实了解 LLM 在计算机软件系统中所处的位置,以及它在生产环境中所扮演的角色,最直接的方式就是尝试将其部署到我们…...
Node.js企业级应用部署与运维完整方案:Google Cloud Platform实战指南
Node.js企业级应用部署与运维完整方案:Google Cloud Platform实战指南 【免费下载链接】nodejs-docs-samples Node.js samples for Google Cloud Platform products. 项目地址: https://gitcode.com/gh_mirrors/no/nodejs-docs-samples 想要构建稳定可靠的No…...
如何在微信和QQ上使用EmojiPackage表情包:终极完整指南
如何在微信和QQ上使用EmojiPackage表情包:终极完整指南 【免费下载链接】EmojiPackage 表情包资源合集,张张都是经典 项目地址: https://gitcode.com/gh_mirrors/em/EmojiPackage EmojiPackage表情包资源合集是聊天社交中的神器,这个经…...
