当前位置: 首页 > article >正文

告别复杂配置!用Ollama快速部署Llama-3.2-3B文本生成服务

告别复杂配置用Ollama快速部署Llama-3.2-3B文本生成服务还在为部署大语言模型而头疼吗环境配置、依赖冲突、显存不足……这些繁琐的步骤常常让开发者望而却步。今天我要分享一个极其简单的方法让你在几分钟内就能拥有一个功能强大的Llama-3.2-3B文本生成服务无需任何复杂的配置过程。Llama-3.2-3B是Meta最新推出的轻量级大语言模型它在保持出色性能的同时对硬件要求更加友好。更重要的是通过Ollama这个工具我们可以像安装普通软件一样轻松部署它。无论你是想快速体验大模型的魅力还是需要一个稳定的本地文本生成服务这篇文章都将为你提供最直接的解决方案。1. 为什么选择Ollama Llama-3.2-3B组合在开始动手之前我们先了解一下这个组合为什么值得推荐。1.1 Llama-3.2-3B小而精悍的文本生成专家Llama-3.2-3B虽然参数规模只有30亿但它的表现却相当出色。这个模型专门针对多语言对话场景进行了优化在常见的行业基准测试中它的表现甚至超过了许多更大的开源模型和一些闭源模型。它的核心优势包括多语言支持不仅支持英文对中文等多种语言也有很好的理解能力对话优化专门针对聊天、问答、摘要等对话场景进行了训练资源友好3B的参数量意味着它可以在消费级GPU甚至CPU上流畅运行开源免费完全开源可以自由使用和修改1.2 Ollama大模型部署的“一键安装”工具Ollama的出现彻底改变了大模型部署的体验。你可以把它想象成大模型领域的“应用商店”或“软件包管理器”。Ollama的主要特点开箱即用下载即用无需复杂的配置模型管理可以轻松下载、更新、切换不同模型标准化接口提供统一的API接口方便集成到各种应用中跨平台支持Windows、macOS、Linux等多个操作系统2. 环境准备零配置起步传统的大模型部署需要安装Python环境、配置CUDA、处理各种依赖包……但使用Ollama这些步骤全部可以跳过。2.1 系统要求Llama-3.2-3B对硬件的要求相当亲民内存至少8GB RAM推荐16GB以上存储空间约2GB用于模型文件操作系统Windows 10/11、macOS 10.15、LinuxUbuntu 18.04等GPU可选如果有NVIDIA GPU性能会更好但不是必须的2.2 获取预配置环境最方便的方式是使用已经配置好的镜像环境。如果你在CSDN星图镜像广场找到了【ollama】Llama-3.2-3B镜像那么恭喜你所有环境都已经为你准备好了。如果你使用的是其他环境安装Ollama也很简单在macOS上brew install ollama在Linux上curl -fsSL https://ollama.com/install.sh | sh在Windows上直接从Ollama官网下载安装程序双击运行即可。3. 三步部署Llama-3.2-3B服务现在进入最核心的部分如何快速部署并开始使用这个文本生成服务。3.1 第一步启动Ollama服务如果你使用的是预配置镜像Ollama服务通常已经自动启动。你可以通过以下命令检查服务状态# 检查Ollama服务是否运行 ollama serve # 或者查看进程 ps aux | grep ollama如果服务没有运行只需执行ollama serve这个命令会在后台启动Ollama服务并监听默认端口通常是11434。3.2 第二步拉取Llama-3.2-3B模型这是最关键的一步但操作极其简单# 拉取Llama-3.2-3B模型 ollama pull llama3.2:3b执行这个命令后Ollama会自动从官方仓库下载模型文件。下载过程可能需要几分钟到十几分钟具体取决于你的网络速度。下载完成后你会看到类似这样的提示pulling manifest pulling xxxxxxxxxx... 100% pulling xxxxxxxxxx... 100% pulling xxxxxxxxxx... 100% verifying sha256 digest writing manifest success小提示如果你在镜像环境中模型可能已经预下载好了这一步可以跳过。3.3 第三步开始使用模型模型下载完成后你就可以立即开始使用了。Ollama提供了多种使用方式方式一命令行交互# 启动交互式对话 ollama run llama3.2:3b输入这个命令后你会进入一个交互式界面可以直接输入问题模型会实时回复。方式二单次查询# 单次查询 ollama run llama3.2:3b 请用中文写一首关于春天的诗方式三通过API调用Ollama提供了RESTful API方便集成到其他应用中# 使用curl调用API curl http://localhost:11434/api/generate -d { model: llama3.2:3b, prompt: 请介绍一下人工智能的发展历史, stream: false }4. 实际效果展示看看Llama-3.2-3B能做什么理论说了这么多不如看看实际效果。下面我展示几个实际的使用案例让你直观感受这个模型的能力。4.1 案例一创意写作我的输入请写一个关于程序员穿越到古代成为状元的短故事开头300字左右。模型输出李晨揉了揉发胀的太阳穴眼前的代码似乎出现了重影。连续加班三天后他终于完成了那个该死的项目。就在点击“提交”按钮的瞬间一道白光闪过…… 再次睁开眼时他发现自己躺在一张硬邦邦的木床上身上穿着粗糙的麻布衣服。环顾四周是古色古香的房间纸窗木门完全没有现代科技的痕迹。 “公子您终于醒了”一个穿着古装的小厮推门而入“明日就是殿试了您可得好好准备啊。” 李晨愣住了。殿试他一个写代码的怎么会参加科举考试但当他看到桌上的四书五经时一段不属于他的记忆涌入脑海——他现在是进京赶考的书生而且是本次科举的热门人选。 更让他惊讶的是那些复杂的文言文在他眼中竟然像代码一样清晰。八股文的格式逻辑诗词的平仄韵律似乎都能用编程思维来解析。一个大胆的想法在他心中升起也许他能用现代的逻辑思维在这古代考场中写出不一样的答卷……4.2 案例二技术问答我的输入用简单的语言解释一下什么是神经网络就像给小学生讲一样。模型输出想象一下你的大脑里有很多很多的小工人他们手拉手站成一排一排的。这些工人叫做“神经元”。 当你想认识一只猫的时候眼睛先看到猫的图片然后告诉第一排的工人“嘿我看到了一个东西” 第一排的工人仔细看了看有的说“我看到了两个尖尖的耳朵”有的说“我看到了长长的胡子”还有的说“我看到了毛茸茸的身体” 然后他们把这些信息传给第二排的工人。第二排的工人把信息组合起来可能会说“嗯有尖耳朵、长胡子、毛茸茸……这可能是猫也可能是狐狸我再看看。” 信息这样一排一排传下去每一排的工人都比前一排更聪明一点他们能认出更复杂的特征。最后最后一排的工人综合所有信息大声宣布“这就是一只猫” 神经网络就像这些工人一样通过一层一层的学习和传递信息最终学会认出猫、狗、汽车等各种东西。它学习的方式就是不断看图片不断调整工人之间传递信息的方式直到认得很准为止。4.3 案例三代码生成我的输入写一个Python函数检查一个字符串是否是回文正读反读都一样忽略空格和标点不区分大小写。模型输出def is_palindrome(s): 检查字符串是否是回文 参数: s (str): 要检查的字符串 返回: bool: 如果是回文返回True否则返回False # 移除所有非字母数字字符并转换为小写 cleaned .join(char.lower() for char in s if char.isalnum()) # 检查是否是回文 return cleaned cleaned[::-1] # 测试示例 if __name__ __main__: test_cases [ A man, a plan, a canal: Panama, # 经典回文 race a car, # 不是回文 , # 空字符串或只有空格 12321, # 数字回文 Was it a car or a cat I saw?, # 忽略标点的回文 ] for test in test_cases: result is_palindrome(test) print(f{test} - {result})从这些例子可以看出Llama-3.2-3B在创意写作、知识问答、代码生成等多个方面都有不错的表现而且响应速度很快。5. 进阶使用技巧掌握了基本用法后我们来看看如何更好地使用这个服务。5.1 调整生成参数Ollama允许你调整各种生成参数以获得更符合需求的输出# 调整温度参数控制随机性 ollama run llama3.2:3b --temperature 0.7 写一个科幻故事开头 # 限制生成长度 ollama run llama3.2:3b --num_predict 100 总结人工智能的三大应用领域 # 使用系统提示词 ollama run llama3.2:3b --system 你是一个专业的科技作家 写一篇关于量子计算的科普文章常用参数说明--temperature控制输出的随机性值越高越有创意值越低越确定默认0.8--num_predict限制生成的最大token数量--top_p核采样参数控制输出的多样性--seed设置随机种子使输出可重复5.2 集成到Python应用中如果你想在自己的Python项目中使用这个服务可以这样做import requests import json class OllamaClient: def __init__(self, base_urlhttp://localhost:11434): self.base_url base_url def generate(self, prompt, modelllama3.2:3b, **kwargs): 生成文本 url f{self.base_url}/api/generate data { model: model, prompt: prompt, stream: False, **kwargs } response requests.post(url, jsondata) if response.status_code 200: return response.json()[response] else: raise Exception(f请求失败: {response.status_code}) def chat(self, messages, modelllama3.2:3b): 对话模式 url f{self.base_url}/api/chat data { model: model, messages: messages, stream: False } response requests.post(url, jsondata) if response.status_code 200: return response.json()[message][content] else: raise Exception(f请求失败: {response.status_code}) # 使用示例 if __name__ __main__: client OllamaClient() # 简单生成 result client.generate(用Python写一个快速排序算法) print(生成的代码) print(result) # 对话模式 messages [ {role: user, content: 你好请介绍一下你自己}, {role: assistant, content: 我是基于Llama-3.2-3B模型的AI助手很高兴为你服务}, {role: user, content: 你能帮我写诗吗} ] response client.chat(messages) print(\n对话回复) print(response)5.3 批量处理文本如果你需要处理大量文本可以考虑使用批量处理的方式import concurrent.futures from ollama_client import OllamaClient # 假设上面的类保存为ollama_client.py def process_batch(prompts, max_workers3): 批量处理提示词 client OllamaClient() results [] with concurrent.futures.ThreadPoolExecutor(max_workersmax_workers) as executor: # 提交所有任务 future_to_prompt { executor.submit(client.generate, prompt): prompt for prompt in prompts } # 收集结果 for future in concurrent.futures.as_completed(future_to_prompt): prompt future_to_prompt[future] try: result future.result() results.append((prompt, result)) print(f处理完成: {prompt[:50]}...) except Exception as e: print(f处理失败: {prompt[:50]}... 错误: {e}) return results # 示例批量生成产品描述 product_names [ 无线蓝牙耳机降噪功能续航30小时, 智能手表心率监测GPS定位防水50米, 便携式充电宝20000mAh支持快充, 机械键盘青轴RGB背光全键无冲 ] prompts [f为以下产品写一段吸引人的电商描述100字左右{name} for name in product_names] results process_batch(prompts, max_workers2) for prompt, result in results: print(f\n产品: {prompt.split()[-1]}) print(f描述: {result}) print(- * 50)6. 常见问题与解决方案在实际使用中你可能会遇到一些问题。这里我整理了一些常见问题及其解决方法。6.1 模型响应慢或卡顿可能原因及解决方案硬件资源不足检查内存使用情况free -hLinux或任务管理器Windows如果内存不足可以尝试减少并发请求数量考虑增加虚拟内存或升级硬件模型未完全加载首次使用需要加载模型到内存稍等片刻即可后续使用会快很多生成长文本如果需要生成长文本可以分段生成使用--num_predict参数限制生成长度6.2 输出质量不理想提升输出质量的技巧优化提示词# 不好的提示词 ollama run llama3.2:3b 写文章 # 好的提示词 ollama run llama3.2:3b 请以科技博客作者的身份写一篇关于人工智能在医疗领域应用的科普文章要求语言通俗易懂适合普通读者阅读字数约800字。调整温度参数创意写作温度0.8-1.2技术文档温度0.3-0.7代码生成温度0.1-0.5使用系统提示词ollama run llama3.2:3b --system 你是一位经验丰富的Python开发工程师擅长编写简洁高效的代码。 写一个处理CSV文件的函数6.3 服务无法启动或连接排查步骤检查Ollama服务状态# Linux/macOS ps aux | grep ollama # Windows tasklist | findstr ollama检查端口占用# 检查11434端口是否被占用 netstat -an | grep 11434 # Linux/macOS netstat -ano | findstr 11434 # Windows重启Ollama服务# 停止服务 pkill ollama # Linux/macOS # 重新启动 ollama serve6.4 模型管理问题常用管理命令# 查看已安装的模型 ollama list # 删除不需要的模型 ollama rm llama3.2:3b # 复制模型创建新名称 ollama cp llama3.2:3b my-llama # 查看模型信息 ollama show llama3.2:3b7. 总结通过这篇文章你应该已经掌握了使用Ollama快速部署Llama-3.2-3B文本生成服务的完整流程。让我们回顾一下关键要点部署过程简单到令人惊讶只需要三步——启动服务、拉取模型、开始使用。相比传统的大模型部署方式这简直就像安装一个普通软件一样简单。Llama-3.2-3B表现不俗虽然只有3B参数但它在创意写作、技术问答、代码生成等多个场景下都有不错的表现完全能够满足日常的文本生成需求。使用方式灵活多样无论是通过命令行交互还是通过API集成到自己的应用中都能轻松实现。调整参数、批量处理、优化提示词等进阶技巧让你能更好地控制生成结果。资源要求亲民不需要昂贵的专业显卡普通电脑就能运行这让更多开发者能够接触和使用大语言模型技术。最重要的是这个方案让你能够专注于应用开发而不是环境配置。你可以快速搭建一个原型验证想法或者构建一个完整的文本生成应用。技术的价值在于应用而降低使用门槛是技术普及的关键。Ollama Llama-3.2-3B的组合正是朝着这个方向迈出的重要一步。现在障碍已经大大降低是时候将你的创意转化为现实了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

告别复杂配置!用Ollama快速部署Llama-3.2-3B文本生成服务

告别复杂配置!用Ollama快速部署Llama-3.2-3B文本生成服务 还在为部署大语言模型而头疼吗?环境配置、依赖冲突、显存不足……这些繁琐的步骤常常让开发者望而却步。今天,我要分享一个极其简单的方法,让你在几分钟内就能拥有一个功…...

报告管理化技术自动化报告与数据洞察

报告管理化技术:自动化报告与数据洞察的革新力量 在数据爆炸的时代,企业每天需要处理海量信息,传统的手工报告方式已无法满足高效决策的需求。报告管理化技术通过自动化报告与数据洞察,正在重塑企业的运营模式。它不仅大幅提升效…...

Ollama部署DeepSeek-R1:解决数学编程问题的智能助手

Ollama部署DeepSeek-R1:解决数学编程问题的智能助手 1. 引言:为什么你需要一个数学和编程助手 如果你经常需要解决数学问题、编写代码或者处理复杂的逻辑推理,可能会遇到这样的困扰:面对一个复杂的方程,需要反复推导…...

YOLOE镜像进阶:如何进行线性探测快速微调

YOLOE镜像进阶:如何进行线性探测快速微调 1. 线性探测技术概述 线性探测(Linear Probing)是迁移学习中的一种高效微调策略,特别适合在预训练模型基础上快速适配新任务。与全量微调不同,线性探测仅训练模型最后一层的…...

Redis 内存碎片率优化方案

Redis作为高性能内存数据库,内存利用率直接影响服务稳定性。随着数据频繁增删,内存碎片率上升可能导致明明有足够内存却无法分配,甚至触发OOM。本文将深入探讨Redis内存碎片率优化方案,帮助开发者提升资源利用率,降低运…...

Linux V4L2核心子系统

一、drivers/media/v4l2-core 目录文件分析drivers/media/v4l2-core/ │ ├── 1. 字符设备核心模块 │ └── v4l2-dev.c # V4L2字符设备驱动核心 │ ├── video_device 注册/注销 │ ├── 申请主设备号(81) │ ├── 创建/dev…...

Windows 11任务栏拖放功能恢复解决方案:智能修复工具让高效操作触手可及

Windows 11任务栏拖放功能恢复解决方案:智能修复工具让高效操作触手可及 【免费下载链接】Windows11DragAndDropToTaskbarFix "Windows 11 Drag & Drop to the Taskbar (Fix)" fixes the missing "Drag & Drop to the Taskbar" support…...

从Prompt工程到RAG再到Model Router:AI原生研发技术栈选型全链路拆解,拒绝“堆模型式开发”

第一章:AI原生软件研发技术选型决策树的演进逻辑与本质挑战 2026奇点智能技术大会(https://ml-summit.org) AI原生软件已突破传统“AI作为模块嵌入系统”的范式,转向以模型为一等公民、数据流驱动架构、推理即接口(Inference-as-Interface&a…...

炸锅!GPT-6 定档 4.14!性能狂涨 40%,OpenAI 发超级模型

文章目录 前言性能暴涨40%?这特么是开挂了吧!200万Token!能把《三体》全书塞进去!为了这颗"土豆",OpenAI连命都不要了它会变成一个"超级应用"?我的一些真实想法(有点慌&…...

WSABuilds深度解析:在Windows上构建完整Android生态系统的技术指南

WSABuilds深度解析:在Windows上构建完整Android生态系统的技术指南 【免费下载链接】WSABuilds Run Windows Subsystem For Android on your Windows 10 and Windows 11 PC using prebuilt binaries with Google Play Store (MindTheGapps) and/or Magisk or Kernel…...

应届生面试:面试官最讨厌的5种回答

文章目录前言一、"我愿意学习" —— 最廉价的废话二、"这是组长分配的,我不知道为啥" —— 甩锅侠转世三、"我没什么特长,就是比较踏实" —— 凡尔赛式自卑四、答非所问,自说自话 —— 沉浸在自己的世界里五、…...

保姆级教程:Qwen3-14B镜像一键部署,WebUI可视化对话快速体验

保姆级教程:Qwen3-14B镜像一键部署,WebUI可视化对话快速体验 1. 开箱即用的Qwen3-14B私有部署方案 在本地运行大语言模型曾经是件令人头疼的事——环境配置、依赖冲突、显存不足,每一步都可能成为拦路虎。但现在,通过预配置的Qw…...

EasyAnimateV5-7b-zh-InP图生视频模型:VMware虚拟机5分钟快速部署指南

EasyAnimateV5-7b-zh-InP图生视频模型:VMware虚拟机5分钟快速部署指南 1. 为什么选择EasyAnimateV5-7b-zh-InP 在众多AI视频生成模型中,EasyAnimateV5-7b-zh-InP以其专注图生视频的能力脱颖而出。与常见的文生视频模型不同,它专门针对"…...

offline meta-RL | 总结 FOCAL 等经典工作的数据收集 / 性能测试方法畏

在AI辅助开发的语境下,Skill就是一个包含了领域知识、最佳实践、代码模板的知识包。 以"DAO层CRUD生成"为例,一个Skill包含: /mnt/skills/dao-crud/ ├── SKILL.md # 使用说明 │ ├── 何时使用这个Skill │ …...

MogFace人脸检测模型-WebUI行业落地:在线教育平台学生出勤与专注度分析

MogFace人脸检测模型-WebUI行业落地:在线教育平台学生出勤与专注度分析 1. 项目背景与需求场景 在线教育平台的快速发展带来了新的教学管理挑战。传统的线下课堂中,教师可以直观地看到学生的出勤情况和听课状态,但在线上环境中,…...

JMS, ActiveMQ 学习一则约

开发个什么Skill呢? 通过 Skill,我们可以将某些能力进行模块化封装,从而实现特定的工作流编排、专家领域知识沉淀以及各类工具的集成。 这里我打算来一次“套娃式”的实践:创建一个用于自动生成 Skill 的 Skill,一是用…...

剧本创作新选择:如何用Trelby免费开源软件提升写作效率

剧本创作新选择:如何用Trelby免费开源软件提升写作效率 【免费下载链接】trelby The free, multiplatform, feature-rich screenwriting program! 项目地址: https://gitcode.com/gh_mirrors/tr/trelby 你是否曾为剧本格式调整而烦恼?是否在寻找一…...

ReadCat:打造专注纯净的跨平台小说阅读体验

ReadCat:打造专注纯净的跨平台小说阅读体验 【免费下载链接】read-cat 一款免费、开源、简洁、纯净、无广告的小说阅读器 项目地址: https://gitcode.com/gh_mirrors/re/read-cat 在数字阅读时代,你是否厌倦了各种弹窗广告、强制更新和复杂的界面…...

如何一键永久禁用Windows Defender?终极开源解决方案指南

如何一键永久禁用Windows Defender?终极开源解决方案指南 【免费下载链接】defender-control An open-source windows defender manager. Now you can disable windows defender permanently. 项目地址: https://gitcode.com/gh_mirrors/de/defender-control …...

FreakStudio鼓

环境安装 pip install keystone-engine capstone unicorn 这3个工具用法极其简单,下面通过示例来演示其用法。 Keystone 示例 from keystone import * CODE b"INC ECX; ADD EDX, ECX" try:ks Ks(KS_ARCH_X86, KS_MODE_64)encoding, count ks.asm(CODE)…...

TLE94112EL十二通道半桥驱动芯片详解与Arduino电机控制实战

1. TLE94112EL驱动芯片与DC电机控制板技术综述TLE94112EL是英飞凌(Infineon)面向汽车电子和工业控制领域推出的高集成度十二通道半桥驱动芯片,专为多电机协同控制场景设计。其核心价值在于将传统MCU需大量GPIO、PWM资源和外部保护电路才能实现…...

让静态图片活起来:EasyAnimateV5图生视频模型快速体验报告

让静态图片活起来:EasyAnimateV5图生视频模型快速体验报告 1. 开篇:一张图,六秒钟,让想象力动起来 你有没有想过,手机相册里那些定格的美好瞬间,如果能像电影一样动起来,会是什么样子&#xf…...

深入STM32 HAL库启动流程:从HAL_Init()到Systick,一步步拆解时钟与中断初始化的那些事

深入STM32 HAL库启动流程:从HAL_Init()到Systick,一步步拆解时钟与中断初始化的那些事 在嵌入式开发领域,STM32系列微控制器因其强大的性能和丰富的生态而广受欢迎。对于希望深入理解底层机制的中级开发者来说,HAL库的启动流程是一…...

【大模型应用实践】基于xiaohongshu-mcp与Cherry Studio,打造你的AI小红书内容管家

1. 为什么你需要一个AI小红书内容管家 作为一个在小红书深耕多年的内容创作者,我深知创作过程中的痛点:找选题想到头秃、写文案反复修改、排版配图耗时费力。直到我发现了xiaohongshu-mcp与Cherry Studio这对黄金组合,才真正体会到什么叫&qu…...

AI Agent Harness Engineering 时代的 UX_UI 设计原则

AI Agent Harness Engineering 时代的 UX/UI 设计原则 1. 引入与连接:与AI共舞的新纪元 1.1 一个未来场景的快照 让我们先进行一个思维实验。想象一下,2027年的一个普通工作日早晨: 你醒来,卧室的智能系统已经根据你的睡眠质量和当天日程调整了室温与照明。你走进厨房,…...

深入理解Linux OOM Killer机制与规避策略

深入理解Linux OMM Killer机制与规避策略 在Linux系统中,当内存资源耗尽时,内核会触发OOM Killer(Out-of-Memory Killer)机制,强制终止某些进程以释放内存,确保系统继续运行。这一机制可能导致关键服务被误…...

Ollama部署EmbeddingGemma-300m常见问题全解:从报错到实战

Ollama部署EmbeddingGemma-300m常见问题全解:从报错到实战 1. 为什么选择EmbeddingGemma-300m? EmbeddingGemma-300m是谷歌推出的轻量级文本嵌入模型,仅有3亿参数却继承了Gemini系列模型的强大能力。这个模型特别适合需要在本地环境部署语义…...

React Fiber 优先级调度优化

React Fiber 优先级调度优化:提升用户体验的核心机制 React Fiber 是 React 16 引入的全新架构,其核心目标是通过优先级调度优化,实现更流畅的用户交互体验。传统 React 的同步渲染机制可能导致高优先级任务(如用户输入&#xff…...

别再手动处理视频了!用YOLOv8+RTSP打造智能安防监控原型(Python/FFmpeg实战)

智能安防监控实战:基于YOLOv8与RTSP的实时目标检测系统 在智能安防领域,实时视频分析已经成为行业标配。想象一下:当传统监控摄像头遇到AI,它能自动识别闯入者、统计人流量、发现异常行为,甚至预警潜在危险。本文将带您…...

Vue + G 实战:打造高校学生打卡数据可视化大屏米

1、普通的insert into 如果(主键/唯一建)存在,则会报错 新需求:就算冲突也不报错,用其他处理逻辑 回到顶部 2、基本语法(INSERT INTO ... ON CONFLICT (...) DO (UPDATE SET ...)/(NOTHING)) 语…...