Ollama 的庐山真面目
Ollama 运行方式分析
-
本地推理条件(GPU/CPU/RAM):Ollama 支持在本地电脑进行大模型推理,但需要满足一定的硬件条件。一般来说,GPU 有助于加速推理,特别是显存较大的 GPU 能够加载更大的模型;如果没有 GPU,也可以纯靠 CPU 运行,不过速度会较慢。此外,还需要充足的 RAM 来容纳模型权重(例如加载 7B 参数模型通常需要十几GB内存)。总之,本地运行模型时,设备应当拥有足够的计算资源(GPU/CPU 性能)和内存容量来支撑推理过程。
-
运行模式动态调整(低显存模式、Swap 机制、云端 API):Ollama 在推理时会根据可用资源动态调整运行模式。例如,当显存不足时,Ollama 会自动将模型的一部分数据保留在主内存,由 CPU 代为处理,从而实现一种“低显存模式” (How does Ollama handle not having enough Vram? : r/ollama)。这种 GPU 与 CPU 混合推理的机制相当于分层加载:尽可能利用显存,超出显存的部分放到内存中处理(必要时由操作系统进行Swap 虚拟内存交换)。由于主要依赖本地资源,Ollama 默认并不会调用云端 API 完成推理;只有在用户明确配置的情况下,才可能将请求转发至云端服务(例如使用某些远程模型 API)。因此,大多数场景下Ollama都是在本地独立运行,无需联网。
-
如何判断本地运行还是云端运行:有几种方法可以确认模型是否在本地推理。首先,可以进行断网测试:断开电脑网络后运行 Ollama,如果模型仍然能够生成回复,说明推理在本地完成。其次,检查模型存储路径下是否存在所需模型文件(详见下文模型存储部分);如果模型文件已下载在本地且正在被加载,则推理发生在本地。最后,可以通过资源监控工具观察系统性能:在推理时是否出现本地CPU/GPU大量占用内存和运算。如果本地硬件资源有明显占用,则说明推理任务确实由本地机器执行;反之如果本地资源几乎空闲却得到结果,可能就是调用了云端服务。一般来说,Ollama 旨在本地运行模型,除非显式使用云服务接口,否则输出均由本地计算产生。
Ollama 模型存储与管理
-
本地存储路径(Windows/macOS/Linux):Ollama 会将已下载的模型文件保存在本地固定目录下,方便重复使用而不必每次下载。不同操作系统对应的默认路径如下: (Ollama Model File Location | Restackio)
- macOS:
~/.ollama/models - Linux:
/usr/share/ollama/.ollama/models - Windows:
C:\Users\<您的用户名>\.ollama\models
这些目录中包含模型的权重文件及其配置等数据。每当通过 Ollama 下载模型时(例如执行
ollama pull <模型名称>或首次运行某模型),文件都会存放到上述路径。用户可以通过文件管理器或终端查看这些目录,确认模型文件是否存在。 - macOS:
-
变更存储路径的方法(环境变量 OLLAMA_MODELS):如果希望修改模型的默认存储位置(例如将模型文件放到其它磁盘以节省系统盘空间),可以使用环境变量
OLLAMA_MODELS来指定新的路径 (Ollama Model File Location | Restackio)。具体做法是在系统中设置OLLAMA_MODELS环境变量指向期望的目录,然后 Ollama 会优先在该路径查找和存储模型。例如,在 Linux/macOS 下可在终端执行:export OLLAMA_MODELS="/自定义/模型存储路径"在 Windows 下则需要在系统的环境变量设置中新增 OLLAMA_MODELS,值为新的模型目录路径。设置完成后,重新运行 Ollama 即可使其在新路径下载/读取模型文件。(提示:可运行命令
ollama show --modelfile来验证当前使用的模型路径。) -
模型文件的作用(仅包含权重和配置,不含代码):存储在上述目录的模型文件通常仅包含模型的参数权重以及必要的配置(比如模型结构定义、分词器等),并不包含可执行的代码。也就是说,这些文件本质上是数据文件,记录了训练所得的庞大矩阵(神经网络权重)。实际的推理代码由 Ollama 内部的推理引擎提供,而不在模型文件中。因此,从安全和管理的角度来看,模型文件只是静态的数据资源,我们可以在不同机器间转移或备份这些大文件,而无需担心执行层面的代码混杂其中。
-
存储空间优化建议:随着下载的模型增多,磁盘占用也会显著增加。为了优化存储空间,首先建议按需下载模型,不用的模型及时删除(直接移除存储目录中的相应文件/文件夹)。其次,可以利用模型量化版本节省空间,例如使用 4-bit 或 8-bit 量化模型代替全精度模型,常常能大幅减少文件大小。再次,如果有多个硬盘分区,考虑通过
OLLAMA_MODELS将模型移至容量更大的盘存放。此外,定期检查.ollama/models目录,清理重复或旧版本的模型文件,也有助于释放空间。通过以上方法,用户可降低存储压力,维持本地硬盘的良好性能。
Ollama 的特点与作用
-
开源特性:Ollama 本身是一个开源项目,源代码公开且可供社区贡献。这意味着它是免费可用的,并且不断迭代改进。开源也带来了更高的透明度和安全性,用户可以查看其实现细节,了解它如何加载和运行模型。在快速发展的 AI 领域,开源工具如 Ollama 正在降低大型模型本地部署的门槛 (利用Ollama部署Llama 3/deepseek-r1模型,只需5行代码即可实现对话_Lins号丹-DeepSeek技术社区)。开发者和研究者能够基于 Ollama 定制功能或集成到自己的应用中,而不受限于商业闭源软件。
-
多模型支持与优化:Ollama 设计为多模型管理的统一平台,支持加载多种不同的大语言模型(例如 Llama2、Llama3、DeepSeek 系列、Phi-4、Mistral 等等 (Best Open-Source AI Model: Experimenting With Phi-4 and Ollama in PostgreSQL | Timescale))。无论模型的参数规模或架构如何,用户都可以通过类似的命令界面进行调用。这种多模型支持背后,Ollama 针对不同模型做了适配和优化,使得各模型都能高效运行。例如,对于小模型可以充分利用 GPU 并行,而大模型可能自动启用分层加载或其他优化。用户可以方便地切换模型进行对比实验,而不用为每个模型单独配置运行环境。
-
统一接口管理模型:借助 Ollama,用户得以通过统一的接口来下载、运行和管理模型,而不必关心每个模型底层的具体实现差异 (Best Open-Source AI Model: Experimenting With Phi-4 and Ollama in PostgreSQL | Timescale)。Ollama 抽象出了一个通用的 CLI(命令行界面)和 API,让调用不同模型的方式尽可能一致。例如,运行对话只需
ollama run <模型名称>,Ollama 会自动处理模型加载、推理等细节。这样的统一接口大大降低了使用难度,开发者可以将注意力集中在应用逻辑上,而不是为每种模型编写单独的代码。同时,Ollama 也提供模型列表、状态查看等管理功能,方便查看当前有哪些模型可用、各自版本等信息,实现对多模型的集中管理。 -
轻量级安装与按需下载模型:相比搭建复杂的深度学习推理环境,Ollama 的安装相对轻量,仅需一个二进制或安装包即可开始使用。而且它采取按需下载的策略:并不预置任何大型模型,而是当用户首次请求某个模型时再下载该模型的数据。这种方式既降低了初始安装体积,又确保用户获取的模型是最新版本(或指定版本)。例如,初次运行
ollama run llama2时,Ollama 会提示下载模型权重文件;下载完成后即刻可用,下次运行时无需再次下载。总体来说,Ollama 本身占用资源很少,却能在需要时拉取所需模型,从而在本地实现大模型的即插即用。
推理引擎的作用
-
读取权重与配置:推理引擎是模型运行的核心,它负责读取模型文件中的权重参数和配置并载入内存。当我们用 Ollama 指定某个模型时,底层的推理引擎会打开对应的模型权重文件(通常是经过特殊格式存储的大矩阵)、解析相关配置(如模型层数、隐藏单元维度、分词器词表等信息),为推理做好准备工作。简单来说,推理引擎充当了模型加载器:将静态存储的参数转换为可计算的张量表示,并根据配置构建模型的计算图结构,以便后续执行推理计算。
-
运行代码与推理逻辑的分离:现代大模型的设计强调模型与代码分离,模型文件只提供数据,而推理引擎包含运行这些数据所需的代码逻辑。这样的架构确保了运行代码与推理逻辑相分离:开发者可以改进优化推理引擎,而无需修改模型本身;同时模型权重更新也不影响引擎代码的稳定性。在 Ollama 中也是如此——模型文件不携带执行代码,所有计算由 Ollama 内部的通用推理代码完成。这带来的好处是:一个高效的引擎可以支持多个模型,只要格式兼容,就能用统一逻辑运行不同模型。用户升级 Ollama 后,旧的模型文件可能获得更快的推理速度或新功能支持,因为改进体现在引擎上而无需重新获取模型。
-
llama.cpp 等推理引擎的作用:Ollama 底层利用了诸如 llama.cpp 这样的开源推理引擎项目。llama.cpp 是知名的轻量级推理框架,可以在本地设备(甚至移动设备)上高效运行 LLaMA 系列模型。Ollama 将这些引擎集成进来,作为其模型推理的后端,实现对不同硬件的适配和高性能计算。例如,llama.cpp 提供了针对 CPU 的优化(使用 SIMD 指令加速矩阵运算)、低显存环境的支持(分层加载、8-bit/4-bit 量化)等功能。通过调用这些引擎,Ollama 避免了从零实现推理算法,而是站在现有优化成果的基础上,为用户提供更快更省资源的推理能力。
-
确保模型与推理引擎兼容性的重要性:由于模型的架构和存储格式可能不断发展变化,确保模型文件与推理引擎版本匹配是非常重要的一环。如果二者不兼容,常见的问题包括无法加载模型、推理结果错误甚至崩溃。因此,Ollama 会对支持的模型格式和引擎版本进行同步管理,尽量保证每次下载的模型都能在当前 Ollama 使用的引擎上正常运行。用户也应注意及时更新 Ollama 以获得最新的兼容性修复和性能提升。例如,当新模型引入了新的算子或架构(如位置编码方式的变化等),需要引擎做相应更新才能支持——只有二者匹配,才能充分发挥模型的作用。总而言之,推理引擎是连接“模型数据”和“实际运行”的桥梁,其兼容性和优化程度直接决定了大模型部署的效果。
DeepSeek 模型与 LLaMA 模型对比
-
共同点(架构基础):DeepSeek 模型与 LLaMA 模型在总体架构上有许多相似之处。首先,它们同属于Transformer 架构的大家族,采用自注意力机制来理解和生成文本。具体而言,DeepSeek 在微观设计上主要遵循 LLaMA 的框架,比如使用了 Transformer 的标准组成模块(多头注意力、前馈网络等)以及类似的预训练任务。因此,二者在基本的网络原理、训练目标上是一脉相承的。正因为架构相近,DeepSeek 的出现也被视作对 LLaMA 模型的一种扩展和提升,而非完全全新异构的模型。
-
主要区别(参数规模、训练数据、优化特性):尽管同源,DeepSeek 对比 LLaMA 还是做出了一系列改进和调整。其一,参数规模不同。以大型版本为例,DeepSeek 发布了 67B 参数模型,而 LLaMA 常见的大模型是 70B 参数量级;中等规模上 DeepSeek 也有 7B 等版本,但层数有所区别(DeepSeek-7B 使用了 30 层 Transformer 层,DeepSeek-67B 则有 95 层,而 LLaMA 同等参数下层数配置不同 (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客))。其二,训练数据更加庞大且多样。DeepSeek 模型预训练使用了约 2 万亿字符的双语数据集,规模远超 LLaMA 的训练语料,这赋予了 DeepSeek 在知识覆盖面上的潜在优势 (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客)。其三,优化特性方面,DeepSeek 引入了一些新的技术,例如在大的 67B 模型中采用 GQA(Grouped Query Attention) 等架构改进,以提升推理效率。此外,DeepSeek 团队在训练过程中探索了模型/数据缩放策略、超参数调优等前沿课题,提出了自己的优化方案。这些差异使得 DeepSeek 在保持与 LLaMA 相近架构的同时,能突出自己的特点和性能改进点。
-
DeepSeek 在数学推理、代码生成、长文本处理上的优势:根据发布报告和测试结果,DeepSeek 在一些任务上表现出超越同规模 LLaMA 模型的性能,尤其是在数学推理、代码生成以及长文本处理方面具有优势 (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客) (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客)。例如,DeepSeek 67B 模型在数学计算和复杂推理任务上的准确率被证明优于 LLaMA-2 70B (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客);在编程代码生成和理解上,得益于更丰富的训练数据(包含大量代码语料)和可能的指令微调,DeepSeek Chat 模型在综合评测中甚至超过了 GPT-3.5 的水平 (DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2-CSDN博客)。对于长文本处理,DeepSeek 也在架构和训练上有所优化,使其在扩展上下文窗口或长序列依赖时表现更稳健。不难看出,这些改进让 DeepSeek 模型在特定应用领域更具潜力,成为开源模型中性能突出的新秀。
DeepSeek 模型在 Ollama 上的适配
-
Ollama 对多种模型的支持:Ollama 作为通用的大模型运行平台,原则上支持任何符合其格式和接口要求的模型。针对 DeepSeek 这样的新模型,Ollama 通常会通过更新后端推理引擎或配置来实现支持。例如,当 DeepSeek 模型发布后,社区可能提供其转换后的权重文件(如转换为 Ollama 使用的
.ollama或者 GGUF 等格式),用户下载后即可用 Ollama 加载运行。这种多模型支持能力使 Ollama 成为 DeepSeek 等前沿模型的便捷载体——用户不需要学习新的部署方法,只需像使用其他模型一样调用 Ollama 即可。在实际适配过程中,可能需要在 Ollama 中加入对 DeepSeek 模型特性的识别(比如特殊的模型名称、参数配置),但总体流程与加载其它模型相似。 -
DeepSeek 特定计算方式与 Ollama 适配需求:由于 DeepSeek 在模型结构上引入了一些新的计算方法(例如前述的 GQA 分组查询注意力,以及 DeepSeek 团队独有的优化算子等),Ollama 必须确保底层引擎能够正确执行这些计算。换言之,模型推理引擎需要适配 DeepSeek 的特殊架构。如果 DeepSeek 模型在注意力机制或其他层采用了不同于标准 LLaMA 的实现,Ollama 需要进行相应调整才能完全发挥模型效果。这可能涉及更新 Ollama 所使用的推理库版本,或者在配置中标记模型采用了哪些新技术。从用户角度看,这种适配是透明的——只要使用支持 DeepSeek 的 Ollama 版本,运行时引擎会自动应用正确的计算逻辑,无需人工干预。
-
MLA 算子的兼容性优化:DeepSeek 模型的一大亮点是引入了 MLA(多头隐式注意力) 技术,它通过创新的低秩分解方法提高了注意力计算的效率 (DeepSeek技术全景解析:DeepSeek多头隐式注意力(MLA)解析_语言模型_m0_48891301-DeepSeek技术社区)。这种算子在推理阶段可以极大减少内存占用和计算量,但前提是推理引擎本身支持 MLA 的运算。如果 Ollama 初版不支持,可能需要通过更新引擎或补丁的方式引入对 MLA 算子 的兼容。例如,DeepSeek 团队针对新 GPU 架构开发了高效的 FlashMLA 内核实现,这可能需要合并进 Ollama 的引擎中才能在本地充分利用。这种兼容性优化工作包括:确保 Ollama 能读取并识别模型权重中有关 MLA 的参数,调用正确的函数执行 MLA 计算,并在必要时回退到常规注意力计算以保证结果正确。有了对 MLA 的支持,Ollama 在运行 DeepSeek 模型时才能既保证功能正确又发挥性能优势。
-
可能的性能优化策略:为了让 DeepSeek 这样的大模型在 Ollama 上运行得更高效,除了适配模型结构,本地部署还可以考虑多种性能优化策略。首先,充分利用硬件加速:如果有高性能 GPU,确保使用对应的 CUDA/cuBLAS 或类似加速库;如果只有 CPU,则调配多线程并使用编译器优化指令集。其次,模型量化和剪枝:对于参数超大的 DeepSeek 模型(如 67B 参数),可以使用 8-bit 甚至更低精度的量化版本来换取更小的内存占用和更快的计算,Ollama 对量化模型也提供良好支持。再次,分批推理与流式输出:针对长文本处理,可分段推理、逐步输出,避免一次性占用过多资源。最后,密切关注 Ollama 和推理引擎社区的更新,因为往往新版本会引入针对特定模型的优化(例如专门为 DeepSeek 调优的矩阵运算、缓存策略等)。通过以上策略,用户有望在 Ollama 上以相对可行的资源开销运行 DeepSeek 大模型,并获得流畅的推理体验。
相关文章:
Ollama 的庐山真面目
Ollama 运行方式分析 本地推理条件(GPU/CPU/RAM):Ollama 支持在本地电脑进行大模型推理,但需要满足一定的硬件条件。一般来说,GPU 有助于加速推理,特别是显存较大的 GPU 能够加载更大的模型;如果…...
行为型模式 - 观察者模式 (Publish/Subscribe)
行为型模式 - 观察者模式 (Publish/Subscribe) 又称作为订阅发布模式(Publish-Subscribe Pattern)是一种消息传递模式,在该模式中,发送者(发布者)不会直接将消息发送给特定的接收者(订阅者&…...
C++编程指南21 - 线程detach后其注意变量的生命周期
一:概述 如果一个线程被 detach() 了,那么它的生命周期将独立于创建它的作用域。因此,该线程只能安全地访问: 全局变量(global/static objects)堆上分配的对象(free-store allocated objects&a…...
Hadoop之01:HDFS分布式文件系统
HDFS分布式文件系统 1.目标 理解分布式思想学会使用HDFS的常用命令掌握如何使用java api操作HDFS能独立描述HDFS三大组件namenode、secondarynamenode、datanode的作用理解并独立描述HDFS读写流程HDFS如何解决大量小文件存储问题 2. HDFS 2.1 HDFS是什么 HDFS是Hadoop中的一…...
Redis学习笔记系列(一)——Redis简介及安装
1. Redis介绍 Redis是完全开源的,遵守 BSD 协议,是一个高性能的 key-value 数据库。 Redis与其他key-value缓存产品有以下三个特点: Redis支持数据的持久化,可以将内存中的数据保存在磁盘中,重启的时候可以再次加载进行…...
【考试大纲】初级信息处理技术员考试大纲
目录 引言一、考试说明1.考试要求2.考试目标二、考试范围科目一:信息处理基础知识科目二:信息处理应用技术引言 最新的信息处理技术员考试大纲出版于 2018 年 6 月,本考试大纲基于此版本整理。 一、考试说明 1.考试要求 (1)了解信息技术的基本概念; (2)熟悉计…...
LabVIEW正弦信号处理:FFT与最小二乘拟合的参数提取
问题一:LabVIEW能否对采集的正弦力信号进行快速傅里叶变换(FFT),并得到幅值和相位结果? 答案: 可以。LabVIEW通过内置信号处理工具包提供完整的FFT分析功能,具体实现如下: FFT分析流…...
【计算机网络入门】初学计算机网络(五)
目录 1.编码&解码、调制&解调 2.常用编码方法 2.1 不归零编码(NRZ) 2.2 归零编码(RZ) 2.3 反向非归零编码(NRZI) 2.4 曼彻斯特编码 2.5 差分曼彻斯特编码 3. 各种编码的特点 4.调制 5.有线传输介质 5.1 双绞线 5.2 同轴电缆 5.3 光…...
YOLO在PiscTrace上检测到数据分析
在现代计算机视觉领域,实时视频数据的检测与分析对于安全监控、交通管理以及智能制造等领域具有重要意义。YOLO(You Only Look Once)作为一种高效的目标检测算法,能够在保持高精度的同时实现实时检测。而PiscTrace作为一款集成了O…...
【漫话机器学习系列】112.逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression)详解 1. 逻辑回归简介 逻辑回归(Logistic Regression)是一种广泛用于二分类任务的统计和机器学习方法,尽管它的名字中带有“回归”,但它实际上是一种分类算法。 在逻辑回归…...
【计算机网络入门】初学计算机网络(六)
目录 1.回忆数据链路层作用 2. 组帧 2.1 四种组帧方法 2.1.1 字符计数法 2.1.2 字节填充法 2.1.3 零比特填充法 2.1.4 违规编码法 3. 差错控制 3.1 检错编码 3.1.1 奇偶校验码 3.1.2 CRC(循环冗余校验)校验码 3.2 纠错编码 3.2.1 海明校验码…...
DeepSeek 与云原生后端:AI 赋能现代应用架构
📝个人主页🌹:一ge科研小菜鸡-CSDN博客 🌹🌹期待您的关注 🌹🌹 1. 引言 在当今快速发展的互联网时代,云原生(Cloud Native)架构已成为后端开发的主流趋势。云…...
leetcode第17题求电话号码组合
原题出于leetcode第17题https://leetcode.cn/problems/letter-combinations-of-a-phone-number/description/题目如下: 题目稍微有点复杂,初看会感觉特别复杂,首先我们需要理清思路: 最后的结果是字母组合,因此遍历的是…...
DeepSeek-R1 论文笔记:通过强化学习提升大语言模型的推理能力
论文标题:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 作者团队:DeepSeek-AI 发表时间:2025 前置知识 & 术语 模型蒸馏 语言模型蒸馏的目标是将大型教师模型的知识(如语义理解、上…...
PDF文档中表格以及形状解析
我们在做PDF文档解析时有时需要解析PDF文档中的表格、形状等数据。跟解析文本类似的常见的解决方案也是两种。文档解析跟ocr技术处理。下面我们来看看使用文档解析的方案来做PDF文档中的表格、图形解析(使用pdfium库)。 表格解析: 在pdfium库…...
深入理解并实现自定义 unordered_map 和 unordered_set
亲爱的读者朋友们😃,此文开启知识盛宴与思想碰撞🎉。 快来参与讨论💬,点赞👍、收藏⭐、分享📤,共创活力社区。 在 C 的标准模板库(STL)中,unorder…...
228页PPT丨制造业核心业务流程优化咨询全案(战略营销计划生产研发质量),附核心系统集成架构技术支撑体系,2月26日资料已更新
一、订单全生命周期管理优化 1. 智能订单承诺(CTP)系统 ●集成ERP/APS/MES数据,实时计算产能可视性 ●应用蒙特卡洛模拟评估订单交付风险 ●建立动态插单评估模型(基于边际贡献与产能占用系数) 2. 跨部门协同机制…...
6.6.5 SQL访问控制
文章目录 GRANT授予权限REVOKE回收权限 GRANT授予权限 GRANT语句可以给用户授予权限,基本格式是GRANT 权限 TO 用户。在授权时,WITH GRANT OPTION是可选项,有此句话,被授予权限的用户还能把权限赋给其他用户。 REVOKE回收权限 RE…...
PhyloSuite v1.2.3安装与使用-生信工具049
PhyloSuite 一个好用的win集成建树平台,官方相关文档视频等做的可好了PhyloSuite (jushengwu.com) 官网 https://github.com/dongzhang0725/PhyloSuite/releases #官网 http://phylosuite.jushengwu.com/dongzhang0725.github.io/installation/ #官方说明文档…...
【语法】C++中string类中的两个问题及解答
贴主在学习string类时遇到过两个困扰我的问题,今天拿出来给大家分享一下我是如何解决的 一、扩容时capacity的增长问题 在string的capacity()接口中,调用的是这个string对象的容量(可以存多少个有效字符),而size()是调用的string对象现在有…...
智慧校园平台在学生学习与生活中的应用
随着科技的发展,教育领域也在不断探索新的模式与方法。智慧校园平台作为教育信息化的重要组成部分,正逐渐成为推动教育改革、提高教学质量的关键工具。 一.智慧校园平台概述 智慧校园平台是一种集成了教学管理、资源服务、数据分析等多功能于一体的数字…...
AtCoder Beginner Contest 001(A - 積雪深差、B - 視程の通報、C - 風力観測、D - 感雨時刻の整理)题解
由于我发现网上很少有人会发很久之前AtCoder Beginner Contes的题,所以我打算从AtCoder Beginner Contest 001开始写。大约两周一更,需要的可以订阅专栏,感谢支持Thanks♪(・ω・)ノ →题目翻译 A - 積雪深差…...
Windows本地Docker+Open-WebUI部署DeepSeek
最近想在自己的电脑本地部署一下DeepSeek试试,由于不希望污染电脑的Windows环境,所以在wsl中安装了ollama,使用ollama拉取DeepSeek模型。然后在Windows中安装了Docker Desktop,在Docker中部署了Open-WebUI,最后再在Ope…...
gmock和cppfreemock原理学习
1.gmock用法 gmock(Google Mock)是 Google Test 的一个扩展库,专门用于 C 单元测试中的模拟(mocking)。它的核心原理是通过 继承和方法重载/覆盖 来模拟 C 中的虚函数,从而在测试中隔离依赖对象࿰…...
WSBDF レクチア 定义2 引理3 wsbdf的乘子
定义2 引理3 wsbdf的乘子 ここまで 寝みます❓...
AI日记app
一、需求分析与竞品调研 1. 核心功能需求 多媒体日记记录:支持语音、视频、图片的实时录制或上传。语音/视频转文字:自动将音频、视频内容转为可编辑的文字。文字编辑与排版:富文本编辑(字体、颜色、标签)、Markdown…...
单一职责原则(设计模式)
目录 问题: 定义: 解决: 方式 1:使用策略模式 示例:用户管理 方式 2:使用装饰者模式 示例:用户操作 方式 3:使用责任链模式 示例:用户操作链 总结 推荐 问题&a…...
Odoo免费开源CRM技术实战:从商机线索关联转化为售后工单的应用
文 / 开源智造 Odoo金牌服务 Odoo:功能强大且免费开源的CRM Odoo 引入了一种高效的客户支持管理方式,即将 CRM 线索转换为服务台工单。此功能确保销售和支持团队能够无缝协作,从而提升客户满意度并缩短问题解决时间。通过整合 CRM 模块与服…...
ChatGPT与DeepSeek:开源与闭源的AI模型之争
目录 一、模型架构与技术原理 二、性能能力与应用场景 三、用户体验与部署灵活性 四、成本与商业模式 五、未来展望与市场影响 六、总结 随着人工智能技术的飞速发展,ChatGPT和DeepSeek作为两大领先的AI语言模型,成为了行业内外关注的焦点。它们在…...
C语言(3)—循环、数组、函数的详解
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、函数二、循环与数组 1.循环2.数组 总结 前言 提示:以下是本篇文章正文内容,下面案例可供参考 一、函数 在C语言中,函数…...
