离线部署大模型:ollama+deepseek+open-webui
ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。
1 ollama 安装
ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几步:
-
• 下载 ollama 安装程序并安装。
-
• 启动 ollama,执行命令下载和运行模型。如:
ollama run deepseek-r1:1.5b
-
• 以命令行交互、API 调用、第三方应用接入等形式使用其服务。
1.1 硬件要求
ollama 本身对硬件要求并不高,主要取决于运行模型的要求。基本建议:
你应该至少有 4 GB 的 RAM 来运行 1.5B 模型,至少有 8 GB 的 RAM 来运行 7B 模型,16 GB 的 RAM 来运行 13B 模型,以及 32 GB 的 RAM 来运行 33B 模型。
假若需要本地私有化部署具有实用性的模型,应至少有独立显卡并有 4G 以上显存。纯 CPU 模式虽然也可以运行,但生成速度很慢,仅适用于本地开发调试体验一下。
本人实测在Mac Studio 2023 版(Apple M2 Max 芯片:12核、32G内存、30核显、1TB SSD)
上,运行 deepseek:1.5b
模型响应非常快,可以较为流畅的运行 deepseek-r1:32b
及以下的模型。
DeepSeek-r1 相关版本及大小参考:
参数版本 | 模型大小 | 建议CPU | 建议内存 | 建议显存 | 特点 |
deepseek-r1:1.5b | 1.1GB | 4核 | 4~8G | 4GB | 轻量级,速度快、普通文本处理 |
deepseek-r1:7b | 4.7G | 8核 | 16G | 14GB | 性能较好,硬件要求适中 |
deepseek-r1:8b | 4.9GB | 8核 | 16G | 14GB | 略强于 7b,精度更高 |
deepseek-r1:14b | 9GB | 12核 | 32G | 26GB | 高性能,擅长复杂任务,如数学推理、代码生成 |
deepseek-r1:32b | 20GB | 16核 | 64G | 48GB | 专业级,适合高精度任务 |
deepseek-r1:70b | 43GB | 32核 | 128G | 140GB | 顶级模型,适合大规模计算和高复杂度任务 |
deepseek-r1:671b | 404GB | 64核 | 512G | 1342GB | 超大规模,性能卓越,推理速度快 |
1.2 Windows \ macOS \ Linux 下安装 ollama
Windows 和 macOS 用户可访问如下地址下载安装文件并安装:
-
• 国内中文站下载:http://ollama.org.cn/download/
-
• 官方下载:https://ollama.com/download/
-
• github release 下载:https://github.com/ollama/ollama/releases/
Linux 用户可以执行如下命令一键安装:
curl -fsSL https://ollama.com/install.sh | bash
安装完成后,可以通过执行 ollama --version
命令查看 ollama 版本信息,以验证是否安装成功。
ollama 离线安装:
Windows 和 macOS 下直接复制安装文件到本地本进行安装即可。
Linux 下的离线安装主要步骤参考如下:
mkdir -p /home/ollama
cd /home/ollama# 查看服务器 CPU 信息获取其架构,如:x86_64
lscpu# 访问如下地址,下载对应架构的 ollama 安装包
# https://github.com/ollama/ollama/releases/
# - x86_64 CPU 选择下载 ollama-linux-amd64
# - aarch64|arm64 CPU 选择下载 ollama-linux-arm64
# 示例:
wget https://github.com/ollama/ollama/releases/download/v0.5.11/ollama-linux-amd64.tgz# 下载 安装脚本,并放到 /home/ollama 目录下
wget https://ollama.com/install.sh# 将 ollama-linux-amd64.tgz 和 install.sh 拷贝到需要安装的机器上,如放到 /home/ollama 目录下
# 然后执行如下命令:
tar -zxvf ollama-linux-amd64.tgz
chmod +x install.sh
# 编辑 install.sh 文件,找到如下内容
curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"
# 注释它,并在其下增加如下内容:
cp ./ollama-linux-amd64 $TEMP_DIR/ollama# 执行安装脚本
./install.sh# 模型的离线下载请参考下文模型导入部分
1.3 基于 Docker 安装 ollama
基于 Docker 可以使得 ollama 的安装、更新与启停管理更为便捷。
首先确保已安装了 docker,然后执行如下命令:
# 拉取镜像
docker pull ollama/ollama# 运行容器:CPU 模式
docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama
# 运行容器:GPU 模式
docker run --gpus=all -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama# 进入容器 bash 下并下载模型
docker exec -it ollama /bin/bash
# 下载一个模型
ollama pull deepseek-r1:8b
也可以基于 docker-compose
进行启停管理。docker-compose.yml
参考:
services:ollama:image:ollama/ollamacontainer_name:ollamarestart:unless-stoppedports:-11434:11434volumes:-/data/ollama:/root/.ollamaenvironment:# 允许局域网跨域形式访问APIOLLAMA_HOST=0.0.0.0:11434OLLAMA_ORIGINS=*
1.4 修改 ollama 模型默认保存位置
ollama
下载的模型默认的存储目录如下:
-
• macOS:
~/.ollama/models
-
• Linux:
/usr/share/ollama/.ollama/models
-
• Windows:
C:\Users\<username>\.ollama\models
若默认位置存在磁盘空间告急的问题,可以通过设置环境变量 OLLAMA_MODELS
修改模型存储位置。示例:
# macOS / Linux:写入环境变量配置到 ~/.bashrc 文件中
echo 'export OLLAMA_MODELS=/data/ollama/models' >> ~/.bashrc
source ~/.bashrc# Windows:按 `WIN+R` 组合键并输入 cmd 打开命令提示符
# 然后执行如下命令写入到系统环境变量中
setx OLLAMA_MODELS D:\data\ollama\models
如果已经下载过模型,可以从上述默认位置将 models 目录移动到新的位置。
对于 docker 安装模式,则可以通过挂载卷的方式修改模型存储位置。
1.5 使用:基于 API 形式访问 ollama 服务
ollama 安装完成并正常启动后,可以通过命令行形式运行模型(如:ollama run deepseek-r1:1.5b
),并通过命令行交互的方式进行测试。
此外也可以通过访问 http://localhost:11434
以 API 调用的形式调用。示例:
curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:8b","stream": false,"prompt": "你是谁"
}'
ollama API 文档参考:
-
• https://ollama.readthedocs.io/api/
-
• https://github.com/ollama/ollama/blob/main/docs/api.md
2 使用 ollama 下载和运行模型
2.1 使用 ollama 命令行下载和运行模型
执行如下命令下载并运行一个模型:
# 基本格式为:
ollama run <model_name:size># 例如下载并运行 deepseek-r1 的 1.5b 模型
# 如果下载模型速度开始较快后面变慢,可以 kill 当前进程并重新执行
ollama run deepseek-r1:1.5b
运行成功则会进入命令行交互模式,可以直接输入问题并获得应答反馈,也可以通过 API 调用方式测试和使用。
从如下地址可搜索 ollama 所有支持的模型:
-
• 中文站:https://ollama.org.cn/search
-
• 官方站:https://ollama.com/search
从 HF 和魔塔社区下载模型
ollama 还支持从 HF 和魔塔社区下载第三方开源模型。基本格式为:
# 从 HF(https://huggingface.co) 下载模型的格式
ollama run hf.co/{username}/{reponame}:latest
# 示例:
ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF:Q8_0# 从魔塔社区(https://modelscope.cn)下载模型的格式
ollama run modelscope.cn/{username}/{model}
# 示例:
ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF:Q3_K_M
2.2 使用 ollama create 导入本地模型
通过 ollama run
和 ollama pull
命令均是从官方地址下载模型,可能会遇到下载速度慢、下载失败等问题。
ollama 支持从本地导入模型。我们可以从第三方下载模型文件并使用 ollama create
命令导入到 ollama 中。
例如,假若我们下载了 deepseek-r1:8b
模型文件,并保存在 /data/ollama/gguf/deepseek-r1-8b.gguf
,则可执行如下命令进行导入:
cd /data/ollama/gguf
echo "From ./deepeek-r1-8b.gguf" > modelfile-deepseek-r1-8b
ollama create deepseek-r1:8b -f modelfile-deepseek-r1-8b# 查看模型信息
ollama list
ollama show deepseek-r1:8b# 运行模型(以命令行交互模式使用)
ollama run deepseek-r1:8b
相关文档参考:
-
• https://ollama.readthedocs.io/import/
-
• https://ollama.readthedocs.io/modelfile/
3 ollama 常用命令参考
ollama 提供了丰富的命令行工具,方便用户对模型进行管理。
-
•
ollama --help
:查看帮助信息。 -
•
ollama serve
:启动 ollama 服务。 -
•
ollama create <model-name> [-f Modelfile]
:根据一个 Modelfile 文件导入模型。 -
•
ollama show <model-name:[size]>
:显示某个模型的详细信息。 -
•
ollama run <model-name:[size]>
:运行一个模型。若模型不存在会先拉取它。 -
•
ollama stop <model-name:[size]>
:停止一个正在运行的模型。 -
•
ollama pull <model-name:[size]>
:拉取指定的模型。 -
•
ollama push <model-name>
:将一个模型推送到远程模型仓库。 -
•
ollama list
:列出所有模型。 -
•
ollama ps
:列出所有正在运行的模型。 -
•
ollama cp <source-model-name> <new-model-name>
:复制一个模型。 -
•
ollama rm <model-name:[size]>
:删除一个模型。
4 ollama 安装使用常见问题及解决
4.1 ollama 模型下载慢:离线下载与安装模型
通过 ollama 官方命令拉取模型,可能会遇到网速慢、下载时间过长等问题。
4.1.1 开始快后来慢:间隔性重启下载
由于模型文件较大,下载过程中可能会遇到开始网速还可以,后面变慢的情况。许多网友反馈退出然后重试则速度就可以上来了,所以可以尝试通过每隔一段时间退出并重新执行的方式以保持较快的下载速率。
以下是基于该逻辑实现的下载脚本,注意将其中的 deepseek-r1:7b
替换为你希望下载的模型版本。
Windows 下在 powershell 中执行:
while ($true) {$modelExists = ollama list | Select-String "deepseek-r1:7b"if ($modelExists) {Write-Host "模型已下载完成!"break}Write-Host "开始下载模型..."$process = Start-Process -FilePath "ollama" -ArgumentList "run", "deepseek-r1:7b" -PassThru -NoNewWindow# 等待60秒Start-Sleep -Seconds 60try {Stop-Process -Id $process.Id -Force -ErrorAction StopWrite-Host "已中断本次下载,准备重新尝试..."}catch {Write-Host "error"}
}
macOS / Linux
下在终端中执行:
#!/bin/bashwhiletrue; do# 检查模型是否已下载完成modelExists=$(ollama list | grep "deepseek-r1:7b")if [ -n "$modelExists" ]; thenecho"模型已下载完成!"breakfi# 启动ollama进程并记录echo"开始下载模型..."ollama run deepseek-r1:7b & # 在后台启动进程processId=$! # 获取最近启动的后台进程的PID# 等待60秒sleep 60# 尝试终止进程ifkill -0 $processId 2>/dev/null; thenkill -9 $processId# 强制终止进程echo"已中断本次下载,准备重新尝试..."elseecho"进程已结束,无需中断"fi
done
4.1.2 通过网盘等第三方离线下载并导入 ollama 模型
可以通过国内的第三方离线下载模型文件,再导入到 ollama 中。详细参考 2.2 章节。
deepseek-r1
相关模型夸克网盘下载:
链接:https://pan.quark.cn/s/7fa235cc64ef 提取码:wasX
也可以从 魔塔社区、HuggingFace 等大模型社区搜索并下载 stuff 格式的模型文件。例如:
-
• https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/files
-
• https://huggingface.co/unsloth/DeepSeek-R1-GGUF
4.1.3 从国内大模型提供站下载模型
ollama 支持从魔塔社区直接下载模型。其基本格式为:
ollama run modelscope.cn/{model-id}
一个模型仓库可能包含多个模型,可以指定到具体的模型文件名以只下载它。示例:
ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF
#
ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF:qwen2.5-3b-instruct-q3_k_m.gguf
下载 deepseek-r1
模型命令参考:
# deepseek-r1:7b
ollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF:DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
# deepseek-r1:14b
ollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF:Q4_K_M
# deepseek-r1:32b
ollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q4_K_M
此外,也可以从 HF 的国内镜像站(https://hf-mirror.com)查找和拉取模型,方法与上述类似:
# 基本格式
ollama run hf-mirror.com/{username}/{reponame}:{label}# 示例 - 拉取 deepseek-r1:7b
ollama run hf-mirror.com/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF:Q4_K_M
4.2 ollama 服务设置允许局域网访问
默认情况下 API 服务仅允许本机访问,若需要允许局域网其他设备直接访问,可修改环境变量 OLLAMA_HOST
为 0.0.0.0
,并修改 OLLAMA_ORIGINS
为允许的域名或 IP 地址。
环境变量设置示例:
# windows 命令提示符下执行:
setx OLLAMA_HOST 0.0.0.0:11434
setx OLLAMA_ORIGINS *# macOS 终端下执行:
launchctl setenv OLLAMA_HOST "0.0.0.0:11434"
launchctl setenv OLLAMA_ORIGINS "*"
特别注意:
-
• 如果你是在云服务器等拥有公网IP的环境上部署,请谨慎做此设置,否则可能导致 API 服务被恶意调用。
-
• 若需要局域网其他设备访问,请确保防火墙等安全设置允许 11434 端口访问。
-
• 若需要自定义访问端口号,可通过环境变量
OLLAMA_HOST
设置,如:OLLAMA_HOST=0.0.0.0:11435
。
4.3 为 ollama API 服务访问增加 API KEY 保护
为云服务器部署的服务增加 API KEY 以保护服务
如果你是通过云服务器部署,那么需要特别注意服务安全,避免被互联网工具扫描而泄露,导致资源被第三方利用。
可以通过部署 nginx 并设置代理转发,以增加 API KEY 以保护服务,同时需要屏蔽对 11434 端口的互联网直接访问形式。
nginx
配置:
server {# 用于公网访问的端口listen 8434;# 域名绑定,若无域名可移除server_name your_domain.com;location / {# 验证 API KEY。这里的 your_api_key 应随便修改为你希望设置的内容# 可通过 uuid 生成器工具随机生成一个:https://tool.lzw.me/uuid-generatorif ($http_authorization != "Bearer your_api_key") {return 403;}# 代理转发到 ollama 的 11434 端口proxy_pass http://localhost:11434;proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header X-Forwarded-Proto $scheme;}
}
5 集成可视化工具
在部署了 ollama 并拉取了 deepseek 等模型后,即可通过命令行交互和 API 服务方式使用,但使用起来并不方便。
开源社区中有许多大模型相关的可视化工具,如 open-webui、chat-ui、cherry-studio、AnythingLLM 等,可以方便地集成 ollama API 服务,提供图形化界面使用,以实现聊天机器人、问答知识库等多元化应用。在官方文档中列举了大量较为流行的工具应用:https://ollama.readthedocs.io/quickstart/#web
我们后续会选择其中较为典型的工具进行集成和介绍。
5.1 示例:基于 docker 部署 open-webui 并配置集成 ollama 服务
Open WebUI 是一个开源的大语言模型项目,通过部署它可以得到一个纯本地运行的基于浏览器访问的 Web 服务。它提供了可扩展、功能丰富、用户友好的自托管 AI Web 界面,支持各种大型语言模型(LLM)运行器,可以通过配置形式便捷的集成 ollama、OpenAI 等提供的 API。
通过 Open WebUI 可以实现聊天机器人、本地知识库、图像生成等丰富的大模型应用功能。
在开始之前,请确保你的系统已经安装了 docker。
接着拉取大语言模型 deepseek-r1:8b
和用于 RAG 构建本地知识库的嵌入模型 bge-m3
:
ollama pull deepseek-r1:8b
ollama pull bge-m3
然后新建文件 docker-compose.yml
,内容参考:
services:open-webui:image:ghcr.io/open-webui/open-webui:mainenvironment:-OLLAMA_API_BASE_URL=http://ollama:11434/api-HF_ENDPOINT=https://hf-mirror.com-WEBUI_NAME="LZW的LLM服务"# 禁用 OPENAI API 的请求。若你的网络环境无法访问 openai,请务必设置该项为 false# 否则在登录成功时,会因为同时请求了 openai 接口而导致白屏时间过长-ENABLE_OPENAI_API=false# 设置允许跨域请求服务的域名。* 表示允许所有域名-CORS_ALLOW_ORIGIN=*# 开启图片生成-ENABLE_IMAGE_GENERATION=true# 默认模型-DEFAULT_MODELS=deepseek-r1:8b# RAG 构建本地知识库使用的默认嵌入域名-RAG_EMBEDDING_MODEL=bge-m3ports:-8080:8080volumes:-./open_webui_data:/app/backend/dataextra_hosts:# - host.docker.internal:host-gateway
这里需注意 environment
环境变量部分的自定义设置。许多设置也可以通过登录后在 web 界面进行修改。
在该目录下执行该命令以启动服务:docker-compose up -d
。成功后即可通过浏览器访问:http://localhost:8080
。
服务镜像更新参考:
# 拉取新镜像
docker-compose pull
# 重启服务
docker-compose up -d --remove-orphans
# 清理镜像
docker image prune
-
• open-webui 详细文档参考:https://docs.openwebui.com/getting-started/env-configuration
可选:开启“联网搜索”功能
操作路径:设置 - 联网搜索 - 启用联网搜索
当前已支持接入的联网搜索引擎中,在不需要魔法上网的情况下,有 bing 和 bocha 可以选择接入。基本只需要前往注册并获取 API KEY 回填到这里即可。如果需要保护隐私数据,请不要开启并配置该功能。
-
• 博查文档:https://aq6ky2b8nql.feishu.cn/wiki/XgeXwsn7oiDEC0kH6O3cUKtknSR
总结与参考
通过以上内容,我们了解了 ollama 在国内环境下的安装使用方法,并介绍了因为国内网络特色导致安装过程可能会遇到的常见问题及解决办法。希望这些内容对你有所帮助,如果你有任何问题或建议,欢迎在评论区留言交流。
-
• ollama 官方站:https://ollama.com
-
• ollama 中文站:https://ollama.org.cn
-
• ollama 入门:https://ollama.readthedocs.io/quickstart/
-
• ollama 常见问题:https://ollama.readthedocs.io/faq/
-
• 魔塔社区:https://modelscope.cn
-
• HF Mirror:https://hf-mirror.com
-
• open-webui 文档:https://docs.openwebui.com
相关文章:
离线部署大模型:ollama+deepseek+open-webui
ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。 1 ollama 安装 o…...
如何看nginx.conf文件?
是的,你的理解是对的!在 Nginx 配置中,最内层的 location 确实是决定请求最终处理的“入口”。当请求进入 Nginx 时,Nginx 会根据请求的路径(即 URL)匹配 location 块,然后按照匹配的顺序逐层向…...

3月营销日历:开启春日盛宴,绽放生活魅力
关键营销节点∶惊蛰、女生节、妇女节、 植树节、315消费者权益日、春分 营销关键词 养生、女生魅力、感恩女性、环保、品质 01.重点关注品类 春季服饰:如轻薄外套、春装等,适合惊蛰后的市场需求; 美妆护肤:妇女节期间…...

pdf预览在vue项目中的使用兼容ie浏览器
一、下载pdf预览插件 链接: https://pan.baidu.com/s/1wuzay-saAfiqtS-efd-cvw?pwd6m78 提取码: 6m78 二、创建一个pdf文件夹,将下载下来的文件build和web文件夹复制到pdf文件夹下 三、项目中使用 (路径由两部分组成,第一部分是项目存放pdf插件的路径…...

Unity面板介绍_Project工程面板(23.1.1)
一、project(工程界面) 显示当前工程所有资源文件(场景、脚本、音频、图片。。) Assets资源文件、Library库文件、Project setting项目设置、Temp临时文件 二、面板大致...

使用Termux将安卓手机变成随身AI服务器(page assist连接)
通过以下方法在安卓手机上运行 Ollama 及大模型,无需 Root 权限,具体方案如下: 通过 Termux 模拟 Linux 环境运行 核心工具: 安装 (安卓终端模拟器)()]。借助 proot-distro 工具安装 Linux 发行版…...
MacOS安装Emacs
个人博客地址:MacOS安装Emacs | 一张假钞的真实世界 在MacOS X上可以使用Homebrew 安装Emacs: $ brew install emacs --with-cocoa 或者用MacPorts: $ sudo port install emacs-app OSX Emacs 网站提供了通用的二进制包。 前两种方法安装…...
OpenCV机器学习(10)训练数据的一个核心类cv::ml::TrainData
操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C11 算法描述 cv::ml::TrainData 类是 OpenCV 机器学习模块中用于表示训练数据的一个核心类。它封装了样本数据、响应(标签)、样本权重…...

3.1 actor基本框架(c#的Akka.Actor模式)
1.最简单的一个框架 代码如下(代码容易理解): using System; using Akka.Actor; using System.Collections.Generic; using System.Linq; using System.Text; using System.Threading.Tasks; using System.Security.Cryptography.X509Certi…...

Git使用[同一电脑多个账户ssh-key的管理]
同一电脑多个账户ssh-key的管理 现在遇到一个问题,我同一台电脑既要通过VPN访问内网的git也要访问对外释放的gitee,刚开始我直接把原来的SSH-key添加到内网的gitlab发现可以访问,但是后来再方位外网的gitee就出问题了,看来要换一种手段才行 本文引用:https://cloud…...
使用Python结合`stable-baselines3`库(包含PPO和TD3算法)以及`gym`库来实现分层强化学习的示例代码
以下是一个使用Python结合stable-baselines3库(包含PPO和TD3算法)以及gym库来实现分层强化学习的示例代码。该代码将环境中的动作元组分别提供给高层处理器PPO和低层处理器TD3进行训练,并实现单独训练和共同训练的功能。 代码实现 import g…...

【论文笔记】MambaGlue: Fast and Robust Local Feature Matching With Mamba
【引用格式】:Ryoo K, Lim H, Myung H. MambaGlue: Fast and Robust Local Feature Matching With Mamba[J]. arXiv preprint arXiv:2502.00462, 2025. 【网址】:https://arxiv.org/pdf/2502.00462 【开源代码】:https://github.com/uri-Ka…...
基于 Stanford CoreNLP 的中文自然语言处理
一、概述 Stanford CoreNLP 是斯坦福大学开发的一款强大的自然语言处理(NLP)工具,支持多种语言的文本处理,包括中文。本文将详细介绍如何使用 Stanford CoreNLP 实现中文文本的分词、词性标注、命名实体识别、句法分析等功能&…...
python 量化交易入门到提升详细教程,python量化交易教程
文章目录 前言入门阶段1. 环境准备安装 Python选择开发环境安装必要的库 2. 金融数据获取3. 简单策略构建 - 移动平均线交叉策略 进阶阶段1. 策略回测2. 风险管理3. 多因子策略4. 机器学习在量化交易中的应用5. 高频交易策略 前言 Python 作为一门功能强大、易于学习且应用广泛…...
如何设置爬虫的访问频率?
设置爬虫的访问频率(即请求间隔)是确保爬虫稳定运行并避免对目标服务器造成过大压力的关键步骤。合理的访问频率不仅可以减少被目标网站封禁IP的风险,还能提高爬虫的效率。以下是一些设置爬虫访问频率的方法和最佳实践: 1. 使用s…...
前端循环全解析:JS/ES/TS 循环写法与实战示例
循环是编程中控制流程的核心工具。本文将详细介绍 JavaScript、ES6 及 TypeScript 中各种循环的写法、特性,并通过实际示例帮助你掌握它们的正确使用姿势。 目录 传统三剑客 for 循环 while 循环 do...while 循环 ES6 新特性 forEach for...of for...in 数组…...

大气体育直播模板赛事扁平自适应模板源码
源码名称:大气体育直播模板赛事网站源码 开发环境:帝国cms 7.5 安装环境:phpmysql 模板特点: 程序伪静态版本,实时采集更新,无人值守,省心省力。带火车头采集,可以挂着自动采集发布…...

vue3学习1
vite是新的官方构建工具,构建速度比webpack更快 vue项目的入口文件是index.html,一般在这里引入src/main.js,并且设置好容器#app App.vue放的是根组件,components里放分支组件 vue组件中写三种标签,template & s…...

java机器学习计算指标动态阈值
java机器学习计算指标动态阈值 最近听到有的人说要做机器学习就一定要学Python,我想他们掌握的知道还不够系统全面。本文作者以动态阈值需求场景给大家介绍几种常用Java实现的机器学习库,包括使用开源库如Weka或Deeplearning4j(DL4J…...
mac os设置jdk版本
打开环境变量配置文件 sudo vim ~/.bash_profile 设置不同的jdk版本路径 # 设置JAVA_HOME为jdk17路径 export JAVA_HOME$(/usr/libexec/java_home -v 17)# 设置JAVA_HOME为jdk8路径 export JAVA_HOME$(/usr/libexec/java_home -v 1.8) 设置环境变量 # 将jdk加入到环境变量…...

UE5 学习系列(二)用户操作界面及介绍
这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…...
变量 varablie 声明- Rust 变量 let mut 声明与 C/C++ 变量声明对比分析
一、变量声明设计:let 与 mut 的哲学解析 Rust 采用 let 声明变量并通过 mut 显式标记可变性,这种设计体现了语言的核心哲学。以下是深度解析: 1.1 设计理念剖析 安全优先原则:默认不可变强制开发者明确声明意图 let x 5; …...
React 第五十五节 Router 中 useAsyncError的使用详解
前言 useAsyncError 是 React Router v6.4 引入的一个钩子,用于处理异步操作(如数据加载)中的错误。下面我将详细解释其用途并提供代码示例。 一、useAsyncError 用途 处理异步错误:捕获在 loader 或 action 中发生的异步错误替…...

centos 7 部署awstats 网站访问检测
一、基础环境准备(两种安装方式都要做) bash # 安装必要依赖 yum install -y httpd perl mod_perl perl-Time-HiRes perl-DateTime systemctl enable httpd # 设置 Apache 开机自启 systemctl start httpd # 启动 Apache二、安装 AWStats࿰…...

【JVM】- 内存结构
引言 JVM:Java Virtual Machine 定义:Java虚拟机,Java二进制字节码的运行环境好处: 一次编写,到处运行自动内存管理,垃圾回收的功能数组下标越界检查(会抛异常,不会覆盖到其他代码…...
Axios请求超时重发机制
Axios 超时重新请求实现方案 在 Axios 中实现超时重新请求可以通过以下几种方式: 1. 使用拦截器实现自动重试 import axios from axios;// 创建axios实例 const instance axios.create();// 设置超时时间 instance.defaults.timeout 5000;// 最大重试次数 cons…...
在鸿蒙HarmonyOS 5中使用DevEco Studio实现录音机应用
1. 项目配置与权限设置 1.1 配置module.json5 {"module": {"requestPermissions": [{"name": "ohos.permission.MICROPHONE","reason": "录音需要麦克风权限"},{"name": "ohos.permission.WRITE…...

GruntJS-前端自动化任务运行器从入门到实战
Grunt 完全指南:从入门到实战 一、Grunt 是什么? Grunt是一个基于 Node.js 的前端自动化任务运行器,主要用于自动化执行项目开发中重复性高的任务,例如文件压缩、代码编译、语法检查、单元测试、文件合并等。通过配置简洁的任务…...

【JVM面试篇】高频八股汇总——类加载和类加载器
目录 1. 讲一下类加载过程? 2. Java创建对象的过程? 3. 对象的生命周期? 4. 类加载器有哪些? 5. 双亲委派模型的作用(好处)? 6. 讲一下类的加载和双亲委派原则? 7. 双亲委派模…...
快刀集(1): 一刀斩断视频片头广告
一刀流:用一个简单脚本,秒杀视频片头广告,还你清爽观影体验。 1. 引子 作为一个爱生活、爱学习、爱收藏高清资源的老码农,平时写代码之余看看电影、补补片,是再正常不过的事。 电影嘛,要沉浸,…...