当前位置: 首页 > article >正文

windows本地开发环境搭建指南:Docker + 常用中间件一键部署

本文介绍如何在本地使用 Docker Desktop 快速搭建包含 MySQL、Redis、PostgreSQL、Nacos、Kafka 等常用中间件的开发环境。所有服务的数据与配置文件均持久化到本地删除容器后数据不丢失配置随时可改。目录一、安装 Docker Desktop二、可选汉化 Docker Desktop三、修改镜像存储目录四、配置镜像加速五、准备目录与配置文件六、拉取所需镜像七、编写 docker-compose.yml八、Nacos 数据库初始化可选九、初始化 PostgreSQL 配置文件十、启动服务十一、访问各服务一、安装 Docker Desktop前往官网下载并安装 https://www.docker.com/products/docker-desktop/二、可选汉化 Docker Desktop如需中文界面可参考以下步骤否则跳过此节。汉化包地址https://github.com/asxez/DockerDesktop-CN操作步骤关闭 Docker Desktop找到app.asar文件并先备份防止意外系统默认路径WindowsC:\Program Files\Docker\Docker\frontend\resourcesmacOS/Applications/Docker.app/Contents/MacOS/Docker Desktop.app/Contents/ResourcesUbuntu/Debian/opt/docker-desktop/resources将下载的汉化.asar文件重命名为app.asar替换原文件重启 Docker Desktop三、修改镜像存储目录Docker 默认将镜像存放在系统盘建议改到空间更大的磁盘。操作路径Docker Desktop → ⚙️ 设置 → Resources → Advanced → Disk image location将路径修改为目标目录例如D:\Docker\wsl\data四、配置镜像加速由于网络原因拉取镜像时可能较慢可配置国内镜像源。操作路径Docker Desktop → ⚙️ 设置 → Docker Engine在编辑器中粘贴以下配置{max-concurrent-downloads:5,max-concurrent-uploads:5,registry-mirrors:[https://docker.1ms.run,https://docker.xuanyuan.me,https://docker.m.daocloud.io,https://dockerpull.com]}点击Apply Restart使配置生效。五、准备目录与配置文件选择一个工作目录如D:\Docker后续所有操作均在此目录下进行。5.1 创建目录结构mkdirmysql\data mysql\conf.d redis\data redis\conf postgres\data postgres\conf kafka\data nacos\logs cloudbeaver\workspace5.2 创建 MySQL 配置文件在mysql/conf.d/下新建my.cnf[mysqld] # ── 字符集 ────────────────────────────── character-set-serverutf8mb4 collation-serverutf8mb4_unicode_ci # ── 连接 ──────────────────────────────── max_connections200 # 最大连接数 max_connect_errors10 # 同一客户端连续失败超过此次数则拒绝连接 wait_timeout28800 # 非交互连接空闲超时时间秒8小时 interactive_timeout28800 # 交互连接空闲超时时间秒8小时 # ── 时区 ──────────────────────────────── default-time-zone08:00 # ── InnoDB 存储引擎 ────────────────────── innodb_buffer_pool_size512M # 缓冲池大小建议设为可用内存的 50-70% innodb_log_file_size128M # redo log 文件大小影响写入性能 innodb_flush_log_at_trx_commit1 # 1每次提交刷盘最安全2性能好但断电可能丢1秒数据 innodb_file_per_table1 # 每张表独立 ibd 文件便于管理和回收空间 # ── 临时表 ────────────────────────────── tmp_table_size64M # 内存临时表最大大小 max_heap_table_size64M # 用户创建的内存表最大大小需与上面保持一致 # ── 慢查询日志 ─────────────────────────── slow_query_log1 # 开启慢查询日志 slow_query_log_file/var/log/mysql/slow.log long_query_time2 # 超过 2 秒的查询记录到慢日志 log_queries_not_using_indexes1 # 未走索引的查询也记录到慢日志 general_log0 # 记录所有 SQL调试时可设为 1生产禁用 # ── 二进制日志用于数据恢复 / 主从复制── log_binmysql-bin # 开启 binlog文件名前缀 binlog_formatROW # ROW 模式记录行变更最安全 expire_logs_days7 # binlog 保留 7 天后自动清理 [client] default-character-setutf8mb4 [mysql] default-character-setutf8mb45.3 创建 Redis 配置文件在redis/conf/下新建redis.conf# ── 网络 ──────────────────────────────── bind 0.0.0.0 # 绑定所有网卡容器内必须 port 6379 # 监听端口 timeout 0 # 客户端空闲多少秒后断开0 表示不断开 tcp-keepalive 300 # TCP keepalive 心跳间隔秒 # ── 认证 ──────────────────────────────── requirepass 123456 # 访问密码 # ── 内存 ──────────────────────────────── maxmemory 512mb # 最大内存按实际机器情况调整 maxmemory-policy allkeys-lru # 内存满时淘汰策略优先删除最久未使用的 key # 常用策略说明 # noeviction 不淘汰内存满时写入直接报错默认值 # allkeys-lru 所有 key 中淘汰最久未使用的推荐缓存场景 # volatile-lru 只淘汰设置了过期时间的 key 中最久未使用的 # allkeys-random 随机淘汰任意 key # volatile-ttl 优先淘汰剩余过期时间最短的 key # ── 持久化RDB 快照 ───────────────────── save 900 1 # 900 秒内有 1 次写操作则触发快照 save 300 10 # 300 秒内有 10 次写操作则触发快照 save 60 10000 # 60 秒内有 10000 次写操作则触发快照 dbfilename dump.rdb # RDB 文件名 dir /data # 数据文件存储目录对应容器内挂载路径 # ── 持久化AOF 日志 ───────────────────── appendonly yes # 开启 AOF比 RDB 更安全推荐开启 appendfilename appendonly.aof # AOF 文件名 appendfsync everysec # 每秒刷盘一次兼顾性能和安全 no-appendfsync-on-rewrite no # AOF 重写期间是否暂停刷盘no 表示不暂停 auto-aof-rewrite-percentage 100 # AOF 文件比上次重写后增长 100% 时触发重写 auto-aof-rewrite-min-size 64mb # AOF 文件至少达到 64MB 才触发重写 # ── 慢查询日志 ─────────────────────────── slowlog-log-slower-than 10000 # 记录执行超过 10ms10000 微秒的命令 slowlog-max-len 128 # 慢日志最多保留 128 条 # ── 日志 ──────────────────────────────── loglevel notice # 日志级别debug / verbose / notice / warning logfile # 空字符串表示输出到标准输出容器内推荐 # ── 其他 ──────────────────────────────── databases 16 # 数据库数量默认 16 个db0 ~ db15 hz 10 # 后台任务执行频率影响过期 key 清理速度5.4 PostgreSQL 配置文件说明PostgreSQL 的配置文件在数据库首次初始化时自动生成无法提前手动创建。需要先启动容器再将配置文件复制到本地详见 第九节。完成后目录结构如下PostgreSQL 配置文件在第九步补充dev-docker/ ├── mysql/ │ ├── data/ # MySQL 数据持久化 │ └── conf.d/ │ └── my.cnf # ✅ MySQL 自定义配置 ├── redis/ │ ├── data/ # Redis 持久化数据 │ └── conf/ │ └── redis.conf # ✅ Redis 自定义配置 ├── postgres/ │ ├── data/ # PostgreSQL 数据持久化 │ └── conf/ # ⏳ 第九步从容器复制配置文件到此处 ├── kafka/ │ └── data/ # Kafka 日志数据 ├── nacos/ │ └── logs/ # Nacos 运行日志 ├── cloudbeaver/ │ └── workspace/ # CloudBeaver 工作区 ├── mysql-schema.sql # Nacos 初始化 SQL可选见第八节 └── docker-compose.yml六、拉取所需镜像可以在 https://hub.docker.com/ 查询最新版本。执行以下命令拉取本文所用镜像dockerpull mysql:8.0dockerpull redis:7-alpinedockerpull postgres:16dockerpull nacos/nacos-server:v2.4.0dockerpull confluentinc/cp-kafka:8.1.2dockerpull dbeaver/cloudbeaver:latestdockerpull prom/node-exporter:latest七、编写 docker-compose.yml在工作目录下创建docker-compose.yml内容如下services:# MySQL 数据库 (8.0 版本) mysql:image:mysql:8.0# 使用官方 MySQL 8.0 镜像container_name:mysql-dev# 容器名称设置为 mysql-devrestart:unless-stopped# 除非手动停止否则容器崩溃或 Docker 重启后自动拉起environment:# 设置环境变量MYSQL_ROOT_PASSWORD:123456# 设置 root 用户的初始密码MYSQL_DATABASE:nacos_config# 容器启动时自动创建名为 nacos_config 的数据库ports:# 端口映射-3306:3306# 将宿主机 3306 映射到容器 3306 端口volumes:# 挂载卷配置-./mysql/data:/var/lib/mysql# 将数据库数据持久化到本地目录防止容器删除后数据丢失-./mysql/conf.d:/etc/mysql/conf.d# 挂载本地配置目录用于存放自定义的 .cnf 配置文件-./mysql-schema.sql:/docker-entrypoint-initdb.d/nacos-mysql.sql# 自动初始化脚本容器首次启动时会执行此 SQLcommand:--default-authentication-pluginmysql_native_password# 启动参数使用传统密码认证插件以兼容旧版客户端healthcheck:# 健康检查供其他服务依赖判断test:[CMD,mysqladmin,ping,-h,localhost,-u,root,-p123456]# 检查命令尝试 ping 数据库interval:10s# 每隔 10 秒检查一次timeout:5s# 检查超时时间为 5 秒retries:5# 连续失败 5 次后认为容器不健康# Nacos 注册中心/配置中心 nacos:image:nacos/nacos-server:v2.4.0# 使用 Nacos 2.4.0 官方镜像container_name:nacos-dev# 容器名称restart:unless-stopped# 自动重启策略depends_on:# 服务依赖mysql:# 依赖 mysql 服务condition:service_healthy# 必须等 mysql 健康检查通过后再启动 nacosenvironment:# Nacos 运行时配置项MODE:standalone# 运行模式单机模式SPRING_DATASOURCE_PLATFORM:mysql# 指定外部数据源类型为 mysqlMYSQL_SERVICE_HOST:mysql-dev# MySQL 的主机名对应上面的容器名MYSQL_SERVICE_PORT:3306# MySQL 端口MYSQL_SERVICE_DB_NAME:nacos_config# Nacos 使用的数据库名MYSQL_SERVICE_USER:root# 数据库用户名MYSQL_SERVICE_PASSWORD:123456# 数据库密码NACOS_AUTH_IDENTITY_KEY:nacos# 开启鉴权后的身份标识 keyNACOS_AUTH_IDENTITY_VALUE:nacos# 开启鉴权后的身份标识 valueNACOS_AUTH_TOKEN:SecretKey012345678901234567890123456789012345678901234567890123456789# 鉴权使用的 Token 密钥ports:# 端口映射-8848:8848# Nacos 控制台 Web 访问端口-9848:9848# Nacos 2.x 版本的客户端 gRPC 通信端口-9849:9849# Nacos 2.x 版本的服务端 gRPC 通信端口volumes:# 挂载卷-./nacos/logs:/home/nacos/logs# 将容器内的日志挂载到本地方便排查问题# Redis 缓存 redis:image:redis:7-alpine# 使用轻量级的 Redis 7 (Alpine Linux) 镜像container_name:redis-dev# 容器名称restart:unless-stopped# 自动重启策略ports:# 端口映射-6379:6379# 映射默认 6379 端口volumes:# 挂载卷-./redis/data:/data# 持久化 Redis 数据库文件-./redis/conf/redis.conf:/etc/redis/redis.conf# 挂载本地配置文件到容器内command:redis-server /etc/redis/redis.conf# 指定使用挂载的配置文件启动 Redishealthcheck:# 健康检查test:[CMD,redis-cli,-a,123456,ping]# 检查命令使用密码 123456 执行 pinginterval:10s# 每 10 秒检查一次timeout:3s# 超时时间 3 秒retries:3# 失败 3 次标记为不健康# PostgreSQL 数据库 postgres:image:postgres:16# 使用官方 PostgreSQL 16 镜像container_name:postgres-dev# 容器名称restart:unless-stopped# 自动重启策略environment:# 环境变量POSTGRES_PASSWORD:123456# 设置超级用户 postgres 的密码ports:# 端口映射-5432:5432# 映射默认 5432 端口volumes:# 挂载卷-./postgres/data:/var/lib/postgresql/data# 持久化 PG 数据库数据-./postgres/conf/postgresql.conf:/etc/postgresql/postgresql.conf# 挂载主配置文件-./postgres/conf/pg_hba.conf:/etc/postgresql/pg_hba.conf# 挂载访问控制配置文件command:postgres-c config_file/etc/postgresql/postgresql.conf# 启动参数指定配置文件路径healthcheck:# 健康检查test:[CMD-SHELL,pg_isready -U postgres]# 使用内置命令 pg_isready 检查连通性interval:10s# 每 10 秒检查timeout:5s# 超时时间 5 秒retries:5# 失败重试次数# CloudBeaver (Web 版数据库管理工具) cloudbeaver:image:dbeaver/cloudbeaver:latest# 使用 DBeaver 官方出品的 Web 版镜像container_name:cloudbeaver# 容器名称restart:unless-stopped# 自动重启策略ports:# 端口映射-8978:8978# Web 访问地址为 http://localhost:8978volumes:# 挂载卷-./cloudbeaver/workspace:/opt/cloudbeaver/workspace# 持久化保存用户的数据库连接配置和 SQL 脚本# Kafka 消息队列 (KRaft 模式) kafka:image:confluentinc/cp-kafka:8.1.2# 使用 Confluent 提供的 Kafka 镜像container_name:kafka-dev# 容器名称restart:unless-stopped# 自动重启策略ports:# 端口映射-9092:9092# 映射外部客户端访问端口volumes:# 挂载卷-./kafka/data:/var/lib/kafka/data# 持久化 Kafka 消息数据environment:# Kafka 环境变量KRaft 模式配置KAFKA_NODE_ID:1# 节点 IDKAFKA_PROCESS_ROLES:broker,controller# 本节点同时担任消息代理(broker)和控制器(controller)KAFKA_CONTROLLER_QUORUM_VOTERS:1kafka-dev:9093# 集群控制器投票者配置KAFKA_LISTENERS:PLAINTEXT://0.0.0.0:9092,CONTROLLER://0.0.0.0:9093# 定义内部和外部监听器KAFKA_ADVERTISED_LISTENERS:PLAINTEXT://localhost:9092# 暴露给宿主机的地址Windows 本地代码连接用 localhostKAFKA_LISTENER_SECURITY_PROTOCOL_MAP:CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT# 定义监听器的协议映射KAFKA_CONTROLLER_LISTENER_NAMES:CONTROLLER# 指定控制器监听器名称KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR:1# 偏移量主题副本数单机设为 1KAFKA_TRANSACTION_STATE_LOG_MIN_ISR:1# 事务日志最小同步副本数KAFKA_TRANSACTION_STATE_LOG_REPLICATION_FACTOR:1# 事务日志副本数KAFKA_LOG_DIRS:/var/lib/kafka/data# 消息日志存储目录healthcheck:# 健康检查test:[CMD-SHELL,kafka-topics --bootstrap-server localhost:9092 --list]# 检查命令尝试列出 topicinterval:15s# 每 15 秒检查一次timeout:10s# 超时时间 10 秒retries:5# 失败重试次数start_period:30s# 容器启动后等待 30 秒再开始检查Kafka 启动慢# Node Exporter (指标采集) node-exporter:image:prom/node-exporter:latest# 使用 Prometheus 官方节点采集镜像container_name:node-exporter# 容器名称restart:unless-stopped# 自动重启策略ports:# 端口映射-9100:9100# 暴露指标采集端口Prometheus 可通过该端口抓取数据# 网络配置 networks:default:# 默认网络配置name:dev-network# 自定义网络名称为 dev-network所有服务均在此网络下八、Nacos 数据库初始化可选如果只是简单体验 Nacos可跳过此步Nacos 将使用内置的 Derby 数据库但重启后配置不会持久化。若需要配置持久化到 MySQL则必须执行此步骤。步骤前往 https://github.com/alibaba/nacos/releases 下载与镜像版本一致的 Nacos Server 安装包本文为 v2.4.0解压后在conf/目录中找到mysql-schema.sql将该文件复制到工作目录与docker-compose.yml同级命名为mysql-schema.sqlMySQL 容器首次启动时会自动执行该 SQL 脚本完成初始化。如果不使用 MySQL 持久化记得删除或注释掉docker-compose.yml中 MySQL 的 SQL 挂载行以及 Nacos 的数据源相关环境变量# MySQL volumes 中注释掉# - ./mysql-schema.sql:/docker-entrypoint-initdb.d/nacos-mysql.sql# Nacos environment 中注释掉# SPRING_DATASOURCE_PLATFORM: mysql# MYSQL_SERVICE_HOST: mysql-dev# ...九、初始化 PostgreSQL 配置文件由于 PostgreSQL 的配置文件在数据库首次初始化时自动生成需要先临时启动 PostgreSQL将配置文件复制到本地再完整启动所有服务。第一步临时注释配置文件挂载将docker-compose.yml中 PostgreSQL 的配置文件挂载和 command 行临时注释掉postgres:...volumes:-./postgres/data:/var/lib/postgresql/data# - ./postgres/conf/postgresql.conf:/etc/postgresql/postgresql.conf # 暂时注释# - ./postgres/conf/pg_hba.conf:/etc/postgresql/pg_hba.conf # 暂时注释# command: postgres -c config_file/etc/postgresql/postgresql.conf # 暂时注释单独启动 PostgreSQLdocker-composeup-dpostgres第二步复制配置文件到本地等待容器启动后执行dockercppostgres-dev:/var/lib/postgresql/data/postgresql.conf ./postgres/conf/postgresql.confdockercppostgres-dev:/var/lib/postgresql/data/pg_hba.conf ./postgres/conf/pg_hba.conf第三步恢复配置并重启将docker-compose.yml中刚才注释掉的三行取消注释恢复为完整配置然后重建 PostgreSQL 容器docker-composeup-dpostgres此后 PostgreSQL 将读取本地的配置文件启动。如需调整配置直接编辑postgres/conf/postgresql.conf并重启容器即可。十、启动服务完成以上所有准备工作后在工作目录下执行# 后台启动所有服务docker-composeup-d# 查看各服务运行状态docker-composeps# 查看某个服务的日志以 nacos 为例docker-composelogs-fnacos停止服务# 停止并保留数据docker-composedown# 停止并清除所有数据卷慎用数据将丢失docker-composedown-v十一、访问各服务服务访问地址账号 / 密码CloudBeaverWeb 数据库管理http://localhost:8978首次启动自行设置Nacos配置 注册中心http://localhost:8848/nacosnacos / nacosMySQLlocalhost:3306root / 123456Redislocalhost:6379密码123456PostgreSQLlocalhost:5432postgres / 123456Kafkalocalhost:9092无认证Node Exporter监控指标http://localhost:9100/metrics无附持久化总览服务本地数据目录本地配置文件MySQLmysql/data/mysql/conf.d/my.cnfRedisredis/data/redis/conf/redis.confPostgreSQLpostgres/data/postgres/conf/postgresql.conf/pg_hba.confKafkakafka/data/通过环境变量配置无独立文件Nacos—通过环境变量配置日志在nacos/logs/CloudBeavercloudbeaver/workspace/—附常用 Docker 命令速查# 查看所有运行中的容器dockerps# 进入容器内部以 mysql-dev 为例dockerexec-itmysql-devbash# 查看容器日志dockerlogs-f容器名# 修改配置后重启某个服务docker-composerestart服务名# compose 文件有改动时重新创建并启动某个服务docker-composeup-d服务名提示所有数据与配置文件均已挂载到本地目录删除容器不会导致数据丢失。如需彻底重置某个服务停止容器后手动清空对应的data/目录再重新启动即可。附更换电脑数据完整迁移由于数据和配置全部在本地工作目录中迁移的核心就是复制这个目录。旧电脑打包迁移先停止所有服务确保数据完整写入磁盘docker-composedown然后将整个工作目录打包通过移动硬盘或网盘传输到新电脑。如果新电脑网络不好可以顺带导出镜像一并带走dockersave\mysql:8.0 redis:7-alpine postgres:16\nacos/nacos-server:v2.4.0 confluentinc/cp-kafka:8.1.2\dbeaver/cloudbeaver:latest prom/node-exporter:latest\-oall-images.tar新电脑恢复启动安装 Docker Desktop参考本文第一至四节完成基础配置将工作目录解压到目标路径建议与旧电脑路径一致无需改任何配置导入镜像如果导出了的话或直接重新docker pull# 离线导入dockerload-iall-images.tar# 或重新拉取dockerpull mysql:8.0dockerpull redis:7-alpine# ...进入工作目录直接启动docker-composeup-d各服务会直接读取原来的数据目录和配置文件启动后数据与迁移前完全一致。注意Nacos 如果使用的是内置 Derby 数据库非 MySQL 持久化模式配置数据存储在容器内部迁移前需在 Nacos 控制台手动导出配置到新环境后再导入。使用 MySQL 持久化模式则无此问题数据随 MySQL 一起迁移。

相关文章:

windows本地开发环境搭建指南:Docker + 常用中间件一键部署

本文介绍如何在本地使用 Docker Desktop 快速搭建包含 MySQL、Redis、PostgreSQL、Nacos、Kafka 等常用中间件的开发环境。所有服务的数据与配置文件均持久化到本地,删除容器后数据不丢失,配置随时可改。 目录 一、安装 Docker Desktop二、可选&#xf…...

【数据结构与算法】第23篇:树、森林与二叉树的转换

一、树的存储结构1.1 双亲表示法每个节点存储数据和父节点下标,适合找父节点的场景。c#define MAX_SIZE 100 typedef struct {int data;int parent; // 父节点下标 } PNode;typedef struct {PNode nodes[MAX_SIZE];int root; // 根节点下标int size; } PTree;缺…...

别再只看FLOPs了!从VoVNet的OSA模块看高效网络设计的实战误区

从VoVNet的OSA模块看高效网络设计的实战误区:为什么你的模型跑得比论文慢? 当我们在GitHub上复现一篇顶会论文时,最沮丧的瞬间莫过于:明明FLOPs和参数量完全匹配,实际推理速度却比论文报告值慢了30%。这个问题在部署De…...

KingbaseES V8R6备份还原踩坑实录:sys_dump、sys_restore和ksql到底怎么选?

KingbaseES V8R6备份还原实战指南:工具选型与典型问题解析 第一次接触KingbaseES V8R6的备份还原工作时,面对sys_dump、sys_restore和ksql这三个工具,我像大多数新手一样陷入了选择困难。记得那次紧急数据迁移任务,当我信心满满地…...

告别库函数依赖:手把手教你用寄存器点亮复旦微FM33LC0XX的GPIO(附代码避坑)

从库函数到寄存器:复旦微FM33LC0XX GPIO开发实战指南 第一次翻开复旦微FM33LC0XX的寄存器手册时,那种扑面而来的寄存器位域描述让我想起了十年前刚接触STM32的场景。与常见的HAL库不同,直接操作寄存器就像亲手拧动机械表的每一个齿轮——虽然…...

nRF52硬件PWM深度解析:高精度、低抖动、多通道实时控制

1. nRF52_PWM硬件PWM库深度技术解析1.1 硬件PWM的工程必要性与nRF52平台特性在嵌入式实时控制系统中,PWM(脉宽调制)信号的质量直接决定执行机构的响应精度与系统稳定性。软件定时器实现的PWM(如基于millis()或micros()的循环轮询&…...

Vitis 2021.1下,手把手教你为Xilinx LWIP库适配国产YT8511以太网芯片(附完整代码)

Vitis 2021.1环境下国产YT8511以太网芯片与Xilinx LWIP库的深度适配指南 当Artix-7 FPGA遇上国产PHY芯片,开发者常常面临官方驱动不兼容的困境。本文将彻底解决Vitis 2021.1环境中LWIP库对YT8511的适配问题,提供从寄存器配置到代码移植的全套方案。 1. 环…...

基于GEC6818的智能车库管理系统设计与优化

1. 项目概述与背景智能车库管理系统是当前城市停车管理领域的重要技术革新方向。传统停车场普遍存在人工收费效率低、排队时间长、管理成本高等痛点。我们基于GEC6818嵌入式开发板开发的这套系统,通过整合车牌识别、RFID支付、数据库管理等技术模块,实现…...

工业质检新思路:当UNet遇上钢材缺陷,聊聊PyTorch实战中的那些‘坑’与优化技巧

工业质检实战:UNet在钢材缺陷检测中的高阶优化与避坑指南 第一次把UNet模型部署到钢厂产线时,我盯着监控屏幕上闪烁的误报提示,意识到学术论文里的漂亮指标和真实工业场景之间,隔着无数个深夜调试的神经网络。钢材表面那些细如发丝…...

实测挖到宝!这款AI修图工具,开发者/设计师都能直接用

最近刷CSDN,看到很多同行在讨论AI修图工具的实测对比,大多要么操作复杂、要么效果拉胯,直到我偶然刷到椒图AI(官网:https://www.jiaotuai.cn/),用了一周果断分享,不管是日常修图还是…...

Android媒体开发 -(2)ExoPlayer高级功能:播放列表与动态资源加载

1. ExoPlayer播放列表基础操作 在Android媒体开发中,ExoPlayer的播放列表管理功能远比想象中强大。记得我第一次用MediaPlayer实现播放列表时,不得不手动处理队列切换和状态同步,而ExoPlayer通过ConcatenatingMediaSource和MediaItem的配合&a…...

国产视频会议核心技术解析:架构、特性与全场景落地

在数字化协同办公发展与信息安全防护需求的双重推动下,视频会议国产化已经从政策导向阶段迈入技术落地的成熟期,其核心价值集中体现在自主可控、安全可靠、全场景适配三大维度。依托硬件基础、编解码技术、传输优化、安全防护以及生态兼容的全链条技术创…...

奇安信浏览器HEVC硬件解码优化指南:基于JM9显卡的实战配置

1. 为什么需要HEVC硬件解码优化 最近在折腾4K视频播放时,发现电脑风扇狂转,CPU占用直接飙到90%以上。查了下才发现是浏览器软解HEVC视频导致的,这种场景下显卡却在旁边"看戏"。后来发现奇安信浏览器搭配JM9显卡的硬件解码方案&…...

构网型变换器:从虚拟同步机到多场景应用的控制策略演进

1. 构网型变换器:电力系统的"新心脏" 想象一下,你正在玩一个多人协作的积木搭建游戏。传统玩法是大家跟着一个主建筑师(电网)的指令堆叠积木(发电),而构网型变换器(GFM&am…...

飞书机器人接入OpenClaw指南:千问3.5-27B实现智能问答助手

飞书机器人接入OpenClaw指南:千问3.5-27B实现智能问答助手 1. 为什么选择OpenClaw飞书机器人组合 去年我接手了一个技术文档整理项目,每天需要处理上百份飞书文档的归类与摘要生成。手动操作不仅效率低下,还经常漏掉关键更新。直到发现Open…...

OpenClaw健康助手:Qwen3-32B分析智能穿戴数据生成周报

OpenClaw健康助手:Qwen3-32B分析智能穿戴数据生成周报 1. 为什么需要本地化健康数据分析 去年我开始使用智能手环监测睡眠和运动数据,但很快发现一个问题:所有数据都要上传到厂商云端才能生成报告。作为医疗行业从业者,我深知健…...

OpenFontRender:嵌入式MCU的轻量级TTF字体渲染库

1. OpenFontRender 库深度解析:面向嵌入式微控制器的 TTF 字体渲染引擎OpenFontRender 是一款专为资源受限微控制器设计的开源 TTF(TrueType Font)字体渲染库,其核心目标是在 Arduino IDE 生态下实现高质量、可定制、跨平台的矢量…...

OpenClaw浏览器自动化:Qwen3-14B镜像驱动的高效数据采集

OpenClaw浏览器自动化:Qwen3-14B镜像驱动的高效数据采集 1. 为什么选择OpenClaw做浏览器自动化? 去年我在做一个市场调研项目时,需要从几十个电商平台抓取商品价格数据。传统爬虫方案遇到三个致命问题:动态加载内容难以解析、反…...

OpenClaw+百川2-13B-4bits:10分钟搭建学术资料收集机器人

OpenClaw百川2-13B-4bits:10分钟搭建学术资料收集机器人 1. 为什么需要学术资料收集机器人? 上周整理毕业论文参考文献时,我发现自己浪费了整整3个小时在重复操作上:在Google Scholar搜索关键词→逐一点开论文链接→手动判断相关…...

ContentProvider call方法在跨进程通信中的高效实践

1. ContentProvider call方法入门:跨进程通信的新选择 第一次接触ContentProvider的call方法时,我还在用广播和AIDL处理跨进程通信。那会儿每次看到项目里复杂的AIDL接口定义和广播接收代码就头疼,直到发现这个被很多人忽略的"宝藏方法&…...

gciWidget:面向车载嵌入式系统的轻量级GUI组件库

1. 项目概述gciWidget是面向大众汽车集团(Volkswagen Group)CARIAD 车载软件平台定制开发的轻量级图形用户界面(GUI)组件库,专为嵌入式车载显示系统设计。其核心定位并非通用型 GUI 框架(如 LVGL 或 TouchG…...

如何在不同的机器上运行多个OpenClaw实例?

想让不同机器上的 OpenClaw 一起协作,其实就是搭建一个跨机器的 “小龙虾通信网络”。实现方式分两种:简单直连(适合测试 / 小集群)和远程网关(适合生产 / 稳定协作)。下面给你一套直接能跑的完整方案。一、…...

OpenClaw隐私保护方案:Qwen3.5-9B本地处理医疗图片的10个细节

OpenClaw隐私保护方案:Qwen3.5-9B本地处理医疗图片的10个细节 1. 为什么选择本地化医疗图片处理 去年帮家人整理体检报告时,我遇到一个两难问题:既想用AI分析CT影像的异常阴影,又担心把敏感数据上传到第三方平台。这个矛盾促使我…...

OpenClaw+Qwen3-14B镜像实战:5分钟搭建飞书智能助手

OpenClawQwen3-14B镜像实战:5分钟搭建飞书智能助手 1. 为什么选择这个组合? 上周三晚上11点,我正在为第二天的部门会议整理材料时,突然冒出一个想法:能不能让AI自动处理这些重复性工作?经过一番折腾&…...

SD卡速度模式全解析:从High Speed到UHS-III的选型指南

SD卡速度模式全解析:从High Speed到UHS-III的选型指南 在4K视频拍摄、高速连拍相机和工业级数据采集设备中,SD卡的性能往往成为系统瓶颈。我曾为一个医疗影像项目选型时,因误用Class 10的High Speed卡导致DVR设备频繁丢帧,最终发现…...

别光调包了!在EduCoder上通关‘卷积神经网络实现’后,我搞懂了im2col加速的奥秘

从EduCoder实战到工业级优化:im2col如何让卷积计算快10倍 在EduCoder平台完成"卷积神经网络实现"实验时,很多同学会疑惑:为什么提供的代码模板里要用im2col这个看似复杂的函数?直接写四重循环实现卷积不是更直观吗&…...

别再折腾Docker了!用CasaOS在Ubuntu上5分钟搞定个人轻NAS(附国内源配置)

别再折腾Docker了!用CasaOS在Ubuntu上5分钟搞定个人轻NAS(附国内源配置) 你是否曾经被Docker复杂的配置流程劝退?或者对传统NAS系统如TrueNAS的庞大资源占用感到头疼?如果你手头有一台闲置的旧电脑或树莓派&#xff0c…...

给SoC新手的保姆级指南:手把手用Verilog实现一个APB总线读写控制器

给SoC新手的保姆级指南:手把手用Verilog实现一个APB总线读写控制器 第一次接触AMBA总线时,那些密密麻麻的时序图总让人望而生畏。作为ARM公司设计的片上总线标准,APB(Advanced Peripheral Bus)以其简单的两相握手协议成为初学者理解总线通信的…...

不用示波器也能看波形!Keil软件仿真Logic Analyzer的隐藏技巧大公开

不用示波器也能看波形!Keil软件仿真Logic Analyzer的隐藏技巧大公开 在嵌入式开发中,调试GPIO波形是每个工程师都会遇到的场景。传统方式需要依赖示波器或逻辑分析仪,但硬件设备不仅成本高昂,还受限于使用环境。Keil MDK内置的Log…...

用IDM抓取网页动态资源

动态资源抓取的基本原理动态资源通常由JavaScript异步加载或通过API接口返回,传统爬虫难以直接获取。IDM(Internet Download Manager)通过监控浏览器网络请求,可捕获这些动态生成的资源链接。配置IDM捕获动态资源启用IDM的浏览器集…...