40分钟学 Go 语言高并发:【实战】分布式缓存系统
【实战课程】分布式缓存系统
一、整体架构设计
首先,让我们通过架构图了解分布式缓存系统的整体设计:
核心组件
组件名称 | 功能描述 | 技术选型 |
---|---|---|
负载均衡层 | 请求分发、节点选择 | 一致性哈希 |
缓存节点 | 数据存储、过期处理 | 内存存储 + 持久化 |
同步机制 | 节点间数据同步 | Pub/Sub + Gossip |
监控系统 | 性能监控、故障检测 | Prometheus + Grafana |
二、核心代码实现
1. 缓存节点实现
package dcacheimport ("context""encoding/json""sync""time"
)// CacheItem 缓存项结构
type CacheItem struct {Value interface{} `json:"value"`Expiration int64 `json:"expiration"`CreatedAt int64 `json:"created_at"`UpdatedAt int64 `json:"updated_at"`
}// CacheNode 缓存节点结构
type CacheNode struct {nodeID stringitems sync.Mappeers map[string]*CacheNodepeerLock sync.RWMutexoptions *Options
}// Options 配置选项
type Options struct {DefaultExpiration time.DurationCleanupInterval time.DurationMaxItems int
}// NewCacheNode 创建新的缓存节点
func NewCacheNode(nodeID string, opts *Options) *CacheNode {node := &CacheNode{nodeID: nodeID,peers: make(map[string]*CacheNode),options: opts,}// 启动清理过期项的定时任务if opts.CleanupInterval > 0 {go node.cleanupLoop()}return node
}// Set 设置缓存项
func (n *CacheNode) Set(ctx context.Context, key string, value interface{}, expiration time.Duration) error {item := &CacheItem{Value: value,CreatedAt: time.Now().UnixNano(),UpdatedAt: time.Now().UnixNano(),}if expiration == 0 {expiration = n.options.DefaultExpiration}if expiration > 0 {item.Expiration = time.Now().Add(expiration).UnixNano()}n.items.Store(key, item)// 通知其他节点更新n.notifyPeers(ctx, key, item)return nil
}// Get 获取缓存项
func (n *CacheNode) Get(ctx context.Context, key string) (interface{}, bool) {if value, exists := n.items.Load(key); exists {item := value.(*CacheItem)if item.Expiration > 0 && item.Expiration < time.Now().UnixNano() {n.items.Delete(key)return nil, false}return item.Value, true}return nil, false
}// Delete 删除缓存项
func (n *CacheNode) Delete(ctx context.Context, key string) {n.items.Delete(key)// 通知其他节点删除n.notifyPeersDelete(ctx, key)
}// cleanupLoop 清理过期项的循环
func (n *CacheNode) cleanupLoop() {ticker := time.NewTicker(n.options.CleanupInterval)defer ticker.Stop()for {select {case <-ticker.C:n.cleanup()}}
}// cleanup 清理过期项
func (n *CacheNode) cleanup() {now := time.Now().UnixNano()n.items.Range(func(key, value interface{}) bool {item := value.(*CacheItem)if item.Expiration > 0 && item.Expiration < now {n.items.Delete(key)}return true})
}// AddPeer 添加对等节点
func (n *CacheNode) AddPeer(peer *CacheNode) {n.peerLock.Lock()defer n.peerLock.Unlock()n.peers[peer.nodeID] = peer
}// RemovePeer 移除对等节点
func (n *CacheNode) RemovePeer(peerID string) {n.peerLock.Lock()defer n.peerLock.Unlock()delete(n.peers, peerID)
}// notifyPeers 通知其他节点更新
func (n *CacheNode) notifyPeers(ctx context.Context, key string, item *CacheItem) {n.peerLock.RLock()defer n.peerLock.RUnlock()for _, peer := range n.peers {go func(p *CacheNode) {p.receiveUpdate(ctx, key, item)}(peer)}
}// receiveUpdate 接收更新通知
func (n *CacheNode) receiveUpdate(ctx context.Context, key string, item *CacheItem) {n.items.Store(key, item)
}
2. 一致性哈希实现
package dcacheimport ("hash/crc32""sort""sync"
)type ConsistentHash struct {circle map[uint32]stringsortedHashes []uint32nodes map[string]boolvirtualNodes intmu sync.RWMutex
}func NewConsistentHash(virtualNodes int) *ConsistentHash {return &ConsistentHash{circle: make(map[uint32]string),nodes: make(map[string]bool),virtualNodes: virtualNodes,}
}// Add 添加节点
func (c *ConsistentHash) Add(node string) {c.mu.Lock()defer c.mu.Unlock()if _, exists := c.nodes[node]; exists {return}c.nodes[node] = truefor i := 0; i < c.virtualNodes; i++ {hash := c.hashKey(fmt.Sprintf("%s-%d", node, i))c.circle[hash] = node}c.updateSortedHashes()
}// Remove 移除节点
func (c *ConsistentHash) Remove(node string) {c.mu.Lock()defer c.mu.Unlock()if _, exists := c.nodes[node]; !exists {return}delete(c.nodes, node)for i := 0; i < c.virtualNodes; i++ {hash := c.hashKey(fmt.Sprintf("%s-%d", node, i))delete(c.circle, hash)}c.updateSortedHashes()
}// Get 获取负责的节点
func (c *ConsistentHash) Get(key string) string {c.mu.RLock()defer c.mu.RUnlock()if len(c.circle) == 0 {return ""}hash := c.hashKey(key)idx := c.searchForNode(hash)return c.circle[c.sortedHashes[idx]]
}// hashKey 计算哈希值
func (c *ConsistentHash) hashKey(key string) uint32 {return crc32.ChecksumIEEE([]byte(key))
}// updateSortedHashes 更新已排序的哈希值切片
func (c *ConsistentHash) updateSortedHashes() {hashes := make([]uint32, 0, len(c.circle))for k := range c.circle {hashes = append(hashes, k)}sort.Slice(hashes, func(i, j int) bool {return hashes[i] < hashes[j]})c.sortedHashes = hashes
}// searchForNode 查找适合的节点
func (c *ConsistentHash) searchForNode(hash uint32) int {idx := sort.Search(len(c.sortedHashes), func(i int) bool {return c.sortedHashes[i] >= hash})if idx >= len(c.sortedHashes) {idx = 0}return idx
}
3. 数据同步流程图
4. 故障恢复实现
package dcacheimport ("context""sync""time"
)type FailureDetector struct {nodes map[string]*NodeStatusmu sync.RWMutexcheckInterval time.Durationtimeout time.Duration
}type NodeStatus struct {LastHeartbeat time.TimeIsAlive boolAddress string
}func NewFailureDetector(checkInterval, timeout time.Duration) *FailureDetector {fd := &FailureDetector{nodes: make(map[string]*NodeStatus),checkInterval: checkInterval,timeout: timeout,}go fd.startDetection()return fd
}// RegisterNode 注册节点
func (fd *FailureDetector) RegisterNode(nodeID, address string) {fd.mu.Lock()defer fd.mu.Unlock()fd.nodes[nodeID] = &NodeStatus{LastHeartbeat: time.Now(),IsAlive: true,Address: address,}
}// UpdateHeartbeat 更新心跳
func (fd *FailureDetector) UpdateHeartbeat(nodeID string) {fd.mu.Lock()defer fd.mu.Unlock()if node, exists := fd.nodes[nodeID]; exists {node.LastHeartbeat = time.Now()node.IsAlive = true}
}// startDetection 开始故障检测
func (fd *FailureDetector) startDetection() {ticker := time.NewTicker(fd.checkInterval)defer ticker.Stop()for {select {case <-ticker.C:fd.detectFailures()}}
}// detectFailures 检测故障
func (fd *FailureDetector) detectFailures() {fd.mu.Lock()defer fd.mu.Unlock()now := time.Now()for nodeID, status := range fd.nodes {if status.IsAlive && now.Sub(status.LastHeartbeat) > fd.timeout {status.IsAlive = falsego fd.handleNodeFailure(nodeID)}}
}// handleNodeFailure 处理节点故障
func (fd *FailureDetector) handleNodeFailure(nodeID string) {// 1. 通知其他节点fd.notifyPeers(nodeID)// 2. 触发数据重平衡fd.rebalanceData(nodeID)
}// notifyPeers 通知其他节点
func (fd *FailureDetector) notifyPeers(failedNodeID string) {fd.mu.RLock()defer fd.mu.RUnlock()for nodeID, status := range fd.nodes {if nodeID != failedNodeID && status.IsAlive {go fd.sendFailureNotification(status.Address, failedNodeID)}}
}// sendFailureNotification 发送故障通知
func (fd *FailureDetector) sendFailureNotification(address, failedNodeID string) {// 实现具体的通知逻辑// 可以使用HTTP或gRPC等方式
}// rebalanceData 重平衡数据
func (fd *FailureDetector) rebalanceData(failedNodeID string) {// 1. 确定需要迁移的数据// 2. 选择目标节点// 3. 执行数据迁移fd.mu.RLock()defer fd.mu.RUnlock()var aliveNodes []stringfor nodeID, status := range fd.nodes {if status.IsAlive && nodeID != failedNodeID {aliveNodes = append(aliveNodes, nodeID)}}if len(aliveNodes) == 0 {return}// 触发数据迁移go fd.migrateData(failedNodeID, aliveNodes)
}// migrateData 迁移数据
func (fd *FailureDetector) migrateData(failedNodeID string, aliveNodes []string) {// 实现数据迁移逻辑
}// IsNodeAlive 检查节点是否存活
func (fd *FailureDetector) IsNodeAlive(nodeID string) bool {fd.mu.RLock()defer fd.mu.RUnlock()if status, exists := fd.nodes[nodeID]; exists {return status.IsAlive}return false
}// GetAliveNodes 获取所有存活节点
func (fd *FailureDetector) GetAliveNodes() []string {fd.mu.RLock()defer fd.mu.RUnlock()var aliveNodes []stringfor nodeID, status := range fd.nodes {if status.IsAlive {aliveNodes = append(aliveNodes, nodeID)}}return aliveNodes
}
三、缓存同步机制
1. 同步策略比较
策略 | 优点 | 缺点 | 适用场景 |
---|---|---|---|
同步复制 | 强一致性 | 性能较差 | 对一致性要求高的场景 |
异步复制 | 性能好 | 最终一致性 | 对性能要求高的场景 |
半同步复制 | 折中方案 | 实现复杂 | 平衡性能和一致性 |
2. 数据同步实现
package dcacheimport ("context""encoding/json""sync""time"
)type SyncManager struct {node *CacheNodesyncInterval time.DurationsyncTimeout time.DurationsyncQueue chan *SyncTaskwg sync.WaitGroup
}type SyncTask struct {Key stringValue interface{}Operation string // "set" or "delete"Timestamp int64
}func NewSyncManager(node *CacheNode, syncInterval, syncTimeout time.Duration) *SyncManager {sm := &SyncManager{node: node,syncInterval: syncInterval,syncTimeout: syncTimeout,syncQueue: make(chan *SyncTask, 1000),}go sm.processSyncQueue()return sm
}// AddSyncTask 添加同步任务
func (sm *SyncManager) AddSyncTask(task *SyncTask) {select {case sm.syncQueue <- task:// 成功添加到队列default:// 队列已满,记录错误日志}
}// processSyncQueue 处理同步队列
func (sm *SyncManager) processSyncQueue() {ticker := time.NewTicker(sm.syncInterval)defer ticker.Stop()var tasks []*SyncTaskfor {select {case task := <-sm.syncQueue:tasks = append(tasks, task)// 批量处理if len(tasks) >= 100 {sm.processBatch(tasks)tasks = tasks[:0]}case <-ticker.C:if len(tasks) > 0 {sm.processBatch(tasks)tasks = tasks[:0]}}}
}// processBatch 批量处理同步任务
func (sm *SyncManager) processBatch(tasks []*SyncTask) {ctx, cancel := context.WithTimeout(context.Background(), sm.syncTimeout)defer cancel()// 按节点分组任务tasksByNode := make(map[string][]*SyncTask)for _, task := range tasks {// 使用一致性哈希确定目标节点node := sm.node.hashRing.Get(task.Key)tasksByNode[node] = append(tasksByNode[node], task)}// 并发同步到各节点var wg sync.WaitGroupfor node, nodeTasks := range tasksByNode {wg.Add(1)go func(node string, tasks []*SyncTask) {defer wg.Done()sm.syncToNode(ctx, node, tasks)}(node, nodeTasks)}wg.Wait()
}// syncToNode 同步到指定节点
func (sm *SyncManager) syncToNode(ctx context.Context, nodeID string, tasks []*SyncTask) {// 1. 建立连接conn, err := sm.getNodeConnection(nodeID)if err != nil {return}// 2. 发送同步数据for _, task := range tasks {switch task.Operation {case "set":conn.Set(ctx, task.Key, task.Value, 0)case "delete":conn.Delete(ctx, task.Key)}}
}// getNodeConnection 获取节点连接
func (sm *SyncManager) getNodeConnection(nodeID string) (*CacheNode, error) {// 实现节点连接池逻辑return nil, nil
}// StartFullSync 启动全量同步
func (sm *SyncManager) StartFullSync() {sm.wg.Add(1)go func() {defer sm.wg.Done()sm.fullSync()}()
}// fullSync 全量同步
func (sm *SyncManager) fullSync() {// 1. 获取源节点数据快照snapshot := sm.node.GetSnapshot()// 2. 同步到目标节点for key, value := range snapshot {task := &SyncTask{Key: key,Value: value,Operation: "set",Timestamp: time.Now().UnixNano(),}sm.AddSyncTask(task)}
}// WaitForSync 等待同步完成
func (sm *SyncManager) WaitForSync() {sm.wg.Wait()
}
四、监控指标
1. 核心监控指标
type Metrics struct {// 缓存命中率HitCount int64MissCount int64HitRate float64// 容量指标ItemCount int64MemoryUsage int64// 性能指标AvgLatency float64P95Latency float64P99Latency float64// 同步指标SyncQueueSize int64SyncLatency float64SyncErrorCount int64
}
2. 监控指标表
指标类型 | 指标名称 | 说明 | 告警阈值 |
---|---|---|---|
性能指标 | avgLatency | 平均响应延迟 | >50ms |
性能指标 | p95Latency | 95分位延迟 | >100ms |
性能指标 | p99Latency | 99分位延迟 | >200ms |
命中率 | hitRate | 缓存命中率 | <80% |
容量指标 | memoryUsage | 内存使用率 | >80% |
同步指标 | syncQueueSize | 同步队列大小 | >1000 |
同步指标 | syncLatency | 同步延迟 | >1s |
错误指标 | errorCount | 错误次数 | >100/min |
五、优化建议
1. 性能优化
- 使用内存预分配
- 采用批量操作
- 实现多级缓存
- 使用零拷贝技术
2. 可靠性优化
- 实现故障自动转移
- 添加熔断机制
- 实现请求重试
- 数据定期备份
3. 监控优化
- 实现多维度监控
- 添加实时告警
- 收集详细日志
- 定期压测验证
六、实战建议
-
开发阶段:
- 充分测试各个组件
- 模拟各种故障场景
- 进行性能基准测试
- 编写完善的单元测试
-
部署阶段:
- 合理规划节点部署
- 配置监控告警
- 准备回滚方案
- 进行容量规划
-
运维阶段:
- 定期检查监控指标
- 及时处理告警信息
- 定期进行压力测试
- 制定应急预案
七、实战练习
-
基础练习:
- 实现简单的缓存节点
- 实现基本的数据同步
- 添加简单的监控指标
-
进阶练习:
- 实现完整的故障检测
- 实现数据自动迁移
- 实现多级缓存策略
-
高级练习:
- 优化同步性能
- 实现数据压缩
- 实现缓存预热
怎么样今天的内容还满意吗?再次感谢观众老爷的观看,关注GZH:凡人的AI工具箱,回复666,送您价值199的AI大礼包。最后,祝您早日实现财务自由,还请给个赞,谢谢!
相关文章:

40分钟学 Go 语言高并发:【实战】分布式缓存系统
【实战课程】分布式缓存系统 一、整体架构设计 首先,让我们通过架构图了解分布式缓存系统的整体设计: 核心组件 组件名称功能描述技术选型负载均衡层请求分发、节点选择一致性哈希缓存节点数据存储、过期处理内存存储 持久化同步机制节点间数据同步…...
[创业之路-186]:《华为战略管理法-DSTE实战体系》-1-为什么UTStarcom死了,华为却活了,而且越活越好?
目录 前言 一、市场定位与战略选择 二、技术创新能力 三、企业文化与团队建设 四、应对危机的能力 五、客户为中心的理念 六、市场适应性与战略灵活性 七、技术创新与研发投入 八、企业文化与团队建设 九、应对危机的能力 前言 UT斯达康(UTStarcom&#…...
python如何多行注释
在Python中,多行注释通常有两种方式: 使用三个单引号()或三个双引号(""")来创建多行字符串,这可以被用来作为多行注释。这种方式在Python中实际上是创建了一个多行的字符串对象…...
前端工程化面试题目常见
前端工程化面试常见题目包括: • 谈谈你对WebPack的认识。 • Webpack打包的流程是什么? • 说说你工作中几个常用的loader。 • 说说HtmlWebpackPlugin插件的作用。 • Webpack支持的脚本模块规范有哪些? • Webpack和gulp/grunt相比有什么特…...

定点数的乘除运算
原码一位乘法 乘积的符号由两个数的符号位异或而成。(不参与运算)被乘数和乘数均取绝对值参与运算,看作无符号数。乘数的最低位为Yn: 若Yn1,则部分积加上被乘数|x|,然后逻辑右移一位;若Yn0&…...

页面置换算法模拟 最近最久未使用(LRU)算法
最近最久未使用(LRU)算法是一种基于页面访问历史的页面置换算法。它选择最久未使用的页面进行置换。当需要访问一个不在内存中的页面时,如果内存已满,则选择最久未使用的页面进行置换。LRU算法通过记录页面的访问时间戳来判断页面…...
Ubuntu与Centos系统有何区别?
Ubuntu和CentOS都是基于Linux内核的操作系统,但它们在设计理念、使用场景和技术实现上有显著的区别。以下是详细的对比: 1. 基础和发行版本 Ubuntu: 基于Debian,使用.deb包管理系统。包含两个主要版本: LTSÿ…...

RK3568平台开发系列讲解(pinctrl 子系统篇)pinctrl_debug
🚀返回专栏总目录 文章目录 1. Overview2. debug信息2.1 pinctrl-devices2.2. pinctrl-handles2.3. pinctrl-handles3. debug信息3.1. 查看(pinctrl_register_pins)注册了哪些pins3.2. 查看pin groups;3.3. 查看每种functions所占用的gpio groups信息:3.4. pinconf沉淀、…...
避大坑!Vue3中reactive丢失响应式的问题
在vue3中,我们定义响应式数据无非是ref和reactive。 但是有的小伙伴会踩雷!导致定义的响应式丢失的问题。 reactive丢失响应式的情况1(直接赋值) 场景: 1.你定义了一个数据:let datareactive({name:"",age:"" }) 2.然后你…...

springSecurity权限控制
权限控制:不同的用户可以使用不同的功能。 我们不能在前端判断用户权限来控制显示哪些按钮,因为这样,有人会获取该功能对应的接口,就不需要通过前端,直接发送请求实现功能了。所以需要在后端进行权限判断。࿰…...
Pytorch训练固定随机种子(单卡场景和分布式训练场景)
模型的训练是一个随机过程,固定随机种子可以帮助我们复现实验结果。 接下来介绍一个模型训练过程中固定随机种子的代码,并对每条语句的作用都会进行解释。 def seed_reproducer(seed2333):random.seed(seed)os.environ["PYTHONHASHSEED"] s…...

Conda + JuiceFS :增强 AI 开发环境共享能力
Conda 是当前 AI 应用开发领域中非常流行的环境和包管理系统,因其能够简单便捷地创建与系统资源相隔离的虚拟环境广受欢迎。 Conda 支持在不同的操作系统上重建相同的工作环境,但在环境共享复用方面仍存在一些挑战。比如,在不同机器上复用相…...

人工智能-人机交互的机会
目录 引言HCI领域的发展机会人工智能领域的崛起与机会博雅智信的HCI与AI辅导服务结语 引言 在人类科技不断进步的今天,HCI(人机交互)和人工智能(AI)是两个密切相关且充满潜力的领域。HCI研究如何优化人类与计算机之间…...

【系统架构核心服务设计】使用 Redis ZSET 实现排行榜服务
目录 一、排行榜的应用场景 二、排行榜技术的特点 三、使用Redis ZSET实现排行榜 3.1 引入依赖 3.2 配置Redis连接 3.3 创建实体类(可选) 3.4 编写 Redis 操作服务层 3.5 编写控制器层 3.6 测试 3.6.1 测试 addMovieScore 接口 3.6.2 测试 g…...

elasticsearch基础总结
最近实习,项目用的elasticseatch做的存储库,但是之前对于es接触的不多,查询语法有些不熟,每次想写个DSL查询时都要gpt或者施展搜索大法,所以索性就自己总结总结,以后忘了也方便查。所以这篇文章会持续更新。…...

【慕伏白教程】Zerotier 连接与简单配置
文章目录 下载与安装WindowsLinuxapt安装官方脚本安装 Zerotier 配置新建网络网络配置 终端配置WindowsLinux 下载与安装 Windows 进入Zerotier官方下载网站,点击下载 在下载目录找到安装文件,双击打开后点击 Install 开始安装 安装完成后,…...
Brain.js(九):LSTMTimeStep 实战教程 - 未来短期内的股市指数预测 - 实操要谨慎
系列的前一文RNNTimeStep 实战教程 - 股票价格预测 讲述了如何使用RNN时间序列预测实时的股价, 在这一节中,我们将深入学习如何利用 JavaScript 在浏览器环境下使用 LSTMTimeStep 进行股市指数的短期预测。通过本次实战教程,你将了解到如何用…...

C# 字符串(String)
文章目录 前言创建 String 对象的方式1. 通过给 String 变量指定一个字符串2. 通过使用 String 类构造函数3. 通过使用字符串串联运算符( )4. 通过检索属性或调用一个返回字符串的方法5. 通过格式化方法来转换一个值或对象为它的字符串表示形式 String …...

二进制文件
大多数人听到“二进制”的时候,脑海里可能马上就会联想到电影《黑客帝国》中由“0”和“1”组成的矩阵。 笔者不打算在这里详细讨论二进制的运算、反码、补码之类枯燥的东西,但有几个和开发相关的概念需要做一点澄清和普及。因为这些内容就像空气——用…...

【电子元器件】音频功放种类
本文章是笔者整理的备忘笔记。希望在帮助自己温习避免遗忘的同时,也能帮助其他需要参考的朋友。如有谬误,欢迎大家进行指正。 一、概述 音频功放将小信号的幅值提高至有用电平,同时保留小信号的细节,这称为线性度。放大器的线性…...

MPNet:旋转机械轻量化故障诊断模型详解python代码复现
目录 一、问题背景与挑战 二、MPNet核心架构 2.1 多分支特征融合模块(MBFM) 2.2 残差注意力金字塔模块(RAPM) 2.2.1 空间金字塔注意力(SPA) 2.2.2 金字塔残差块(PRBlock) 2.3 分类器设计 三、关键技术突破 3.1 多尺度特征融合 3.2 轻量化设计策略 3.3 抗噪声…...

工业安全零事故的智能守护者:一体化AI智能安防平台
前言: 通过AI视觉技术,为船厂提供全面的安全监控解决方案,涵盖交通违规检测、起重机轨道安全、非法入侵检测、盗窃防范、安全规范执行监控等多个方面,能够实现对应负责人反馈机制,并最终实现数据的统计报表。提升船厂…...

【网络安全产品大调研系列】2. 体验漏洞扫描
前言 2023 年漏洞扫描服务市场规模预计为 3.06(十亿美元)。漏洞扫描服务市场行业预计将从 2024 年的 3.48(十亿美元)增长到 2032 年的 9.54(十亿美元)。预测期内漏洞扫描服务市场 CAGR(增长率&…...

Linux相关概念和易错知识点(42)(TCP的连接管理、可靠性、面临复杂网络的处理)
目录 1.TCP的连接管理机制(1)三次握手①握手过程②对握手过程的理解 (2)四次挥手(3)握手和挥手的触发(4)状态切换①挥手过程中状态的切换②握手过程中状态的切换 2.TCP的可靠性&…...
大语言模型如何处理长文本?常用文本分割技术详解
为什么需要文本分割? 引言:为什么需要文本分割?一、基础文本分割方法1. 按段落分割(Paragraph Splitting)2. 按句子分割(Sentence Splitting)二、高级文本分割策略3. 重叠分割(Sliding Window)4. 递归分割(Recursive Splitting)三、生产级工具推荐5. 使用LangChain的…...
【服务器压力测试】本地PC电脑作为服务器运行时出现卡顿和资源紧张(Windows/Linux)
要让本地PC电脑作为服务器运行时出现卡顿和资源紧张的情况,可以通过以下几种方式模拟或触发: 1. 增加CPU负载 运行大量计算密集型任务,例如: 使用多线程循环执行复杂计算(如数学运算、加密解密等)。运行图…...

AI,如何重构理解、匹配与决策?
AI 时代,我们如何理解消费? 作者|王彬 封面|Unplash 人们通过信息理解世界。 曾几何时,PC 与移动互联网重塑了人们的购物路径:信息变得唾手可得,商品决策变得高度依赖内容。 但 AI 时代的来…...
C++.OpenGL (14/64)多光源(Multiple Lights)
多光源(Multiple Lights) 多光源渲染技术概览 #mermaid-svg-3L5e5gGn76TNh7Lq {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-3L5e5gGn76TNh7Lq .error-icon{fill:#552222;}#mermaid-svg-3L5e5gGn76TNh7Lq .erro…...
Java + Spring Boot + Mybatis 实现批量插入
在 Java 中使用 Spring Boot 和 MyBatis 实现批量插入可以通过以下步骤完成。这里提供两种常用方法:使用 MyBatis 的 <foreach> 标签和批处理模式(ExecutorType.BATCH)。 方法一:使用 XML 的 <foreach> 标签ÿ…...

基于江科大stm32屏幕驱动,实现OLED多级菜单(动画效果),结构体链表实现(独创源码)
引言 在嵌入式系统中,用户界面的设计往往直接影响到用户体验。本文将以STM32微控制器和OLED显示屏为例,介绍如何实现一个多级菜单系统。该系统支持用户通过按键导航菜单,执行相应操作,并提供平滑的滚动动画效果。 本文设计了一个…...