当前位置: 首页 > article >正文

黑马点评完整代码(RabbitMQ优化)+简历编写+面试重点 ⭐

简历上展示黑马点评

完整代码地址

项目描述

黑马点评项目是一个springboot开发的前后端分离项目,使用了redis集群、tomcat集群、MySQL集群提高服务性能。类似于大众点评,实现了短信登录、商户查询缓存、优惠卷秒杀、附近的商户、UV统计、用户签到、好友关注、达人探店 八个部分形成了闭环。其中重点使用了分布式锁实现了一人一单功能、项目中大量使用了Redis 的知识。

所用技术

SpringBoot+nginx+MySql+Lombok+MyBatis-Plus+Hutool+Redis

使用 Redis 解决了在集群模式下的 Session共享问题,使用拦截器实现用户的登录校验和权限刷新

基于Cache Aside模式解决数据库与缓存的一致性问题

使用 Redis 对高频访问的信息进行缓存,降低了数据库查询的压力,解决了缓存穿透、雪崩、击穿问题使用 Redis + Lua脚

本实现对用户秒杀资格的预检,同时用乐观锁解决秒杀产生的超卖问题

使用Redis分布式锁解决了在集群模式下一人一单的线程安全问题

基于stream结构作为消息队列,实现异步秒杀下单

使用Redis的 ZSet 数据结构实现了点赞排行榜功能,使用Set 集合实现关注、共同关注功能

黑马定评项目 亮点难点

使用Redis解决了在集群模式下的Session共享问题,使用拦截器实现了用户的登录校验和权限刷新

为什么用Redis替代Session?

使用Session时,根据客户端发送的session-id获取Session,再从Session获取数据,由于Session共享问题:多台Tomct并不共享session存储空间,当请求切换到不同tomcat服务时导致数据丢失的问题。

解决方法:用Redis代替Session存储User信息,注册用户时,会生成一个随机的Token作为Key值存放用户到Redis中。

还有其他解决方法吗?

基于 Cookie 的 Token 机制,不再使用服务器端保存 Session,而是通过客户端保存 Token(如 JWT)。
Token 包含用户的认证信息(如用户 ID、权限等),并通过签名验证其完整性和真实性。
每次请求,客户端将 Token 放在 Cookie 或 HTTP 头中发送到服务

说说你的登录流程?

image-20250307131627121

使用Redis代替session作为缓存,使用Token作为唯一的key值

怎么使用拦截器实现这些功能?

在这里插入图片描述

系统中设置了两层拦截器:

第一层拦截器是做全局处理,例如获取Token,查询Redis中的用户信息,刷新Token有效期等通用操作。

第二层拦截器专注于验证用户登录的逻辑,如果路径需要登录,但用户未登录,则直接拦截请求。

使用两层的原因?

使用拦截器是因为,多个线程都需要获取用户,在想要方法之前统一做些操作,就需要用拦截器,还可以拦截没用登录的用户,但只有一层拦截器不是拦截所有请求,所有有些请求不会刷新Token时间,我们就需要再加一层拦截器,拦截所有请求,做到一直刷新。

好处:

职责分离:这种分层设计让每个拦截器的职责更加单一,代码更加清晰、易于维护

提升性能:如果直接在第一层拦截器处理登录验证,可能会对每个请求都进行不必要的检查。而第二层拦截器仅在“需要登录的路径”中生效,可以避免不必要的性能开销。

灵活性:这种机制方便扩展,不需要修改第一层的全局逻辑。

复用 ThreadLocal 数据:第一层拦截器已经将用户信息保存到 ThreadLocal 中,第二层拦截器可以直接使用这些数据,而不需要重复查询 Redis 或其他数据源。

基于Cache Aside模式解决数据库与缓存的一致性问题

怎么保证缓存更新策略的高一致性需求?

我们使用的时Redisson实现的读写锁,再读的时候添加共享锁,可以保证读读不互斥,读写互斥。我们更新数据的时候,添加排他锁,他是读写,读读都互斥,这样就能保证在写数据的同时,是不会让其他线程读数据的,避免了脏数据。读方法和写方法是同一把锁。

使用 Redis 对高频访问的信息进行缓存,降低了数据库查询的压力,解决了缓存穿透、雪崩、击穿问题

什么是缓存穿透,怎么解决?

在这里插入图片描述

定义: 1.用户请求的id在缓存中不存在。
2.恶意用户伪造不存在的id发起请求。

大量并发去访问一个数据库不存在的数据,由于缓存中没有该数据导致大量并发查询数据库,这个现象叫缓存穿透。
缓存穿透可以造成数据库瞬间压力过大,连接数等资源用完,最终数据库拒绝连接不可用。

解决方法:

1.对请求增加校验机制

eg:字段id是长整型,如果发来的不是长整型则直接返回

2.使用布隆过滤器

在这里插入图片描述

为了避免缓存穿透我们需要缓存预热将要查询的课程或商品信息的id提前存入布隆过滤器,添加数据时将信息的id也存入过滤器,当去查询一个数据时先在布隆过滤器中找一下如果没有到到就说明不存在,此时直接返回。

3.缓存空值或特殊值(本项目应用)

在这里插入图片描述

请求通过了第一步的校验,查询数据库得到的数据不存在,此时我们仍然去缓存数据,缓存一个空值或一个特殊值的数据。
但是要注意:如果缓存了空值或特殊值要设置一个短暂的过期时间。

什么是缓存雪崩,怎么解决?

在这里插入图片描述

定义: 缓存雪崩是缓存中大量key失效后当高并发到来时导致大量请求到数据库,瞬间耗尽数据库资源,导致数据库无法使用。

造成缓存雪崩问题的原因是是大量key拥有了相同的过期时间,比如对课程信息设置缓存过期时间为10分钟,在大量请求同时查询大量的课程信息时,此时就会有大量的课程存在相同的过期时间,一旦失效将同时失效,造成雪崩问题。

解决方法:

1、使用同步锁控制查询数据库的线程

使用同步锁控制查询数据库的线程,只允许有一个线程去查询数据库,查询得到数据后存入缓存。

synchronized(obj){//查询数据库//存入缓存
}

2、对同一类型信息的key设置不同的过期时间

通常对一类信息的key设置的过期时间是相同的,这里可以在原有固定时间的基础上加上一个随机时间使它们的过期时间都不相同。

   //设置过期时间300秒redisTemplate.opsForValue().set("course:" + courseId, JSON.toJSONString(coursePublish),300+new Random().nextInt(100), TimeUnit.SECONDS);

3、缓存预热

不用等到请求到来再去查询数据库存入缓存,可以提前将数据存入缓存。使用缓存预热机制通常有专门的后台程序去将数据库的数据同步到缓存。

什么是缓存击穿,怎么解决?

在这里插入图片描述

定义: 缓存击穿是指大量并发访问同一个热点数据,当热点数据失效后同时去请求数据库,瞬间耗尽数据库资源,导致数据库无法使用。
比如某手机新品发布,当缓存失效时有大量并发到来导致同时去访问数据库。

解决方法:

1.基于互斥锁解决

在这里插入图片描述

互斥锁(时间换空间)

优点:内存占用小,一致性高,实现简单

缺点:性能较低,容易出现死锁

这里使用Redis中的setnx指令实现互斥锁,只有当值不存在时才能进行set操作

锁的有效期更具体业务有关,需要灵活变动,一般锁的有效期是业务处理时长10~20倍

线程获取锁后,还需要查询缓存(也就是所谓的双检),这样才能够真正有效保障缓存不被击穿

2.基于逻辑过期方式

在这里插入图片描述

逻辑过期(空间换时间)

优点:性能高

缺点:内存占用较大,容易出现脏读

·注意:逻辑过期一定要先进行数据预热,将我们热点数据加载到缓存中

适用场景

商品详情页、排行榜等热点数据场景。

数据更新频率低,但访问量大的场景。

总结:两者相比较,互斥锁更加易于实现,但是容易发生死锁,且锁导致并行变成串行,导致系统性能下降,逻辑过期实现起来相较复杂,且需要耗费额外的内存,但是通过开启子线程重建缓存,使原来的同步阻塞变成异步,提高系统的响应速度,但是容易出现脏读

为什么重建子线程,作用是什么?

开启子线程重建缓存的作用在于提高系统的响应速度,避免因缓存击穿导致的数据库压力过大,同时保障系统在高并发场景下的稳定性,但开启子线程重建缓存可能引入数据不一致(脏读)问题

具体原因:

  1. 提高系统响应速度

同步阻塞的缺点: 在缓存失效时,传统方案通常会同步查询数据库更新缓存,这会导致用户请求被阻塞,特别是在高并发环境下可能出现大量线程等待,影响系统响应性能。

子线程重建缓存的优势:

主线程只需返回缓存中的旧数据,避免阻塞用户请求。
重建缓存的任务交由后台线程执行,提高用户体验。

  1. 减少数据库压力

缓存击穿问题: 当热点数据过期时,多个线程同时访问数据库,可能导致数据库压力骤增,甚至崩溃。

子线程异步重建缓存:

将数据库查询集中到一个后台线程中执行,避免多个线程同时查询数据库。
即便在缓存击穿的情况下,也不会对数据库造成过大的负载。

  1. 提高系统吞吐量

同步更新的瓶颈: 如果所有线程都等待缓存更新完成,系统吞吐量会因阻塞而降低。

异步重建的优化:

主线程可以快速返回旧数据,提升并发处理能力。

数据更新操作与用户请求分离,减少了阻塞等待。

  1. 减少热点数据竞争

高并发场景下的竞争: 热点数据被大量请求时,多个线程可能同时触发缓存更新逻辑,产生资源竞争。

单子线程更新的效果:

后台线程独占更新任务,避免多线程竞争更新缓存。

配合分布式锁机制,可以有效减少竞争开销。

  1. 提升系统的稳定性

数据库保护:

异步更新缓存,减缓数据库的瞬时高并发压力。

在极端情况下,即使缓存更新失败,系统仍能通过返回旧数据保持基本的服务能力。

熔断机制结合:

子线程的异步更新可以结合熔断、降级等机制,当更新任务失败时,系统可快速响应并记录失败日志以便后续处理。

·适用场景

热点数据: 商品详情页、排行榜等访问量极高的场景。

高并发场景: 秒杀、抢购活动中,需要频繁访问热点数据。

容忍短暂数据不一致的场景: 如排行榜数据的延迟更新对用户体验影响较小。

使用 Redis + Lua脚本实现对用户秒杀资格的预检,同时用乐观锁解决秒杀产生的超卖问题

什么是超卖问题,怎么解决?
在这里插入图片描述

超卖问题:并发多线程问题,当线程1查询库存后,判断前,又有别的线程来查询,从而造成判断错误,超卖。

解决方式:

悲观锁: 添加同步锁,让线程串行执行优点:简单粗暴缺点:性能一般
乐观锁:不加锁,再更新时判断是否有其他线程在修改优点:性能好缺点:存在成功率低的问题(该项目在超卖问题中,不在需要判断数据查询时前后是否一致,直接判读库存>0;有的项目里不是库存,只能判断数据有没有变化时,还可以用分段锁,将数据分到10个表,同时十个去抢)

说一下乐观锁和悲观锁?

悲观锁:悲观锁总是假设最坏的情况,认为共享资源每次被访问的时候就会出现问题(比如共享数据被修改),所以每次在获取资源操作的时候都会上锁,这样其他线程想拿到这个资源就会阻塞直到锁被上一个持有者释放。也就是说,共享资源每次只给一个线程使用,其它线程阻塞,用完后再把资源转让给其它线程。

乐观锁:乐观锁总是假设最好的情况,认为共享资源每次被访问的时候不会出现问题,线程可以不停地执行,无需加锁也无需等待,只是在提交修改的时候去验证对应的资源(也就是数据)是否被其它线程修改了(具体方法可以使用版本号机制或 CAS 算法)。

悲观锁通常多用于写比较多的情况(多写场景,竞争激烈),这样可以避免频繁失败和重试影响性能,悲观锁的开销是固定的。不过,如果乐观锁解决了频繁失败和重试这个问题的话(比如LongAdder),也是可以考虑使用乐观锁的,要视实际情况而定。

乐观锁通常多用于写比较少的情况(多读场景,竞争较少),这样可以避免频繁加锁影响性能。不过,乐观锁主要针对的对象是单个共享变量(参考java.util.concurrent.atomic包下面的原子变量类)。

你使用的什么?

使用的是乐观锁CAS算法。CAS是一个原子操作,底层依赖于一条CPU的原子指令。

设计三个参数:

  • V:要更新的变量值
  • E:预期值
  • N:拟入的新值

当且仅当V的值等于E时,CAS通过原子方式用新值N来更新V的值。如果不等,说明已经有其他线程更新了V,则当前线程放弃更新。

在这里插入图片描述

从业务的角度看,只要库存数还有,就能执行这个操作,所以where条件设置为stock>0

image-20250307150937348

使用Redis分布式锁解决了在集群模式下一人一单的线程安全问题

为了防止批量刷券,添加逻辑:根据优惠券id和用户id查询订单,如果不存在,则创建。

在集群模式下,加锁只是对该JVM给当前这台服务器的请求的加锁,而集群是多台服务器,所以要使用分布式锁,满足集群模式下多进程可见并且互斥的锁。

Redis分布式锁实现思路?
我使用的Redisson分布式锁,他能做到可重入,可重试

可重入:同一线程可以多次获取同一把锁,可以避免死锁,用hash结构存储。

​ 大key是根据业务设置的,小key是线程唯一标识,value值是当前重入次数。

image-20241205233234744

可重试:Redisson手动加锁,可以控制锁的失效时间和等待时间,当锁住的一个业务并没有执行完成的时候,Redisson会引入一个Watch Dog看门狗机制。就是说,每隔一段时间就检查当前事务是否还持有锁。如果持有,就增加锁的持有时间。当业务执行完成之后,需要使用释放锁就可以了。还有个好处就是,在高并发下,一个业务有可能会执行很快。客户1持有锁的时候,客户2来了以后并不会马上拒绝,他会自旋不断尝试获取锁。如果客户1释放之后,客户2可以立马持有锁,性能也能得到提升。

主从一致性:连锁(multiLock)-不再有主从节点,都获取成功才能获取锁成功,有一个节点获取锁不成功就获取锁失败

一个宕机了,还有两个节点存活,锁依旧有效,可用性随节点增多而增强。如果想让可用性更强,也可以给多个节点建立主从关系,做主从同步,但不会有主从一致问题,当新线程来新的主节点获取锁,由于另外两个主节点依然有锁,不会出现锁失效问题吗,所以不会获取成功。

image-20250307153809096

另一篇文章详细了解Redisson

image-20241207183707979

基于stream结构作为消息队列,实现异步秒杀下单

为什么用异步秒杀?

image-20250307160040968

我们用jmeter测试,发现高并发下异常率高,吞吐量低,平均耗时高

整个业务流程是串行执行的,查询优惠券,查询订单,减库存,创建订单这四步都是走的数据库,mysql本身并发能力就较少,还有读写操作,还加了分布式锁,整个业务耗时长,并发能力弱。

怎么进行优化?

image-20241207220614455

我们分成两个线程,我们将耗时较短的逻辑判断放到Redis中,例如:库存是否充足,是否一人一单这样的操作,只要满足这两条操作,那我们是一定可以下单成功的,不用等数据真的写进数据库,我们直接告诉用户下单成功就好了,将信息引入异步队列记录相关信息,然后后台再开一个线程,后台线程再去慢慢执行队列里的消息,这样我们就能很快的完成下单业务。

img

  • 当用户下单之后,判断库存是否充足,只需要取Redis中根据key找对应的value是否大于0即可,如果不充足,则直接结束。如果充足,则在Redis中判断用户是否可以下单,如果set集合中没有该用户的下单数据,则可以下单,并将userId和优惠券存入到Redis中,并且返回0,整个过程需要保证是原子性的,所以我们要用Lua来操作,同时由于我们需要在Redis中查询优惠券信息,所以在我们新增秒杀优惠券的同时,需要将优惠券信息保存到Redis中
  • 完成以上逻辑判断时,我们只需要判断当前Redis中的返回值是否为0,如果是0,则表示可以下单,将信息保存到queue中去,然后返回,开一个线程来异步下单,其阿奴单可以通过返回订单的id来判断是否下单成功

说说stream类型消息队列?

使用的是消费者组模式(Consumer Group

  • 消费者组(Consumer Group):将多个消费者划分到一个组中,监听同一个队列,具备以下特点
    1. 消息分流
      • 队列中的消息会分留给组内的不同消费者,而不是重复消费者,从而加快消息处理的速度
    2. 消息标识
      • 消费者会维护一个标识,记录最后一个被处理的消息,哪怕消费者宕机重启,还会从标识之后读取消息,确保每一个消息都会被消费
    3. 消息确认
      • 消费者获取消息后,消息处于pending状态,并存入一个pending-list,当处理完成后,需要通过XACK来确认消息,标记消息为已处理,才会从pending-list中移除

基本语法:

  • 创建消费者组

    XGROUP CREATE key groupName ID [MKSTREAM]
    
    • key: 队列名称
    • groupName: 消费者组名称
    • ID: 起始ID标识,$代表队列中的最后一个消息,0代表队列中的第一个消息
    • MKSTREAM: 队列不存在时自动创建队列
  • 删除指定的消费者组

    XGROUP DESTORY key groupName
    
  • 给指定的消费者组添加消费者

    XGROUP CREATECONSUMER key groupName consumerName
    
  • 删除消费者组中指定的消费者

    XGROUP DELCONSUMER key groupName consumerName
    
  • 从消费者组中读取消息

    XREADGROUP GROUP group consumer [COUNT count] [BLOCK milliseconds] [NOACK] STREAMS key [keys ...] ID [ID ...]
    
    • group: 消费者组名称
    • consumer: 消费者名,如果消费者不存在,会自动创建一个消费者
    • count: 本次查询的最大数量
    • BLOCK milliseconds: 当前没有消息时的最大等待时间
    • NOACK: 无需手动ACK,获取到消息后自动确认(一般不用,我们都是手动确认)
    • STREAMS key: 指定队列名称
    • ID: 获取消息的起始ID
      • >:从下一个未消费的消息开始(pending-list中)
      • 其他:根据指定id从pending-list中获取已消费但未确认的消息,例如0,是从pending-list中的第一个消息开始

基本思路:

while(true){// 尝试监听队列,使用阻塞模式,最大等待时长为2000msObject msg = redis.call("XREADGROUP GROUP g1 c1 COUNT 1 BLOCK 2000 STREAMS s1 >")if(msg == null){// 没监听到消息,重试continue;}try{//处理消息,完成后要手动确认ACK,ACK代码在handleMessage中编写handleMessage(msg);} catch(Exception e){while(true){//0表示从pending-list中的第一个消息开始,如果前面都ACK了,那么这里就不会监听到消息Object msg = redis.call("XREADGROUP GROUP g1 c1 COUNT 1 STREAMS s1 0");if(msg == null){//null表示没有异常消息,所有消息均已确认,结束循环break;}try{//说明有异常消息,再次处理handleMessage(msg);} catch(Exception e){//再次出现异常,记录日志,继续循环log.error("..");continue;}}}
}

XREADGROUP命令的特点?

  1. 消息可回溯
  2. 可以多消费者争抢消息,加快消费速度
  3. 可以阻塞读取
  4. 没有消息漏读风险
  5. 有消息确认机制,保证消息至少被消费一次
    改进: 使用RabbitMQ更适合。相关文章;

1.在application.yml中配置RabbitMQ

  spring:rabbitmq:host: localhostport: 5672username: guestpassword: guest
  • 2. 声明队列和交换机
    • 正常队列和交换机的绑定:
      commonExchange (“Common”) → 使用路由键 “CQ” 绑定到 queueC (“CQ”)。
    • 死信队列和交换机的绑定:
      deadLetterExchange (“Dead-letter”) → 使用路由键 “DLQ” 绑定到 deadLetterQueueD (“DLQ”)。
    • 普通队列到死信交换机的关系(死信机制):
      queueC (“CQ”) 配置了:
      • 死信交换机为 Dead-letter
      • 死信路由键为 “DLQ”
      • TTL 为 10 秒。
    • queueC 中的消息超过 TTL 或触发其它死信条件后,这些消息将被自动发送到 deadLetterExchange,再由 deadLetterExchange 根据 “DLQ” 路由键路由到 deadLetterQueueD
@Configuration
public class QueueConfig {// 普通交换机名称public static final String COMMON_EXCHANGE = "Common";// 死信交换机名称public static final String DEAD_DEAD_LETTER_EXCHANGE = "Dead-letter";// 普通队列名称public static final String QUEUE_C = "CQ";// 死信队列名称public static final String DEAD_LETTER_QUEUE_D = "DLQ";/*** 声明普通交换机* * @return DirectExchange*/@Bean("commonExchange")public DirectExchange commonExchange(){return new DirectExchange(COMMON_EXCHANGE);}/*** 声明死信交换机* * @return DirectExchange*/@Bean("deadLetterExchange")public DirectExchange deadLetterExchange(){return new DirectExchange(DEAD_DEAD_LETTER_EXCHANGE);}/*** 声明普通队列C, 并绑定死信交换机及设置消息TTL* * 设置说明:* - x-dead-letter-exchange: 配置消息过期后转发的死信交换机名称* - x-dead-letter-routing-key: 配置转发到死信交换机时使用的路由键,此处与死信队列绑定时的路由键一致("DLQ")* - x-message-ttl: 消息存活时间(此处设置为10000毫秒,即10秒)** @return Queue*/@Bean("queueC")public Queue queueC(){HashMap<String, Object> arguments = new HashMap<>();// 消息在队列中存活10秒后失效,进入死信队列arguments.put("x-message-ttl", 10000);// 配置死信交换机arguments.put("x-dead-letter-exchange", DEAD_DEAD_LETTER_EXCHANGE);// 配置死信路由键,绑定到死信队列时使用arguments.put("x-dead-letter-routing-key", "DLQ");return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build();}/*** 声明死信队列D* * @return Queue*/@Bean("deadLetterQueueD")public Queue deadLetterQueueD(){return QueueBuilder.durable(DEAD_LETTER_QUEUE_D).build();}/*** 普通队列C与普通交换机Common绑定** 当消息发送到交换机Common,并使用路由键 "CQ" 时,* 消息将被路由到队列CQ。** @param queueC 普通队列* @param commonExchange 普通交换机* @return Binding*/@Beanpublic Binding bindingQueueCToCommonExchange(@Qualifier("queueC") Queue queueC,@Qualifier("commonExchange") DirectExchange commonExchange) {return BindingBuilder.bind(queueC).to(commonExchange).with("CQ");}/*** 死信队列D与死信交换机Dead-letter绑定** 当普通队列CQ中的消息由于TTL过期或其他原因被转为死信后,* 消息会转发到死信交换机Dead-letter,并使用路由键 "DLQ",* 从而被路由到死信队列DLQ。** @param deadLetterQueueD 死信队列* @param deadLetterExchange 死信交换机* @return Binding*/@Beanpublic Binding bindingDeadLetterQueueDToDeadLetterExchange(@Qualifier("deadLetterQueueD") Queue deadLetterQueueD,@Qualifier("deadLetterExchange") DirectExchange deadLetterExchange) {return BindingBuilder.bind(deadLetterQueueD).to(deadLetterExchange).with("DLQ");}
}

3.发送者

       VoucherOrder order = new VoucherOrder();order.setId(orderId);order.setUserId(userId);order.setVoucherId(voucherId);// 你可以用 JSON,也可以用序列化// 增加消息发送的异常处理//放入mqString jsonStr = JSONUtil.toJsonStr(order);try {rabbitTemplate.convertAndSend("Common","CQ",jsonStr );} catch (Exception e) {log.error("发送 RabbitMQ 消息失败,订单ID: {}", orderId, e);throw new RuntimeException("发送消息失败");}// 3. 返回订单号给前端(实际下单异步处理)return Result.ok(orderId);}

4.接受者

@Component
@RequiredArgsConstructor
@Slf4j
public class SeckillVoucherListener {@ResourceSeckillVoucherServiceImpl seckillVoucherService;@ResourceVoucherOrderServiceImpl voucherOrderService;/*** 普通队列消费者:监听队列 "CQ"** 消息从普通队列 "CQ" 进入后进行转换处理,保存订单,同时数据库秒杀库存减一** @param message RabbitMQ消息* @param channel 消息通道* @throws Exception 异常处理*/@RabbitListener(queues = "CQ")public void receivedC(Message message, Channel channel) throws Exception {String msg = new String(message.getBody());log.info("普通队列:");VoucherOrder voucherOrder = JSONUtil.toBean(msg, VoucherOrder.class);log.info(voucherOrder.toString());voucherOrderService.save(voucherOrder);  // 保存订单到数据库// 秒杀业务:库存减一操作Long voucherId = voucherOrder.getVoucherId();seckillVoucherService.update().setSql("stock = stock - 1") // set stock = stock - 1.eq("voucher_id", voucherId).gt("stock", 0)             // where voucher_id = ? and stock > 0.update();}/*** 死信队列消费者:监听队列 "DLQ"** 消息从死信队列 "DLQ" 进入后进行相同的处理,* 适用于消息因过期或其它原因进入死信队列时的处理逻辑** @param message RabbitMQ消息* @throws Exception 异常处理*/@RabbitListener(queues = "DLQ")public void receivedDLQ(Message message) throws Exception {log.info("死信队列:");String msg = new String(message.getBody());VoucherOrder voucherOrder = JSONUtil.toBean(msg, VoucherOrder.class);log.info(voucherOrder.toString());voucherOrderService.save(voucherOrder);  // 保存订单到数据库// 秒杀业务:库存减一操作Long voucherId = voucherOrder.getVoucherId();seckillVoucherService.update().setSql("stock = stock - 1") // set stock = stock - 1.eq("voucher_id", voucherId).gt("stock", 0)             // where voucher_id = ? and stock > 0.update();}
}

使用Redis的 ZSet 数据结构实现了点赞排行榜功能,使用Set 集合实现关注、共同关注功能

什么是ZSet?

Zset,即有序集合(Sorted Set),是 Redis 提供的一种复杂数据类型。Zset 是 set 的升级版,它在 set 的基础上增加了一个权重参数 score,使得集合中的元素能够按 score 进行有序排列。

在 Zset 中,集合元素的添加、删除和查找的时间复杂度都是 O(1)。这得益于 Redis 使用的是一种叫做跳跃列表(skiplist)的数据结构来实现 Zset。

为什么使用ZSet数据结构?

一人只能点一次赞,对于点赞这种高频变化的数据,如果我们使用MySQL是十分不理智的,因为MySQL慢、并且并发请求MySQL会影响其它重要业务,容易影响整个系统的性能,继而降低了用户体验。

image-20241208154509134

Zset 的主要特性包括:

  1. 唯一性:和 set 类型一样,Zset 中的元素也是唯一的,也就是说,同一个元素在同一个 Zset 中只能出现一次。
  2. 排序:Zset 中的元素是有序的,它们按照 score 的值从小到大排列。如果多个元素有相同的 score,那么它们会按照字典序进行排序。
  3. 自动更新排序:当你修改 Zset 中的元素的 score 值时,元素的位置会自动按新的 score 值进行调整。

点赞

用ZSet中的add方法增添,时间戳作为score(zadd key value score)

用ZSet中的score方法,来判断是否存在

 @Overridepublic Result updateLike(Long id){//1.获取当前用户Long userId = UserHolder.getUser().getId();//2.判断当前用户有没有点赞String key=BLOG_LIKED_KEY+id;Double score = stringRedisTemplate.opsForZSet().score(key, userId.toString());if(score==null) {//3.如果未点赞,可以点赞//3.1.数据库点赞数+1boolean isSuccess = update().setSql("liked=liked+1").eq("id", id).update();//3.2.保存用户到redis的set集合  zadd key value scoreif(isSuccess){stringRedisTemplate.opsForZSet().add(key,userId.toString(),System.currentTimeMillis());}}else {//4.如果已经点赞,取消点赞//4.1.数据库点赞数-1boolean isSuccess = update().setSql("liked=liked-1").eq("id", id).update();if(isSuccess) {//4.2.将用户从set集合中移除stringRedisTemplate.opsForZSet().remove(key,userId.toString());}}return Result.ok();}

共同关注

通过Set中的intersect方法求两个key的交集

 @Overridepublic Result follow(Long followUserId, Boolean isFollow) {//获取登录用户Long userId = UserHolder.getUser().getId();String key = "follows:" + userId;//1.判断关注还是取关if(isFollow) {//2.关注Follow follow = new Follow();follow.setFollowUserId(followUserId);follow.setUserId(userId);boolean isSuccess = save(follow);if(isSuccess){//把关注用户的id,放入redis的set集合 sadd userId followUserIdstringRedisTemplate.opsForSet().add(key,followUserId.toString());}}else {//3.取关boolean isSuccess = remove(new QueryWrapper<Follow>().eq("user_id", userId).eq("follow_user_id", followUserId));//移除if(isSuccess){stringRedisTemplate.opsForSet().remove(key,followUserId.toString());}}return Result.ok();}
@Overridepublic Result followCommons(Long id) {//获取当前用户Long userId = UserHolder.getUser().getId();String key = "follows:" + userId;//求交集String key2 = "follows:" + id;Set<String> intersect = stringRedisTemplate.opsForSet().intersect(key, key2);if(intersect==null||intersect.isEmpty()){return Result.ok(Collections.emptyList());}//解析出idList<Long> ids = intersect.stream().map(Long::valueOf).collect(Collectors.toList());//查询用户List<UserDTO> userDTOS = userService.listByIds(ids).stream().map(user -> BeanUtil.copyProperties(user, UserDTO.class)).collect(Collectors.toList());return Result.ok(userDTOS);}

附近商铺搜索

我使用的是Redis的GEO数据结构,来存储商户地理座标

GEO数据结构简介

  • Redis GEO本质:底层基于**Sorted Set(有序集合)**实现,存储每个位置的经纬度信息,并支持快速范围查询。
  • 核心能力
    • 添加位置:存储商户ID及其经纬度。
    • 计算距离:获取两个位置间的距离。
    • 范围搜索:查找某中心点半径范围内的所有商户。
    • 排序:按距离升序或降序返回结果。

基本操作

1. GEOADD:添加地理位置

作用:将经纬度与成员(如商户ID)关联,存储到GEO集合中。
语法

GEOADD key 经度1 纬度1 成员1 [经度2 纬度2 成员2 ...]
GEOADD shops:geo 116.397128 39.916527 "shop:1001" 116.405285 39.904987 "shop:1002"

说明

  • 经纬度范围为:经度(-180 到 180),纬度(-85.05112878 到 85.05112878)。
  • 若成员已存在,会更新其经纬度。
  • 返回值为成功添加的成员数量(忽略重复成员的更新)。

2. GEOPOS:获取成员坐标

作用:查询指定成员的经纬度。
语法

GEOPOS key 成员1 [成员2 ...]

示例

GEOPOS shops:geo "shop:1001"

输出

1) 1) "116.39712721109390259"    # 经度2) "39.91652652951830512"     # 纬度

说明

  • 若成员不存在,返回nil
  • 返回值为数组格式,顺序与查询成员一致。

3. GEODIST:计算两个成员间的距离

作用:返回两个地理位置之间的距离。
语法

GEODIST key 成员1 成员2 [单位]

单位参数

  • m(米,默认)、km(千米)、mi(英里)、ft(英尺)。

    示例

GEODIST shops:geo "shop:1001" "shop:1002" km

输出

"1.6423"  # 单位:千米

说明

  • 若任一成员不存在,返回nil
  • 使用Haversine公式计算球面距离,误差<0.5%。

4. GEORADIUS:根据中心点搜索半径内的成员

作用:以指定经纬度为中心,搜索半径范围内的成员。
语法

GEORADIUS key 经度 纬度 半径 单位 [WITHDIST] [WITHCOORD] [ASC|DESC] [COUNT 数量]

参数说明

  • WITHDIST:返回成员与中心点的距离。
  • WITHCOORD:返回成员的经纬度。
  • ASC/DESC:按距离升序/降序排序(默认升序)。
  • COUNT:限制返回结果数量。
    示例
GEORADIUS shops:geo 116.403847 39.915526 5 km WITHDIST ASC COUNT 10

输出

1) 1) "shop:1001"             # 成员2) "0.8521"                # 距离(单位:km)
2) 1) "shop:1002"2) "1.6423"

5. GEORADIUSBYMEMBER:根据成员位置搜索

作用:以某个成员的位置为中心,搜索半径范围内的其他成员。
语法

GEORADIUSBYMEMBER key 成员 半径 单位 [WITHDIST] [WITHCOORD] [ASC|DESC] [COUNT 数量]

示例

GEORADIUSBYMEMBER shops:geo "shop:1001" 2 km WITHCOORD

输出

1) 1) "shop:1001"             2) "0.0000"                # 距离(自身)3) 1) "116.39712721109390259" 2) "39.91652652951830512"

用户签到

基于Redis中的BitMap数据结构实现。

  • BitMap概念

Bitmap,即位图,是一串连续的二进制数组(0和1),可以通过偏移量(offset)定位元素。BitMap通过最小的单位bit来进行0|1的设置,表示某个元素的值或者状态,时间复杂度为O(1)。我们将签到记录为1,为签到记录为0。

由于 bit 是计算机中最小的单位,使用它进行储存将非常节省空间,特别适合一些数据量大且使用二值统计的场景

Bitmap 本身是用 String 类型作为底层数据结构实现的一种统计二值状态的数据类型。

String 类型是会保存为二进制的字节数组,所以,Redis 就把字节数组的每个 bit 位利用起来,用来表示一个元素的二值状态,你可以把 Bitmap 看作是一个 bit 数组。

在这里插入图片描述


  • 基本命令

设置标记

即 setbit ,主要是指将某个索引,设置为1(设置0表示抹去标记)

@Autowired
private StringRedisTemplate redisTemplate;/*** 设置标记位** @param key* @param offset* @param tag* @return*/
public Boolean mark(String key, long offset, boolean tag) {return redisTemplate.opsForValue().setBit(key, offset, tag);
}
}

判断存在与否

即 getbit key index ,如果返回1,表示存在否则不存在

/*** 判断是否标记过** @param key* @param offest* @return*/
public Boolean container(String key, long offest) {return redisTemplate.opsForValue().getBit(key, offest);
}

计数

即 bitcount key ,统计和

/*** 统计计数** @param key* @return*/
public long bitCount(String key) {return redisTemplate.execute(new RedisCallback<Long>() {@Overridepublic Long doInRedis(RedisConnection redisConnection) throws DataAccessException {return redisConnection.bitCount(key.getBytes());}});
}

项目中我创建了一个记录签到的表,实现签到接口,将当前用户当天签到信息保存到Redis中

image-20250418171823965

/*** 用户签到** @return*/
public Result sign() {// 1. 获取当前登录用户的ID(从ThreadLocal中获取用户信息,确保线程安全)Long userId = ThreadLocalUtls.getUser().getId();// 2. 获取当前日期时间(使用系统默认时区)LocalDateTime now = LocalDateTime.now();// 3. 拼接Redis键名:格式为 "sign:用户ID:年月"//   示例:用户1001在2023年10月签到 → "sign:1001:202310"String keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));String key = USER_SIGN_KEY + userId + keySuffix;// 4. 获取今天是本月的第几天(范围1~31)int dayOfMonth = now.getDayOfMonth();// 5. 使用Redis位图记录签到(偏移量从0开始,故需-1)stringRedisTemplate.opsForValue().setBit(key, dayOfMonth - 1, true);// 6. 返回操作成功结果return Result.ok();
}
/*** 记录连续签到的天数** @return*/
@Override
public Result signCount() {// 1、获取签到记录// 获取当前登录用户Long userId = ThreadLocalUtls.getUser().getId();// 获取日期LocalDateTime now = LocalDateTime.now();// 拼接keyString keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));String key = USER_SIGN_KEY + userId + keySuffix;// 获取今天是本月的第几天int dayOfMonth = now.getDayOfMonth();// 获取本月截止今天为止的所有的签到记录,返回的是一个十进制的数字 BITFIELD sign:5:202203 GET u14 0List<Long> result = stringRedisTemplate.opsForValue().bitField(key,BitFieldSubCommands.create().get(BitFieldSubCommands.BitFieldType.unsigned(dayOfMonth)).valueAt(0));// 2、判断签到记录是否存在if (result == null || result.isEmpty()) {// 没有任何签到结果return Result.ok(0);}// 3、获取本月的签到数(List<Long>是因为BitFieldSubCommands是一个子命令,可能存在多个返回结果,这里我们知识使用了Get,// 可以明确只有一个返回结果,即为本月的签到数,所以这里就可以直接通过get(0)来获取)Long num = result.get(0);if (num == null || num == 0) {// 二次判断签到结果是否存在,让代码更加健壮return Result.ok(0);}// 4、循环遍历,获取连续签到的天数(从当前天起始)int count = 0;while (true) {// 让这个数字与1做与运算,得到数字的最后一个bit位,并且判断这个bit位是否为0if ((num & 1) == 0) {// 如果为0,说明未签到,结束break;} else {// 如果不为0,说明已签到,计数器+1count++;}// 把数字右移一位,抛弃最后一个bit位,继续下一个bit位num >>>= 1;}return Result.ok(count);
}

UV统计

UV统计(Unique Visitor Statistics)是用于衡量网站、应用程序或其他在线服务中独立访客数量的关键指标。以下是关于UV统计的详细解析:

1. UV的定义

  • 核心概念:UV(Unique Visitor,独立访客)指在一定时间范围内(通常为一天),访问某网站或页面的不同用户数量。同一用户多次访问仅计为1次124。
  • 与PV的区别
    • PV(Page View,页面浏览量):统计用户每次访问页面的次数,多次刷新页面会累加14。
    • UV更关注用户身份的唯一性,而PV反映页面热度

2.实现方法

使用HyperLogLog(HLL)数据结构

  • 原理:基于概率算法,通过哈希函数估算集合基数(即唯一元素数量),无需存储完整用户数据,极大节省内存。
  • Redis实现
    • 内存占用:单个HLL结构仅需≤16KB,误差率<0.81%,适合高并发场景。
    • 命令示例
      • PFADD key user_id:添加用户到HLL。
      • PFCOUNT key:获取UV估算值

模拟用户数据

    /*** 测试 HyperLogLog 实现 UV 统计的误差*/@Testpublic void testHyperLogLog() {String[] values = new String[1000];// 批量保存100w条用户记录,每一批1个记录int j = 0;for (int i = 0; i < 1000000; i++) {j = i % 1000;values[j] = "user_" + i;if (j == 999) {// 发送到RedisstringRedisTemplate.opsForHyperLogLog().add("hl2", values);}}// 统计数量Long count = stringRedisTemplate.opsForHyperLogLog().size("hl2");System.out.println("count = " + count);}

相关文章:

黑马点评完整代码(RabbitMQ优化)+简历编写+面试重点 ⭐

简历上展示黑马点评 完整代码地址 项目描述 黑马点评项目是一个springboot开发的前后端分离项目&#xff0c;使用了redis集群、tomcat集群、MySQL集群提高服务性能。类似于大众点评&#xff0c;实现了短信登录、商户查询缓存、优惠卷秒杀、附近的商户、UV统计、用户签到、好…...

Java 大视界 -- Java 大数据在智能安防视频监控中的异常事件快速响应与处理机制(273)

&#x1f496;亲爱的朋友们&#xff0c;热烈欢迎来到 青云交的博客&#xff01;能与诸位在此相逢&#xff0c;我倍感荣幸。在这飞速更迭的时代&#xff0c;我们都渴望一方心灵净土&#xff0c;而 我的博客 正是这样温暖的所在。这里为你呈上趣味与实用兼具的知识&#xff0c;也…...

【数据库】安全性

数据库安全性控制的常用方法&#xff1a;用户标识和鉴定、存取控制、视图、审计、数据加密。 1.用户标识与鉴别 用户标识与鉴别(Identification & Authentication)是系统提供的最外层安全保护措施。 2.存取控制 2.1自主存取控制(简称DAC) (1)同一用户对于不同的数据对…...

【图像处理入门】4. 图像增强技术——对比度与亮度的魔法调节

摘要 图像增强是改善图像视觉效果的核心技术。本文将详解两种基础增强方法&#xff1a;通过直方图均衡化拉伸对比度&#xff0c;以及利用伽马校正调整非线性亮度。结合OpenCV代码实战&#xff0c;学会处理灰度图与彩色图的不同增强策略&#xff0c;理解为何彩色图像需在YUV空间…...

D2-基于本地Ollama模型的多轮问答系统

本程序是一个基于 Gradio 和 Ollama API 构建的支持多轮对话的写作助手。相较于上一版本&#xff0c;本版本新增了对话历史记录、Token 计数、参数调节和清空对话功能&#xff0c;显著提升了用户体验和交互灵活性。 程序通过抽象基类 LLMAgent 实现模块化设计&#xff0c;当前…...

HALCON 深度学习训练 3D 图像的几种方式优缺点

HALCON 深度学习训练 3D 图像的几种方式优缺点 ** 在计算机视觉和工业检测等领域&#xff0c;3D 图像数据的处理和分析变得越来越重要&#xff0c;HALCON 作为一款强大的机器视觉软件&#xff0c;提供了多种深度学习训练 3D 图像的方式。每种方式都有其独特的设计思路和应用场…...

123网盘SDK-npm包已发布

前言 大家好&#xff01;今天想和大家分享一个我最近开源的项目&#xff1a;123 网盘 SDK。这个项目已经在 GitHub 开源&#xff0c;最近已经发布到 NPM&#xff0c;可以通过 npm i ked3/pan123-sdk 直接安装使用。 项目背景&#xff1a;为什么要开发这个 SDK&#xff1f; 在…...

强制卸载openssl-libs导致系统异常的修复方法

openssl升级比较麻烦&#xff0c;因为很多软件都会依赖它&#xff0c;一旦强制卸载(尤其是openssl-libs.rpm)&#xff0c;就可能导致很多命令不可用&#xff0c;即使想用rpm命令重新安装都不行。 所以&#xff0c;除非万不得已&#xff0c;否则不要轻易去卸载openssl-libs。而且…...

乐播视频v4.0.0纯净版体验:高清流畅的视听盛宴

先放软件下载链接:夸克网盘下载 探索乐播视频v4.0.0纯净版&#xff1a;畅享精彩视听之旅 乐播视频v4.0.0纯净版为广大用户带来了优质的视频观看体验&#xff0c;是一款值得关注的视频类软件。 这款软件的资源丰富度令人惊喜&#xff0c;涵盖了电影、电视剧、综艺、动漫等多种…...

Linux 命令全讲解:从基础操作到高级运维的实战指南

Linux 命令全讲解&#xff1a;从基础操作到高级运维的实战指南 前言 Linux 作为开源操作系统的代表&#xff0c;凭借其稳定性、灵活性和强大的定制能力&#xff0c;广泛应用于服务器、云计算、嵌入式设备等领域。对于开发者、运维工程师甚至普通用户而言&#xff0c;熟练掌握…...

FreeRTOS的简单介绍

一、FreeRTOS介绍 FreeRTOS并不是实时操作系统&#xff0c;因为它是分时复用的 利用CubeMX快速移植 二、快速移植流程 1. 在 SYS 选项里&#xff0c;将 Debug 设为 Serial Wire &#xff0c;并且将 Timebase Source 设为 TIM2 &#xff08;其它定时器也行&#xff09;。为何…...

DeepSeek模型安全部署与对抗防御全攻略

引言 随着DeepSeek模型在企业关键业务中的深入应用,模型安全已成为不可忽视的重要议题。本文将从实际攻防对抗经验出发,系统剖析DeepSeek模型面临的安全威胁,提供覆盖输入过滤、输出净化、权限控制等环节的立体防御方案,并分享红蓝对抗中的最佳实践,助力企业构建安全可靠…...

Docker容器使用手册

Docker是一种轻量级、可移植、自给自足的软件运行环境&#xff0c;用于打包和运行应用程序。它允许开发者将应用及其所有依赖打包成一个镜像&#xff08;Image&#xff09;&#xff0c;然后基于这个镜像创建出容器&#xff08;Container&#xff09;来运行。与虚拟机相比不需要…...

深入解析C++引用:从别名机制到函数特性实践

1.C引用 1.1引用的概念和定义 引用不是新定义⼀个变量&#xff0c;而是给已存在变量取了⼀个别名&#xff0c;编译器不会为引用变量开辟内存空间&#xff0c;它和它引用的变量共用同⼀块内存空间。比如四大名著中林冲&#xff0c;他有一个外号叫豹子头&#xff0c;类比到C里就…...

Fuse.js:打造极致模糊搜索体验

Fuse.js 完全学习指南&#xff1a;JavaScript模糊搜索库 &#x1f3af; 什么是 Fuse.js&#xff1f; Fuse.js 是一个轻量、强大且无依赖的JavaScript模糊搜索库。它提供了简单而强大的模糊搜索功能&#xff0c;可以在任何 JavaScript 环境中使用&#xff0c;包括浏览器和 Nod…...

MyBatis分页插件(以PageHelper为例)与MySQL分页语法的关系

MyBatis分页插件&#xff08;以PageHelper为例&#xff09;与MySQL分页语法关系总结 MyBatis的分页插件&#xff08;如PageHelper&#xff09;底层实现依赖于数据库的分页语法。对于MySQL数据库来说&#xff0c;其分页逻辑最终会转化为LIMIT语句&#xff0c;下面展开详细说明&…...

CentOS 7.9 安装 宝塔面板

在 CentOS 7.9 上安装 宝塔面板&#xff08;BT Panel&#xff09; 的完整步骤如下&#xff1a; 1. 准备工作 系统要求&#xff1a; CentOS 7.x&#xff08;推荐 7.9&#xff09;内存 ≥ 1GB&#xff08;建议 2GB&#xff09;硬盘 ≥ 20GBroot 权限&#xff08;需使用 root 用户…...

使用Redis作为缓存优化ElasticSearch读写性能

在现代数据密集型应用中&#xff0c;ElasticSearch凭借其强大的全文搜索能力成为许多系统的首选搜索引擎。然而&#xff0c;随着数据量和查询量的增长&#xff0c;ElasticSearch的读写性能可能会成为瓶颈。本文将详细介绍如何使用Redis作为缓存层来显著提升ElasticSearch的读写…...

项目交付后缺乏回顾和改进,如何持续优化

项目交付后缺乏回顾和改进可通过建立定期回顾机制、实施反馈闭环流程、开展持续学习和培训、运用数据驱动分析、培养持续改进文化来持续优化。 其中&#xff0c;实施反馈闭环流程尤其重要&#xff0c;它能够确保反馈信息得到有效传递、处理与追踪&#xff0c;形成良好的改进生态…...

从0开始学习R语言--Day15--非参数检验

非参数检验 如果在进行T检验去比较两组数据差异时&#xff0c;假如数据里存在异常值&#xff0c;会把数据之间的差异拉的很大&#xff0c;影响正常的判断。那么这个时候&#xff0c;我们可以尝试用非参数检验的方式来比较数据。 假设我们有A&#xff0c;B两筐苹果&#xff0c…...

Linux或者Windows下PHP版本查看方法总结

确定当前服务器或本地环境中 PHP 的版本,可以通过以下几种方法进行操作: 1. 通过命令行检查 这是最直接且常用的方法,适用于本地开发环境或有 SSH 访问权限的服务器。 方法一:php -v 命令 php -v输出示例:PHP 8.1.12 (cli) (built: Oct 12 2023 12:34:56) (NTS) Copyri…...

EC2 实例详解:AWS 的云服务器怎么玩?☁️

弹性计算、灵活计费、全球可用&#xff0c;AWS EC2 全攻略 在 AWS 生态中&#xff0c;有两个核心服务是非常关键的&#xff0c;一个是 S3&#xff08;对象存储&#xff09;&#xff0c;另一个就是我们今天的主角 —— Amazon EC2&#xff08;Elastic Compute Cloud&#xff09…...

第三发 DSP 点击控制系统

背景 ​ 在第三方 DSP 上投放广告&#xff0c;需要根据 DP Link 的点击次数进行控制。比如当 DP Link 达到 5000 后&#xff0c;后续的点击将不能带来收益&#xff0c;但是后续的广告却要付出成本。因此需要建立一个 DP Link 池&#xff0c;当 DP Link 到达限制后&#xff0c;…...

saveOrUpdate 有个缺点,不会把值赋值为null,解决办法

针对 MyBatis-Plus 的 saveOrUpdate 方法无法将字段更新为 null 的问题&#xff0c;这是因为 MyBatis-Plus 默认会忽略 null 值字段。以下是几种解决方案&#xff1a; 方案 1&#xff1a;使用 update(entity, wrapper) 手动指定更新条件 原理&#xff1a;通过 UpdateWrapper …...

Java面试:企业协同SaaS中的技术挑战与解决方案

Java面试&#xff1a;企业协同SaaS中的技术挑战与解决方案 面试场景 在一家知名互联网大厂&#xff0c;面试官老王正在对一位应聘企业协同SaaS开发职位的程序员谢飞机进行技术面试。 第一轮提问&#xff1a;基础技术 老王&#xff1a;谢飞机&#xff0c;你好。首先&#xf…...

【笔记】在 MSYS2 MINGW64 环境中降级 NumPy 2.2.6 到 2.2.4

&#x1f4dd; 在 MSYS2 MINGW64 环境中降级 NumPy 到 2.2.4 ✅ 目标说明 在 MSYS2 的 MINGW64 工具链环境中&#xff0c;将 NumPy 从 2.2.6 成功降级到 2.2.4。 &#x1f9f0; 环境信息 项目内容操作系统Windows 11MSYS2 终端类型MINGW64&#xff08;默认终端&#xff09;Py…...

前端限流如何实现,如何防止服务器过载

前端限流是一种控制请求频率的技术&#xff0c;旨在防止过多的请求在同一时间段内发送到服务器&#xff0c;避免造成服务器过载或触发反爬虫机制。实现前端限流的方法有很多&#xff0c;下面介绍几种常见的策略和技术&#xff1a; 1. 时间窗口算法 时间窗口算法是最简单的限流…...

基于大模型的慢性硬脑膜下血肿预测与诊疗系统技术方案

目录 一、术前阶段二、并发症风险预测三、手术方案制定四、麻醉方案生成五、术后护理与康复六、系统集成方案七、实验验证与统计分析八、健康教育与随访一、术前阶段 1. 数据预处理与特征提取 伪代码: # 输入:患者多模态影像数据(CT/MRI)、病史、生理指标 def preproce…...

vue入门环境搭建及demo运行

提示&#xff1a;写完文章后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 vue简介&#xff1a;第一步&#xff1a;安装node.jsnode简介第二步&#xff1a;安装vue.js第三步&#xff1a;安装vue-cli工具第四步 &#xff1a;安装webpack第五步…...

git checkout C1解释

git checkout C1 的意思是&#xff1a; 让 Git 切换到某个提交&#xff08;commit&#xff09;ID 为 C1 的状态。 &#x1f50d; 更具体地说&#xff1a; C1 通常是一个 commit 的哈希值&#xff08;可以是前几位&#xff0c;比如 6a3f9d2&#xff09; git checkout C1 会让你…...