当前位置: 首页 > news >正文

Kafka SASL/PLAIN认证模式

Kafka 认证模式命令使用示例

创建Topic

指定用户创建
[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092  --create --topic fkaaa35 --replication-factor 3 --partitions 3 --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties
Created topic fkaaa35.

创建Topic详细信息

[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092  --describe  --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties
Topic: kafka35a	TopicId: JfCNAbxdRj2RmqCCaakOng	PartitionCount: 1	ReplicationFactor: 1	Configs: segment.bytes=1073741824Topic: kafka35a	Partition: 0	Leader: 6	Replicas: 6	Isr: 6
Topic: fkaaa35	TopicId: cf4esxrdTwGMHGq1uWntmA	PartitionCount: 3	ReplicationFactor: 3	Configs: segment.bytes=1073741824Topic: fkaaa35	Partition: 0	Leader: 2	Replicas: 2,4,6	Isr: 2,4,6Topic: fkaaa35	Partition: 1	Leader: 4	Replicas: 4,6,2	Isr: 4,6,2Topic: fkaaa35	Partition: 2	Leader: 6	Replicas: 6,2,4	Isr: 6,2,4

查看Topic列表

[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092  --list  --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties
__consumer_offsets
fffka35
ffka35
fka35
fkaaa35
kafka35
kafka35a

改变Topic分区数量

[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092  --topic fka35 --alter --partitions 4  --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties

再次查询验证分区数量

[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092  --describe  --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties
Topic: kafka35a	TopicId: JfCNAbxdRj2RmqCCaakOng	PartitionCount: 1	ReplicationFactor: 1	Configs: segment.bytes=1073741824Topic: kafka35a	Partition: 0	Leader: 6	Replicas: 6	Isr: 6
Topic: fka35	TopicId: VSEfw7yMTmybd1U7hcRWwg	PartitionCount: 4	ReplicationFactor: 1	Configs: segment.bytes=1073741824Topic: fka35	Partition: 0	Leader: 4	Replicas: 4	Isr: 4Topic: fka35	Partition: 1	Leader: 6	Replicas: 6	Isr: 6Topic: fka35	Partition: 2	Leader: 2	Replicas: 2	Isr: 2Topic: fka35	Partition: 3	Leader: 4	Replicas: 4	Isr: 4

生产数据

必须使用–bootstrap-server方式生产,必须携带认证文件

/usr/local/kafka3.5-sasl-data/bin/kafka-console-producer.sh  --bootstrap-server x.x.x.11:9092  --topic fkaaa35  --producer.config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties

消费数据

[root@kafka18 bin]# /usr/local/kafka3.5-sasl-data/bin/kafka-console-consumer.sh --bootstrap-server x.x.x.18:9092 --topic fkaaa35  --from-beginning --consumer.config /usr/local/kafka3.5-sasl-data/config/kraft/userb_consumer.properties 

查看消费组名称

[root@kafka18 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-consumer-groups.sh  --bootstrap-server x.x.x.18:9092 --list  --command-config /usr/local/kafka3.5-sasl-data/config/kraft/userb_consumer.properties 
console-consumer-94931
console-consumer-22274

查看某消费组消费消息

[root@kafka18 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-consumer-groups.sh  --bootstrap-server x.x.x.18:9092 --group console-consumer-22274 --describe  --command-config /usr/local/kafka3.5-sasl-data/config/kraft/userb_consumer.properties 

查看Topic情况

[root@kafka01 kafkasaslbroker]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.18:9092  --describe  --command-config  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties
Topic: n35	TopicId: IbBjY51sTQGqASkZrk8WxQ	PartitionCount: 3	ReplicationFactor: 3	Configs: segment.bytes=1073741824Topic: n35	Partition: 0	Leader: 6	Replicas: 6,2,4	Isr: 6,2,4Topic: n35	Partition: 1	Leader: 2	Replicas: 2,4,6	Isr: 2,4,6Topic: n35	Partition: 2	Leader: 4	Replicas: 4,6,2	Isr: 4,6,2
Topic: __consumer_offsets	TopicId: Kbp3tGJ6QGyFhZK9_OeWww	PartitionCount: 50	ReplicationFactor: 2	Configs: compression.type=producer,cleanup.policy=compact,segment.bytes=104857600Topic: __consumer_offsets	Partition: 0	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 1	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 2	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 3	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 4	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 5	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 6	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 7	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 8	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 9	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 10	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 11	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 12	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 13	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 14	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 15	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 16	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 17	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 18	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 19	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 20	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 21	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 22	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 23	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 24	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 25	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 26	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 27	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 28	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 29	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 30	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 31	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 32	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 33	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 34	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 35	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 36	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 37	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 38	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 39	Leader: 6	Replicas: 6,4	Isr: 6,4Topic: __consumer_offsets	Partition: 40	Leader: 4	Replicas: 4,2	Isr: 4,2Topic: __consumer_offsets	Partition: 41	Leader: 2	Replicas: 2,6	Isr: 2,6Topic: __consumer_offsets	Partition: 42	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 43	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 44	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 45	Leader: 2	Replicas: 2,4	Isr: 2,4Topic: __consumer_offsets	Partition: 46	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 47	Leader: 6	Replicas: 6,2	Isr: 6,2Topic: __consumer_offsets	Partition: 48	Leader: 4	Replicas: 4,6	Isr: 4,6Topic: __consumer_offsets	Partition: 49	Leader: 6	Replicas: 6,2	Isr: 6,2

主机节点架构

地址主机名角色
x.x.x.11:9092kafka01broker
x.x.x.14:9092kafka14broker
x.x.x.18:9092kafka18broker
x.x.x.11:9093kafka01controller
x.x.x.14:9093kafka14controller
x.x.x.18:9093kafka18controller

主机名设置

确保每台主机名不重复,执行如

hostnamectl set-hostname kafka01  &&  bash
hostnamectl set-hostname kafka14  &&  bash
hostnamectl set-hostname kafka18  &&  bash

设置hosts文件解析

cat >>/etc/hosts <<EOF
x.x.x.11  kafka01
x.x.x.14  kafka14
x.x.x.18  kafka18
EOF

Kafka配置文件说明

部署路径如下:

Controller角色部署路径:/usr/local/kafka3.5-sasl-controller
Broker角色部署路径:/usr/local/kafka3.5-sasl-data

Controller 节点关键配置说明:

在Controller节点上需要配置/usr/local/kafka3.5-sasl-controller/config/kraft/server.properties文件
listeners=CONTROLLER://x.x.x.x:9091    # 控制器监听器地址
# SASL认证配置 
sasl.enabled.mechanisms=PLAIN       
sasl.mechanism.inter.broker.protocol=PLAIN   
security.inter.broker.protocol=SASL_PLAINTEXT
log.dirs=/kafkasaslcontroller    # 数据目录 
# 控制器存储配置 
controller.socket.timeout.ms=30000 
controller.metadata.max.age.ms=300000 
controller.listener.names=CONTROLLER 
# 控制器选举配置 
controller.election.type=kraft    #用于指定控制器选举的类型。Kafka 支持两种类型的控制器选举机制:zk_sync:基于 ZooKeeper 的同步控制器选举。kraft:KRaft 模式下的控制器选举,这是 Kafka 未来版本中的一个新特性,它不依赖于 ZooKeeper。
controller.metadata.storage.topic=kafka_controller_metadata   #用于指定存储控制器元数据快照的Kafka内部主题。这个参数是在Kafka 0.10版本中引入的,用于替代旧版本中的Zookeeper。控制器是Kafka集群中负责负载均衡、分区领导者选举和集群范围内的变更(如新的broker加入或离开)的broker。控制器元数据快照包含了集群的所有元数据信息,例如broker列表、主题分区分配和副本集。默认情况下,Kafka使用_kafka_metadata这个内部主题来存储控制器的元数据快照。如果你需要修改这个参数,确保新指定的主题满足以下要求:这个主题必须是分区数为1,副本因子为(controller.broker.count+1)/ 2的事务主题。
这个主题的清理策略必须设置为delete,以便快照可以被删除。如果你需要修改这个参数,你可以在Kafka配置文件中设置新的主题名称,并确保新主题满足上述要求。然后,你需要创建这个主题,并设置合适的配置。例如,使用Kafka命令行工具:
kafka-topics.sh --create --topic my_custom_metadata_topic --partitions 1 --replication-factor 2 --config cleanup.policy=delete
controller.metadata.storage.replication.factor=3 
controller.metadata.storage.min.insync.replicas=2 
# 动态配置更新 
sasl.mechanism.controller.protocol=PLAIN  #集群间认证时用的认证方式
super.users=User:admin    #设置超级管理员
Broker节点关键配置说明:
在broker节点上需要配置/usr/local/kafka3.5-sasl-broker/config/kraft/server.properties文件。以下是一些关键的配置项:
listeners=SASL_PLAINTEXT://x.x.x.x:9092    #监听器配置
# SASL 认证配置 
sasl.enabled.mechanisms=PLAIN    
sasl.mechanism.inter.broker.protocol=PLAIN   
security.inter.broker.protocol=SASL_PLAINTEXT   
log.dirs=/kafkasaslbroker    #数据目录 
controller.quorum.voters=1@controller-ip:9091  #控制器连接配置
# 动态配置更新 
dynamic.config.topic=kafka_config 
# 其他配置 
group.initial.rebalance.delay.ms=0 
transaction.state.log.replication.factor=3 
transaction.state.log.min.isr=2 
min.insync.replicas=2

设置SASL认证

编辑认证jaas文件

分别在controller和broker节点设置,文件内容相同
controller节点:

vim  /usr/local/kafka3.5-sasl-controller/config/kraft/kafka_server_jaas.conf
KafkaServer {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="admin"password="password"user_admin="password"user_test="test"user_producer="prod-sec"user_consumer="cons-sec";
};

Broker节点:

vim  /usr/local/kafka3.5-sasl-data/config/kraft/kafka_server_jaas.conf
KafkaServer {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="admin"password="password"user_admin="password"user_test="test"user_producer="prod-sec"user_consumer="cons-sec";

};

编辑脚本变量

controller节点:

vim /usr/local/kafka3.5-sasl-controller/bin/kafka-run-class.sh
KAFKA_OPTS="-Djava.security.auth.login.config=/usr/local/kafka3.5-sasl-controller/config/kraft/kafka_server_jaas.conf"

Broker节点:

vim /usr/local/kafka3.5-sasl-data/bin/kafka-run-class.sh
KAFKA_OPTS="-Djava.security.auth.login.config=/usr/local/kafka3.5-sasl-data/config/kraft/kafka_server_jaas.conf"

生成集群id

在任意一个kafka节点上执行即可,初始化集群数据目录,首先生成存储目录唯一 ID。生成后保存生成的字符串。这个集群ID事实上是一个长度16位的字符串通过Base64编码后得来的,因此也可以不使用上述命令,直接自定义一个16位长度的纯英文和数字组成的字符串,然后将这个字符串编码为Base64格式作为这个集群ID也可以。可以使用相关工具Base64编码工具。

生成集群id:

[root@kafka18 kafkacontroller]# /usr/local/kafka3.5-sasl-controller/bin/kafka-storage.sh random-uuid
0awG6LDDRRSS0nYDN6LUEw

格式化所有kafka节点数据目录

然后分别在每个kafka进程执行下面命令,用该 ID 格式化 kafka 存储目录。完成集群元数据配置,-t指定刚才生成的字符串。
本部署方案为三controller节点,三broker节点分离部署方案,那么6个kafka进程都要执行格式化,一共执行6次。
首先格式化3个controller:
每个controller节点必须执行,一共执行3次。

[root@kafka01 kraft]# /usr/local/kafka3.5-sasl-controller/bin/kafka-storage.sh format -t 0awG6LDDRRSS0nYDN6LUEw -c /usr/local/kafka3.5-sasl-controller/config/kraft/server.properties 
Formatting /kafkasaslcontroller with metadata.version 3.5-IV2.

执行后kafka的controller节点数据目录会生成2个文件

[root@kafka14 kafkasaslcontroller]# ll
total 8
-rw-r--r-- 1 root root 249 Sep  7 01:58 bootstrap.checkpoint 
-rw-r--r-- 1 root root  86 Sep  7 01:58 meta.properties

其次格式化3个broker:
每个broker节点必须执行,一共执行3次。

[root@kafka18 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-storage.sh format -t 0awG6LDDRRSS0nYDN6LUEw -c /usr/local/kafka3.5-sasl-data/config/kraft/server.properties
Formatting /kafkasaslbroker with metadata.version 3.5-IV2.

启动kafka kraft集群

启动方式与传统模式启动方法一样。首先启动3个controller节点,最后启动3个broker节点
首先启动controller节点:

/usr/local/kafka3.5-sasl-controller/bin/kafka-server-start.sh  -daemon  /usr/local/kafka3.5-sasl-controller/config/kraft/server.properties 

其次启动broker节点:

/usr/local/kafka3.5-sasl-data/bin/kafka-server-start.sh  -daemon  /usr/local/kafka3.5-sasl-data/config/kraft/server.properties

关闭时首先关闭broker节点,最后关闭controller节点

编辑认证携带文件

在kafka的broker节点编辑设置。因为开启了安全认证,所以执行命令需要携带含有认证用户信息的认证文件。认证文件路径自定义即可,本方案放在 /usr/local/kafka3.5-sasl-data/config/kraft/路径下。

编写生产者用户的认证文件

vim  /usr/local/kafka3.5-sasl-data/config/kraft/usera_producer.properties     
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required \username="producer" \password="prod-sec";
security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN
usera_producer.properties的使用方法是通过--producer.config参数携带。

编写消费者用户userb的认证文件

如果后续指定此配置文件无法消费,需要先查出消费者组名称,然后在文件第一行添加group.id参数,并指定消费者组。

vim  /usr/local/kafka3.5-sasl-data/config/kraft/userb_consumer.properties 
#group.id=console-consumer-94652
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required \username="consumer" \password="cons-sec";
security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN
userb_consumer.properties的使用方法是通过--consumer.config参数携带。
3.3	编写生产者用户usera的客户端认证文件
vim   /usr/local/kafka3.5-sasl-data/config/kraft/usera-writer-jaas.conf
KafkaClient {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="producer"password="prod-sec";
};

编写消费者用户userb的客户端认证文件

vim  /usr/local/kafka3.5-sasl-data/config/kraft/userb-read-jaas.conf
KafkaClient {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="consumer"password="cons-sec";
};
上述usera-writer-jaas.conf和userb-read-jaas.conf文件的使用方法均需通过--command-config参数携带。

分别修改生产者脚本和消费者脚本变量

修改broker端脚本,放在脚本第一行即可

vim /usr/local/kafka3.5-sasl-data/bin/kafka-console-producer.sh
KAFKA_OPTS="-Djava.security.auth.login.config=/usr/local/kafka3.5-sasl-data/config/kraft/usera-writer-jaas.conf"
vim  /usr/local/kafka3.5-sasl-data/bin/kafka-console-consumer.sh
KAFKA_OPTS="-Djava.security.auth.login.config=/usr/local/kafka3.5-sasl-data/config/kraft/userb-read-jaas.conf"

重启kafka broker节点
执行/usr/local/kafka3.5-sasl-data/bin/kafka-server-stop.sh,关闭kakfa broker进程后,启动controller、broker节点:
首先启动controller节点:

/usr/local/kafka3.5-sasl-controller/bin/kafka-server-start.sh  -daemon  /usr/local/kafka3.5-sasl-controller/config/kraft/server.properties 

其次启动broker节点:

/usr/local/kafka3.5-sasl-data/bin/kafka-server-start.sh  -daemon  /usr/local/kafka3.5-sasl-data/config/kraft/server.properties

Kafka-controller和kafka-broker节点配置文件示例

kafka-controller节点配置示例

process.roles=controller
node.id=1    # 每个主机的id必须不同
controller.quorum.voters=1@x.x.x.11:9093,3@x.x.x.14:9093,5@x.x.x.18:9093
listeners=CONTROLLER://x.x.x.11:9093   # 每个主机的ip必须不同,填写当前主机ip
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
security.inter.broker.protocol=SASL_PLAINTEXT
controller.election.type=kraft
controller.listener.names=CONTROLLER
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=1024000
socket.request.max.bytes=209715200
sasl.login.timeout.ms=1500000
sasl.connection.timeout.ms=30000000
sasl.mechanism.controller.protocol=PLAIN
super.users=User:admin
sasl.mechanism=PLAIN
log.dirs=/kafkasaslcontroller
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000

kafka-broker节点配置示例

process.roles=broker
node.id=2    # 每个主机的id必须不同
controller.quorum.voters=1@x.x.x.11:9093,3@x.x.x.14:9093,5@x.x.x.18:9093
listeners=SASL_PLAINTEXT://x.x.x.11:9092    # 每个主机的ip必须不同,填写当前主机ip
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
security.inter.broker.protocol=SASL_PLAINTEXT
controller.listener.names=CONTROLLER
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=1024000
socket.request.max.bytes=209715200
sasl.login.timeout.ms=15000000
sasl.connection.timeout.ms=30000000
sasl.mechanism.controller.protocol=PLAIN
super.users=User:admin
sasl.mechanism=PLAIN
log.dirs=/kafkasaslbroker
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=3
transaction.state.log.min.isr=3
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000

以上就是Kafka Kraft模式下配置SASL的配置过程,有哪里不懂可以下面评论~
文档持续更新中~

相关文章:

Kafka SASL/PLAIN认证模式

Kafka 认证模式命令使用示例 创建Topic 指定用户创建 [rootkafka01 kraft]# /usr/local/kafka3.5-sasl-data/bin/kafka-topics.sh --bootstrap-server x.x.x.11:9092 --create --topic fkaaa35 --replication-factor 3 --partitions 3 --command-config /usr/local/kafka3.…...

苹果AI科学家研究证明基于LLM的模型存在缺陷 因为它们无法推理

苹果公司人工智能科学家的一篇新论文发现&#xff0c;基于大型语言模型的引擎&#xff08;如 Meta 和 OpenAI 的引擎&#xff09;仍然缺乏基本的推理能力。该小组提出了一个新的基准–GSM-Symbolic&#xff0c;以帮助其他人衡量各种大型语言模型&#xff08;LLM&#xff09;的推…...

鸿蒙NEXT开发-页面路由(基于最新api12稳定版)

注意&#xff1a;博主有个鸿蒙专栏&#xff0c;里面从上到下有关于鸿蒙next的教学文档&#xff0c;大家感兴趣可以学习下 如果大家觉得博主文章写的好的话&#xff0c;可以点下关注&#xff0c;博主会一直更新鸿蒙next相关知识 专栏地址: https://blog.csdn.net/qq_56760790/…...

asp.net Core MVC 内容协商

内容协商 内容协商是Asp.Net Core 控制器的一项功能&#xff0c;而Asp.Net MVC5 控制器并不支持它。 引入内容协商是为了满足 Web API 框架的需要。 在 Asp.net Core 中&#xff0c;内容协商 被内置到引擎中&#xff0c;供开发人员使用。 顾名思义&#xff0c;内容协商指的是…...

智能EDA小白从0开始 —— DAY10 Yosys

Yosys 概述 工作原理 Yosys的工作原理深入来讲&#xff0c;是一个复杂但有序的硬件设计自动化流程&#xff0c;其核心在于将高级硬件描述语言&#xff08;HDL&#xff09;如Verilog或VHDL编写的代码&#xff0c;通过一系列精细的步骤转换为门级网表。这一流程首先涉及对HDL代…...

《OpenCV计算机视觉》—— 人脸检测

文章目录 一、人脸检测流程介绍二、用于人脸检测的关键方法1.加载分类器&#xff08;cv2.CascadeClassifier()&#xff09;2.检测图像中的人脸&#xff08;cv2.CascadeClassifier.detectMultiscale()&#xff09; 三、代码实现 一、人脸检测流程介绍 下面是一张含有多个人脸的…...

【unity框架开发12】从零手搓unity存档存储数据持久化系统,实现对存档的创建,获取,保存,加载,删除,缓存,加密,支持多存档

文章目录 前言一、Unity对Json数据的操作方法一、JsonUtility方法二、Newtonsoft 二、持久化的数据路径三、数据加密/解密加密方法解密方法 四、条件编译指令限制仅在编辑器模式下进行加密/解密四、数据持久化管理器1、存档工具类2、一个存档数据3、存档系统数据类4、数据存档存…...

YOLOv11进行图像与视频的目标检测

一、AI应用系统实战项目 项目名称项目名称1.人脸识别与管理系统2.车牌识别与管理系统...

SpinalHDL之错误集(一)

本文作为SpinalHDL学习笔记第七十六篇&#xff0c;作为错误集使用&#xff0c;类似高中生的错题集&#xff0c;记录使用SpinalHDL过程中遇到的问题&#xff0c;小到语法错误、版本兼容问题&#xff0c;大到SpinalHDL库函数错误等等&#xff0c;持续更新。 SpinalHDL学习笔记总…...

【arcgis】ArcGIS中如何避免标注压盖要素

ArcGIS中如何避免标注压盖要素 在制图工作中&#xff0c;标注&#xff08;Label&#xff09;是传达地理信息的重要方式。然而&#xff0c;在复杂的地图上&#xff0c;标注容易出现压盖要素的情况&#xff0c;影响地图的美观性和信息的准确传达。ArcGIS提供了Maplex标注引擎&am…...

数通--3

一、动态路由 内部 路由器之间要互联互通&#xff0c;必须遵循相同的协议 企业内部用 IGP&#xff0c;企业之间用BGP RIP&#xff08;已淘汰&#xff0c;不考&#xff09; 距离就是长短&#xff0c;矢量就是方向&#xff0c;即路由的出接口 一台路由器 A 配好RIP&#xff0c;…...

SpringBoot基础(五):集成JUnit5

SpringBoot基础系列文章 SpringBoot基础(一)&#xff1a;快速入门 SpringBoot基础(二)&#xff1a;配置文件详解 SpringBoot基础(三)&#xff1a;Logback日志 SpringBoot基础(四)&#xff1a;bean的多种加载方式 SpringBoot基础(五)&#xff1a;集成JUnit5 目录 一、JUnit…...

正点原子学习笔记之汇编LED驱动实验

1 汇编LED原理分析 为什么要写汇编     需要用汇编初始化一些SOC外设     使用汇编初始化DDR、I.MX6U不需要     设置sp指针&#xff0c;一般指向DDR&#xff0c;设置好C语言运行环境 1.1 LED硬件分析 可以看到LED灯一端接高电平&#xff0c;一端连接了GPIO_3上面…...

网络学习第二篇

认识网关和路由器 这里大家先了解一下什么三层设备。 三层设备 三层设备是指在网络架构中能够工作在第三层&#xff08;网络层&#xff09;的设备&#xff0c;通常包括三层交换机和路由器。这些设备可以根据IP地址进行数据包的转发和路由选择&#xff0c;从而在不同的网络之间…...

一些小结汇总

1.常用浏览器及对应内核 Safari浏览器&#xff08;苹果浏览器&#xff09;:Webkit内核 Google浏览器&#xff1a;Blink内核 Firefox&#xff1a;Gecko内核 Edge浏览器&#xff1a;Chromium内核 IE浏览器&#xff1a;Trident内核 2.10个块标签和10个行标签 …...

20240720 科大讯飞 笔试

文章目录 1、选择题1.11.21.31.41.51.61.71.81.91.101.111.122、编程题2.12.22.33、选择题(Linux 选做)3.13.23.34、选择题(C++ 选做)4.14.24.34.44.54.64.75、选择题(数据库选做)5.15.25.3岗位:嵌入式开发工程师 题型: 必做:12 道选择题,3 道编程题 选做:Linux(3…...

【AIGC】寻找ChatGPT最佳推理步骤:CoT思维链技术的探索与应用

博客主页&#xff1a; [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 &#x1f4af;前言&#x1f4af;CoT思维链概述&#x1f4af;CoT思维链在大型语言模型中的应用&#x1f4af;CoT思维链改变对模型推理能力的理解和改进方式多样化应用场景挑战与未来发展总结 &#x1f4a…...

一、安装VMWARE和CentOS

一、安装VMware 1、基本说明 学习Linux需要一个环境&#xff0c;我们需要创建一个虚拟机&#xff0c;然后在虚拟机上安装一个Centos系统来学习 先安装virtual machine 15.5再安装Linux(CentOS 7.6/centos8.1)原理示意图 2、vmware15.5下载 官方地址:https://www.vmware.com/…...

岩石分类检测数据集 4700张 岩石检测 带标注 voc yolo 9类

岩石分类检测数据集 4700张 岩石检测 带标注 voc yolo 9类 岩石分类检测数据集 (Rock Classification and Detection Dataset) 描述: 本数据集旨在支持对不同类型的岩石进行自动分类和检测&#xff0c;特别适用于地质勘探、矿物识别、环境监测等领域。通过使用该数据集训练的模…...

电脑基础知识:mfc110.dll丢失的解决方法

1.mfc110.dll 丢失常见原因 mfc110.dll 文件的丢失或损坏是Windows系统中常见的问题&#xff0c;它可能由多种原因引起&#xff0c;以下是一些主要的因素&#xff1a; 不完全的软件卸载 在卸载程序时&#xff0c;如果相关的 DLL 文件没有被正确移除&#xff0c;可能会导致文件…...

linux之kylin系统nginx的安装

一、nginx的作用 1.可做高性能的web服务器 直接处理静态资源&#xff08;HTML/CSS/图片等&#xff09;&#xff0c;响应速度远超传统服务器类似apache支持高并发连接 2.反向代理服务器 隐藏后端服务器IP地址&#xff0c;提高安全性 3.负载均衡服务器 支持多种策略分发流量…...

大话软工笔记—需求分析概述

需求分析&#xff0c;就是要对需求调研收集到的资料信息逐个地进行拆分、研究&#xff0c;从大量的不确定“需求”中确定出哪些需求最终要转换为确定的“功能需求”。 需求分析的作用非常重要&#xff0c;后续设计的依据主要来自于需求分析的成果&#xff0c;包括: 项目的目的…...

【JVM】- 内存结构

引言 JVM&#xff1a;Java Virtual Machine 定义&#xff1a;Java虚拟机&#xff0c;Java二进制字节码的运行环境好处&#xff1a; 一次编写&#xff0c;到处运行自动内存管理&#xff0c;垃圾回收的功能数组下标越界检查&#xff08;会抛异常&#xff0c;不会覆盖到其他代码…...

大语言模型如何处理长文本?常用文本分割技术详解

为什么需要文本分割? 引言:为什么需要文本分割?一、基础文本分割方法1. 按段落分割(Paragraph Splitting)2. 按句子分割(Sentence Splitting)二、高级文本分割策略3. 重叠分割(Sliding Window)4. 递归分割(Recursive Splitting)三、生产级工具推荐5. 使用LangChain的…...

HTML前端开发:JavaScript 常用事件详解

作为前端开发的核心&#xff0c;JavaScript 事件是用户与网页交互的基础。以下是常见事件的详细说明和用法示例&#xff1a; 1. onclick - 点击事件 当元素被单击时触发&#xff08;左键点击&#xff09; button.onclick function() {alert("按钮被点击了&#xff01;&…...

QT: `long long` 类型转换为 `QString` 2025.6.5

在 Qt 中&#xff0c;将 long long 类型转换为 QString 可以通过以下两种常用方法实现&#xff1a; 方法 1&#xff1a;使用 QString::number() 直接调用 QString 的静态方法 number()&#xff0c;将数值转换为字符串&#xff1a; long long value 1234567890123456789LL; …...

pikachu靶场通关笔记22-1 SQL注入05-1-insert注入(报错法)

目录 一、SQL注入 二、insert注入 三、报错型注入 四、updatexml函数 五、源码审计 六、insert渗透实战 1、渗透准备 2、获取数据库名database 3、获取表名table 4、获取列名column 5、获取字段 本系列为通过《pikachu靶场通关笔记》的SQL注入关卡(共10关&#xff0…...

安宝特案例丨Vuzix AR智能眼镜集成专业软件,助力卢森堡医院药房转型,赢得辉瑞创新奖

在Vuzix M400 AR智能眼镜的助力下&#xff0c;卢森堡罗伯特舒曼医院&#xff08;the Robert Schuman Hospitals, HRS&#xff09;凭借在无菌制剂生产流程中引入增强现实技术&#xff08;AR&#xff09;创新项目&#xff0c;荣获了2024年6月7日由卢森堡医院药剂师协会&#xff0…...

Scrapy-Redis分布式爬虫架构的可扩展性与容错性增强:基于微服务与容器化的解决方案

在大数据时代&#xff0c;海量数据的采集与处理成为企业和研究机构获取信息的关键环节。Scrapy-Redis作为一种经典的分布式爬虫架构&#xff0c;在处理大规模数据抓取任务时展现出强大的能力。然而&#xff0c;随着业务规模的不断扩大和数据抓取需求的日益复杂&#xff0c;传统…...

嵌入式学习之系统编程(九)OSI模型、TCP/IP模型、UDP协议网络相关编程(6.3)

目录 一、网络编程--OSI模型 二、网络编程--TCP/IP模型 三、网络接口 四、UDP网络相关编程及主要函数 ​编辑​编辑 UDP的特征 socke函数 bind函数 recvfrom函数&#xff08;接收函数&#xff09; sendto函数&#xff08;发送函数&#xff09; 五、网络编程之 UDP 用…...