当前位置: 首页 > news >正文

TDengine 做为 FLINK 数据源技术参考手册

Apache Flink 是一款由 Apache 软件基金会支持的开源分布式流批一体化处理框架,可用于流处理、批处理、复杂事件处理、实时数据仓库构建及为机器学习提供实时数据支持等诸多大数据处理场景。与此同时,Flink 拥有丰富的连接器与各类工具,可对接众多不同类型的数据源实现数据的读取与写入。在数据处理的过程中,Flink 还提供了一系列可靠的容错机制,有力保障任务即便遭遇意外状况,依然能稳定、持续运行。

借助 TDengine 的 Flink 连接器,Apache Flink 得以与 TDengine 数据库无缝对接,一方面能够将经过复杂运算和深度分析后所得到的结果精准存入 TDengine 数据库,实现数据的高效存储与管理;另一方面,也可以从 TDengine 数据库中快速、稳定地读取海量数据,并在此基础上进行全面、深入的分析处理,充分挖掘数据的潜在价值,为企业的决策制定提供有力的数据支持和科学依据,极大地提升数据处理的效率和质量,增强企业在数字化时代的竞争力和创新能力。

前置条件

准备以下环境:

  • TDengine 服务已部署并正常运行(企业及社区版均可)
  • taosAdapter 能够正常运行。详细参考 taosAdapter 使用手册
  • Apache Flink v1.19.0 或以上版本已安装。安装 Apache Flink 请参考 官方文档

支持的平台

Flink Connector 支持所有能运行 Flink 1.19 及以上版本的平台。

版本历史

Flink Connector 版本主要变化TDengine 版本
2.0.1Sink 支持对所有继承自 RowData 并已实现的类型进行数据写入-
2.0.01. 支持 SQL 查询 TDengine 数据库中的数据
2. 支持 CDC 订阅 TDengine 数据库中的数据
3. 支持 Table SQL 方式读取和写入 TDengine 数据库
3.3.5.1 及以上版本
1.0.0支持 Sink 功能,将来着其他数据源的数据写入到 TDengine3.3.2.0 及以上版本

异常和错误码

在任务执行失败后,查看 Flink 任务执行日志确认失败原因

具体的错误码请参考:

Error CodeDescriptionSuggested Actions
0xa000connection param error连接器参数错误。
0xa001the groupid parameter of CDC is incorrectCDC 的 groupid 参数错误。
0xa002wrong topic parameter for CDCCDC 的 topic 参数错误。
0xa010database name configuration error数据库名配置错误。
0xa011table name configuration error表名配置错误。
0xa012no data was obtained from the data source从数据源中获取数据失败。
0xa013value.deserializer parameter not set未设置序列化方式。
0xa014list of column names for target table not set未设置目标表的列名列表。
0x2301connection already closed连接已经关闭,检查连接情况,或重新创建连接去执行相关指令。
0x2302this operation is NOT supported currently!当前使用接口不支持,可以更换其他连接方式。
0x2303invalid variables参数不合法,请检查相应接口规范,调整参数类型及大小。
0x2304statement is closedstatement 已经关闭,请检查 statement 是否关闭后再次使用,或是连接是否正常。
0x2305resultSet is closedresultSet 结果集已经释放,请检查 resultSet 是否释放后再次使用。
0x230dparameter index out of range参数越界,请检查参数的合理范围。
0x230econnection already closed连接已经关闭,请检查 Connection 是否关闭后再次使用,或是连接是否正常。
0x230funknown sql type in TDengine请检查 TDengine 支持的 Data Type 类型。
0x2315unknown taos type in TDengine在 TDengine 数据类型与 JDBC 数据类型转换时,是否指定了正确的 TDengine 数据类型。
0x2319user is required创建连接时缺少用户名信息。
0x231apassword is required创建连接时缺少密码信息。
0x231dcan’t create connection with server within通过增加参数 httpConnectTimeout 增加连接耗时,或是请检查与 taosAdapter 之间的连接情况。
0x231efailed to complete the task within the specified time通过增加参数 messageWaitTimeout 增加执行耗时,或是请检查与 taosAdapter 之间的连接情况。
0x2352Unsupported encoding本地连接下指定了不支持的字符编码集。
0x2353internal error of database, please see taoslog for more details本地连接执行 prepareStatement 时出现错误,请检查 taos log 进行问题定位。
0x2354connection is NULL本地连接执行命令时,Connection 已经关闭。请检查与 TDengine 的连接情况。
0x2355result set is NULL本地连接获取结果集,结果集异常,请检查连接情况,并重试。
0x2356invalid num of fields本地连接获取结果集的 meta 信息不匹配。
0x2357empty sql string填写正确的 SQL 进行执行。
0x2371consumer properties must not be null!创建订阅时参数为空,请填写正确的参数。
0x2375topic reference has been destroyed创建数据订阅过程中,topic 引用被释放。请检查与 TDengine 的连接情况。
0x2376failed to set consumer topic, topic name is empty创建数据订阅过程中,订阅 topic 名称为空。请检查指定的 topic 名称是否填写正确。
0x2377consumer reference has been destroyed订阅数据传输通道已经关闭,请检查与 TDengine 的连接情况。
0x2378consumer create error创建数据订阅失败,请根据错误信息检查 taos log 进行问题定位。
0x237avGroup not found in result set VGroup没有分配给当前 consumer,由于 Rebalance 机制导致 Consumer 与 VGroup 不是绑定的关系。

数据类型映射

TDengine 目前支持时间戳、数字、字符、布尔类型,与 Flink RowData Type 对应类型转换如下:

TDengine DataTypeFlink RowDataType
TIMESTAMPTimestampData
INTInteger
BIGINTLong
FLOATFloat
DOUBLEDouble
SMALLINTShort
TINYINTByte
BOOLBoolean
BINARYbyte[]
NCHARStringData
JSONStringData
VARBINARYbyte[]
GEOMETRYbyte[]

使用说明

Flink 语义选择说明

采用 At-Least-Once(至少一次)语义原因:

  • TDengine 目前不支持事务,不能进行频繁的检查点操作和复杂的事务协调。
  • 由于 TDengine 采用时间戳作为主键,重复数据下游算子可以进行过滤操作,避免重复计算。
  • 采用 At-Least-Once(至少一次)确保达到较高的数据处理的性能和较低的数据延时,设置方式如下:

使用方式:

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.enableCheckpointing(5000);
env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.AT_LEAST_ONCE);

如果使用 Maven 管理项目,只需在 pom.xml 中加入以下依赖。

<dependency><groupId>com.taosdata.flink</groupId><artifactId>flink-connector-tdengine</artifactId><version>2.0.1</version>
</dependency>

连接参数

建立连接的参数有 URL 和 Properties。
URL 规范格式为:
jdbc:TAOS-WS://[host_name]:[port]/[database_name]?[user={user}|&password={password}|&timezone={timezone}]

参数说明:

  • user:登录 TDengine 用户名,默认值 ‘root’。
  • password:用户登录密码,默认值 ‘taosdata’。
  • database_name: 数据库名称。
  • timezone: 时区设置。
  • httpConnectTimeout: 连接超时时间,单位 ms, 默认值为 60000。
  • messageWaitTimeout: 消息超时时间,单位 ms, 默认值为 60000。
  • useSSL: 连接中是否使用 SSL。

Source

Source 拉取 TDengine 数据库中的数据,并将获取到的数据转换为 Flink 内部可处理的格式和类型,并以并行的方式进行读取和分发,为后续的数据处理提供高效的输入。
通过设置数据源的并行度,实现多个线程并行地从数据源中读取数据,提高数据读取的效率和吞吐量,充分利用集群资源进行大规模数据处理能力。

Properties 中配置参数如下:

  • TDengineConfigParams.PROPERTY_KEY_USER:登录 TDengine 用户名,默认值 ‘root’。
  • TDengineConfigParams.PROPERTY_KEY_PASSWORD:用户登录密码,默认值 ‘taosdata’。
  • TDengineConfigParams.VALUE_DESERIALIZER:下游算子接收结果集反序列化方法, 如果接收结果集类型是 FlinkRowData,仅需要设置为 RowData即可。也可继承 TDengineRecordDeserialization 并实现 convertgetProducedType 方法,根据 SQLResultSet 自定义反序列化方式。
  • TDengineConfigParams.TD_BATCH_MODE:此参数用于批量将数据推送给下游算子,如果设置为 True,创建 TDengineSource 对象时需要指定数据类型为 SourceRecords 类型的泛型形式。
  • TDengineConfigParams.PROPERTY_KEY_MESSAGE_WAIT_TIMEOUT: 消息超时时间, 单位 ms, 默认值为 60000。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_COMPRESSION: 传输过程是否启用压缩。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_AUTO_RECONNECT: 是否启用自动重连。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_INTERVAL_MS: 自动重连重试间隔,单位毫秒,默认值 2000。仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_RETRY_COUNT: 自动重连重试次数,默认值 3,仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineConfigParams.PROPERTY_KEY_DISABLE_SSL_CERT_VALIDATION: 关闭 SSL 证书验证 。true: 启用,false: 不启用。默认为 false。
按时间分片

用户可以对查询的 SQL 按照时间拆分为多个子任务,输入:开始时间,结束时间,拆分间隔,时间字段名称,系统会按照设置的间隔(时间左闭右开)进行拆分并行获取数据。

{{#include docs/examples/flink/Main.java:time_interval}}
按超级表 TAG 分片

用户可以按照超级表的 TAG 字段将查询的 SQL 拆分为多个查询条件,系统会以一个查询条件对应一个子任务的方式对其进行拆分,进而并行获取数据。

{{#include docs/examples/flink/Main.java:tag_split}}
按表名分片

支持输入多个相同表结构的超级表或普通表进行分片,系统会按照一个表一个任务的方式进行拆分,进而并行获取数据。

{{#include docs/examples/flink/Main.java:table_split}}
使用 Source 连接器

查询结果为 RowData 数据类型示例:

RowData Source ```java {{#include docs/examples/flink/Main.java:source_test}} ```

批量查询结果示例:

Batch Source ```java {{#include docs/examples/flink/Main.java:source_batch_test}} ```

查询结果为自定义数据类型示例:

Custom Type Source ```java {{#include docs/examples/flink/Main.java:source_custom_type_test}} ```
  • ResultBean 自定义的一个内部类,用于定义 Source 查询结果的数据类型。
  • ResultSoureDeserialization 是自定义的一个内部类,通过继承 TDengineRecordDeserialization 并实现 convertgetProducedType 方法。

CDC 数据订阅

Flink CDC 主要用于提供数据订阅功能,能实时监控 TDengine 数据库的数据变化,并将这些变更以数据流形式传输到 Flink 中进行处理,同时确保数据的一致性和完整性。

Properties 中配置参数如下:

  • TDengineCdcParams.BOOTSTRAP_SERVERS:TDengine 服务端所在的ip:port,如果使用 WebSocket 连接,则为 taosAdapter 所在的ip:port
  • TDengineCdcParams.CONNECT_USER:登录 TDengine 用户名,默认值 ‘root’。
  • TDengineCdcParams.CONNECT_PASS:用户登录密码,默认值 ‘taosdata’。
  • TDengineCdcParams.POLL_INTERVAL_MS:拉取数据间隔, 默认 500ms。
  • TDengineCdcParams.VALUE_DESERIALIZER:结果集反序列化方法,如果接收结果集类型是 FlinkRowData,仅需要设置为 RowData即可。可以继承 com.taosdata.jdbc.tmq.ReferenceDeserializer,并指定结果集 bean,实现反序列化。
  • TDengineCdcParams.TMQ_BATCH_MODE:此参数用于批量将数据推送给下游算子,如果设置为 True,创建 TDengineCdcSource 对象时需要指定数据类型为 ConsumerRecords 类型的泛型形式。
  • TDengineCdcParams.GROUP_ID:消费组 ID,同一消费组共享消费进度。最大长度:192。
  • TDengineCdcParams.AUTO_OFFSET_RESET: 消费组订阅的初始位置 ( earliest 从头开始订阅, latest 仅从最新数据开始订阅, 默认 latest)。
  • TDengineCdcParams.ENABLE_AUTO_COMMIT:是否启用消费位点自动提交,true: 自动提交;false:依赖 checkpoint 时间来提交, 默认 false。

注意:自动提交模式reader获取完成数据后自动提交,不管下游算子是否正确的处理了数据,存在数据丢失的风险,主要用于为了追求高效的无状态算子场景或是数据一致性要求不高的场景。

  • TDengineCdcParams.AUTO_COMMIT_INTERVAL_MS:消费记录自动提交消费位点时间间隔,单位为毫秒。默认值为 5000, 此参数在 ENABLE_AUTO_COMMIT 为 true 生效。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_COMPRESSION:传输过程是否启用压缩。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_AUTO_RECONNECT:是否启用自动重连。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_INTERVAL_MS:自动重连重试间隔,单位毫秒,默认值 2000。仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_RETRY_COUNT:自动重连重试次数,默认值 3,仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineCdcParams.TMQ_SESSION_TIMEOUT_MS:consumer 心跳丢失后超时时间,超时后会触发 rebalance 逻辑,成功后该 consumer 会被删除(从3.3.3.0版本开始支持), 默认值为 12000,取值范围 [6000, 1800000]。
  • TDengineCdcParams.TMQ_MAX_POLL_INTERVAL_MS:consumer poll 拉取数据间隔的最长时间,超过该时间,会认为该 consumer 离线,触发 rebalance 逻辑,成功后该 consumer 会被删除。 默认值为 300000,[1000,INT32_MAX]。
使用 CDC 连接器

CDC 连接器会根据用户设置的并行度进行创建 consumer,因此用户根据资源情况合理设置并行度。

订阅结果为 RowData 数据类型示例:

CDC Source ```java {{#include docs/examples/flink/Main.java:cdc_source}} ```

将订阅结果批量下发到算子的示例:

CDC Batch Source ```java {{#include docs/examples/flink/Main.java:cdc_batch_source}} ```

订阅结果为自定义数据类型示例:

CDC Custom Type ```java {{#include docs/examples/flink/Main.java:cdc_custom_type_test}} ```
  • ResultBean 是自定义的一个内部类,其字段名和数据类型与列的名称和数据类型一一对应,这样根据 TDengineCdcParams.VALUE_DESERIALIZER 属性对应的反序列化类可以反序列化出 ResultBean 类型的对象。

Sink

Sink 的核心功能在于高效且精准地将经过 Flink 处理的、源自不同数据源或算子的数据写入 TDengine。在这一过程中,TDengine 所具备的高效写入机制发挥了至关重要的作用,有力保障了数据的快速和稳定存储。

Properties 中配置参数如下:

  • TDengineConfigParams.PROPERTY_KEY_USER:登录 TDengine 用户名,默认值 ‘root’。
  • TDengineConfigParams.PROPERTY_KEY_PASSWORD:用户登录密码,默认值 ‘taosdata’。
  • TDengineConfigParams.PROPERTY_KEY_DBNAME:写入的数据库名称。
  • TDengineConfigParams.TD_SUPERTABLE_NAME:写入的超级表名称。接收的数据必须有 tbname 字段,确定写入那张子表。
  • TDengineConfigParams.TD_TABLE_NAME:写入子表或普通表的表名,此参数和TD_SUPERTABLE_NAME 仅需要设置一个即可。
  • TDengineConfigParams.VALUE_DESERIALIZER:接收结果集反序列化方法, 如果接收结果集类型是 FlinkRowData,仅需要设置为 RowData即可。也可继承 TDengineSinkRecordSerializer 并实现 serialize 方法,根据 接收的数据类型自定义反序列化方式。
  • TDengineConfigParams.TD_BATCH_SIZE:设置一次写入 TDengine 数据库的批大小 | 当到达批的数量后进行写入,或是一个checkpoint的时间也会触发写入数据库。
  • TDengineConfigParams.TD_BATCH_MODE:接收批量数据当设置为 True 时,如果数据来源是 TDengine Source,则使用 SourceRecords 泛型类型来创建 TDengineSink 对象;若来源是 TDengine CDC,则使用 ConsumerRecords 泛型来创建 TDengineSink 对象。
  • TDengineConfigParams.TD_SOURCE_TYPE:设置数据来源。 当数据来源是 TDengine Source 是设置为 ‘tdengine_source’, 当来源是 TDengine CDC 设置为 ‘tdengine_cdc’。当配置 TD_BATCH_MODE 为 True 生效。
  • TDengineConfigParams.PROPERTY_KEY_MESSAGE_WAIT_TIMEOUT: 消息超时时间, 单位 ms, 默认值为 60000。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_COMPRESSION: 传输过程是否启用压缩。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_ENABLE_AUTO_RECONNECT: 是否启用自动重连。true: 启用,false: 不启用。默认为 false。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_INTERVAL_MS: 自动重连重试间隔,单位毫秒,默认值 2000。仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineConfigParams.PROPERTY_KEY_RECONNECT_RETRY_COUNT: 自动重连重试次数,默认值 3,仅在 PROPERTY_KEY_ENABLE_AUTO_RECONNECT 为 true 时生效。
  • TDengineConfigParams.PROPERTY_KEY_DISABLE_SSL_CERT_VALIDATION: 关闭 SSL 证书验证 。true: 启用,false: 不启用。默认为 false。

使用示例:

将 power 库的 meters 表的子表数据,写入 power_sink 库的 sink_meters 超级表对应的子表中。

Sink RowData ```java {{#include docs/examples/flink/Main.java:RowDataToSink}} ```

使用示例:

订阅 power 库的 meters 超级表的子表数据,写入 power_sink 库的 sink_meters 超级表对应的子表中。

Cdc Sink ```java {{#include docs/examples/flink/Main.java:CdcRowDataToSink}} ```

Table SQL

使用 Table SQL 的方式从多个不同的数据源数据库(如 TDengine、MySQL、Oracle 等)中提取数据后, 再进行自定义的算子操作(如数据清洗、格式转换、关联不同表的数据等),然后将处理后的结果加载到目标数据源(如 TDengine、Mysql 等)中。

Table Source 连接器

参数配置说明:

参数名称类型参数说明
connectorstring连接器标识,设置 tdengine-connector
td.jdbc.urlstring连接的 url 。
td.jdbc.modestrng连接器类型, 设置 source, sink
table.namestring原表或目标表名称。
scan.querystring获取数据的 SQL 语句。
sink.db.namestring目标数据库名称。
sink.supertable.namestring写入的超级表名称。
sink.batch.sizeinteger写入的批大小。
sink.table.namestring写入的普通表或子表名称。

使用示例:

将 power 库的 meters 表的子表数据,写入 power_sink 库的 sink_meters 超级表对应的子表中。

Table Source ```java {{#include docs/examples/flink/Main.java:source_table}} ```
Table CDC 连接器

参数配置说明:

参数名称类型参数说明
connectorstring连接器标识,设置 tdengine-connector
userstring用户名, 默认 root。
passwordstring密码, 默认taosdata。
bootstrap.serversstring服务器地址。
topicstring订阅主题。
td.jdbc.modestrng连接器类型, cdc, sink。
group.idstring消费组 ID,同一消费组共享消费进度。
auto.offset.resetstring消费组订阅的初始位置。
earliest: 从头开始订阅
latest: 仅从最新数据开始订阅。
默认 latest
poll.interval_msinteger拉取数据间隔, 默认 500ms。
sink.db.namestring目标数据库名称。
sink.supertable.namestring写入的超级表名称。
sink.batch.sizeinteger写入的批大小。
sink.table.namestring写入的普通表或子表名称。

使用示例:

订阅 power 库的 meters 超级表的子表数据,写入 power_sink 库的 sink_meters 超级表对应的子表中。

Table CDC ```java {{#include docs/examples/flink/Main.java:cdc_table}} ```

相关文章:

TDengine 做为 FLINK 数据源技术参考手册

Apache Flink 是一款由 Apache 软件基金会支持的开源分布式流批一体化处理框架&#xff0c;可用于流处理、批处理、复杂事件处理、实时数据仓库构建及为机器学习提供实时数据支持等诸多大数据处理场景。与此同时&#xff0c;Flink 拥有丰富的连接器与各类工具&#xff0c;可对接…...

21.2、网络设备安全机制与实现技术

目录 网络设备安全机制与实现技术 - 认证技术网络设备安全机制与实现技术 - 访问控制网络设备安全机制与实现技术 - 信息加密网络设备安全机制与实现技术 - 安全通信网络设备安全机制与实现技术 - 日志审计网络设备安全机制与实现技术 - 安全增强网络设备安全机制与实现技术 - …...

数据结构:二叉树—面试题(二)

1、二叉树的最近公共祖先 习题链接https://leetcode.cn/problems/lowest-common-ancestor-of-a-binary-tree/description/ 描述&#xff1a; 给定一个二叉树, 找到该树中两个指定节点的最近公共祖先。 百度百科中最近公共祖先的定义为&#xff1a;“对于有根树 T 的两个节点…...

OFD、PDF 电子签章系统处理流程

在C#中实现电子签章系统的处理流程&#xff0c;可以参考以下步骤和技术实现&#xff1a; 1. 电子签章系统的基本流程 电子签章系统的核心流程包括以下几个步骤&#xff1a; 密钥生成&#xff1a;生成公钥和私钥对&#xff0c;私钥由签章人保管&#xff0c;公钥用于验证签名。…...

分布式微服务系统简述

distributed microservice 分布式与微服务的定义及关系&#xff1b;分布式微服务架构里的各组件&#xff0c;如&#xff1a;配置中心、服务注册/发现、服务网关、负载均衡器、限流降级、断路器、服务调用、分布式事务等&#xff1b;spring cloud 介绍及实现案例&#xff0c;如…...

【Linux】列出所有连接的 WiFi 网络的密码

【Linux】列出所有连接的 WiFi 网络的密码 终端输入 sudo grep psk /etc/NetworkManager/system-connections/*会列出所有连接过 Wifi 的信息&#xff0c;格式类似 /etc/NetworkManager/system-connections/AAAAA.nmconnection:pskBBBBBAAAAA 是 SSID&#xff0c;BBBBB 是对…...

电脑无法开机,重装系统后没有驱动且驱动安装失败

电脑无法开机&#xff0c;重装系统后没有驱动且驱动安装失败 前几天电脑突然坏了&#xff0c;电脑卡住后&#xff0c;强制关机&#xff0c;再开机后开机马上就关机。尝试无数次开机后失败&#xff0c;进入BIOS界面&#xff0c;发现已经没有Windows系统了。重新安装系统后&…...

基于SpringBoot格式化实体的时间类型以及静态注入依赖

一. 场景描述 在进行前后端交互时&#xff0c;发现实体的LocalDateTime返回的格式是这样的&#xff1a; 这不符合我们日常习惯的格式 “年-月-日 时:分:秒”&#xff0c;于是上网学习了前辈 励碼的文章SSM项目中LocalDateTime格式化最佳实践_localdatetime 格式化-CSDN博客解决…...

技术总结:FPGA基于GTX+RIFFA架构实现多功能SDI视频转PCIE采集卡设计方案

目录 1、前言工程概述免责声明 3、详细设计方案设计框图SDI 输入设备Gv8601a 均衡器GTX 解串与串化SMPTE SD/HD/3G SDI IP核BT1120转RGBFDMA图像缓存RIFFA用户数据控制RIFFA架构详解Xilinx 7 Series Integrated Block for PCI ExpressRIFFA驱动及其安装QT上位机HDMI输出RGB转BT…...

Flink读写Kafka(Table API)

前面(Flink读写Kafka(DataStream API)_flink kafka scram-CSDN博客)我们已经讲解了使用DataStream API来读取Kafka,在这里继续讲解下使用Table API来读取Kafka,和前面一样也是引入相同的依赖即可。 <dependency> <groupId>org.apache.flink</groupId&…...

【Numpy核心编程攻略:Python数据处理、分析详解与科学计算】1.2 ndarray解剖课:多维数组的底层实现

1.2 《ndarray解剖课&#xff1a;多维数组的底层实现》 内容介绍 NumPy 的 ndarray 是其核心数据结构&#xff0c;用于高效处理多维数组。在这篇文章中&#xff0c;我们将深入解析 ndarray 的底层实现&#xff0c;探讨其内存结构、维度、数据类型、步长等关键概念&#xff0c…...

冯诺依曼架构和哈佛架构的主要区别?

冯诺依曼架构&#xff08;Von Neumann Architecture&#xff09;和哈佛架构&#xff08;Harvard Architecture&#xff09;是两种计算机体系结构&#xff0c;它们在存储器组织、指令处理和数据存取等方面有明显的不同。以下是它们的主要区别&#xff1a; 1.存储器结构 冯诺依曼…...

Gurobi基础语法之字典

Python中的字典&#xff1a;dict 我们先来介绍一下Python语法中的 dict 类型, 字典中可以通过任意键值来对数据进行映射&#xff0c;任何无法修改的python对象都可以当作键值来使用&#xff0c;这些无法修改的Python对象包括&#xff1a;整数(比如&#xff1a;1)&#xff0c;浮…...

ceph新增节点,OSD设备,标签管理(二)

一、访问客户端集群方式 方式一: 使用cephadm shell交互式配置 [rootceph141 ~]# cephadm shell # 注意&#xff0c;此命令会启动一个新的容器&#xff0c;运行玩后会退出&#xff01; Inferring fsid c153209c-d8a0-11ef-a0ed-bdb84668ed01 Inferring config /var/lib/ce…...

利用metaGPT多智能体框架实现智能体-2

1.一些帮助理解的概念 智能体 在MetaGPT看来&#xff0c;可以将智能体想象成环境中的数字人&#xff0c;其中 智能体 大语言模型&#xff08;LLM&#xff09; 观察 思考 行动 记忆 这个公式概括了智能体的功能本质。为了理解每个组成部分&#xff0c;让我们将其与人类进…...

Hadoop 与 Spark:大数据处理的比较

&#x1f496; 欢迎来到我的博客&#xff01; 非常高兴能在这里与您相遇。在这里&#xff0c;您不仅能获得有趣的技术分享&#xff0c;还能感受到轻松愉快的氛围。无论您是编程新手&#xff0c;还是资深开发者&#xff0c;都能在这里找到属于您的知识宝藏&#xff0c;学习和成长…...

Django 日志配置实战指南

日志是 Django 项目中不可或缺的一部分,它帮助我们记录应用程序的运行状态、调试信息、错误信息等。通过合理配置日志,我们可以更好地监控和调试应用程序。本文将详细介绍如何在 Django 项目中实现日志文件分割、日志级别控制以及多环境日志配置,并结合最佳实践和代码示例,…...

传输层协议TCP与UDP:深入解析与对比

传输层协议TCP与UDP&#xff1a;深入解析与对比 目录 传输层协议TCP与UDP&#xff1a;深入解析与对比引言1. 传输层协议概述2. TCP协议详解2.1 TCP的特点2.2 TCP的三次握手与四次挥手三次握手四次挥手 2.3 TCP的流量控制与拥塞控制2.4 TCP的可靠性机制 3. UDP协议详解3.1 UDP的…...

doris:JSON导入数据

本文介绍如何在 Doris 中导入 JSON 格式的数据文件。Doris 支持导入标准 JSON 格式数据&#xff0c;通过配置相关参数&#xff0c;可以灵活地处理不同的 JSON 数据结构&#xff0c;并支持从 JSON 数据中抽取字段、处理嵌套结构等场景。 导入方式​ 以下导入方式支持 JSON 格式…...

Ubuntu18.04 搭建DHCP服务器

在Ubuntu系统中&#xff0c;DHCP&#xff08;动态主机配置协议&#xff09;服务通常由isc-dhcp-server软件包提供。要配置和使用DHCP服务&#xff0c;你可以按照以下步骤操作&#xff1a; 1. 安装DHCP服务器 首先&#xff0c;你需要安装isc-dhcp-server。打开终端并输入以下命…...

Spring Boot 邂逅Netty:构建高性能网络应用的奇妙之旅

一、引言 在当今数字化时代&#xff0c;构建高效、可靠的网络应用是开发者面临的重要挑战。Spring Boot 作为一款强大的 Java 开发框架&#xff0c;以其快速开发、简洁配置和丰富的生态支持&#xff0c;深受广大开发者喜爱。而 Netty 作为高性能、异步的网络通信框架&#xff…...

【云安全】云原生-Docker(五)容器逃逸之漏洞利用

漏洞利用逃逸 通过漏洞利用实现逃逸&#xff0c;主要分为以下两种方式&#xff1a; 1、操作系统层面的内核漏洞 这是利用宿主机操作系统内核中的安全漏洞&#xff0c;直接突破容器的隔离机制&#xff0c;获得宿主机的权限。 攻击原理&#xff1a;容器本质上是通过 Linux 的…...

九、CSS工程化方案

一、PostCSS介绍 二、PostCSS插件的使用 项目安装 - npm install postcss-cli 全局安装 - npm install postcss-cli -g postcss-cli地址&#xff1a;GitHub - postcss/postcss-cli: CLI for postcss postcss地址&#xff1a;GitHub - postcss/postcss: Transforming styles…...

gradle创建springboot单项目和多模块项目

文章目录 gradle创建springboot项目gradle多模块项目创建 gradle创建springboot项目 适用IDEA很简单&#xff0c;如下图 gradle多模块项目创建 首选创建父项目&#xff0c;然后删除无用内容至下图 选择父项目目录&#xff0c;右键选择模块&#xff0c;创建子项目&#xff08…...

Vue实现div滚动,并且支持top动态滚动

如果你知道距离目标 div 顶部的像素值&#xff0c;并希望通过传入 top 参数来实现滚动到对应区域&#xff0c;可以使用 window.scrollTo 方法。 编写滚动方法 const scrollToDiv (targetDiv, top) > {if (targetDiv) {top top * targetDiv.value.scrollHeight / data.he…...

Elasticsearch 中,分片(Shards)数量上限?副本的数量?

概念 ElasticSearch高可用集群架构实战 分片数量1 在 Elasticsearch 中&#xff0c;分片&#xff08;Shards&#xff09;是数据存储和索引的基本单位。创建分片时需要考虑多个因素&#xff0c;包括集群的配置、硬件资源&#xff08;如磁盘空间、内存等&#xff09;以及性能要…...

Unity入门1

安装之后无法获得许可证&#xff0c;可以考虑重装 新建项目 单击空白处生成脚本 双击c#文件 会自动打开vstudio 检查引用 如果没有引用&#xff0c;重开vstu&#xff0c;或者重新加载项目 hierarchy层级 scenes场景 assets资产 inspector督察 icon图标 资源链接&…...

网络模型简介:OSI七层模型与TCP/IP模型

计算机网络是现代信息社会的基石&#xff0c;而网络通信的基础在于理解网络模型。网络模型是对通信过程的抽象&#xff0c;它帮助我们理解数据从源到目的地的传输过程。常见的网络模型有 OSI 七层模型 和 TCP/IP 模型&#xff0c;这两种模型在理论和实践中都起着重要作用。 一、…...

软件测试压力太大了怎么办?

本文其实是知乎上针对一个问题的回答&#xff1a; 目前在做软件测试&#xff0c;主要负责的是手机端的项目测试&#xff0c;项目迭代很快&#xff0c;每次上线前验正式都会发现一些之前验测试包时候没有发现的问题&#xff0c;压力太大了&#xff0c;应该怎么调整 看过我之前其…...

微信小程序-点餐(美食屋)02开发实践

目录 概要 整体架构流程 &#xff08;一&#xff09;用户注册与登录 &#xff08;二&#xff09;菜品浏览与点餐 &#xff08;三&#xff09;订单管理 &#xff08;四&#xff09;后台管理 部分代码展示 1.index.wxml 2.list.wxml 3.checkout.wxml 4.detail.wxml 小结优点 概要…...