【数仓】flume常见配置总结,以及示例
相关文章
- 【数仓】基本概念、知识普及、核心技术
- 【数仓】数据分层概念以及相关逻辑
- 【数仓】Hadoop软件安装及使用(集群配置)
- 【数仓】Hadoop集群配置常用参数说明
- 【数仓】zookeeper软件安装及集群配置
- 【数仓】kafka软件安装及集群配置
- 【数仓】flume软件安装及配置
Flume常见配置说明
1. Source
Source是Flume体系中的第一个组件,负责从外部数据源接收数据,并将这些数据传递到Channel中。这些数据源可以是日志文件、网络端口、消息队列等。
1.1 Avro Source
type
: 指定Source的类型为avro
。Avro是一个数据序列化系统,Avro Source允许Flume接收通过Avro协议发送的数据。bind
: 指定监听的IP地址。Flume将在这个IP地址上监听传入的数据。port
: 指定监听的端口号。Flume将在这个端口上接收数据。
1.2 Exec Source
type
: 指定Source类型为exec
。Exec Source允许Flume通过执行外部命令来接收数据。command
: 要执行的命令。这个命令的输出将被Flume捕获并传递到Channel中。例如,tail -F /var/log/syslog
命令会实时读取系统的日志文件。
1.3 Kafka Source
type
: 指定Source类型为org.apache.flume.source.kafka.KafkaSource
。Kafka是一个分布式消息队列,Kafka Source允许Flume从Kafka主题中消费数据。kafka.bootstrap.servers
: Kafka集群的地址列表。Flume将连接到这些服务器以消费数据。kafka.topics
: 要消费的主题列表。Flume将从这些主题中读取数据。
1.4 NetCat Source
type
: 指定Source类型为netcat
。NetCat Source允许Flume通过TCP/IP网络接收数据。bind
: 指定监听的IP地址。Flume将在这个IP地址上监听传入的数据。port
: 指定监听的端口号。Flume将在这个端口上接收数据。
1.5 TAILDIR Source
type
: 指定Source的类型为TAILDIR
。TAILDIR Source是Flume中用于实时监控文件变化并采集新增数据的组件,它更加可靠和高效,能够确保数据的零丢失。positionFile
: 指定用于存储文件偏移量的JSON文件的路径。这个文件记录了每个被监控文件的当前读取位置,以确保在Flume重启后能够继续从正确的位置读取数据,实现数据的连续性和完整性。filegroups
: 定义要监控的文件组。每个文件组可以包含多个文件路径和通配符模式,用于匹配需要采集的文件。这提供了灵活性,允许用户根据需求指定特定的文件或目录进行监控。files
: 在每个文件组内,指定具体的文件路径和通配符模式。可以使用正则表达式或简单的通配符来匹配文件名,从而精确地指定要采集的文件。channels
: 指定与该Source关联的Channel的名称。这是数据流向下游组件的桥梁,确保数据能够正确地传输到指定的Channel中。
2. Channel
Channel是Flume体系中的第二个组件,负责存储从Source接收到的数据,直到Sink准备好将其发送到目标位置。Channel保证了数据的可靠性和持久性。
2.1 Memory Channel
type
: 指定Channel类型为memory
。Memory Channel将数据存储在内存中,具有较快的读写速度。capacity
: 存储在Channel中的最大事件数。当达到这个容量时,新的数据将无法进入Channel,直到有数据被Sink消费。transactionCapacity
: 每次事务中可以从Channel中取出或放入的最大事件数。这影响了数据在Channel和Sink之间的传输速度。
2.2 File Channel
type
: 指定Channel类型为file
。File Channel将数据存储在磁盘上,保证了数据的持久性。dataDirs
: 用于存储事件数据的目录列表。数据将被分散存储在这些目录中,提高了数据的可靠性和可扩展性。checkpointDir
: 用于存储Channel状态检查点的目录。检查点记录了数据的读取和写入位置,确保在Flume重启后能够恢复状态。capacity
: 存储在Channel中的最大事件数。与Memory Channel类似,当达到这个容量时,新的数据将无法进入Channel。
2.3 Kafka Channel
type
: 指定Channel类型为org.apache.flume.channel.kafka.KafkaChannel
。Kafka Channel将数据存储在Kafka集群中,结合了Kafka的高可靠性和可扩展性。kafka.bootstrap.servers
: Kafka集群的地址列表。Flume将连接到这些服务器以存储和读取数据。kafka.topic
: 用于存储事件的Kafka主题。数据将被写入这个主题,并从这个主题中读取出来进行后续处理。parseAsFlumeEvent
: 是否将消息解析为Flume事件。如果设置为true,则消息将被解析为Flume事件格式进行存储和传输;如果设置为false,则消息将以原始格式存储。
3. Sink
Sink是Flume体系中的最后一个组件,负责从Channel中取出数据并将其发送到目标位置。这些目标位置可以是HDFS、Kafka、数据库等。
3.1 HDFS Sink
type
: 指定Sink类型为hdfs
。HDFS(Hadoop Distributed FileSystem)是一个分布式文件系统,HDFS Sink将数据写入到HDFS中进行存储和分析。hdfs.path
: HDFS上的目标路径。数据将被写入这个路径下的文件中。hdfs.fileType
: 文件类型指定了数据的存储格式,如DataStream
或SequenceFile
等。不同的格式有不同的存储方式和压缩选项。hdfs.writeFormat
: 写入格式指定了数据在文件中的排列方式,如Text
表示按行写入文本数据,Writable
表示使用Hadoop的Writable接口进行序列化后写入。hdfs.batchSize
: 每个批次写入HDFS的事件数。这影响了数据写入HDFS的速度和效率。较大的批次可以减少写入操作的次数,但也会增加内存消耗和延迟。
3.2 Kafka Sink
type
: 指定Sink类型为org.apache.flume.sink.kafka.KafkaSink
。Kafka Sink将数据发送到Kafka集群中进行存储和处理。Kafka的高吞吐量和可扩展性使其成为大数据处理中的常用组件。kafka.bootstrap.servers
: Kafka集群的地址列表。Flume将连接到这些服务器以发送数据。与Kafka Source中的配置类似,但方向相反(发送而不是接收)。kafka.topic
: 目标Kafka主题。数据将被写入这个主题中进行存储和处理。与Kafka Source中的配置类似,但方向相反(写入而不是读取)。batchSize
: 每个批次发送到Kafka的事件数。与HDFS Sink中的hdfs.batchSize
类似,这影响了数据发送到Kafka的速度和效率。较大的批次可以减少网络传输次数,提高吞吐量;但也会增加内存消耗和延迟。需要根据实际情况进行调整以获得最佳性能。
3.3 Logger Sink
type
: 指定Sink类型为logger
。Logger Sink将数据记录到日志文件中,通常用于调试和测试目的。它不会将数据发送到外部系统或存储中,而是将其打印到控制台或写入到日志文件中供开发人员查看和分析。maxEventSize
: 记录的最大事件大小(以字节为单位)。如果事件超过此大小,则将被截断以防止日志文件过大或控制台输出过多信息。这有助于控制日志的规模和可读性。在实际应用中,可以根据需要调整这个值以平衡日志的详细程度和存储成本。
二、配置示例
这些实例展示了如何配置Source、Channel和Sink来构建数据流的简单场景。
示例1:从日志文件采集数据到HDFS
这个示例展示了如何使用Exec Source
来监控一个日志文件,通过Memory Channel
传输数据,并最终将数据写入HDFS。
# Define the name of the agent
agent.sources = source1
agent.channels = channel1
agent.sinks = sink1# Configure the source
agent.sources.source1.type = exec
agent.sources.source1.command = tail -F /path/to/logfile.log# Configure the channel
agent.channels.channel1.type = memory
agent.channels.channel1.capacity = 10000# Configure the sink
agent.sinks.sink1.type = hdfs
agent.sinks.sink1.hdfs.path = hdfs://namenode:8020/flume/events/%Y-%m-%d/%H-%M-%S
agent.sinks.sink1.hdfs.fileType = DataStream
agent.sinks.sink1.hdfs.writeFormat = Text
agent.sinks.sink1.hdfs.batchSize = 1000
agent.sinks.sink1.hdfs.rollSize = 0
agent.sinks.sink1.hdfs.rollCount = 10000
agent.sinks.sink1.hdfs.rollInterval = 300# Bind the source and sink to the channel
agent.sources.source1.channels = channel1
agent.sinks.sink1.channel = channel1
示例2:从Kafka采集数据到另一个Kafka
这个示例展示了如何从Kafka的一个topic读取数据,通过Memory Channel
传输,然后写入到另一个Kafka的topic。
# Define the name of the agent
agent.sources = kafkaSource
agent.channels = memoryChannel
agent.sinks = kafkaSink# Configure the Kafka source
agent.sources.kafkaSource.type = org.apache.flume.source.kafka.KafkaSource
agent.sources.kafkaSource.kafka.bootstrap.servers = kafka-broker:9092
agent.sources.kafkaSource.kafka.topics = input-topic# Configure the memory channel
agent.channels.memoryChannel.type = memory
agent.channels.memoryChannel.capacity = 10000# Configure the Kafka sink
agent.sinks.kafkaSink.type = org.apache.flume.sink.kafka.KafkaSink
agent.sinks.kafkaSink.kafka.bootstrap.servers = kafka-broker:9092
agent.sinks.kafkaSink.kafka.topic = output-topic
agent.sinks.kafkaSink.batchSize = 20# Bind the source and sink to the channel
agent.sources.kafkaSource.channels = memoryChannel
agent.sinks.kafkaSink.channel = memoryChannel
示例3:从Avro Source接收数据并写入HBase
这个示例展示了如何使用Avro Source接收数据,通过File Channel
存储,并最终将数据写入HBase。
# Define the name of the agent
agent.sources = avroSource
agent.channels = fileChannel
agent.sinks = hbaseSink# Configure the Avro source
agent.sources.avroSource.type = avro
agent.sources.avroSource.bind = 0.0.0.0
agent.sources.avroSource.port = 10000# Configure the file channel
agent.channels.fileChannel.type = file
agent.channels.fileChannel.checkpointDir = /path/to/checkpoint/dir
agent.channels.fileChannel.dataDirs = /path/to/data/dir# Configure the HBase sink
agent.sinks.hbaseSink.type = hbase
agent.sinks.hbaseSink.table = my_table
agent.sinks.hbaseSink.columnFamily = my_column_family
agent.sinks.hbaseSink.serializer = org.apache.flume.sink.hbase.RegexHbaseEventSerializer
agent.sinks.hbaseSink.serializer.regex = ([^ ]*) ([^ ]*)
agent.sinks.hbaseSink.serializer.regexIgnoreOrder = false
agent.sinks.hbaseSink.serializer.colNames = key,value# Bind the source and sink to the channel
agent.sources.avroSource.channels = fileChannel
agent.sinks.hbaseSink.channel = fileChannel
请注意,以上配置示例仅供参考,并且可能需要根据您的实际环境(如服务器地址、端口号、路径、表名等)进行调整。另外,请确保您已经安装了所有必要的Flume插件,例如Kafka插件或HBase插件,以便使用相关的Source和Sink。
在配置文件中,agent
是Flume中定义的一个服务单元,它可以包含一个或多个source、channel和sink。sources
负责接收数据,channels
负责缓存数据,sinks
负责将数据发送到最终目的地。在配置文件中,你需要为每个组件指定一个唯一的名称,并使用这个名称将它们连接起来。
参考
- https://flume.apache.org/
相关文章:

【数仓】flume常见配置总结,以及示例
相关文章 【数仓】基本概念、知识普及、核心技术【数仓】数据分层概念以及相关逻辑【数仓】Hadoop软件安装及使用(集群配置)【数仓】Hadoop集群配置常用参数说明【数仓】zookeeper软件安装及集群配置【数仓】kafka软件安装及集群配置【数仓】flume软件安…...

统计信息锁定
在导入成功后我要收集下这些表的信息,结果发现好几张表都没法收集,用DBMS_STATS包显示ORA-20005:object statistics are locked (stattype ALL),用Analyze命令显示ORA-38029: 对象统计信息已锁定。 解决办法很明确&a…...

光猫改为bridge模式
注意事项: 改成桥接模式后,光猫将不再拨号上网,建议提前记录自己的宽带账号,打10010申请修改自己的宽带密码。 光猫改好桥接之后,把宽带账号和密码输入到负责拨号上网的终端设备中,完成宽带PPPOE拨号设置。…...

回溯算法01-组合(Java)
1.组合 题目描述 给定两个整数 n 和 k,返回范围 [1, n] 中所有可能的 k 个数的组合。 你可以按 任何顺序 返回答案。 示例 1: 输入:n 4, k 2 输出: [[2,4],[3,4],[2,3],[1,2],[1,3],[1,4]]示例 2: 输入&#x…...

初始网络 --- 网络基础
目录 0、 前言 1、 计算机网络发展背景 1.1. 局域网(LAN) && 广域网(WAN) 2、 认识并理解协议 3、 初始网络协议 3.1. 协议分层 4、 TCP/IP 五层(或四层)模型 4.1. 简单了解TCP/IP层状体系 4.2. TCP/IP协议层状结构和计算机层状结构的关系 5、 OSI七层模型 …...

在Linux/Ubuntu/Debian中计算MD5,SHA256的方法
MD5(消息摘要算法 5)和 SHA-256(安全哈希算法 256 位)等流行的哈希算法广泛用于从任意数据生成固定大小的哈希值或校验和。 以下是这些算法及其计算方式的简要概述: MD5(消息摘要算法5)&#x…...

mybatis mysql insert 主键id为空
错误示范 java代码设置了param参数,但是sql 字段没有带上参数,例如 void insertV2(Param("historyDO") HistoryDO historyDO); <insert id"insertDuplicate" parameterType"com.test.entity.HistoryDO"keyProperty&…...

批次大小对ES写入性能影响初探
问题背景 ES使用bulk写入时每批次的大小对性能有什么影响?设置每批次多大为好? 一般来说,在Elasticsearch中,使用bulk API进行批量写入时,每批次的大小对性能有着显著的影响。具体来说,当批量请求的大小增…...

c语言十大核心用法
当然,以下是十个关于 C 语言用法的代码示例: 指针的基本用法: #include <stdio.h>int main() {int num 10;int *ptr;ptr #printf("The value of num is: %d\n", *ptr);return 0; }结构体的使用: #in…...

网页打开慢,这锅该谁背?
一、背景 工作中扯皮说不可避免且非常常见的事情. 开发与产品、开发和测试、前端和后端都会产生扯皮现象。今天要聊的一个问题就是前后端之间的扯皮问题。 网页打开太慢或者点击了某个按钮发现数据很久才显示出来,这个锅谁背? 做开发不能无凭据地胡乱甩锅, 我们…...

题目 1538: 蓝桥杯-格子位置
题目描述: 输入三个自然数N,i,j (1< i< N,1< j< N),输出在一个N*N格的棋盘中,与格子(i,j)同行、同列、同一对角线的所有格子的位置。 样例解释…...

第十三届蓝桥杯嵌入式省赛程序设计详细题解
第十三届蓝桥杯嵌入式省赛题目相对于第十二届较为简单,没有那么多串口的数据处理以及判断! 第十三届省赛主要是制作一个可由串口设置密码的密码锁。本实验中,我们将用到LED模块、按键模块、串口模块、定时器的PWM模块以及官方会提供源码的LC…...

Go 语言指针
1. 什么是指针? 在 Go 语言中,指针是一种特殊的数据类型,它存储了一个变量的内存地址。指针提供了直接访问和修改变量值的能力。 2. 指针的基本操作 2.1 声明指针 在 Go 中声明指针需要使用 * 符号,例如: var p *…...

指针运算笔试题解析
题目1: int main() { int a[5] { 1, 2, 3, 4, 5 }; int* ptr (int*)(&a 1); printf("%d %d", *(a 1), *(ptr - 1)); return 0; } ptr中存放了整个数组的地址,ptr是int*类型,&a1跳到5的地址后又被强制类…...

Matlab梁单元有限元编程 | 铁木辛柯梁 | 欧拉梁 | Matlab源码 | 理论文本
专栏导读 作者简介:工学博士,高级工程师,专注于工业软件算法研究本文已收录于专栏:《有限元编程从入门到精通》本专栏旨在提供 1.以案例的形式讲解各类有限元问题的程序实现,并提供所有案例完整源码;2.单元…...

Tensorflow2.0笔记 - 常见激活函数sigmoid,tanh和relu
本笔记主要记录常见的三个激活函数sigmoid,tanh和relu,关于激活函数详细的描述,可以参考这里: 详解激活函数(Sigmoid/Tanh/ReLU/Leaky ReLu等) - 知乎 import tensorflow as tf import numpy as nptf.__ve…...

1688商品详情数据采集,工程数据采集丨店铺数据采集丨商品详情数据采集
1688是中国的一个大型B2B电子商务平台,主要用于批发和采购各种商品。对于需要从1688上获取商品详情数据、工程数据或店铺数据的用户来说,可以采用以下几种常见的方法: 官方API接口:如果1688提供了官方的API接口,那么可…...

Flutter(四):SingleChildScrollView、GridView
SingleChildScrollView、GridView 遇到的问题 以下代码会报错: class GridViewPage extends StatefulWidget {const GridViewPage({super.key});overrideState<GridViewPage> createState() > _GridViewPage(); }class _GridViewPage extends State<GridViewPage&g…...

【C++】102.二叉树的层序遍历
题目描述 给你二叉树的根节点 root ,返回其节点值的 层序遍历 。 (即逐层地,从左到右访问所有节点)。 示例1: 输入:root [3,9,20,null,null,15,7] 输出:[[3],[9,20],[15,7]]示例 2࿱…...

Java学习笔记006——子类与父类的类型转换
在Java中,类型转换主要涉及到两种类型:向上类型转换(Upcasting)和向下类型转换(Downcasting)。 1. 向上类型转换(Upcasting): 向上类型转换是将子类的对象转换为父类类…...

FedAsync Asynchronous Federated Optimization
文章目录 IntroductionMethodologyConvergence analysisExperiments Introduction 联邦学习有三个关键属性: 不频繁的任务激活。对于弱边缘设备,学习任务只在设备空闲、充电、连接非计量网络时执行.沟通不频繁。边缘设备和远程服务器之间的连接可能经常不可用、缓…...

学习基于 JavaScript 语言 的计算机界三大神书”之一 ——SICP
如何阅读“计算机界三大神书”之一 ——SICP 《计算机程序的构造和解释》(Structure and Interpretation of Computer Programs,简记为SICP)是MIT的基础课教材,出版后引起计算机教育界的广泛关注,对推动全世界大学计算…...

【RISC-V 指令集】RISC-V 向量V扩展指令集介绍(一)-向量扩展编程模型
1. 引言 以下是《riscv-v-spec-1.0.pdf》文档的关键内容: 这是一份关于向量扩展的详细技术文档,内容覆盖了向量指令集的多个关键方面,如向量寄存器状态映射、向量指令格式、向量加载和存储操作、向量内存对齐约束、向量内存一致性模型、向量…...

K8s 镜像缓存管理 kube-fledged 认知
写在前面 博文内容为K8s 镜像缓存管理 kube-fledged 认知内容涉及: kube-fledged 简单介绍部署以及基本使用 理解不足小伙伴帮忙指正 不必太纠结于当下,也不必太忧虑未来,当你经历过一些事情的时候,眼前的风景已经和从前不一样了。…...

ModbusTcp协议
Modbus TCP是一种通信协议,用于工业设备之间的通信。它是Modbus协议家族中的一个成员,最初是为串行通信设计的,但后来扩展到了TCP/IP网络。Modbus TCP/IP是一种公开的标准,由Modbus组织制定,并且被广泛应用于工业自动化…...

常用工具——Gradle
前言 实践是最好的学习方式,技术也如此。 文章目录 前言一、Gradle 简介二、文件结构详解 一、Gradle 简介 Gradle 文件是一个独立于 android 之外的一个东西; 是什么 gradle 就是编译、打包 Android 工程的一个构建工具;build.gradle 文件&…...

OpenHarmony教程指南—Navigation开发 页面切换场景范例
简介 在应用开发时,我们常常遇到,需要在应用内多页面跳转场景时中使用Navigation导航组件做统一的页面跳转管理,它提供了一系列属性方法来设置页面的标题栏、工具栏以及菜单栏的各种展示样式。除此之外还拥有动态加载,navPathSta…...

2024-简单点-picamera2除了文档还有哪里可以学习实例?
picamera2学习例子 去github的picamera2库,找app和examples目录,然后学习...

JavaScript实现点击鼠标弹钢琴的效果
思路: 图片设置宽900px,找到鼠标按下时的x坐标和img距离body的x坐标,两个值相减,然后除100取整,赋值给a,通过判断a的值来确定放出那个音乐。 完整代码: <!DOCTYPE html> <html lan…...

docker-compose Install rustdesk
RustDesk RustDesk 是一款开源的远程支持和远程桌面工具,它旨在为用户提供便捷的远程协助和远程访问功能。 默认情况下,hbbs 监听21115(tcp), 21116(tcp/udp), 21118(tcp),hbbr 监听21117(tcp), 21119(tcp)。务必在防火墙开启这几个端口, 请注意21116同时要开启TCP和UDP。…...