我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Flume+Kafka+Zookeeper搭建大数据日志采集框架

1.  JDK的安装

    参考jdk的安装,此处略。

创新互联建站是一家专业从事成都网站设计、网站制作、外贸营销网站建设、网页设计的品牌网络公司。如今是成都地区具影响力的网站设计公司,作为专业的成都网站建设公司,创新互联建站依托强大的技术实力、以及多年的网站运营经验,为您提供专业的成都网站建设、营销型网站建设及网站设计开发服务!

2.  安装Zookeeper

    参考我的Zookeeper安装教程中的“完全分布式”部分。

3.  安装Kafka

    参考我的Kafka安装教程中的“完全分布式搭建”部分。

4.  安装Flume

    参考我的Flume安装教程。

5.  配置Flume

5.1. 配置kafka-s.cfg

    $ cd /software/flume/conf/                   #切换到kafka的配置文件目录

    $ cp flume-conf.properties.template kafka-s.cfg   #将flume的配置文件模板复制为kafka-s.cfg

 

    kafka-s.cfg的详细内容如下:

    #配置flume agent的source、channel、sink

    a1.sources = r1

    a1.channels = c1

    a1.sinks=k1

    #配置source

    a1.sources.r1.type = exec

    a1.sources.r1.command=tail -F/tmp/logs/kafka.log

 

    #配置channel

    a1.channels.c1.type = memory

    a1.channels.c1.capacity = 1000

    a1.channels.c1.transactionCapacity = 100

    #配置sink

    a1.sinks.k1.channel = c1

    a1.sinks.k1.type =org.apache.flume.sink.kafka.KafkaSink

    #设置Kafka的Topic

    a1.sinks.k1.kafka.topic = mytest

    #设置Kafka的broker地址和端口号

    a1.sinks.k1.kafka.bootstrap.servers = s201:9092,s202:9092,s203:9092

    #配置批量提交的数量

    a1.sinks.k1.kafka.flumeBatchSize = 20

    a1.sinks.k1.kafka.producer.acks = 1

    a1.sinks.k1.kafka.producer.linger.ms = 1

    a1.sinks.ki.kafka.producer.compression.type= snappy

 

    #绑定source和sink到channel

    a1.sources.r1.channels = c1

    a1.sinks.k1.channel=c1

 

    关于上面配置文件中需要注意的3点:

    a、a1.sources.r1.command=tail-F /tmp/logs/kafka.log  

    b、a1.sinks.k1.kafka.bootstrap.servers= s201:9092,s202:9092,s203:9092

    c、a1.sinks.k1.topic= mytest

 

    由配置文件我们可以了解到:

    1)、我们需要在/tmp/logs下建一个kafka.log的文件,且向文件中输出内容(下面会说到);

    2)、flume连接到kafka的地址是 s201:9092,s202:9092,s203:9092,注意不要配置错误了;

    3)、flume会将采集后的内容输出到Kafkatopic 为mytest上,所以我们启动zk,kafka后需要打开一个终端消费topic mytest的内容,这样就可以看到flume与kafka之间玩起来了。

 

5.2. 创建/tmp/logs/kafka.log文件目录及文件

在/tmp/logs下建立空文件kafka.log;如果/tmp目录下没有logs目录,则需要先创建logs目录。

5.3. 创建生成日志数据shell脚本

在hadoop用户目录下创建kafkaoutput.sh脚本,并赋予执行权限,用来向/tmp/logs/kafka.log输出内容。

kafkaoutput.sh脚本的具体内容如下:

for((i=0;i<=1000;i++));

do echo"kafka_test-"+$i>>/tmp/logs/kafka.log;

done

5.4. 启动Zookeeper

    到zk安装的服务器上启动zk服务,命令如下:

    $ zkServer.sh start

5.5. 启动Kafka

    到部署kafka每台服务器上面启动kafka集群

    $ kafka-server-start.sh/software/kafka/config/server.properties &

5.6. 创建Kafka Topic

    $ kafka-topics.sh --create --zookeeper s201:2181--replication-factor 3 --partitions 3 --topic mytest

5.7. 启动消费Topic

    $ kafka-console-consumer.sh--bootstrap-server s201:9092,s202:9092,s203:9092 --zookeepers201:2181,s202:2181,s203:2181 --topic mytest --from-beginning

5.8. 启动Flume

    $ flume-ng agent --conf/software/flume/conf/ --conf-file kafka-s.cfg --name a1-Dflume.root.logger=INFO,console

5.9. 执行kafkaoutput.sh脚本生成日志数据

    $ ./kafkaoutput.sh

    查看日志文件内容如下:

Flume+Kafka+Zookeeper搭建大数据日志采集框架

在kafka中查看的消费信息:

Flume+Kafka+Zookeeper搭建大数据日志采集框架


网站题目:Flume+Kafka+Zookeeper搭建大数据日志采集框架
新闻来源:http://mswzjz.cn/article/jegecd.html

其他资讯