设为首页 加入收藏

TOP

Kafka 安装部署-单节点
2019-04-14 14:13:11 】 浏览:62
Tags:Kafka 安装 部署 节点
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/shenzhen_zsw/article/details/89282762

目录

Kafka 安装部署-单节点

Kafka 单节点部署

下载安装

配置ZK

配置zoo.cfg

配置环境变量

Zookeeper 启动停止命令

Kafka 单节点单Broker部署及使用

部署架构

安装Kafka

配置Kafka

配置server.properties

启动Kafka

启动Zookeeper

启动Kafka

后台启动

创建topic

查看所有的topic信息

启动生产者

启动消费者

测试

产者生产数据

消费者消费数据


Kafka 安装部署-单节点

Kafka强依赖ZK,如果想要使用Kafka,就必须安装ZK,Kafka中的消费偏置信息、kafka集群、topic信息会被存储在ZK中。有人可能会说我在使用Kafka的时候就没有安装ZK,那是因为Kafka内置了一个ZK,一般我们不使用它。

Kafka 单节点部署

下载安装

下载Zookeeper并解压到指定目录

ZooKeeper官网:http://zookeeper.apache.org/

[root@spark1 soft]# tar -zxvf zookeeper-3.4.5.tar.gz -C /application/

配置ZK

配置zoo.cfg

拷贝zoo_sample.cfg文件重命名为zoo.cfg,然后修改dataDir属性

[root@spark1 soft]# cd /application/zookeeper-3.4.5/conf/
[root@spark1 conf]# cat zoo.cfg
....
# 数据的存放目录
dataDir=/application/zookeeper-3.4.5/data

# 端口,默认就是2181
clientPort=2181
....
[root@spark1 conf]# 

配置环境变量

[root@spark1 ~]# cat /etc/profile
......
#ZooKeeper环境变量
export ZOOKEEPER_HOME=/application/zookeeper-3.4.5
export PATH=$PATH:$ZOOKEEPER_HOME/bin
......

Zookeeper 启动停止命令

$ zkServer.sh start
$ zkServer.sh stop

Kafka 单节点单Broker部署及使用

部署架构

安装Kafka

http://kafka.apache.org/downloads

tar -zxvf kafka_2.9.2-0.8.1.1.tgz -C /application/

#然后分别在各机器上创建软连
cd /application/
ln -s kafka_2.9.2-0.8.1.1 kafka

配置Kafka

配置server.properties

进入kafka的config目录下,有一个server.properties,添加如下配置

# broker的全局唯一编号,不能重复
broker.id=0
# 日志目录
log.dirs=/application/kafka/logs/kafka-logs
# 配置zookeeper的连接(如果不是本机,需要该为ip或主机名)
zookeeper.connect=localhost:2181

启动Kafka

启动Zookeeper

zkServer.sh start

启动Kafka

[root@spark1 application]# /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties

后台启动

nohup /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties &    

创建topic

[root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
Created topic "test".
[root@spark1 ~]# 

说明:
1)--zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样
2)--replication-factor:指定副本数量
3)--partitions:指定分区数量
4)--topic:主题名称

查看所有的topic信息

[root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --list --zookeeper localhost:2181
TestTopic
WordCount
test
[root@spark1 ~]# 

启动生产者

[root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

启动消费者

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

测试

产者生产数据

[root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
aa
bb
hello world
hello kafka   

消费者消费数据

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
aa
bb
hello world
hello kafka

说明:

1)--from-beginning参数如果有表示从最开始消费数据,旧的和新的数据都会被消费,而没有该参数表示只会消费新产生的数据;

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇Error while fetching metadata w.. 下一篇Mac上使用homebrew安装kafka以及..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目