天天看点

kafka单机部署

kafka单机部署

kafka是一种高吞吐量的分布式发布订阅消息系统,kafka是linkedin用于日志处理的分布式消息队列,linkedin的日志数据容量大,但对可靠性要求不高,其日志数据主要包括用户行为

1、安装jdk并设置环境变量

jdk环境变量配置:

# source /etc/profile    使其生效

2、安装zookeeper

# vim conf/zoo.cfg

dataDir=/home/hadoop/storage/zookeeper    设置datadir

启动zookeeper:

# ./bin/zkServer.sh start

查看状zk态:

# ./bin/zkServer.sh status 

3、kafka 安装

修改配置文件:# vim config/producer.properties

启动kafka:

[root@localhost kafka_2.8.0-0.8.0]# ./bin/kafka-server-start.sh /usr/local/src/kafka_2.8.0-0.8.0/config/server.properties &

新建一个TOPIC

# ./kafka-topics.sh --create --topic kafkatopic --replication-factor 1 --partitions 1 --zookeeper localhost:2181

检查是否创建主题成功 

# ./kafka-list-topic.sh --zookeeper localhost:2181

topic: test partition: 0 leader: 0 replicas: 0 isr: 0

发送消息至KAFKA:

[root@localhost bin]# ./kafka-console-producer.sh --broker-list 192.168.1.141:9092 --sync --topic kafkatopic

This is the first message

这是另外一个消息

This is another news

另开一个终端,显示消息的消费

 [root@localhost bin]# ./kafka-console-consumer.sh --zookeeper 192.168.1.141:2181 --topic kafkatopic --from-beginning

*启动produce  

 ./bin/kafka-console-producer.sh --broker-list 10.10.224.12:9092  --topic test  

*启动consumer  

 ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic test  

 6.关闭kafka和zookeeper  

 ./kafka-server-stop.sh ../config/server.properties  

 ./zookeeper-server-stop.sh  

心得总结:  

1.produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口;  

2.必须先创建topic才能使用;  

3.topic本质是以文件的形式储存在zookeeper上的。