易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 404|回复: 2
收起左侧

Kafka单机模式和集群模式环境搭建

[复制链接]
发表于 2022-12-30 09:02:58 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
单节点服务
" W1 }5 X" \- k# M/ k: Y1、下载解压:
, \3 [2 I; m6 P( Chttp://mirrors.tuna.tsinghua.edu ... afka_2.11-2.2.1.tgz
# `+ U. a& u- Q
3 e) U. c/ V8 G2、启动服务9 ^: H  @/ v7 }
需要先启动ZooKeeper服务
1 v+ z, m6 u3 _! k# p( @
& H, a8 e  l' G& M) _; }9 E1 `$ zkServer.sh start
" m. L, G/ s% I  a; m) t4 {9 e6 A! P5 o2 }0 b
# 如果没有,可以使用单节点的ZooKeeper6 L& c$ t2 O( q) |. y( Y$ t+ B
$ bin/zookeeper-server-start.sh config/zookeeper.properties' S4 I/ [: |+ X. _' q
8 Q# X" I$ P8 g' @5 t) ~! W
启动Kafka# v3 g2 A& m. V0 f9 p1 B, y
& d. s& }+ l  e2 Z3 H% C
> bin/kafka-server-start.sh config/server.properties
% O1 G; i) f* T5 x1 U9 e2 [
' s6 l0 g' z! x/ E" ~3、创建话题
- m+ o' \' G  U- i2 R2 ~  {( O/ A* u3 U2 |0 q  d8 ~, Z$ F( M
$ bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test2 ^2 ^2 I5 O; v% j
) H- u- c5 O; q$ s
# 查看话题
2 a% [  r1 {, F$ bin/kafka-topics.sh --list --bootstrap-server localhost:90925 y: M2 q9 p9 B& O3 W3 Z
( u5 g$ |; S$ A" l# J% T0 }

2 ?1 s6 E: H# P+ v: S4、发送消息1 _9 @0 p, A3 \) f# R
. M3 @/ N# v3 x5 [
$ bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
( O* N) K, L- d* W9 c. ?This is a message9 o. Z) A+ l& y4 h8 u: t: ?
This is another message$ q& ^: e( }7 P1 k9 Y5 ]: G
, Z! _0 j3 T$ [
5、接收消息
5 E+ d2 }7 o( [; w, G
5 i' N3 O8 L9 I6 Z$ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
: @" c- Y' b* j6 N9 MThis is a message: t, T9 w+ r4 @/ C6 R7 |& |  r* p/ `
This is another message6 p- p2 e  K6 b4 S0 v' E
$ l/ c" G- L4 E2 D# X
多节点服务- d- M* X  ~, |3 D* q6 l' I" d
1、修改配置) b. ~+ M! o, E: t+ P) i# r
broker.id 在集群中需要唯一
# d9 c: {+ o' R, K0 w3 c
6 a* S/ K" Y8 C1 N/ }( Q$ cp config/server.properties config/server-1.properties
) B; k1 D+ b( p* p4 b2 z$ cp config/server.properties config/server-2.properties8 `2 p/ Q' i) v
# A3 m7 E. v/ p2 s1 I
$ cat config/server-1.properties:
1 C% M* w2 R* V. t! ~broker.id=1
1 d4 G  G6 j' _3 U/ d( _listeners=PLAINTEXT://:9093
" u8 S4 x$ @, d6 }% w+ Z: nlog.dirs=/tmp/kafka-logs-1
5 {" K6 c, v9 ]  n* R% _$ B4 Z6 l5 |* y4 k, B7 ~
$ config/server-2.properties:
. r6 y4 L5 R3 \  F0 Q- `$ mbroker.id=27 R) ?2 p  D* n& X8 c5 e
listeners=PLAINTEXT://:9094) i0 J- A  m1 f& j. }2 K
log.dirs=/tmp/kafka-logs-2
& x1 b: C7 r+ \; k6 X% T/ O
6 m" t' R; ]$ c8 u2、创建话题
" q$ j7 v! x' |: o' X; ?" ~; Z  ]6 m* Z4 R1 v
> bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 3 --partitions 1 --topic my-replicated-topic) t8 Q0 G4 p2 ^7 g5 l0 L
" r) m' I1 E( P* g+ [9 ]/ {
# 查看话题描述
0 V) q+ R/ R$ S8 d' d. D> bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic test
1 t+ w% [* L) t  z! w2 b. b& w
) B% P/ H4 v" f$ B8 z4 G> bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic my-replicated-topic
4 A6 i. k7 U7 J1 d2 {7 v# d  P1 e: R1 I% j% j
3、查看进程,一共有6个(我的天), _/ F* A+ p( \
# o% {/ L% y: U& f" \
登录后复制
/ z4 B" ^% Y3 ~/ k$ jps$ k1 |% v, b% K2 J+ N
72513 Kafka             # 3个Kafka组成集群2 X* a) n) E6 h1 p" a& a$ V
72816 Kafka$ e% A0 x  f% g' D/ I/ `
73081 Kafka
# `( R2 `) R! O4 o: N73872 Jps
; J" \* q, W) ~' w73347 ConsoleProducer   # 生产者' g' y# }2 m% x8 b: \; {3 m' ?" T
73609 ConsoleConsumer   # 消费者
# d+ \$ }2 j+ n3 |  P% W35198
: m: L& a, T# x* G% Y. D68590 QuorumPeerMain    # Zookeeper" c& P$ x( W* a2 b8 x0 |; o

; E: a4 P5 i+ M) O+ Y
5 y. H/ ?5 q% C5 P1 y
 楼主| 发表于 2022-12-30 09:04:33 | 显示全部楼层
2、启动服务& X6 ~9 @; U/ K4 |, P) Z
需要先启动ZooKeeper服务; b7 A9 V" Z' w1 \5 }- r, ?
$ zkServer.sh start8 z0 E1 |( {. \
# 如果没有,可以使用单节点的ZooKeeper
- R6 f3 D5 d! j5 S/ A- w4 M% R5 H$ bin/zookeeper-server-start.sh config/zookeeper.properties
1 S7 t% @, h, s启动Kafka' ~/ E+ C1 Q8 Z8 g
> bin/kafka-server-start.sh config/server.properties
1 G8 J7 T( @7 s. |, g3、创建话题
' k  o) J( a( p$ bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test, s" X* i2 D2 P7 M4 G1 t
# 查看话题0 c( S! [4 v& {" [; J% b, ?
$ bin/kafka-topics.sh --list --bootstrap-server localhost:9092
1 k  s0 ?+ X# @& P! o4、发送消息
7 n. ^  r* n1 Q) b$ bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test8 N. W7 C3 B% o" f  b! R2 |9 a7 ]
This is a message; p0 Z2 E1 |/ Y2 @
This is another message9 r( y) U  u0 r0 `- O1 P9 Q9 c
5、接收消息9 ^3 w4 ?3 F+ k/ G
$ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning6 Y0 Y/ I' L' n8 Y" {4 s# v# k
This is a message
" f  U# S/ p& d$ @! eThis is another message! \0 I( c$ G5 x7 ]9 [5 \
多节点服务/ `# ?. q* O# T* K5 {$ h" T
1、修改配置
% k# \  r2 z" I6 xbroker.id 在集群中需要唯一
- t. O. F1 d+ s$ cp config/server.properties config/server-1.properties
2 R; E( J1 d. t* S/ `0 `2 B4 B$ cp config/server.properties config/server-2.properties
4 ]  k; l. x5 v+ v$ cat config/server-1.properties:% ?: m: e# `2 i( F  O
broker.id=1. x7 |0 Q' ^& U' L6 u7 h
listeners=PLAINTEXT://:9093
0 p4 F# @  c; j/ x. `" Vlog.dirs=/tmp/kafka-logs-1; C' ?7 s+ L0 l: t' e* S
& H# d! a) b9 y8 e' b- Q( C
$ config/server-2.properties:. C, X3 d# s# c( I2 w
broker.id=2
4 A2 R% }$ b; Xlisteners=PLAINTEXT://:9094
% _) C' V( z3 N; vlog.dirs=/tmp/kafka-logs-2$ y3 I0 x+ ~7 y( r) G$ R9 O" @
2、创建话题7 Q9 S( @" k( V
> bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 3 --partitions 1 --topic my-replicated-topic( ^' J  t0 F+ L3 E
# 查看话题描述
4 \2 O2 V1 i; G> bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic test+ O; p8 |. y5 I+ _4 H
> bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic my-replicated-topic
$ L+ ^  l+ O  q3、查看进程,一共有6个(我的天)+ H9 V8 E9 g; r& y
$ jps$ W5 x% [, c( i# L
72513 Kafka             # 3个Kafka组成集群8 f, o% ~, J1 R, P
72816 Kafka% B' G; @, o3 |. `7 ^
73081 Kafka 0 E# G% U4 d" k+ w8 v
73872 Jps
- `/ C* \, [' [73347 ConsoleProducer   # 生产者
3 X% X) P4 [9 @0 ?73609 ConsoleConsumer   # 消费者
; `' C( m% G4 Z( `, u35198
  b5 A) }/ m; ~68590 QuorumPeerMain    # Zookeeper
 楼主| 发表于 2022-12-30 09:07:15 | 显示全部楼层
在了解完 Kafka 的基本概念之后,我们通过搭建 Kafka 集群来进一步深刻认识一下 Kafka。
/ _& {$ ^  Z% w; k+ ~( T" g. S/ ]3 T/ S% M6 L0 y% V8 ^
确保安装环境
' |. D, G/ l9 O- {( N: @安装 Java 环境
, y% {/ D3 }- B. k& D9 _' R在安装 Kafka 之前,先确保Linux 环境上是否有 Java 环境,使用 java -version 命令查看 Java 版本,推荐使用Jdk 1.8 ,如果没有安装 Java 环境的话,可以按照这篇文章进行安装(https://www.cnblogs.com/zs-notes/p/8535275.html
' Q# [+ e% l+ L$ t
- k1 J9 U6 A: C$ i. N安装 Zookeeper 环境
6 L; J$ E: o! LKafka 的底层使用 Zookeeper 储存元数据,确保一致性,所以安装 Kafka 前需要先安装 Zookeeper,Kafka 的发行版自带了 Zookeeper ,可以直接使用脚本来启动,不过安装一个 Zookeeper 也不费劲! F6 W( |1 I( ]7 Q( V
, m1 g. L! i  b# ^1 v& N" o
Zookeeper 单机搭建9 R# {7 F; {* m+ [. S
Zookeeper 单机搭建比较简单,直接从 https://www.apache.org/dyn/closer.cgi/zookeeper/ 官网下载一个稳定版本的 Zookeeper ,这里我使用的是 3.4.10,下载完成后,在 Linux 系统中的 /usr/local 目录下创建 zookeeper 文件夹,使用xftp 工具(xftp 和 xshell 工具都可以在官网 https://www.netsarang.com/zh/xshell/ 申请免费的家庭版)把下载好的 zookeeper 压缩包放到 /usr/local/zookeeper 目录下。( i9 G; j3 W9 L) M6 V' G5 |
0 o/ V/ Y! J2 h: [3 n
如果下载的是一个 tar.gz 包的话,直接使用 tar -zxvf zookeeper-3.4.10.tar.gz解压即可3 N! H0 ]* L1 S; G
" t2 A$ g) n. s; [
如果下载的是 zip 包的话,还要检查一下 Linux 中是否有 unzip 工具,如果没有的话,使用 yum install unzip 安装 zip 解压工具,完成后使用 unzip zookeeper-3.4.10.zip 解压即可。
* b; I3 N8 Y8 o$ ^& q: R  R8 l
# D; m3 }, r! |+ d3 H- X解压完成后,cd 到 /usr/local/zookeeper/zookeeper-3.4.10 ,创建一个 data 文件夹,然后进入到 conf 文件夹下,使用 mv zoo_sample.cfg zoo.cfg 进行重命名操作
: j4 V- D7 M# W) w% ^4 J9 Y3 Y) W/ h8 H, D# X' ~
然后使用 vi 打开 zoo.cfg ,更改一下dataDir = /usr/local/zookeeper/zookeeper-3.4.10/data ,保存。
8 Y" T$ [' u0 }. K) K4 z/ }( K9 ]4 Y
进入bin目录,启动服务输入命令 ./zkServer.sh start 输出下面内容表示搭建成功. Z0 I& O6 O6 t/ T4 n" I9 H
1 j+ \; O- Q  v. A% w
关闭服务输入命令,./zkServer.sh stop4 p+ t8 Z7 @9 D
7 T9 H. }, n9 Z! G

1 R2 S) e9 e% z% D- `
; D9 [, B2 r3 r% ?使用 ./zkServer.sh status 可以查看状态信息。
! u3 l& N, Q. t6 X2 r# G
7 b0 g( Y, _6 ~# ]Zookeeper 集群搭建1 y9 l4 u& x' a' F% O; T
准备条件3 I1 v. u' F8 R
准备条件:需要三个服务器,这里我使用了CentOS7 并安装了三个虚拟机,并为各自的虚拟机分配了1GB的内存,在每个 /usr/local/ 下面新建 zookeeper 文件夹,把 zookeeper 的压缩包挪过来,解压,完成后会有 zookeeper-3.4.10 文件夹,进入到文件夹,新建两个文件夹,分别是 data 和 log 文件夹8 g0 n: y- B. w5 I. t' h5 {

5 `+ z5 u, a$ E注:上一节单机搭建中已经创建了一个data 文件夹,就不需要重新创建了,直接新建一个 log 文件夹,对另外两个新增的服务需要新建这两个文件夹。
, K- F0 u. c- z5 P
- z+ A0 ^1 n  V7 c7 \; G设置集群) `' _5 f% Z4 Y% ~# B. G
新建完成后,需要编辑 conf/zoo.cfg 文件,三个文件的内容如下
  x; D" P' I7 v3 j5 U( `5 y7 C0 n2 C" S9 ]  O2 y  I$ N. i; P
tickTime=2000
1 _5 B2 F" l' L$ g: cinitLimit=10: C8 @: b' g+ l* D  n7 ^
syncLimit=50 M( C  c+ F) f. i2 W: e
dataDir=/usr/local/zookeeper/zookeeper-3.4.10/data
2 g) l7 a  u) l* ~: {" sdataLogDir=/usr/local/zookeeper/zookeeper-3.4.10/log: A" c( V9 V- W& G5 K" O/ Q1 U
clientPort=12181
: G6 ]1 P* ~  @server.1=192.168.1.7:12888:13888
! M8 r0 L% @, M6 g, `server.2=192.168.1.8:12888:13888! h6 }8 ]% h. o: V) T* Q8 i
server.3=192.168.1.9:12888:13888
+ E: J+ `' \; V7 l1 C2 t' {! Sserver.1 中的这个 1 表示的是服务器的标识也可以是其他数字,表示这是第几号服务器,这个标识要和下面我们配置的 myid 的标识一致可以。4 o( Z( W7 w! V

5 H% c( S+ v/ V" u! h192.168.1.7:12888:13888 为集群中的 ip 地址,第一个端口表示的是 master 与 slave 之间的通信接口,默认是 2888,第二个端口是leader选举的端口,集群刚启动的时候选举或者leader挂掉之后进行新的选举的端口,默认是 38883 ~+ i- C8 b5 {* m. L

5 {+ {' h+ e/ K4 f/ W! o* |现在对上面的配置文件进行解释
  e6 Q$ |( n+ e7 }) |4 `7 v  S- K3 i3 ^( ]0 b9 ?
tickTime: 这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
% p! n: w: W- y6 X( Q2 Y5 w
0 u) C5 R+ m- _# t/ C# R7 {initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒
* }. h, c+ ]0 N0 g  p- P" z, p( h4 t. N5 e: `
syncLimit: 这个配置项标识 Leader 与Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是5*2000=10秒
7 P  M# [" k! y
9 D& K$ V& d, d  ~dataDir: 快照日志的存储路径
3 x. K; @0 F& r& d
5 N1 ~; u% J1 Q8 ?dataLogDir: 事务日志的存储路径,如果不配置这个那么事务日志会默认存储到dataDir指定的目录,这样会严重影响zk的性能,当zk吞吐量较大的时候,产生的事务日志、快照日志太多* b# }& l5 m2 m# K) Q. O

4 X1 k7 R" `' M% Z2 Z$ _3 @2 HclientPort: 这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。6 I8 Q) t: i9 t; o; I+ m1 b( q  x
' ~7 e$ o) p$ g( A' |
创建 myid 文件
5 x3 L  I7 b' }5 o' w* b在了解完其配置文件后,现在来创建每个集群节点的 myid ,我们上面说过,这个 myid 就是 server.1 的这个 1 ,类似的,需要为集群中的每个服务都指定标识,使用 echo 命令进行创建
5 w, l6 A+ b2 A3 E# @; |9 ]( s- U, w. X1 M/ R' ?0 s# P% z& G
# server.1" C4 T8 @& l, Q9 u: |
echo "1" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
; L1 r" B+ ^& J3 P- K9 z9 L- k3 i# server.2
# C7 e$ F- i0 yecho "2" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid8 U# b1 h: [$ `( a! m& ?
# server.3
  r: Q, n7 v. r9 Uecho "3" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
& B  Z2 s, f5 ]; {启动服务并测试2 [' c& P2 Q9 }/ M5 x! Y) `
配置完成,为每个 zk 服务启动并测试,我在 windows 电脑的测试结果如下
" u/ d- r) X/ b6 C' f' q0 O- @8 x
4 ]8 G2 X3 D" w- R  B! b3 x启动服务(每台都需要执行): G- E) ?$ A. y3 `! ^
; P" z1 p0 e: W0 q$ `
cd /usr/local/zookeeper/zookeeper-3.4.10/bin# u9 q' y# t; ]8 L1 R1 V
./zkServer.sh start
6 P0 n* L0 }* t# E检查服务状态
1 G, M6 D3 x7 ?5 F
" ~- R' r# T( {) i使用 ./zkServer.sh status 命令检查服务状态
7 u: O2 t. q3 z) L0 q6 n% i  e6 k: O/ v- ?
192.168.1.7 — follower6 A9 y, n( ^4 j' \; b

; y# |: s8 y/ A8 @4 ^4 [. @4 _7 v# G1 u: F! d* R% J0 X

& _0 O* v. }/ H192.168.1.8 — leader
2 b' F' s! ]4 M& m# k
- v8 g5 N% ^5 U3 ^  p/ y5 \  U6 o! t- n  k2 L' e

  C3 v% A5 X& J1 R" Q6 h! k3 Y192.168.1.9 — follower: `9 X* L1 @; ^

4 r0 m. Y9 M$ y* u1 v& T  q. [+ h7 S
- y; }8 ?' f# ^0 X$ }% O9 K5 T- s2 N6 S, z; A
zk集群一般只有一个leader,多个follower,主一般是相应客户端的读写请求,而从主同步数据,当主挂掉之后就会从follower里投票选举一个leader出来。- F. \" {/ z6 i2 W1 C/ j4 l0 D" @
. }2 }" {  K' d
Kafka 集群搭建# d+ E$ k5 [* }" M% `/ I3 F
准备条件
8 S( m8 u' Z, _- a$ [+ V/ v4 Z7 m* {搭建好的 Zookeeper 集群. |4 w$ G5 f+ g
Kafka 压缩包 (https://www.apache.org/dyn/close ... afka_2.12-2.3.0.tgz) Z; ~- e+ B& o* N
在 /usr/local 下新建 kafka 文件夹,然后把下载完成的 tar.gz 包移到 /usr/local/kafka 目录下,使用 tar -zxvf 压缩包 进行解压,解压完成后,进入到 kafka_2.12-2.3.0 目录下,新建 log 文件夹,进入到 config 目录下
/ _1 ^$ ?/ R" a7 z* F
2 F, L- {+ [- O. L我们可以看到有很多 properties 配置文件,这里主要关注 server.properties 这个文件即可。
, ~" I5 Y: G; K/ {$ m+ a0 H  R- l. ]5 g6 j
1 j$ X! G7 s& ?; ^' D/ |, p- l0 V

& o* l7 U4 D+ zkafka 启动方式有两种,一种是使用 kafka 自带的 zookeeper 配置文件来启动(可以按照官网来进行启动,并使用单个服务多个节点来模拟集群http://kafka.apache.org/quickstart#quickstart_multibroker),一种是通过使用独立的zk集群来启动,这里推荐使用第二种方式,使用 zk 集群来启动' S0 }2 s1 h' ?5 r+ M8 k; v; ~

1 r+ R# Z+ a; U( P3 y, c/ ^0 C- d修改配置项3 M1 k* V, o7 W8 f
需要为每个服务都修改一下配置项,也就是server.properties, 需要更新和添加的内容有' n9 c7 ^; |; S/ I9 S7 Z

4 g6 g; B0 l% z7 L" V% `3 B! `* [; Ubroker.id=0 //初始是0,每个 server 的broker.id 都应该设置为不一样的,就和 myid 一样 我的三个服务分别设置的是 1,2,3
, K. _' M+ x+ ^8 a$ ?' D1 N4 elog.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log
2 c2 f  s) A# {! K* n9 N  P
% h$ D) |0 N9 T- k9 p% f& G+ c#在log.retention.hours=168 下面新增下面三项
4 {7 M' p  V5 zmessage.max.byte=5242880
' M# \5 e' c/ W" t& y9 Fdefault.replication.factor=2, {; Y2 M  h  x. M
replica.fetch.max.bytes=5242880
9 O/ y5 g# a1 n/ x1 e) r
4 Z4 G" C: Y! x: w  U#设置zookeeper的连接端口
4 K/ ?$ ~5 p: z' l/ O; [zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181
, n0 k. {$ U2 ^0 ~; c6 k/ x配置项的含义+ x5 k4 T4 I" q7 g1 D# C
+ z2 F( v% K. r' G% }8 Z- F5 U
broker.id=0  #当前机器在集群中的唯一标识,和zookeeper的myid性质一样, k0 }& ^5 w( u
port=9092 #当前kafka对外提供服务的端口默认是9092; S4 k* g- @+ _$ O  O
host.name=192.168.1.7 #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。
$ r: G7 v$ n& i" ?/ ~num.network.threads=3 #这个是borker进行网络处理的线程数
5 U: \0 k$ g, j) @: p% ynum.io.threads=8 #这个是borker进行I/O处理的线程数
, @" K2 n. i( G, S: x4 ulog.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个
+ J) ^! e& s4 W6 Z$ x; xsocket.send.buffer.bytes=102400 #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能
) ~! r1 w  f5 j8 F1 {" `socket.receive.buffer.bytes=102400 #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘
3 h! m& S7 o' p& {socket.request.max.bytes=104857600 #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小
. ?% w7 }. @! Z) e4 ^/ Ynum.partitions=1 #默认的分区数,一个topic默认1个分区数
( l2 \2 G9 f3 tlog.retention.hours=168 #默认消息的最大持久化时间,168小时,7天
/ z5 o6 B6 s& O) f* L1 t- Hmessage.max.byte=5242880  #消息保存的最大值5M" L8 }* J% m" O* |- e
default.replication.factor=2  #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务) a4 x/ p2 X0 C0 I! X7 _
replica.fetch.max.bytes=5242880  #取消息的最大直接数
# ?( S% E& n( o) T# ilog.segment.bytes=1073741824 #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
5 E6 q" ]+ n- t" P1 ~+ Ulog.retention.check.interval.ms=300000 #每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除
4 h& f) x8 Q3 ~log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能
3 A: u9 s8 c5 l/ ?) a. D  ]zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181 #设置zookeeper的连接端口
; V+ \  o: H4 X6 n' O/ k启动 Kafka 集群并测试
* u5 o4 X0 u, d; ?& b% F  g启动服务,进入到 /usr/local/kafka/kafka_2.12-2.3.0/bin 目录下4 U) D9 `, X9 R( e- K! G! }$ B
# 启动后台进程
. f9 R4 N( I5 o& u4 z) e./kafka-server-start.sh -daemon ../config/server.properties( v# I, A$ \8 \& G1 i' f
检查服务是否启动
2 a7 n! k* I8 k, b( c# 执行命令 jps' z! S5 z- h/ F9 p* i/ A
6201 QuorumPeerMain% `. Z2 l- d: m; ?# T5 i
7035 Jps
& _, m3 k, N6 p- w; b6972 Kafka# ?* t) A( c# k( e
kafka 已经启动
, j# F9 d7 X7 m- k9 `/ _4 z4 X' ^创建 Topic 来验证是否创建成功
. n2 e, }5 U9 [: n* y$ u3 T# cd .. 往回退一层 到 /usr/local/kafka/kafka_2.12-2.3.0 目录下
& Z) ?; c) w9 g/ y6 ?! a/ x! Lbin/kafka-topics.sh --create --zookeeper 192.168.1.7:2181 --replication-factor 2 --partitions 1 --topic cxuan
; @- s; K0 y( c9 U$ K对上面的解释8 i7 L0 p5 u4 R: ^5 S" z

$ Z, ]2 t- b6 J0 e–replication-factor 2 复制两份# r" J2 j0 v& d1 W3 g- S

# u; S- L5 J% p0 q; D–partitions 1 创建1个分区
& r  ^! D) M1 r4 j7 n3 q2 D% q8 [
–topic 创建主题
- x9 p, b+ F  F
% C, W/ r7 Q$ c, x查看我们的主题是否出创建成功& v7 }3 a" }6 Z

" P4 F3 [3 o3 ?6 m" O: ^bin/kafka-topics.sh --list --zookeeper 192.168.1.7:2181
" A# ~4 i( k0 o# A  a" N- U
0 B1 `! l6 ^4 c# L4 \3 \4 B7 [4 }5 |
启动一个服务就能把集群启动起来% e5 p# B4 x! t( x( n
' B" h1 m5 d7 o
在一台机器上创建一个发布者+ J& q- H" r6 A$ f+ W

( x; ^* i$ ^- [6 d) D8 z# 创建一个broker,发布者
! l. ^8 |. F' f+ J/ t./kafka-console-producer.sh --broker-list 192.168.1.7:9092 --topic cxuantopic
9 s7 Z# w6 M/ |5 A3 k: J在一台服务器上创建一个订阅者% L+ d( x7 Q5 A  L) K: X% T

) N2 ~5 F9 p: ^5 f7 p8 }# 创建一个consumer, 消费者. {& E! P& L/ I3 s, h# e
bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning) Z) w4 i1 Y3 u/ @# W! [; K  J
注意:这里使用 –zookeeper 的话可能出现 zookeeper is not a recognized option 的错误,这是因为 kafka 版本太高,需要使用 --bootstrap-server 指令2 j1 N6 ^$ g8 g) G$ U4 Y

8 W, L/ L$ X! |测试结果
8 L" r5 r6 N% n. T9 U  ~8 x; l0 v# l1 U. o/ }0 Z& k
发布. ?$ ]7 W) w5 x- Y( H0 d3 T$ ~$ F

% E& m$ E! ?' P3 O' K4 R8 \1 L1 c" w+ }) d" o- M
: @9 W/ |0 S* N! m3 u) |  {
消费
3 K/ F  E3 P6 C# Q7 [
$ }# f9 o: {) w. B- J8 _
9 o+ g: C! }" c" O
# B' H/ y$ i8 G, [其他命令
8 T& f# U5 \  F% A显示 topic
4 P, Z; F* Y" D
! o) @+ M* e9 f, ], b! \bin/kafka-topics.sh --list --zookeeper 192.168.1.7:21811 k8 l0 m9 m% H7 k5 R' x

, H# U2 e6 ?( P* V& A. [( `) \# 显示
1 L) F! H! J1 a- gcxuantopic2 [/ y- f8 A5 y* D) h3 d
查看 topic 状态
' [2 o1 K. B( Z, x2 }. |, C- M4 ^2 Z
bin/kafka-topics.sh --describe --zookeeper 192.168.1.7:2181 --topic cxuantopic0 i/ p& g1 n4 u. _

. n" I- t: n: `# 下面是显示的详细信息
6 @" ]; _$ y. T: n' P- KTopic:cxuantopic PartitionCount:1 ReplicationFactor:2 Configs:% H, F% m/ u8 |! ]7 i7 x
Topic: cxuantopic Partition: 0 Leader: 1 Replicas: 1,2 Isr: 1,2. b, _; ^0 w6 G8 `/ N: o
9 u0 d1 U; ~+ O
# 分区为为1  复制因子为2   主题 cxuantopic 的分区为0 8 k  N. O/ ~2 i- f) I1 ~) j/ A
# Replicas: 0,1   复制的为1,2
9 p* q. h3 B& s/ c8 r. ?Leader 负责给定分区的所有读取和写入的节点,每个节点都会通过随机选择成为 leader。# ?& A1 m# C9 o3 i: Y* A
. X0 O7 ^1 q& i1 g0 S- j6 a
Replicas 是为该分区复制日志的节点列表,无论它们是 Leader 还是当前处于活动状态。
; ?/ i" c5 @' O; n
% \- Q) y% {! G4 D1 i2 bIsr 是同步副本的集合。它是副本列表的子集,当前仍处于活动状态并追随Leader。
; u. B6 [3 S/ |, O2 ?# z
6 `* m8 c! q! d+ a2 T% ~至此,kafka 集群搭建完毕。
& I1 Y9 b) q# e4 j2 \$ A' j0 `+ a" w2 a
验证多节点接收数据) t! K2 P: M  ^1 I( c
刚刚我们都使用的是 相同的ip 服务,下面使用其他集群中的节点,验证是否能够接受到服务
1 l$ X! a) ?0 r# |3 a8 t
0 g0 H! s1 z1 {在另外两个节点上使用1 S0 C# c4 K" p0 s( F
6 b& l4 ?9 \; C* l+ \& g( a! G
bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning
6 O# ]# J( B. e然后再使用 broker 进行消息发送,经测试三个节点都可以接受到消息。
) q2 N/ V3 c& Y
4 r7 f7 u( P  `6 r) w( [配置详解
- `5 m5 b4 }( j在搭建 Kafka 的时候我们简单介绍了一下 server.properties 中配置的含义,现在我们来详细介绍一下参数的配置和概念+ H# \- ^6 Z+ v) G6 Y- z
- Z7 `' _3 ~9 `' ^% t
常规配置2 T8 [2 w: V, U* M" S0 g0 Z4 |
这些参数是 kafka 中最基本的配置  d2 l' ]9 c! r. G; q5 {

9 c2 h% W' z( b. [# Y/ a: A0 S' Vbroker.id1 n1 ?9 @8 i) ]( r# o5 `
每个 broker 都需要有一个标识符,使用 broker.id 来表示。它的默认值是 0,它可以被设置成其他任意整数,在集群中需要保证每个节点的 broker.id 都是唯一的。- ]3 H  d9 m9 Q3 u

- ]- U2 V& S% }$ m& O4 M  H  s) s$ iport
, k/ i4 F$ [9 B: c" t/ \如果使用配置样本来启动 kafka ,它会监听 9092 端口,修改 port 配置参数可以把它设置成其他任意可用的端口。8 U& x) R  W( [$ {2 J3 ], Q

. M  J' o9 k' j& S/ I6 }7 D# G  j8 b8 _zookeeper.connect# ?% W8 c8 S3 v& l
用于保存 broker 元数据的地址是通过 zookeeper.connect 来指定。 localhost:2181 表示运行在本地 2181 端口。该配置参数是用逗号分隔的一组 hostname:port/path 列表,每一部分含义如下:
: \8 M6 B( w" Z$ B% H& q- r5 g3 E
hostname 是 zookeeper 服务器的服务名或 IP 地址* F8 L) Y4 ]/ l$ u; t. @" m% K! e9 y
4 ?; Y- o* l) @" o# ]  R: c
port 是 zookeeper 连接的端口
$ K. t: q! s" @0 B7 C4 {% R: k: `
( @  n  t6 `! F$ q3 z7 H; d* |/path 是可选的 zookeeper 路径,作为 Kafka 集群的 chroot 环境。如果不指定,默认使用跟路径
. _2 `1 u5 c2 U& Z/ i  N0 T6 c0 n5 p6 F. z; b3 _+ x- v
log.dirs
1 X  {# A6 a% t$ h/ C% F$ g$ yKafka 把消息都保存在磁盘上,存放这些日志片段的目录都是通过 log.dirs 来指定的。它是一组用逗号分隔的本地文件系统路径。如果指定了多个路径,那么 broker 会根据 “最少使用” 原则,把同一分区的日志片段保存到同一路径下。要注意,broker 会向拥有最少数目分区的路径新增分区,而不是向拥有最小磁盘空间的路径新增分区。# U8 h, ~7 p! |5 f. l: j) `
% Z0 t' i% |* E7 ^
num.recovery.threads.per.data.dir
# H6 z0 N: q, w: c! {对于如下 3 种情况,Kafka 会使用可配置的线程池来处理日志片段; J0 s  \& t5 D* T0 F
/ z% T9 X+ u8 I9 ~
服务器正常启动,用于打开每个分区的日志片段;
8 i! G) n& |6 \) ~) I4 m- j  p. V1 f  n$ f9 B* E! n, R
服务器崩溃后启动,用于检查和截断每个分区的日志片段;
& D6 _; J% Q+ j
( p! \  X/ a  I' i% C7 Y服务器正常关闭,用于关闭日志片段- j, P0 Q/ L. a+ c" T5 E& |
' K3 T) L- q" h1 \2 ^: R
默认情况下,每个日志目录只使用一个线程。因为这些线程只是在服务器启动和关闭时会用到,所以完全可以设置大量的线程来达到井行操作的目的。特别是对于包含大量分区的服务器来说,一旦发生崩愤,在进行恢复时使用井行操作可能会省下数小时的时间。设置此参数时需要注意,所配置的数字对应的是 log.dirs 指定的单个日志目录。也就是说,如果 num.recovery.threads.per.data.dir 被设为 8,并且 log.dir 指定了 3 个路径,那么总共需要 24 个线程。
0 J; E! n: c& \0 p
+ a: @* M; Q8 B; o6 V+ ]auto.create.topics.enable
6 G9 ^% [) e' w8 h默认情况下,Kafka 会在如下 3 种情况下创建主题
1 t1 i- ]7 O+ T, ?4 b" g( h+ A
8 e, M, n) x) C3 J! A& P当一个生产者开始往主题写入消息时
' g8 q+ F7 b( K9 J: B3 t% p$ ^! U& h; M) _* H: S
当一个消费者开始从主题读取消息时
( p& R% h2 C3 O/ d, v% F6 t( |; t# ^4 k( j6 ?
当任意一个客户向主题发送元数据请求时
( [: T$ U6 p0 b/ H. G# d$ m- U# H* a9 o% n
delete.topic.enable
. s- j' j$ B; l  M. c; U. G如果你想要删除一个主题,你可以使用主题管理工具。默认情况下,是不允许删除主题的,delete.topic.enable 的默认值是 false 因此你不能随意删除主题。这是对生产环境的合理性保护,但是在开发环境和测试环境,是可以允许你删除主题的,所以,如果你想要删除主题,需要把 delete.topic.enable 设为 true。
: S2 ]6 @; a4 a3 D1 @
7 U4 |! ^# ]3 @+ Y主题默认配置& O! D2 a) [+ [" t$ I0 c
Kafka 为新创建的主题提供了很多默认配置参数,下面就来一起认识一下这些参数
: B+ z! i# `5 A0 s; R
) C5 a: k9 i( D7 v9 v( u- Onum.partitions
; M5 L7 @; _% k; b! [- F% Anum.partitions 参数指定了新创建的主题需要包含多少个分区。如果启用了主题自动创建功能(该功能是默认启用的),主题分区的个数就是该参数指定的值。该参数的默认值是 1。要注意,我们可以增加主题分区的个数,但不能减少分区的个数。4 `( L* Q* q; v8 Q0 W) h
% d/ ?6 X: V* V( G
default.replication.factor
/ s3 P) _8 [/ h. S这个参数比较简单,它表示 kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务default.replication.factor 的默认值为1,这个参数在你启用了主题自动创建功能后有效。$ t6 l& H' L4 T

9 w4 V7 b% |: m+ b: A  w" ]5 zlog.retention.ms
8 o( |3 G. N( }- ]$ WKafka 通常根据时间来决定数据可以保留多久。默认使用 log.retention.hours 参数来配置时间,默认是 168 个小时,也就是一周。除此之外,还有两个参数 log.retention.minutes 和 log.retentiion.ms 。这三个参数作用是一样的,都是决定消息多久以后被删除,推荐使用 log.retention.ms。
8 W- r/ t6 ^( g3 b6 C) ^, L; E0 b. w* _+ i- U9 c* a
log.retention.bytes9 \. k: n" B8 q
另一种保留消息的方式是判断消息是否过期。它的值通过参数 log.retention.bytes 来指定,作用在每一个分区上。也就是说,如果有一个包含 8 个分区的主题,并且 log.retention.bytes 被设置为 1GB,那么这个主题最多可以保留 8GB 数据。所以,当主题的分区个数增加时,整个主题可以保留的数据也随之增加。
6 |* K% n2 Z8 X5 ?0 Q5 |! k) @) Z  t/ v  x
log.segment.bytes
( d' p& A1 U: J: i) y( r, i9 W上述的日志都是作用在日志片段上,而不是作用在单个消息上。当消息到达 broker 时,它们被追加到分区的当前日志片段上,当日志片段大小到达 log.segment.bytes 指定上限(默认为 1GB)时,当前日志片段就会被关闭,一个新的日志片段被打开。如果一个日志片段被关闭,就开始等待过期。这个参数的值越小,就越会频繁的关闭和分配新文件,从而降低磁盘写入的整体效率。. x$ @5 A7 V1 ]/ ^+ V
; H3 i4 v5 O$ F' u1 D5 W
log.segment.ms# i  p0 V5 l1 z( N( [
上面提到日志片段经关闭后需等待过期,那么 log.segment.ms 这个参数就是指定日志多长时间被关闭的参数和,log.segment.ms 和 log.retention.bytes 也不存在互斥问题。日志片段会在大小或时间到达上限时被关闭,就看哪个条件先得到满足。
: ~8 Y. h) ^, y7 j3 t; p
6 K% }( r$ W6 [# `message.max.bytes8 {$ R- k. ~* w
broker 通过设置 message.max.bytes 参数来限制单个消息的大小,默认是 1000 000, 也就是 1MB,如果生产者尝试发送的消息超过这个大小,不仅消息不会被接收,还会收到 broker 返回的错误消息。跟其他与字节相关的配置参数一样,该参数指的是压缩后的消息大小,也就是说,只要压缩后的消息小于 mesage.max.bytes,那么消息的实际大小可以大于这个值
9 H6 C' [% e9 a. p: z, y& M+ ^! L" n  F0 o
这个值对性能有显著的影响。值越大,那么负责处理网络连接和请求的线程就需要花越多的时间来处理这些请求。它还会增加磁盘写入块的大小,从而影响 IO 吞吐量。
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 ( 蜀ICP备2026014127号-1 )点击这里给我发消息

GMT+8, 2026-4-8 21:40 , Processed in 0.057830 second(s), 23 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表