kafka备份方案

备份方案

使用两个kafka connectors,一个sink connector向外部数据源(S3、ES、Hive)导出数据,一个source connector从外部源恢复数据
使用connect同步数据到s3,然后清除60天以前的数据,可以达到备份+归档且释放硬盘空间的目的

阅读更多

KafkaManager安装启动流程

安装脚本

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
# 安装jdk
yum install -y jdk8

JAVA_HOME="/home/jdk1.8.0"
PATH=$PATH:$JAVA_HOME/bin

export JAVA_HOME PATH

# 下载kafka-manager
wget https://github.com/yahoo/kafka-manager/archive/2.0.0.2.tar.gz
mkdir kafka-manager
tar -xzvf 2.0.0.2.tar.gz -C ./kafka-manager --strip-components 1

# 安装sbt
curl https://bintray.com/sbt/rpm/rpm > bintray-sbt-rpm.repo
mv bintray-sbt-rpm.repo /etc/yum.repos.d/
yum install sbt -y

# make
cd kafka-manager
./sbt clean dist
cp target/universial/kafka-manager-2.0.0.2.zip /home/
cd /home
unzip kafka-manager-2.0.0.2.zip
cd kafka-manager-2.0.0.2

# 修改kafka-manager的链接信息
sed -i "s/kafka\-manager\-zookeeper:2181/common1-t1.zookeeper.s.news:2181/" conf/application.conf

启动脚本

1
2
3
4
5
6
KAFKA_MANAGER_USERNAME="admin"
KAFKA_MANAGER_PASSWORD="admin"
JAVA_HOME=/home/jdk1.8.0
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin:/usr/jdk1.8.0/bin
export JAVA_HOME PATH
nohup bin/kafka-manager -Dconfig.file=conf/application.conf -Dhttp.port=8888 > kafka-manager.log 2>&1 &