Kafka-linux环境部署

Kafka在Linux环境下的安装,以及一点点的kafka实战运维优化经验

部署

官网地址:https://kafka.apache.org/

官网下载地址:https://kafka.apache.org/downloads

注:Kafka是用Scala语言开发的,运行在JVM上,因此需要jdk做为基础环境,使用jdk1.8以上的版本。

找到kafka_2.13-2.8.1.tgz包进行下载。详细的安装步骤如下:

  • 创建目录上传jdk文件

    shell 复制代码
    mkdir /soft
    cd /soft
  • 解压kafka压缩文件

    shell 复制代码
    tar -zxvf kafka_2.13-2.8.1.tgz
  • 提前创建配置文件中所有的文件夹

    mkdir -p /opt/software/kafka
    # zookeeper数据目录
    mkdir -p /soft/kafka_2.13-2.8.1/zookeeper  
    # kafka日志
    mkdir -p /soft/kafka_2.13-2.8.1/kafka/log        
    # zookeeper日志
    mkdir -p /soft/kafka_2.13-2.8.1/zookeeper/log 
    
  • 修改zookeeper的配置文件zookeeper.properties

    shell 复制代码
    # 切换目录
    cd /soft/kafka_2.13-2.8.1/config
    # 编辑 zookeeper配置文件
    vim zookeeper.properties
    
    # zookeeper数据目录
    dataDir=/soft/kafka_2.13-2.8.1/zookeeper
    # zookeeper日志目录
    dataLogDir=/soft/kafka_2.13-2.8.1/zookeeper/log
    # 更改zookeeper端口
    clientPort=2181
    maxClientCnxns=100
    tickTimes=2000
    initLimit=10
    syncLimit=5
  • 修改kafka的配置文件server.properties

    shell 复制代码
    # 切换目录
    cd /soft/kafka_2.13-2.8.1/config
    # 编辑 kafka配置文件
    vim server.properties
    ######   server.properties开始     ######
    # 设置ip端口 (阿里云服务器,使用内网ip地址)
    listeners=PLAINTEXT://172.17.123.108:9092
    #日志存放路径,上面创建的目录
    log.dirs=/soft/kafka_2.13-2.8.1/kafka/log
    #zookeeper地址和端口,单机配置部署,localhost:2181
    zookeeper.connect=172.17.123.108:2181
    ######   server.properties结束     ######
    
    # 查看服务器网卡ip 作为kafka 和 zookeeper 的ip
    ip addr
  • 启动kafka

    java 复制代码
    # 切换目录
    cd /soft/kafka_2.13-2.8.1/bin
       
    # 优先启动 zookeeper
    ./zookeeper-server-start.sh /soft/kafka_2.13-2.8.1/config/zookeeper.properties &
    # 再启动 kafka
    ./kafka-server-start.sh /soft/kafka_2.13-2.8.1/config/server.properties &

基础指令

以下主要介绍topic的创建、插件,生产者发送消息,消费者消费消息的基础脚本指令的使用

shell 复制代码
# 查看topic数据
./kafka-topics.sh --bootstrap-server 8.140.224.210:9092 --list
# 创建topic
./kafka-topics.sh --create --topic <your_topic_name> --bootstrap-server localhost:9092 --partitions <num_partitions> --replication-factor <replication_factor>
--topic <your_topic_name>:指定你要创建的 Topic 名称。
--bootstrap-server localhost:9092:Kafka 服务的地址。
--partitions <num_partitions>:为该 Topic 指定的分区数量。
--replication-factor <replication_factor>:副本因子,单机环境下通常设置为 1。
./kafka-topics.sh --create --topic data0912 --bootstrap-server 8.140.224.210:9092 --partitions 1 --replication-factor 1    
# 生产消息
./kafka-console-producer.sh --topic data0912 --bootstrap-server 8.140.224.210:9092    
# 消费消息
./kafka-console-consumer.sh --topic data0912 --bootstrap-server 8.140.224.210:9092 --from-beginning

服务运维

服务器磁盘爆满,导致kafka服务崩溃

当别人通过kafka给我推送十几亿文本数据时,我正常批量读取数据,且多线程的处理数据,也验证了消费数据是极快的,不会造成kafka数据的挤压。但是还是导致了kafka服务的崩溃,排查后发现云服务器100GB的磁盘已经爆满,便在排查时发现kakfa默认保存近七天的数据,而我一天的数据就超过了100GB。具体的解决方案如下:

shell 复制代码
# 1.查看kafka的配置文件  server.properties 中log文件的存放位置 log.dirs=/soft/kafka_2.13-2.8.1/kafka/log
cd /soft/kafka_2.13-2.8.1/config
cat server.properties
# 2.切换到log文件下查看,那个topic目录下的磁盘空间占用过大
cd /soft/kafka_2.13-2.8.1/kafka/log
# 查看log文件下占用磁盘严重的目录
du -sh *
# 切换到 对应的目录
cd cd data0912-0
#3.删除较早的***.log文件
# 目录下存在众多***.index,***.log文件;***.index中存放的消息物理位置的偏移量;***.log中存放的是消息的实际内容
# log文件默认存放时间为 7天;7天内所有数据都进行存储,就会导致磁盘爆破的问题
rm -rf *.log
#4.更改配置文件
cd /soft/kafka_2.13-2.8.1/config
vim server.properties
# 更改以下配置
# segment 文件保留时间(默认168小时 7天)
#log.retention.hours=168
# segment 文件的保留时间改为 5小时
log.retention.hours=5
# 日志文件中 每个segment 文件默认大小 为1g
log.segment.bytes=1073741824
# 多久时间扫描一次 日志文件的大小 (单位:毫秒) 五分钟
log.retention.check.interval.ms=300000
# kakfa 从0.10.0版本之后不再需要通过以下配置来启动日志清理策略;直接按照 留存时间、文件大小,进行清理
# 日志清理配置 开始
# 以segment为基本单位进行定期清理,当前正在使用的segment不会被清理。
# 日志清理是否打开
log.cleaner.enable=ture
# 多线程清理,提高数据清理速度
log.cleaner.threads=2
# 采用日志删除策略进行删除
log.cleanup.policy=delete
# 日志清理配置 结束
#5.重启kafka
相关推荐
安大小万15 分钟前
C++ 学习:深入理解 Linux 系统中的冯诺依曼架构
linux·开发语言·c++
费曼乐园22 分钟前
Kafka与ZooKeeper
zookeeper·kafka
九品神元师31 分钟前
jupyter配置说明
linux·ide·jupyter
黯然~销魂1 小时前
root用户Linux银河麒麟服务器安装vnc服务
linux·运维·服务器
菠萝炒饭pineapple-boss2 小时前
Dockerfile另一种使用普通用户启动的方式
linux·docker·dockerfile
Zfox_3 小时前
【Linux】进程间关系与守护进程
linux·运维·服务器·c++
laimaxgg3 小时前
Linux关于华为云开放端口号后连接失败问题解决
linux·运维·服务器·网络·tcp/ip·华为云
浪小满3 小时前
linux下使用脚本实现对进程的内存占用自动化监测
linux·运维·自动化·内存占用情况监测
东软吴彦祖3 小时前
包安装利用 LNMP 实现 phpMyAdmin 的负载均衡并利用Redis实现会话保持nginx
linux·redis·mysql·nginx·缓存·负载均衡
艾杰Hydra4 小时前
LInux配置PXE 服务器
linux·运维·服务器