Ceph入门到精通-生产日志级别设置

Ceph 子系统及其日志记录级别的信息。

了解 Ceph 子系统及其日志记录级别

Ceph 由多个子系统组成:

每个子系统都有其日志记录级别:

  • 默认情况下存储在 /var/log/ceph/ 目录中的输出日志(日志级别)
  • 存储在内存缓存中的日志(内存级别)

通常,Ceph 不会将内存中存储的日志发送到输出日志,除非:

  • 引发致命信号
  • 源代码中触发了 assert
  • 您请求它

您可以为每个子系统设置不同的值。Ceph 日志记录级别按 1 到 20 级运行 其中 1 是 terse,20 是详细。

对日志级别和内存级别使用单个值,以将它们都设置为相同的值。例如,debug _osd = 5ceph-osd 守护进程的 debug 级别设置为 5

要将不同的值用于输出日志级别和内存级别,请使用正斜杠(/)分隔值。例如,debug _mon = 1/5ceph-mon 守护进程的调试日志级别设置为 1,并将其内存日志级别设置为 5

注意

对于基于容器的部署,Ceph 会生成日志到 journald。您可以通过在 Ceph 配置文件中 [global] 下将 log_to_file 参数设置为 true,以启用记录到 /var/log/ceph 中的文件。如需了解更多详细信息 ,请参阅了解 ceph 日志

表 2.1. Ceph 子系统和日志记录默认值

子系统 日志级别 内存级别 描述
asok 1 5 管理套接字
auth 1 5 身份验证
客户端 0 5 使用 librados 连接到集群的任何应用程序或库
bluestore 1 5 BlueStore OSD 后端
journal 1 5 OSD 日志
mds 1 5 元数据服务器
monc 0 5 monitor 客户端处理大部分 Ceph 守护进程和 monitor 之间的通信
周一 1 5 monitor
ms 0 5 Ceph 组件之间的消息传递系统
osd 0 5 OSD 守护进程
paxos 0 5 监控用于建立共识的算法
rados 0 5 可靠的自主分布式对象存储,Ceph 的核心组件
rbd 0 5 Ceph 块设备
rgw 1 5 Ceph 对象网关

日志输出示例

下例演示了当您提高 monitor 和 OSD 的详细程度时,日志中的消息类型。

监控调试设置

复制代码
debug_ms = 5
debug_mon = 20
debug_paxos = 20
debug_auth = 20

monitor 调试设置的日志输出示例

复制代码
2016-02-12 12:37:04.278761 7f45a9afc700 10 mon.cephn2@0(leader).osd e322 e322: 2 osds: 2 up, 2 in
2016-02-12 12:37:04.278792 7f45a9afc700 10 mon.cephn2@0(leader).osd e322  min_last_epoch_clean 322
2016-02-12 12:37:04.278795 7f45a9afc700 10 mon.cephn2@0(leader).log v1010106 log
2016-02-12 12:37:04.278799 7f45a9afc700 10 mon.cephn2@0(leader).auth v2877 auth
2016-02-12 12:37:04.278811 7f45a9afc700 20 mon.cephn2@0(leader) e1 sync_trim_providers
2016-02-12 12:37:09.278914 7f45a9afc700 11 mon.cephn2@0(leader) e1 tick
2016-02-12 12:37:09.278949 7f45a9afc700 10 mon.cephn2@0(leader).pg v8126 v8126: 64 pgs: 64 active+clean; 60168 kB data, 172 MB used, 20285 MB / 20457 MB avail
2016-02-12 12:37:09.278975 7f45a9afc700 10 mon.cephn2@0(leader).paxosservice(pgmap 7511..8126) maybe_trim trim_to 7626 would only trim 115 < paxos_service_trim_min 250
2016-02-12 12:37:09.278982 7f45a9afc700 10 mon.cephn2@0(leader).osd e322 e322: 2 osds: 2 up, 2 in
2016-02-12 12:37:09.278989 7f45a9afc700  5 mon.cephn2@0(leader).paxos(paxos active c 1028850..1029466) is_readable = 1 - now=2016-02-12 12:37:09.278990 lease_expire=0.000000 has v0 lc 1029466
....
2016-02-12 12:59:18.769963 7f45a92fb700  1 -- 192.168.0.112:6789/0 <== osd.1 192.168.0.114:6800/2801 5724 ==== pg_stats(0 pgs tid 3045 v 0) v1 ==== 124+0+0 (2380105412 0 0) 0x5d96300 con 0x4d5bf40
2016-02-12 12:59:18.770053 7f45a92fb700  1 -- 192.168.0.112:6789/0 --> 192.168.0.114:6800/2801 -- pg_stats_ack(0 pgs tid 3045) v1 -- ?+0 0x550ae00 con 0x4d5bf40
2016-02-12 12:59:32.916397 7f45a9afc700  0 mon.cephn2@0(leader).data_health(1) update_stats avail 53% total 1951 MB, used 780 MB, avail 1053 MB
....
2016-02-12 13:01:05.256263 7f45a92fb700  1 -- 192.168.0.112:6789/0 --> 192.168.0.113:6800/2410 -- mon_subscribe_ack(300s) v1 -- ?+0 0x4f283c0 con 0x4d5b440

OSD 调试设置

复制代码
debug_ms = 5
debug_osd = 20

OSD 调试设置的日志输出示例

复制代码
2016-02-12 11:27:53.869151 7f5d55d84700  1 -- 192.168.17.3:0/2410 --> 192.168.17.4:6801/2801 -- osd_ping(ping e322 stamp 2016-02-12 11:27:53.869147) v2 -- ?+0 0x63baa00 con 0x578dee0
2016-02-12 11:27:53.869214 7f5d55d84700  1 -- 192.168.17.3:0/2410 --> 192.168.0.114:6801/2801 -- osd_ping(ping e322 stamp 2016-02-12 11:27:53.869147) v2 -- ?+0 0x638f200 con 0x578e040
2016-02-12 11:27:53.870215 7f5d6359f700  1 -- 192.168.17.3:0/2410 <== osd.1 192.168.0.114:6801/2801 109210 ==== osd_ping(ping_reply e322 stamp 2016-02-12 11:27:53.869147) v2 ==== 47+0+0 (261193640 0 0) 0x63c1a00 con 0x578e040
2016-02-12 11:27:53.870698 7f5d6359f700  1 -- 192.168.17.3:0/2410 <== osd.1 192.168.17.4:6801/2801 109210 ==== osd_ping(ping_reply e322 stamp 2016-02-12 11:27:53.869147) v2 ==== 47+0+0 (261193640 0 0) 0x6313200 con 0x578dee0
....
2016-02-12 11:28:10.432313 7f5d6e71f700  5 osd.0 322 tick
2016-02-12 11:28:10.432375 7f5d6e71f700 20 osd.0 322 scrub_random_backoff lost coin flip, randomly backing off
2016-02-12 11:28:10.432381 7f5d6e71f700 10 osd.0 322 do_waiters -- start
2016-02-12 11:28:10.432383 7f5d6e71f700 10 osd.0 322 do_waiters -- finish
相关推荐
淡黄的Cherry12 天前
ceph新增节点,OSD设备,标签管理(二)
ceph
Linux运维老纪12 天前
分布式存储的技术选型之HDFS、Ceph、MinIO对比
大数据·分布式·ceph·hdfs·云原生·云计算·运维开发
淡黄的Cherry12 天前
ceph基本概念,架构,部署(一)
ceph
阿无@_@13 天前
1、ceph的安装——方式一ceph-ansible
ceph·ansible
阿无@_@13 天前
2、ceph的安装——方式二ceph-deploy
linux·ceph·centos
来自于狂人18 天前
Ceph与RAID在存储中的协同工作过程
ceph
聚集的流星19 天前
rook-ceph云原生存储解决方案
ceph·云原生
时空无限23 天前
ceph osd df 输出详解
ceph
时空无限23 天前
ceph fs status 输出详解
ceph
2401_878961721 个月前
ceph集群配置
ceph