易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 11|回复: 0
收起左侧

ceph 分布式存储出现告警 22 pgs not deep-scrubbed in time 解决办法:

[复制链接]
发表于 2024-10-19 05:00:07 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
$ ceph -s
  z/ N  C9 Z9 ~; g) K4 L  cluster:
$ W1 h- k: _  `- f( w    id:     ce68aab8-8f46-11ed-88c0-ac1f6b3a30b9
* Q( {- s5 X, i/ F: ]    health: HEALTH_ERR. o+ R1 J$ w* l5 c4 ]! C! J
            3 failed cephadm daemon(s)+ F' k) H0 k7 x4 L
            failed to probe daemons or devices0 p6 R( N& k+ S# R8 y) H9 Q$ P
            2 mgr modules have failed
. u0 ^8 _3 w* \2 {" E) F7 w+ ^2 H            mon gm268-1 is low on available space% x3 F# d( N2 g, J# `7 N
            22 pgs not deep-scrubbed in time! M0 Y8 K5 w0 l$ i5 X
            1 slow ops, oldest one blocked for 5580 sec, mon.gm268-3 has slow ops
8 N4 r- n* @- s' M; n) B
4 Z9 U2 S2 m/ s, |  services:) r% F1 C" T8 t5 v/ ?1 Z
    mon: 3 daemons, quorum gm268-2,gm268-3,gm268-1 (age 86m)+ M' c9 V9 D& q- @
    mgr: gm268-2.zttohs(active, since 97m), standbys: gm268-3.sjagqo, gm268-1.jgdvxs. N. K" I3 x8 g% R
    mds: cephfs:1 {0=cephfs.gm268-3.ppyjrl=up:active} 1 up:standby9 `+ x  N4 t) E( m5 @# t% v% X% a
    osd: 41 osds: 41 up (since 93m), 41 in (since 21h); 182 remapped pgs
. z/ ?9 R. T& q4 ?$ @" t. a4 P  Q9 e. {3 U
  data:  H5 c+ {0 Z& A! _9 ^
    pools:   5 pools, 11265 pgs
- z3 Y+ r3 k' S6 H. U    objects: 42.48M objects, 115 TiB
1 j7 L/ t; f$ E* _& Z' r    usage:   232 TiB used, 365 TiB / 597 TiB avail
1 N. V' o+ I  s% l# H& Q    pgs:     785971/84967110 objects misplaced (0.925%)4 u' A8 k% J3 j6 z: r
             11083 active+clean
. ~; L4 s/ T8 n; R5 k7 I             181   active+remapped+backfill_wait7 @) |- w4 C# q# B' Z
             1     active+remapped+backfilling: h5 A) ]9 E/ t4 \4 H

' R4 X5 K' ^  d3 z& D! j0 u  io:, n1 y& Q: A, A8 v1 O
    recovery: 20 MiB/s, 6 objects/s8 k2 c5 B0 T, y' U: c. S
: E$ i# B! }9 V( {, Q9 m# {. p
解决办法:. a0 s8 p6 X! W8 d# I. T, u% E
/ T. j$ Y$ g8 W: e8 F- G
$ ceph config set global osd_deep_scrub_interval 3628800
7 |( a$ u2 i! {, {) X
- R3 C7 l- S9 @* Z/ V1 R
* K$ R) C! B- q- n' `$ ceph config get  mon
8 }: @# o$ n& t$ L6 NWHO     MASK  LEVEL     OPTION                                 VALUE                  RO) b5 n: S2 M6 Q: @- f% z' V
mon           advanced  auth_allow_insecure_global_id_reclaim  false                    / f" A- g. O7 y) v0 s
global        basic     container_image                        quay.io/ceph/ceph:v15  * ( u* D2 r! l9 ~; ^: b6 `6 ?) y; N
global        advanced  mon_max_pg_per_osd                     800                      % F) [% Y5 c, H( H& [* B
global        advanced  osd_deep_scrub_interval                3628800.000000           3 ]* g& D5 H% y
global        advanced  osd_pool_default_pg_autoscale_mode     off                     
  z* _. S3 x" f$ v$ ?5 Amon           advanced  public_network                         10.12.0.0/15           * 4 Q7 V) w' I4 b: O& m/ ~

5 g' P7 G* n6 h3 u
  u7 |8 x6 d" l; Y$ ceph config get  osd
6 T& G, D' ~& i" AWHO     MASK  LEVEL     OPTION                              VALUE                  RO6 m# C* ?; W, x/ ]( p
global        basic     container_image                     quay.io/ceph/ceph:v15  *
& I0 J& J- A, P* C  H" V, qglobal        advanced  mon_max_pg_per_osd                  800                      5 e& \0 J6 q. V3 ]8 r# K+ F
global        advanced  osd_deep_scrub_interval             3628800.000000           8 {, t* f0 Y; x" q" g/ `
global        advanced  osd_pool_default_pg_autoscale_mode  off                     
# a# R+ k. p; t  k2 |& R8 j: a# n% V) ?" H8 a  Z
  m( z5 l8 ~2 }8 z3 A! a
$ ceph -s
& N: ]7 H- q- P. O  cluster:
( r# b2 D9 m+ z! P    id:     ce68aab8-8f46-11ed-88c0-ac1f6b3a30b9
1 G4 q+ v/ D; R9 y6 S5 {    health: HEALTH_ERR
7 B' M) n% U/ l8 n) }4 O2 b            3 failed cephadm daemon(s)
& e- l/ l7 R1 n4 p! p            failed to probe daemons or devices: C; F! B8 t+ b2 e1 V
            2 mgr modules have failed3 N9 R" w$ K' {: t  ]& A" k
            mon gm268-1 is low on available space( v# U. Q# p/ N- V$ O6 r* i% D& E' X
            1 slow ops, oldest one blocked for 5791 sec, mon.gm268-3 has slow ops
( ]' F: F- k% I0 }- R) U
' }/ Y1 N: X$ I( \1 M  services:
3 k% A' _4 s; u    mon: 3 daemons, quorum gm268-2,gm268-3,gm268-1 (age 89m)  L3 S: g# m) j1 v+ g. w5 J
    mgr: gm268-2.zttohs(active, since 100m), standbys: gm268-3.sjagqo, gm268-1.jgdvxs) n, L$ s% L# `7 X( O1 T$ R
    mds: cephfs:1 {0=cephfs.gm268-3.ppyjrl=up:active} 1 up:standby
; N6 L, g4 k/ u  T, M1 N; T7 a: T; i    osd: 41 osds: 41 up (since 96m), 41 in (since 21h); 181 remapped pgs
; [* N6 J; i, x. J2 A3 ^' N( }* `
  data:
7 A5 x& D/ U7 f3 {    pools:   5 pools, 11265 pgs
- O( `* C: N$ P2 ^7 {# J    objects: 42.48M objects, 115 TiB" e0 _+ d3 `3 N6 j
    usage:   232 TiB used, 365 TiB / 597 TiB avail& O, k6 a1 ]6 ~2 J: B, s; F
    pgs:     784873/84967110 objects misplaced (0.924%)
5 Z: }, b4 G8 O4 X, R             11084 active+clean
& }  e0 w3 l" v             180   active+remapped+backfill_wait0 ~8 X$ L" u1 e2 p3 r% X
             1     active+remapped+backfilling7 T9 q8 ^6 v0 M% G; j" h

) N( C2 z* V: C# x  io:% S, f) \' d7 E8 f: D; S
    recovery: 20 MiB/s, 6 objects/s! x' Q1 w$ |+ n6 L4 R3 N
% r& Q  h+ l+ {1 h  r

- ?$ w* \7 a# X
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 ( 蜀ICP备2026014127号-1 )点击这里给我发消息

GMT+8, 2026-4-9 01:10 , Processed in 0.049770 second(s), 22 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表