将设为首页浏览此站
开启辅助访问 天气与日历 收藏本站联系我们切换到窄版

易陆发现论坛

 找回密码
 开始注册
查看: 44|回复: 3
收起左侧

ceph 15.2版本pg autoscaler PG自动伸缩

[复制链接]
发表于 2023-1-9 08:29:39 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?开始注册

x
使能pg_autoscaler:
  m( ~' p  Y. ]ceph mgr module enable pg_autoscaler6 S! H: u3 x7 {4 g, Z
查看PG自动伸缩状态:
5 v' ~0 c1 G: t4 I- Y! p% U9 a( o: e/ s! Y4 [* H* v
% M- c+ R+ V0 X6 g8 Z* I4 A' D
设置PG自动伸缩:(ceph osd pool set pool_name pg_autoscale_mode on)
3 L: g( m' R8 c% e1 D7 n+ n) @- ~ ceph osd pool set testpool pg_autoscale_mode on
% t( s9 |! o* wceph config set global osd_pool_default_pg_autoscale_mode <mode>- U& N6 u, u( T
2 g( y5 d9 u' C2 [( F- P
如果您希望一个池相对于其他池消耗更多的集群容量,请使用 target_size_ratio 设置。
- `7 U" W9 R+ A! L8 z7 h9 D可以使用target_size_ratio设置指定池的目标比率。如果您知道某个池相对于其他池应该具有一定的比率,则此设置特别有用。除非另有说明,否则每个池的目标比率默认应为 0。您给池的目标比率越高,您期望池中的 PG 就越大。
& w7 l$ d  {) q3 [% J7 H$ G( c6 `- p' I

# J6 q2 g: R* T* P2 m0 C8 t& }/ x要检查池的目标比率,请使用osd pool autoscale-status并查看TARGET RATIO列。target_size_ratio可以使用ceph osd pool set <pool_name> target_size_ratio <ratio>进行调整。
2 G+ ]' |: n$ n7 N$ R 要在创建池期间设置target_size_ratio,请使用ceph osd pool create --target-size-ratio <ratio>。
4 f2 p9 T5 A) Y8 H' I% @% N: a0 K
( g6 V+ O- A/ I: ^使用 noautoscale 标志全局切换所有池的自动缩放器。
1 |! f9 d3 k3 P/ k4 ]5 ~* i现在可以为所有带有noautoscale标志的池全局打开和关闭自动缩放器。
' X' D8 V0 h6 ?7 C默认情况下,此标志设置为 false,并且每个池的默认pg_autoscale模式(即 )on保持相同。
5 r  R3 K0 d# U; x! w9 P
2 J2 |, [; s1 Q: Q! H如果要为每个池打开自动缩放器,请使用ceph osd pool unset noautoscale。如果要为每个池关闭自动缩放器,请使用ceph osd pool set noautoscale。要获取 noautoscale 标志的当前值,请使用ceph osd pool get noautoscale。6 L  g( y! B) s+ F/ Q

" \+ }; T- `: _使用bias来帮助自动缩放器准确调整 PG 的数量。
* F$ n* N3 q2 Z7 i0 G% c偏差是一个乘数,用于根据有关该池的预期 PG 数量的信息手动调整池的 PG。默认情况下,偏差值应为 1.0,除非另有说明。你给池的偏差越大,你期望池中的 PG 就越大。  Q( C( J8 o* n" D* X

) R3 ~- c. C. [要检查池中的bias值,请使用osd pool autoscale-status并查看BIAS列。要在现有池上设置bias ,请使用ceph osd pool set <pool_name> pg_autoscale_bias <bias>。- B$ k; o. A( {* r9 k# j2 b

  h- N; k1 I* g0 Z/ o如果您提前知道池的使用率,请在创建池之前使用 pg_num 选项。
' \( j) \' U9 u首次创建集群或池时,仅消耗一小部分集群容量。因此,您的系统可能会低估集群或池所需的 PG 数量。如果您提前知道集群或池的使用率,请在创建池之前使用该pg_num选项。这将帮助您的集群提前计入适当数量的 PG。
( d2 s& k! P" w( \: `! i$ n4 v; X5 P/ d6 S
: Z/ O# k$ C5 x; `要检查池的pg_num值,请使用ceph osd pool autoscale-status并查看PG_NUM列。要指定创建池时设置pg_num,请使用ceph osd pool create <pool_name> <pg_num>。要设置池中允许的最小 pg 数,请使用ceph osd pool set <pool-name> pg_num_min <pg_num>。 要设置池中允许的最大 pg 数,请使用ceph osd pool set <pool-name> pg_num_max <pg_num>。( s8 Y* o% J# Q7 v3 u3 V1 j* a+ ]: z7 a
, Q, ]8 S1 Y' o" e! _, B# T# A, r
使用 pg_num_max 值设置池中的最大 PG 数。8 \) N0 [7 e  h2 I# x* d  c7 X
可以指定池中的最大 PG 数。这在创建较小的池(例如 .mgr、元池或不带--bulk标志的池)时很有用。: {4 ^, n) z& t$ O: B

! u0 R4 ~; H$ U' ^要在创建池时指定最大 PG 计数,请在命令中使用可选--pg-num-max <num>参数。ceph osd pool create创建池后,使用ceph osd pool set <pool-name> pg_num_max <num>进行设置。
) |! g  N- |- h2 P8 G! U( C' w, b' e8 d; \! L. v
使用 pg_num_min 值设置池中的最小 PG 数。
4 u3 q# n" l0 r# S% p% m0 S5 o# |# P同样,我们可以指定一个池中的最小 PG 数。当我们想要客户端在执行 IO 时看到的并行量的下限时,这是有利的,即使池大部分是空的。这在创建更大的池(例如设置了--bulk标志的池)时很有用。
! f  T, S  r  b! D4 R' Z7 @! P% V% @4 S7 @0 D
要在创建池时指定最小 PG 计数,请在命令中使用可选--pg-num-min <num>参数。ceph osd pool create创建池后,使用ceph osd pool set <pool-name> pg_num_min <num>进行设置。
# f! F* y2 k& @2 G- h3 u* N8 M5 r

6 p6 [4 c; b8 Z; M! n设置目标ratio:
9 h2 r* e- Y2 w4 B( ?1 p# i$ R4 }ceph osd pool set volumes target_size_ratio .8 0 U  I3 y4 S  G
查看是否开启:
- O2 n0 _! @; o8 t4 K- q7 x# p5 S" k& B) }

# a/ h, p$ D$ W! j, _3 F/ D- u( q3 _, [4 A' D
& f2 v2 S. P4 A5 T( f! ^: S# q
: e& H+ K# _! V. e+ O( s

3 ]6 d" q$ @7 w4 _% t4 @$ W, A* C: m( O2 Y0 p. k' a! b3 l

) f1 m& u& \! w) b* G0 g
 楼主| 发表于 2023-1-9 09:05:26 | 显示全部楼层
关闭自动伸缩:+ c$ b4 c; L8 R
ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode off
8 w4 a/ Z  w/ x5 c7 Iset pool 6 pg_autoscale_mode to off. z; t! k- [, k1 X
开启自动伸缩:4 W* q3 X: K  O- p2 M6 _6 i0 |
[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode on
8 {6 b4 x) x9 e% j+ wset pool 6 pg_autoscale_mode to on
, T- y2 K& U' N0 k% b& \. [0 J+ P# q6 m8 L( Y' K/ V9 t( ^

% Y0 n- l/ L) o! }% o[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode off
3 ?9 \4 R  x+ x5 v5 k* ?1 Oset pool 6 pg_autoscale_mode to off
2 s2 E+ B6 ]: Q' X: W9 y' C[root@ceph1 ~]# ceph osd pool ls detail
' Z+ m: {9 y7 t2 Mpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth& i# c3 G- M% Q! }+ r
pool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw
% v8 h- |  Q+ M, O& U' D0 q  h7 Ypool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw
; |" k1 O; ]- ^$ g" n5 T! f  ppool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw7 A' d3 U  s' m4 {$ C7 o
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 156 lfor 0/156/154 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
6 v- M3 i; A7 C, t/ m# [: kpool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode off last_change 376 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs2 H$ _. Z9 M& f
pool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs, ~# l4 L: Y/ y- H* v; L0 b
pool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw/ u) r% c* h# Y, x. g

+ `$ n$ n0 r5 q" E" b0 z/ W[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode on1 A' b; l2 v0 g9 L9 Y3 O7 @  X
set pool 6 pg_autoscale_mode to on
% M. o. c" l2 M) \! n$ B* W! p[root@ceph1 ~]# ceph osd pool ls detail - A# R: x4 j! t* j% Z. |
pool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
( [% F$ y( q! D' r! v6 o. l9 \. npool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw/ I2 A) x0 _$ L$ P2 a6 Y5 M- _
pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw
1 ^: z7 M  e4 B1 Epool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw
$ g7 {4 T$ Y$ d6 Z6 e9 r4 spool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 156 lfor 0/156/154 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw: B0 Q5 e  m" A- q8 o' X
pool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs
+ c" c0 b5 J8 F, e1 ?- cpool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs+ u6 e3 t, [* n4 c/ P& k
pool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
4 a+ L+ t6 F" q' c  G/ d* ^/ ]3 t4 P( r+ ]* v7 l& X
 楼主| 发表于 2023-1-9 09:07:39 | 显示全部楼层
调整pool的pg数之后我们观察到的变化如下:
: t: |3 V! _4 u6 ?. [9 [4 Z* A# P5 v[root@ceph1 ~]# ceph osd pool set default.rgw.meta pg_num 641 M9 B8 z3 ?% b: b
set pool 5 pg_num to 64( G$ `7 \3 J- i3 |
[root@ceph1 ~]# ceph osd pool set default.rgw.meta pgp_num 64
! H4 O% {! m3 Tset pool 5 pgp_num to 648 h- m$ ~1 c/ t! X2 {$ c5 |# o

4 _7 y; V: d( U, X$ n' L此时的状态:8 S8 T0 w- @' u. }( [1 ?! ]* S
[root@ceph1 ~]# ceph -s
2 E% G8 N4 B" o3 j3 u; R! |  cluster:) V6 _1 ]/ |1 R$ w
    id:     433d3d2a-8e4a-11ed-b84b-000c29377297
, A! z. u, j1 F% ]" m+ }    health: HEALTH_OK
7 ~3 S/ Z! Q: F* e" L1 r
$ G% x7 F4 g, |3 y: V' ]0 Q2 C9 T  services:
- j& Q7 ]2 c7 r2 c' Z; {& Y    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 4m)0 n' w, k+ r! f
    mgr: ceph2.twhubv(active, since 3m), standbys: ceph1.zmducz, ceph3.dkkmft
' B) ^# z2 {) g5 F% f$ v& a    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby8 o4 X- J! P" j0 h. f
    osd: 3 osds: 3 up (since 3m), 3 in (since 11h)( i  j0 V  d6 c0 J; k
    rgw: 3 daemons active (ceph1, ceph2, ceph3)
3 q. z. b& h% U; ~# \) @  l
# U8 @  {- k' y. `  task status:3 ]6 _! j: J- a3 h3 S/ O& x
9 Q7 Z$ S* K9 v( d4 C) Z
  data:
, I; w& o, W0 x0 N    pools:   8 pools, 233 pgs2 j2 Z. v* \4 j( q: y0 A# L' |
    objects: 240 objects, 157 KiB
* y; u" s& w' d& b) n    usage:   3.0 GiB used, 57 GiB / 60 GiB avail
) D6 U) S4 h7 W+ ?/ E    pgs:     233 active+clean% W& C+ g, V0 P) V7 q: m# A
. D1 x0 F# f( Q  B  \9 e& w% d
: E8 k' W1 y& m$ [4 y

8 g# o# p0 P. V& C1 Y  c% z2 Q
pgs到达某个值:
; L/ q/ V6 U* Q1 w0 R2 p2 a! H/ N( r. C
5 x4 t5 L  I7 E2 S, L- X8 _$ q6 [5 N! R* D" M! _
查看pool池的详细记录:" |4 }: y( q1 G) c" r7 w
* J; x! _# v4 v/ x
[root@ceph1 ~]# ceph osd pool ls detail
- {4 K/ z# O4 ?: v* l1 h/ ^$ rpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
1 A2 g: I; Q& A8 N4 c, Q' h: y9 _  X& a6 J) Upool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw
3 R9 ^& F' u) `% E# @( f! B# `pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw+ C; S- l+ w: M4 ^$ N# T
pool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw8 N# _/ E8 B/ E8 R2 D3 t& f
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode on last_change 381 lfor 0/156/379 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
/ i. ^! b5 J( T4 X% F2 V' K, Spool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs0 O! U2 q; W5 ?8 V& x( ~( ^1 C. `
pool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs1 ?$ Q- g# i) h( b! `* o( V
pool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw2 f" K6 {; u0 `8 d! E7 S/ b

6 E' K" O1 e! i" i% o$ A发生变化,pg开始下降:: [! ]( m0 b1 M/ s8 V
[root@ceph1 ~]# ceph osd pool ls detail
# I& r/ r1 C# Q# x, |- Kpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
7 _& B+ q, T) @: `% C0 [pool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw4 o  _: E3 |# r( L
pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw# D2 W# W+ c7 A3 W% E/ q$ J
pool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw0 B, B$ A0 @4 W% o; N. D; a' h; |
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 61 pgp_num 59 pg_num_target 8 pgp_num_target 8 autoscale_mode on last_change 400 lfor 0/400/398 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw% |, y) M" ~) j9 N0 z4 @
pool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs
/ b$ f, l( y0 i  z! _7 E; S+ Ipool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs
. N* ]- C: e3 k1 ?' Jpool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw/ q' u$ ?- m( K4 n, B

; I5 }* b- l$ z; J2 u, u0 h状态pgs也在下降:
0 Y  I8 j. O  y4 Z+ L5 f4 r[root@ceph1 ~]# ceph -s
: K$ e; m2 A' |& |' P. i  cluster:0 j, ]0 r) m+ [8 Y8 d1 H
    id:     433d3d2a-8e4a-11ed-b84b-000c29377297
1 P+ T. ?# l; L" _5 x  S( i0 Y    health: HEALTH_OK: x) l4 l1 T2 ~/ ?! B
& v+ W# A' b6 d$ V5 v. `4 W2 _
  services:
" q7 M- ?, G3 W' q7 y: R9 Z8 Z    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 5m)
' K7 q, k; N" h+ O( g$ [4 [" S    mgr: ceph2.twhubv(active, since 4m), standbys: ceph1.zmducz, ceph3.dkkmft% \3 F/ Q- C, Z5 E2 k6 _
    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby) V% `# l" N2 f) E  r( b7 K. e0 O
    osd: 3 osds: 3 up (since 4m), 3 in (since 11h)
3 c6 p5 i0 S0 {# q: r4 D9 K    rgw: 3 daemons active (ceph1, ceph2, ceph3)$ @0 v! X, Z* v: R$ G4 D
! L8 U5 }; z, [. S5 j. z
  task status:1 u0 z, p" n( X3 F( _, \! C
; e8 |! r' u, O) Y3 ]" h
  data:! U3 d  ^4 |; O6 e1 {
    pools:   8 pools, 228 pgs
4 G9 H, |) ~; w( G  S  a4 E" E    objects: 240 objects, 157 KiB
( l2 A; B. x0 \" |    usage:   3.0 GiB used, 57 GiB / 60 GiB avail
+ t, y6 p$ K  s5 e+ C1 F    pgs:     228 active+clean
' i2 B8 B4 W) h. x  x 0 U) \2 u! Q2 [& o3 V* g4 q  r
  progress:7 {+ V& a' B7 I, h$ K7 k$ p& L4 ^
    PG autoscaler decreasing pool 5 PGs from 64 to 8 (0s)
: N5 [" B7 ?- k      [............................] : u& |# ^, u  S
2 @5 v1 o0 E& n' y* K
[root@ceph1 ~]# ceph -s
( ]! u  H9 u2 Q2 o0 {* {  u  cluster:
6 T4 [- b$ J% U) w# V- K    id:     433d3d2a-8e4a-11ed-b84b-000c29377297
2 X6 Z) L6 e  ~: \/ g$ Q' W    health: HEALTH_OK
" R7 E7 ^% j- H- z% D% p9 _* _1 [ : b$ Y) ?* p/ F
  services:! O* Q% M- c5 D" J# F2 V
    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 5m)& X; F" A: [+ }) f
    mgr: ceph2.twhubv(active, since 4m), standbys: ceph1.zmducz, ceph3.dkkmft
* x2 \6 z" f& j. b5 ]2 H    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby
& j( D- @0 N' `+ S  ?2 T    osd: 3 osds: 3 up (since 4m), 3 in (since 11h)
8 T" R; X" o7 T# H3 K' }    rgw: 3 daemons active (ceph1, ceph2, ceph3)
* Y7 s- o9 B2 N + J. d$ G. w' v5 u/ y6 ^' K2 [
  task status:
& D1 o: [# V6 t$ y4 _* c : U$ ~" W1 ~9 H* T' P
  data:" F9 q) S8 Y( u5 E" Z
    pools:   8 pools, 228 pgs
5 G$ r/ F0 e+ _, i    objects: 240 objects, 157 KiB( l4 D+ \8 q" ]
    usage:   3.0 GiB used, 57 GiB / 60 GiB avail
$ S& K9 y% \( [0 g+ n: }4 h7 w    pgs:     228 active+clean
  w3 B4 p9 L( w- s& j  U
& V8 c* f2 q7 l  progress:
0 K6 n* S7 Y5 y0 k    PG autoscaler decreasing pool 5 PGs from 64 to 8 (0s)( r  b6 f. j( W- K
      [............................] 6 p! g% c2 w; G0 u# _+ U+ ]

( l& V- |3 t0 ?) E# m
  {/ Y4 i3 f' x  o
* }: b2 R! S9 |% w等待同步一会
# D" T: x9 \; }# Q' `8 L/ _[root@ceph1 ~]# ceph -s* ~& ^6 e! ^: ?" |4 a
  cluster:
3 E# U; R" J: i0 v    id:     433d3d2a-8e4a-11ed-b84b-000c29377297
- w' k: U3 v! h" C    health: HEALTH_OK/ Z! P5 |4 D  V+ R  H

: [$ x: N. D3 Y( i2 M+ E  services:
% ?+ I6 e5 D; @( K+ ^8 ~    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 10m)+ Q, _  B" L3 ?, B! `! \1 t) s
    mgr: ceph2.twhubv(active, since 9m), standbys: ceph1.zmducz, ceph3.dkkmft0 d3 f8 [& k: g5 A2 u/ {6 j7 n
    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby! x1 Z" z( q5 G8 w- R; Q
    osd: 3 osds: 3 up (since 9m), 3 in (since 11h)
6 _) u  l  U; T    rgw: 3 daemons active (ceph1, ceph2, ceph3)+ z$ t( t) t. n

+ L6 `2 g0 N! D, |' x% b: y  task status:3 X, l7 w# @. Y; |- @

0 D2 P& d, K4 n8 Q  D4 S3 q; p/ T- e$ d  data:* R' ~: Q7 d: a2 }
    pools:   8 pools, 185 pgs7 n5 m6 e8 U* u9 Q) \& O# z
    objects: 240 objects, 157 KiB" U0 [* G6 l% Q9 {* ?/ @
    usage:   3.0 GiB used, 57 GiB / 60 GiB avail. ?  X  h1 J: E4 ~) U6 |/ B
    pgs:     185 active+clean
% w' e1 I4 }5 J; A. V
+ d! `. u  o4 o; b1 V7 e9 e  progress:
2 j: C: j! n# Z! ?* E& A$ w5 i    PG autoscaler decreasing pool 5 PGs from 64 to 8 (5m)
9 ]( N1 ^# ?2 B; b1 {* L/ @      [======================......] (remaining: 81s)( }' M5 @' F+ V! c, d* M' y
+ y+ I: r  t8 M3 [
自动下降到185。因为是虚机下降速度较慢。, y, Z2 @6 x, k6 _" H5 d" p6 b: F. l
 楼主| 发表于 2023-1-9 09:37:11 | 显示全部楼层
[root@ceph1 ~]# ceph osd pool autoscale-status
/ p% f. ]; g8 W7 R8 I( Y' |$ mError ENOTSUP: Module 'pg_autoscaler' is not enabled (required by command 'osd pool autoscale-status'): use `ceph mgr module enable pg_autoscaler` to enable it
! m/ R$ E) h. t1 h0 R) }[root@ceph1 ~]# ceph mgr module enable pg_autoscaler% F0 K' O0 V: ?( Z" s1 N" W
[root@ceph1 ~]# ceph osd pool autoscale-status 8 A& d+ ^6 E. u/ e- {" |
POOL                  SIZE TARGET SIZE RATE RAW CAPACITY  RATIO TARGET RATIO EFFECTIVE RATIO BIAS PG_NUM NEW PG_NUM AUTOSCALE
; p3 c8 ?6 n! u9 tdefault.rgw.meta      857               2.0        1799G 0.0000                               1.0     32            warn      
+ [# g7 j5 d6 X) D/ ddefault.rgw.control     0               2.0        1799G 0.0000                               1.0     32            warn      / N3 c7 v$ h, }% N3 a. S9 C
.rgw.root            3653               2.0        1799G 0.0000                               1.0     32            warn      ; Z5 M2 p& g+ _/ m( ]* m# F( C
ocs                 88467M              2.0        1799G 0.0960                               1.0    128         32 warn      
6 F9 A7 ?  G. Nmetadata             7775               2.0        1799G 0.0000                               4.0     32            warn      
3 X, H# g  j; y/ K' B# Hdefault.rgw.log      3520               2.0        1799G 0.0000                               1.0     32            warn      
9 c1 g0 a; m8 ~( n" c  e# Vcephfsdata              0               2.0        1799G 0.0000                               1.0     64            warn      2 j( @( T  n0 i% F% o( E5 [
[root@ceph1 ~]# ceph osd pool autoscale-status ) g# L" r; [6 J4 |  B% o
POOL                  SIZE TARGET SIZE RATE RAW CAPACITY  RATIO TARGET RATIO EFFECTIVE RATIO BIAS PG_NUM NEW PG_NUM AUTOSCALE
" ~' l! u# |) V4 [9 t5 u# Cdefault.rgw.meta      857               2.0        1799G 0.0000                               1.0     32            warn      ; _4 Q+ U- t: i
default.rgw.control     0               2.0        1799G 0.0000                               1.0     32            warn      ( |! C' i. y" D1 A2 k+ Y
.rgw.root            3653               2.0        1799G 0.0000                               1.0     32            warn      
* F# m, J- U, z8 o8 A, n7 iocs                 88467M              2.0        1799G 0.0960                               1.0    128         32 warn      
0 X2 |) N) L: g/ u  B' o8 pmetadata             7775               2.0        1799G 0.0000                               4.0     32            warn      / _& d8 |0 w3 V/ [1 {7 b
default.rgw.log      3520               2.0        1799G 0.0000                               1.0     32            warn      
* b. Z- n% Z0 l8 k+ X! lcephfsdata              0               2.0        1799G 0.0000                               1.0     64            warn      
9 u% `8 {. _* Y  A3 V% @. {, x( k8 B

+ L, _# H9 d! Q  Z6 X9 w( {  }% S
$ _0 S6 ^, }' ?7 d6 e9 k8 t  n# P( p  l) ^) ^3 G6 r" S; U
设置目标ratio:/ h3 K) `; Z, y1 o  h" j/ t
ceph osd pool set volumes target_size_ratio .8  c! g: A& {/ _  K1 P% P4 V) O+ P

5 s+ g! _# f( q% W- |- G查看是否开启
# h( D6 n) s3 ^0 C7 G[root@ceph1 ~]# ceph osd pool autoscale-status 2 P" ]3 |/ v4 s, r- _8 a
POOL                         SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  $ |3 D( M7 ^9 H( D" j
device_health_metrics         19                 2.0        61428M  0.0000                                  1.0       1              on         ( a/ K3 q; s- b" J1 F
.rgw.root                   2110                 3.0        61428M  0.0000                                  1.0      32              on           u. k* L# x$ M3 ]8 x/ g- E
default.rgw.log             3583                 3.0        61428M  0.0000                                  1.0      32              on         
# W8 c! N0 ~( Y; w. u, xdefault.rgw.control            0                 3.0        61428M  0.0000                                  1.0      32              on         
: F7 c. ?/ {8 h8 ^, Kdefault.rgw.meta             829                 3.0        61428M  0.0000                                  4.0       8              on         
) [. m; t) ~2 }! R0 t3 Ucephfs.cephfs.meta         72392                 3.0        61428M  0.0000                                  4.0      16              on         ) h3 d5 t: T9 T9 a$ R' M
cephfs.cephfs.data         131.2k                3.0        61428M  0.0000                                  1.0      32              on         4 a0 @2 m5 Q# a3 ], p1 |
default.rgw.buckets.index  96810                 3.0        61428M  0.0000                                  4.0       8              on      
4 N4 M9 ]6 i: u# Q/ w
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

如有购买积分卡请联系497906712

QQ|返回首页|Archiver|手机版|小黑屋|易陆发现 点击这里给我发消息

GMT+8, 2023-2-1 00:31 , Processed in 0.047364 second(s), 22 queries .

Powered by LR.LINUX.cloud bbs168x X3.2 Licensed

© 2012-2022 Comsenz Inc.

快速回复 返回顶部 返回列表