- 积分
- 16843
在线时间 小时
最后登录1970-1-1
|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?开始注册
x
Pacemaker集群资源管理# `9 }8 i( K- ^
1、集群资源代理
+ R4 h( H, E+ ~& ^在 pacemaker高可用集群中,资源就是集群所维护的高可用服务对象。根据用户的配置,资源有不同的种类,其中最为简单的资源是原始资源(primitive Resource),此外还有相对高级和复杂的资源组(Resource Group)和克隆资源(Clone Resource)等集群资源概念。在 Pacemaker集群中,每一个原始资源都有一个资源代理(Resource Agent, RA), RA是一个与资源相关的外部脚本程序,该程序抽象了资源本身所提供的服务并向集群呈现一致的视图以供集群对该资源进行操作控制。通过 RA,几乎任何应用程序都可以成为 Pacemaker集群的资源从而被集群资源管理器和控制。RA的存在,使得集群资源管理器可以对其所管理的资源“不求甚解",即集群资源管理器无需知道资源具体的工作逻辑和原理( RA已将其封装),资源管理器只需向 RA发出 start、 stop、Monitor等命令, RA便会执行相应的操作。从资源管理器对资源的控制过程来看,集群对资源的管理完全依赖于该资源所提供的,即资源的 RA脚本功能直接决定了资源管理器可以对该资源进行何种控制,因此一个功能完善的 RA在发行之前必须经过充分的功能测试。在多数情况下,资源 RA以 shell脚本的形式提供,当然也可以使用其他比较流行的如 c、 python、 perl等语言来实现 RA。
8 c8 N' i* S4 d在 pacemaker集群中,资源管理器支持不同种类的资源代理,这些受支持的资源代理包括 OCF、LSB、 Upstart、 systemd、 service、 Fencing、 Nagios Plugins,而在 Linux系统中,最为常见的有 OCF(open Cluster Framework)资源代理、 LSB( Linux standard Base)资源代理、systemd和 service资源代理。- g' J7 T6 G+ q' i# @: x, ^
(1) OCF
. k2 g% q; Q b OCF是开放式集群框架的简称,从本质上来看, OCF标准其实是对 LSB标准约定中 init脚本的一种延伸和扩展。 OCF标准支持参数传递、自我功能描述以及可扩展性,此外,OCF标准还严格定义了操作执行后的返回代码,集群资源管理器将会根据0资源代理返回的执行代码来对执行结果做出判断。因此,如果OCF脚本错误地提供了与操作结果不匹配的返回代码,则执行操作后的集群资源行为可能会变得莫名其妙,而对于不熟悉OCF脚本的用户,这将会是个非常困惑和不解的问题,尤其是当集群依赖于OCF返回代码来在资源的完全停止状态、错误状态和不确定状态之间进行判断的时候。因此,在OCF脚本发行使用之前一定要经过充分的功能测试,否则有问题的OCF脚本将会扰乱整个集群的资源管理。在Pacemaker集群中,OCF作为一种可以自我描述和高度灵活的行业标准,其已经成为使用最多的资源类别。
$ P% E8 p7 M7 Q( l6 u; i(2) LSB
' l/ I: F, p0 E LSB是最为传统的 Linux“资源标准之一,例如在 Redhat的 RHEL6及其以下版本中(或者对应的 centos版本中),经常在/etc/init.d目录下看到的资源启动脚本便是LSB标准的资源控制脚本。通常,LSB类型的脚本是由操作系统的发行版本提供的,而为了让集群能够使用这些脚本,它们必须遵循 LSB的规定, LSB类型的资源是可以配置为系统启动时自动启动的,但是如果需要通过集群资源管理器来控制这些资源,则不能将其配置为自动启动,而是由集群根据策略来自行启动。
) Q& F) |9 W' c9 g(3) Systemd# P5 h6 q" a0 _& J8 E$ b; G3 q. n/ D
在很多 Linux的最新发行版本中, systemd被用以替换传统“sysv"风格的系统启动初始化进程和脚本,如在 Redhat的 RHEL7和对应的 centos7操作系统中,systemd已经完全替代了 sysvinit启动系统,同时 systemd提供了与 sysvinit以及 LSB风格脚本兼容的特性,因此老旧系统中已经存在的服务和进程无需修改便可使用 systemd在 systemd中,服务不再是/etc/init.d目录下的 shell脚本,而是一个单元文件( unit-file),Systemd通过单元文件来启停和控制服务, Pacemaker提供了管理 Systemd类型的应用服务的功能。
5 f# c0 F) A3 O, q2 t6 r' v, j(4) Service
! ~6 ^6 t0 s+ ^! q Service是 Pacemaker支持的一种特别的服务别名,由于系统中存在各种类型的服务(如 LSB、 Systemd和 OCF), Pacemaker使用服务别名的方式自动识别在指定的集群节点上应该使用哪一种类型的服务。当一个集群中混合有 Systemd、 LSB和 OCF类型资源的时候,Service类型的资源代理别名就变得非常有用,例如在存在多种资源类别的情况下,Pacemaker将会自动按照 LSB、 Systemd、 Upstart的顺序来查找启动资源的脚本。在 pacemaker中,每个资源都具有属性,资源属性决定了该资源 RA脚本的位置,以及该资源隶属于哪种资源标准。例如,在某些情况下,用户可能会在同一系统中安装不同版本或者不同来源的同一服务(如相同的 RabbitMQ Cluster安装程序可能来自 RabbitMQ官方社区也可能来自 Redhat提供的 RabbitMQ安装包),在这个时候,就会存在同一服务对应多个版本资源的情况,为了区分不同来源的资源,就需要在定义集群资源的时候通过资源属性来指定具体使用哪个资源。在 pacemaker集群中,资源属性由以下几个部分构成。
7 ~/ a; H& I. }* U; V% Y5 O; G Resource_id:用户定义的资源名称。; k$ W1 h J# ~( _- E/ U
Standard:脚本遵循的标准,允许值为OCF、Service、Upstart、Systemd、LSB、Stonith。
( o0 x2 u+ Q4 s4 k q; K Type:资源代理的名称,如常见的IPaddr便是资源的。
# i' k0 U9 [1 Y K5 |) V Provider:OCF规范允许多个供应商提供同一资源代理,Provider即是指资源脚本的提供者,多数OCF规范提供的资源代均使用Heartbeat作为Provider。$ v9 \& Z! j$ o5 D; A. V7 ~7 M5 h
例如在集群中创建一个名称为VirtualIP:! g, ]$ [$ F8 s, h6 i( \
Resource_id Standard:Provider:Type pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.99 nic=eth23 W1 J5 C5 j: c/ K% U X
常用的命令方法
. f5 |7 f* e* Y" g opcs resource list 查看集群中所有可用资源列表. |0 @/ {$ O) F( a
8 e/ R) z- ^* @. P( E8 l- G* Vpcs resource standards 查看支持的资源代理标准
' p/ g2 E$ M0 E4 A9 q! w
6 ~1 J: ^9 o/ c1 P' y0 ypcs resource providers 查看集群中可用资源代理提供程序列表/ |8 I( I% H4 l: h. L g& z
8 C. a# M5 T6 |/ O4 u9 w
pcs resource describe Standard:Provider:Type 查看Standard:Provider:Type指定的资源代理的详细信息。' ?/ `( Z" `( K' ]4 k- ^
4 l V. O& p: z$ \+ c
pcs resource cleanup resource_id 重置资源状态
/ _# | B: y- F# B( P% w% w/ e# \0 k5 m4 ~( a# q
1、查看http的资源代理2 {4 A7 F- X5 ^6 x' d
, `3 J+ }9 w( X: J# E0 h) U
# pcs resource list |grep http
2 m3 t2 T! C# \7 ]/ x" I m$ yservice:httpd - systemd unit file for httpd
3 P: R: F( k1 n
5 ?: } G5 k5 Osystemd:httpd - systemd unit file for httpd7 [/ @. |8 e( Z# _7 D3 Y7 m
; K6 s& z- d, Z* F$ z+ y# E2 s
, g4 e- f% l% q) l8 s- I( O0 _2、查看怎么创建http资源:5 b$ g* l! G9 S! N5 L! ]( A3 z3 F6 R
# pcs resource describe systemd:httpd1 n' E- y/ h- ~$ P! m/ U
" U$ R& X' k: ~( |$ e; R$ Isystemd:httpd - systemd unit file for httpd' [6 |8 k; F, f( t- h
+ g: H+ ~1 @+ E9 w" [
Cluster Controlled httpd6 i8 x( \' D8 {
7 D; @$ X8 q# _. _4 h1 c
Default operations:& B: h& j" Q& y) u. }3 J, i
0 W" d" S0 ^& ]3 A
start: interval=0s timeout=100, O7 Y4 ?' t7 Y* g/ [; d
' U* [0 p8 I+ ~6 k, fstop: interval=0s timeout=100
" y( A7 e; D- M1 u8 E" L$ g v* H0 D# V% e O
monitor: interval=60 timeout=1001 {9 p- ?9 k; o9 G d& c/ _
3 l/ v+ I* l: n! b* Z( T! v
8 G% z- F+ @6 x ?2 t! J9 A; U3 f# m3、创建http资源:
; c0 d r. W* V1 `* Q+ @+ k# pcs resource create http systemd:httpd
' p% [0 p! ?3 v( n. B6 P% p% n$ Y* M& J. g: R
2、集群资源约束
( ^/ I5 H5 C6 W, p' a$ I6 N集群是由众多具有特定功能的资源组成的集合,集群中的每个资源都可以对外提供独立服务,但是资源彼此之间存在依赖与被依赖的关系。如资源B的启动必须依赖资源A的存在,因此资源A必须在资源B之前启动,再如资源A必须与资源B位于同一节点以共享某些服务,则资源 B与 A在故障切换时必须作为一个逻辑整体而同时迁移到其他节点,在 pacemaker中,资源之间的这种关系通过资源约束或限制( Resource constraint)来实现。 pacemaker集群中的资源约束可以分为以下几类。
" U8 o/ ~* |. r2 Z+ Q4 j5 ?- V u7 M# a. v' Q. p+ g
位置约束(Location):位置约束限定了资源应该在哪个集群节点上启动运行。
# F$ S: k' }1 B7 l' }, E顺序约束(Order):顺序约束限定了资源之间的启动顺序。
- a+ {: q1 R5 a5 J0 i. g! \8 d资源捆绑约束(Colocation):捆绑约束将不同的资源捆绑在一起作为一个逻辑整体,即资源 A位于 c节点,则资源 B也必须位于 c节点,并且资源 A、 B将会同时进 行故障切换到相同的节点上。' U5 @8 M$ B$ X' l \
在资源配置中, Location约束在限定运行资源的节点时非常有用,例如在 openstack高可用集群配置中,我们希望 Nova-ompute资源仅运行在计算节点上,而nova-api和 Neutron-sever等资源仅运行在控制节点上,这时便可通过资源的Location约束来实现。例如,我们先给每一个节点设置不同的 osprole属性(属性名称可自定义),计算节点中该值设为 compute,控制节点中该值设为 controller,如下:
* ~0 ^ [& S% P+ |' q8 ^( r
/ g; g7 `( b; [0 t1 Z8 t1 H5 l- apcs property set --node computel Osprole=compute
. m, P0 A6 H- O ]/ q& N+ Q; u) x9 |5 V7 p7 V) `
pcs property set --node computel osprole=compute7 z- D' E1 |7 c8 P
( `, ~9 _* Z4 `, D( u/ bpcs property set --node controller1 osprole=controller
* ^' j; ?) p$ K6 G$ H" _
! {0 S* ?1 [, Q9 ~! R9 {3 q' w0 bpcs property set --node controller2 osprole=controller6 D2 C9 T& Z) J& a' Q5 i
# s4 T7 J) h4 K& ^pcs property set --node controller3 osprole=controller
, R6 F( a+ m3 v! `& c: C( n( n @
4 E" M. b5 u# T8 ^4 P, H
# @/ Y. y6 O1 V/ |: Z9 u然后,通过为资源设置 Location约束,便可将 Nova-compute资源仅限制在计算节点上运行,Location约束的设置命令如下:
; \9 y& s$ @# ^6 u, U 即资源 Nova-compute-clone仅会在 osprole等于 compute的节点上运行,也即计算节点上运行。! ], Y1 @& b* i. m; r/ ]" y
pcs constraint location nova-compute-clone rule resource-discovery=exclusive score=0 osprole eq compute9 _1 {8 w% _& ]% _5 n9 ]$ W
/ ^. | [% z d: l4 z. p- z% c在 pacemaker集群中,order约束主要用来解决资源的启动依赖关系,资源启动依赖在Linux系统中非常普遍。例如在Openstack高可用集群配置中,需要先启动基础服务如 RabbitMQ和 MySQL等,才能启动 Openstack的核心服务,因为这些服务都需要使用消息队列和数据库服务;再如在网络服务 Neutron中,必须先启动Neutron-server服务,才能启动Neutron的其他 Agent服务,因为这些 Agent在启动时均会到 Neutron-sever中进行服务注册。 Pacemaker集群中解决资源启动依赖的方案便是 order约束。例如,在 openstack的网络服务 Neutron配置中,与 Neutron相关的资源启动顺序应该如下:Keystone-->Neutron-server-->Neutron-ovs-cleanup-->Neutron-netns-cleanup-->Neutron-openvswitch-agent-->Neutron-dncp-agent-->Neutron-l3-agent。上述依赖关系可以通过如下Order约束实现: z9 r0 h$ }1 h1 K9 Y5 ^$ a0 U; B
pcs constraint order start keystone-clone then neutron-server-api-clone
5 W+ Y Y3 e7 r
: Q" p& J1 s% Wpcs constraint order start neutron-server-api-clone then neutron-ovs-cleanup-clone
% |; q5 X1 _' h( f L; l2 L5 m$ u6 D } t! a# Z1 @! K; v
pcs constraint order start neutron-ovs-cleanup-clone then Neutron-netns-cleanup-clone9 v# a1 D) q5 x7 y! B% R) J
6 N! ^. c z1 X; Q0 [+ h# {pcs constraint order start Neutron-netns-cleanup-clonethen Neutron-openvswitch-agent-clone8 E. m/ {) l) q; ?9 g3 p2 X
; Y/ D& Q# c& s% K5 M+ h& j
pcs constraint order start Neutron-openvswitch-agent-clone then Neutron-dncp-agent-clone8 m5 w- i* Z3 L
# s# I4 t6 N2 _% Z3 v$ f9 R
pcs constraint order start Neutron-dncp-agent-clone then Neutron-l3-agent-clone& R" T: ?) F" W$ A( y0 S, e
; n* x3 c1 l2 O. a; v" R" a* {9 `/ X/ i. m& \2 K
Colocation约束主要用于根据资源 A的节点位置来决定资源 B的位置,即在启动资源 B的时候,会依赖资源 A的节点位置。例如将资源 A与资源 B进行 Colocation约束,假设资源A已经运行在 node1上,则资源 B也会在node1上启动,而如果node1故障,则资源B与 A会同时切换到node2而不是其中某个资源切换到 node3。在 Openstack高可用集群配置中,通常需要将 Libvirtd-compute与 Neutron-openvswitch-agent进行资源捆绑,要将 Nova-compute与 Libvirtd-compute进行资源捆绑,则 Colocation约束的配置如下:" s0 y+ p Z- S
+ {" M- s4 c8 H* l. _$ Z* W9 S* T
pcs constraint colocation add nova-compute-clone with libvirtd-compute-clone F' _+ e* O: d) C
. L( T+ R( M# K' S" x1 O
pcs constraint colocation add libvirtd-compute-clone with neutron-openvswitch-agent-compute-clone/ r0 x" T/ ]7 V/ z- [1 y. K; C
" \1 k' _& R$ w" `+ I' ~
4 j- N" r5 p6 n$ t+ _! ALocation约束、 Order约束和 Colocation约束是 Pacemaker集群中最为重要的三个约束通过这几个资源约束设置,集群中看起来彼此独立的资源就会按照预先设置有序运行。1 P# d7 \3 o7 {; B" d- V
3、集群资源类型
7 e" q7 _2 e. D1 w& |在 Pacemaker集群中,各种功能服务通常被配置为集群资源,从而接受资源管理器的调度与控制,资源是集群管理的最小单位对象。在集群资源配置中,由于不同高可用模式的需求,资源通常被配置为不同的运行模式,例如 Active/Active模式、 Active/Passive模式以及 Master/Master模式和 Master/Slave模式,而这些不同资源模式的配置均需要使用 Pacemaker提供的高级资源类型,这些资源类型包括资源组、资源克隆和资源多状态等。) L9 Z% }+ e5 s+ t0 r* K M$ d) z
(1)资源组' n0 a: r3 ]- f/ h$ [7 c- m+ j; |
在Pacemaker集群中,经常需要将多个资源作为一个资源组进行统一操作,例如将多个相关资源全部位于某个节点或者同时切换到另外的节点,并且要求这些资源按照一定的先后顺序启动,然后以相反的顺序停止,为了简化同时对多个资源进行配置,供了高级资源类型一资源组。通过资源组,用户便可并行配置多个资源,资源组的创建很简单,其语法格式如下:) i9 O9 A R5 N$ ~7 S5 V
pcs resource group add group_name resource_id ... [resource_id] [--before resource_id] --after resource_id4 w! \% v* C( X
4 T0 R# z. K0 W E使用该命令创建资源组时,如果指定的资源组目前不存在,则此命令会新建一个资源组,如果指定的资源组已经存在,则此命令会将指定的资源添加到该资源组中并且组中的资源会按照该命令中出现的先位置顺序启动,并以相反的顺序停止。在该命令中,还可使用–before和–after参数指定所添加的资源与组中已有资源的相对启动顺序。在为资源组添加资源时,不仅可以将已有资源添加到组中,还可以在创建资源的同时顺便将其添加到指定的资源组中,命令语法如下:/ I3 {. u: _1 b: k3 E6 ~1 Z
pcs resource create resource_id Standard:Provider:Type丨 type [ resource_options] [op operation_action operation_options] --group group_name( o& [, X( l* V
4 S4 x/ T I% {& ~
如下是资源组操作中经常使用的命令语法:% `6 g: W9 c, j* H# U! D% R$ C, l/ z
5 L$ |: t4 H; R7 s将资源从组中删除,如果该组中没有资源,这个命令会将该组删除:
) Q4 y) o4 F+ ? h2 Z! b& f3 lpcs resource group remove group_name resource_id ...0 }# u2 j2 F8 c
查看目前巳经配置的资源组:
4 u2 {$ B; j1 \pcs resource group list) Y- @) T* m0 h! I1 G2 L
创建名为Mygroup的资源组,并添加资源 IPaddr和 HAproxy:9 d, E9 }/ W: l/ Q7 [* K
pcs resource group add MyGroup IPaddr HAproxy
7 S! O. t' n$ I/ }. J/ R b在 Pacemaker集群中,资源组所包含的资源数目是不受限的,资源组中的资源具有如下的基本特性:. V5 i+ f$ K$ M
6 f, O6 x! P6 g) g, ^& {) o+ W资源按照其指定的先后顺序启动,如在前面示例的 MyGroup资源组中,首先启动 IPaddr,然后启动 HAproxy。
. d- @! _# u. M资源按照其指定顺序的相反顺序停止,如首先停止 HAproxy,然后停止 IPaddr9 ~/ h5 r3 ~5 \; K- p5 s( z
如果资源组中的某个资源无法在任何节点启动运行,那么在该资源后指定的任何资源都将无法运行,如 IPaddr不能启动,则 HAproxy也不能启动。1 }; O: U: @) r$ s
资源组中后指定资源不影响前指定资源的运行,如 HAproxy不能运行,但IPaddr却可以正常运行。 t. M6 y" b' i8 o; a7 x' d3 d, m
在集群资源配置过程中,随着资源组成员的增加,集群资源的配置工作将会明显减少,因为管理员只需要添加资源到资源组中,然后便可对资源组进行整体操作。资源组具有组属性,并且资源组会继承组成员的部分属性,主要被继承的资源属性包括 Priority、Targct-role、Is-managed等,资源属性决定了资源在集群中的行为规范,以及资源管理器可以对其进行哪些操作,因此,了解资源的常见属性也是非常有必要的,如下是资源属性中比较重要的几个属性解释及其默认值。
* l3 B/ Z! v# W/ f5 k
2 u) m6 F" [6 ^8 x- M) ^Priority:资源优先级,其默认值是0,如果集群无法保证所有资源都处于运行状态,则低优先权资源会被停止,以便让高优先权资源保持运行状态。
X- R+ K. O7 R; sTarget-role:资源目标角色,在pcs其默认值是started,但在crm里其默认值为Stopped。表示集群应该让这个资源处于何种状态,允许值为:
, J* v- U# u6 B) ?. G, UStopped:表示强制资源停止;# }# s8 j' G' S3 S
Started:表示允许资源启动,但是在多状态资源的情况下不能将其提升为 Master资源;' _; c0 Z2 a6 y8 V
Master:允许资源启动,并在适当时将其提升为 Master。
' ^' \+ F8 B0 u9 Q: \6 I/ Fis-managed:其默认值是true,表示是否允许集群启动和停止该资源,false表示不允许。7 U9 \9 c9 Z( @
Resource-stickiness:默认值是0,表示该资源保留在原有位置节点的倾向程度值。, p8 _$ G: c7 S; [5 b( E
Requires:默认值为 fencing,表示资源在什么条件下允许启动。
# S6 |. W1 N0 [- G(2)资源克隆+ L% \- H0 N5 R/ n3 ]
克隆资源是Pacemaker集群中的高级资源类型之一,通过资源克隆,集群管理员可以将资源克隆到多个节点上并在启动时使其并行运行在这些节点上,例如可以通过资源克隆的形式在集群中的多个节点上运行冗余IP资源实例,并在多个处于 Active状态的资源之间实现负载均衡。通常而言,凡是其资源代理支持克隆功能的资源都可以实现资源克隆,但需要注意的是,只有己经规划为可以运行在Active/Active高可用模式的资源才能在集群中配置为克隆资源。配置克隆资源很简单,通常在创建资源的过程中同时对其进行资源克隆,克隆后的资源将会在集群中的全部节点上存在,并且克隆后的资源会自动在其后添加名为 clone的后缀并形成新的资源 ID,资源创建并克隆资源的语法如下:- z# x* W4 C& o7 x+ n
) c5 v* f. H- f& ^1 r) vpcs resource create resource_id standard:provider: type| type [resource options] --clone[meta clone_options]
! v, e2 Q7 O Q: j g4 f* i! P+ @8 b
克隆后的资源 ID不再是语法中指定的 Resource_id,而是 Resource_id-clone并且该资源会在集群全部节点中存在。在 Pacemaker集群中,资源组也可以被克隆,但是资源组克隆不能由单一命令完成,必须先创建资源组然后再对资源组进行克隆,资源组克隆的命令语法如下: }3 w o, q4 u5 f/ S3 F
pcs resource clone resource_id group_name [clone_optione] ...
8 m' @4 t( q. E l. Y1 Y& U( ?' G; s$ V/ n# p: I) |
克隆后资源的名称为 Resource_id-clone或 Group_name-clone在资源克隆命令中,可以指定资源克隆选项(clone_options),如下是常用的资源克隆选项及其意义。6 s% H! b% T. H# n. N2 o U! I
0 `; V# J" u( b; c7 H4 b& x
Priority/Target-role/ls-manage:这三个克隆资源属性是从被克隆的资源中继承而来的,具体意义可以参考上一节中的资源属性解释。3 E! p7 [* y1 n: J! J
Clone-max:该选项值表示需要存在多少资源副本才能启动资源,默认为该集群中的节点数。双节点的HA,则默认值为2。4 Z) c) F+ g' I7 _( K; n6 d
Clone-node-max:表示在单一节点上能够启动多少个资源副本,默认值为1。9 @" _) w, S6 ^( Y0 d
`Notify:表示在停止或启动克隆资源副本时,是否在开始操作前和操作完成后告知其他所有资源副本,允许值为 False和 True,默认值为 False。
0 w" g/ Q1 j& n4 ZGlobally-unique:表示是否允许每个克隆副本资源执行不同的功能,允许值为 False和 True。如果其值为 False,则不管这些克隆副本资源运行在何处,它们的行为都是完全和同的,因此每个节点中有且仅有一个克隆副本资源处于 Active状态。其值为 True,则运行在某个节点上的多个资源副本实例或者不同节点上的多个副本实例完全不一样。如果Clone-node-max取值大于1,即一个节点上运行多个资源副本,那么 Globally-unique的默认值为 True,否则为 False。
6 X3 T" Z% L5 L2 _ xOrdered:表示是否顺序启动位于不同节点上的资源副本,“。为顺序启动,、为并行启动,默认值是 False。
9 I3 {9 z% E# w4 qInterleave:该属性值主要用于改变克隆资源或者 Masters资源之间的 ordering约束行为, Interleave可能的值为 True和 False,如果其值为 False,则位于相同节点上的后一个克隆资源的启动或者停止操作需要等待前一个克隆资源启动或者停止完成才能进行,而如果其值为 True,则后一个克隆资源不用等待前一个克隆资源启动或者停止完成便可进行启动或者停止操作。 Interleave的默认值为 False。3 q/ _) s. a) m
maintenance:处于维护模式的资源不受群集的监视。默认值:false
' W7 b. v/ f" j7 S在通常情况下,克隆资源会在集群中的每个在线节点上都存在一个副本,即资源副本数目与集群节点数目相等,但是,集群管理员可以通过资源克隆选项Clone-max将资源副本数目设为小于集群节点数目,如果通过设置使得资源副本数目小于节点数目,则需要通过资源位置约束( Location Constraint)将资源副本指定到相应的节点上,设置克隆资源的位置约束与设置常规资源的位置约束类似。例如要将克隆资源 Web-clone限制在 node1节点上运行,则命令语法如下:
8 \" b. L1 s% v2 s$ ]# I6 h; B$ e0 q5 b; I5 \+ e5 U- D
pcs constraint location web-clone prefers node1) G6 r Y# }4 f4 Z) V$ D. B0 {4 C
; B0 U9 P: R+ M1 A! g1 m(3)资源多态2 J7 B2 z |! a4 G2 V, ?1 C
多状态资源是 Pacemaker集群中实现资源 Master/Master或 Master/S1ave高可用模式的机制,并且多态资源是一种特殊的克隆资源,多状态资源机制允许资源实例在同一时刻仅处于 Master状态或者Slave状态。多状态资源的创建只需在普通资源创建的过程中指定一 Master参数即可,Master/Slave多状态类型资源的创建命令语法如下:; p9 K7 o2 K. O; z" Q# f) }9 G) R
pcs resource create resource_id standard:provider: type| type [resource options] --master [meta master_options]
" x" A$ y1 n5 f9 O3 l
' f+ U2 Z& t3 a Y n多状态资源是一种特殊的克隆资源,默认情况下,多状态资源创建后也会在集群的全部节点中存在,多状态资源创建后在集群中的资源名称形如 Resource_id-master。需要指出的是,在 Master/Slave高可用模式下,尽管在集群中仅有一个节点上的资源会处于 Master状态,其他节点上均为 Slave状态,但是全部节点上的资源在启动之初均为 Slave状态,之后资源管理器会选择将某个节点的资源提升为 Master。另外,用户还可以将已经存在的资源或资源组创建为多状态资源,命令语法如下:* k8 n d+ G4 d0 `+ T. G
pcs resource master master/slave_name resource_id group_name [master_options]
% m8 z% w& N1 n9 g
; i( i/ l: x4 a A; L$ ^& {# X% B在多状态资源的创建过程中,可以通过Master选项( Master_options)来设置多状态资源的属性,Master_options主要有以下两种属性值:
% G \4 L1 E4 u2 C c+ p" }! i% Y3 m! {
Master-max:其值表示可将多少个资源副本由Slave状态提升至 Master状态,默认值为1,即仅有一个 Master。
) s! a1 h5 c8 Q$ x' T( gMaster-node-max:其值表示在同一节点中可将多少资源副本提升至 Master状态,默认值为1。- j: X* |2 a% @1 H$ D! X
在通常情况下,多状态资源默认会在每个在线的集群节点中分配一个资源副本,如果希望资源副本数目少于节点数目,则可通过资源的Location约束指定运行资源副本的集群节点,多状态资源的Location约束在实现的命令语法上与常规资源没有任何不同。此外,在配置多状态资源的Ordering约束时,可以指定对资源进行的操作是提升(Promote)还是降级(Demote)操作:$ d" {' d- v- H
' D% {$ b4 ?9 m) ]9 [, j& O) [( opcs constraint order [action] resource_id then [action] resource_id [options]
0 N( ^0 a. ^6 T
. O4 `- y. W6 N4 w0 }; L( tPromote操作即是将对应的资源(resource_id)提升为 Master状态, Demote操作即是将资源(resource_id)降级为 Slave状态,通过 ordering约束即可设定被提升或降级资源的顺序。
3 r$ ^6 h5 @( C9 i! R(4)集群资源规则
1 O7 L4 q2 E% F ?资源规则(Rule)使得 pacemaker集群资源具备了更强的动态调节能力,资源规则最常见的使用方式就是在集群资源运行时设置一个合理的粘性值(Resource-stickness)'以防止资源回切到资源创建之初指定的高优先级节点上,即动态改变资源粘性值以防止资源意外回切。在大规模的集群资源配置中,资源规则的另一重要作用就是通过设置节点属性,将多个具有某一相同属性值的物理节点聚合到一个逻辑组中,然后通过资源的 Location约束,利用节点组的这个共有节点属性值,将资源限制在该节点组上运行,即只允许此节点组中的节点运行该资源,在 Openstack高可用集群配置中,将会使用这种方式来限制不同的资源运行在不同的节点组上(控制节点组和计算节点组),大致的配置方式就是先为选定的节点设置某一自定义属性,以将其归纳到一个节点组,如下配置命令将计算节点和控制节点分别设置为不同的节点属性:
: L9 h% p- ?) t ~' D9 o- g" h- L8 Fpcs property set --node computel osprole=compute
6 t+ K$ b2 f' z- i& r3 K
5 c n& k( z9 s4 g- dpcs property set --node computel osprole=compute
& R% T- w! u$ I6 [& ~$ P! ?# k S; X* w5 y Y0 v0 n/ y
pcs property set --node controller1 osprole=controller
- g: b3 J6 @9 P- T4 P0 X) f
9 _( i% |+ ^# Fpcs property set --node controller2 osprole=controller7 J* K! b9 p3 \, ~5 ~
( D2 x4 O. D. J6 t3 U# P
pcs property set --node controller3 osprole=controller6 M3 d3 G" g: |4 I/ l
( \7 j' U' h; X4 ]: H
1 ~+ }! S" M3 y0 Q! A+ S
此处通过为节点分别设置不同的osprole属性值,将节点划分为两个集合,即计算节点组和控制节点组,将节点 compute1和 compte2归纳到 compute节点组,节点controller1、controller2以及 controller3归纳到 controller节点组,然后通过资源的 Location约束将资源限制到不同的节点组中运行,配置命令如下:
; u" ~2 V' q! P/ C5 o; L9 gpcs constraint location nova-compute-clone rule resource-discovery=exclusive score=0 osprole eq compute" J; b8 j0 J/ c( l4 w' H3 ^* E. X
& G! [6 A: V" q- X# ~3 ]* T/ @* L% ~
pcs constraint location nova-api-clone rule resource-discovery=exclusive score=0 osprole eq controller a' s. j. V1 ~* o# Y
- z0 x6 J) A% [1 h v1 _7 n+ `
: u3 g1 G: r2 ?, A
在上述命令中,当Rule表达式“osprole-compute" 或者"osprole=controller"成立,即Rule为True,则执行对应资源的Location约束。此处,通过资源Location 约束的“ resource-discovery-exclusive"配置,资源nova-compute-clone只能运行在compute节点组中,而 compute组中只有 compute1和compute2节点,因此nova-compute-clone只能在 compute1和 compute2上运行,绝不会在 controller1、controller2及controller3上运行。同样, nova-api-clone资源只会在controller组中的三个节点上运行。绝不会在 compute1和 compute2节点上运行。4 x- J1 Y6 u4 `4 @
5 k/ _# \+ W4 d s0 [' p在 Pacemaker集群中,每个资源的 Rule都会包含一个或多个数字、时间及日期表达式, Rule最终的取值则取决于多个表达式布尔运算的结果。布尔运算可以是管理员指定的逻辑与或者逻辑或操作,此外, Rule的效果总是以 constraint的形式体现。因此, Rule通常在 Constraint命令中配置,如下语句是配置资源 Rule的语法格式:: M3 v% t& w3 O! h( ]; h
pcs constraint rule add constraint_id [rule_type] [score=score] (id=rule-id] expression丨date_expression丨date-spec options4 o. ]) M& H% a7 D5 D4 c
2 t% ^4 b3 S, r* [8 K' J如果忽略 score值,则使用默认值 INFINITY,如果忽略 ID,则自动从 Constraint_id生成一个规则 ID,而 Rule-type可以是字符表达式或者日期表达式。需要注意的是,在删除资源 Rule时候,如果此 Rule是 Constraint中的最后一个 Rule,则该 Constraint将被删除,删除资源 Rule语法:pcs constraint rule remove rule_id
}1 N, e* R9 z& `: ^8 R% B8 e! [6 E& s" A. ]
资源 Rule的表达式主要分为节点属性表达式和时间/日期表达式,节点属性表达式由以下几个部分组成。- I8 C5 H; t' ~6 n
7 t* ~5 W2 {; e& M8 r. Q6 H
Value:用户提供的用于同节点属性值进行比较的值。5 {4 S/ w/ W( ^7 r- e
Attribute:节点属性变量名,其值即是 value要匹配的节点属性值。& u) m7 y+ Y% P6 Q0 X
Type:确定使用哪种类型的值匹配,允许的值包括字符串、整数、版本号(Version)。
0 M2 z$ K+ a! V' b8 K5 sOperation:操作符,确定用户提供的1“与节点 Attribute的值如何匹配,主要包括以下几种操作符。" Z; H( e4 h1 ?: \ w. X
lt:如果 value 小于 Attribute的值,表达式为正 True;. v& i5 k, ^ d3 W- B
gt:如果 value 大于 Attribute的值,表达式为正 True;
9 } ?9 a/ O2 K7 P5 r$ R1 W) z3 Jlte:如果value 小于等于 Attribute的值,表达式为正 True;
& g- ~' B! Z: n) n9 e1 kgte:如果 value 大于等于 Attribute的值,表达式为正 True;4 p' ^, U; l8 r- i6 k% w
eq:如果 value 等于 Attribute的值,表达式为正;
0 ]- G7 K% q4 cne:如果 value不等于 Attribute的值,表达式为正 True;
! B- l! r: x" Odefined:如果表达式中的 Attribute在节点中有定义,则表达式为 True;
/ I! r+ t K" rnot_defined:如果节点中没有定义表达式中的 Attribute,则表达式为True。) b# m" t2 [1 s; O$ D& G
要通过Rule的节点属性表达式来确定资源的Location,则通常的命令语法如下:
; V5 d3 _2 H* T8 v0 o4 n) z+ w3 g) | w
pcs resource constraint location resource_id rule [rule_id] [role=master|slave] [score=score expression]
4 J% T1 \: S& [- b% o6 }0 I
K9 `8 y' N$ i. s. c2 j" V% C
) B. p2 E7 `2 O) U此处的表达式可以是以下几种形式:
, y- {; m5 S5 q/ ~) U
( ]1 Z5 N; M6 V$ B- s5 D defined|not_defined attribute
) h6 W0 M9 r; N, Z% N
# i4 t8 w6 W$ ] attribute lt|gt|Ite|gte|eq|ne value
; D) V: P6 V2 }% G) z! @, ~ ?4 h; V; w
date [start=start] [end=end] operation=gt|lt|in-range7 Q2 U0 T5 s9 n
7 o% \0 X! W) y; I date-spec date_spec_options
: b4 I% Z6 W' g' k* ]4 b
# _; u5 l/ J" j" r; M4 C
4 d% k$ e/ F r3 Y' a7 J3 z, t在 Openstack高可用集群配置中,使用最多的是第二种形式的表达式,例如要限制 Nova-compute服务仅运行在计算节点上,则可以通过如下 Rule和 Location配置实现:
3 }8 I3 R1 M, C+ Gpcs constraint location nova-compute-clone rule resource-discovery=exclusive score=0 osprole eq compute5 y$ _. I: Z% l) Q
/ m# K4 q$ X0 `/ s
上述命令中,"osprole eq compute"即是 Rule的表达式,其中 osprole是节点的Atfribute, Compute是用户指定的节点属性值,该表达式的操作符是等于符号(该命令语句中的规则表达式的意思就是,当节点的值等于用户指定值( compute)的时候,则 Rule表达式为 True(计算节点属性中已经预先设置了osprole属性值为compute )。2 {7 x. f y* [5 X" [
4 }4 ]: m: d; {+ A/ u/ W" d(5)集群参数9 X# Z4 i6 a h( k8 A* _. f
cluster-name 集群名字
* z/ t1 k) b; d, G, LAn arbitrary name for the cluster* K! r3 N) m H+ ?/ P: o
9 p2 a( y6 P) v9 Y
This optional value is mostly for users' ' convenience as desired in administration, but may also be used in Pacemaker configuration rules via the #cluster-name node attribute, and by higher-level tools and resource agents.$ A4 S- H @" b# M: `
; l/ [' W& v! P; n
Default : (null)6 k8 h: c+ _. E" m
) h7 z- P, ]7 f1 Ustonith-enabled. U0 f8 ?% e% l0 n
+ C: p* t7 _9 @- L* k
; o* T3 z, u2 L, N有fencing设备时,则需要修改为true。
2 w0 T. F- o* j5 n, y# D4 y( n8 D3 {3 x1 C+ B" D. N
没有 Fencing设备时,禁用STONITH 组件功能,在 stonith-enabled=“false” 的情况下,分布式锁管理器 (DLM) 等资源以及依赖DLM 的所有服务(例如 cLVM2、GFS2 和 OCFS2)都将无法启动。# G/ X% `- u- |8 r+ V
& }2 c: L/ \4 V9 _ R' nstonith-action当节点需要隔离时发送到隔离设备的操作
' P- x3 f. I- E/ m4 ?Action to send to fence device when a node needs to be fenced ("poweroff" is a deprecated alias for "off")# _; }; p- |' o& @( i/ h% A
, I' c$ d) V1 G4 g! N( w
Allowed values: reboot, off, poweroff% O/ w' F8 r( h
1 h7 O' ^) @+ P/ d+ y/ g4 r
Default : reboot
/ ^# w( @4 C7 ]8 E' n0 z7 i
; v6 r9 e% x( Y" k# f0 @- _
# Z# s: @2 o1 P& j& D7 ?placement-strategy 集群应该如何为节点分配资源
; i+ R# C1 T/ c& b7 \( w; L2 ZHow the cluster should allocate resources to nodes
1 A$ F. }, Y3 R' p4 o3 |* h4 t" w" K4 F% e: b- d" j
Allowed values: default, utilization, minimal, balanced
) W, c$ Y0 ?& L3 f3 j! g- v/ B5 W5 Y; d i! B' l p0 Q
Default : default" O7 m- x, j4 }) P3 u
$ W( z7 O3 W% e" E) |8 ?% j6 o% n' U j) U5 X
no-quorum-policy 群集没有仲裁时该怎么办2 k) e6 i* X/ G* T7 L
What to do when the cluster does not have quorum) P# v, m. Y7 {9 g
: e- p) e v; ], g3 O. \* j
Allowed values: stop, freeze, ignore, suicide% z I! I0 c) l Y
3 v. i3 F v Z- f* gDefault : stop
& h( B L1 z+ [5 Y7 t2 f6 r2 a& X9 r0 H
. m% n1 k* \; h, n
maintenance-mode 维护模式,集群是否应避免监视、启动和停止资源。# V- d3 n+ n3 c) |4 v2 R
Whether the cluster should refrain from monitoring, starting, and stopping resources
/ p M( Q2 m# c
$ z9 U9 V6 K0 z/ LDefault : false
( ~3 e- N. q. G- p3 v+ l- U5 y7 J: ]: f9 \' u
# q4 u% B2 z& n
resource-stickiness 资源在多大程度上希望留在原地?; L! f+ E! N" ^! A
How much does the resource prefer to stay where it is?
9 B: K5 g8 @& j3 [, p
6 t+ Z3 I1 V3 E" d! q W' ^' |; |Default : 0
' |* P y/ g8 N
) x% p* h& j) b: m
. h+ q- W0 A; v, `4 l$ A$ K# }- s Umigration-threshold 在将此节点标记为不具备承载此资源的资格之前,节点上的此资源可能会发生多少次故障。值为0表示此功能已禁用。& R9 J- U$ ?4 Q, \; W" h
How many failures may occur for this resource on a node, before this node is marked ineligible to host this resource. A value of 0 indicates that this feature is disabled.
4 n' u+ U) C% p$ `
. j0 w* _/ ]& ]) _Default : 08 x0 x4 s9 S7 ~' E3 Y
4 L9 Q$ g7 n6 o- I9 p$ p
1 s, S$ |; B' D5 nPCS命令详解和参数说明' k: ]6 E& R+ }) t. }2 u/ v4 M1 m8 X5 f
安装' Q5 A7 w' J1 D
公网安装/ s9 ]" k( W& z# n
1.安装群集软件:' q6 B* ^5 `/ k+ J
yum -y install corosync pacemaker pcs
0 Z# A3 C- G' y( n9 W$ ~0 g& P5 O yum -y install fence-agents resource-agents
9 l: t, d9 |+ }7 i
) J( ^* n2 M* t+ Y6 ?
& @6 Q3 \$ r! }! L+ t: `2.拷贝配置文件、启动脚本
; ~) L2 R5 k' \9 A% U$ Z1 e2 L注意:群集需要严格的时间同步机制,如果启用了防火墙需要开放相应的端口。: Z1 E/ R6 X6 \
mkdir -p /etc/cluster/
: Q) ~4 }/ w" ^; m! @* f ln -s /etc/rc.d/init.d/corosync /etc/rc.d/init.d/cman
9 {) `9 e5 ?) `( S6 ?2 V ln -s /usr/sbin/corosync-cmapctl /usr/sbin/corosync-objctl* N) n% O8 x4 o+ _) F& W w
cp /etc/corosync/corosync.conf.example /etc/corosync/corosync.conf1 @& V: o+ }0 L* S" B1 A6 F/ F
6 e. b- R5 B2 m% C$ w$ j z, Q' M8 d1 m- ?
内网安装6 N+ k9 O% x+ m4 ]/ \2 z- s' D
其实就是在有外网的情况下汇总corosync pacemaker pcs fence-agents resource-agents 这些包放在一个文件夹拷贝到内网环境,用rpm安装即可。$ Q% C: S9 u# {. g& F" p$ [
, C7 v- r7 |- L如果不会在公网上将包和依赖下载的,看我这篇文章* j3 ]' I1 ~2 L
【yum】linux离线安装rpm包及其依赖和卸载包及其依赖
, S) j/ D( B) Q4 ^2 \' j N1 a) p
" U5 k. v5 @ E0 q) v最后面centos8或bclinux8.2离线安装pcs以及搭建pcs、pcs的使用说明,中有实操内网安装。
7 k' }: ?0 v9 o8 L b9 `' v6 `% g1 V4 {& Z6 i% F! Q
建立集群
/ o7 @0 x; K" v8 ^下面内容来源于网上,建议结合我这实操的做下对比【这内容在最下面的文章中哈】. |# t, V `% e! q' T) V
: a, }( |9 H1 z9 Z8 W: e9 t
- n1 J$ N- B1 ^% u, }# ~& L% k0 _1、配置群集节点的认证as the hacluster user:
& U) F- Z% W# T% t5 o+ w" a! X
% Z3 I8 r2 i) p/ T# pcs cluster auth node1 node2
6 r2 H; n$ i3 e* ^& p: z) c! W
2、创建一个二个节点的群集
3 D( u8 p; W, \2 M. n+ m# S# pcs cluster setup --name mycluster node1 node25 K3 _+ `* o/ ^
# pcs cluster start --all ## 启动群集5 G, u; p, C- v4 J
S# B d4 X" V+ c, ], ]$ {& h* Y( L& Z+ Q$ m. ?2 Y
3、设置资源默认粘性(防止资源回切)5 i- [& n& t Z6 e) ]( ^; y, U
# pcs resource defaults resource-stickiness=1008 \& O! ?4 c5 ?( x- o
# pcs resource defaults
7 o' K, e6 X A
( {. I# S3 }! N' H9 I6 c! k% ]9 g$ D# @5 ^' d* A
4、设置资源超时时间
9 q+ S$ D2 n5 \$ R5 l% ^# pcs resource op defaults timeout=90s/ d7 ^2 K3 y* q8 G% V; y
# pcs resource op defaults5 x2 G i: ~8 \4 a
1 r# `8 d6 e3 G; Z/ d' R# P0 y/ l
P! A( h" O2 `1 z0 C5、二个节点时,忽略节点quorum功能
$ R7 b5 m2 y( D9 H# b. K# pcs property set no-quorum-policy=ignore
$ _" T; e9 z2 L, c- L5 j7 S' ^- m- I, O l0 Z( }
6、没有 Fencing设备时,禁用STONITH 组件功能
- U0 i0 C1 X8 Y. P在 stonith-enabled=“false” 的情况下,分布式锁管理器 (DLM) 等资源以及依赖DLM 的所有服务(例如 cLVM2、GFS2 和 OCFS2)都将无法启动。
! h( g/ R0 m0 u: U2 ~# pcs property set stonith-enabled=false# t( B+ X$ [9 k) v, I
# crm_verify -L -V ## 验证群集配置信息1 H+ j- c9 k- B" j* \
$ D5 i* x4 x' K& w f. K
, k5 V, H" V h' U7 j4 n建立集群资源
3 e b* \+ c+ |1、查看可用资源
9 m* g y- t8 b# pcs resource list ## 查看支持资源列表,pcs resource list ocf:heartbeat
% W& ]0 ~/ K" Y d' z' c# pcs resource describe agent_name ## 查看资源使用参数,pcs resource describe ocf:heartbeat:IPaddr2
6 A+ H$ k1 R; O+ L. ~7 y5 e; X% N7 f8 i2 m) d. u% A( {0 U& i' P6 s
4 i. m. I" v3 @: b2、配置虚拟IP【vip】
/ |' i" O; d9 v; c% k# pcs resource create ClusterIP ocf:heartbeat:IPaddr2 ip="192.168.10.15" cidr_netmask=32 nic=eth0 op monitor interval=30s 6 }$ v9 A, k8 Z6 u) X
- M9 e- a6 _1 e( @# k' G6 m9 W
绑定服务' `/ i5 K+ B/ c2 G6 s$ D7 m+ e
配置Apache(httpd)* p+ o6 r: N- D- u8 \- ]$ w
# pcs resource create WebServer ocf:heartbeat:apache httpd="/usr/sbin/httpd" configfile="/etc/httpd/conf/httpd.conf" statusurl="http://localhost/server-status" op monitor interval=1min5 p# F2 b2 i: |# j: s R
0 o# S) G3 i1 e3 ]配置Nginx
; { }$ X6 T" B+ I p% n% ^* [# pcs resource create WebServer ocf:heartbeat:nginx httpd="/usr/sbin/nginx" configfile="/etc/nginx/nginx.conf" statusurl="http://localhost/ngx_status" op monitor interval=30s
0 M; g" V7 Z, Z: }+ @0 h. u9 N+ X% j% ?* J) G$ w% Q
配置FileSystem
' e* Y+ B; C: t. b# }. ~9 \" b) Y1、配置FileSystem) f+ s' j+ [6 |
# pcs resource create WebFS ocf:heartbeat:Filesystem device="/dev/sdb1" directory="/var/www/html" fstype="ext4". z6 w/ ~( z( x8 p# e2 |; J/ t
: I4 R# e$ K+ B% A- A t
# pcs resource create WebFS ocf:heartbeat:Filesystem device="-U 32937d65eb" directory="/var/www/html" fstype="ext4"8 f" q, E Q% M1 h1 c5 }, ?
# K( Q/ _$ p' {, v: Y
b% u- {8 l" `2、配置FileSystem-NFS
, v% G3 V4 e& y) t: z# pcs resource create WebFS ocf:heartbeat:Filesystem device="192.168.10.18:/mysqldata" directory="/var/lib/mysql" fstype="nfs" options="-o username=your_name,password=your_password" op start timeout=60s op stop timeout=60s op monitor interval=20s timeout=60s
6 O7 D' }5 Z9 _( p5 W1. t9 _) A, b) i& i! ?! q
配置Iscsi4 M+ D* W/ V4 b- \* Q! r R# q
# pcs resource create WebData ocf:heartbeat:iscsi portal="192.168.10.18" target="iqn.2008-08.com.starwindsoftware:" op monitor depth="0" timeout="30" interval="120"& |9 @4 r/ N% G6 F( i
9 ~& B: u/ Y- A* _- s% ]# pcs resource create WebFS ocf:heartbeat:Filesystem device="-U 32937d65eb" directory="/var/www/html" fstype="ext4" options="_netdev"
4 \" f% n, ~3 P7 T& d
3 O& _. \4 m: w! ~' h+ R3 g
* K& g2 c( A* j W配置DRBD( Z' B* j8 f; d- t3 w3 ]$ d0 O
# pcs resource create WebData ocf:linbit:drbd drbd_resource=wwwdata op monitor interval=60s
4 K5 `- c8 B3 e" u O" T( _8 p0 v U, x$ t5 l
# pcs resource master WebDataClone WebData master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true
% S8 u4 E( l' j' A; X1 j3 N% |7 p
$ N+ [9 I" z! R$ L' z# pcs resource create WebFS ocf:heartbeat:Filesystem device="/dev/drbd1" directory="/var/www/html" fstype="ext4"# B) _) m, n, m" w& G' {
- [" Q7 o n% W L9 c* A1 v. z
# e8 Y8 B( C' i5 K配置MySQL- c' g; t- a, k7 J! V; b
# pcs resource create MySQL ocf:heartbeat:mysql binary="/usr/bin/mysqld_safe" config="/etc/my.cnf" datadir="/var/lib/mysql" pid="/var/run/mysqld/mysql.pid" socket="/tmp/mysql.sock" op start timeout=180s op stop timeout=180s op monitor interval=20s timeout=60s9 k! ^6 G" G8 z% t
: h3 {8 d$ M: F6 s) x- ?6 c0 R# y; o* X o% B
配置Pingd,检测节点与目标的连接有效性
- ]' \8 }: v9 T2 N \# f( @# pcs resource create PingCheck ocf:heartbeat:pingd dampen=5s multiplier=100 host_list="192.168.10.1 router" op monitor interval=30s timeout=10s
( H' p' S$ \# u. T0 K: L. b) F u2 ], n" v( g7 i0 ^
4 D6 S1 K. c2 B4 ^, u; }创建资源clone,克隆的资源会在全部节点启动8 k' g/ F& K, M( O
# pcs resource clone PingCheck
: k" E" U9 }( m3 j/ I# pcs resource clone ClusterIP clone-max=2 clone-node-max=2 globally-unique=true ## clone-max=2,数据包分成2路$ l3 e/ v! l" d, g' l( ?3 X
# pcs resource update ClusterIP clusterip_hash=sourceip ## 指定响应请求的分配策略为:sourceip
% l) b# Y; G6 L. } b& }- J" a/ A, p; Y3 m- R! B+ k' F7 ~
1 S& t# o, |7 K4 ?5 @
调整集群资源" D$ L& X' C9 C$ N: z
1、配置资源约束0 m/ z; U' H2 L9 P
# pcs resource group add WebSrvs ClusterIP ## 配置资源组,组中资源会在同一节点运行3 R0 `0 a* j( d+ L) Y& E% n
# pcs resource group remove WebSrvs ClusterIP ## 移除组中的指定资源
; W4 W7 U7 t" Y5 V1 O" A0 t( T; x# pcs resource master WebDataClone WebData ## 配置具有多个状态的资源,如 DRBD master/slave状态
! m& H( f6 B' {( T- N: p# pcs constraint colocation add WebServer ClusterIP INFINITY ## 配置资源捆绑关系# Z& W4 p7 o; `! Y( C
# pcs constraint colocation remove WebServer ## 移除资源捆绑关系约束中资源* C+ P( h! u, g% F6 }
# pcs constraint order ClusterIP then WebServer ## 配置资源启动顺序
5 Y" k' q9 D R5 ]: g- f4 G# pcs constraint order remove ClusterIP ## 移除资源启动顺序约束中资源
- I9 i9 d1 x; l3 D9 t+ x0 C# pcs constraint ## 查看资源约束关系, pcs constraint --full/ W# e d$ d/ B, V
3 p$ T! o" a3 i
8 }8 f5 s- x' G+ m' i0 M2、配置资源位置
: v, c2 k* x5 \& `/ v3 P, m# pcs constraint location WebServer prefers node11 ## 指定资源默认某个节点,node=50 指定增加的 score: u4 P2 X1 O6 v
# pcs constraint location WebServer avoids node11 ## 指定资源避开某个节点,node=50 指定减少的 score
: M9 [8 D/ }5 w/ f# pcs constraint location remove location-WebServer ## 移除资源节点位置约束中资源ID,可用pcs config获取+ m: ^+ H; l y( \' l" @! K6 E
# pcs constraint location WebServer prefers node11=INFINITY ## 手工移动资源节点,指定节点资源的 score of INFINITY' N+ B5 b4 a4 S! D6 I f
# crm_simulate -sL ## 验证节点资源 score 值
5 W( d t% ], y0 N' p0 m% v. ]. w# K( \3 H% Z p8 ^% B" w1 G
9 j H9 i1 v! m" |; F/ w3、修改资源配置" R$ A/ h; {) I9 m2 V) o
# pcs resource update WebFS ## 更新资源配置# e3 V4 L( X, w3 p2 ?$ [, Q
# pcs resource delete WebFS ## 删除指定资源
6 F( I# a2 W5 J# g3 G6 r$ l+ _ W
( P* P+ b& b1 j; B
- ]$ u4 N/ U2 w0 v: v2 L3 u5 `) `4、管理群集资源0 F9 }+ X$ \* q2 P* H
# pcs resource disable ClusterIP ## 禁用资源
T1 z; `3 B$ w3 a0 d8 |7 T3 s: d# pcs resource enable ClusterIP ## 启用资源. a! S' c# g) ~' x3 I. X. H
# pcs resource failcount show ClusterIP ## 显示指定资源的错误计数3 V- l$ o( e# U. M; s
# pcs resource failcount reset ClusterIP ## 清除指定资源的错误计数
- y' F! e3 K6 y4 I: P& _# pcs resource cleanup ClusterIP ## 清除指定资源的状态与错误计数
; h4 @+ q* i$ b$ z2 W Y
- L( }4 C* p3 l2 t, O( S I) U, K
; d) T/ j6 i% ?; W5/ F& {$ \ [" w, a
/ {6 ?( M# E" ^7 \; \
配置Fencing设备,启用STONITH5 H1 l8 N+ `' Y# p" ?
1、查询Fence设备资源3 b8 V* E; H8 D2 M8 u6 T" F" G! R
# pcs stonith list ## 查看支持Fence列表
# k4 B. P" M H3 d2 o# pcs stonith describe agent_name ## 查看Fence资源使用参数,pcs stonith describe fence_vmware_soap
Z' p; A+ \) S8 S/ l8 N
9 j4 y" d+ z4 ~# n( v" s" y! @. u7 y* e l6 [! }) t! Y3 n
2、配置fence设备资源
& e; s& f/ _" }. l' ~6 R v7 n# pcs stonith create ipmi-fencing fence_ipmilan \6 H8 ~& m- x2 {5 V" r
pcmk_host_list="pcmk-1 pcmk-2" ipaddr="10.0.0.1" login=testuser passwd=acd123 \
* b3 k4 F5 z: [. c! l, o$ F op monitor interval=60s0 ~) ]- [, J8 W+ j n% N3 E5 `8 p( b
8 h- u' T6 k3 A
mark:1 f* D" a7 l$ y% H% b+ }/ N
If the device does not support the standard port parameter or may provide additional ones, you may also need to set the special pcmk_host_argument parameter. See man stonithd for details.
! i( |& w6 }. A3 {; mIf the device does not know how to fence nodes based on their uname, you may also need to set the special pcmk_host_map parameter. See man stonithd for details.- D- |# N( v3 D' L+ S$ `2 G* Y
If the device does not support the list command, you may also need to set the special pcmk_host_list and/or pcmk_host_check parameters. See man stonithd for details.% L; l5 p; k6 B( E# j! T
If the device does not expect the victim to be specified with the port parameter, you may also need to set the special pcmk_host_argument parameter. See man stonithd for details.
% U& S- e1 [9 X: J. dexample: pcmk_host_argument="uuid" pcmk_host_map="node11:4;node12:5;node13:6" pcmk_host_list="node11,node12" pcmk_host_check="static-list"5 O* I3 o! \" ]4 l
" f& b6 e3 M% r3 o T' d/ t N; Z) a; }! L. ~( e# o' v. q& M
3、配置VMWARE (fence_vmware_soap)( c8 l3 K) V& e; z6 h' c: _
特别说明:本次实例中使用了第3项(pcs stonith create vmware-fencing fence_vmware_soap)这个指定pcmk配置参数才能正常执行Fencing动作。
( h' G0 n* i7 M% W7 g( f. e" l, b/ |" e: X+ K
3.1、确认vmware虚拟机的状态:
$ }' v& b9 O6 ?# fence_vmware_soap -o list -a vcenter.example.com -l cluster-admin -p -z ## 获取虚拟机UUID: z: s- M/ ~% K: W" o- {7 h _' b
# fence_vmware_soap -o status -a vcenter.example.com -l cluster-admin -p -z -U ## 查看状态, G2 ~) K# l- x
# fence_vmware_soap -o status -a vcenter.example.com -l cluster-admin -p -z -n
6 ~/ K: U! R& k; |( L7 f; W# q/ L$ I7 H3 E% Z' N3 S2 A
# c: F6 e8 x8 V& K0 |# T0 _ v. d3.2、配置fence_vmware_soap% F# [1 v+ f, L$ q% t, k
# pcs stonith create vmware-fencing-node11 fence_vmware_soap action="reboot" ipaddr="192.168.10.10" login="vmuser" passwd="vmuserpd" ssl="1" port="node11" shell_timeout=60s login_timeout=60s op monitor interval=90s
4 |4 \) p' K; D6 c- b% \0 q! n
7 g* E; J; e8 m2 E# pcs stonith create vmware-fencing-node11 fence_vmware_soap action="reboot" ipaddr="192.168.10.10" login="vmuser" passwd="vmuserpd" ssl="1" uuid="421dec5f-c484-3d69-ddfb-65af46530581" shell_timeout=60s login_timeout=60s op monitor interval=90s" X2 j N' r, z$ h, f. n
5 Q. U: j- n7 [9 V+ L* A: G# pcs stonith create vmware-fencing fence_vmware_soap action="reboot" ipaddr="192.168.10.10" login="vmuser" passwd="vmuserpd" ssl="1" pcmk_host_argument="uuid" pcmk_host_check="static-list" pcmk_host_list="node11,node12" pcmk_host_map="node11:421dec5f-c484-3d69-ddfb-65af46530581;node12:421dec5f-c484-3d69-ddfb-65af46530582" shell_timeout=60s login_timeout=60s op monitor interval=90s
- A1 i" B) L, h. D
% N# q2 A3 q& e: t0 }/ b0 E' x& a% f l: H
注:如果配置fence_vmware_soap设备时用port=vm name在测试时不能识别,则使用uuid=vm uuid代替;% z0 S/ S/ f% r! J$ t6 a4 q
建议使用pcmk_host_argument、pcmk_host_map、pcmk_host_check、pcmk_host_list参数指明节点与设备端口关系,格式:
x P9 K- `, x# O' u8 z
+ v2 ^2 W; S" u' u9 a e) U1 u pcmk_host_argument="uuid" pcmk_host_map="node11:uuid4;node12:uuid5;node13:uuid6"
3 K+ {0 W1 s3 _' H pcmk_host_list="node11,node12,node13" pcmk_host_check="static-list"1 x5 t0 A2 T% T" r6 l* v8 Q
9 ^. }/ S- M5 h% P0 ?6 \
5 e( v( t/ }& r3 |+ Z$ v- w$ a4、配置SCSI
) @" V4 \* N. i# ls /dev/disk/by-id/wwn-* ## 获取Fencing磁盘UUID号,磁盘须未格式化
0 N/ `( r3 W* g9 ~# pcs stonith create iscsi-fencing fence_scsi \
5 c2 y/ ]1 l6 m action="reboot" devices="/dev/disk/by-id/wwn-0x600e002" meta provides=unfencing1 W! N0 c4 D7 t: n2 D1 P2 J
0 i" G6 K" I, K3 P% ?" m* n: V3 d( F: o- j! h7 T- K1 u
5、配置DELL DRAC
! c) @2 W s+ k( G! M# I# pcs stonith create dell-fencing-node11 fence_drac
( A( `) m5 B8 R.....1 @+ G. Y) k6 v6 [" h
# }8 k+ W7 l8 P: r
4 y$ ^* o, T% E1 a) p7 M6、管理 STONITH& K% b% d4 ~/ s0 y4 W9 S
# pcs resource clone vmware-fencing ## clone stonith资源,供多节点启动
% P, l# L+ Q! X7 y' U0 d# pcs property set stonith-enabled=true ## 启用 stonith 组件功能! u |. y2 r5 |/ q: n
# pcs stonith cleanup vmware-fencing ## 清除Fence资源的状态与错误计数
! p5 y* L: j8 w4 p! X# pcs stonith fence node11 ## fencing指定节点! R3 A# Y }, P8 ^3 m- J
$ x5 G( A3 ?+ s5 I
; x* }" a4 I% d- X) x, s7 i
5 |. S% y$ |" {& G E5 ^& Y7、管理tomcat
* M: ?( w% L' l' y8 }0 G1 Y( t#pcs resource create tomcat ersweb statusurl=http://127.0.0.1 java_home=/usr/java/jdk1.6.0_12/ catalina_home=/usr/local/Ers/tomcat/ op monitor interval=30s
0 `+ D: {( A9 {/ ~
* O2 E2 X3 o- q, A4 l6 [集群操作命令( A% D; o. y. d$ A9 u
1、验证群集安装- ?5 \9 w1 U( P
# pacemakerd -F ## 查看pacemaker组件,ps axf | grep pacemaker& B, f# B! p: X9 u/ f3 f$ Z' Q$ U
# corosync-cfgtool -s ## 查看corosync序号6 ?$ O6 |5 K3 Q0 p7 h1 Q, ]# m5 r
# corosync-cmapctl | grep members ## corosync 2.3.x
' M! J/ f4 @* m$ Y# corosync-objctl | grep members ## corosync 1.4.x
" U4 S$ q& S7 J# j2 z7 A6 D4 y$ j. v8 D$ ]# c9 X
" A( I- y6 A* a- @& g% @' G- q* x
2、查看群集资源
/ i5 N/ E& a0 n \+ U# pcs resource standards ## 查看支持资源类型$ y: Z9 R. [, f& b
# pcs resource providers ## 查看资源提供商
3 m; l4 M: a, `$ \1 f: ~) v# pcs resource agents ## 查看所有资源代理
: t5 @% Y# W& D& j: Y" }# pcs resource list ## 查看支持资源列表
3 Z% f% d; ]$ F2 j+ x' Q; e# pcs stonith list ## 查看支持Fence列表
- z. I# V$ ^2 ^ ?# pcs property list --all ## 显示群集默认变量参数: {1 u+ H) o5 n& `: U
# crm_simulate -sL ## 检验资源 score 值$ v1 w- g* f0 E t
* l/ ^) I% d' C
. N- n# y4 i- d( s# F1 i4 R- b3、使用群集脚本; y4 G' K* q9 I, W
# pcs cluster cib ra_cfg ## 将群集资源配置信息保存在指定文件 b. u* z; j6 h
# pcs -f ra_cfg resource create ## 创建群集资源并保存在指定文件中(而非保存在运行配置)
0 S6 R3 c( U# P% O! z7 Z# pcs -f ra_cfg resource show ## 显示指定文件的配置信息,检查无误后
/ s2 o/ I! Y* ~8 D" O. r4 r# pcs cluster cib-push ra_cfg ## 将指定配置文件加载到运行配置中
L9 I$ I8 ]: S4 @
8 u* z r& L m' R6 N1 _1 u9 H7 H
4、STONITH 设备操作& B: e ]: P1 a# P
# stonith_admin -I ## 查询fence设备% I g( ]- F( z+ U, ?0 o
# stonith_admin -M -a agent_name ## 查询fence设备的元数据,stonith_admin -M -a fence_vmware_soap
3 r% f- p/ W' h' a C# stonith_admin --reboot nodename ## 测试 STONITH 设备8 }5 j# O, d0 S* k6 J: q
: i9 X, u, X" J6 U$ e! P
7 m: a3 b7 {0 f, n- L5、查看群集配置
4 \ ^" Q; y( z" k8 d/ W! _( C# crm_verify -L -V ## 检查配置有无错误* f" E2 U3 {) v n+ N& C
# pcs property ## 查看群集属性
}% u% t( R) D3 N( l$ L. C' y# pcs stonith ## 查看stonith, t3 y7 p8 B: p; }1 e6 `1 s
# pcs constraint ## 查看资源约束
) {9 g* }# Q4 D8 ~% Z* g5 v# pcs config ## 查看群集资源配置7 c! o# K" a+ h4 w2 w$ t* F+ y& d
# pcs cluster cib ## 以XML格式显示群集配置
9 l# y1 L$ a( G2 Y2 u Q4 V
5 B$ M+ i; M2 ?6 w7 P/ q% {8 _2 ?; k; @' T
6、管理群集6 X! F5 R' m' {& f
# pcs status ## 查看群集状态
$ F g2 |) Q% h5 n# pcs status cluster( u/ {# f, @, R, {* z5 F
# pcs status corosync
6 {' t5 F( ~- ]5 Q/ [$ a# pcs cluster stop [node11 ## 停止群集
' m! O B" I: ?& p0 D5 \# pcs cluster start --all ## 启动群集$ ^' N7 ~# ~) Z5 g$ E4 Q; H
# pcs cluster standby node11 ## 将节点置为后备standby状态,pcs cluster unstandby node11 5 Q7 X2 A/ w7 Z. \: e
# pcs cluster destroy [--all ## 删除群集,[--all同时恢复corosync.conf文件; z! G% k: r! P. c6 X0 G" W
# pcs resource cleanup ClusterIP ## 清除指定资源的状态与错误计数
( E* G1 e. X, ~0 L/ @, Q; A3 n# pcs stonith cleanup vmware-fencing ## 清除Fence资源的状态与错误计数
* M% m5 M0 F8 Y% c0 e4 }: W5 T3 C
" @; i% E* k N' w+ a. o! @, ?. m- |5 g
2 `2 s4 m0 U$ `, |" b8 F
# u8 b- u# }4 \$ a4 ^/ o. e
|
|