易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 2488|回复: 1
收起左侧

Centos8最小化部署安装OpenStack Ussuri

[复制链接]
发表于 2021-7-13 08:30:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
#!/bin/bash) z& X. `2 M4 [* \+ G
#Centos8最小化部署安装openstack Ussuri
! \- o. _: M  G+ K3 O#共两台主机,分别是一台控制节点,一台计算节点
5 v. x' c2 q3 B$ f' Y0 `. F#1、控制节点内存4096M。双网卡,分别为eth0:10.0.0.11,eth1:10.0.0.12
/ l0 D& k) y5 Y- K; X# u* q#2、计算节点内存2048M。双网卡,分别为eth0:10.0.0.31,eth1:10.0.0.32
; y! f( P; i9 o9 ?/ ^1 K#设置阿里云yum源8 O0 L, O' O! J& ]( M1 U- s1 F* z
curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo
7 }4 n5 v4 g2 l1 A, Z& U: w7 |rm -f /etc/yum.repos.d/CentOS-AppStream.repo /etc/yum.repos.d/CentOS-PowerTools.repo /etc/yum.repos.d/CentOS-centosplus.repo /etc/yum.repos.d/CentOS-Extras.repo && rm -rf /var/cache/yum && yum makecache && yum -y update && yum -y autoremove* q/ Z! f. y# H% {
#关闭防火墙
6 D/ `8 y8 A/ b2 f$ e* vsystemctl stop firewalld && systemctl disable firewalld
& P. [' [# x+ o) N( [; O0 ^#关闭SELinux
9 t* a" S: y% m7 ?$ Fsetenforce 0( e6 d3 j& w1 r/ O3 P* c( ^
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
( G+ g5 R) e( d- n# b#关闭swap分区0 d, t- D/ a8 B
swapoff -a0 o+ I5 v- M$ I1 o7 H( g6 {  }3 p
sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab+ h* k: i, z0 \" a  Z6 l" D
#设置内核; j! I' w  Y  R( K9 a
modprobe bridge
- O6 \! L$ D; k$ ymodprobe br_netfilter
- V# n6 U0 X  b& T0 `cat > /etc/sysconfig/modules/neutron.modules <<EOF' K) C' |; L4 w5 g4 v4 I; \" M& o' N
#!/bin/bash
! j$ ]' Y6 x; B  _' x6 Dmodprobe -- bridge
/ `8 O8 A1 Y7 S' rmodprobe -- br_netfilter6 W  t- m5 V) Z7 o, T& ]$ X" m( T
EOF# k8 |( Q4 X4 q$ f" h+ t& T
chmod 755 /etc/sysconfig/modules/neutron.modules && bash /etc/sysconfig/modules/neutron.modules
$ E; o% d; d! Lecho "vm.max_map_count=262144" >> /etc/sysctl.conf
& j4 h2 \; n1 j4 ]echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf' s3 l4 S$ I$ C# V! p; A6 V
echo "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf+ V( F8 |) W5 o, h- _1 R8 ]
echo "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf! H7 O1 U: o7 h
sysctl -p7 J7 E2 v* T" i1 q+ `
#设置时间同步4 b3 h& z# V) c# B
yum install -y chrony && yum -y autoremove" S3 t" v' x/ A; R  o( p
sed -i '/^pool/d' /etc/chrony.conf
4 m' }! q' @& Hsed -i '/^server/d' /etc/chrony.conf1 B, |- U3 `. R6 l/ l) F) o
echo "pool ntp.aliyun.com iburst" >> /etc/chrony.conf
/ P$ _: q* n! W" O" R" a% Nsystemctl start chronyd.service && systemctl enable chronyd.service) p7 e% n1 \( ~/ S8 h" [7 c$ `
#控制节点 设置hostname( N0 w& i& F4 v1 Q1 G% K, A
hostnamectl set-hostname controller
* n7 K( n: v1 b#计算节点 设置hostname5 L7 d/ n9 L, p8 L' a1 k- N
hostnamectl set-hostname compute1
8 e& j* K' J6 N+ [! L0 p6 i#添加host- \7 x, T. r( z1 S: t1 u) \: F/ ^* x
echo "10.0.0.11 controller" >> /etc/hosts& Y5 {2 v" O# ~: O: M0 [
echo "10.0.0.31 compute1" >> /etc/hosts
8 f( B. t5 G! p3 D2 l. F/ C#安装基础组件+ W+ ?9 K( m( N/ j/ u' T
yum install -y centos-release-openstack-ussuri
7 ?+ F! K8 \0 U3 M7 q+ }" Byum config-manager --set-enabled PowerTools" g& p1 B+ ~( N+ N0 f
yum upgrade -y- v  H4 l3 n, o* ]
yum install -y python3-openstackclient
0 a% l( x" P) o# {' p( w#控制节点 安装Mariadb
& y  ~% g* w* J* S  f6 jyum install -y mariadb mariadb-server python2-PyMySQL
* x6 g: w/ B; d7 Z1 etee /etc/my.cnf.d/openstack.cnf <<-'EOF'# l# E( n$ }1 g
[mysqld]
0 c5 G9 q. q9 Z* ]1 d2 {' Kbind-address = 10.0.0.11
0 n3 O* x  p& b! e1 _default-storage-engine = innodb
6 _3 q( Z8 o  E2 _' v; ^innodb_file_per_table = on- l7 H! Q+ }' V3 }
max_connections = 4096
8 @3 Z  H3 C) {: c3 k% Ucollation-server = utf8_general_ci
% `* |: c- `3 r7 i; echaracter-set-server = utf8! J8 `; o- i  J  C
EOF
( ^! H" k7 b  E! ]; Q2 _: @systemctl enable mariadb.service && systemctl start mariadb.service- A' t; ^0 N3 g/ p* W/ ?1 N
echo -e "\nY\n123456\n123456\nY\nn\nY\nY\n" | mysql_secure_installation
  F/ Y0 U; r9 R2 a+ W7 X8 _3 P$ J#控制节点 安装RabbitMQ/ e; ], T9 k) r- A1 T& }) R- S
yum install -y rabbitmq-server2 U( P& M# s  h" z! C
systemctl enable rabbitmq-server.service && systemctl start rabbitmq-server.service
8 }! ?  h! j; x2 T' Qrabbitmqctl add_user openstack 123456$ n# U7 J/ g# y
rabbitmqctl set_permissions openstack ".*" ".*" ".*"
% ~. l3 r& x: Q4 d1 C3 B2 H- D#控制节点 安装Memcached: _- c8 b0 J: X; M4 J: [
yum install -y memcached python3-memcached
& x' n+ z+ b+ B4 \; }: used -i "s/-l 127.0.0.1,::1/-l 127.0.0.1,::1,controller/g" /etc/sysconfig/memcached+ P, b; L; f- _1 e
systemctl enable memcached.service && systemctl start memcached.service
, b# z) L2 z; A3 l#控制节点 安装Etcd2 m! D! y( M1 Z( ]) Y
yum install -y etcd
8 F1 h6 h( g. ~( ^; |rm -f /etc/etcd/etcd.conf# @& T0 t( g4 Q
tee /etc/etcd/etcd.conf <<-'EOF'
, X( ^, J# K) k  l; w; J  \#[Member]2 d# [" s8 Y; a" j3 c% g& P0 R! T
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
& l+ V9 A" p4 z! S7 [ETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"( b  c7 p* @4 R; |2 ]: f
ETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"
& Y' z! Q; Z1 S7 _# {5 s3 cETCD_NAME="controller"8 s. W2 P6 w9 e( N0 F# G
#[Clustering]2 l7 v6 u9 z+ ?% Z/ S- U$ o* M$ j
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"
7 t3 M' }1 R. e3 R5 mETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"
: |0 C/ J7 u4 t5 n4 r; ^# B2 L5 Y2 kETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"4 F9 p5 J+ u& \: C' |1 C
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
+ s8 \4 z. K: _5 W) ~- m& @) METCD_INITIAL_CLUSTER_STATE="new": I" c( Y* z( S$ ?6 Y5 g, @$ v
EOF" t6 U6 g: w3 }# u  f
systemctl enable etcd && systemctl start etcd
3 a5 H3 w( a" o2 V2 ^. \0 v#控制节点 安装Identity service
/ R' [" s9 V  H2 A; c) Jmysql -uroot -p123456 -e "CREATE DATABASE keystone"
6 ^/ Q# {4 `7 D! m) zmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '123456'"% j7 P, A/ ]! d4 a5 b
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY '123456'"! T" K3 k+ ~& R/ Q" t6 w* C
yum install -y openstack-keystone httpd python3-mod_wsgi) |, `9 I' c/ }
sed -i "556c connection = mysql+pymysql://keystone:123456@controller/keystone" /etc/keystone/keystone.conf9 u+ k. o* h! Y8 T7 R
sed -i "2418c provider = fernet" /etc/keystone/keystone.conf
: u( b) O3 u/ f# S  l- T) Wsu -s /bin/sh -c "keystone-manage db_sync" keystone
4 N  ~' I: s7 d" ~; ckeystone-manage fernet_setup --keystone-user keystone --keystone-group keystone
! ^; I/ t+ m8 Ukeystone-manage credential_setup --keystone-user keystone --keystone-group keystone
6 {9 b8 t- d: @keystone-manage bootstrap --bootstrap-password 123456 \! T( y% [) p( a& D% Z0 h# x
--bootstrap-admin-url http://controller:5000/v3/ \
9 l1 T9 |* o9 ?/ n--bootstrap-internal-url http://controller:5000/v3/ \; H; p+ @  t- k: _  t8 c9 Y5 r$ ?0 }
--bootstrap-public-url http://controller:5000/v3/ \
: |' G3 i3 {" O--bootstrap-region-id RegionOne
" e& `2 b) i, F; W. _2 C% v. n& _6 `echo "ServerName controller" >> /etc/httpd/conf/httpd.conf; t) ^, @# u% g0 A$ ?) y
ln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/$ `( N$ x8 s7 C( B4 [/ O
systemctl enable httpd.service && systemctl start httpd.service$ b! Y6 o% H1 ^% j% L- p4 C
echo "export OS_USERNAME=admin" >> /etc/profile0 h0 ]! }! M$ Q6 K+ q/ R
echo "export OS_PASSWORD=123456" >> /etc/profile8 K+ B; j: P$ q: p$ j9 f# M! G8 X
echo "export OS_PROJECT_NAME=admin" >> /etc/profile
! c+ ]6 `: L1 f4 y& \5 C& lecho "export OS_USER_DOMAIN_NAME=Default" >> /etc/profile
: s5 F; K) H4 V, L+ i3 K) Techo "export OS_PROJECT_DOMAIN_NAME=Default" >> /etc/profile! u/ f3 h4 [0 e( H9 F+ c  e
echo "export OS_AUTH_URL=http://controller:5000/v3" >> /etc/profile
5 D9 G, `" J* o6 z" q: ]echo "export OS_IDENTITY_API_VERSION=3" >> /etc/profile
" _9 Q; N. P# O; q+ xsource /etc/profile, [& ?& u4 _' g7 c8 _
openstack project create --domain default --description "Service Project" service! S% |. T6 B3 G: ~
#控制节点 安装Image service! _% s& w7 U6 w
mysql -uroot -p123456 -e "CREATE DATABASE glance"
1 M. K9 R5 w- _mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456'"
) y# o! d% y) Z7 ]  Xmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY '123456'"
# G" I$ Z8 i0 X! Copenstack user create --domain default --password 123456 glance9 w0 L0 [& M. J4 o+ n: L
openstack role add --project service --user glance admin
( L, n9 n$ Z2 S2 C1 @  c3 lopenstack service create --name glance --description "OpenStack Image" image
# Y& E, c0 l) Dopenstack endpoint create --region RegionOne image public http://controller:92922 {0 w- N% ]9 c1 g" U
openstack endpoint create --region RegionOne image internal http://controller:92925 x0 X" m% N5 Q3 w
openstack endpoint create --region RegionOne image admin http://controller:9292' x3 v6 y8 \' j- T' O& k! I: o
yum install -y openstack-glance$ B5 b4 |# V: C# P) k
sed -i "2062c connection = mysql+pymysql://glance:123456@controller/glance" /etc/glance/glance-api.conf
4 \: i8 m* L" a# R' N; Ysed -i "5034c www_authenticate_uri = http://controller:5000" /etc/glance/glance-api.conf
0 z. S9 Q4 \0 l, \. F/ jsed -i "5035c auth_url = http://controller:5000" /etc/glance/glance-api.conf0 `" c  @  l+ p
sed -i "5036c memcached_servers = controller:11211" /etc/glance/glance-api.conf4 g% q* c2 L( q# y% W3 _. f: _1 d
sed -i "5037c auth_type = password" /etc/glance/glance-api.conf
' e$ N$ q0 i# Csed -i "5038c project_domain_name = Default" /etc/glance/glance-api.conf% e6 V, \, ^, F
sed -i "5039c user_domain_name = Default" /etc/glance/glance-api.conf5 d! i. j6 i# q/ T6 }- f
sed -i "5040c project_name = service" /etc/glance/glance-api.conf
) j. N! x: k& N4 f; Esed -i "5041c username = glance" /etc/glance/glance-api.conf. F! R2 Z$ T" t0 f' W3 y  ?7 H
sed -i "5042c password = 123456" /etc/glance/glance-api.conf
" _; j! j; b! ~5 i( h0 ?sed -i "5678c flavor = keystone" /etc/glance/glance-api.conf1 M- h: c( F9 _$ `% E
sed -i "3413c stores = file,http" /etc/glance/glance-api.conf
( W5 D5 ^2 ~7 `sed -i "3414c default_store = file" /etc/glance/glance-api.conf
  f. z" W% d: O( Bsed -i "3415c filesystem_store_datadir = /var/lib/glance/images/" /etc/glance/glance-api.conf0 [/ S  ?: ^3 e4 M; {
su -s /bin/sh -c "glance-manage db_sync" glance
( X5 C1 H9 q: S$ O  Qsystemctl enable openstack-glance-api.service && systemctl start openstack-glance-api.service
! a* q5 i+ Z4 V. R, e#控制节点 安装Placement service0 O) T9 F! u, g5 H/ R
mysql -uroot -p123456 -e "CREATE DATABASE placement"
4 F/ T6 ]9 D* t) n% W* nmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '123456'"+ Q' t7 h9 J$ ?7 E- ^% U" B
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '123456'"7 b1 r( p/ [5 ~* ~1 g+ j1 o) ~0 @
openstack user create --domain default --password 123456 placement0 s1 f. P9 T% m
openstack role add --project service --user placement admin6 @0 G# a0 U- d5 Q- l* [" H3 t
openstack service create --name placement --description "Placement API" placement
7 O% J" d2 Z; |! v: s- ?  qopenstack endpoint create --region RegionOne placement public http://controller:8778
+ m" f' }6 N% R- L- X+ D; F9 Oopenstack endpoint create --region RegionOne placement internal http://controller:8778
/ b- v( |( u- Yopenstack endpoint create --region RegionOne placement admin http://controller:87784 e0 ]/ `0 _. l6 }
yum install -y openstack-placement-api
# G4 X6 x: S' v# m+ I2 Z* Tsed -i "507c connection = mysql+pymysql://placement:123456@controller/placement" /etc/placement/placement.conf
% z9 X9 {" ?2 l/ Z: qsed -i "192c auth_strategy = keystone" /etc/placement/placement.conf3 K; p, _2 L" c' J6 E% C) m
sed -i "241c auth_url = http://controller:5000/v3" /etc/placement/placement.conf
3 r6 Y' {6 j( s1 osed -i "242c memcached_servers = controller:11211" /etc/placement/placement.conf5 j2 x6 P7 Q& o  k7 C: ]
sed -i "243c auth_type = password" /etc/placement/placement.conf
3 N) Z2 i, R2 `7 F$ p5 s  Esed -i "244c project_domain_name = Default" /etc/placement/placement.conf
4 D0 P2 v7 y; r# U7 r( Vsed -i "245c user_domain_name = Default" /etc/placement/placement.conf
, X, E" l( i- a& [4 {' Ssed -i "246c project_name = service" /etc/placement/placement.conf7 v1 i! A2 G" H( ?# r
sed -i "247c username = placement" /etc/placement/placement.conf
" _* y0 k. {% r. x% Y) v: O  osed -i "248c password = 123456" /etc/placement/placement.conf) v+ q( J6 }, o
su -s /bin/sh -c "placement-manage db sync" placement; N: u/ ]4 H8 F! i0 [
systemctl restart httpd
; o( h/ v4 D& }' \( Q: E5 c#控制节点 安装Compute service. F" D' m' J0 B$ E% P; h
mysql -uroot -p123456 -e "CREATE DATABASE nova_api"
$ `4 |! B6 U0 K4 C, e; x9 N. Qmysql -uroot -p123456 -e "CREATE DATABASE nova"
3 U& S# m1 E  Cmysql -uroot -p123456 -e "CREATE DATABASE nova_cell0"; a$ E1 }5 H- Q$ s- b& {# U
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"% X0 ]' [; M9 [0 n. G# X: o
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY '123456'"  O/ H# B! g7 K9 P8 b8 ]6 h* ?
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
7 R5 l; y0 h/ lmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456'"& t: v' F7 V* o; m
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY '123456'") G4 j5 S2 \$ ], H+ }1 ]* ^7 l
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '123456'"
4 I* `' U4 Y: `( [& U$ c& R, Wopenstack user create --domain default --password 123456 nova  o9 Q2 I# p: a2 |) `- y$ p& o
openstack role add --project service --user nova admin
% D, d6 r& y6 V' q( T3 @9 d# aopenstack service create --name nova --description "OpenStack Compute" compute8 \7 i: A8 |0 @. R& v( X
openstack endpoint create --region RegionOne compute public http://controller:8774/v2.1
& W' r7 a5 z, z% X  ]openstack endpoint create --region RegionOne compute internal http://controller:8774/v2.1
, O. d: X4 s, }' ^# nopenstack endpoint create --region RegionOne compute admin http://controller:8774/v2.1
- F% v! r9 h" Q: D& A: Y8 Pyum install -y openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler
1 k6 O4 E( `! @sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf" r; ]3 x, B8 I/ w1 x$ F. V( j
sed -i "3c transport_url = rabbit://openstack:123456@controller:5672/" /etc/nova/nova.conf  E# y, f% q$ d5 L
sed -i "4c my_ip = 10.0.0.11" /etc/nova/nova.conf
4 q  W% ^) C+ I! L& \sed -i "1079c connection = mysql+pymysql://nova:123456@controller/nova_api" /etc/nova/nova.conf
. A* e; d! t/ S0 v7 ?1 ysed -i "1622c connection = mysql+pymysql://nova:123456@controller/nova" /etc/nova/nova.conf$ D2 t! Y' P$ e0 R9 Y7 B/ y! ^
sed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
$ }; q3 P7 Y5 j5 J* `; v, Qsed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf% m; a4 l# l( P( i6 x0 ~8 G
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf
5 B7 G. t  X. S& Q. P  hsed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
4 M1 u! O5 Y' y' v& i6 y- esed -i "2564c auth_type = password" /etc/nova/nova.conf8 Y& y8 x' R  t; Q
sed -i "2565c project_domain_name = Default" /etc/nova/nova.conf. A6 k0 _( M2 G
sed -i "2566c user_domain_name = Default" /etc/nova/nova.conf) l4 l4 }, H* S
sed -i "2567c project_name = service" /etc/nova/nova.conf9 g7 D! }0 h' j7 H! P+ B6 k
sed -i "2568c username = nova" /etc/nova/nova.conf
7 K! q4 R& c& M- m5 bsed -i "2569c password = 123456" /etc/nova/nova.conf/ }4 r' j2 L  F( d8 _' a
sed -i "5171c enabled = true" /etc/nova/nova.conf& w& l( K: z0 ~8 m
sed -i '5172c server_listen = $my_ip' /etc/nova/nova.conf4 T# M( f. F& d; z1 o4 W! n
sed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf- ~% o. n. ?9 v: l. y" z
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
+ J& f' |  E+ t6 m! w: K4 U: Msed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf
! H' _3 v$ o0 w7 C. c: V& R: M: g5 ~8 ised -i "4093c region_name = RegionOne" /etc/nova/nova.conf
: @6 ^1 c) [. M  Y& wsed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
. w0 y( A  m$ D% s6 N" E9 tsed -i "4095c project_name = service" /etc/nova/nova.conf
' K+ P5 V1 K+ k  wsed -i "4096c auth_type = password" /etc/nova/nova.conf4 ?3 F! A' ]6 l8 S
sed -i "4097c user_domain_name = Default" /etc/nova/nova.conf5 c; O3 w6 x: h% |4 I6 J
sed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf' G6 R; d' H$ f0 {1 `
sed -i "4099c username = placement" /etc/nova/nova.conf
( w/ m, k; O% i7 qsed -i "4100c password = 123456" /etc/nova/nova.conf9 Q  e4 H3 Y- ~  F
sed -i "4509c discover_hosts_in_cells_interval = 300" /etc/nova/nova.conf3 G0 V) O  y4 G. s# e, M
su -s /bin/sh -c "nova-manage api_db sync" nova; B! C) T! L$ R: ]& R
su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova
& w3 I& {8 D9 l% D7 L5 Ysu -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
, L7 m! _+ b! G; }" l; \9 zsu -s /bin/sh -c "nova-manage db sync" nova, O7 x& o) x* e4 H$ |0 F/ Q
systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service && systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service, j" g9 }/ U  k0 ^& A
#计算节点 安装Compute service+ q* _9 ?$ c6 Z5 g; G. c6 m! ^2 k3 r
yum install -y openstack-nova-compute7 T4 Z/ h/ Y$ @! |3 |9 w
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf; [3 a% t7 V: N: S% o# y1 ?
sed -i "3c transport_url = rabbit://openstack:123456@controller" /etc/nova/nova.conf
3 [' T& N& S: {1 Y" @6 e* Msed -i "4c my_ip = 10.0.0.31" /etc/nova/nova.conf
3 q0 @- v0 m# N1 Lsed -i "872c auth_strategy = keystone" /etc/nova/nova.conf8 ]2 H/ a" s9 m% B
sed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf
# r8 _9 J* K: b: `0 K' ^sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf! O$ w0 ?% L1 q. j0 J
sed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
9 p2 G3 q. ~# f& ^6 X$ _+ R# rsed -i "2564c auth_type = password" /etc/nova/nova.conf+ x) t2 S" Y' F+ \6 a8 [
sed -i "2565c project_domain_name = Default" /etc/nova/nova.conf4 h# W; v; U, O' _) t! n( L8 r
sed -i "2566c user_domain_name = Default" /etc/nova/nova.conf! O& Z5 F, K2 f0 Z( |
sed -i "2567c project_name = service" /etc/nova/nova.conf
9 L" u& O1 o* r9 m# ]sed -i "2568c username = nova" /etc/nova/nova.conf9 W* s& k* |+ O* g! r+ r) G* c/ M
sed -i "2569c password = 123456" /etc/nova/nova.conf
) w) m1 ]8 L+ `6 Wsed -i "5171c enabled = true" /etc/nova/nova.conf$ r: y$ W# g9 l9 ]
sed -i "5172c server_listen = 0.0.0.0" /etc/nova/nova.conf
; Q( C6 K; N+ `' s2 _sed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf
. S% ]& G- k3 v- X# O- i: rsed -i "5174c novncproxy_base_url = http://controller:6080/vnc_auto.html" /etc/nova/nova.conf
& |9 o5 B& s; x" u4 Zsed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
9 ~7 j/ |. F; R! U+ k" n# Ssed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf
$ U1 }% ~) a$ s9 Msed -i "4093c region_name = RegionOne" /etc/nova/nova.conf
- y/ `6 k8 A: k# W, T3 nsed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
9 g- M. ~* @" D# v4 _2 b% Zsed -i "4095c project_name = service" /etc/nova/nova.conf6 r( ]/ h  L0 o1 @4 U9 n8 E
sed -i "4096c auth_type = password" /etc/nova/nova.conf) \7 a1 x; q# ?3 P
sed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
! _( K8 w) p# F+ E. `0 f) @5 @  Ssed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf- ]4 X4 n! D& ?' S/ A8 p
sed -i "4099c username = placement" /etc/nova/nova.conf( E2 k) [6 s4 @& }  W2 P* L  n
sed -i "4100c password = 123456" /etc/nova/nova.conf9 i% a/ t( \: d. D7 U# k- p
#执行命令,查看是否支持CPU虚拟化,如果大于0则支持。7 c% k  J5 J! `) i. |/ C
egrep -c '(vmx|svm)' /proc/cpuinfo! ?2 ^5 ^0 Q- N
#如果不支持的话还需要执行下面的命令
' X6 c/ e4 [) X, g9 F6 C+ F/ Ysed -i "2722c virt_type = qemu" /etc/nova/nova.conf
( @9 S  W; y5 i! m* W% }7 k) F  @systemctl enable libvirtd.service openstack-nova-compute.service && systemctl start libvirtd.service openstack-nova-compute.service9 ^$ Q& Q2 p) y1 `
#控制节点 计算节点从注册到发现会有延迟,根据discover_hosts_in_cells_interval 配置轮询发现时间,可以执行下面命令手动发现计算节点
; E7 i/ b$ ^$ z7 a8 Z, m: ^su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
+ E- C# e+ l- Y( ]! J& z#控制节点 安装Networking service9 F3 i# L- d9 ]+ o
mysql -uroot -p123456 -e "CREATE DATABASE neutron"
9 h8 l+ D0 H# ~- z: ^mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456'"; G& R* ^, a3 }9 c# n! G) N
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456'"
, }7 z3 s3 e0 E" l. ?# Sopenstack user create --domain default --password 123456 neutron& ]# G) I' ?4 P: x' T% W
openstack role add --project service --user neutron admin* w; T7 C+ s+ r! O) w/ F2 b
openstack service create --name neutron --description "OpenStack Networking" network6 z: L3 C) G8 k+ v1 o- i6 d* |2 g3 x& \
openstack endpoint create --region RegionOne network public http://controller:96966 s& C1 Q8 n9 {& D( F9 Z: G  Q% Y
openstack endpoint create --region RegionOne network internal http://controller:9696
5 H# [6 w$ Z. Q7 l& o0 aopenstack endpoint create --region RegionOne network admin http://controller:9696
# [/ ?7 f8 h" T7 I+ {% T: N" dyum install -y openstack-neutron openstack-neutron-ml2 openstack-neutron-linuxbridge ebtables9 D& w$ ^) b8 V0 k" G' C
#配置服务器组件
' s9 V: H  _/ O( rsed -i "2c core_plugin = ml2" /etc/neutron/neutron.conf3 J9 B# J0 p- U! m0 P# t
sed -i "3c service_plugins = router" /etc/neutron/neutron.conf
$ |" h( J  _1 [  H& Jsed -i "4c allow_overlapping_ips = true" /etc/neutron/neutron.conf- x% \1 d& a0 T" j
sed -i "5c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
% V+ z" x1 E) V. b% osed -i "6c auth_strategy = keystone" /etc/neutron/neutron.conf
5 D! b/ r% j8 a$ J1 M+ L, b4 dsed -i "7c notify_nova_on_port_status_changes = true" /etc/neutron/neutron.conf) i8 k1 T/ t, Y7 T$ `  d
sed -i "8c notify_nova_on_port_data_changes = true" /etc/neutron/neutron.conf% B' }8 Y; g' ~: F; D/ u# Q
sed -i "254c connection = mysql+pymysql://neutron:123456@controller/neutron" /etc/neutron/neutron.conf
5 O& j) g" R/ B! M8 j! Q# |sed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf
7 S+ |% R2 ^8 }9 N/ T) H: Ksed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf" R8 r3 B" B( s. h' \) {
sed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf
* S( n9 e: W4 O8 Hsed -i "362c auth_type = password" /etc/neutron/neutron.conf
1 @4 t0 J; A% Rsed -i "363c project_domain_name = default" /etc/neutron/neutron.conf
8 L% p& U7 j* \+ Xsed -i "364c user_domain_name = default" /etc/neutron/neutron.conf
+ ]; a- u. E& x' \1 gsed -i "365c project_name = service" /etc/neutron/neutron.conf) L( o4 m) A& z! w% g
sed -i "366c username = neutron" /etc/neutron/neutron.conf
* _. B! X4 f* \/ |* xsed -i "367c password = 123456" /etc/neutron/neutron.conf- G4 t7 f; d# L/ q) G* B4 {" Z
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
& m4 n+ g- k5 s( w5 y6 E7 Qecho "[nova]" >> /etc/neutron/neutron.conf
) L2 A- e2 `* ~echo "auth_url = http://controller:5000" >> /etc/neutron/neutron.conf8 H: }1 x0 m0 e/ ^- k8 I5 h
echo "auth_type = password" >> /etc/neutron/neutron.conf( ]; e$ Y5 ~. U* b
echo "project_domain_name = default" >> /etc/neutron/neutron.conf
& }- R  t! l4 u9 a! Lecho "user_domain_name = default" >> /etc/neutron/neutron.conf
3 [$ w5 S! ?# D9 h' Necho "region_name = RegionOne" >> /etc/neutron/neutron.conf
+ i0 J$ e* s; u$ K' Qecho "project_name = service" >> /etc/neutron/neutron.conf
8 z* h( I+ I% Z) Aecho "username = nova" >> /etc/neutron/neutron.conf# [* s% G, v" L" A6 S8 N
echo "password = 123456" >> /etc/neutron/neutron.conf$ z/ [# m/ W. w
#配置Modular Layer 2 (ML2) plug-in
6 t4 U* C- L' q' t- aecho "[ml2]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
. [0 K. a2 L: X* Y' g. Recho "type_drivers = flat,vlan,vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini" ?+ S6 T6 |: @. s* g# S4 a
echo "tenant_network_types = vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini7 q6 ?6 }; N0 T7 W
echo "mechanism_drivers = linuxbridge,l2population" >> /etc/neutron/plugins/ml2/ml2_conf.ini
3 ?' x! |1 v) |1 D2 _echo "extension_drivers = port_security" >> /etc/neutron/plugins/ml2/ml2_conf.ini' G% b' D, {) B$ ]
echo "[ml2_type_flat]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
9 R$ {) k" H1 I* g/ necho "flat_networks = provider" >> /etc/neutron/plugins/ml2/ml2_conf.ini+ y+ ^, f7 S7 \
echo "vni_ranges = 1:1000" >> /etc/neutron/plugins/ml2/ml2_conf.ini
, @/ h( E* n: x  Y3 S9 Yecho "[securitygroup]" >> /etc/neutron/plugins/ml2/ml2_conf.ini9 h9 ?6 t6 A) e$ @2 k  u$ t8 \0 s
echo "enable_ipset = true" >> /etc/neutron/plugins/ml2/ml2_conf.ini
8 }) [( _9 R& g% R$ V3 I0 ^) r#配置Linux bridge agent
7 y% I: i9 M& Y8 [; B& techo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
1 W# B9 k  ?9 D0 C" {2 Z: C#eth1为另外第二张网卡
$ E6 i/ X5 p+ z7 h; oecho "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini$ i% V1 a" q$ l5 p
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
2 ^% @  @1 T( i& Mecho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini3 a( _) ?) W5 \  [4 \
#10.0.0.12为第二张网卡的IP
+ D3 O, p$ z1 j: g* b/ o8 Becho "local_ip = 10.0.0.12" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini" W/ R) k* F$ G$ H9 @- P
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
" R( ^& j- m; mecho "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
# J, P% Z0 s7 y0 zecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini7 L' X8 D( v; t
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
) o  F0 v+ t/ M& l1 w5 u# |: [#配置layer-3 agent
- Y8 C& t1 A* x* m7 X" t1 Hsed -i "2c interface_driver = linuxbridge" /etc/neutron/l3_agent.ini) p5 r" w: F5 R  V
#配置DHCP agent1 `: i! c" p0 O  @) ^
sed -i "2c interface_driver = linuxbridge" /etc/neutron/dhcp_agent.ini8 o9 P6 |, R' m
sed -i "3c dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq" /etc/neutron/dhcp_agent.ini' A' D8 D( A  G# I: R7 B
sed -i "4c enable_isolated_metadata = true" /etc/neutron/dhcp_agent.ini
7 f% f. [2 w# R& R" F4 k, m% y#配置metadata agent  ]% h+ C8 T, p6 f* R- B
sed -i "2c nova_metadata_host = controller" /etc/neutron/metadata_agent.ini8 e7 _, e# L+ y0 D
sed -i "3c metadata_proxy_shared_secret = 123456" /etc/neutron/metadata_agent.ini6 U. e7 [8 h9 Q  D
#配置计算服务使用网络服务2 d5 D; I1 U+ W9 M0 O' B
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf' O" w0 n8 F# j4 |, I- J# U
sed -i " 3335c auth_type = password" /etc/nova/nova.conf4 E, E9 r1 d/ _3 B% f1 ^2 q/ N
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf$ _5 x1 p1 Y6 U% A" u2 r9 g
sed -i " 3337c user_domain_name = default" /etc/nova/nova.conf
. A; G4 L2 w: _, dsed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
+ ]2 n6 }3 {+ ]. csed -i " 3339c project_name = service" /etc/nova/nova.conf
( y1 y/ m* J5 e( c$ Fsed -i " 3340c username = neutron" /etc/nova/nova.conf
4 L7 l& ?: [5 M5 Z# R1 X4 ~sed -i " 3341c password = 123456" /etc/nova/nova.conf+ ~+ J6 u2 U" G9 c& p
sed -i " 3342c service_metadata_proxy = true" /etc/nova/nova.conf  m9 c' g) S6 {+ v; x5 f
sed -i " 3343c metadata_proxy_shared_secret = 123456" /etc/nova/nova.conf
' k+ p0 O, @, x5 xln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
. v1 T) v! e. i6 Q- Q/ m+ bsu -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron
+ l2 u& t# Y9 U# f( X( P/ n* ~systemctl restart openstack-nova-api.service1 P# M  c: J% c5 M
systemctl enable neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service && systemctl start neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service
+ I, _, ?/ }2 lsystemctl enable neutron-l3-agent.service && systemctl start neutron-l3-agent.service
$ @, J$ a" I: f) ~#计算节点 安装Networking service
* m+ L+ _1 s) Y) Z6 ^# wyum install -y openstack-neutron-linuxbridge ebtables ipset
9 z  k5 k2 J. Q. Z. v+ c! y5 ^sed -i "2c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
% U- {$ t1 K3 L2 p" N# dsed -i "3c auth_strategy = keystone" /etc/neutron/neutron.conf
, A& X3 `' B/ d  C/ b& y4 L: E% hsed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf
0 L- _& K* Q9 ^% O# o: H. x, g  J3 dsed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
/ p, N/ y: U% Z# G, R* M3 P! Osed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf5 i$ q  I5 X9 U+ z6 q
sed -i "362c auth_type = password" /etc/neutron/neutron.conf
7 G' S) |4 O5 C$ |" R" U) Esed -i "363c project_domain_name = default" /etc/neutron/neutron.conf  H( b8 m8 N5 K# T
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf
, b) o4 y, S, {! zsed -i "365c project_name = service" /etc/neutron/neutron.conf
4 g4 M* A1 c) S9 v/ F# k- }sed -i "366c username = neutron" /etc/neutron/neutron.conf3 H* W( }1 C( \6 N0 P
sed -i "367c password = 123456" /etc/neutron/neutron.conf3 }' O; N0 E/ J1 o, [0 t# |
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
! D# a& X0 W4 P" o6 Y% C" O( y9 mecho "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
7 w1 o, r5 B3 X5 w- O! Q#eth1为另外第二张网卡
9 ?/ c4 }6 P3 \& T4 @echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini" e' s' u: Q! b* Z! Q
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
! Y! ~% w& A! _, h& qecho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini4 v! T, I( s3 j, r
#10.0.0.32为第二张网卡的IP) U& @8 o- Q4 h6 K8 v; S
echo "local_ip = 10.0.0.32" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
4 _# n5 x8 k- U5 k# u! secho "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
' g" {9 g( x$ Y& H" z/ techo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
: h/ \  C4 ~0 U; @9 Kecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
2 S* k) b* w9 E/ y6 u' ?# Secho "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
' N6 U& s; S# p( j( j9 L: f9 h#配置计算服务使用网络服务
3 g4 X$ `6 U* Y# Y( fsed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
1 i2 q' P/ P) ?: h& Gsed -i " 3335c auth_type = password" /etc/nova/nova.conf$ E7 V! B/ {' e/ x. I
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
: M1 e( L0 B1 Y% w5 J+ ssed -i " 3337c user_domain_name = default" /etc/nova/nova.conf
* w# N7 R& b1 l, o+ F5 b0 H" i+ osed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
5 A! h: o9 `$ L- _' e; O& Bsed -i " 3339c project_name = service" /etc/nova/nova.conf
. F5 u; _9 d8 E+ U% Y* |" f; H1 Ysed -i " 3340c username = neutron" /etc/nova/nova.conf
) o/ q5 M$ `* X% s/ [" `' S  Used -i " 3341c password = 123456" /etc/nova/nova.conf# Y' L3 M9 X3 l0 B; R, F& g" _$ C
systemctl restart openstack-nova-compute.service
" R5 Y& J' I2 b4 ]1 fsystemctl enable neutron-linuxbridge-agent.service && systemctl start neutron-linuxbridge-agent.service
0 D- e/ J0 ~2 |1 [# ]#控制节点 安装Dashboard, ~0 l. R7 R* P+ |; P+ `
yum install -y openstack-dashboard+ O* m! I# U( d8 p8 w1 O- c; i: E+ m
sed -i '118c OPENSTACK_HOST = "controller"' /etc/openstack-dashboard/local_settings/ o- O+ Y& C0 T5 F
sed -i "39c ALLOWED_HOSTS = ['*']" /etc/openstack-dashboard/local_settings& K  P6 B2 U9 b. @& u; {, i6 r1 _/ o
sed -i "104c SESSION_ENGINE = 'django.contrib.sessions.backends.cache'" /etc/openstack-dashboard/local_settings
- ?- `& m; p' i) {sed -i "94c CACHES = {" /etc/openstack-dashboard/local_settings
! k+ B8 E% B% ~3 Psed -i "95c 'default': {" /etc/openstack-dashboard/local_settings- V3 Z; K' C6 w4 l
sed -i "96c 'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache'," /etc/openstack-dashboard/local_settings$ q& d) J/ ?* q1 D) Y7 f% {. ]2 R8 y
sed -i "97c 'LOCATION': 'controller:11211'," /etc/openstack-dashboard/local_settings
% F2 a0 F+ `% r" Q* ksed -i "98c }" /etc/openstack-dashboard/local_settings
7 X% ]- B3 w6 ^( gsed -i "99c }" /etc/openstack-dashboard/local_settings4 L& l! e/ U0 \/ `
sed -i '119c OPENSTACK_KEYSTONE_URL = "http://%s:5000/v3" % OPENSTACK_HOST' /etc/openstack-dashboard/local_settings* n6 O2 K% k8 _# ^- N* W. `- e
echo 'OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True' >> /etc/openstack-dashboard/local_settings$ C  ^9 V: Q) ~0 E  d
echo 'OPENSTACK_API_VERSIONS = {' >> /etc/openstack-dashboard/local_settings/ n$ v) X" k) P4 L' V/ d
echo '  "identity": 3,' >> /etc/openstack-dashboard/local_settings
3 a4 Y' r/ i1 R2 o4 n/ Gecho '  "image": 2,' >> /etc/openstack-dashboard/local_settings- e  m$ R$ E. T6 X$ a: h9 u* G, F
echo '  "volume": 3' >> /etc/openstack-dashboard/local_settings
" A: O7 X4 [. @& d/ S3 t+ s$ Vecho '}' >> /etc/openstack-dashboard/local_settings9 W# x! d# G1 D: Z+ h: I
echo 'OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"' >> /etc/openstack-dashboard/local_settings
8 J) y0 G, x1 D) e) ~" ]echo 'OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"' >> /etc/openstack-dashboard/local_settings; m& N1 a, y1 ^1 d
sed -i '123c TIME_ZONE = "Asia/Shanghai"' /etc/openstack-dashboard/local_settings
! s$ g; x( s  |- h2 q9 u* r  _2 w7 O& Aecho "WEBROOT = '/dashboard/'" >> /etc/openstack-dashboard/local_settings8 W, u# D% N7 @9 [2 a6 F7 r
echo 'WSGIApplicationGroup %{GLOBAL}' >> /etc/httpd/conf.d/openstack-dashboard.conf6 R  _9 S/ F' m- p% [
systemctl restart httpd.service memcached.service
) q# k$ @* G% U3 J#安装完成,可访问http://controller/dashboard/查看
  X. h* n6 v0 q; K% i1 r: g
 楼主| 发表于 2021-9-13 11:07:27 | 显示全部楼层
目录:. }, R. ^! Z  A( `7 ?
  • 为何选择云计算/云计算之前遇到的问题
  • 什么是云计算
  • 云服务模式
  • 云应用形式
  • 传统应用与云感知应用% @. p& E' u) A
  • openstack及其相关组件介绍
  • flat/vlan/gre/vxlan介绍
  • 分布式存储ceph介绍
  • openstack mitaka三节点部署实战

    3 h! }) R# f9 A  m' J; n% I! q6 {
3 W2 Q- |- W( H* p
一:为何选择云计算/云计算之前遇到的问题
    一、有效解决硬件单点故障问题
    单点故障是指某个硬件的故障造成网站某个服务的中断。要真正解决这个问题,需要为每个硬件准备冗余,这不仅大大增加了硬件购置成本,而且部署与维护成本也不容小视。
    而云计算平台是基于服务器集群,从设计之初就考虑了单点故障问题,并在建设时有效地解决了这个问题。如果一家云服务商出现单点故障问题,就如同存在银行的钱丢了。
    二、按需增/减硬件资源
    自己托管服务器,增/减硬件一直是头疼的问题。
    1. 增加服务器的时候,购买服务器需要时间,而且这个时间自己无法控制。而使用云服务器,随时可以增加服务器——垂手可得。
    2. 减服务器只能从机房拉回办公室,无法再把服务器退给厂商,购置服务器的成本就浪费了。而使用云服务器,如果下个月不用,不续费就行了(针对阿里云按月购买的情况)——想用就用,想扔就扔。
    3. 不能按需增加满足基本需求的服务器配置。假如我们现在需要一台低配置的服务器用Linux跑缓存服务,如果为之单独购买一台便宜的低配置的服务器很不合算,因为这台服务器仅仅一年的电费就至少要3000元左右。所以只能尽量减少服务器数量,提高单台服务器的配置,在让一台服务器跑更多东西。而使用云服务器,需要什么样的配置就买什么样的配置,让各个服务器的职责更单一,互相之间的影响更小——职责分明,效率更高。
    三、BGP线路解决南北互通问题
    南北互通问题是南方电信与北方联通线路之间的互通问题,这个问题困扰我们多年,之前用过双线机房,解决的也不是很好。目前只有BGP线路才能有效解决这个问题,而拥有真正的BGP线路的机房不是很多,成本也非常高。而我准备使用的阿里云用的就是BGP线路,这也是吸引我们的主要地方之一。
    究竟什么是南北互通问题?基于我们的理解简体描述一下,不对之处欢迎指出。南北互通问题实际就是路由问题。假设我们的服务器放在上海电信的机房,上海一位联通的用户访问我们的服务器,要先绕到联通的北京总出口(假设总出口在北京),然后再绕回上海。实际上这位联通用户可以通过上海的线路直接到达我们的服务器,不用绕这么远,但上海电信的机房无法告知联通的路由器走近路过来,只能按照联通路由器设定好的路由走。本来即使走北京绕一下也没有大的影响,毕竟是光的速度,但是由于大多数联通的用户访问电信网络都这么绕着走,联通的总出口成为了瓶颈,总出口流量太大时,联通的用户访问电信的网络速度就会慢。BGP线路也没什么神奇之处,只是它能决定走什么路由过来,不绕远路,问题自然解决了。它有这样的特权,就不仅能解决南北互通的问题,而且能解决其他网络的互通问题,比如教育网。因为有权限决定路由,就可以优化路由,哪条路堵,我就换条路。
    四、按需增/减带宽
    带宽是主要成本,托管服务器时,与ISP服务商签一年合同之前就要确定带宽。用了一段时间之后,你发现带宽买多了,想减一些是不允许的。中途要临时增加带宽一段时间也是不行的,要买就买一年(这是根据我们接触过的ISP服务商)。所以,一般都会多买一些带宽,留一些余量。
    使用云服务器可以灵活地增减带宽,不会浪费带宽,即使买少了也不用担心,随时可以增加。虽然各个云服务商会有一定的限制,比如在阿里云一次至少要购买1个月的带宽,但比自己托管服务器灵活很多,同样的带宽条件,会节省不少成本,尤其是带宽需求在一年中变化比较大的网站。
    五、更有吸引力的费用支付方式
    在IDC机房托管服务器一般是签一年合同,一次支付一个季度的费用。
    而使用云服务,一次可以支付更短时间的费用,比如阿里云可以一次只支付一个月的费用,节约了流动资金。
    从总体上考虑,差不多的成本,却拥有更多的内存、更多的CPU、更多的硬盘空间、更优质的带宽线路,更重要的是可以随时按需扩展计算资源。

4 T2 i( d4 m% ~  Q- s% B& v- {& C
二:什么是云计算(资源和服务的交互方式)

9 Y* t- B( i* t8 J
    一、概念分解:   
        云:云计算中的云,代表循环利用的意思(云多了变成雨,落到地面,云减少,水蒸发到空中,云增加)。
       计算:云计算中的计算,代表计算资源,涵盖虚机、存储、网络等。
       云计算:代表计算资源向云水循环一样,按需分配,循环利用。
       附:企业数据中心部署在云计算分布式平台上,类似于从原来单台发电机转向电厂集中供电模式,它意味着访问计算机和存储系统也可以作为一种商品流通,就像煤气、水电一样,取用方便,费用低廉,只不过它是通过互联网传输的,云就是互联网的一种比喻
    二、云计算分类:
        狭义:IT基础设施的交互和使用模式,通过网络以按需,易扩展的方式获取资源
        广义:服务(IT基础设施、软件等)的交互和使用模式,通过网络以按需、易扩展的方式获取资源。
        ' M5 N/ _" z- }$ z: I
三:云服务模式
3 M& @- `2 y, T' P/ W- Q  X) y, M
     一、IaaS:基础设施即服务
        用户通过网络获取虚机、存储、网络,然后用户根据自己的需求操作获取的资源。  典型应用:亚马逊AWS等

% f5 Q: z0 t& s0 V
     二、PaaS:平台即服务
        将软件研发平台作为一种服务, 如Eclipse/Java编程平台,服务商提供编程接口/运行平台等。典型应用:Google AppEngine、Force.com、微软Azure等
( c0 J7 ?. \& K' D- N
     三、SaaS:软件即服务  
        将软件作为一种服务通过网络提供给用户,如web的电子邮件、HR系统、订单管理系统、客户关系系统等。用户无需购买软件,而是向提供商租用基于web的软件,来管理企业经营活动。典型应用:Google Doc、Saleforce.com、Oracle CRM On Demand、Office Live Workspace等
  i# |  g) H* A2 h  u* c) k, N' I
' x4 V- I) }7 S) J. T- T( Z' X
四:云应用形式
   
    一.私有云
        将基础设施与软硬件资源构建于防火墙内,基于iaas构建私有云平台供企业内部使用,开源组件有:openstack(最为出色),cloudstack等: t5 _  C- O8 f( Y8 b) f
    二.云存储
        云存储系统是一个以数据存储和管理为核心的云计算系统1 a9 E0 P( Q; M& p8 U9 r
    三.云游戏
        游戏运行云平台服务端,云平台将游戏画面解压缩后传给用户,用户端无需高配置处理器和显卡,只需要基本的视频解压缩能力即可。' a3 B" E+ r5 f; _) C
    四.云物联
        基于云平台实现物物相连的互联网。
9 T5 V. c4 f3 e+ e
    五.云安全
        通过网状的大量客户端检测网络中软件的异常,获取木马,恶意程序的最新信息,推送到云平台服务端自动分析和处理,再把解决方案发送给每一个客户端。云平台使用者越多,越安全。
& d8 |/ r7 C4 P8 J) H; o
    六.公有云
        云平台对外开放,主要以Iaas和Paas为主,较为成熟的是Iaas,如阿里云,腾讯云,×××,ucloud,首都在线等
; g* z' E% {" L3 V7 O
    七.混合云  
6 q4 }2 l! ^# G6 T
        公有云和私有云的结合,即对企业内部又对企业外部,例如AWS2 n3 R3 ]. v7 [! s2 v; w
    & m4 f& E# I+ w2 W3 H
五:传统应用与云感知应用
: l$ B& h( h1 \+ _0 [. L9 z7 i
    一、传统应用
, \# a  l# z, \5 O+ `( F) {
    传统应用像养宠物,宠物病了要细心呵护
    每个应用都是独特的、专门的
    专门的服务器、硬件和软件保证可靠性
    资源不够,增加cpu、内存、磁盘
    专门的技术支持
    二、云感知应用% f9 Z8 K. r' n
    云感知应用像养牛,牛生病了,你需要一头新的牛
    应用跑在一个或多个虚拟机里
    资源不够,增加新的虚拟机
    应用挂起,重启或创建新的虚拟机
, r1 }( B, |/ r. O# ?$ K# h
- K% ~# o1 I8 E- Z. t! Q
六:openstack与及其相关组件介绍
1 R( W$ f# X- z; P, Z5 \; f  C
    一、openstack由来( s: Z/ H( {. C" ~6 ?. V6 w, c
            openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。
     二、openstack项目与组件(服务名是项目名的别名)

) b* c- P) H2 d5 D  ^$ g
    核心项目3个
    1.控制台
    服务名:Dashboard
    项目名:Horizon
    功能:web方式管理云平台,建云主机,分配网络,配安全组,加云盘
   
5 i; _1 z, f3 |+ I
    2.计算
    服务名:计算
    项目名:Nova
    功能:负责响应虚拟机创建请求、调度、销毁云主机
   
/ L& H* x$ R( D
    3.网络
    服务名:网络
    项目名:Neutron
    功能:实现SDN(软件定义网络),提供一整套API,用户可以基于该API实现自己定义专属网络,不同厂商可以基于此API提供自己的产品实现
        
  I& n1 C0 \5 ?. O
         存储项目2个
    1.对象存储
    服务名:对象存储
    项目名:Swift
    功能:REST风格的接口和扁平的数据组织结构。RESTFUL HTTP API来保存和访问任意非结构化数据,ring环的方式实现数据自动复制和高度可以扩展架构,保证数据的高度容错和可靠性
   
- D% [/ I. L$ B$ v9 F5 T
    2.块存储
    服务名:块存储
    项目名:Cinder
    功能:提供持久化块存储,即为云主机提供附加云盘。
  a" p  X2 b+ ~4 b  X4 {4 ?1 ^
    共享服务项目3个
    1.认证服务
    服务名:认证服务
    项目名:Keystone
    功能:为访问openstack各组件提供认证和授权功能,认证通过后,提供一个服务列表(存放你有权访问的服务),可以通过该列表访问各个组件。
   
( L" Q3 i: V2 Z- \$ {
    2.镜像服务
    服务名:镜像服务
    项目名:Glance
    功能:为云主机安装操作系统提供不同的镜像选择

7 U3 h8 C0 _0 `3 r" ^
    3.计费服务
    服务名:计费服务
    项目名:Ceilometer
    功能:收集云平台资源使用数据,用来计费或者性能监控
; Q) M* o  g3 S# s' F" \
    高层服务项目1个
    1.编排服务
    服务名:编排服务
    项目名:Heat
    功能:自动化部署应用,自动化管理应用的整个生命周期.主要用于Paas

* j+ @+ ~" ~! P5 m9 J: ^
6 b, `8 s/ y8 `2 h
    三、openstack各组件详解及运行流程

* A: g) z5 B3 }+ m3 {
各组件逻辑关系图:

9 v. o0 v$ [' G* U, r# F, j

( k2 U6 a$ z* Y, W7 M  kopenstack新建云主机流程图:
虚拟机启动过程如下:
  • 界面或命令行通过RESTful API向keystone获取认证信息。
  • keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。
  • 界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。
  • nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。
  • keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。
  • 通过认证后nova-api和数据库通讯。
  • 初始化新建虚拟机的数据库记录。
  • nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。
  • nova-scheduler进程侦听消息队列,获取nova-api的请求。
  • nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。
  • 对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。
  • nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。
  • nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。
  • nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)
  • nova-conductor从消息队队列中拿到nova-compute请求消息。
  • nova-conductor根据消息查询虚拟机对应的信息。
  • nova-conductor从数据库中获得虚拟机对应信息。
  • nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。
  • nova-compute从对应的消息队列中获取虚拟机信息消息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。
  • glance-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机镜像信息(URL)。
  • nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。
  • neutron-server向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机网络信息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。
  • cinder-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机持久化存储信息。
  • nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

    ( j8 N& C% N7 l2 g

' B' K$ @: T. |
- g' g8 h4 W  u4 z% L. G3 h
下面我们就围绕上图流程展开* }' x1 p$ ?) W
( X: r2 B2 d+ i6 v8 x
1.keystone

User:指使用Openstack service的用户,可以是人、服务、系统,但凡使用了Openstack service的对象都可以称为User。

Project(Tenant):可以理解为一个人、或服务所拥有的 资源集合 。在一个Project(Tenant)中可以包含多个User,每一个User都会根据权限的划分来使用Project(Tenant)中的资源。比如通过Nova创建虚拟机时要指定到某个Project中,在Cinder创建卷也要指定到某个Project中。User访问Project的资源前,必须要与该Project关联,并且指定User在Project下的Role。

Role:用于划分权限。可以通过给User指定Role,使User获得Role对应的操作权限。Keystone返回给User的Token包含了Role列表,被访问的Services会判断访问它的User和User提供的Token中所包含的Role。系统默认使用管理Role admin和成员Role _member_ 。

Policy:OpenStack对User的验证除了OpenStack的身份验证以外,还需要鉴别User对某个Service是否有访问权限。Policy机制就是用来控制User对Tenant中资源(包括Services)的操作权限。对于Keystone service来说,Policy就是一个JSON文件,默认是/etc/keystone/policy.json。通过配置这个文件,Keystone Service实现了对User基于Role的权限管理。

Token:是一个字符串表示,作为访问资源的令牌。Token包含了在 指定范围和有效时间内 可以被访问的资源。EG. 在Nova中一个tenant可以是一些虚拟机,在Swift和Glance中一个tenant可以是一些镜像存储,在Network中一个tenant可以是一些网络资源。Token一般被User持有。

Credentials:用于确认用户身份的凭证

Authentication:确定用户身份的过程

Service:Openstack service,即Openstack中运行的组件服务。

Endpoint:一个可以通过网络来访问和定位某个Openstack service的地址,通常是一个URL。比如,当Nova需要访问Glance服务去获取p_w_picpath 时,Nova通过访问Keystone拿到Glance的endpoint,然后通过访问该endpoint去获取Glance服务。我们可以通过Endpoint的region属性去定义多个region。Endpoint 该使用对象分为三类:

  • admin url –> 给admin用户使用,Post:35357
  • internal url –> OpenStack内部服务使用来跟别的服务通信,Port:5000
  • public url –> 其它用户可以访问的地址,Post:5000

      a4 U9 _. a& g

创建完service后创建API EndPoint. 在openstack中,每一个service都有三种end points. Admin, public, internal。 Admin是用作管理用途的,如它能够修改user/tenant(project)。 public 是让客户调用的,比如可以部署在外网上让客户可以管理自己的云。internal是openstack内部调用的。三种endpoints 在网络上开放的权限一般也不同。Admin通常只能对内网开放,public通常可以对外网开放internal通常只能对安装有openstack对服务的机器开放。

V3新增
  • Tenant 重命名为 Project
  • 添加了 Domain 的概念
  • 添加了 Group 的概念
    . q) A! T4 ^0 Y* F0 a
& X6 }3 k. \$ h

: y, \( Y! u7 @5 Q! s, F0 ~
1 Y: V+ _# @8 H) G
  • 用户alice登录keystone系统(password或者token的方式),获取一个临时的token和catalog服务目录(v3版本登录时,如果没有指定scope,project或者domain,获取的临时token没有任何权限,不能查询project或者catalog)。
  • alice通过临时token获取自己的所有的project列表。
  • alice选定一个project,然后指定project重新登录,获取一个正式的token,同时获得服务列表的endpoint,用户选定一个endpoint,在HTTP消息头中携带token,然后发送请求(如果用户知道project name或者project id可以直接第3步登录)。
  • 消息到达endpoint之后,由服务端(nova)的keystone中间件(pipeline中的filter:authtoken)向keystone发送一个验证token的请求。(token类型:uuid需要在keystone验证token,pki类型的token本身是包含用户详细信息的加密串,可以在服务端完成验证)
  • keystone验证token成功之后,将token对应用户的详细信息,例如:role,username,userid等,返回给服务端(nova)。
  • 服务端(nova)完成请求,例如:创建虚拟机。
  • 服务端返回请求结果给alice。

    6 z# b0 F3 B% k9 _1 J9 A

* F) C0 x* a3 f: Z
2.glance
v13 F9 u' l1 l4 X' e

* o' l& x; {  s/ h5 j
v2
" I) a- `7 t" l

2 T9 ^: J! D4 P
3.nova与cinder
nova主要组成:
    nova-api
. c( L& ~# \2 @2 D* l
    nova-scheduler9 E: Y5 P6 b3 s) B7 A6 V
    nova-compute
    nova-conductor
  }8 ]1 G$ e9 k$ Q
cinder主要组成:
    cinder-api
% q; f' y+ C# J. B3 u6 e
    cinder-scheduler
- i5 \* Y+ n8 ]
    cinder-volume
0 V! [1 Y/ u- E! i7 i0 T% x# ?' Y/ s
[size=1.16em]cinder各组件功能:
[size=1.16em]Cinder-api 是 cinder 服务的 endpoint,提供 rest 接口,负责处理 client 请求,并将 RPC 请求发送至 cinder-scheduler 组件。
[size=1.16em]Cinder-scheduler 负责 cinder 请求调度,其核心部分就是 scheduler_driver, 作为 scheduler manager 的 driver,负责 cinder-volume 具体的调度处理,发送 cinder RPC 请求到选择的 cinder-volume。
[size=1.16em]Cinder-volume 负责具体的 volume 请求处理,由不同后端存储提供 volume 存储空间。目前各大存储厂商已经积极地将存储产品的 driver 贡献到 cinder 社区
5 B3 d" O, A! P2 J
cinder架构图:
+ B# H# p# S5 x/ i# r% [1 f) v: n" x4 k4 B6 c7 T

0 o- A: {1 K/ u$ A  w! O( M

& w3 p1 E# ~. v7 |4 p5 ^: ^2 f
openstack组件间通信:调用各组件api提供的rest接口,组件内通信:基于rpc(远程过程调用)机制,而rpc机制是基于AMQP模型实现的
从rpc使用的角度出发,nova,neutron,和cinder的流程是相似的,我们以cinder为例阐述rpc机制

9 T" t& c+ v0 ?3 E7 a+ J
Openstack 组件内部的 RPC(Remote Producer Call)机制的实现是基于 AMQP(Advanced Message Queuing Protocol)作为通讯模型,从而满足组件内部的松耦合性。AMQP 是用于异步消息通讯的消息中间件协议,AMQP 模型有四个重要的角色:
    Exchange:根据 Routing key 转发消息到对应的 Message Queue 中
    Routing key:用于 Exchange 判断哪些消息需要发送对应的 Message Queue
    Publisher:消息发送者,将消息发送的 Exchange 并指明 Routing Key,以便 Message Queue           可以正确的收到消息
    Consumer:消息接受者,从 Message Queue 获取消息
消息发布者 Publisher 将 Message 发送给 Exchange 并且说明 Routing Key。Exchange 负责根据 Message 的 Routing Key 进行路由,将 Message 正确地转发给相应的 Message Queue。监听在 Message Queue 上的 Consumer 将会从 Queue 中读取消息。
Routing Key 是 Exchange 转发信息的依据,因此每个消息都有一个 Routing Key 表明可以接受消息的目的地址,而每个 Message Queue 都可以通过将自己想要接收的 Routing Key 告诉 Exchange 进行 binding,这样 Exchange 就可以将消息正确地转发给相应的 Message Queue。
7 b# n2 r0 Y8 h# b3 g  R
Publisher可以分为4类:
    Direct Publisher发送点对点的消息;
    Topic Publisher采用“发布——订阅”模式发送消息;
    Fanout Publisher发送广播消息的发送;
    Notify Publisher同Topic Publisher,发送 Notification 相关的消息。
9 Q4 @; v& q% p  }) ]. D; \& W
Exchange可以分为3类:
    1.Direct Exchange根据Routing Key进行精确匹配,只有对应的 Message Queue 会接受到消息;
    2.Topic Exchange根据Routing Key进行模式匹配,只要符合模式匹配的Message Queue都会收到消息;
    3.Fanout Exchange将消息转发给所有绑定的Message Queue。

AMQP消息模型

: m( \0 x8 `+ R# v
RPC 发送请求
Client 端发送 RPC 请求由 publisher 发送消息并声明消息地址,consumer 接收消息并进行消息处理,如果需要消息应答则返回处理请求的结果消息。
( Y; L5 _+ E* y# @6 V, O
OpenStack RPC 模块提供了 rpc.call,rpc.cast, rpc.fanout_cast 三种 RPC 调用方法,发送和接收 RPC 请求。

. o1 x* x0 z  p. d9 N# B
1.rpc.call 发送 RPC 请求并返回请求处理结果,请求处理流程如图 5 所示,由 Topic Publisher 发送消息,Topic Exchange 根据消息地址进行消息转发至对应的 Message Queue 中,Topic Consumer 监听 Message Queue,发现需要处理的消息则进行消息处理,并由 Direct Publisher 将请求处理结果消息,请求发送方创建 Direct Consumer 监听消息的返回结果
2.rpc.cast 发送 RPC 请求无返回,请求处理流程如图 6 所示,与 rpc.call 不同之处在于,不需要请求处理结果的返回,因此没有 Direct Publisher 和 Direct Consumer 处理。
3.rpc.fanout_cast 用于发送 RPC 广播信息无返回结果

$ N/ T* W- i2 n/ M- t
4.neutron
neutron包含组件:
    neutron-server0 t. _7 J: u6 i. g) A$ m7 v9 ]
    neutron-plugin
; u  {5 i$ x: ^( U* ]7 C) p9 D
    neutron-agent
, x* }& V5 y( q# \. u) T
neutron各组件功能介绍:
1.Neutron-server可以理解为一个专门用来接收Neutron REST API调用的服务器,然后负责将不同的rest api分发到不同的neutron-plugin上。
2.Neutron-plugin可以理解为不同网络功能实现的入口,各个厂商可以开发自己的plugin。Neutron-plugin接收neutron-server分发过来的REST API,向neutron database完成一些信息的注册,然后将具体要执行的业务操作和参数通知给自身对应的neutron agent。
3.Neutron-agent可以直观地理解为neutron-plugin在设备上的代理,接收相应的neutron-plugin通知的业务操作和参数,并转换为具体的设备级操作,以指导设备的动作。当设备本地发生问题时,neutron-agent会将情况通知给neutron-plugin。
4.Neutron database,顾名思义就是Neutron的数据库,一些业务相关的参数都存在这里。
5.Network provider,即为实际执行功能的网络设备,一般为虚拟交换机(OVS或者Linux Bridge)。

" i0 C; G, i% \5 O+ O( b( G0 T
neutron-plugin分为core-plugin和service-plugin两类。
Core-plugin,Neutron中即为ML2(Modular Layer 2),负责管理L2的网络连接。ML2中主要包括network、subnet、port三类核心资源,对三类资源进行操作的REST API被neutron-server看作Core API,由Neutron原生支持。其中:
Service-plugin,即为除core-plugin以外其它的plugin,包括l3 router、firewall、loadbalancer、×××、metering等等,主要实现L3-L7的网络服务。这些plugin要操作的资源比较丰富,对这些资源进行操作的REST API被neutron-server看作Extension API,需要厂家自行进行扩展。
“Neutron对Quantum的插件机制进行了优化,将各个厂商L2插件中独立的数据库实现提取出来,作为公共的ML2插件存储租户的业务需求,使得厂商可以专注于L2设备驱动的实现,而ML2作为总控可以协调多厂商L2设备共同运行”。在Quantum中,厂家都是开发各自的Service-plugin,不能兼容而且开发重复度很高,于是在Neutron中就为设计了ML2机制,使得各厂家的L2插件完全变成了可插拔的,方便了L2中network资源扩展与使用。

% N3 l: e  u9 \- U: S$ A; d+ F2 s
(注意,以前厂商开发的L2 plugin跟ML2都存在于neutron/plugins目录下,而可插拔的ML2设备驱动则存在于neutron/plugins/ml2/drivers目录下)

$ ~& l5 @; X6 V
ML2作为L2的总控,其实现包括Type和Mechanism两部分,每部分又分为Manager和Driver。Type指的是L2网络的类型(如Flat、VLAN、VxLAN等),与厂家实现无关。Mechanism则是各个厂家自己设备机制的实现,如下图所示。当然有ML2,对应的就可以有ML3,不过在Neutron中L3的实现只负责路由的功能,传统路由器中的其他功能(如Firewalls、LB、×××)都被独立出来实现了,因此暂时还没有看到对ML3的实际需求。
一般而言,neutron-server和各neutron-plugin部署在控制节点或者网络节点上,而neutron agent则部署在网络节点上和计算节点上。我们先来分析控制端neutron-server和neutron-plugin的工作,然后再分析设备端neutron-agent的工作。
neutron新进展(dragon  flow):
https://www.ustack.com/blog/neutron-dragonflow/
网络模式介绍:
根据创建网络的用户的权限,Neutron network 可以分为:
  • Provider network:管理员创建的和物理网络有直接映射关系的虚拟网络。
  • Tenant network:租户普通用户创建的网络,物理网络对创建者透明,其配置由 Neutorn 根据管理员在系统中的配置决定。

    5 E" |$ G0 O4 V
根据网络的类型,Neutron network 可以分为:
  • VLAN network(虚拟局域网) :基于物理 VLAN 网络实现的虚拟网络。共享同一个物理网络的多个 VLAN 网络是相互隔离的,甚至可以使用重叠的 IP 地址空间。每个支持 VLAN network 的物理网络可以被视为一个分离的 VLAN trunk,它使用一组独占的 VLAN ID。有效的 VLAN ID 范围是 1 到 4094。
  • Flat network:基于不使用 VLAN 的物理网络实现的虚拟网络。每个物理网络最多只能实现一个虚拟网络。
  • local network(本地网络):一个只允许在本服务器内通信的虚拟网络,不知道跨服务器的通信。主要用于单节点上测试。
  • GRE network (通用路由封装网络):一个使用 GRE 封装网络包的虚拟网络。GRE 封装的数据包基于 IP 路由表来进行路由,因此 GRE network 不和具体的物理网络绑定。
  • VXLAN network(虚拟可扩展网络):基于 VXLAN 实现的虚拟网络。同 GRE network 一样, VXLAN network 中 IP 包的路由也基于 IP 路由表,也不和具体的物理网络绑定。

    " X) d8 v6 Q( Y8 A
注:在AWS中,该概念对应 VPC 概念。AWS 对 VPC 的数目有一定的限制,比如每个账户在每个 region 上默认最多只能创建 5 个VPC,通过特别的要求最多可以创建 100 个。
; p5 v! U+ @% u/ p0 `  i' \8 W
1.vlan
  b. \6 @2 `' K: ]# U5 w: c
2.gre与vxlan请参考
http://www.cnblogs.com/sammyliu/p/4622563.html

; j* I" I0 T( S8 L0 `! q& I1 G, l
gre网络
0 V( O3 V  |3 l* D
gre与vxlan区别
1 V* @8 t3 |0 M0 a& q
关于gre和vxlan二次封装数据包的MTU问题
VXLAN 模式下虚拟机中的 mtu 最大值为1450,也就是只能小于1450,大于这个值会导致 openvswitch 传输分片,进而导致虚拟机中数据包数据重传,从而导致网络性能下降。GRE 模式下虚拟机 mtu 最大为1462。
计算方法如下:
  • vxlan mtu = 1450 = 1500 – 20(ip头) – 8(udp头) – 8(vxlan头) – 14(以太网头)
  • gre mtu = 1462 = 1500 – 20(ip头) – 4(gre头) – 14(以太网头)

    + e* K- j3 x  S" [
可以配置 Neutron DHCP 组件,让虚拟机自动配置 mtu,
#/etc/neutron/dhcp_agent.ini[DEFAULT]dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf#/etc/neutron/dnsmasq-neutron.confdhcp-option-force=26,1450或1462
  • 1.
  • 2.
  • 3.
  • 4.
    % f! B) N7 W, X- w- o  U
重启 DHCP Agent,让虚拟机重新获取 IP,然后使用 ifconfig 查看是否正确配置 mtu。
( P8 V; l5 z! o
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 ( 蜀ICP备2026014127号-1 )点击这里给我发消息

GMT+8, 2026-4-8 21:23 , Processed in 0.076208 second(s), 21 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表