易陆发现互联网技术论坛

 找回密码
 开始注册
查看: 2487|回复: 1
收起左侧

Centos8最小化部署安装OpenStack Ussuri

[复制链接]
发表于 2021-7-13 08:30:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?开始注册

x
#!/bin/bash
3 ?5 ^: s) l- O5 J9 i0 H# l# |2 D#Centos8最小化部署安装openstack Ussuri7 K- |/ @% m. l3 G1 X& a5 X
#共两台主机,分别是一台控制节点,一台计算节点. |6 o, d7 U$ O8 V
#1、控制节点内存4096M。双网卡,分别为eth0:10.0.0.11,eth1:10.0.0.12
8 L' e/ V4 G& c* @" W6 h#2、计算节点内存2048M。双网卡,分别为eth0:10.0.0.31,eth1:10.0.0.32# a/ Q/ M  s5 k) a
#设置阿里云yum源
. I7 l: q- S9 t: k4 e; L1 ~curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo9 e" Q1 V" N5 I" E) K: P0 I- I
rm -f /etc/yum.repos.d/CentOS-AppStream.repo /etc/yum.repos.d/CentOS-PowerTools.repo /etc/yum.repos.d/CentOS-centosplus.repo /etc/yum.repos.d/CentOS-Extras.repo && rm -rf /var/cache/yum && yum makecache && yum -y update && yum -y autoremove
' q3 e/ W  q. D#关闭防火墙* c- h; D& R* E( ]3 `6 T
systemctl stop firewalld && systemctl disable firewalld% I3 X* O6 n+ W  D, ^3 G- Z
#关闭SELinux
6 M; p  I9 E% {  W1 hsetenforce 0
0 b/ Z* ]' p) G3 k2 ?: L# S, u1 S7 msed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config9 w# |. w0 L! Z/ [/ n+ I
#关闭swap分区& h7 q- U+ D7 J' b) g- ?; A6 x) Z
swapoff -a: x- i6 G* V/ ^9 W+ L
sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
+ }# l; {0 |6 e: V#设置内核
4 F! v5 q* f( |( S# |4 Xmodprobe bridge: ~  m8 ~( p' }
modprobe br_netfilter5 x' j; J  Z; A6 Z% s) p3 \
cat > /etc/sysconfig/modules/neutron.modules <<EOF3 v7 F1 e$ i/ p5 r5 a' H
#!/bin/bash4 A$ @4 R" B! H3 Q' Z  V
modprobe -- bridge* ]/ }5 d2 C- e+ u6 Q# ]4 o8 H
modprobe -- br_netfilter  D8 a, I. q' k% R4 B8 ^9 @
EOF: d( g0 b/ x  f9 s
chmod 755 /etc/sysconfig/modules/neutron.modules && bash /etc/sysconfig/modules/neutron.modules
6 H+ {* }. e8 T" s- X* r* o$ `echo "vm.max_map_count=262144" >> /etc/sysctl.conf
- y! U/ z) y# ~# c2 }9 ~3 X6 e- iecho "net.ipv4.ip_forward=1" >> /etc/sysctl.conf3 u  V. c) p% m2 f( ^' ]
echo "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf
# X# j4 h0 u' E, u1 ]2 c7 decho "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf/ Y: Z# E1 G5 X1 T5 F& G8 e
sysctl -p
+ F( K2 L' H' T6 i8 \% a#设置时间同步
7 E8 n. x4 n% E+ G" A" pyum install -y chrony && yum -y autoremove
6 _; W9 Q% [4 m; I$ [6 Q  P4 osed -i '/^pool/d' /etc/chrony.conf
! R, z  c/ V: w  vsed -i '/^server/d' /etc/chrony.conf* a, l5 \+ _5 Q$ J0 n/ e# o( r
echo "pool ntp.aliyun.com iburst" >> /etc/chrony.conf0 _+ @1 `+ c, Z3 w" h
systemctl start chronyd.service && systemctl enable chronyd.service" t+ H! G8 [& M
#控制节点 设置hostname
' p" V. }$ h7 |hostnamectl set-hostname controller
4 E/ D$ B7 B5 V- ~& e( i#计算节点 设置hostname+ d9 a' @: j9 {% v3 D
hostnamectl set-hostname compute1( j) }' m; q' H) Y, S0 _
#添加host: g  i) m# D: |. j
echo "10.0.0.11 controller" >> /etc/hosts6 Z1 r* x$ t% a
echo "10.0.0.31 compute1" >> /etc/hosts9 f, f, a6 Q3 v
#安装基础组件
9 [6 \9 Y" w3 Eyum install -y centos-release-openstack-ussuri% [/ Z. i1 r7 `( ~& C7 N: X
yum config-manager --set-enabled PowerTools1 J' \" t) b! G1 S
yum upgrade -y
, m' I/ U7 ~% ~2 e: j0 W' fyum install -y python3-openstackclient" w7 s  Z0 r' F, T
#控制节点 安装Mariadb
4 e4 G, m; ~8 ^  o: O; gyum install -y mariadb mariadb-server python2-PyMySQL
# r% G6 G% u% Etee /etc/my.cnf.d/openstack.cnf <<-'EOF'1 b( D2 A' z1 r+ I1 U  ?! [
[mysqld]- ?$ p9 v1 i1 w8 r  j0 F/ D
bind-address = 10.0.0.11
+ J; \  N, X9 d+ Z& |) Gdefault-storage-engine = innodb
; k% E9 h/ \/ n6 z* @& ninnodb_file_per_table = on
  c0 c: Q' V* F# {0 Q; Lmax_connections = 4096+ t; |' C" M' x) W" [
collation-server = utf8_general_ci) b, _3 E! H) u6 b: U* Z
character-set-server = utf8
7 F) u$ K) m" fEOF
. D: W7 K; }1 r* q3 Y" }systemctl enable mariadb.service && systemctl start mariadb.service
1 R/ f; Z6 j9 Y0 N, [echo -e "\nY\n123456\n123456\nY\nn\nY\nY\n" | mysql_secure_installation
1 m. P. i) c3 U6 f. o1 O$ q1 T8 R9 w#控制节点 安装RabbitMQ
& q' }1 S6 ^& W7 }; y/ t+ a+ e9 b6 Zyum install -y rabbitmq-server
4 e# t' ]& f  d( Ssystemctl enable rabbitmq-server.service && systemctl start rabbitmq-server.service
9 t) B. i" O8 U1 yrabbitmqctl add_user openstack 123456, D8 {7 ~; H  i3 h0 R
rabbitmqctl set_permissions openstack ".*" ".*" ".*"* |/ C, j3 Q/ ~# q/ T
#控制节点 安装Memcached
5 ?8 K% C# _5 g7 M' r, G2 Jyum install -y memcached python3-memcached3 {) e2 G1 B+ B! C4 C/ r
sed -i "s/-l 127.0.0.1,::1/-l 127.0.0.1,::1,controller/g" /etc/sysconfig/memcached
' |9 s6 u9 r, l9 F4 msystemctl enable memcached.service && systemctl start memcached.service5 |! q5 r8 _8 b. O
#控制节点 安装Etcd
" X& W% f( f, b' M6 ]* ]# Vyum install -y etcd
+ ?2 F. h/ _% T1 ]rm -f /etc/etcd/etcd.conf
; Y, e# O3 E+ i$ j1 Ytee /etc/etcd/etcd.conf <<-'EOF'9 q+ T% A9 q3 `; r' W
#[Member]
* e" I, h. j- V" F1 C1 P+ hETCD_DATA_DIR="/var/lib/etcd/default.etcd"8 B9 P  w* S; }, z
ETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"3 z6 N0 ~; O' x: J) |4 U; G
ETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"
2 P" D: `/ {# R1 l8 }8 k8 N9 }ETCD_NAME="controller"7 _  z! n$ l; Q; k* r
#[Clustering]
! Z2 |3 f5 V& |  h8 Z0 NETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"
/ N6 V8 Z& g# ]ETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"# Y1 R6 B' M  X
ETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"' H& H; Q" g2 G, u: v- b4 ]+ r
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"6 R5 y6 E% y& R; G0 u
ETCD_INITIAL_CLUSTER_STATE="new"& ]& d6 u$ |# D3 n7 x
EOF
7 S8 C( I" A' h$ M! J7 D4 Tsystemctl enable etcd && systemctl start etcd
- c5 C6 Z& ?( M$ s+ N* c#控制节点 安装Identity service
$ M6 N1 |6 Q& q. S3 A8 y) j8 jmysql -uroot -p123456 -e "CREATE DATABASE keystone"2 D5 h) p5 l7 p" m
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '123456'"$ y  a3 ]- \8 o4 W' S$ h3 x
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY '123456'"
# A0 l- |% n7 r* l" o% ^yum install -y openstack-keystone httpd python3-mod_wsgi
% Z$ o( f* ?8 Gsed -i "556c connection = mysql+pymysql://keystone:123456@controller/keystone" /etc/keystone/keystone.conf
0 H  Y  E" ^. W2 P! Nsed -i "2418c provider = fernet" /etc/keystone/keystone.conf( o( d  X" ~7 @+ z
su -s /bin/sh -c "keystone-manage db_sync" keystone1 k% m2 w% s4 \% `) l3 Q/ A5 }
keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone  Q0 o- b5 ~' I& w. L/ c' \
keystone-manage credential_setup --keystone-user keystone --keystone-group keystone
( T5 Y# w# E- F4 Qkeystone-manage bootstrap --bootstrap-password 123456 \4 ~3 _, Y% p& Q* A* o4 Y: |, I
--bootstrap-admin-url http://controller:5000/v3/ \
& n/ v5 b/ ]) }5 ?; d8 [4 I--bootstrap-internal-url http://controller:5000/v3/ \4 f. L: \5 S6 }6 [% v1 {. K- s
--bootstrap-public-url http://controller:5000/v3/ \
, f" \. m. y2 s8 M% n--bootstrap-region-id RegionOne' V: `5 u- e  l6 ?( N0 |- R2 ~& T
echo "ServerName controller" >> /etc/httpd/conf/httpd.conf; w. D5 |( o: y5 I
ln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/
) L' z$ n+ z4 U5 fsystemctl enable httpd.service && systemctl start httpd.service
3 G# W& Y; t, R; D8 D% _% e) Secho "export OS_USERNAME=admin" >> /etc/profile
# O. z* ~2 \7 R# o; U4 [echo "export OS_PASSWORD=123456" >> /etc/profile
3 _5 }- ^1 _2 H: Y% techo "export OS_PROJECT_NAME=admin" >> /etc/profile
0 q3 }. K+ h5 ~. b# r0 |  Secho "export OS_USER_DOMAIN_NAME=Default" >> /etc/profile
: l! V1 w8 J! Z0 j, n' a+ h8 Mecho "export OS_PROJECT_DOMAIN_NAME=Default" >> /etc/profile
: |6 N! D" B2 C" o" e; c/ J% e) Eecho "export OS_AUTH_URL=http://controller:5000/v3" >> /etc/profile7 l" J$ i4 a% B4 L7 ^7 p$ {
echo "export OS_IDENTITY_API_VERSION=3" >> /etc/profile: l( \! f& E0 L9 q, L& M
source /etc/profile
+ K3 |8 }: ^6 F0 i! Dopenstack project create --domain default --description "Service Project" service$ Q, U* q( k0 t/ P& G/ f. q5 ?( _
#控制节点 安装Image service% p  T6 O8 j% I. H) b
mysql -uroot -p123456 -e "CREATE DATABASE glance"
$ K+ @0 x9 N& z6 h! Hmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456'"7 }! n( Q1 C7 ]  n+ o: h
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY '123456'"
1 N+ f9 r7 s9 Lopenstack user create --domain default --password 123456 glance* F# |5 D& }& Q' t% X3 p
openstack role add --project service --user glance admin5 n, e0 g0 A; s" G
openstack service create --name glance --description "OpenStack Image" image' T2 l. O+ F6 _5 W6 x
openstack endpoint create --region RegionOne image public http://controller:9292
0 \  I4 E- A9 G% oopenstack endpoint create --region RegionOne image internal http://controller:9292
" {% R1 q4 A1 F& N: Y  Bopenstack endpoint create --region RegionOne image admin http://controller:9292  N/ A  B/ W$ K! g" |
yum install -y openstack-glance
" P3 v4 u2 v/ X. c. Dsed -i "2062c connection = mysql+pymysql://glance:123456@controller/glance" /etc/glance/glance-api.conf
$ i- w" H1 \5 g9 X2 @/ t$ Lsed -i "5034c www_authenticate_uri = http://controller:5000" /etc/glance/glance-api.conf8 Z+ n* I7 Z: X- |* Z* I  `, s
sed -i "5035c auth_url = http://controller:5000" /etc/glance/glance-api.conf0 K! u0 q$ r. v* m' k
sed -i "5036c memcached_servers = controller:11211" /etc/glance/glance-api.conf0 r& X. d, m: ~1 z3 j
sed -i "5037c auth_type = password" /etc/glance/glance-api.conf
1 P5 f( e% \, I9 w- H3 Nsed -i "5038c project_domain_name = Default" /etc/glance/glance-api.conf
; i; c& |4 t0 u1 {5 ]sed -i "5039c user_domain_name = Default" /etc/glance/glance-api.conf2 [- G4 j. }) X+ |4 T
sed -i "5040c project_name = service" /etc/glance/glance-api.conf
1 G: X( y# l, `4 z% used -i "5041c username = glance" /etc/glance/glance-api.conf
. q6 e2 |, d7 Q5 u" W3 Zsed -i "5042c password = 123456" /etc/glance/glance-api.conf
5 ]4 m4 G* h- l# V3 a! Ased -i "5678c flavor = keystone" /etc/glance/glance-api.conf- Q" O+ n  Q' K5 D% e/ I/ v) ^+ D
sed -i "3413c stores = file,http" /etc/glance/glance-api.conf
1 ]# h& a- Y2 H. z& z' F9 R$ wsed -i "3414c default_store = file" /etc/glance/glance-api.conf
# D, P3 Y5 ]1 q$ rsed -i "3415c filesystem_store_datadir = /var/lib/glance/images/" /etc/glance/glance-api.conf
; M* J9 g& d0 j2 Y! t  `: H3 l: C8 S  e& ksu -s /bin/sh -c "glance-manage db_sync" glance
, g. H% H# h4 m9 W1 P  lsystemctl enable openstack-glance-api.service && systemctl start openstack-glance-api.service
' d1 M1 x9 k9 I9 m4 F#控制节点 安装Placement service
! z6 j  G! b8 p2 O* }1 ^& lmysql -uroot -p123456 -e "CREATE DATABASE placement"! x+ a# W0 ^) y$ Y: e7 z/ h. r
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '123456'". S  ?- m6 Y4 n+ p
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '123456'"' @; Z/ w2 n5 T
openstack user create --domain default --password 123456 placement7 ?0 w" o- K+ F: M, |
openstack role add --project service --user placement admin4 B! G& G5 W6 K7 K' ?/ Q
openstack service create --name placement --description "Placement API" placement6 t; \; @! Z, Y4 D0 @
openstack endpoint create --region RegionOne placement public http://controller:87783 y) t1 v) J% N; ?
openstack endpoint create --region RegionOne placement internal http://controller:8778$ a5 K3 u- r' ~% g" w
openstack endpoint create --region RegionOne placement admin http://controller:8778
' V, k0 Q5 C" Q9 a4 |+ M1 ~+ vyum install -y openstack-placement-api
- i: r6 Y4 \( B8 }5 F0 a( wsed -i "507c connection = mysql+pymysql://placement:123456@controller/placement" /etc/placement/placement.conf
1 E) m3 @; F$ x9 H- v- G. c+ Rsed -i "192c auth_strategy = keystone" /etc/placement/placement.conf
' M. u$ G% _  q0 dsed -i "241c auth_url = http://controller:5000/v3" /etc/placement/placement.conf
8 y, U- I1 Y$ o# c; m0 gsed -i "242c memcached_servers = controller:11211" /etc/placement/placement.conf
" V9 v  T/ R% ^sed -i "243c auth_type = password" /etc/placement/placement.conf# Q. |# v$ X7 Z- r. |
sed -i "244c project_domain_name = Default" /etc/placement/placement.conf( O) ~" K4 t$ e" j
sed -i "245c user_domain_name = Default" /etc/placement/placement.conf
" \0 q3 n. X2 P/ f( @' Osed -i "246c project_name = service" /etc/placement/placement.conf
0 J- k0 h, e( K" H# T! E8 s9 j2 Ased -i "247c username = placement" /etc/placement/placement.conf+ }2 I' {3 i3 }
sed -i "248c password = 123456" /etc/placement/placement.conf
* m8 Y5 ~* N. x" O* I+ u5 X/ v3 e, C6 dsu -s /bin/sh -c "placement-manage db sync" placement3 T: J1 j  l' q4 W9 t: `
systemctl restart httpd6 v4 y% w) m9 t7 w' U/ q/ d
#控制节点 安装Compute service& b# g# I5 j$ K) q. f- p( \
mysql -uroot -p123456 -e "CREATE DATABASE nova_api"
( q" Y/ B1 T* L7 w& M" ~1 jmysql -uroot -p123456 -e "CREATE DATABASE nova"
0 r2 ^9 a. C( w2 z, @mysql -uroot -p123456 -e "CREATE DATABASE nova_cell0"
/ ?4 e' p) c( |+ r. imysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
' y- k  T# k: M' ~: y+ c( ?mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY '123456'"6 i& B4 {- g9 r3 J" p1 b! ?* @
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
+ B2 Y/ Z" [' rmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456'"# o9 V. s) d: l; F
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"0 d& a7 J# W1 t- {8 x
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '123456'"# d9 z; o+ b9 d; k
openstack user create --domain default --password 123456 nova- _8 J$ `% B+ x0 o
openstack role add --project service --user nova admin
3 v- J# |# Z! S4 }& i4 q% Sopenstack service create --name nova --description "OpenStack Compute" compute8 O, G6 @" @2 L( I
openstack endpoint create --region RegionOne compute public http://controller:8774/v2.1' p1 n: c( t$ g: ]
openstack endpoint create --region RegionOne compute internal http://controller:8774/v2.1
: n2 P" ^4 U& V. f" ?2 v+ Wopenstack endpoint create --region RegionOne compute admin http://controller:8774/v2.1- p& F  o2 Z, l8 b- @" N* ?( K
yum install -y openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler( Z4 t- `: r$ U/ x6 F$ @+ s
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf
; _6 L6 X4 H& j( O4 T$ A2 ^' ?sed -i "3c transport_url = rabbit://openstack:123456@controller:5672/" /etc/nova/nova.conf. e9 ^' Z3 P- z* w
sed -i "4c my_ip = 10.0.0.11" /etc/nova/nova.conf
& K# A' @7 y1 [' w/ Esed -i "1079c connection = mysql+pymysql://nova:123456@controller/nova_api" /etc/nova/nova.conf% L9 O: W3 x! [) ]
sed -i "1622c connection = mysql+pymysql://nova:123456@controller/nova" /etc/nova/nova.conf
6 d( f; ^! Q6 a, N* o2 msed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
; c% j) o6 A- lsed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf6 O# b; F! [4 S, L+ X+ R
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf
! G, ~2 k* B% g4 v9 hsed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
- N3 n1 u/ Q% u' q% Gsed -i "2564c auth_type = password" /etc/nova/nova.conf9 |+ @) ?! q& \" {
sed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
7 f0 `0 u( [+ m- Y  I1 |# `" Ised -i "2566c user_domain_name = Default" /etc/nova/nova.conf
  A1 a+ Q& f" n5 Psed -i "2567c project_name = service" /etc/nova/nova.conf# ]8 Z( Z2 |! L) ]# H& W" b
sed -i "2568c username = nova" /etc/nova/nova.conf, K0 O2 p+ k$ @% j2 \
sed -i "2569c password = 123456" /etc/nova/nova.conf* J& T2 T5 p# j/ r2 l$ }; ?& D2 E
sed -i "5171c enabled = true" /etc/nova/nova.conf
; P( W& C( o7 Z+ a; Hsed -i '5172c server_listen = $my_ip' /etc/nova/nova.conf
. o7 r2 m& |( N: gsed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf
" Q* R# \( c/ c; e- e7 D* ised -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
; B, S7 R7 {+ Z; f  M" [3 f9 Gsed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf; U, R6 O& _$ Y# e
sed -i "4093c region_name = RegionOne" /etc/nova/nova.conf  N+ B4 U- Q6 P. A0 d, X2 R5 Z5 U9 u
sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf- ~2 k9 v% H) d) G
sed -i "4095c project_name = service" /etc/nova/nova.conf$ @! x* p; }8 [7 S
sed -i "4096c auth_type = password" /etc/nova/nova.conf
' Q* a; M+ B1 p. f' }5 X- F* ^sed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
; a8 S: d2 l% Y; r! y  qsed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf
0 u" |- J+ l7 J  a5 n% p2 Ased -i "4099c username = placement" /etc/nova/nova.conf
( F  s  m! U& Q% e: W% ^! C3 Dsed -i "4100c password = 123456" /etc/nova/nova.conf8 h, r; p. ]  R; J6 I
sed -i "4509c discover_hosts_in_cells_interval = 300" /etc/nova/nova.conf/ h, j7 ~& M! c: Y3 m
su -s /bin/sh -c "nova-manage api_db sync" nova6 A: G4 ?: L7 A- `4 P9 ?, }7 _, S
su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova/ `# m- Y5 X! v& p
su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
  e! v( }/ [5 Jsu -s /bin/sh -c "nova-manage db sync" nova. B2 |$ D+ i5 |' E: `1 \
systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service && systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service) k, j) T9 Z* u9 m8 q
#计算节点 安装Compute service' h+ ]/ T1 z& A$ ?$ r, w8 Y
yum install -y openstack-nova-compute' g$ g4 A3 q+ r6 q2 g
sed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf5 q% X9 J) Y7 S
sed -i "3c transport_url = rabbit://openstack:123456@controller" /etc/nova/nova.conf8 B2 x( y  P6 R' ?
sed -i "4c my_ip = 10.0.0.31" /etc/nova/nova.conf5 x; `. M% e7 ]3 P0 E
sed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
6 a* V1 R) C, ased -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf
8 q8 n2 w& Q0 R' \5 d! W" Lsed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf7 y& l7 t& H" d* q
sed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf9 h- {6 b; M1 X5 u0 q7 A
sed -i "2564c auth_type = password" /etc/nova/nova.conf
4 g# F( \. i. ]6 C6 Dsed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
/ a& D' o" ?* v+ y# G! I+ Used -i "2566c user_domain_name = Default" /etc/nova/nova.conf) E& Q! Q$ K/ s0 h* j! F. @
sed -i "2567c project_name = service" /etc/nova/nova.conf
3 G' E1 D0 Y) ^' `7 Q6 r$ jsed -i "2568c username = nova" /etc/nova/nova.conf; F9 {; p* N' t2 l% _% @( c; ]
sed -i "2569c password = 123456" /etc/nova/nova.conf
) H3 O5 Y7 |( G+ s8 V) Ysed -i "5171c enabled = true" /etc/nova/nova.conf; i: t; w6 ?- y$ ~
sed -i "5172c server_listen = 0.0.0.0" /etc/nova/nova.conf6 c+ `5 ~5 d2 A+ ~
sed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf# L6 D: `/ B: z  N) J
sed -i "5174c novncproxy_base_url = http://controller:6080/vnc_auto.html" /etc/nova/nova.conf  z2 D$ B/ \; S0 T
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
' i+ R4 \$ b' y' fsed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf9 a) `0 q  ~% D. @2 o' G" N. q  K
sed -i "4093c region_name = RegionOne" /etc/nova/nova.conf
% j0 A/ H. Y" p3 ~% ]) S+ w3 Msed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
2 A/ g1 d) s9 n8 I2 u; ^' K1 Used -i "4095c project_name = service" /etc/nova/nova.conf
: `( ~! A! q1 ssed -i "4096c auth_type = password" /etc/nova/nova.conf
2 y  t( w1 t0 T: a6 U$ fsed -i "4097c user_domain_name = Default" /etc/nova/nova.conf, P& A$ G5 ^( m) N9 e+ J% _& F% F
sed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf" u7 _7 A$ z4 t/ ?
sed -i "4099c username = placement" /etc/nova/nova.conf
" Q# Q$ _" Z' L' J1 X7 V( b' L3 N- R$ Rsed -i "4100c password = 123456" /etc/nova/nova.conf  f& ^) ~- T/ s0 l
#执行命令,查看是否支持CPU虚拟化,如果大于0则支持。! d. R, z0 m' ^6 L' A$ m, |
egrep -c '(vmx|svm)' /proc/cpuinfo7 N& H4 o4 V$ Q  Z( h6 T
#如果不支持的话还需要执行下面的命令
3 [$ ~* a+ a. M( ^: m" ]sed -i "2722c virt_type = qemu" /etc/nova/nova.conf" y7 c0 h+ c4 J
systemctl enable libvirtd.service openstack-nova-compute.service && systemctl start libvirtd.service openstack-nova-compute.service
# J5 o. f& G' D& x0 G4 l#控制节点 计算节点从注册到发现会有延迟,根据discover_hosts_in_cells_interval 配置轮询发现时间,可以执行下面命令手动发现计算节点' R4 l. }+ H" y9 h
su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
; ^; n+ B% C# S' f& b0 L$ _- Z#控制节点 安装Networking service
5 m- m  Z3 _* B1 d4 n% Rmysql -uroot -p123456 -e "CREATE DATABASE neutron"
6 e- ^8 g  k9 ^mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456'"$ J& D4 p9 ?. y; x$ Y, \( S
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456'"
. n" h( p% I5 {% q) Q4 k. r2 ]- yopenstack user create --domain default --password 123456 neutron
, ?0 j) A7 u" w' aopenstack role add --project service --user neutron admin  s; j: O0 G/ Z' R5 e5 @  i
openstack service create --name neutron --description "OpenStack Networking" network
/ L5 g1 I% e5 p6 `5 }* A9 t% ]openstack endpoint create --region RegionOne network public http://controller:96963 e* C5 f2 c" v& F: {2 X
openstack endpoint create --region RegionOne network internal http://controller:9696, f* V& v' `, K/ b, ~* q# z
openstack endpoint create --region RegionOne network admin http://controller:9696
+ ?9 y% F0 v( X9 Q7 hyum install -y openstack-neutron openstack-neutron-ml2 openstack-neutron-linuxbridge ebtables/ ]- z' |9 w2 g  J  Y9 [5 L
#配置服务器组件1 A6 ?% ~" C4 a3 i+ M5 a  a
sed -i "2c core_plugin = ml2" /etc/neutron/neutron.conf( ?0 C+ d% G. u
sed -i "3c service_plugins = router" /etc/neutron/neutron.conf
( t4 U6 x- V* B! ?) B/ ?sed -i "4c allow_overlapping_ips = true" /etc/neutron/neutron.conf6 _! _4 j* `. i& Q9 ?, x3 X
sed -i "5c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf! R& Y$ {/ v  t9 {1 K
sed -i "6c auth_strategy = keystone" /etc/neutron/neutron.conf  G+ M! `% T- p# U
sed -i "7c notify_nova_on_port_status_changes = true" /etc/neutron/neutron.conf2 P' z$ b) M: b1 |) i$ E
sed -i "8c notify_nova_on_port_data_changes = true" /etc/neutron/neutron.conf
& i* V( |* p  m. O, _sed -i "254c connection = mysql+pymysql://neutron:123456@controller/neutron" /etc/neutron/neutron.conf
6 ?, Z! d( X( h6 k, _% T9 j, Used -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf
7 ^, O2 Y6 A" b: x3 ~sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
% x: @: e1 c, y* I" R; M* Wsed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf4 z9 c" V- c( R: o/ `9 G3 b1 C7 l
sed -i "362c auth_type = password" /etc/neutron/neutron.conf
0 `, W1 E4 O+ ?0 ssed -i "363c project_domain_name = default" /etc/neutron/neutron.conf' B) h4 G' b$ Y$ D( d' j/ ~
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf$ G0 l2 y6 V+ I' b! ~; l1 i0 q
sed -i "365c project_name = service" /etc/neutron/neutron.conf; E2 v8 L7 t& y1 m6 f" u) I6 h4 J
sed -i "366c username = neutron" /etc/neutron/neutron.conf
2 e( c( c* ^3 p  t9 i, ~0 }% Msed -i "367c password = 123456" /etc/neutron/neutron.conf9 a: ]% P# K9 N$ V( R+ D* Y
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf2 v6 E6 A* R: f; j. K4 b! J4 Q
echo "[nova]" >> /etc/neutron/neutron.conf1 b; p/ x. L# v  V- @/ E
echo "auth_url = http://controller:5000" >> /etc/neutron/neutron.conf+ m9 _, |8 q; {- Y8 A+ V# T$ L
echo "auth_type = password" >> /etc/neutron/neutron.conf
7 B  g+ f2 a- T% L- P8 G! P) v) ?echo "project_domain_name = default" >> /etc/neutron/neutron.conf
  c* r  _3 J! Q+ I% [echo "user_domain_name = default" >> /etc/neutron/neutron.conf. I6 Q8 {' Z1 A$ ^! Y
echo "region_name = RegionOne" >> /etc/neutron/neutron.conf3 u( A3 p; E: z) r# `/ j2 L: M
echo "project_name = service" >> /etc/neutron/neutron.conf: \$ Q: w# M. S$ \
echo "username = nova" >> /etc/neutron/neutron.conf7 t; B! d/ f6 b# ^: D! V8 L- I
echo "password = 123456" >> /etc/neutron/neutron.conf
* q" K. V& V) }  T, l) h& W#配置Modular Layer 2 (ML2) plug-in4 I% M  F# u' F, ?4 b7 `
echo "[ml2]" >> /etc/neutron/plugins/ml2/ml2_conf.ini& B( ^) s5 x7 V) v$ i2 `& h* J
echo "type_drivers = flat,vlan,vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini
* K5 f: U# ~! E$ a: [- t% @echo "tenant_network_types = vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini" D2 L4 q7 p5 i$ P* f/ I2 K
echo "mechanism_drivers = linuxbridge,l2population" >> /etc/neutron/plugins/ml2/ml2_conf.ini
% `$ U- H8 O+ Y5 L6 x, `/ g4 Iecho "extension_drivers = port_security" >> /etc/neutron/plugins/ml2/ml2_conf.ini5 y5 O- C) x2 c+ {; Q) ^( t% r, G
echo "[ml2_type_flat]" >> /etc/neutron/plugins/ml2/ml2_conf.ini9 N3 u. r! b; h+ O/ \
echo "flat_networks = provider" >> /etc/neutron/plugins/ml2/ml2_conf.ini
) h' M" T/ P3 k8 L7 }echo "vni_ranges = 1:1000" >> /etc/neutron/plugins/ml2/ml2_conf.ini
# g% L& k% P4 I- I& r. O$ W+ \echo "[securitygroup]" >> /etc/neutron/plugins/ml2/ml2_conf.ini- K( ?7 T6 W' X- t$ Y
echo "enable_ipset = true" >> /etc/neutron/plugins/ml2/ml2_conf.ini
6 w% ]0 h# k' S" v#配置Linux bridge agent# Y5 V. x  r% ], n9 d' K# s
echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
( d+ y  I, s3 o/ g4 _$ U#eth1为另外第二张网卡
; @6 x, r( H  p8 ~% }echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
8 W/ c/ Q) P" A7 R, c( c& ]1 s9 y# hecho "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
5 q: O( C) C6 B8 s# k7 }$ zecho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini, b/ w# Q( P* f2 r) s: S
#10.0.0.12为第二张网卡的IP
! P! s4 B7 y* Uecho "local_ip = 10.0.0.12" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
7 O0 U/ c* o" Y1 d/ Z1 ]3 necho "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini+ g; l8 h. c- G% _- b
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini" D# R, u, R: j( o" n0 q
echo "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini. N6 L8 p5 z- H3 Z
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
0 K6 L  z4 `5 ?6 F3 o#配置layer-3 agent
3 k) a8 A# q; X2 vsed -i "2c interface_driver = linuxbridge" /etc/neutron/l3_agent.ini# }! `. B6 j! |. c& {
#配置DHCP agent
4 o2 `/ D- R* I: \# Lsed -i "2c interface_driver = linuxbridge" /etc/neutron/dhcp_agent.ini
: E* Z% x- Y# O$ P$ Ised -i "3c dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq" /etc/neutron/dhcp_agent.ini
2 z* n3 s0 {: J0 h; X3 P( Ssed -i "4c enable_isolated_metadata = true" /etc/neutron/dhcp_agent.ini( S: v9 ?' ?! {
#配置metadata agent7 `. @( c! v: [% F
sed -i "2c nova_metadata_host = controller" /etc/neutron/metadata_agent.ini- }  q1 E% a1 i
sed -i "3c metadata_proxy_shared_secret = 123456" /etc/neutron/metadata_agent.ini' L6 s5 j5 b# ?6 d# Y: m% [
#配置计算服务使用网络服务: G$ [$ x7 S$ M$ }6 N% G7 U
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf: S4 b5 C8 Z6 M5 H5 q
sed -i " 3335c auth_type = password" /etc/nova/nova.conf' n2 m, m# W2 Q3 _) Y8 B7 {
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
6 z9 z' q- J7 Q# d4 gsed -i " 3337c user_domain_name = default" /etc/nova/nova.conf: K5 s9 b& t* ~3 g9 U
sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
- e% t: U. Y$ F$ V5 zsed -i " 3339c project_name = service" /etc/nova/nova.conf$ M0 M+ Q: A# ]! e
sed -i " 3340c username = neutron" /etc/nova/nova.conf
2 s  G1 q5 ~2 q0 L" X# V5 ]+ bsed -i " 3341c password = 123456" /etc/nova/nova.conf2 M7 i5 S9 r) [7 `
sed -i " 3342c service_metadata_proxy = true" /etc/nova/nova.conf
0 \" c% J' K" A7 U) Csed -i " 3343c metadata_proxy_shared_secret = 123456" /etc/nova/nova.conf( o2 U# R$ B, v3 U- j8 ~' g% x/ k
ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
/ T, a/ J* |9 g$ Ssu -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron# p; e" G" ^7 L$ D& P/ w1 w
systemctl restart openstack-nova-api.service
3 `4 z5 O3 f" \; `1 t% ?+ g. `$ Hsystemctl enable neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service && systemctl start neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service( g& Y2 a4 H. J; H
systemctl enable neutron-l3-agent.service && systemctl start neutron-l3-agent.service" P! ~4 y8 G! ]; h* E0 i/ U
#计算节点 安装Networking service& [$ e/ G. w' K0 h( _! ^
yum install -y openstack-neutron-linuxbridge ebtables ipset/ a, W8 r/ i6 ?, a# C$ r) {
sed -i "2c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
& Y( y, h2 I, c& x1 _( T4 \/ Dsed -i "3c auth_strategy = keystone" /etc/neutron/neutron.conf
- {, E, g5 t7 s+ T/ l, W9 ?4 dsed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf- [4 r+ |  n7 [( A' [& l9 _
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
  x4 k* O+ Y8 K8 psed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf
' e* M( ?1 E& [4 X! e% I4 \! W2 {sed -i "362c auth_type = password" /etc/neutron/neutron.conf
* |3 N/ m6 X: |/ U1 d  q' Q- \sed -i "363c project_domain_name = default" /etc/neutron/neutron.conf
3 R4 X1 x( b# m. Z- h5 i3 }sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf1 J8 S5 \; J3 x# V. a
sed -i "365c project_name = service" /etc/neutron/neutron.conf
7 m. d3 D: s+ \3 E0 ^) Used -i "366c username = neutron" /etc/neutron/neutron.conf
" F$ ?- j$ b. R+ \+ t1 Z8 Rsed -i "367c password = 123456" /etc/neutron/neutron.conf
& z2 A/ t8 D2 R2 C$ X. wsed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
  F: e) Q4 ~' A; Q, \% Eecho "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
5 Z/ x0 n! d( s0 q4 P#eth1为另外第二张网卡5 p) [! n' O  H  I- E; X% @
echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini' a0 d8 z; l( g+ h
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
- x" M+ ^% Y8 W$ v7 Recho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini. z4 X9 |" m, o' Z
#10.0.0.32为第二张网卡的IP1 G( g5 g8 ?4 j# Z
echo "local_ip = 10.0.0.32" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini3 ?" p, E3 Y4 t+ T/ {
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini7 |; P' A: O! c
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
- c& u+ a2 P1 [" w3 Mecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini, ]$ p! W# r2 y; g
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
) {6 ?. e: o- z+ a#配置计算服务使用网络服务0 w9 P9 x+ V6 L. l4 P* Z6 n7 k
sed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
! A1 c9 h" ~0 S& ssed -i " 3335c auth_type = password" /etc/nova/nova.conf. _  }5 h+ V. j4 c$ h
sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
5 [9 e$ B9 w$ }# Nsed -i " 3337c user_domain_name = default" /etc/nova/nova.conf& M) K" S9 t: l9 k3 o! P7 O" {
sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
4 ]6 @$ ~6 r' g; wsed -i " 3339c project_name = service" /etc/nova/nova.conf5 X: X& _% b. D6 M4 _) \
sed -i " 3340c username = neutron" /etc/nova/nova.conf$ w! Q+ x$ \: N0 |+ e. O) ]
sed -i " 3341c password = 123456" /etc/nova/nova.conf
' p! P! y6 y  z1 y* a' ~% Jsystemctl restart openstack-nova-compute.service
1 j6 w2 C+ F9 k% E* Fsystemctl enable neutron-linuxbridge-agent.service && systemctl start neutron-linuxbridge-agent.service
9 t" J7 ]/ A* ~0 J9 L) a#控制节点 安装Dashboard  o; ?: R  o8 g9 m9 L  o# O; a
yum install -y openstack-dashboard; R' z/ p0 d7 E7 I
sed -i '118c OPENSTACK_HOST = "controller"' /etc/openstack-dashboard/local_settings
" d& u9 t, l4 T4 {5 ksed -i "39c ALLOWED_HOSTS = ['*']" /etc/openstack-dashboard/local_settings1 Q3 h) t3 @# R" U
sed -i "104c SESSION_ENGINE = 'django.contrib.sessions.backends.cache'" /etc/openstack-dashboard/local_settings
! m  _4 f& h, a) U% w: @sed -i "94c CACHES = {" /etc/openstack-dashboard/local_settings
# n" {  I, i( l: vsed -i "95c 'default': {" /etc/openstack-dashboard/local_settings, e; r2 n4 F  H8 B
sed -i "96c 'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache'," /etc/openstack-dashboard/local_settings
  g8 G/ y* `; Rsed -i "97c 'LOCATION': 'controller:11211'," /etc/openstack-dashboard/local_settings
# w& q2 X) b$ X% C' |% v" Wsed -i "98c }" /etc/openstack-dashboard/local_settings
5 A8 A. O+ |* k0 i. O; [sed -i "99c }" /etc/openstack-dashboard/local_settings: I: b8 s/ _9 a) X& T# _' t
sed -i '119c OPENSTACK_KEYSTONE_URL = "http://%s:5000/v3" % OPENSTACK_HOST' /etc/openstack-dashboard/local_settings
' ^7 v- ]2 O3 z$ [: T( gecho 'OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True' >> /etc/openstack-dashboard/local_settings
, e3 _& J" p- }  D! I2 i, Secho 'OPENSTACK_API_VERSIONS = {' >> /etc/openstack-dashboard/local_settings
7 i% R6 R; T  y, L8 B0 q; _echo '  "identity": 3,' >> /etc/openstack-dashboard/local_settings
3 f" f; _4 R, S9 x* I. X7 T* i0 H; recho '  "image": 2,' >> /etc/openstack-dashboard/local_settings
' T! @& x# q) O" oecho '  "volume": 3' >> /etc/openstack-dashboard/local_settings' E; W9 V8 e% f  X) T6 g  o
echo '}' >> /etc/openstack-dashboard/local_settings( ~  j5 ?8 t8 D* ?7 l) ^
echo 'OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"' >> /etc/openstack-dashboard/local_settings# t) T2 Q3 s. X- `
echo 'OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"' >> /etc/openstack-dashboard/local_settings5 b0 o/ X4 T4 S3 w
sed -i '123c TIME_ZONE = "Asia/Shanghai"' /etc/openstack-dashboard/local_settings
% d" _8 X4 U6 X, [echo "WEBROOT = '/dashboard/'" >> /etc/openstack-dashboard/local_settings
% m4 p) U- B# x( R6 P/ l) g8 M, secho 'WSGIApplicationGroup %{GLOBAL}' >> /etc/httpd/conf.d/openstack-dashboard.conf
* r" W" ^/ @; e$ S% B' Esystemctl restart httpd.service memcached.service: }7 T4 V- @( C) g/ i. M
#安装完成,可访问http://controller/dashboard/查看
0 }/ G3 ~7 }6 t8 U+ h
 楼主| 发表于 2021-9-13 11:07:27 | 显示全部楼层
目录:' o0 ~. A; i2 ^( M
  • 为何选择云计算/云计算之前遇到的问题
  • 什么是云计算
  • 云服务模式
  • 云应用形式
  • 传统应用与云感知应用1 B2 P" c( |& S  p% D! ~- P
  • openstack及其相关组件介绍
  • flat/vlan/gre/vxlan介绍
  • 分布式存储ceph介绍
  • openstack mitaka三节点部署实战
    : J  r* O. G8 v
2 `: D$ `9 U3 @& V7 i3 n
一:为何选择云计算/云计算之前遇到的问题
    一、有效解决硬件单点故障问题
    单点故障是指某个硬件的故障造成网站某个服务的中断。要真正解决这个问题,需要为每个硬件准备冗余,这不仅大大增加了硬件购置成本,而且部署与维护成本也不容小视。
    而云计算平台是基于服务器集群,从设计之初就考虑了单点故障问题,并在建设时有效地解决了这个问题。如果一家云服务商出现单点故障问题,就如同存在银行的钱丢了。
    二、按需增/减硬件资源
    自己托管服务器,增/减硬件一直是头疼的问题。
    1. 增加服务器的时候,购买服务器需要时间,而且这个时间自己无法控制。而使用云服务器,随时可以增加服务器——垂手可得。
    2. 减服务器只能从机房拉回办公室,无法再把服务器退给厂商,购置服务器的成本就浪费了。而使用云服务器,如果下个月不用,不续费就行了(针对阿里云按月购买的情况)——想用就用,想扔就扔。
    3. 不能按需增加满足基本需求的服务器配置。假如我们现在需要一台低配置的服务器用Linux跑缓存服务,如果为之单独购买一台便宜的低配置的服务器很不合算,因为这台服务器仅仅一年的电费就至少要3000元左右。所以只能尽量减少服务器数量,提高单台服务器的配置,在让一台服务器跑更多东西。而使用云服务器,需要什么样的配置就买什么样的配置,让各个服务器的职责更单一,互相之间的影响更小——职责分明,效率更高。
    三、BGP线路解决南北互通问题
    南北互通问题是南方电信与北方联通线路之间的互通问题,这个问题困扰我们多年,之前用过双线机房,解决的也不是很好。目前只有BGP线路才能有效解决这个问题,而拥有真正的BGP线路的机房不是很多,成本也非常高。而我准备使用的阿里云用的就是BGP线路,这也是吸引我们的主要地方之一。
    究竟什么是南北互通问题?基于我们的理解简体描述一下,不对之处欢迎指出。南北互通问题实际就是路由问题。假设我们的服务器放在上海电信的机房,上海一位联通的用户访问我们的服务器,要先绕到联通的北京总出口(假设总出口在北京),然后再绕回上海。实际上这位联通用户可以通过上海的线路直接到达我们的服务器,不用绕这么远,但上海电信的机房无法告知联通的路由器走近路过来,只能按照联通路由器设定好的路由走。本来即使走北京绕一下也没有大的影响,毕竟是光的速度,但是由于大多数联通的用户访问电信网络都这么绕着走,联通的总出口成为了瓶颈,总出口流量太大时,联通的用户访问电信的网络速度就会慢。BGP线路也没什么神奇之处,只是它能决定走什么路由过来,不绕远路,问题自然解决了。它有这样的特权,就不仅能解决南北互通的问题,而且能解决其他网络的互通问题,比如教育网。因为有权限决定路由,就可以优化路由,哪条路堵,我就换条路。
    四、按需增/减带宽
    带宽是主要成本,托管服务器时,与ISP服务商签一年合同之前就要确定带宽。用了一段时间之后,你发现带宽买多了,想减一些是不允许的。中途要临时增加带宽一段时间也是不行的,要买就买一年(这是根据我们接触过的ISP服务商)。所以,一般都会多买一些带宽,留一些余量。
    使用云服务器可以灵活地增减带宽,不会浪费带宽,即使买少了也不用担心,随时可以增加。虽然各个云服务商会有一定的限制,比如在阿里云一次至少要购买1个月的带宽,但比自己托管服务器灵活很多,同样的带宽条件,会节省不少成本,尤其是带宽需求在一年中变化比较大的网站。
    五、更有吸引力的费用支付方式
    在IDC机房托管服务器一般是签一年合同,一次支付一个季度的费用。
    而使用云服务,一次可以支付更短时间的费用,比如阿里云可以一次只支付一个月的费用,节约了流动资金。
    从总体上考虑,差不多的成本,却拥有更多的内存、更多的CPU、更多的硬盘空间、更优质的带宽线路,更重要的是可以随时按需扩展计算资源。

4 c+ I7 I6 c  W7 F# {
二:什么是云计算(资源和服务的交互方式)
# H9 z/ i3 ]- k( y
    一、概念分解:   
        云:云计算中的云,代表循环利用的意思(云多了变成雨,落到地面,云减少,水蒸发到空中,云增加)。
       计算:云计算中的计算,代表计算资源,涵盖虚机、存储、网络等。
       云计算:代表计算资源向云水循环一样,按需分配,循环利用。
       附:企业数据中心部署在云计算分布式平台上,类似于从原来单台发电机转向电厂集中供电模式,它意味着访问计算机和存储系统也可以作为一种商品流通,就像煤气、水电一样,取用方便,费用低廉,只不过它是通过互联网传输的,云就是互联网的一种比喻
    二、云计算分类:
        狭义:IT基础设施的交互和使用模式,通过网络以按需,易扩展的方式获取资源
        广义:服务(IT基础设施、软件等)的交互和使用模式,通过网络以按需、易扩展的方式获取资源。
        / `. A1 q3 c3 c9 o' A
三:云服务模式

7 x" g% n; X4 e- _( \
     一、IaaS:基础设施即服务
        用户通过网络获取虚机、存储、网络,然后用户根据自己的需求操作获取的资源。  典型应用:亚马逊AWS等
% W' u+ g% C% C1 s* w
     二、PaaS:平台即服务
        将软件研发平台作为一种服务, 如Eclipse/Java编程平台,服务商提供编程接口/运行平台等。典型应用:Google AppEngine、Force.com、微软Azure等
: d) [" K& a7 h: i, O3 U: N
     三、SaaS:软件即服务  
        将软件作为一种服务通过网络提供给用户,如web的电子邮件、HR系统、订单管理系统、客户关系系统等。用户无需购买软件,而是向提供商租用基于web的软件,来管理企业经营活动。典型应用:Google Doc、Saleforce.com、Oracle CRM On Demand、Office Live Workspace等
- J/ t, h3 `5 U4 J8 {  S

8 ?) C4 c# M- X! a
四:云应用形式
   
    一.私有云
        将基础设施与软硬件资源构建于防火墙内,基于iaas构建私有云平台供企业内部使用,开源组件有:openstack(最为出色),cloudstack等
* D2 Y  z; B$ a" S0 x* M
    二.云存储
        云存储系统是一个以数据存储和管理为核心的云计算系统. R% c6 B; x! Y' O8 X
    三.云游戏
        游戏运行云平台服务端,云平台将游戏画面解压缩后传给用户,用户端无需高配置处理器和显卡,只需要基本的视频解压缩能力即可。
, f+ p/ G" Q, ?- j/ V
    四.云物联
        基于云平台实现物物相连的互联网。
: A1 i* L* J1 f. j, v* L
    五.云安全
        通过网状的大量客户端检测网络中软件的异常,获取木马,恶意程序的最新信息,推送到云平台服务端自动分析和处理,再把解决方案发送给每一个客户端。云平台使用者越多,越安全。5 ]" N( T& A7 ], T+ g  T# l
    六.公有云
        云平台对外开放,主要以Iaas和Paas为主,较为成熟的是Iaas,如阿里云,腾讯云,×××,ucloud,首都在线等
9 b! R- v' K7 l! Z: v
    七.混合云    j; Y* }/ p8 i/ a1 N, l
        公有云和私有云的结合,即对企业内部又对企业外部,例如AWS
0 f8 E' q& f0 {- E/ V# ?
    4 o) ?; p2 q0 z7 h0 x- Y# J; T
五:传统应用与云感知应用
, p( w" ~% d$ \3 W8 e
    一、传统应用
- m: w7 s4 _6 J6 s; L/ z  _
    传统应用像养宠物,宠物病了要细心呵护
    每个应用都是独特的、专门的
    专门的服务器、硬件和软件保证可靠性
    资源不够,增加cpu、内存、磁盘
    专门的技术支持
    二、云感知应用( T* L+ B7 y1 J
    云感知应用像养牛,牛生病了,你需要一头新的牛
    应用跑在一个或多个虚拟机里
    资源不够,增加新的虚拟机
    应用挂起,重启或创建新的虚拟机
& }6 [  K; n7 C" L4 i7 _

% s' @8 ^$ P. D( D% y
六:openstack与及其相关组件介绍
. \- ^/ x0 |; G3 s
    一、openstack由来0 K1 {. f$ z9 |3 U0 ^
            openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。
     二、openstack项目与组件(服务名是项目名的别名)

  @& F- x  K5 f
    核心项目3个
    1.控制台
    服务名:Dashboard
    项目名:Horizon
    功能:web方式管理云平台,建云主机,分配网络,配安全组,加云盘
    0 \' J9 k# _, T) e, x3 B. a
    2.计算
    服务名:计算
    项目名:Nova
    功能:负责响应虚拟机创建请求、调度、销毁云主机
    ) X+ i9 t8 e- s* v
    3.网络
    服务名:网络
    项目名:Neutron
    功能:实现SDN(软件定义网络),提供一整套API,用户可以基于该API实现自己定义专属网络,不同厂商可以基于此API提供自己的产品实现
        
+ J6 r2 K# a4 O" z$ s/ a; _4 ~  @
         存储项目2个
    1.对象存储
    服务名:对象存储
    项目名:Swift
    功能:REST风格的接口和扁平的数据组织结构。RESTFUL HTTP API来保存和访问任意非结构化数据,ring环的方式实现数据自动复制和高度可以扩展架构,保证数据的高度容错和可靠性
    " `6 K# v. T  v- |- G1 R! |7 v* j
    2.块存储
    服务名:块存储
    项目名:Cinder
    功能:提供持久化块存储,即为云主机提供附加云盘。

6 X2 t3 [  x( \. g4 J
    共享服务项目3个
    1.认证服务
    服务名:认证服务
    项目名:Keystone
    功能:为访问openstack各组件提供认证和授权功能,认证通过后,提供一个服务列表(存放你有权访问的服务),可以通过该列表访问各个组件。
    ( e" ^% H, P- q7 l9 z* j
    2.镜像服务
    服务名:镜像服务
    项目名:Glance
    功能:为云主机安装操作系统提供不同的镜像选择

1 C' `5 ?7 u0 n% j. ]  S9 X, t) R% L
    3.计费服务
    服务名:计费服务
    项目名:Ceilometer
    功能:收集云平台资源使用数据,用来计费或者性能监控

, [+ {# O: z6 S( I
    高层服务项目1个
    1.编排服务
    服务名:编排服务
    项目名:Heat
    功能:自动化部署应用,自动化管理应用的整个生命周期.主要用于Paas
& G7 t& o9 R, n0 n2 {, K" E2 R

& l; m" e2 E0 n' f; y3 H% D
    三、openstack各组件详解及运行流程

# T% P4 a8 K, `
各组件逻辑关系图:

3 ~+ o  i" A( E- F5 w- r
/ X, @2 B1 Y2 q: Z& Z
openstack新建云主机流程图:
虚拟机启动过程如下:
  • 界面或命令行通过RESTful API向keystone获取认证信息。
  • keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。
  • 界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。
  • nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。
  • keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。
  • 通过认证后nova-api和数据库通讯。
  • 初始化新建虚拟机的数据库记录。
  • nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。
  • nova-scheduler进程侦听消息队列,获取nova-api的请求。
  • nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。
  • 对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。
  • nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。
  • nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。
  • nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)
  • nova-conductor从消息队队列中拿到nova-compute请求消息。
  • nova-conductor根据消息查询虚拟机对应的信息。
  • nova-conductor从数据库中获得虚拟机对应信息。
  • nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。
  • nova-compute从对应的消息队列中获取虚拟机信息消息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。
  • glance-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机镜像信息(URL)。
  • nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。
  • neutron-server向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机网络信息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。
  • cinder-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机持久化存储信息。
  • nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。
    7 }$ x' o" |. p
0 i  L5 H" P: h6 f! v9 B
- A( j; o% k3 N0 @" l/ {' V% B
下面我们就围绕上图流程展开; |/ {9 g! [" K1 ?/ s

6 Y2 q5 L- i0 z# f, Z+ Z2 Q
1.keystone

User:指使用Openstack service的用户,可以是人、服务、系统,但凡使用了Openstack service的对象都可以称为User。

Project(Tenant):可以理解为一个人、或服务所拥有的 资源集合 。在一个Project(Tenant)中可以包含多个User,每一个User都会根据权限的划分来使用Project(Tenant)中的资源。比如通过Nova创建虚拟机时要指定到某个Project中,在Cinder创建卷也要指定到某个Project中。User访问Project的资源前,必须要与该Project关联,并且指定User在Project下的Role。

Role:用于划分权限。可以通过给User指定Role,使User获得Role对应的操作权限。Keystone返回给User的Token包含了Role列表,被访问的Services会判断访问它的User和User提供的Token中所包含的Role。系统默认使用管理Role admin和成员Role _member_ 。

Policy:OpenStack对User的验证除了OpenStack的身份验证以外,还需要鉴别User对某个Service是否有访问权限。Policy机制就是用来控制User对Tenant中资源(包括Services)的操作权限。对于Keystone service来说,Policy就是一个JSON文件,默认是/etc/keystone/policy.json。通过配置这个文件,Keystone Service实现了对User基于Role的权限管理。

Token:是一个字符串表示,作为访问资源的令牌。Token包含了在 指定范围和有效时间内 可以被访问的资源。EG. 在Nova中一个tenant可以是一些虚拟机,在Swift和Glance中一个tenant可以是一些镜像存储,在Network中一个tenant可以是一些网络资源。Token一般被User持有。

Credentials:用于确认用户身份的凭证

Authentication:确定用户身份的过程

Service:Openstack service,即Openstack中运行的组件服务。

Endpoint:一个可以通过网络来访问和定位某个Openstack service的地址,通常是一个URL。比如,当Nova需要访问Glance服务去获取p_w_picpath 时,Nova通过访问Keystone拿到Glance的endpoint,然后通过访问该endpoint去获取Glance服务。我们可以通过Endpoint的region属性去定义多个region。Endpoint 该使用对象分为三类:

  • admin url –> 给admin用户使用,Post:35357
  • internal url –> OpenStack内部服务使用来跟别的服务通信,Port:5000
  • public url –> 其它用户可以访问的地址,Post:5000
    0 E: W( T# y9 }5 n: w7 z

创建完service后创建API EndPoint. 在openstack中,每一个service都有三种end points. Admin, public, internal。 Admin是用作管理用途的,如它能够修改user/tenant(project)。 public 是让客户调用的,比如可以部署在外网上让客户可以管理自己的云。internal是openstack内部调用的。三种endpoints 在网络上开放的权限一般也不同。Admin通常只能对内网开放,public通常可以对外网开放internal通常只能对安装有openstack对服务的机器开放。

V3新增
  • Tenant 重命名为 Project
  • 添加了 Domain 的概念
  • 添加了 Group 的概念
    + u; w/ i9 k" w: n+ o

. l# V& R  D. s# H) Z( |

: V) j8 v( I' [. _
7 Y5 G. u+ Y. f" i- {7 r0 u- v
  • 用户alice登录keystone系统(password或者token的方式),获取一个临时的token和catalog服务目录(v3版本登录时,如果没有指定scope,project或者domain,获取的临时token没有任何权限,不能查询project或者catalog)。
  • alice通过临时token获取自己的所有的project列表。
  • alice选定一个project,然后指定project重新登录,获取一个正式的token,同时获得服务列表的endpoint,用户选定一个endpoint,在HTTP消息头中携带token,然后发送请求(如果用户知道project name或者project id可以直接第3步登录)。
  • 消息到达endpoint之后,由服务端(nova)的keystone中间件(pipeline中的filter:authtoken)向keystone发送一个验证token的请求。(token类型:uuid需要在keystone验证token,pki类型的token本身是包含用户详细信息的加密串,可以在服务端完成验证)
  • keystone验证token成功之后,将token对应用户的详细信息,例如:role,username,userid等,返回给服务端(nova)。
  • 服务端(nova)完成请求,例如:创建虚拟机。
  • 服务端返回请求结果给alice。

    ! [% Z/ Z/ c! y

) a! n- j3 A1 @* j$ q
2.glance
v1" P# o) F7 O5 _9 B: [$ p2 ~
, a8 s7 T9 E. I# S( M7 s- `
v2

2 f! h  R. [7 R
+ T  V/ B8 V0 C' X1 N) G" O: @
3.nova与cinder
nova主要组成:
    nova-api( S  ]1 X4 u& V& V3 l8 v& a( i) Z( m
    nova-scheduler
5 k) C; B) {  ]% e" @. S4 `
    nova-compute
    nova-conductor6 B* L) s# m$ w. `8 {  N* ?
cinder主要组成:
    cinder-api
2 j# U4 v. F$ g5 ~* i- M; f
    cinder-scheduler
7 i4 L  S3 r$ V
    cinder-volume. U) c8 X6 \9 D- h, h
[size=1.16em]cinder各组件功能:
[size=1.16em]Cinder-api 是 cinder 服务的 endpoint,提供 rest 接口,负责处理 client 请求,并将 RPC 请求发送至 cinder-scheduler 组件。
[size=1.16em]Cinder-scheduler 负责 cinder 请求调度,其核心部分就是 scheduler_driver, 作为 scheduler manager 的 driver,负责 cinder-volume 具体的调度处理,发送 cinder RPC 请求到选择的 cinder-volume。
[size=1.16em]Cinder-volume 负责具体的 volume 请求处理,由不同后端存储提供 volume 存储空间。目前各大存储厂商已经积极地将存储产品的 driver 贡献到 cinder 社区

7 r1 f+ T6 L& C) I% N
cinder架构图:. }+ Z' U$ z9 D

: B7 Q% m' B  n* C  P
) u% n, [/ S. i$ b
% c$ v9 e1 D+ A: p/ H( G4 T
openstack组件间通信:调用各组件api提供的rest接口,组件内通信:基于rpc(远程过程调用)机制,而rpc机制是基于AMQP模型实现的
从rpc使用的角度出发,nova,neutron,和cinder的流程是相似的,我们以cinder为例阐述rpc机制

* U+ [2 i9 T8 T' Y. n/ `$ N
Openstack 组件内部的 RPC(Remote Producer Call)机制的实现是基于 AMQP(Advanced Message Queuing Protocol)作为通讯模型,从而满足组件内部的松耦合性。AMQP 是用于异步消息通讯的消息中间件协议,AMQP 模型有四个重要的角色:
    Exchange:根据 Routing key 转发消息到对应的 Message Queue 中
    Routing key:用于 Exchange 判断哪些消息需要发送对应的 Message Queue
    Publisher:消息发送者,将消息发送的 Exchange 并指明 Routing Key,以便 Message Queue           可以正确的收到消息
    Consumer:消息接受者,从 Message Queue 获取消息
消息发布者 Publisher 将 Message 发送给 Exchange 并且说明 Routing Key。Exchange 负责根据 Message 的 Routing Key 进行路由,将 Message 正确地转发给相应的 Message Queue。监听在 Message Queue 上的 Consumer 将会从 Queue 中读取消息。
Routing Key 是 Exchange 转发信息的依据,因此每个消息都有一个 Routing Key 表明可以接受消息的目的地址,而每个 Message Queue 都可以通过将自己想要接收的 Routing Key 告诉 Exchange 进行 binding,这样 Exchange 就可以将消息正确地转发给相应的 Message Queue。

9 r  _$ ?* j/ |# O+ p+ U
Publisher可以分为4类:
    Direct Publisher发送点对点的消息;
    Topic Publisher采用“发布——订阅”模式发送消息;
    Fanout Publisher发送广播消息的发送;
    Notify Publisher同Topic Publisher,发送 Notification 相关的消息。

9 W. L- L# \( O8 d' o
Exchange可以分为3类:
    1.Direct Exchange根据Routing Key进行精确匹配,只有对应的 Message Queue 会接受到消息;
    2.Topic Exchange根据Routing Key进行模式匹配,只要符合模式匹配的Message Queue都会收到消息;
    3.Fanout Exchange将消息转发给所有绑定的Message Queue。

AMQP消息模型

+ F/ v. r. H- p* @* r. i
RPC 发送请求
Client 端发送 RPC 请求由 publisher 发送消息并声明消息地址,consumer 接收消息并进行消息处理,如果需要消息应答则返回处理请求的结果消息。
& J+ }% `! B& M2 y
OpenStack RPC 模块提供了 rpc.call,rpc.cast, rpc.fanout_cast 三种 RPC 调用方法,发送和接收 RPC 请求。

& m5 W- o( y; U1 J! U
1.rpc.call 发送 RPC 请求并返回请求处理结果,请求处理流程如图 5 所示,由 Topic Publisher 发送消息,Topic Exchange 根据消息地址进行消息转发至对应的 Message Queue 中,Topic Consumer 监听 Message Queue,发现需要处理的消息则进行消息处理,并由 Direct Publisher 将请求处理结果消息,请求发送方创建 Direct Consumer 监听消息的返回结果
2.rpc.cast 发送 RPC 请求无返回,请求处理流程如图 6 所示,与 rpc.call 不同之处在于,不需要请求处理结果的返回,因此没有 Direct Publisher 和 Direct Consumer 处理。
3.rpc.fanout_cast 用于发送 RPC 广播信息无返回结果

6 ?6 I. Q$ J+ O+ u- H$ G0 ~* S& S
4.neutron
neutron包含组件:
    neutron-server: F3 h" m4 R( ^" {
    neutron-plugin
6 a( z; ~5 ?, [) N/ x. B% E
    neutron-agent; g4 ~# J) Z9 a9 b! f/ |
neutron各组件功能介绍:
1.Neutron-server可以理解为一个专门用来接收Neutron REST API调用的服务器,然后负责将不同的rest api分发到不同的neutron-plugin上。
2.Neutron-plugin可以理解为不同网络功能实现的入口,各个厂商可以开发自己的plugin。Neutron-plugin接收neutron-server分发过来的REST API,向neutron database完成一些信息的注册,然后将具体要执行的业务操作和参数通知给自身对应的neutron agent。
3.Neutron-agent可以直观地理解为neutron-plugin在设备上的代理,接收相应的neutron-plugin通知的业务操作和参数,并转换为具体的设备级操作,以指导设备的动作。当设备本地发生问题时,neutron-agent会将情况通知给neutron-plugin。
4.Neutron database,顾名思义就是Neutron的数据库,一些业务相关的参数都存在这里。
5.Network provider,即为实际执行功能的网络设备,一般为虚拟交换机(OVS或者Linux Bridge)。
. z0 ?: b7 ~# L! |
neutron-plugin分为core-plugin和service-plugin两类。
Core-plugin,Neutron中即为ML2(Modular Layer 2),负责管理L2的网络连接。ML2中主要包括network、subnet、port三类核心资源,对三类资源进行操作的REST API被neutron-server看作Core API,由Neutron原生支持。其中:
Service-plugin,即为除core-plugin以外其它的plugin,包括l3 router、firewall、loadbalancer、×××、metering等等,主要实现L3-L7的网络服务。这些plugin要操作的资源比较丰富,对这些资源进行操作的REST API被neutron-server看作Extension API,需要厂家自行进行扩展。
“Neutron对Quantum的插件机制进行了优化,将各个厂商L2插件中独立的数据库实现提取出来,作为公共的ML2插件存储租户的业务需求,使得厂商可以专注于L2设备驱动的实现,而ML2作为总控可以协调多厂商L2设备共同运行”。在Quantum中,厂家都是开发各自的Service-plugin,不能兼容而且开发重复度很高,于是在Neutron中就为设计了ML2机制,使得各厂家的L2插件完全变成了可插拔的,方便了L2中network资源扩展与使用。

% P5 o! B1 J+ g+ X: U6 d4 _
(注意,以前厂商开发的L2 plugin跟ML2都存在于neutron/plugins目录下,而可插拔的ML2设备驱动则存在于neutron/plugins/ml2/drivers目录下)
2 Q  ]% q$ b: G, _/ l4 h3 A$ f6 K
ML2作为L2的总控,其实现包括Type和Mechanism两部分,每部分又分为Manager和Driver。Type指的是L2网络的类型(如Flat、VLAN、VxLAN等),与厂家实现无关。Mechanism则是各个厂家自己设备机制的实现,如下图所示。当然有ML2,对应的就可以有ML3,不过在Neutron中L3的实现只负责路由的功能,传统路由器中的其他功能(如Firewalls、LB、×××)都被独立出来实现了,因此暂时还没有看到对ML3的实际需求。
一般而言,neutron-server和各neutron-plugin部署在控制节点或者网络节点上,而neutron agent则部署在网络节点上和计算节点上。我们先来分析控制端neutron-server和neutron-plugin的工作,然后再分析设备端neutron-agent的工作。
neutron新进展(dragon  flow):
https://www.ustack.com/blog/neutron-dragonflow/
网络模式介绍:
根据创建网络的用户的权限,Neutron network 可以分为:
  • Provider network:管理员创建的和物理网络有直接映射关系的虚拟网络。
  • Tenant network:租户普通用户创建的网络,物理网络对创建者透明,其配置由 Neutorn 根据管理员在系统中的配置决定。

    " z; Z4 g- U; x+ ?8 D
根据网络的类型,Neutron network 可以分为:
  • VLAN network(虚拟局域网) :基于物理 VLAN 网络实现的虚拟网络。共享同一个物理网络的多个 VLAN 网络是相互隔离的,甚至可以使用重叠的 IP 地址空间。每个支持 VLAN network 的物理网络可以被视为一个分离的 VLAN trunk,它使用一组独占的 VLAN ID。有效的 VLAN ID 范围是 1 到 4094。
  • Flat network:基于不使用 VLAN 的物理网络实现的虚拟网络。每个物理网络最多只能实现一个虚拟网络。
  • local network(本地网络):一个只允许在本服务器内通信的虚拟网络,不知道跨服务器的通信。主要用于单节点上测试。
  • GRE network (通用路由封装网络):一个使用 GRE 封装网络包的虚拟网络。GRE 封装的数据包基于 IP 路由表来进行路由,因此 GRE network 不和具体的物理网络绑定。
  • VXLAN network(虚拟可扩展网络):基于 VXLAN 实现的虚拟网络。同 GRE network 一样, VXLAN network 中 IP 包的路由也基于 IP 路由表,也不和具体的物理网络绑定。
    " t8 {4 Y# o/ Y# M6 r) }( u; N
注:在AWS中,该概念对应 VPC 概念。AWS 对 VPC 的数目有一定的限制,比如每个账户在每个 region 上默认最多只能创建 5 个VPC,通过特别的要求最多可以创建 100 个。

, ?" R- h3 H" @& @6 ~) i
1.vlan

" e: N8 X$ _' L# x
2.gre与vxlan请参考
http://www.cnblogs.com/sammyliu/p/4622563.html

6 V! Y4 n, R4 |* X
gre网络
$ u8 j& B2 I6 g1 \
gre与vxlan区别
1 D; G6 L' j! o
关于gre和vxlan二次封装数据包的MTU问题
VXLAN 模式下虚拟机中的 mtu 最大值为1450,也就是只能小于1450,大于这个值会导致 openvswitch 传输分片,进而导致虚拟机中数据包数据重传,从而导致网络性能下降。GRE 模式下虚拟机 mtu 最大为1462。
计算方法如下:
  • vxlan mtu = 1450 = 1500 – 20(ip头) – 8(udp头) – 8(vxlan头) – 14(以太网头)
  • gre mtu = 1462 = 1500 – 20(ip头) – 4(gre头) – 14(以太网头)
    # Q& e6 h3 j9 v( ^/ g7 u! G; q
可以配置 Neutron DHCP 组件,让虚拟机自动配置 mtu,
#/etc/neutron/dhcp_agent.ini[DEFAULT]dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf#/etc/neutron/dnsmasq-neutron.confdhcp-option-force=26,1450或1462
  • 1.
  • 2.
  • 3.
  • 4.0 `8 q9 {2 Z9 [0 M+ @. B/ ~2 A
重启 DHCP Agent,让虚拟机重新获取 IP,然后使用 ifconfig 查看是否正确配置 mtu。

8 E. z& V  ~# k+ \# ^
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

北京云银创陇科技有限公司以云计算运维,代码开发

QQ|返回首页|Archiver|小黑屋|易陆发现技术论坛 ( 蜀ICP备2026014127号-1 )点击这里给我发消息

GMT+8, 2026-4-8 21:20 , Processed in 0.073533 second(s), 21 queries .

Powered by Discuz! X3.4 Licensed

© 2012-2025 Discuz! Team.

快速回复 返回顶部 返回列表