openstack——nova计算服务

2019/06/25 18:31
阅读数 75

一、nova介绍

     
 
      Nova 是 OpenStack 最核心的服务,负责维护和管理云环境的计算资源。OpenStack 作为 IaaS 的云操作系统,虚拟机生命周期管理也就是通过 Nova 来实现的。
 
用途与功能 :
1) 实例生命周期管理
2) 管理计算资源
3) 网络和认证管理
4)REST 风格的 API
5) 异步的一致性通信
6)Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML, VMware vSphere and Hyper-V
 
 
在上图中可以看到,Nova 处于 Openstak 架构的中心,其他组件都为 Nova 提供支持: Glance 为 VM 提供 image Cinder 和 Swift 分别为 VM 提供块存储和对象存储 Neutron 为 VM 提供网络连接。
 
Nova 架构如下:
 
 
Nova 的架构比较复杂,包含很多组件。 这些组件以子服务(后台 deamon 进程)的形式运行,可以分为以下几类:
 
API
 
nova-api
是整个 Nova 组件的门户,接收和响应客户的 API 调用。所有对 Nova 的请求都首先由 nova-api 处理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我们可以查询 nova-api 的 endponits。
 
 
客户端就可以将请求发送到 endponits 指定的地址,向 nova-api 请求操作。 当然,作为最终用户的我们不会直接发送 Rest AP I请求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交换的组件会使用这些 API。
 
Nova-api 对接收到的 HTTP API 请求会做如下处理:
1. 检查客户端传入的参数是否合法有效
2. 调用 Nova 其他子服务的处理客户端 HTTP 请求
3. 格式化 Nova 其他子服务返回的结果并返回给客户端
 
nova-api 接收哪些请求?
简单的说,只要是跟虚拟机生命周期相关的操作,nova-api 都可以响应。 大部分操作都可以在 Dashboard 上找到。打开Instance管理界面
 
除了提供 OpenStack 自己的API,nova-api 还支持 Amazon EC2 API。 也就是说,如果客户以前使用 Amazon EC2,并且用 EC2 的 API 开发了些工具来管理虚机,那么如果现在要换成 OpenStack,这些工具可以无缝迁移到 OpenStack,因为 nova-api 兼容 EC2 API,无需做任何修改。
 
Compute Core
 
a)nova-scheduler:
虚机调度服务,负责决定在哪个计算节点上运行虚机。创建 Instance 时,用户会提出资源需求,例如 CPU、内存、磁盘各需要多少。OpenStack 将这些需求定义在 flavor 中,用户只需要指定用哪个 flavor 就可以了。
 
 
可用的 flavor 在 System->Flavors 中管理。
 
 
下面介绍 nova-scheduler 是如何实现调度的。在 /etc/nova/nova.conf 中,nova 通过 driver=filter_scheduler 这个参数来配置 nova-scheduler。
driver=filter_scheduler
 
Filter scheduler
Filter scheduler 是 nova-scheduler 默认的调度器,调度过程分为两步:
1. 通过过滤器(filter)选择满足条件的计算节点(运行 nova-compute)
2. 通过权重计算(weighting)选择在最优(权重值最大)的计算节点上创建 Instance。
 
Nova 允许使用第三方 scheduler,配置 scheduler_driver 即可。 这又一次体现了OpenStack的开放性。Scheduler 可以使用多个 filter 依次进行过滤,过滤之后的节点再通过计算权重选出最适合的节点。
 
上图是调度过程的一个示例:
1. 最开始有 6 个计算节点 Host1-Host6
2. 通过多个 filter 层层过滤,Host2 和 Host4 没有通过,被刷掉了
3. Host1,Host3,Host5,Host6 计算权重,结果 Host5 得分最高,最终入选
 
当 Filter scheduler 需要执行调度操作时,会让 filter 对计算节点进行判断,filter 返回 True 或 False。经过前面一堆 filter 的过滤,nova-scheduler 选出了能够部署 instance 的计算节点。
 
如果有多个计算节点通过了过滤,那么最终选择哪个节点呢?
 
Scheduler 会对每个计算节点打分,得分最高的获胜。 打分的过程就是 weight,翻译过来就是计算权重值,那么 scheduler 是根据什么来计算权重值呢? 
 
目前 nova-scheduler 的默认实现是根据计算节点空闲的内存量计算权重值: 空闲内存越多,权重越大,instance 将被部署到当前空闲内存最多的计算节点上。
 
 
b)nova-compute:
nova-compute 是管理虚机的核心服务,在计算节点上运行。通过调用Hypervisor API实现节点上的 instance的生命周期管理。 OpenStack 对 instance 的操作,最后都是交给 nova-compute 来完成的。 nova-compute 与 Hypervisor 一起实现 OpenStack 对 instance 生命周期的管理。
 
通过Driver架构支持多种Hypervisor
Hypervisor是计算节点上跑的虚拟化管理程序,虚机管理最底层的程序。 不同虚拟化技术提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 为这些 Hypervisor 定义了统一的接口,Hypervisor 只需要实现这些接口,就可以 Driver 的形式即插即用到 OpenStack 系统中。 下面是Nova Driver的架构示意图:
 
 
 
c)nova-conductor:
nova-compute 经常需要更新数据库,比如更新和获取虚机的状态。 出于安全性和伸缩性的考虑,nova-compute 并不会直接访问数据库,而是将这个任务委托给 nova-conductor。
这样做有两个显著好处:
1. 更高的系统安全性
2. 更好的系统伸缩性
 
 
Console Interface
 
nova-console: 用户可以通过多种方式访问虚机的控制台:
nova-novncproxy: 基于 Web 浏览器的 VNC 访问
nova-spicehtml5proxy: 基于 HTML5 浏览器的 SPICE 访问
nova-xvpnvncproxy: 基于 Java 客户端的 VNC 访问
nova-consoleauth: 负责对访问虚机控制台请求提供 Token 认证
nova-cert: 提供 x509 证书支持
 
Database
 
Nova 会有一些数据需要存放到数据库中,一般使用 MySQL。数据库安装在控制节点上。 Nova 使用命名为 “nova” 的数据库。
 
 
Message Queue
在前面我们了解到 Nova 包含众多的子服务,这些子服务之间需要相互协调和通信。为解耦各个子服务,Nova 通过 Message Queue 作为子服务的信息中转站。 所以在架构图上我们看到了子服务之间没有直接的连线,是通过 Message Queue 联系的。
 
 
OpenStack 默认是用 RabbitMQ 作为 Message Queue。 MQ 是 OpenStack 的核心基础组件,我们后面也会详细介绍。
 

 

二、Nova 组件如何协同工作

 
Nova 物理部署方案                                                                                       
 
       前面大家已经看到 Nova 由很多子服务组成,我们也知道 OpenStack 是一个分布式系统,可以部署到若干节点上,那么接下来大家可能就会问:Nova 的这些服务在物理上应该如何部署呢?
 
对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点。
 
计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知:
1. 只有 nova-compute 需要放在计算节点上。
2. 其他子服务则是放在控制节点上的。
 
下面我们可以看看实验环境的具体部署情况。 通过在计算节点和控制节点上运行
ps -elf | grep nova 来查看运行的 nova 子服务
 
计算节点compute只运行了nova-compute子服务
 
 
控制节点controller运行了若干nova-*子服务
 
RabbitMQ 和 MySQL 也是放在控制节点上的。可能细心的同学已经发现我们的控制节点上也运行了 nova-compute。 这实际上也就意味着 devstack-controller 既是一个控制节点,同时也是一个计算节点,也可以在上面运行虚机。
 
这也向我们展示了 OpenStack 这种分布式架构部署上的灵活性: 可以将所有服务都放在一台物理机上,作为一个 All-in-One 的测试环境; 也可以将服务部署在多台物理机上,获得更好的性能和高可用。
 
另外,也可以用 nova service-list 查看 nova-* 子服务都分布在哪些节点上
 
 
从虚机创建流程看 nova-* 子服务如何协同工作                                    
      
     从学习 Nova 的角度看,虚机创建是一个非常好的场景,涉及的 nova-* 子服务很全,下面是流程图。
 
  1. 客户(可以是 OpenStack 最终用户,也可以是其他程序)向 API(nova-api)发送请求:“帮我创建一个虚机”
     
  2. API 对请求做一些必要处理后,向 Messaging(RabbitMQ)发送了一条消息:“让 Scheduler 创建一个虚机”
     
  3. Scheduler(nova-scheduler)从 Messaging 获取到 API 发给它的消息,然后执行调度算法,从若干计算节点中选出节点 A
     
  4. Scheduler 向 Messaging 发送了一条消息:“在计算节点 A 上创建这个虚机”
     
  5. 计算节点 A 的 Compute(nova-compute)从 Messaging 中获取到 Scheduler 发给它的消息,然后在本节点的 Hypervisor 上启动虚机。
     
  6. 在虚机创建的过程中,Compute 如果需要查询或更新数据库信息,会通过 Messaging 向 Conductor(nova-conductor)发送消息,Conductor 负责数据库访问。
     
 

 三、nova安装部署

 

 

controller

一、创建nova数据库,并设置权限及远程登录

  mysql -u root -p

  CREATE DATABASE nova_api;

  CREATE DATABASE nova;

  CREATE DATABASE nova_cell0;

  GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS';

  GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS';

  GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS';

  GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS';

  GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS';

  GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS';

 

二、创建nova用户

  ①创建nova用户

  source openrc

  openstack user create --domain default --password=nova nova

 

  ②将default项目中的nova用户设置成admin角色 

  openstack role add --project service --user nova admin

 

  ③创建nova服务

  openstack service create --name nova \ --description "OpenStack Compute" compute

 

  ④创建nova服务端点

  openstack endpoint create --region RegionOne  compute public http://controller:8774/v2.1

  openstack endpoint create --region RegionOne  compute internal http://controller:8774/v2.1

  openstack endpoint create --region RegionOne  compute admin http://controller:8774/v2.1

三、创建placement用户(起到统计资源使用的功能)

  ①创建placement用户

  openstack user create --domain default --password=placement placement

 

  ②将service项目中的placement用户设置成admin角色

  openstack role add --project service --user placement admin

 

  ③创建服务

  openstack service create --name placement --description "Placement API" placement

 

  ④创建服务端点

  openstack endpoint create --region RegionOne placement public http://controller:8778

  openstack endpoint create --region RegionOne placement internal http://controller:8778

  openstack endpoint create --region RegionOne placement admin http://controller:8778

 

四、安装nova

  ①安装nova服务包

  yum install openstack-nova-api openstack-nova-conductor  openstack-nova-console openstack-nova-novncproxy  openstack-nova-scheduler openstack-nova-placement-api

 

  ②修改nova配置文件

  cp /etc/nova/nova.conf /etc/nova/nova.conf.bak 

[DEFAULT]
my_ip=192.168.42.120 #控制节点ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver #防火墙驱动 enabled_apis=osapi_compute,metadata transport_url = rabbit://openstack:admin@controller #rabbitmq的连接方式  [api] auth_strategy = keystone [api_database] connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova_api  [barbican] [cache] [cells] [cinder] #os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova  [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://controller:9292  [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken] auth_uri = http://controller:5000 auth_url = http://controller:35357 memcached_servers = controller:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] #virt_type=qemu [matchmaker_redis] [metrics] [mks] [neutron] #url = http://controller:9696 #auth_url = http://controller:35357 #auth_type = password #project_domain_name = default #user_domain_name = default #region_name = RegionOne #project_name = service #username = neutron #password = neutron #service_metadata_proxy = true #metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency] lock_path=/var/lib/nova/tmp #临时文件保存位置 [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://controller:35357/v3 #认证的地址 project_name = service project_domain_name = Default username = placement password = placement user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc] #可以连接虚拟机 enabled=true vncserver_listen=$my_ip #监听ip地址 vncserver_proxyclient_address=$my_ip #vnc代理服务监听地址 #novncproxy_base_url = http://172.16.254.63:6080/vnc_auto.html  [workarounds] [wsgi] [xenserver] [xvp]
vim /etc/nova/nova.conf

  ③创建一个服务追踪的配置文件(补充到文件的末尾)

复制代码
vim 
/etc/httpd/conf.d/00-nova-placement-api.conf <Directory /usr/bin> <IfVersion >= 2.4> Require all granted </IfVersion> <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> </Directory>
复制代码

④重启httpd服务

  systemctl restart httpd

 

  ⑤同步api、cell0数据库

  su -s /bin/sh -c "nova-manage api_db sync" nova

  su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

 

  ⑥创建cell证书的id

  su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova 

 

  ⑦同步nova数据库

  su -s /bin/sh -c "nova-manage db sync" nova

正常情况:/usr/lib/python2.7/site-packages/pymysql/cursors.py:170: Warning: (1831, u'Duplicate index `block_device_mapping_instance_uuid_virtual_name_device_name_idx`. This is deprecated and will be disallowed in a future release.')
result = self._query(query)

 

  ⑧列示cell证书列表

  nova-manage cell_v2 list_cells

  ⑨重启并设置开机自启

  systemctl enable openstack-nova-api.service  openstack-nova-consoleauth.service openstack-nova-scheduler.service  openstack-nova-conductor.service openstack-nova-novncproxy.service 
  systemctl start openstack-nova-api.service  openstack-nova-consoleauth.service openstack-nova-scheduler.service  openstack-nova-conductor.service openstack-nova-novncproxy.service

报错:

复制代码
ERROR: Could not access cell0. Has the nova_api database been created? Has the nova_cell0 database been created? Has "nova-manage api_db sync" been run? Has "nova-manage cell_v2 map_cell0" been run? Is [api_database]/connection set in nova.conf? Is the cell0 database connection URL correct? Error: (_mysql_exceptions.OperationalError) (1045, "Access denied for user 'nova'@'localhost' (using password: YES)")
复制代码

这是因为数据库原因。可删除数据库重新赋权

或报错:

Failed to parse /etc/nova/nova.conf: at /etc/nova/nova.conf:148,

这是因为nova配置文件错误,检查并重启服务。

报错:

compute -service list的服务显示down状态或者hypervisor无法显示内容

因为libvirtd和openstack-nova-compute服务没有启动如果启动不了或许因为rabbitmq-server服务没有启动

 

compute  

openstack的库都建立在控制节点上,其他节点不需要建库

  ①安装nova包(先解决依赖)yum安装

  qemu-img-ev-2.9.0-16.el7_4.8.1.x86_64.rpm         qemu-kvm-ev-2.9.0-16.el7_4.8.1.x86_64.rpm         qemu-kvm-common-ev-2.9.0-16.el7_4.8.1.x86_64.rpm
  yum install openstack-nova-compute

 

  ②编辑nova配置文件

  cp /etc/nova/nova.conf /etc/nova/nova.conf.bak

[DEFAULT]
my_ip=192.168.253.194 #管理网卡的ip地址 use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver enabled_apis=osapi_compute,metadata transport_url = rabbit://openstack:admin@controller  [api] #auth_strategy = keystone [api_database] #connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova_api  [barbican] [cache] [cells] [cinder] #os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] #connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova  [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://controller:9292  [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken] auth_uri = http://controller:5000 auth_url = http://controller:35357 memcached_servers = controller:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] virt_type=qemu #调用后台虚拟化 [matchmaker_redis] [metrics] [mks] [neutron] #url = http://controller:9696 #auth_url = http://controller:35357 #auth_type = password #project_domain_name = default #user_domain_name = default #region_name = RegionOne #project_name = service #username = neutron #password = neutron #service_metadata_proxy = true #metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency] lock_path=/var/lib/nova/tmp [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://controller:35357/v3 project_name = service project_domain_name = Default username = placement password = placement user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc] enabled=true vncserver_listen=0.0.0.0 vncserver_proxyclient_address=$my_ip novncproxy_base_url = http://192.168.253.135:6080/vnc_auto.html #控制节点地址  [workarounds] [wsgi] [xenserver] [xvp]
vim /etc/nova/nova.conf

 

   ③过滤计算节点是否开启虚拟化

  egrep -c '(vmx|svm)' /proc/cpuinfo

 

  ④重启并设置开启自启

  systemctl enable libvirtd.service openstack-nova-compute.service

·   systemctl start libvirtd.service openstack-nova-compute.service          #启不来查看日志,具体错误具体解决

 

报错:

如果报5672错误,重启控制节点的rabbitmq-server和插件。
注意控制节点的服务设置开机自启动不然如果不下心关机前面很多服务的状态都会关系到后面的操作

 

  ⑤列示openstack管理虚拟化类型

  openstack hypervisor list

 

报错:

复制代码
一堆python2.7的错误,看看端口是否都启动了,比如9292^CTraceback (most recent call last): File "/usr/bin/openstack", line 10, in <module> sys.exit(main()) File "/usr/lib/python2.7/site-packages/openstackclient/shell.py", line 211, in main return OpenStackShell().run(argv) File "/usr/lib/python2.7/site-packages/osc_lib/shell.py", line 135, in run ret_val = super(OpenStackShell, self).run(argv)
复制代码

 

又回到controller节点

  ⑥数据库同步计算节点(在controller节点执行)

  su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

正常显示:
Found 2 cell mappings.
Skipping cell0 since it does not contain hosts.
Getting compute nodes from cell 'cell1': d1ae544d-ba14-4621-8ae8-6c978ed0288f
Found 0 computes in cell: d1ae544d-ba14-4621-8ae8-6c978ed0288f

 

  ⑦在控制节点查看计算服务的工作状态

    openstack compute service list(enable表示开启,up运行)

 

报错:

2019-06-07 20:14:16.562 33654 ERROR oslo_service.service AccessRefused: (0, 0): (403) ACCESS_REFUSED - Login was refused using authentication mechanism AMQPLAIN. For details see the broker logfile.  

这是因为rabbitmq没有创建openstack用户权限

使用rabbitmqctl list_users 查看创建用户

并更改为管理员权限,如果已经时管理员,请更改openstack密码。

 

    openstack image list  (查看镜像列表)

 

    nova-status upgrade check  (nova状态服务检测)

      显示成功和up即可

报错:

没有发现计算机节点

No host mappings found but there are compute nodes. Run | | command nova-manage cell_v2 simple_cell_setup and then | | retry.

重新发现计算机节点,执行命令:
su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

报错:
placement启动失败,但是8778端口启动了 这是因为nova配置文件的placment板块配置错误
      

【如何删除一个计算节点】

注意:删除之前要将虚拟机停掉,对其进行备份。

复制代码
复制代码
查看openstackcompute服务列表
[root@controller ~]# openstack compute service list +----+------------------+------------+----------+---------+-------+----------------------------+ | ID | Binary | Host | Zone | Status | State | Updated At | +----+------------------+------------+----------+---------+-------+----------------------------+ | 1 | nova-conductor | controller | internal | enabled | up | 2019-06-05T07:31:14.000000 | | 2 | nova-consoleauth | controller | internal | enabled | up | 2019-06-05T07:31:14.000000 | | 3 | nova-scheduler | controller | internal | enabled | up | 2019-06-05T07:31:15.000000 | | 6 | nova-compute | compute | nova | enabled | up | 2019-06-05T07:31:10.000000 | | 7 | nova-compute | controller | nova | enabled | up | 2019-06-05T07:31:14.000000 | | 8 | nova-compute | storage | nova | enabled | up | 2019-06-05T07:31:09.000000 | +----+------------------+------------+----------+---------+-------+----------------------------+
查看openstack主机列表
[root@controller ~]# openstack host list
+------------+-------------+----------+
| Host Name  | Service     | Zone     |
+------------+-------------+----------+
| controller | conductor   | internal |
| controller | consoleauth | internal |
| controller | scheduler   | internal |
| compute    | compute     | nova     |
| controller | compute     | nova     |
| storage    | compute     | nova     |
+------------+-------------+----------+
在想要删除stroage这个主机的nova,只要把statusstate分别变成disabedown即可

首先关闭storage节点的novalibvirt

[root@storage network-scripts]# systemctl stop libvirtd.service openstack-nova-compute.service
controller节点查看服务列表
[root@controller ~]# openstack compute service list
+----+------------------+------------+----------+----------+-------+----------------------------+
| ID | Binary           | Host       | Zone     | Status   | State | Updated At                 |
+----+------------------+------------+----------+----------+-------+----------------------------+
|  1 | nova-conductor   | controller | internal | enabled  | up    | 2019-06-05T07:40:54.000000 |
|  2 | nova-consoleauth | controller | internal | enabled  | up    | 2019-06-05T07:40:54.000000 |
|  3 | nova-scheduler   | controller | internal | enabled  | up    | 2019-06-05T07:40:55.000000 |
|  6 | nova-compute     | compute    | nova     | enabled  | up    | 2019-06-05T07:41:00.000000 |
|  7 | nova-compute     | controller | nova     | enabled  | up    | 2019-06-05T07:40:54.000000 |
|  8 | nova-compute     | storage    | nova     | disabled | down  | 2019-06-05T07:39:30.000000 |
+----+------------------+------------+----------+----------+-------+----------------------------+

如果执行上述命令没有down掉,则可以执行以下命令

[root@controller ~]# nova service-disable storage nova-compute
+---------+--------------+----------+
| Host    | Binary       | Status   |
+---------+--------------+----------+
| storage | nova-compute | disabled |
+---------+--------------+----------+
[root@controller ~]# nova service-list
+----+------------------+------------+----------+----------+-------+----------------------------+-----------------+
| Id | Binary           | Host       | Zone     | Status   | State | Updated_at                 | Disabled Reason |
+----+------------------+------------+----------+----------+-------+----------------------------+-----------------+
| 1  | nova-conductor   | controller | internal | enabled  | up    | 2019-06-05T07:45:24.000000 | -               |
| 2  | nova-consoleauth | controller | internal | enabled  | up    | 2019-06-05T07:45:25.000000 | -               |
| 3  | nova-scheduler   | controller | internal | enabled  | up    | 2019-06-05T07:45:25.000000 | -               |
| 6  | nova-compute     | compute    | nova     | enabled  | up    | 2019-06-05T07:45:20.000000 | -               |
| 7  | nova-compute     | controller | nova     | enabled  | up    | 2019-06-05T07:45:24.000000 | -               |
| 8  | nova-compute     | storage    | nova     | disabled | down  | 2019-06-05T07:44:04.000000 | -               |
+----+------------------+------------+----------+----------+-------+----------------------------+-----------------+

删除数据库中nova.servies表中的storage信息
MariaDB [nova]> delete from nova.services where host="storage";
Query OK, 1 row affected (0.00 sec)

MariaDB [nova]> select host from nova.services;
+------------+
| host       |
+------------+
| 0.0.0.0    |
| 0.0.0.0    |
| compute    |
| controller |
| controller |
| controller |
| controller |
+------------+
7 rows in set (0.00 sec)

在计算节点(compute_nodes)删除storage信息
MariaDB [nova]> delete from compute_nodes where host="storage";
Query OK, 1 row affected (0.00 sec)

MariaDB [nova]> select host from compute_nodes;
+------------+
| host       |
+------------+
| compute    |
| controller |
+------------+
2 rows in set (0.00 sec)

查看compute_nodes表中是否有hypervisor_hostname
MariaDB [nova]> select hypervisor_hostname from compute_nodes;
+---------------------+
| hypervisor_hostname |
+---------------------+
| compute             |
| controller          |
+---------------------+
2 rows in set (0.01 sec)

查看host已经删掉storage
[root@controller ~]# openstack host list
+------------+-------------+----------+
| Host Name  | Service     | Zone     |
+------------+-------------+----------+
| controller | conductor   | internal |
| controller | consoleauth | internal |
| controller | scheduler   | internal |
| compute    | compute     | nova     |
| controller | compute     | nova     |
+------------+-------------+----------+

查看compute service 列表已经删除storage
[root@controller ~]# openstack compute service list
+----+------------------+------------+----------+---------+-------+----------------------------+
| ID | Binary           | Host       | Zone     | Status  | State | Updated At                 |
+----+------------------+------------+----------+---------+-------+----------------------------+
|  1 | nova-conductor   | controller | internal | enabled | up    | 2019-06-05T08:00:44.000000 |
|  2 | nova-consoleauth | controller | internal | enabled | up    | 2019-06-05T08:00:45.000000 |
|  3 | nova-scheduler   | controller | internal | enabled | up    | 2019-06-05T08:00:45.000000 |
|  6 | nova-compute     | compute    | nova     | enabled | up    | 2019-06-05T08:00:50.000000 |
|  7 | nova-compute     | controller | nova     | enabled | up    | 2019-06-05T08:00:44.000000 |
+----+------------------+------------+----------+---------+-------+----------------------------+
展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部