ZStack执行任务中的备份任务也能新增么?

OpenStack从2010年开源至今已经走过8个年头,其正在进入主流企业市场但该项目依然面临较难部署和管理的老问题。有一点是毫无疑问的那就是OpenStack保持着高速增长的态势,超过585家企业接近4万人通过各种方式支持着这个超过2000万行的开源项目的持续发展。

ZStack项目初始于2015年相对OpenStack要年轻很多,由于其具有易用、稳定、灵活、超高性能等特点迅速成为市场的新宠儿,其功能在不断的完善其性能在不断的加强。发展以及成熟的速度远快于OpenStack其市场认可程喥不弱于OpenStack。

OpenStack是一个开源的云计算管理平台项目由几个主要的组件组合起来完成具体工作。OpenStack支持几乎所有类型的云环境项目目标是提供實施简单、可大规模扩展、丰富、标准统一的云计算管理平台。OpenStack通过各种互补的服务提供了基础设施即服务(IaaS)的解决方案每个服务提供API以进行集成。开源于2010年当前最新版本Queens。

ZStack是下一代开源的云计算IaaS(基础架构即服务)软件它主要面向的是未来的智能数据中心,通过提供全完善的API来管理包括计算、存储和网络在内的数据中心的各种资源ZStack具有易用、稳定、灵活、超高性能等特点。分为商业版以及开源社区版本起步于2015年,当前最新版本2.5.1

OpenStack架构图如下图。以前有个朋友吐槽说这是一群小蜘蛛在结网,虽然有序但每一个小蜘蛛的网都鈈尽相同。当这些网连起来的时候就会让人看的眼花缭乱。因为每一次的请求任务都需要在各个子系统之间来回协调任何一处出问题,都将导致创建失败比如当创建虚拟机的时候,需要从认证计算,网络镜像,存储等环节都走通否则就不要想创建一个健康运行嘚虚拟机。下面的图展示出了OpenStack的主要的几个组件的调用关系

消息队列在OpenStack整个架构中扮演着至关重要的作用,正是因为OpenStack部署的灵活性、模塊的松耦合、架构的扁平化反而使OpenStack更加依赖于消息队列,所以消息队列收发消息的性能和消息队列的HA能力直接影响OpenStack的性能最典型的场景就是如果当大量的监控数据充斥着消息队列时,平台性能将呈现直线下滑下图展示出了OpenStack中消息队列关系。

OpenStack相比ZStack服务之间的交互调用偠简单很多,消息队列为核心所有服务交互都通过消息队列,结构拓扑呈现星状简单直接,因而核心出问题就会影响到大多数的功能但全异步架构以及无状态服务大大加强了平台的健壮。ZStack的强一致性使其很简单就可以实现HA而无需像OpenStack那样必须借助第三方工具实现HA高可鼡。下图展示了ZStack的星形拓扑结构

安装一直是OpenStack的几大难题之一,尤其是对刚接触到OpenStack的新人而言这也客观上提高了大家学习OpenStack云计算的技术門槛。笔者13年开始接触OpenStack有幸在公司申请到三台高配的物理服务器一个月的使用权限。作为一个OpenStack小白当时的规划是一星期的安装,一星期的架构学习两星期的综合学习,最后变成一个月都是在安装想想,直到现在都是满眼心酸泪当然这都是早时期,现在针对部署与咹装也有了很多工具比如puppet,ansible容器化的kolla。虽然这些工具也大大简化了OpenStack的部署安装但是依然却无法解决openstack运维的复杂度,更不用说后续新蝂本的升级

安装部署以及升级对ZStack而言,从来都是简单快速,无感ZStack自定义了ISO,封装了网络配置以及ZStack服务管理的命令哪怕是一个运维尛白也能够很快安装好一个ZSack平台,不需要太长的学习周期同时官方文档以及案例都很齐全,有任何问题只要在官方群里留言都能获取ZStack一線工程师快速的恢复

OpenStack的计算,存储网络组件分别是nova,cinderneutron。其中nova作为最早期的项目其成熟度已经很高,稳定性已经大大加强功能也茬不停的扩展。比如GPU支持裸机管理,heat编排容器编排,大数据计算等cinder作为核心的块存储模块在openstack中提供着至关重要的角色,后端支持cephlvm,glusterfsnfs以及各种商业存储,配置比较麻烦需要更改配置文件,调试重启服务,甚至是更改代码去适配对应的存储至于云主机默认是不支持增量快照的,只支持全量备份功能针对传统的系统盘庞大的情况,会影响效率浪费磁盘空间。

neutron是网络管理模块底层支持flat,vlanvxlan,gre等网络模式neutron支持多种高级特性,比如vpn功能负载均衡功能,HA功能DVR功能。可用性还是比较强的而且针对很多厂商的网络设备都有plugin支持。当然neutron的效率,复杂性也是容易让人诟病的至今,已经有多次的代码重构当然,重构也不仅仅是因为代码混乱复杂以及效率低的问題同时也是为了能够与openstack的其他项目,如容器的kuryr等项目更好的结合使用

相对而言ZStack就会简单容易很多。ZStack在一键安装之后无论是计算,存儲还是网络都只要在页面控制台点击操作相应的资源,不涉及到任何后端复杂配置修改配置修改实时生效,也不需要重启任何服务ZStack計算节点页面添加,拥有动态扩容实时监控,自动愈合等多种特性无需过多的人工参与。不管是开源的cephglusterf,nfs还是商业的Fusionstorsan光钎存储,頁面直接添加云主机与云盘都支持增量快照,全量备份功能这一点与OpenStack完全相反。

ZStack的网络模型是二层+三层二层决定了是novlan,vlan,vxlan的类型,三层決定了是扁平路由,vpc的类型网络灵活配置。同时物理网卡支持复用,可以创建多个同种类型的二层网络支持分布式网络,可以缓解dns的压力与优化东西向的流量云路由网络以及vpc网络是使用优化过的vyos作为平台路由器,配置简单支持多种高级特性,可以支持热迁移支持分布式,稳定性以及性能都不错虽然不支持HA功能,但是自愈能力强vyos本质上是虚拟机,因此会占一定的宿主机资源性能与物理设備相比较而言会有部分损耗。

早期的OpenStack云平台监控项目Ceilometer被一分为四(Ceilometer、Gnocchi、Aodh、Panko)各司其职!其中Ceilometer负责采集计量数据并加工预处理;Gnocchi主要用来提供资源索引和存储时序计量数据;Aodh主要提供预警和计量通知服务;Panko主要提供事件存储服务。促成Ceilometer分裂的主要原因是性能开销很大并且隨着时间的推移性能瓶颈会愈加明显直至崩溃。至于底层运维监控可以使用zabbix也可以集成到现有的ceilometer体系中。至今OpenStack已经发展到Queens版本,监控依然是其性能瓶颈之一dashboard默认没有集成监控与告警,需要额外的自定义开发

ZStack的监控方案采用开源prometheus和influxdb,监控信息存储在prometheus数据库告警则使鼡prometheus自带的alertmanager,至于事件以及审计等信息存储在influxdb与mysql数据库中平台拥有大多数的监控项,支持自定义告警项添加但暂时还未支持模板方式批量添加监控告警项。借助于prometheus的高效率的函数计算以及汇聚zstack也提供了监控大屏和监控top5的功能,有助于实时分析平台的资源使用情况当然,openstack也可以借助prometheus或者zabbix实现类似的功能

OpenStack是当前最流行,同时也是目前最为流行的开源云操作系统框架OpenStack提供的不仅仅提供IAAS的服务,同时也提供PAAS服务不管其孵化项目是否成熟,但至少拥有了一个开放廉价的解决方案,比如数据库服务容器服务,大数据处理裸机管理,计費管理等项目国内的也有公有云等借助或者借鉴OpenStack,而实现了自身的安全稳定的公有云平台而也有专业的OpenStack厂商实现了私有云或混合云平囼。近几年来OpenStack借助国家去IOE的策略,已经遍布多家银行政企以及运营商。

相对OpenStackZStack依然很年轻。其核心以是私有云与混合云为主主要提供IAAS服务,核心代码开源提供企业版本。几乎每个月都会发布一个新版本但是升级基本不会存在任何问题,一句命令全部搞定这一点昰OpenStack远远比不上的。尽管如此当前在某些方面,ZStack还是无法替代openstack相比比如容器服务,数据库服务大数据管理等。至于以后ZStack是否会添加新功能那要等以后再说。

本文主要是从运维管理计算,存储网络等方面对OpenStack与ZStack进行了简单的对比,两者各有优劣笔者认为,OpenStack适合有研發能力有较高的运维能力,有PAAS甚至是SAAS需要的组织ZStack能够提供一整套安全可靠,方便快捷的私有云或者混合云环境ZStack更加适合资源有限,沒有办法投入太多在研发以及运维上的组织当然,这也并不是绝对的利用ZStack或者OpenStack实现私有云都不乏案例。至于是选择OpenStack还是ZStack还是要结合真實的需求

作者:祝祥 新钛云服运维架构师

十年运维经验,曾任刻通云运维工程师、微烛云和某互联网金融平台首席运维架构师拥有OpenStack、CCIE、阿里云、ZStack等技术认证。有上万台云主机PB级别分布式存储运维经验。熟悉各种虚拟化技术软硬件,网络容器编排等技术,拥有python开发經验热爱各种开源技术。

Amazon EC2是世界上最著名的公有云场景茬这个场景里,用户可以创建一个具有私有网络IP地址的云主机 然后申请一个动态公网IP地址,把这个公网IP地址绑定到云主机之后互联网仩的用户就可以通过EIP的地址访问这个云主机。 当有多个云主机的情况下这个EIP可以动态的绑定不同的云主机。

在ZStack 1.2的版本中我们已支持使鼡扁平网络,无须使用虚拟路由来即可实现EIP地址的动态绑定与解绑 图1的网络结构是一个典型的弹性IP地址应用场景。123.12.0.1/24的公用网络可以通過防火墙连接到互联网。 管理节点通过管理网络控制内部的ZStack私有云管控系统各个计算节点所在的私有网络提供给云主机内部的私有网络192.168.100.0/24嘚IP地址。 此IP地址默认情况下无法连接到外部的互联网 ZStack在每个计算节点分别部署分布式的EIP。 可分布独立实现公有网络与私有网络的绑定


峩们假定您已经根据里的方法成功的安装并且启动了ZStack。 您可以在Chrome浏览器或者FireFox浏览器(IE浏览器可能会遇到使用问题)上打开如下地址来登录ZStack管理界面:

我们假定您的这台Linux服务器只有一个网卡并且它可以链接到互联网。除此之外我们还需要如下的要求:

  • 至少20G可用的硬盘剩余涳间用于基本的主存储和备份存储
  • 有几个可以使用的公网的IP地址
  • 可以使用root用户 ssh到本机

配置root用户的ssh登录能力

KVM节点需要root用户的SSH权限来使用Ansible安装系统包和控制KVM Agent。本教程里面只使用了单一的Linux 服务器作为操作对象您需要提前配置root用户的SSH访问能力。

您需要修改SSHD的配置文件:

基于以上的環境要求我们假设有如下的配置信息:

停止云主机可能会等1分钟,如果云主机镜像里没有配置ACPID:

尽管我们的教程里不会演示停止云主机的功能但是您可能自己在尝试的时候会发现启动一个云主机只需要1秒钟, 但是停止一个云主机可能会需要1分钟时间这是因为您的云主机模板中没有ACPID相关的服务。 ZStack发出Stop指令后云主机的操作系统并不会接收这样的指令。ZStack在等待1分钟后会强行的停止这个云主机 如果用户自己嘚云主机模板也存在类似的问题,那么最好求助于操作系统提供商解决相关的问题

在Chrome浏览器或者FireFox浏览器(IE浏览器可能会遇到使用问题)仩登录ZStack管理界面: 默认的用户名和密码分别为admin/password:








我们现在还没有任何的主存储,让我们继续点击'Next':


我们现在还没有任何的L2网络让我们直接点擊'Create':




  1. 最重要的是输入host root用户的用户名和密码

第一次添加Host可能会较慢

基于用户的网络环境,第一次添加Host可能需要等待几分钟的时间ZStack会安装好所囿的依赖包和完成自动化的配置。









9. 添加云主机磁盘镜像



该镜像文件将会用于用户云主机的模板




  1. 输入物理网卡的名字'eth0'


  1. 输入物理网卡的名字'eth0'







茬本教程里,不会有用户的云主机创建在PUBLIC-MANAGEMENT-L3上(因为之前选择了System)所以我们也不需要添加额外的网络服务。

再次点击'New L3 Network'来创建给云主机的私囿三层网络:






12. 创建云主机模板



如果使用zs-sample-image的磁盘镜像来创建虚拟机该虚拟机的最低内存需求量仅需要64MB。用户可以只创建一个64MB的模板




  1. 输入云主机的名字'VM1'
  2. 输入云主机的网络名字: 'vm1'

启动第一个云主机会花费较长的时间

当第一次创建云主机的时候,ZStack需要把云主机的磁盘镜像从备份存儲下载到主存储中来根据不同磁盘镜像的大小, 它可能需要一段时间另外ZStack也会为云主机创建虚拟路由器,这个也需要消耗1分钟的时间 当第一个云主机创建好后,再次创建云主机将会非常快速

当云主机创建完成,点击'Action'再点击'Console'来打开云主机的终端(需要在浏览器上允许彈出窗口):


在弹出的窗口中,用root用户的password密码来登录zs-sample-image登录后,此云主机一般无法ping通外部网络例如无法ping通百度。

使用'ifconfig'命令您应可以看到这個云主机的私网的IP地址:


点击左侧面板的'EIP':





当创建结束,有应该可以看到创建EIP的结果在我们这里,EIP是'192.168.0.240':


再次使用此云主机ping百度发现已可以ping通:


15. 把EIP绑定到其他云主机

跟着 的方法创建一个新的云主机(VM2):

后续的云主机创建过程会非常的快

由于第一次创建云主机时,ZStack已经把云主机的磁盘放到了缓存中虚拟路由器也成功创建,所以后续的云主机添加的过程通常不会超过2秒

点击EIP页面,选择EIP1点击'Action';然后在下拉框中点击'Detach'并苴确定;


在取消EIP绑定后,再次点击'Action'并且选择'Attach'在对话框中选择VM2作为挂载对象点击'Attach':

详解Zstack高级功能--裸金属服务

今天我們来了解一下ZStack的裸金属提到裸金属服务,很多人从字面上可能对其不是很了解其实早在之前的私有云OpenStack平台,就已经推行了Ironic裸金属服务而且在去年的最新Rocky版本中,更是对裸金属服务进行了加强于此同时的ZStack在2.6.0版本,也推出裸金属纳管服务那么这令人注目的裸金属服务究竟是什么呢?

首先让我们来了解一下裸金属服务的由来近年来由于国内外云计算市场的快速发展,许多企业纷纷将自身业务迁至云端不再将业务部署在自己自身的机房环境中,这样带来的好处就是省去了一部分的人工维护成本转而由第三方云供应商来提供基础环境。

而且一般来说硬件资源在很多情况下是没有被充分利用的比如我们日常在使用自己的电脑时,实质上就是在使用它的CPU、内存、以及在硬盘上运行的操作系统等当我们查看这些资源的使用率时,通常会发现CPU和内存大部分是闲置的。特别是CPU其利用率通常不到10%。那么囿没有可能不让一个操作系统单独控制一台机器,而是在一台机器上安装多个操作系统并且让它们同时地运行,把被闲置的资源利用起來呢答案是有,相信很多人都曾经在自己的Windows电脑上安装VMware workstation并且安装了多个虚拟机,每个虚拟机都拥有自己的操作系统它们可以同时运荇,并且不互相干扰就实现了自己硬件电脑的虚拟化,可以把一台物理服务器虚拟化为多台虚拟服务器所以说,这种通过管理程序(VMware workstation等)把硬件的机器、同操作系统分开的过程就是虚拟化。当我们将业务运行在云端时可以做到按需求选取最合适的规模,将资源的利鼡率使用到最大这些资源不仅仅包括CPU、内存、操作系统,还包括网络ip,安全组等

但是,并不是所有业务都适合在云端虚拟机上运行嘚比如一些高性能的计算任务,如果运行在虚拟机上就达不到在物理机上的效果。于是就需要裸金属服务简单来说,裸金属服务就昰为应用提供专属的物理服务器保障核心应用的高性能和稳定性。ZStack早在2.6.0版本在高级功能中以单独的功能模块形式,推出了裸金属服务支持自定义安装操作系统,并提供裸金属主机的全生命周期管理裸金属服务在以下几个方面拥有巨大优势:

2,无法使用虚拟化的计算任务;

4单租户、专用硬件、安全性、可靠性以及其它需求;

二、ZStack裸金属服务概述

ZStack作为一套产品化创新开源云计算IaaS平台,它可以为企业用户提供私有云和混合云服务,当我们在ZStack中部署裸机用到的就是ZStack的高级功能-裸金属服务,即直接控制物理机进行硬件部署操作我们一般熟知的虚拟机(宿主型)是通过Hypervisor来部署的。如下图Hypervisor是一种运行在物理服务器和操作系统之间的中间软件层,可允许多个操作系统和应用共享┅套基础物理硬件,因此也可以看作是虚拟环境中的"元"操作系统它可以协调访问服务器上的所有物理设备和虚拟机,也叫虚拟机监视器VMM(Virtual Machine Monitor)当服务器启动并执行任务Hypervisor时,它会给每一台虚拟机分配适量的内存、CPU、网络和磁盘并加载所有虚拟机的客户操作系统。

相比之下裸金属服务就是传统形式,直接将OS部署在Hardware上没有VMM这一层的损耗,性能更加优秀

裸金属服务的优势不言而喻,现在的各大公有云厂商也纷紛推出了自己的裸金属服务作为私有云的ZStack也不甘示弱。现在我们暂时不考虑之后裸金属部署后的性能优势单从部署方面来说,如何像蔀署虚拟机一样去部署物理机呢

ZStack可为应用提供专属的物理服务器,保障核心应用的高性能和稳定性它可以直接对物理机执行任务节点級别管理,进行物理机节点的添加、删除进行电源管理,部署系统等操作在完成基本的服务器上架以及相关准备工作后,(注意这里的楿关准备工作,是我们是否能顺利控制裸金属设备的关键前提后面会详细介绍),管理员可在UI界面批量部署裸金属设备部署完成后可使用裸金属设备创建裸金属主机,支持自定义安装操作系统并对裸金属主机进行全生命周期管理。

简单来说我们在这里可以认为裸金属服務,就是为服务器裸机安装相应的操作系统并且获取其配置信息,最后实现对裸金属主机的生命周期控制比如:开关机重启等操作。洏且对于整个操作过程而言前提只需要服务器主机有网络并且通电就可以。

三、ZStack裸金属服务基本原理

裸金属管理服务的基本原理是:PXE服務器提供DHCP服务和FTP服务指示多台裸金属设备由PXE网卡启动并分配动态IP,裸金属设备从PXE服务器中下载相关软件包用于裸金属主机的系统安装。

裸金属管理网络拓扑所示:(官方)

  1. 管理节点与管理网络(Management Node):需提前规划管理网络要求镜像仓库、PXE服务器均与管理节点连通。管理節点作为安装系统的物理主机提供ZStack的UI管理、云平台部署功能。一般是安装ZStackiso镜像的主机通过前端的dashboard界面,进行图形化管理
  2. 镜像仓库:吔位于管理网络网段之下,为裸机(可认为没有安装操作系统的新机器)提供多种操作系统镜像文件在ZStack中,镜像支持本地与URL导入
  3. PXE(preboot execute environment,预啟动执行任务环境)支持通过网络从远端服务器下载映像,并由此支持通过网络启动操作系统在启动过程中,终端要求服务器分配IP地址再用TFTP服务协议下载一个启动软件包到本机内存中执行任务,由这个启动软件包完成终端(客户端)基本软件设置从而引导预先安装在服务器中的终端操作系统。PXE可以引导多种操作系统

         可以概括认为ZStack的PXE服务器包含二大功能:其一就是DHCP服务(指示多台裸金属设备由PXE网卡启动并汾配动态IP),其二就是TFTP服务(裸金属设备从PXE服务器中下载相关软件包用于裸金属主机的系统安装)。

     4.部署网络确保裸金属设备的PXE网卡與PXE服务器的DHCP监听网卡通过部署网络连通。可以说就是安装操作系统用的它的独立性适用于生产环境(优先独立配置),也可以以管理网络作為部署网络

 5.IPMI网络,确保管理节点与裸金属设备的BMC接口通过IPMI网络连通IPMI的核心是BMC,即基板管理控制器其并不依赖于服务器的处理器、BIOS或操作系统来工作,是一个单独运行的无代理管理子系统只要有BMC与IPMI固件(运行在ROM里的只读程序)其便可开始工作,BMC通常是一个安装在服务器主板上的独立板卡在工作时,所有的IPMI功能都是向BMC发送命令来完成的

所以需要配置裸金属设备IPMI并规划IPMI网络:

实现裸金属设备的带外控淛(通过不同的物理通道传送信息和数据信息,两者完全独立互不影响。)要求裸金属设备配备BMC接口(现在一般都有),并提前为每囼裸金属设备配置好IPMI地址、端口、用户名和密码

正因为IPMI的独立性,我们在进行裸机操作时可以对其进行控制。当裸机安装完成操作系统正常使用时才进行数据信息处理。正如上面所说的通过不同的物理通道传送信息和数据信息。如下图(来自网络):IPMI接口与服务器┅般网络接口在不同位置

         规划IPMI网络后,管理节点与裸金属设备的BMC接口可以通过IPMI网络连通并且admin用户可在之后的UI界面完成所有裸金属设备嘚批量部署。

         支持扁平网络场景同一个二层网络上的裸金属主机和云主机之间可互相访问,无需通过网关进行路由需提前将裸金属设備所在的裸金属集群挂载到相应的二层网络。

四、ZStack裸金属服务操作流程详解

此次操作流程将管理节控制节点与PXE服务器部署在同一个节点,并且管理网络与部署网络为同一个网络如果有条件,建议在生产环境中依照官方拓扑图部署

为保证批量部署裸金属设备的顺利进行,需提前做好以下准备工作:

1. 手动安装管理节点并安装相应许可证;即需要先安装好ZStack环境,并保证在ZStack环境中可以使用裸金属服务

2. 在镜潒仓库中准备若干ISO镜像,用于裸金属主机的系统安装

(此处的镜像服务器单独部署,镜像BIOS模式为legacy)

3.  进入裸金属设备BIOS启用PXE(可以自己进入裸金属设备BIOS开启)

提前进入每台裸金属设备的BIOS确认其连接部署网络的网卡开启PXE功能。对于部分机型还需确保该PXE网卡为首张启动网卡,戓确保(启动顺位)在PXE网卡之前的所有网卡均关闭PXE功能同时需确保裸金属设备的启动模式为Legacy。

要求PXE服务器的DHCP监听网卡是一个独立的、有IP哋址的网卡对外提供稳定的DHCP服务。

5. 配置裸金属设备IPMI并规划IPMI网络;

提前规划IPMI网络确保管理节点与裸金属设备的BMC接口通过IPMI网络连通。

这样通过IPMI网络admin就可在UI界面完成所有裸金属设备的批量部署;并且管理节点可远程控制裸金属设备的开关机、网络启动、磁盘启动等行为。

6. 其咜网络(可选)

如果裸金属主机需要与云虚拟主机进行交互的话。可以在一个扁平网络下设置二类主机互通。

准备工作完成后admin可登錄管理节点界面(ZStack的dashboard界面),进行接下来的操作

4.2 创建裸金属集群,为裸金属设备提供单独的集群管理(和云主机区分开来)

裸金属集群可鉯为裸金属设备提供单独的集群管理。注意:一个裸金属集群只允许挂载一个部署服务器

创建界面如下图:创建完成后,默认启动

4.3  创建部署服务器,为裸金属设备提供PXE服务和控制台代理服务

本次与管理节点合并,但独立部署PXE服务器可以满足多管理节点物理机高可用場景需求,且避免单点故障大幅提升部署效率。然后将部署服务器挂载到裸金属集群中

如下图所示:DHCP服务(为裸金属设备由PXE网卡启动並分配动态IP),TFTP服务(裸金属设备从PXE服务器中下载相关软件包用于裸金属主机的操作系统安装)。

创建完成后如下图所示:

同时点击蔀署服务器可看到属性信息:

裸金属设备:就是待安装操作系统的裸金属服务器,通过BMC接口以及IPMI配置进行唯一识别

需要填写IPMI网络,这样管理节点可远程控制裸金属设备的开关机、网络启动、磁盘启动等行为创建如下图:

创建完成后,如下图所示可以看到已经获取到了硬件信息。

此时这里可以打开控制台直接跳转至该裸金属设备的IPMI管理界面(登录界面),输入之前已配置好的IPMI用户名和IPMI密码即可从ZStack界媔跳转登录。

4.5 创建裸金属主机进行自定义安装操作系统。

裸金属主机:即已安装操作系统的裸金属服务器裸金属设备部署完成后可用於创建裸金属主机。创建界面如下需要注意的是裸金属主机创建完成后会自动重启,然后根据所选镜像开始安装操作系统;

创建过程中裸金属主机的状态会暂时显示为部署中。

这时我们需要打开控制台进入系统安装界面,手动进行相关配置如下图:

 部署完成后,裸金属主机自动重启就绪状态显示为已部署。

需要注意的是自动重启时,主机已经安装好操作系统此时的启动应该从硬盘启动,而不昰之前的网卡启动可以登录裸金属设备的控制台,设置第一个引导设备为磁盘驱动器确保主机从正确的地方启动,否则有可能导致主機无限重启

重启完成后,如下图所示主机处于正常运行状态。

在部署服务器上可以看到镜像的缓存位置以及此过程中DHCP服务与FTP服务。這里的部署服务器就相当于一个PxeServer裸金属主机会发送DHCP广播请求,然后DHCP向主机提供可用的IP地址并告知主机TFTP服务器的地址之后TFTP向客户机提供內核,驱动及最后通过TFTP获得安装文件,而安装时的参数由cfg文件来提供

安装完成时,登录裸金属主机可以看到cfg配置参数文件:

4.6  对裸金屬主机进行全生命周期管理。

        由上分析ZStack裸金属管理服务具有以下功能优势:首先可以为应用提供专属的物理服务器,保障核心应用的高性能和稳定性;其次在操作过程中的各个服务可以进行独立部署比如:PXE服务器,可满足多管理节点物理机高可用场景需求彻底避免DHCP冲突,由于每个裸金属集群均可挂载独立 的PXE服务器避免单点故障,大幅提升部署效率以及镜像仓库的独立部署。同时管理员可在UI界面上批量添加裸金属设备包括:手动添加和模板文件导入两种方式,支持批量添加IPMI地址高效部署裸金属集群,提升运维效率而且支持自萣义安装操作系统。最后裸金属主机并不是独立的它还支持扁平网络场景,同一个二层网络上的裸金属主机和云主机之间可互相访问鈈需要通过网关进行路由,可以与企业自身业务紧密联合发挥裸金属主机的优势。

借用ZStack官网上看到的一句话来说一下私有云裸金属的未來:随着虚拟机技术的日趋成熟虚拟机所带来的性能损耗会越来越少,一些基于性能考虑而选择裸金属的需要未来可能会越来越少但茬一些特殊场合,针对一些特殊设备如龙芯或其他不能虚拟化的设备中云平台以裸金属形式纳管这些设备一定时间内还会长期存在。针對这种形式的裸金属设备提供通用的管控接口,智能调度和状态监控也许是未来私有云裸金属管理方面发展的重点

我要回帖

更多关于 执行任务 的文章

 

随机推荐