VTSP vstorage

更新时间:2024-06-29 19:50:01 阅读量: 综合文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

在整个 VMware 虚拟数据中心操作系统中,vStorage 位于基础架构虚拟服务层下方,提供一种在虚拟环境中有效使用和管理存储的方式。该幻灯片介绍了 vStorage 为 VMware 虚拟数据中心操作系统带来的主要优势。

VMware vSphere? 虚拟机文件系统 (VMFS) 是 vSphere 在共享存储中支持的两种文件系统类型之一。VMFS 是专为虚拟机设计的高性能集群文件系统。 除 VMFS 外,vStorage 还能利用网络文件系统 (NFS) 共享存储来托管虚拟机。 VMware 在 vSphere 软件中构建了一个存储接口,可提供大量的存储虚拟化连接选项。这些选项均为相关的网络存储,而内部存储磁盘为本地存储。

vStorage vMotion 技术支持在不中断服务的情况下跨存储阵列实时迁移虚拟机磁盘文件。

vStorage Thin Provisioning 仅在需要时才分配存储,因此能够降低虚拟环境的存储要求。它还能实现跟踪实际存储使用情况所需的报告和警告功能。

VMware vSphere? vStorage API 为第三方存储阵列和软件供应商提供了一组标准化接口,使他们能够将其产品与 VMware vSphere 集成起来。

Storage Distributed Resource Scheduler (Storage DRS) 为启用了 Storage DRS 数据存储的集群中的数据存储提供虚拟磁盘放置与负载平衡建议。Storage DRS 机制可在数据存储超出用户指定的 I/O 延迟或空间利用率阈值时开始执行 Storage vMotion。

它能够跨多台 ESXi 主机管理存储资源并对空间和 I/O 延迟进行负载平衡,还可以在安装新虚拟机时自动对虚拟机磁盘进行初始放置。

VMkernel 中的虚拟机监视器是虚拟机的客户操作系统/应用与 ESXi 主机的物理存储子系统之间的接口。

客户操作系统只能识别一个虚拟磁盘,即通过虚拟 SCSI 控制器呈现给客户机的虚拟磁盘。根据虚拟机配置的不同,可用的虚拟 SCSI 控制器包括 BusLogic Parallel、LSI Logic Parallel、LSI Logic SAS 或 VMware 半虚拟化 SCSI 控制器。

最多可为每个虚拟机配置四个虚拟 SCSI 控制器,而每个控制器最多支持 15 个虚拟 SCSI 磁盘。通过虚拟 SCSI 控制器访问的每个虚拟磁盘均将映射至 ESXi 主机的可用物理数据存储。这类数据存储可格式化为 VMFS 或 NFS 文件系统。 它们可位于本地 SCSI 磁盘或 FC、iSCSI、NAS 阵列中。

在使用 vSphere 基础架构时,必须了解 LUN、卷和数据存储这些术语的含义。下面我们来详细讨论这些术语。

LUN 指的是逻辑单元号。它仅表示由存储管理员在存储阵列中划出的一个逻辑空间。为便于识别这部分空间,存储管理员为每个逻辑卷分配了一个编号。图中共有 10 个 LUN,总容量为 20 GB。术语“LUN”可代表整个物理磁盘,也可以是较大物理磁盘或磁盘卷的一部分。可以利用存储磁盘或阵列的整个空间创建单个 LUN,也可以仅利用其部分空间(即分区)创建单个 LUN。如果虚拟机需要直接识别 LUN,可使用裸磁盘映射 (RDM) 实现这一目的。您将在本单元的后续部分了解 RDM。虽

然“LUN”一词已被广泛接受,但也有一些存储供应商仍采用“LUN”和“MetaLUN”的概念。在本课程中,LUN 指的是由存储呈现的最高级逻辑分组。

LUN 映射到 ESXi 后,即称为卷。卷的大小可以小于或大于物理磁盘驱动器的大小。当 LUN 使用多个物理磁盘或分区上的磁盘空间时,对于 ESXi 仍呈现为一个卷。 当卷被格式化为 VMFS 或 NFS 文件系统后,即称为数据存储。数据存储属于逻辑容器,类似于文件系统,可将各存储设备的特性隐藏起来,并提供一个统一模型来存储虚拟机文件。因此,数据存储是格式化为某种文件系统的卷分区。

为获得最佳性能,不应为 LUN 配置多个分区和多个 VMFS 数据存储。每个 LUN 都只应当具有一个 VMFS 数据存储。

数据存储是为存储虚拟机内容的虚拟磁盘提供的存储空间。

如图所示,虚拟机作为一组文件存储在数据存储中的其专有目录下。根据数据中心中物理存储类型的不同,数据存储会被格式化为 VMFS 或 NFS 卷,您可以像操作文件那样操作数据存储,对其进行备份等操作。在下面的幻灯片中,您将详细了解数据存储的类型。

请注意,VMFS5 最多支持在每个系统上部署 256 个 VMFS 卷,每个卷的最小容量为 1.3 GB,最大为 64 TB。默认情况下,最多支持在每个系统上部署 8 个 NFS 数据存储,

最多可以增加到每系统 64 个 NFS 数据存储。除虚拟机文件外,数据存储还可用于存储 ISO 映像、虚拟机模板和软盘映像。

虚拟机通常驻留在 ESXi 主机创建的文件夹或子目录中。当用户新建虚拟机时,数据存储中会自动创建虚拟机文件。

首先是 .vmx 文件。这是虚拟机配置文件,也是存储在“New Virtual Machine Wizard”(新建虚拟机向导)或虚拟机设置编辑器中所选设置的主要配置文件。 其次是 .vmxf 文件,这是虚拟机的附加配置文件。

第三个是 .vmdk 文件。这是一个 ASCII 文本文件,用于存储虚拟机硬盘驱动器的相关信息。可以存在一个或多个虚拟磁盘文件。

第四个是 -flat.vmdk 文件。这是一个包含虚拟磁盘数据的预分配磁盘文件。 第五个是 .nvram 文件。这是一个存储虚拟机 BIOS 信息的非易失性 RAM。 第六个是 .vmss 文件,这是虚拟机的挂起状况文件,用于存储挂起虚拟机的状态。 第七个是 .vmsd 文件。这是一个存储快照信息和元数据的集中式文件。

第八个是 .vmsn 文件。这是一个存储拍摄快照时虚拟机运行状态的快照状态文件。 第九个是 .vswp 文件,是用于内存分配的虚拟机交换文件。

最后一个是 .log 文件,这是虚拟机日志文件,用于在遇到问题时协助排除故障。此文件存储在保存虚拟机配置文件(.vmx 文件)的目录下。

用于存储的数据存储类型取决于数据中心内物理存储设备的类型。物理存储设备包括本地 SCSI 磁盘,以及 FC SAN 磁盘阵列、iSCSI SAN 磁盘阵列和 NAS 阵列等网络存储设备。

本地 SCSI 磁盘将虚拟机文件存储在通过总线直接连接到 ESXi 主机的内部或外部存储设备。

网络存储将虚拟机文件存储在 ESXi 主机以外的外部共享存储设备或阵列中。ESXi 主机通过高速网络与这些网络设备进行通信。

请注意,您应当将本地磁盘、FC SAN 和 iSCSI SAN 格式化为 VMFS 文件类型以便 ESXi 主机访问它们。NAS 阵列必须格式化为 NFS 文件类型,ESXi 主机才能访问这些阵列。 VMFS 卷是一个集群化文件系统,允许多台主机同时读写同一个存储设备。

该集群文件系统为 vSphere 的重要功能提供支持,如在主机之间实时迁移正在运行的虚拟机。它还支持在另一台主机上自动重新启动故障虚拟机,并跨越不同主机部署虚拟机集群。

VMFS 提供了磁盘分布式锁定系统,可避免多台主机同时启动同一虚拟机。如果一台 ESXi 主机出现故障,则会解除每个虚拟机的磁盘锁定,从而使这些虚拟机可以在其他 ESXi 主机上重新启动。

除锁定功能外,虚拟机还能在 SAN 环境下安全运行,即使有多台 ESXi 主机共享同一 VMFS 数据存储也不受影响。请注意,您最多可以将 128 台主机连接到同一个 VMFS5 卷。 虚拟机的硬盘驱动器实际上是 VMFS 卷中的一个文件。这些文件为 .vmdk 和 .flat-vmdk 文件。虚拟机通过虚拟机中的虚拟 SCSI 控制器来访问硬盘,它对底层存储体系结构则一无所知。

VMFS 可部署在各种基于 SCSI 的存储设备中,如 FC 和 iSCSI SAN 设备。在虚拟机看来,VMFS 中存储的虚拟磁盘始终是一种装载的 SCSI 设备。虚拟磁盘对虚拟机的操作系统隐藏了物理存储层。该功能可在虚拟机中运行未经 SAN 认证的操作系统。对虚拟机内的操作系统而言,VMFS 会保留内部文件系统的语义,从而确保虚拟机中运行的应用具有正确的应用程序行为及数据完整性。

您可以在同一 VMFS 卷上创建或存储多个虚拟机,每个虚拟机都由单独目录中的一组文件定义。

NFS 是一种文件共享协议,用于在 ESXi 主机和 NAS 设备之间建立“客户端-服务器”关系。与块存储不同,NAS 系统本身负责管理物理存储上的文件和目录的布局及结构。ESXi 主机可装载 NFS 卷,并为每个虚拟机创建一个目录。NFS 卷提供共享存储功能来支持 ESXi,其中包括 vMotion、DRS、VMware vSphere High Availability、ISO 映像和虚拟机快照等功能。

NFS 允许运行多个虚拟机的多台 ESXi 主机同时访问卷。

NFS 与 VMFS 数据存储所具备的优势类似。将存储调配到 ESXi 主机后,vCenter 管理员即可随意按需使用该存储。NFS 数据存储的其他优势包括高性能与存储节约,这些都得益于精简配置。在 NFS 上创建的 VMDK 默认采用精简配置格式。内置在 ESXi 中的 NFS 客户端采用 NFS 协议版本 3 与 NAS 或 NFS 服务器进行通信。NFS 默认将精简磁盘配置用作虚拟磁盘。带有 VAAI 硬件加速的 NFS 数据存储支持平面磁盘、厚配置与精简配置。

请注意,NFS 数据存储经常用于在 VMware 基础架构中部署存储。

vSphere Client 中显示有关选定 ESXi 主机的存储适配器、存储设备以及所有可用数据存储的详细信息。“Configuration”(配置)选项卡中的“Storage”(存储)和“Storage Adapters”(存储适配器)链接可显示所选 ESXi 主机的所有可用存储设备。“Storage”(存储)链接可列出 ESXi 主机使用存储适配器访问的本地和网络存储,它还列出了这些存储的数据存储名称。“Storage Adapters”(存储适配器)链接可列出所有可用适配器及其类型,如 FC、SCSI 或 iSCSI 及其 naa ID(如存在)。

在了解数据存储类型之后,您将了解数据存储集群和实施 Storage DRS 的优势。 和主机集群一样,您也可以创建支持资源分配策略的数据存储集群。您可以为数据存储设置一个空间利用率阈值。当使用率超出阈值时,Storage DRS 会建议或执行 Storage vMotion 来平衡集群内数据存储的空间利用率。您也可以设置 I/O 瓶颈阈值。当 I/O 延迟超过设定的阈值时,Storage DRS 会建议或执行 Storage vMotion 来缓解 I/O 拥塞。 不能在已启用 Storage DRS 的同一数据存储集群中组合使用 NFS 和 VMFS 数据存储。这些数据存储可具有不同的大小和 I/O 容量,还可以使用配置数据存储集群的不同供应商提供的不同阵列。

请注意,连接数据存储集群内数据存储的任何主机都必须使用 ESXi 5.0 或更高版本。数据存储集群中不支持早期版本的 ESX 或 ESXi。

除一般的硬盘驱动器外,ESXi 还支持具有弹性恢复能力且数据访问速度更快的 SSD。您将在下面的幻灯片中了解 SSD。

SSD 使用半导体元件存储数据,不存在传统硬盘驱动器使用的转动磁盘组或磁盘。ESXi 主机可以自动辨别 SSD 和常规硬盘驱动器。SSD 具有许多优势。为提高性能,您可以为每个虚拟机交换区域使用 SSD。它具有很高的 I/O 吞吐量,有助于提高虚拟机的整合率。

请注意,客户操作系统可将 SSD 识别为虚拟 SSD。利用虚拟 SSD,用户可在 SSD 设备上创建虚拟磁盘,并允许客户操作系统将其识别为 SSD。

可使用 PSA SATP 声明规则来标记那些无法通过自动检测发现的 SSD 设备。虚拟硬件版本 8、ESXi 5.0 主机或 VMFS5 文件类型或更高版本支持虚拟 SSD。

RDM 为虚拟机提供了一种直接访问物理存储子系统中的 LUN 的机制。RDM 仅对基于块的存储阵列可用。RDM 是单独 VMFS 卷上的映射文件,可用作原始物理存储设备的代理。它允许虚拟机直接访问并使用存储设备,且包含管理和重定向对物理设备的磁盘访问权限所需的元数据。

该映射文件既拥有直接访问物理设备的优势,又具备 VMFS 虚拟磁盘的某些优点。因而,它兼具了 VMFS 的可管理性和裸设备访问的优点。描述 RDM 的术语有很多,如“将裸设备映射到数据存储”、“映射系统 LUN”或“将磁盘文件映射到物理磁盘卷”。 您可以使用 vSphere Client 将原始 LUN 添加到虚拟机。也可以用 vMotion 迁移带有 RDM 的虚拟机,前提是源主机和目标主机都可以访问原始 LUN。RDM 的其他优势包括分布式文件锁定、权限和命名功能。

请注意,VMware 建议将 VMFS 数据存储用于多数虚拟磁盘存储。

RDM 可使用两种兼容模式,即虚拟模式和物理模式。

在虚拟兼容模式下,RDM 对于虚拟机而言完全相当于 VMFS 虚拟磁盘。它提供 VMFS 的优势,如用于数据保护和快照的高级文件锁定系统。但会向虚拟机隐藏存储磁盘的实际硬件特性。

在物理兼容模式下,VMkernel 会将所有 SCSI 命令直接传送到设备,但不包括 Report LUNs 命令。因此,底层存储的所有特性均向虚拟机公开。然而,阻止 Report LUNs 也会使虚拟机无法发现除 RDM 文件映射的设备外的其他任何 SCSI 设备。当虚拟机运行 SAN 管理代理或基于 SCSI 目标的软件时,SCSI 命令功能会非常有用。

请注意,对于物理兼容模式下的 RDM,您无法将该 RDM 转换为虚拟磁盘,也不能执行 Storage vMotion、迁移或克隆等操作。另外,也无法重新定位 RDM,除非定位到 VMFS5 数据存储。在物理兼容模式下,VMFS5 支持磁盘容量大于 2 TB 的 RDM。

在虚拟机中运行 SAN 快照或其他分层应用时,您可能需要使用带有 RDM 的原始 LUN。通过 SAN 固有特性,RDM 可实现可扩展备份卸载系统。

在任何 Microsoft 集群服务 (MSCS) 集群方案中,如果其包含的物理主机跨越虚拟到虚拟集群和物理到虚拟集群,您可能还需要使用 RDM。在此情况下,集群数据和仲裁磁盘应配置为 RDM 而不是共享 VMFS 上的文件。 每个带有 RDM 的虚拟机都需要一个新 LUN。

在讨论 RDM 之后,我们来看一下 FC SAN 组件。通过了解 FC SAN 组件,您将获得在 ESXi 主机上配置 FC SAN 连接的基本知识。 FC SAN 组件分为三类:主机、光纤和存储组件。

SAN 的主机组件包含主机本身,还包括主机总线适配器 (HBA) 组件,用于将主机实际连接到 SAN。HBA 位于各主机服务器内。每台主机均通过其 HBA 与光纤端口连接。主机中运行的 HBA 驱动程序可使服务器操作系统与 HBA 进行通信。

在 FC SAN 环境中,ESXi 主机通过名为光纤组件的专用网络访问磁盘阵列。所有主机都通过 SAN 光纤通道连接 SAN 上的存储设备。SAN 的网络部分由光纤组件构成。 SAN 交换机可连接主机、存储设备和其他交换机。因此,它们可为 SAN 光纤通道提供连接点。SAN 交换机的类型、设计特性及端口功能都将影响其总体容量、性能和容错能力。交换机数量、类型和连接方式可定义光纤拓扑结构。

SAN 电缆通常是连接所有光纤组件的特殊光纤线缆。SAN 电缆类型、光缆信号和交换机许可方式决定 SAN 组件之间的最大距离,并影响 SAN 的整体带宽等级。

光纤组件使用 FC 通信协议进行通信。FC 是供大多数 SAN 使用的存储接口协议。FC 是作为一种协议而开发的,可用于在串行 I/O 总线电缆的两个端口之间高速传输数据。它支持点对点拓扑、仲裁环路拓扑和交换式光纤拓扑。

SAN 的存储组件是指存储阵列。存储阵列包括存储处理器 (SP),它们是存储阵列的前端。SP 与磁盘阵列(包括存储阵列中的所有磁盘)进行通信,并提供独立磁盘冗余阵列 (RAID) 和卷功能。

SP 可直接或通过交换机将前端主机连接到服务器的存储设备。SP 可通过交换机或总线体系结构提供对驱动器的内部访问。在高端存储系统中,通常以环路的方式连接驱动器。SP 所用的后端环路技术具有很多优势,如高速访问驱动器、向环路添加更多驱动器,以及在驱动器具有双端口并连接到两个环路时从多个环路冗余访问单个驱动器。 数据存储在磁盘阵列和/或磁带设备中。

磁盘阵列属于多磁盘设备组,是典型的 SAN 磁盘存储设备。不同磁盘阵列的设计、容量、性能和其他功能特性可能存在明显差异。此外,服务器和磁盘阵列之间的距离也可以大于直接连接 SCSI 环境所允许的距离。磁盘阵列由 OEM 供应商的专有操作系统管理,此类系统具有管理阵列的内置智能。

请注意,交换式光纤拓扑是当前多数 SAN 的基础。iSCSI 也属于 SAN。

iSCSI 允许基于 IP 网络传输块级数据。iSCSI 基于 SCSI 协议构建,这通过在 IP 数据报中封装 SCSI 命令实现。它允许这些封装数据块基于传统以太网或 Internet,通过 TCP/IP 数据包传输到无限远的距离。

iSCSI 采用“客户端-服务器”体系结构。使用 iSCSI 连接,ESXi 主机系统和启动器可按照与本地硬盘通信的方式与远程存储设备和目标进行通信。

启动器通常是托管应用的主机,该应用会定期向相关存储设备请求数据。启动器也称作主机。驻留在主机上的 iSCSI 设备驱动程序亦可称为启动器。

启动器通过发送收发数据的应用程序请求来开始执行 iSCSI 数据传输事务。此类应用程序请求将立即转换为 SCSI 命令,然后封装至 iSCSI 中,在该 iSCSI 内,系统将添加数据包和标头,以便通过 Internet 或传统以太网的 TCP/IP 协议进行传输。

SCSI 启动器有两种类型。它们都将数据存储在远程 iSCSI 存储设备上。第一种是硬件启动器,可通过基于硬件的 iSCSI HBA 访问数据;第二种是软件启动器,需使用 VMkernel 中基于软件的 iSCSI 代码程序访问数据。此类 SCSI 启动器要求使用标准网络适配器进行网络连接。

目标是驻留在网络中的存储设备。目标用于接收网络中的各种启动器或主机发出的 iSCSI 命令。在目标设备中,这些命令将分解为原始 SCSI 格式,从而使块数据可以在启动器和存储设备之间传输。目标通过将 SCSI 命令发送回主机对主机数据请求作出响应。这些命令将通过 iSCSI 再次封装,以便通过以太网或 Internet 进行传输。目标可以是任何类型的存储设备,例如大型 IP SAN 内包含的存储阵列。

NAS 设备与现有网络相连,是一款独立的存储解决方案,可为虚拟网络客户端实现数据备份或额外的存储功能。NAS 和 SAN 之间的主要差异在于它们采用的是不同的通信处理方式。NAS 使用网络共享,通过网络进行通信;而 SAN 主要使用 FC 通信通道。 NAS 设备以文件的形式将数据从存储设备传输到主机。它采用的是单独管理的文件系统。它们还能管理用户身份验证。

您已经了解网络存储方面的知识。现在要了解网络存储相对于本地存储的优势。

SAN 存储可使多台主机访问同一存储空间。该功能意味着所有虚拟机模板和 ISO 映像都位于共享存储中,它有助于执行 vMotion 操作,因为虚拟机数据均位于共享存储内。这样可使虚拟机集群跨越不同的 ESXi 主机。SAN 存储有助于执行计算机备份,并在主机出现故障后快速运行这些计算机。该存储还能最大限度减少或避免停机,以确保不丢失重要数据。SAN 存储允许在不同的 ESXi 主机之间移动虚拟机,以便进行日常维护或解决其他问题 此外,该存储还能提供数据复制技术,用于从主站点到辅助站点的灾难恢复。通过在数据存储之间移动虚拟磁盘并使用 Storage DRS 技术,SAN 存储可改善数据存储的负载平衡和性能。SAN 存储还通过快照技术装载虚拟磁盘,从而提供备份解决方案。最后,SAN 存储还为支持 VMware 集群功能的虚拟机提供强大的冗余特性,如 DRS、vSphere HA 和 VMware Fault Tolerance (FT)。 本地存储可提供极快的数据访问速

度,具体取决于所用的 SCSI 控制器类型。显然,本地存储比 SAN 基础架构更为经济实惠。本地存储最适用于仅有一两台主机的小型环境。尽管与本地连接存储相比,SAN 具有明显优势,但有时侯这些优势在成本面前会显得得不偿失。

那么,到底哪种存储解决方案才是您的首选: 是本地 SCSI 磁盘还是远程共享 LUN? 共享存储比本地存储更昂贵,但支持更多的 vSphere 功能。但对于只有少量 ESXi 主机的小型环境,本地存储也许更加实际。 共享 VMFS 分区提供了很多本地存储不具备的优势。对于任何环境而言,只需使用 vMotion 就能带来很大的优势,例如它能够快速地集中存储虚拟机模板,能够在主机发生故障时将虚拟机恢复到其他主机,还能够向 ESXi 主机分配大量存储(TB 级)等。总之,共享实施可提供真正可扩展、可恢复的 ESXi 解决方案。

如果使用 SAN 共享存储,您不必中断虚拟机或用户操作即可执行 ESXi 维护。选择本地存储或共享存储之后,您的下一个重要决定是选择隔离或整合存储。

隔离存储表示限制单个 LUN 只能访问单个虚拟机。在物理环境中,这一现象非常普遍。使用 RDM 时,这种隔离是必然的,这是因为每个 RDM 卷都只映射到一个虚拟机。这种方法的不足之处在于,如果扩展虚拟环境,很快就会达到 256 个 LUN 的上限。因此,每次要增大虚拟机的存储容量时,您还需要提供额外的磁盘或 LUN。这样会导致管理开销大幅增加。在某些环境中,可能需要提前几天向存储管理团队发送通知,他们才能提供新的磁盘或 LUN。

还应注意的是,每次需要增大虚拟机容量时,提交的最小容量应该是 LUN 的分配大小。尽管很多阵列不限制 LUN 的大小,但存储管理团队应避免划分过多的小型 LUN,因为这种配置会增加阵列的管理难度。 大多数存储管理团队都倾向于分配相对较大的 LUN。他们喜欢让系统管理团队或应用团队在应用体系的较高层次上将这些 LUN 再进一步划分为更小的区块。VMFS 完全适合这种分配方案,这也是 VMFS 在虚拟化存储管理层中表现如此优异的原因之一。

当使用整合存储时,可通过创建存储资源池,并将其与多个 ESXi 主机中运行的多台虚拟机共享,来提高管理工作效率和资源利用率。在多个虚拟机之间划分共享资源,可使虚拟环境的存储资源更具灵活性、更易于调配和管理。通过整合所有存储,您可以使用 vMotion 和 DRS。这是因为当虚拟磁盘位于共享存储并可由多个 ESXi 主机访问时,虚拟机可在出现故障/需要维护/执行负载平衡时在不同 ESXi 主机之间轻松转移。 与严格的隔离存储相比,整合存储通常能提供更高的存储资源利用率。但随之而来的代价是资源争用,在某些环境下,会导致虚拟机的 I/O 性能降低。 请注意,从长期而言,在原始设计方案中纳入整合存储,可以为您节约硬件预算资金。因此,请考虑尽早投资适合您的环境的整合存储计划。

实施存储时,应当选择哪个方案: 隔离存储还是整合存储? 您将在下一张幻灯片中了解这个问题。

在决定选择隔离存储或整合存储之前,请考虑以下问题: - 多少个虚拟机可以共享一个 VMFS 卷? - 这些虚拟机的吞吐量有多大? - 虚拟机是否运行关键任务应用? - 虚拟机的结构是否已扩展?

上述问题的答案可帮助您决定是需要隔离存储还是整合存储。通常情况下,最好将产生大量 I/O 的工作负载与共享存储池隔离。这样有助于优化这些具有高事务吞吐量的应用的性能,对于这种方法的最好描述就是“具有一定隔离程度的整合”。

由于工作负载的差异,在为每个 LUN 分配虚拟机数量时,没有确切的规则来确定性能和可扩展性的限制。这些限制还取决于同时访问指定 VMFS 卷的 ESXi 主机的数量。对用户而言,如果受“每个虚拟机 1 个 LUN”概念的影响过深,关键是要意识到 256 个 LUN 的上限,并要明白这一数值会限制整合率。

多个不同的应用可以轻松且有效地共享一个集群式存储池。综合考虑上述所有因素后,我们得出的最佳实践结论便是混用整合存储和隔离存储。 在实施虚拟环境之前,您必须了解一些常见的存储管理问题。 常见的存储管理问题包括: - 存储管理员调配新 LUN 的频率, - 监视当前数据存储利用率,

- 配置并维护适当的 LUN 掩蔽和区域分配配置, - 适当配置主动/主动或主动/被动阵列的多路径配置

配置数据存储和存储类型时,必须牢记一些要点。对于 VMFS 卷,请确保每个 LUN 都有一个 VMFS 卷,并将该 VMFS 卷划分为多个 VMDK。

通过跨区方式添加容量。在该数据存储上运行的虚拟机需要更多空间时,可以通过新增数据区来动态增加 VMFS 数据存储的容量。数据区是存储设备或 LUN 上的分区。您最多可以为现有 VMFS 数据存储新增 32 个相同存储类型的数据区。跨区 VMFS 数据存储可随时使用其任何数据区,而不必在填满某特定数据区后再使用下一数据区。 将测试和生产环境分别部署在单独的 VMFS 卷上,并为使用物理到虚拟集群或跨机箱集群的虚拟机使用 RDM。

您必须将 iSCSI 和 NAS 分别置于单独的隔离 IP 网络才能获得最佳性能。

请注意,您最多可以为每台 ESXi 主机装载 8 个 NFS,因为这是默认的支持数量,而 NFS 装载的最大数量是 64 个。

另外需要记住的是,ESXi 5.0 不支持 VMFS2 文件系统。因此,您需要先将 VMFS2 升级到 VMFS3,然后才能升级到 VMFS5。

第二章

创建虚拟机时,将为虚拟磁盘文件调配或分配一定量的数据存储空间。

默认情况下,ESXi 提供的是传统的存储调配方法。这种方法可以预估虚拟机在整个生命周期中所需的存储量,并为其虚拟磁盘调配固定大小的存储空间,然后在创建过程中将全部调配空间分配给虚拟磁盘。这种占用整个调配空间的虚拟磁盘类型称为厚配置磁盘格式。

厚配置格式的虚拟磁盘的大小不会改变,并且,从一开始它就占用了为其分配的整个数据存储空间。但是,因为预分配给各虚拟机的大量存储空间可能会处于未使用状态,所以创建厚配置格式的虚拟磁盘会导致数据存储容量利用不足的现象。

为避免过度分配存储空间并最大限度减少闲置存储,vSphere 以精简配置的形式支持超额分配存储。精简配置磁盘时,虚拟机会认为自己可以访问大量存储,但实际占用的物理空间要小很多。

就逻辑大小而言,精简配置格式的磁盘与厚配置格式的磁盘相同,但 VMware vSphere? 虚拟机文件系统 (VMFS) 驱动程序在物理大小方面对这两种磁盘采用不同的管理方式。VMFS 驱动程序会在首次写入精简配置磁盘时为其分配物理空间,并在客户操作系统需要空间时按需扩展磁盘。利用这一功能,vCenter Server 管理员为数据存储磁盘分配的调配空间总量可以大于实际容量。

如果 VMFS 卷已满,并且精简配置磁盘本身需要分配更多的空间,虚拟机会提示 vCenter Server 管理员在底层 VMFS 数据存储上提供更多空间。

此外,vSphere 还提供专门跟踪当前存储容量的使用情况与分配情况的警报和报告,以便 vCenter Server 管理员以最佳方式为虚拟环境分配存储。

可以在创建虚拟机、克隆模板和虚拟机以及迁移虚拟机时为其分配精简磁盘格式。对数据存储或主机与数据存储执行迁移任务时,磁盘会从精简格式转换为厚配置格式,或是从厚配置格式转换为精简格式。如果您选择将磁盘留在原始位置,磁盘格式将不会改变。仅 VMFS3 及更高版本才支持精简配置。

VMware vSphere? 存储 API - 通过阵列集成,您可以监视精简配置 LUN 的空间使用情况,避免物理空间耗尽。当您的数据存储增长时,或如果您使用 VMware vSphere? vMotion? 将虚拟机迁移到精简配置 LUN,主机会与 LUN 进行通信,并向您发出有关超出物理空间和空间不足状况的警告。在 vSphere Storage vMotion 从数据存储中删除或移除文件和裸磁盘映射 (RDM) 时,主机还会向阵列发出有关已创建的空闲数据存储空间的通知。之后,该阵列可以回收释放的空间块。

当 VMFS 数据存储上运行的虚拟机需要更多空间时,可以使用添加数据区的方法来动态增加数据存储的容量。通过这种方法,您可以将可用硬盘空间作为数据区附加在数据存储上,从而扩展 VMFS 数据存储。该数据存储可跨越 32 个物理存储数据区,最大容量为 64 TB。

现在讨论卷增长方法。

通过使用特定的存储阵列,您可以动态增加阵列中 LUN 的大小。增大 LUN 之后,可使用 VMFS 卷增长方法将 VMFS 数据存储增大至 64 TB 上限。

卷增长方法的另一个用途是,如果原始 LUN 的大小超过所创建的 VMFS 卷,您可以通过增大 VMFS 卷来使用 LUN 的额外容量。 请注意,目前不支持 RDM 的卷增长。

该表列出了卷增长和数据区增长的适用标准。两种方法均无需关闭虚拟机。它们都能用于具有扩展 LUN 的现有阵列。

此外,您还可以多次增长卷,最大限制为 64 TB。一个数据存储最多可以有 32 个数据区,但最大不能超过 64 TB。卷增长过程中不添加新的分区,但在执行数据区增长时会新增分区。该新增分区依赖于第一个数据区。因此,如果第一个数据区出现故障,虚拟

机就无法访问整个卷。使用卷增长方法时,只要数据存储中有一个数据区,虚拟机的可用性就不会受到影响。

对用户来说,了解虚拟机的空间占用情况、快照的存放位置及快照消耗的空间是非常重要的。

借助 vStorage,vCenter Server 管理员可以添加警报,当达到设定条件时就会发送通知,从而控制环境空间的利用率。此外,vStorage 还能提供利用率报告和图表。您可以根据组织策略将虚拟机置于特定的数据存储或虚拟机主目录内。

vCenter Server 管理员可以设置警报,当达到一定阈值时系统就会发送通知,从而对空间利用率进行监视。他们还可以分析报告和图表,它们以图形方式显示各种设备和实体的统计信息数据,提供关于利用率的实时数据。

警报是针对对象事件或条件设置的通知。例如,vCenter Server 管理员可针对磁盘使用百分比配置警报,以便在数据存储使用的磁盘空间容量达到特定水平时接到通知。管理

员还可以设置以下警报触发条件:虚拟机关闭时、虚拟机所使用的配置 RAM 超过设定容量时或者主机的 CPU 使用率达到一定百分比时。

vSphere 管理员可以为清单中的所有受管对象设置警报。在集群等父实体上设置警报时,所有子实体都将继承该警报。警报不能在子级别进行更改或替代。

警报包含触发器和操作。触发器是警报触发时必须满足的一组条件。操作是为响应触发器而执行的操作。

默认警报定义了触发器,但未定义操作。vCenter Server 管理员必须手动配置警报操作,如发送电子邮件通知。

触发器和操作涉及以下三个问题。第一,环境允许的阈值是多少? 第二,应何时发送通知? 最后,应采取什么操作来响应警报?

Storage Views”(存储视图)选项卡包含在名为“Storage Management Service\的 vCenter 管理 Web 服务中。用户可通过该服务深入了解存储基础架构,特别是存储连接性和容量使用率信息。它能协助 vCenter Server 管理员快速查看信息以了解相关问题,如用于快照的数据存储空间用量,以及是否存在虚拟机存储的冗余路径。

用于计算此选项卡上显示信息的全部数据均来自 vCenter Server 数据库。Storage Management Service 可定期直接调用数据库并计算信息,然后将其存储在内存缓存中。 右上角的显示区域会显示上次更新报告的时间。“Update”(更新)链接用于在需要时手动更新报告。

“Storage Views”(存储视图)选项卡包含两个视图页面:即 “Reports”(报告)和“Maps”(图)。

在“Storage Views”(存储视图)选项卡的“Reports”(报告)页面上,您可以查看存储实体和其他 vSphere 实体之间的关系。例如,您可以查看数据存储与虚拟机或主机之间的关系。也可以查看虚拟机与 SCSI 卷、路径、适配器或目标之间的关系。所有报告均可搜索,并包含可以深入查看特定实体详细信息的链接。

“Maps”(图)页面提供显示实体间关系的图形拓扑。在查看虚拟机与其存储之间具有多少路径及查看虚拟机可以看到的目标时,图非常有用。它还可以显示存在问题的实体,有助于进行故障排除。

您可以使用控件自定义要在图中显示的实体,并按照需要进行缩放。

性能图表以图形方式显示由 vCenter Server 管理的各种设备和实体的统计信息数据。这些图表显示包括 CPU、磁盘、内存和网络使用情况在内的各种衡量指标数据。 VMware 提供了多种针对数据中心、主机、集群、数据存储、资源池和虚拟机的预配置图表。每个清单对象衡量指标都显示在一个单独的图表中,并且仅适用于该对象。例如,主机的衡量指标与虚拟机的衡量指标就存在差异。

在下面的部分中,您将了解 vCenter Server 管理员如何确保为 VMware 虚拟数据中心提供必需且足够的存储。

对 vStorage 管理员的主要要求是确保关键任务虚拟机得到足够带宽、避免存储 I/O 瓶颈、获得可预测的虚拟机存储吞吐量和延迟,并确保关键任务虚拟机随时拥有可用存储。 vStorage 提供了一系列功能特性以满足这些要求:提供本机多路径插件,可避免出现 I/O 瓶颈;提供可插拔存储体系结构,该体系结构支持第三方软件开发人员自行设计负载平衡技术;提供存储 IO 控制 (SIOC) 以区分特定虚拟机的 I/O 优先级。

为了保持 ESXi 主机与其存储之间的持续连接,ESXi 提供了多路径支持。

多路径技术可使用多个物理路径在 ESXi 主机和外部存储设备之间传输数据。如果 SAN 网络中的 HBA、交换机或电缆之类的任一元素发生故障,ESXi 都可以故障切换到其他物理路径。

除了路径故障切换外,多路径技术还提供负载平衡功能,可在多个路径之间重新分配 I/O 负载,以减少或消除潜在的瓶颈。

为了支持光纤通道 (FC) SAN 中的路径切换,ESXi 主机通常具有两个或更多可用的 HBA,使用一个或多个交换机即可从这些 HBA 访问存储阵列。或者,设置中应包括一个 HBA 和两个存储处理器 (SP),这样 HBA 便可以使用不同的路径访问磁盘阵列。

如图所示,多条路径将每台 ESXi 主机与 FC 存储类型的存储设备相连。在 FC 多路径中,如果 HBA1 或 HBA1 与 FC 交换机之间的链路出现故障,HBA2 将接管并提供服务器和交换机之间的连接。一个 HBA 取代另一个 HBA 的过程被称为 HBA 故障切换。与之类似,如果 SP1 发生故障或 SP1 与交换机之间的链路中断,SP2 将接管并提供交换机和存储设备之间的连接。此过程称为 SP 故障切换。 ESXi 的多路径功能支持 HBA 与 SP 故障切换。

通过 Internet 小型计算机系统接口 (iSCSI) 存储,ESXi 可充分利用 IP 网络中内建的多路径支持。该支持允许网络执行路由操作,如图所示。

通过动态发现过程,iSCSI 启动器可获得目标地址列表,启动器可使用这些地址作为通往 iSCSI LUN 的多条路径,从而实现故障切换目的。此外,借助软件启动的 iSCSI,vSphere 管理员可以使用网卡 (NIC) 绑定,以通过 VMkernel 的网络层执行多路径操作。

为管理存储多路径,ESXi 采用了特殊的 VMkernel 层,即可插拔存储体系结构 (PSA)。PSA 是一个开放式模块化框架,可协调多个多路径插件 (MPP) 同时执行操作。 PSA 框架支持安装第三方插件来替换或补充 vStorage 本机组件。这些插件由软件或存储硬件供应商开发,并与 PSA 集成在一起。它们可以改善路径管理的一些重要方面,并为 ESXi 目前不支持的新路径选择策略和新阵列提供支持。第三方插件可分为三类:第三方 SATP、第三方 PSP 和第三方 MPP。

第三方 SATP 通常由具有存储设备专业知识的第三方硬件制造商开发。这些插件已经过优化,可适应存储阵列的特定特性并支持新的阵列类型。当阵列行为与现有 PSA SATP 的行为不匹配时,需要安装第三方 SATP。安装后,第三方 SATP 均由 NMP 进行协调。它们可与 VMware SATP 同时使用。

另一种第三方插件为第三方 PSP,可提供更为复杂的 I/O 负载平衡算法。通常情况下,这些插件由第三方软件公司开发,可帮助您提高多个路径的吞吐量 。安装后,第三方 PSP 均由 NMP 进行协调。它们可与 VMware PSP 一同运行并同时使用。

第三种是第三方 MPP,可提供全新的容错功能及性能行为。它们可与 VMware NMP 并行运行。对于某些特定阵列,它们可替代 NMP 的行为,控制路径故障切换和负载平衡操作。

主机启动或执行重新扫描时,PSA 会发现所有可供主机使用的指向存储设备的物理路径。根据 /etc/VMware/esx.conf 文件中定义的一组声明规则,PSA 可确定哪个多路径模块应当声明连接特定设备的路径并负责管理该设备。

对于由 NMP 模块管理的路径,则会应用另一组规则来选择 SATP 和 PSP。NMP 使用这些规则分配适当的 SATP 来监视物理路径,并将默认 PSP 与这些路径相关联。 ESXi 默认提供 VMware 本机多路径插件 (NMP)。NMP 是一种管理子插件的可扩展模块。有两种类型的 NMP 子插件,它们分别是存储阵列类型插件 (SATP) 和路径选择插件 (PSP)。VMware 可提供内置的 SATP 和 PSP。第三方供应商也可提供这两种插件。 当虚拟机向 NMP 管理的存储设备发出 I/O 请求时,NMP 将调用分配给此存储设备的 PSP。之后,PSP 为要发送的 I/O 选择适当的物理路径。NMP 会报告操作成功或失败。如果 I/O 操作成功,NMP 将报告操作完成。但如果 I/O 操作报告错误,NMP 则会调用相应的 SATP。SATP 会解释错误代码,并在适当的时候激活非活动路径。随后将调用 PSP 以选择新路径来发送 I/O。

现在,您将了解“Storage Configuration”(存储配置)选项卡的“Devices”(设备)页面。该页面可用于查看所有存储设备的详细信息。

为确保存储设备名称每次重新引导时都能保持一致,ESXi 在用户界面和 CLI 命令行输出中使用唯一的 LUN 标识符来命名存储设备。多数情况下使用的是网络地址授权 ID (NAA)。

“Runtime Name”(运行时名称)由主机创建,用于显示指向设备的第一条路径的名称。与通用唯一标识符 (UUID) 不同,运行时名称并不是设备的可靠标识符,它们并不是持久名称。

运行时设备的名称格式为 vmhba#:C#:T#:L#。

运行时名称中的 vmhba# 部分表示存储适配器的名称。此名称指的是主机上的物理适配器,而不是虚拟机使用的 SCSI 控制器。 C# 是存储通道号。

T# 是目标编号。主机决定目标的编号方式,如果目标映射对主机可见,则编号方式可能会发生变化。由不同主机共享的目标的目标编号可能不同。

L# 表示目标中 LUN 位置的 LUN 标识符。LUN 标识符由存储系统提供。如果目标只有一个 LUN,则 LUN 标识符始终为零。

例如,vmhba1:C0:T0:L1 表示通过存储适配器 vmhba1 和通道 0 访问的目标 0 上的 LUN1。

“Devices”(设备)页面中还包含一个“Owner”(所有者)列,您可以在此列中查看管理该设备的 PSA 多路径模块。单击“Devices”(设备)页面中的“Manage Paths”(管理路径)链接,可查看并管理选定设备的路径详细信息。

这是一个“Manage Paths”(管理路径)对话框示例。其中显示了每个多路径目标的存储阵列类型和状态。“Active”(活动)状态表示路径处于工作状态,是正在用于传输数据的当前路径。“Standby”(待机)状态表示该路径是“主动-被动”阵列中的有效路径,但是当前未用于传输数据。该状态还可显示为“Disabled”(禁用)或“Dead”(无效),具体取决于路径是处于禁用还是无效状态。

在“Manage Paths”(管理路径)对话框中,您可以根据当前使用的多路径插件选择路径选择策略。此示例中使用的是 NMP,因此您可以选择“Most Recently Used”(最近使用)、“Round Robin”(循环)和“Fixed”(固定)选项。选择“Most Recently Used”(最近使用)路径选项时,ESXi 主机会使用最近用过的磁盘路径,直到此路径不可用为

止。也就是说,ESXi 主机不会自动恢复到首选路径。“Most Recently Used”(最近使用)路径选项是“主动‐被动”存储设备的默认策略,该类设备必须选择此选项。 选择“Round Robin”(循环)路径选项时,ESXi 主机会使用自动路径选择方法,轮流选择所有可用路径。除路径故障切换外,“Round Robin”(循环)路径选项还支持跨路径负载平衡。

选择“Fixed”(固定)路径选项时,ESXi 主机会在磁盘首选路径可用时始终使用该路径。如果无法通过首选路径访问磁盘,主机会尝试使用替代路径。“Fixed”(固定)路径选项是“主动‐主动”存储设备的默认策略。

存储 I/O 控制可为访问共享存储池的 ESXi 服务器集群上运行的虚拟机提供 I/O 优先级。此功能可扩展 CPU 和内存现有的常见份额结构和限制,通过跨 ESXi 服务器集群来动态分配 I/O 队列插槽,从而解决存储利用率问题。

如果超出了某个基于块的存储设备的特定延迟阈值,SIOC 将跨 ESXi 服务器集合来平衡可用的队列插槽,然后根据特定工作负载的重要性来分配可用吞吐量。SIOC 还能减少提供给低份额虚拟机的 I/O 队列插槽,以便为高份额虚拟机提供更多的 I/O 队列插槽。

SIOC 可减缓特定虚拟机的 I/O 活动,以便为其他虚拟机分配更为公平的 I/O 吞吐量及提供更高的服务级别。在图示中,与重要性较低的数据挖掘虚拟机相比,执行关键业务(网上商店和 MS Exchange)的两个虚拟机获得了更多的 I/O 插槽。SIOC 在 vSphere 5.0 中有所增强,现已包含 NFS 数据存储支持。

SIOC 受 FC、iSCSI 和 NFS 存储支持,但它不支持 RDM 或带有多个数据区的数据存储。

默认情况下,vSphere 5.0 在基于 Storage DRS 的数据存储集群上启用 SIOC。

在幻灯片左侧,您可以看到两个重要虚拟机:即在线商店和 Microsoft Exchange。这些虚拟机需要更高的数据存储访问优先级。在未启用存储 I/O 控制时,这两个虚拟机可能无法得到所需的访问优先级。但数据挖掘和打印服务器等其他虚拟机消耗的存储 I/O 资源可能会超过它们的真正需求量。

在幻灯片右侧,您可以看到,在启用存储 I/O 控制后,存储 I/O 资源可优先分配给需要更高数据存储访问优先级的虚拟机。

通过 SIOC,您可以配置规则和策略来指定每个虚拟机的业务优先级。当检测到 I/O 拥塞时,SIOC 会根据您的规则将可用的 I/O 资源动态分配给虚拟机。这样可改善关键应用的服务级别,并虚拟化各种类型的工作负载,包括 I/O 密集型关键业务应用。SIOC 还能通过减少所需的主动性能管理量来提高管理员的工作效率。此外,通过减少对单个应用的专用存储卷的需求,还能提高基础架构的灵活性和敏捷性。

VAAI 是 ESXi、存储阵列和 VMkernel 新型应用程序编程接口之间的一组协议接口。VAAI 有助于存储供应商提供硬件支持,以加速在存储硬件中执行效率更高的 VMware I/O 操作。VAAI 插件可改善数据传输性能,并且对终端用户透明。

VAAI 插件由 ESXi 用于向存储阵列发送少量基元或基本操作。这些操作用于执行例如克隆和快照等存储功能,它们在存储阵列上的执行效率要高于主机上的执行效率。因此,ESXi 可使用 VAAI 来改善其存储服务。

VAAI 的三个基础性基元分别是原子测试和设置 (ATS)、克隆块/完全复制 (XCOPY) 和块清零/同时写入。

在 vSphere 5.0 中,所有基元都符合 T10 要求并与 ESXi 体系集成。请注意,尽管这三个基元都受到 vSphere 4.1 支持,但只有同时写入(块清零)基元符合 T10 要求。符合 T10 要求的基元表示,符合 T10 要求的阵列可通过默认 VAAI 插件即时使用这些基元。另外,ATS 基元已在 vSphere 5.0 或 VMFS5 中进行扩展,包含了更多的操作,如获取、清除、标记和回收心跳信号。这样有助于改善性能。

在之前版本的 VAAI 中,ATS 用于在没有资源争用时锁定资源。但在出现争用时,就会使用 SCSI 预留。而在 vSphere 5 中,ATS 还用于存在争用的情况。

VAAI 的新基元可归为两类,即面向网络连接存储 (NAS) 的硬件加速和面向精简配置的硬件加速。

通过存储硬件加速功能,您的主机可以将特定的虚拟机和存储管理操作负载卸载到兼容的存储硬件上。借助存储硬件,您的主机可更快地执行这些操作,而且所需要的 CPU、内存和存储光纤带宽更少。

为了实施硬件加速功能,PSA 会结合使用 VAAI 插件和 VAAI 过滤器,其中,VAAI 插件是一种特殊的阵列集成插件,而 VAAI 过滤器是一种阵列集成过滤器,即用于阵列集成的 vStorage API。PSA 会自动将 VAAI 过滤器和供应商特定的 VAAI 插件连接到支持硬件加速的存储设备,如块存储设备,以及 FC、iSCSI 和 NAS 设备。

您的主机默认已启用硬件加速功能。要在存储端启用硬件加速功能,您必须与您的存储供应商联系。某些存储阵列要求在存储端明确激活硬件加速支持。

当主机上支持硬件加速功能后,它便可借助硬件更快速、更高效地执行各种操作。这些操作包括:通过 Storage vMotion 迁移虚拟机、用模板部署虚拟机、克隆虚拟机或模板、对虚拟机文件进行 VMFS 集群锁定和元数据操作、写入精简配置和厚配置虚拟磁盘、创建容错虚拟机,以及在 NFS 数据存储上创建和克隆厚配置磁盘。

NAS 硬件加速是一组 API,可使 NAS 阵列与 vSphere 集成,并将特定的存储操作负载透明地卸载到阵列。该集成可显著降低主机的 CPU 开销。VAAI NAS 按插件部署,不随 ESXi 5.0 一起提供。此插件由存储供应商开发并分发,但具有 VMware 认证计划的签名。需具备支持 VAAI 的阵列或设备固件才能使用 VAAI NAS 功能特性。

用于 NAS 的 VAAI 新基元提供了预留空间和完整文件克隆操作。

预留空间操作可使存储阵列为厚配置格式的虚拟磁盘文件分配空间。在 NFS 数据存储上创建虚拟磁盘时,NAS 服务器会决定分配策略。多数 NAS 服务器的默认分配策略不能保证将存储备份到文件。但预留空间操作可以指示 NAS 设备使用供应商的特定机制,为具有非零逻辑大小的虚拟磁盘预留空间。

完整文件克隆操作可对脱机虚拟磁盘文件进行硬件辅助克隆。此操作与 VMFS 块克隆类似,支持过滤器克隆脱机 VMDK 文件。当您用模板执行克隆或在两个不同的数据存储之间进行冷迁移时,就会执行脱机克隆。请注意,基于 NAS 的 Storage vMotion 热迁移未经过硬件加速。

通过扩展的文件统计信息,存储阵列可以准确报告虚拟机的空间利用率。

在 vSphere 4.1 VAAI Phase-1 中,ESXi 会在 NAS 基元发生故障时恢复使用软件方法,如 DataMover 方法,或采取故障操作。不存在等效的 ATS 基元,因为 NAS 数据存储上的锁定操作采用了完全不同的方式。

View 将使用专用 VMODL API 调用来创建本地快照。目前尚不确定 VMFS5 是否支持本地快照特性。请注意,基于 NAS 的 Storage vMotion 热迁移未经过硬件加速。 现在,您将了解 VAAI 新基元的第二个类别:面向精简配置的 VAAI 基元。

面向精简配置的硬件加速是一组 API,可协助监视精简配置存储阵列的磁盘空间使用情况。通过监视该使用情况,有助于避免磁盘空间耗尽的情况,还能帮助回收磁盘空间。VAAI 精简配置扩展无需执行安装步骤。

VAAI 精简配置支持所有新型/现有 VMFS3 和 VMFS5 卷。但需具备支持 VAAI 的设备固件才能使用 VAAI 精简配置功能特性。ESXi 会持续查找与 VAAI 兼容的固件。升级固件后,ESXi 将开始使用 VAAI 精简配置功能特性。

该精简配置增强功能可提高精简配置特性的易用性,并降低存储管理的复杂性。 使用精简配置会产生两个问题。第一个问题是,随着文件在数据存储中的添加和移除,将累积越来越多的无效空间。但阵列并未得到相应的通知,仍然将这部分空间视为占用状态。这也抵消了精简配置的优势。该问题在虚拟化环境中很常见,因为 Storage vMotion 的作用是将虚拟机迁移到不同的数据存储。第二个问题是存储过量预订可导致空间耗尽。对于所有在逻辑单元号 (LUN) 上运行的虚拟机来说,空间耗尽都无异于一场灾难。

VAAI 精简配置可以解决无效空间和空间耗尽问题。VAAI 精简配置支持一项名为“回收无效空间”的功能。在 Storage vMotion 从数据存储中删除或移除文件时,该功能会向阵列发出有关已释放的数据存储空间的通知。之后,该阵列可以回收空闲的空间块。VAAI 精简配置还支持一项名为“监视空间使用情况”的功能。该功能可监视精简配置 LUN 的空间使用情况,并帮助管理员避免物理磁盘空间耗尽的情况。vSphere 5.0 中还包含新的高级警告,用于监视精简配置 LUN 的空间耗尽的情况。现在,您将了解 vSphere 5.0 中新增的 VASA 功能。

VASA 提供程序使用用于存储感知的 vStorage API (VASA) 向 vCenter Server 提供存储阵列的相关信息。vCenter Server 实例通过名为 VASA 提供程序的插件从存储阵列获取信息。存储阵列会向 VASA 提供程序发出有关其配置、功能、存储运行状况和事件的通知。VASA 提供程序则通知给 vCenter Server。该信息随后可显示在 vSphere Client 中。

在使用 VASA 提供程序组件时,vCenter Server 可与块存储和 NFS 外部存储集成。这样有助于获取完整有用的资源和存储数据信息,还能帮助您选择具有合适空间、性能和服务级别协议 (SLA) 的存储。 现在,您将了解配置文件驱动的存储。

通过配置文件驱动的存储,您可以更好地控制您的存储资源,并使虚拟机存储调配独立于环境中可用的特定存储。您可以根据存储特性定义虚拟机放置规则,并根据用户定义的规则监视虚拟机的存储放置情况。

配置文件驱动的存储使用 VASA 交付存储供应商提供的存储特性。VASA 可通过 vCenter Server 改善对物理存储基础架构的可见性,还可使 vSphere 管理员根据客户特定的描述标记存储。借助该新型 API,VASA 阵列可以向 vSphere Server 提供存储体系结构的详细信息。VASA 并不是仅关注具有一定容量的块设备或文件设备,而是允许 vCenter 了解 EMC 和 NetApp 等存储阵列供应商提供的复制、RAID、压缩、重复数据删除等其他系统功能。利用这些新信息,VMware 管理员可以创建映射到卷的存储配置文件。之后,可以通过策略(而不只是空间可用性)为虚拟机分配存储。存储特性用于创建存储配置文件形式的虚拟机放置规则。配置文件驱动的存储还提供了一种简便方法,可查看虚拟机是否符合规则要求。

您将在后面的幻灯片中深入了解 Storage vMotion 及其用途、要求、限制和功能。 现在,您将了解 Storage vMotion。

使用 Storage vMotion,您可以在虚拟机运行时将虚拟机及其文件从一个数据存储迁移到另一个数据存储。虚拟机仍位于同一主机上,而虚拟机文件则被单独移到另一个数据

存储位置。您可以选择将虚拟机及其所有文件放置在同一位置,也可以为虚拟机配置文件和每个虚拟磁盘分别选择不同的位置。

您可以将虚拟机从一种物理存储类型迁移到另一种存储类型,例如从光纤通道迁移到 iSCSI。Storage vMotion 支持 FC、iSCSI 和 NAS 网络存储。

Storage vMotion 迁移过程不会干扰虚拟机,亦不会导致停机,该迁移对虚拟机中运行的客户操作系统和应用完全透明。

Storage vMotion 已在 vSphere 5.0 中强化,支持迁移包含快照的虚拟机磁盘。 Storage vMotion 可用于执行多种虚拟数据中心管理任务。例如,在升级 VMFS 数据存储版本的过程中,vCenter Server 管理员可将正在运行的虚拟机从 VMFS3 数据存储迁移到 VMFS5 数据存储,然后升级 VMFS3 数据存储,而不会对虚拟机造成任何影响。然后管理员可以使用 Storage vMotion 将虚拟机迁移回原数据存储,而不会造成虚拟机停机。

此外,在执行存储维护、重新配置或淘汰时,vCenter Server 管理员无需使虚拟机停机便可以使用 Storage vMotion 将虚拟机从存储设备中移出,从而对存储设备进行维护、重新配置或淘汰。

另一个用途是重新分配存储负载。vCenter Server 管理员可使用 Storage vMotion 将虚拟机或虚拟磁盘重新分配给不同的存储卷,以平衡容量和提高性能。

最后,为满足 SLA 要求,vCenter Server 管理员可以将虚拟机迁移到具有不同服务级别的分层存储中,以满足这些虚拟机不断变化的业务要求。

为确保用 Storage vMotion 成功迁移虚拟机磁盘,虚拟机及其主机必须满足资源和配置要求。Storage vMotion 存在特定的要求和限制。

虚拟机磁盘必须处于持久模式或 RDM 模式。对于虚拟兼容模式的 RDM,只要迁移目标不是 NFS 数据存储,您就可以迁移映射文件或在迁移期间将其转换为厚配置磁盘或精简配置磁盘。如果转换映射文件,则会创建一个新的虚拟磁盘,并将已映射的 LUN 内容复制到该磁盘。对于物理兼容模式的 RDM,只能迁移映射文件。

另一个限制是不支持在 VMware Tools 安装期间迁移虚拟机。此外,运行虚拟机的主机必须拥有包含 Storage vMotion 的许可证。必须为 ESX 和 ESXi 3.5 主机获取 vMotion 许可证并进行相应配置。如果使用 ESX 和 ESXi 4.0 及更高版本的主机,则无需配置 vMotion 便可使用 Storage vMotion 执行迁移。

运行虚拟机的主机必须能够访问源数据存储和目标数据存储。最后,使用 Storage vMotion 同时执行的迁移数量是有限制的。

在 vSphere 5.0 中,Storage vMotion 使用新的镜像体系结构,即使在目标存储速度较低时也能确保迁移成功,还能提高迁移的可预测性与速度。 镜像模式的工作方式如下。

将虚拟机目录从源数据存储复制到目标数据存储。镜像模式驱动程序通过单次传递将虚拟磁盘文件从源复制到目标位置。镜像模式驱动程序对复制到目标磁盘的块进行跟踪。如果已复制到目标位置的源的磁盘块上发生了写入操作,镜像模式驱动程序会将修改后的块复制到目标位置。使用复制的文件启动目标数据存储上的虚拟机。目标虚拟机等待所有虚拟机磁盘文件从源数据存储复制到目标数据存储。单次传递复制完成后,Storage vMotion 将控制权转交给目标数据存储上的虚拟机。最后从源数据存储中删除虚拟机目录和虚拟机磁盘文件。

vSphere 5.0 推出了一项新的存储功能,即 Storage DRS。该功能可帮助您将多个数据存储作为单个计算资源(称为数据中心集群)加以管理。数据存储集群是一组组合在一起的数据存储,但每个数据存储都单独运行。该集群相当于一个容器或文件夹,用户可在其中存放数据存储。

Storage DRS 为启用该功能的数据存储集群收集资源使用情况信息,然后建议虚拟机或 VMDK 的初始放置和迁移方式,以避免集群中的数据存储出现 I/O 和空间利用率瓶颈。

可配置 Storage DRS 以手动模式或全自动模式运行。手动模式提供有关虚拟机放置或迁移的建议。当您应用 Storage DRS 建议时,vCenter Server 会使用 Storage vMotion 将

虚拟机磁盘迁移到数据存储集群内的其他数据存储以平衡资源。在全自动模式中,Storage DRS 会根据运行时规则自动处理初始放置和迁移。

Storage DRS 还包含关联性或反关联性规则,用于管理虚拟磁盘位置。

本文来源:https://www.bwwdw.com/article/ka63.html

Top