搜索

2.6. 存储

download PDF

2.6.1. 关于 Red Hat Virtualization 存储

Red Hat Virtualization 将集中式存储系统用于虚拟磁盘、ISO 文件和快照。可使用以下方法实现存储网络:

  • 网络文件系统 (NFS)
  • 其他 POSIX 兼容文件系统
  • Internet Small Computer System Interface (iSCSI)
  • 直接连接到虚拟化主机的本地存储
  • 光纤通道协议 (FCP)
  • 并行 NFS(pNFS)

设置存储是新数据中心的先决条件,因为除非附加并激活存储域,否则无法初始化数据中心。

作为 Red Hat Virtualization 系统管理员,您可以为虚拟化企业创建、配置、附加和维护存储。您必须熟悉存储类型及其使用。请阅读您的存储阵列指南,并查看 Red Hat Enterprise Linux 管理存储设备 以了解有关概念、协议、要求和常规存储使用的更多信息。

要添加存储域,您必须能够成功访问管理门户,且至少有一个主机已连接状态为 Up

Red Hat Virtualization 有三种存储域类型:

  • 数据域: 一个数据域在数据中心中保存所有虚拟机和模板的虚拟硬盘和 OVF 文件。另外,虚拟机的快照也存储在数据域中。

    数据域无法在数据中心之间共享。可向同一数据中心添加多个类型的数据域(iSCSI、NFS、FC、POSIX 和 Gluster),它们都是共享的,而不是本地域。

    您必须将数据域附加到数据中心,然后才能将其他类型的域附加到数据中心。

  • ISO 域: ISO 域存储用于为虚拟机安装和引导操作系统和应用程序的 ISO 文件(或逻辑 CD)。ISO 域删除数据中心对物理介质的需求。ISO 域可以在不同的数据中心之间共享。ISO 域只能基于 NFS。只能将一个 ISO 域添加到数据中心。
  • 导出域: 导出域是用于在数据中心和 Red Hat Virtualization 环境之间复制和移动镜像的临时存储存储库。导出域可用于备份虚拟机。导出域可以在数据中心之间移动,但一次只能在一个数据中心内处于活动状态。导出域只能基于 NFS。只能将一个导出域添加到数据中心。

    注意

    导出存储域已弃用。存储数据域可以从数据中心取消附加,并导入到同一环境中或不同环境中的其他数据中心。然后,可以将虚拟机、浮动虚拟磁盘和模板从导入的存储域上传到所连接的数据中心。有关 导入存储域的信息,请参阅导入现有存储域。

重要

您确定数据中心的存储需求后,只在为 Red Hat Virtualization 环境配置并附加存储。

2.6.2. 了解存储域

存储域是一组具有通用存储接口的镜像集合。存储域包含模板和虚拟机(包括快照)或 ISO 文件的完整映像。存储域可以由块设备(SAN - iSCSI 或 FCP)或文件系统(NAS - NFS、GlusterFS 或其他 POSIX 兼容文件系统)组成。

默认情况下,GlusterFS 域和本地存储域支持 4K 块大小。4k 块大小可以提供更好的性能,特别是在使用大型文件时,在使用需要 4K 兼容性的工具时(如 VDO)也需要这样做。

注意

GlusterFS 存储已弃用,并将在以后的发行版本中删除。

在 NFS 上,所有虚拟磁盘、模板和快照都是文件。

在 SAN (iSCSI/FCP)上,每个虚拟磁盘、模板或快照都是逻辑卷。块设备聚合到名为卷组的逻辑实体中,然后由 LVM (逻辑卷管理器)划分为逻辑卷,用作虚拟硬盘。有关 LVM 的详情,请参阅 Red Hat Enterprise Linux 配置和管理逻辑卷

虚拟磁盘可以采用两种格式之一,即 QCOW2 或 raw。存储的类型可以是稀疏或预分配。快照始终是稀疏的,但可以为任何格式的磁盘获取快照。

共享相同存储域的虚拟机可以在属于同一集群的主机之间迁移。

2.6.3. 准备和添加 NFS 存储

2.6.3.1. 准备 NFS 存储

在您的文件存储或远程服务器上设置 NFS 共享,以充当 Red Hat Enterprise Virtualization 主机系统上的存储域。在远程存储上导出共享并在 Red Hat Virtualization Manager 中配置共享后,将在 Red Hat Virtualization 主机上自动导入共享。

有关设置、配置、挂载和导出 NFS 的详情,请参考为 Red Hat Enterprise Linux 8 管理文件系统

Red Hat Virtualization 需要特定的系统用户帐户和系统用户组,以便管理器可以将数据存储在导出的目录表示的存储域中。以下流程为一个目录设置权限。您必须为 Red Hat Virtualization 中用作存储域的所有目录重复 chownchmod 步骤。

先决条件

  1. 安装 NFS utils 软件包。

    # dnf install nfs-utils -y
  2. 检查启用的版本:

    # cat /proc/fs/nfsd/versions
  3. 启用以下服务:

    # systemctl enable nfs-server
    # systemctl enable rpcbind

流程

  1. 创建组 kvm

    # groupadd kvm -g 36
  2. 在组 kvm 中创建用户 vdsm

    # useradd vdsm -u 36 -g kvm
  3. 创建 storage 目录并修改访问权限。

    # mkdir /storage
    # chmod 0755 /storage
    # chown 36:36 /storage/
  4. storage 目录添加到具有相关权限的 /etc/exports 中。

    # vi /etc/exports
    # cat /etc/exports
     /storage *(rw)
  5. 重启以下服务:

    # systemctl restart rpcbind
    # systemctl restart nfs-server
  6. 查看哪个导出可用于特定 IP 地址:

    # exportfs
     /nfs_server/srv
                   10.46.11.3/24
     /nfs_server       <world>
注意

如果在启动服务后 /etc/exports 中进行了更改,则可以使用 exportfs -ra 命令重新加载更改。执行上述所有阶段后,导出目录应已就绪,并可在其他主机上进行测试,以检查其是否可用。

2.6.3.2. 添加 NFS 存储

此流程演示了如何将现有 NFS 存储附加到 Red Hat Virtualization 环境作为数据域。

如果您需要 ISO 或导出域,请使用此流程,但从 Domain Function 列表中选择 ISOExport

流程

  1. 在管理门户中,点Storage Domains
  2. New Domain
  3. 输入存储域的名称
  4. 接受 Data Center, Domain Function, Storage Type, Format, 和 Host 列表的默认值。
  5. 输入要用于存储域的导出路径。导出路径的格式应为 123.123.0.10:/data (IPv4), [2001:0:0:0:0:0:0:5db1]:/data (IPv6), 或 domain.example.com:/data
  6. 另外,您可以配置高级参数:

    1. Advanced Parameters
    2. Warning Low Space Indicator 字段中输入一个百分比值。如果存储域中的可用空间低于这个百分比,则会向用户显示警告消息并记录日志。
    3. Critical Space Action Blocker 字段中输入一个 GB 值。如果存储域中可用的可用空间低于此值,则会向用户和记录错误消息显示,并且任何占用空间的新操作(即便是临时使用)都会被阻止。
    4. 选中 Wipe After Delete 复选框以启用 wipe after delete 选项。可以在创建域后编辑此选项,但是这样做不会在删除已存在的磁盘属性后更改擦除。
  7. 点击 OK

新 NFS 数据域的状态为 Locked,直到准备好磁盘为止。然后,数据域将自动附加到数据中心。

2.6.3.3. 增加 NFS 存储

要增加 NFS 存储量,您可以创建新的存储域并将其添加到现有数据中心,或者增加 NFS 服务器上的可用空间。有关前者选项,请参阅添加 NFS 存储。下面的步骤解释了如何增加现有 NFS 服务器中的可用空间。

流程

  1. Storage Domains
  2. 点 NFS 存储域的名称。这会打开详情视图。
  3. 单击数据中心选项卡,然后单击维护,以将存储域置于维护模式。这会卸载现有的共享,并使它能够调整存储域的大小。
  4. 在 NFS 服务器中,重新定义存储大小。有关 Red Hat Enterprise Linux 6 系统,请查看 Red Hat Enterprise Linux 6 存储管理指南。有关 Red Hat Enterprise Linux 7 系统,请查看 Red Hat Enterprise Linux 7 存储管理指南。对于 Red Hat Enterprise Linux 8 系统,请参阅 调整分区
  5. 在详情视图中,单击 Data Center 选项卡,然后单击 Activate 以挂载存储域。

2.6.4. 准备和添加本地存储

使用虚拟机主机上物理安装的存储设备的虚拟机磁盘称为本地存储设备。

存储设备必须是存储域的一部分。本地存储的存储域类型称为本地存储域。

配置主机来自动使用本地存储,并将主机添加到新本地存储域、新的本地存储域、数据中心和集群,从而无法添加其他主机。多主机集群要求所有主机都能够访问所有存储域,这些存储域对本地存储不可能。在单主机集群中创建的虚拟机无法迁移、隔离或调度。

2.6.4.1. 准备本地存储

在 Red Hat Virtualization Host(RHVH)上,应始终在独立于 / (root)的文件系统上定义本地存储。使用单独的逻辑卷或磁盘,在升级过程中防止可能丢失数据。

Red Hat Enterprise Linux 主机的步骤

  1. 在主机上,创建要用于本地存储的目录:

    # mkdir -p /data/images
  2. 确保该目录具有允许对 vdsm 用户(UID 36)和 kvm 组(GID 36)的读/写访问权限:

    # chown 36:36 /data /data/images
    # chmod 0755 /data /data/images

Red Hat Virtualization 主机的步骤

在逻辑卷中创建本地存储:

  1. 创建本地存储目录:

    # mkdir /data
    # lvcreate -L $SIZE rhvh -n data
    # mkfs.ext4 /dev/mapper/rhvh-data
    # echo "/dev/mapper/rhvh-data /data ext4 defaults,discard 1 2" >> /etc/fstab
    # mount /data
  2. 挂载新的本地存储:

    # mount -a
  3. 确保该目录具有允许对 vdsm 用户(UID 36)和 kvm 组(GID 36)的读/写访问权限:

    # chown 36:36 /data /rhvh-data
    # chmod 0755 /data /rhvh-data

2.6.4.2. 添加本地存储域

将本地存储域添加到主机时,设置本地存储目录的路径会自动创建并将主机放置到本地数据中心、本地群集和本地存储域中。

流程

  1. 单击 Compute Hosts,再选择 主机。
  2. Management MaintenanceOK。主机的状态更改为 Maintenance
  3. 单击 Management Configure Local Storage
  4. 单击 Data CenterClusterStorage 字段旁边的编辑按钮,以配置和命名本地存储域。
  5. 在文本条目字段中设置本地存储的路径。
  6. 如果适用,点 Optimization 选项卡为新的本地存储集群配置内存优化策略。
  7. 点击 OK

Manager 使用本地集群本地存储域设置本地数据中心。它还将主机的状态更改为 Up

验证

  1. Storage Domains
  2. 找到您刚刚添加的本地存储域。

域的状态应当是 Active ( status active icon ),Storage Type 列中的值应该是 Local on Host

现在,您可以在新的本地存储域中上传磁盘镜像。

2.6.5. 准备和添加兼容 POSIX 的文件系统存储

2.6.5.1. 准备兼容 POSIX 的文件系统存储

POSIX 文件系统支持允许您使用与从命令行手动挂载时所用的相同挂载选项挂载文件系统。这个功能旨在允许访问没有使用 NFS、iSCSI 或 FCP 公开的存储。

所有用作 Red Hat Virtualization 中的存储域的所有 POSIX 兼容文件系统都必须是集群文件系统,如全局文件系统 2(GFS2),并且必须支持稀疏文件和直接 I/O。例如,通用 Internet 文件系统(CIFS)不支持直接 I/O,使它与 Red Hat Virtualization 不兼容。

有关设置和配置 POSIX 兼容文件系统存储的详情,请参考 Red Hat Enterprise Linux Global File System 2

重要

不要 通过创建兼容 POSIX 的文件系统存储域来挂载 NFS 存储。始终创建 NFS 存储域。

2.6.5.2. 添加兼容 POSIX 的文件系统存储

此流程演示了如何将现有的 POSIX 兼容文件系统存储作为数据域附加到 Red Hat Virtualization 环境中。

流程

  1. Storage Domains
  2. New Domain
  3. 输入存储域的名称
  4. 选择要与存储域关联的数据中心。所选数据中心必须是 POSIX(POSIX 兼容 FS) 的类型。或者,选择 (none)
  5. Domain Function 下拉列表中选择 Data,从 Storage Type 下拉列表中选择 POSIX 兼容 FS

    如果适用,从下拉菜单中选择 Format

  6. 从主机下拉列表中选择一个主机
  7. 输入 POSIX 文件系统的路径,因为您通常会将其提供给 mount 命令。
  8. 输入 VFS 类型,因为您通常会使用 -t 参数将其提供给 mount命令。有关有效 VFS 类型的列表,请参阅 man mount
  9. 输入其他 挂载选项,因为您通常使用 -o 参数将它们提供给 mount 命令。挂载选项应以逗号分隔列表形式提供。有关有效挂载选项列表,请参阅 man mount
  10. 另外,您还可以配置高级参数。

    1. Advanced Parameters
    2. Warning Low Space Indicator 字段中输入百分比值。如果存储域中的可用空间低于这个百分比,则会向用户显示警告消息并记录日志。
    3. Critical Space Action Blocker 字段中输入 GB 值。如果存储域中可用的可用空间低于此值,则会向用户和记录错误消息显示,并且任何占用空间的新操作(即便是临时使用)都会被阻止。
    4. 选中 Wipe After Delete 复选框以启用 wipe after delete 选项。可以在创建域后编辑此选项,但是这样做不会在删除已存在的磁盘属性后更改擦除。
  11. 点击 OK

2.6.6. 准备和添加块存储

2.6.6.1. 准备 iSCSI 存储

Red Hat Virtualization 支持 iSCSI 存储,这是从由 LUN 组成的卷组创建的存储域。卷组和 LUN 一次不能附加到多个存储域。

有关设置和配置 iSCSI 存储的详情,请参考为 Red Hat Enterprise Linux 8 管理存储设备 中的 配置 iSCSI 目标

重要

如果您使用的是块存储,并且打算在裸设备上部署虚拟机或直接 LUN 并用逻辑卷管理器 (LVM) 管理它们,您必须创建一个过滤器来隐藏 guest 逻辑卷。这将防止在主机引导时激活 guest 逻辑卷,这种情况可能会导致逻辑卷过时并导致数据崩溃。使用 vdsm-tool config-lvm-filter 命令创建 LVM 的过滤器。

重要

Red Hat Virtualization 目前不支持块大小为 4K 的块存储。您必须以旧模式(512b 块)配置块存储。

重要

如果您的主机从 SAN 存储引导并丢失与存储的连接,则存储文件系统将变为只读并在恢复连接后保持此状态。

要防止这种情况,请在 SAN 的根文件系统中为引导 LUN 添加下拉多路径配置文件以确保它在连接时已在队列中:

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }

2.6.6.2. 添加 iSCSI 存储

此流程演示了如何将现有 iSCSI 存储附加到 Red Hat Virtualization 环境中作为数据域。

流程

  1. Storage Domains
  2. New Domain
  3. 输入新存储域的名称
  4. 从下拉列表中选择数据中心
  5. 选择 Data 作为 Domain FunctioniSCSI 作为 Storage Type
  6. 选择活动主机作为主机

    重要

    与存储域的通信来自选定的主机,而不是直接从管理器通信。因此,所有主机都必须有权访问存储设备,然后才能配置存储域。

  7. 管理器可以将 iSCSI 目标映射到 LUN 或 LUN,以将 iSCSI 目标映射到 iSCSI 目标。当选择了 iSCSI 存储类型时,新建域窗口会自动显示已知带有未使用的 LUN 的目标。如果没有显示您要添加存储的目标,您可以使用目标发现来查找它;否则,继续下一步。

    1. 单击 Discover Targets 以启用目标发现选项。发现目标并登录后,新建域窗口将自动显示环境未使用的目标。

      注意

      外部用于环境的 LUN 也会显示。

      您可以使用 发现目标 选项在多个目标或同一 LUN 的多个路径中添加 LUN。

      重要

      如果您使用 REST API 方法 discoveriscsi 发现 iscsi 目标,您可以使用 FQDN 或 IP 地址,但您必须使用发现的目标结果中的 iscsi 详细信息才能使用 REST API 方法 iscsilogin 进行登录。如需更多信息,请参阅 REST API 指南中的 发现iscsi

    2. Address 字段中输入 iSCSI 主机的 FQDN 或 IP 地址。
    3. Port 字段中,输入在浏览目标时要连接到主机的端口。默认值为 3260
    4. 如果使用 CHAP 保护存储,请选中 User Authentication 复选框。输入 CHAP 用户名CHAP 密码

      注意

      您可以使用 REST API 为特定主机的 iSCSI 目标定义凭据。如需更多信息,请参阅 REST API 指南中的 StorageServerConnectionExtensions:add

    5. Discover
    6. 从发现结果中选择一个或多个目标,再点 Login(一个目标)或 Login All(多个目标)。

      重要

      如果需要多个路径访问,您必须通过所有必要的路径发现并登录到目标。目前不支持修改存储域以添加其他路径。

      重要

      在使用 REST API iscsilogin 方法登录时,您必须使用发现的目标中的 iscsi 详细信息生成 discoveriscsi 方法。如需更多信息,请参阅 REST API 指南中的 iscsilogin

  8. 点所需目标旁边的 + 按钮。这会展开条目并显示附加到目标的所有未使用的 LUN。
  9. 选中您正在使用的每个 LUN 的复选框,以创建存储域。
  10. 另外,您可以配置高级参数:

    1. Advanced Parameters
    2. Warning Low Space Indicator 字段中输入一个百分比值。如果存储域中的可用空间低于这个百分比,则会向用户显示警告消息并记录日志。
    3. Critical Space Action Blocker 字段中输入一个 GB 值。如果存储域中可用的可用空间低于此值,则会向用户和记录错误消息显示,并且任何占用空间的新操作(即便是临时使用)都会被阻止。
    4. 选中 Wipe After Delete 复选框以启用 wipe after delete 选项。可以在创建域后编辑此选项,但是这样做不会在删除已存在的磁盘属性后更改擦除。
    5. 选中 Discard After Delete 复选框,以在删除后启用丢弃选项。可在创建域后编辑此选项。此选项仅适用于块存储域。
  11. 点击 OK

如果您已配置了多个存储连接路径到同一目标,请按照配置 iSCSI 多路径以完成 iSCSI 绑定的步骤进行操作。

如果要将当前存储网络迁移到 iSCSI 绑定,请参阅将逻辑网络迁移到 iSCSI Bond

2.6.6.3. 配置 iSCSI 多路径

iSCSI 多路径可让您创建和管理逻辑网络和 iSCSI 存储连接组。主机和 iSCSI 存储之间的多个网络路径可防止主机故障出现。

管理器使用分配给 iSCSI 绑定中逻辑网络的 NIC 或 VLAN 将集群中的每个主机连接到每个目标。

您可以使用多个目标和逻辑网络创建 iSCSI 绑定以实现冗余。

前提条件

注意

自托管引擎部署不支持多路径。

流程

  1. 单击 Compute Data Centers
  2. 点数据中心名称。这会打开详情视图。
  3. iSCSI 多路径 选项卡中,点 Add
  4. Add iSCSI Bond 窗口中,输入名称描述
  5. 从逻辑网络选择 逻辑网络,再从 Storage Targets 中选择存储域。您必须选择到同一目标的所有路径。
  6. 点击 OK

数据中心中的主机通过 iSCSI 绑定中的逻辑网络连接到 iSCSI 目标。

2.6.6.4. 将逻辑网络迁移到 iSCSI 绑定

如果您的逻辑网络是为 iSCSI 流量创建并在现有 网络绑定 之上配置的逻辑网络,您可以在不中断或停机的情况下将其迁移到同一子网上的 iSCSI 绑定。

流程

  1. 修改当前的逻辑网络,使其 不是必需的

    1. 单击 Compute Clusters
    2. 点集群名称。这会打开详情视图。
    3. Logical Networks 选项卡中,选择当前的逻辑网络(net-1),再点 Manage Networks
    4. 清除 Require 复选框,然后单击 OK
  2. 创建一个不是 RequiredVM network 的新的逻辑网络:

    1. Add Network。此时将打开 New Logical Network 窗口。
    2. General 选项卡中,输入名称 (net-2) 并清除 VM network 复选框。
    3. Cluster 选项卡中,清除 Require 复选框,然后点 OK
  3. 删除当前的网络绑定并重新分配逻辑网络:

    1. 单击 Compute Hosts
    2. 点主机名。这会打开详情视图。
    3. Network Interfaces 选项卡中,单击 Setup Host Networks
    4. net-1 拖到右侧,以取消分配它。
    5. 将当前绑定拖到右侧以移除它。
    6. net-1net-2 拖到左侧,将它们分配到物理接口。
    7. 单击 net-2 的铅笔图标。此时将打开 Edit Network 窗口。
    8. IPV4 选项卡中,选择 Static
    9. 输入子网的 IPNetmask/Routing Prefix,点 OK
  4. 创建 iSCSI 绑定:

    1. 单击 Compute Data Centers
    2. 点数据中心名称。这会打开详情视图。
    3. iSCSI 多路径 选项卡中,点 Add
    4. Add iSCSI Bond 窗口中,输入 Name,选择网络、net-1net-2,然后点确定

您的数据中心有一个 iSCSI 绑定,其中包含旧的和新的逻辑网络。

2.6.6.5. 准备 FCP 存储

Red Hat Virtualization 通过从由预先存在的 LUN 的卷组创建存储域来支持 SAN 存储。卷组和 LUN 不可同时附加到多个存储域。

Red Hat Virtualization 系统管理员需要对存储区域网络 (SAN) 概念有较好的了解。SAN 通常使用光纤通道协议 (FCP) 作为主机和共享外部存储之间的通信。因此,SAN 有时可能会被称为 FCP 存储。

有关在 Red Hat Enterprise Linux 上设置和配置 FCP 或多路径的详情,请参考存储管理指南DM 多路径指南

重要

如果您使用的是块存储,并且打算在裸设备上部署虚拟机或直接 LUN 并用逻辑卷管理器 (LVM) 管理它们,您必须创建一个过滤器来隐藏 guest 逻辑卷。这将防止在主机引导时激活 guest 逻辑卷,这种情况可能会导致逻辑卷过时并导致数据崩溃。使用 vdsm-tool config-lvm-filter 命令创建 LVM 的过滤器。

重要

Red Hat Virtualization 目前不支持块大小为 4K 的块存储。您必须以旧模式(512b 块)配置块存储。

重要

如果您的主机从 SAN 存储引导并丢失与存储的连接,则存储文件系统将变为只读并在恢复连接后保持此状态。

要防止这种情况,请在 SAN 的根文件系统中为引导 LUN 添加下拉多路径配置文件以确保它在连接时已在队列中:

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }
  }

2.6.6.6. 添加 FCP 存储

此流程演示了如何将现有 FCP 存储附加到 Red Hat Virtualization 环境作为数据域。

流程

  1. Storage Domains
  2. New Domain
  3. 输入存储域的名称
  4. 从下拉列表中选择 FCP Data Center

    如果您还没有适当的 FCP 数据中心,请选择 (none)

  5. 从下拉列表中选择 Domain FunctionStorage Type。与所选数据中心不兼容的存储域类型不可用。
  6. Host 字段中选择一个活动主机。如果这不是数据中心中的第一个数据域,您必须选择数据中心的 SPM 主机。

    重要

    与存储域的所有通信均通过选定的主机进行,而不是直接从 Red Hat Virtualization Manager 进行。系统中必须至少有一个活动主机,并附加到所选的数据中心。所有主机都必须有权访问存储设备,然后才能配置存储域。

  7. 当选择 Fibre Channel 作为存储类型时,新建域 窗口会自动显示已知带有未使用的 LUN 的目标。选择 LUN ID 复选框来选择所有可用的 LUN。
  8. 另外,您还可以配置高级参数。

    1. Advanced Parameters
    2. Warning Low Space Indicator 字段中输入一个百分比值。如果存储域中的可用空间低于这个百分比,则会向用户显示警告消息并记录日志。
    3. Critical Space Action Blocker 字段中输入一个 GB 值。如果存储域中可用的可用空间低于此值,则会向用户和记录错误消息显示,并且任何占用空间的新操作(即便是临时使用)都会被阻止。
    4. 选中 Wipe After Delete 复选框以启用 wipe after delete 选项。可以在创建域后编辑此选项,但是这样做不会在删除已存在的磁盘属性后更改擦除。
    5. 选中 Discard After Delete 复选框,以在删除后启用丢弃选项。可在创建域后编辑此选项。此选项仅适用于块存储域。
  9. 点击 OK

新的 FCP 数据域在准备使用时仍然处于 Locked 状态。准备就绪后,它将自动附加到 数据中心。

2.6.6.7. 增加 iSCSI 或 FCP 存储

提高 iSCSI 或 FCP 存储大小有几种方法:

  • 将现有 LUN 添加到当前存储域中。
  • 使用新 LUN 创建新存储域并将其添加到现有数据中心。请参阅添加 iSCSI 存储
  • 通过重新定义底层 LUN 的大小扩展存储域。

有关配置或重新定义 FCP 存储大小的详情,请参考为 Red Hat Enterprise Linux 8 管理存储设备 中的 使用光纤通道设备

以下流程解释了如何通过向现有存储域添加新的 LUN 来扩展存储区域网络 (SAN) 存储。

前提条件

  • 存储域的状态必须是 UP
  • LUN 必须可以被状态为 UP 的所有主机访问,否则操作将失败,并且 LUN 不会添加到域中。但是,主机本身不会受到影响。如果新添加的主机或结束维护的主机或处于一个处于 Non Operational 状态的主机无法访问 LUN,则主机的状态将变为 Non Operational

增加现有 iSCSI 或 FCP 存储域

  1. Storage Domains 并选择 iSCSI 或 FCP 域。
  2. 单击 Manage Domain
  3. Targets LUNs,点 Discover Targets 展开按钮。
  4. 输入存储服务器的连接信息,然后点 Discover 以启动连接。
  5. LUNs Targets,选择新可用 LUN 的复选框。
  6. OK,将 LUN 添加到所选存储域。

这将根据添加的 LUN 的大小增加存储域。

当调整底层 LUN 来扩展存储域时,还必须在管理门户中刷新 LUN。

刷新 LUN 大小

  1. Storage Domains 并选择 iSCSI 或 FCP 域。
  2. 单击 Manage Domain
  3. LUNs Targets
  4. Additional Size 列中,点 LUN 的 Add Additional_Storage_Size 按钮进行刷新。
  5. OK 刷新 LUN 以指示新的存储大小。

2.6.6.8. 重新使用 LUN

LUN 无法重复使用,因为 可以创建存储域或虚拟磁盘。如果您尝试重复使用 LUN,管理门户会显示以下出错信息:

Physical device initialization failed. Please check that the device is empty and accessible by the host.

自托管引擎在安装过程中显示以下错误:

[ ERROR ] Error creating Volume Group: Failed to initialize physical device: ("[u'/dev/mapper/000000000000000000000000000000000']",)
[ ERROR ] Failed to execute stage 'Misc configuration': Failed to initialize physical device: ("[u'/dev/mapper/000000000000000000000000000000000']",)

在 LUN 可以重复使用前,必须清除旧的分区表。

流程

您必须在正确的 LUN 上运行此步骤,以便不会意外破坏数据。

  1. 删除 < LUN_ID& gt; 中的分区映射:

    kpartx -dv /dev/mapper/<LUN_ID>
  2. 在 < LUN_ID > 中擦除 fileystem 或 raid 签名:

    wipefs -a /dev/mapper/<LUN_ID>
  3. 告知操作系统,关于 < LUN_ID> 上的分区表更改

     partprobe

2.6.6.9. 删除过时的 LUN

当删除存储域时,已过时的 LUN 链接可能会保留在存储服务器上。这可能导致多路径扫描速度、分散日志文件和 LUN ID 冲突。

Red Hat Virtualization 不会管理 iSCSI 服务器,因此当删除存储域时无法自动删除 LUN。管理员可以使用 remove_stale_lun.yml Ansible 角色手动删除过时的 LUN 链接。此角色从属于给定数据中心的所有主机中删除过时的 LUN 链接。有关此角色及其变量的更多信息,请参阅 oVirt Ansible 集合中的 Remove Stale LUN 角色

注意

假设您在从引擎机器中运行 remove_stale_lun.yml,因为所有主机上已经添加 engine ssh 密钥。如果 playbook 没有在引擎计算机上运行,则必须将用户的 SSH 密钥添加到属于数据中心的所有主机中,或者用户必须提供适当的清单文件。

流程

  1. Storage Domains
  2. 点存储域的名称。这会打开详情视图。
  3. Data Center 选项卡。
  4. 单击 Maintenance,然后单击 OK
  5. 单击 Detatch然后单击确定
  6. 单击 Remove
  7. OK 以将存储域从源环境中删除。
  8. 从存储服务器中删除 LUN。
  9. 使用 Ansible 从主机中删除过时的 LUN:

    # ansible-playbook --extra-vars "lun=<LUN>" /usr/share/ansible/collections/ansible_collections/ovirt/ovirt/roles/remove_stale_lun/examples/remove_stale_lun.yml

    在上述步骤中,LUN 是从存储服务器中删除的 LUN。

    注意

    如果您使用 Ansible 从主机中删除过时的 LUN,而无需首先从存储服务器删除 LUN,则当 VDSM 执行 iSCSI 重新扫描时,已过时的 LUN 将重新显示主机上。

2.6.6.10. 创建 LVM 过滤器

LVM 过滤器是一个可以在 /etc/lvm/lvm.conf 中设置的功能,可接受基于 regex 查询的卷列表中的设备或拒绝设备。例如,要忽略 /dev/cdrom,您可以使用 filter=["r|^/dev/cdrom$|"],或将以下参数添加到 lvm 命令中: lvs --config 'devices{filter=["r|cdrom|"]}'

这为防止主机扫描和激活主机不需要的逻辑卷提供了简单的方法。特别是,解决方案解决了 RHV 管理的共享存储上的逻辑卷,以及由 RHV 原始卷中的客户机创建的逻辑卷。需要这个解决方案,因为扫描和激活其他逻辑卷可能会导致数据崩溃、缓慢引导或其他问题。

解决方案是在每台主机上配置 LVM 过滤器,它允许主机上的 LVM 仅扫描主机所需的逻辑卷。

您可以使用命令 vdsm-tool config-lvm-filter 分析当前的 LVM 配置,并决定是否需要配置过滤器。

如果尚未配置 LVM 过滤器,该命令会为主机生成 LVM 过滤选项,并在 LVM 配置中添加 选项。

场景 1:未配置的主机

在还没有配置的主机上,当用户确认操作后,命令会自动配置 LVM:

# vdsm-tool config-lvm-filter
Analyzing host...
Found these mounted logical volumes on this host:
logical volume:  /dev/mapper/vg0-lv_home
mountpoint:      /home
devices:         /dev/vda2
logical volume:  /dev/mapper/vg0-lv_root
mountpoint:      /
devices:         /dev/vda2
logical volume:  /dev/mapper/vg0-lv_swap
mountpoint:      [SWAP]
devices:         /dev/vda2
This is the recommended LVM filter for this host:
filter = [ "a|^/dev/vda2$|", "r|.*|" ]
This filter will allow LVM to access the local devices used by the
hypervisor, but not shared storage owned by VDSM. If you add a new
device to the volume group, you will need to edit the filter manually.
Configure LVM filter? [yes,NO] ? [NO/yes] yes
Configuration completed successfully!
Please reboot to verify the LVM configuration.

场景 2:配置的主机

如果已经配置主机,命令只告知用户已经配置 LVM 过滤器:

# vdsm-tool config-lvm-filter
Analyzing host...
LVM filter is already configured for Vdsm

场景 3:需要手动配置

如果主机配置与 VDSM 所需的配置不匹配,则需要手动配置 LVM 过滤器:

# vdsm-tool config-lvm-filter
Analyzing host...
Found these mounted logical volumes on this host:
logical volume:  /dev/mapper/vg0-lv_home
mountpoint:      /home
devices:         /dev/vda2
logical volume:  /dev/mapper/vg0-lv_root
mountpoint:      /
devices:         /dev/vda2
logical volume:  /dev/mapper/vg0-lv_swap
mountpoint:      [SWAP]
devices:         /dev/vda2
This is the recommended LVM filter for this host:
filter = [ "a|^/dev/vda2$|", "r|.*|" ]
This filter will allow LVM to access the local devices used by the
hypervisor, but not shared storage owned by VDSM. If you add a new
device to the volume group, you will need to edit the filter manually.
This is the current LVM filter:
filter = [ "a|^/dev/vda2$|", "a|^/dev/vdb1$|", "r|.*|" ]
WARNING: The current LVM filter does not match the recommended filter,
Vdsm cannot configure the filter automatically.
Please edit /etc/lvm/lvm.conf and set the 'filter' option in the  'devices' section to the recommended value.
It is recommended to reboot after changing LVM filter.

2.6.7. 准备和添加红帽 Gluster 存储

2.6.7.1. 准备 Red Hat Gluster Storage

有关设置和配置 Red Hat Gluster Storage 的信息,请参阅 Red Hat Gluster Storage 安装指南

有关 Red Hat Virtualization 支持的 Red Hat Gluster Storage 版本,请参阅 Red Hat Gluster Storage 版本兼容性和支持

2.6.7.2. 添加 Red Hat Gluster Storage

要在 Red Hat Virtualization 中使用 Red Hat Gluster Storage,请参阅 配置 Red Hat Virtualization 使用 Red Hat Gluster Storage

有关 Red Hat Virtualization 支持的 Red Hat Gluster Storage 版本,请参阅 Red Hat Gluster Storage 版本兼容性和支持

2.6.8. 导入现有存储域

2.6.8.1. 导入现有存储域概述

除了添加新的存储域(不包含数据)外,您还可以导入现有存储域并访问其包含的数据。通过导入存储域,您可以在 Manager 数据库中故障时恢复数据,并将数据从一个数据中心或环境迁移到另一个数据中心。

以下是导入每个存储域类型的概述:

Data

通过导入现有数据存储域,您可以访问数据存储域包含的所有虚拟机和模板。导入存储域后,您必须手动将虚拟机、浮动磁盘镜像和模板导入目标数据中心。导入数据存储域包含的虚拟机和模板的过程与导出存储域类似的过程。但是,因为数据存储域包含给定数据中心中的所有虚拟机和模板,因此建议在数据中心或环境之间进行虚拟机恢复或大规模迁移虚拟机。

重要

您可以导入附加到数据中心的现有数据存储域,并具有正确的支持的兼容性级别。如需更多信息,请参阅从较旧的 RHV 版本导入存储域和虚拟机的相关支持性和限制

ISO
导入现有的 ISO 存储域可让您访问 ISO 存储域包含的所有 ISO 文件和虚拟磁盘组。导入存储域才能访问这些资源后不需要额外的操作;您可以根据需要将它们附加到虚拟机。
Export

通过导入现有的导出存储域,您可以访问导出存储域包含的所有虚拟机映像和模板。因为导出域是为导出和导入虚拟机映像和模板而设计的,建议在环境或环境之间迁移少量虚拟机和模板的方法。有关在导出存储域中导出和导入虚拟机和模板的信息,请参阅虚拟机管理指南中的导出和导入虚拟机和模板

注意

导出存储域已弃用。存储数据域可以从数据中心取消附加,并导入到同一环境中或不同环境中的其他数据中心。然后,可以将虚拟机、浮动虚拟磁盘和模板从导入的存储域上传到所连接的数据中心。

警告

将存储域附加到目标 Data-Center 时,它可能会升级到较新的存储域格式,且可能无法重新连接到源 Data-Center。这会破坏使用 Data-Domain 作为导出域的替代。

2.6.8.2. 导入存储域

导入之前附加到同一环境或不同环境中的数据中心的存储域。此流程假设存储域不再附加到任何环境中的任何数据中心,以避免数据崩溃。要导入并附加现有数据存储域到数据中心,必须初始化目标数据中心。

流程

  1. Storage Domains
  2. 单击 Import Domain
  3. 选择您要导入存储域的数据中心
  4. 输入存储域的名称
  5. 从下拉列表中选择 Domain FunctionStorage Type
  6. 从主机下拉列表中选择一个主机

    重要

    与存储域的所有通信均通过选定的主机进行,而不是直接从 Red Hat Virtualization Manager 进行。系统中必须至少有一个活动主机,并附加到所选的数据中心。所有主机都必须有权访问存储设备,然后才能配置存储域。

  7. 输入存储域的详细信息。

    注意

    根据您在 Domain FunctionStorage Type 列表中选择的值,用于指定存储域详情的字段。这些字段与可用于添加新的存储域的用户相同。

  8. 在将存储域附加到所选数据中心后,选择 Activate Domain in Data Center 复选框,以激活该存储域。
  9. 点击 OK

现在,您可以将虚拟机和模板从存储域导入到数据中心。

警告

将存储域附加到目标 Data-Center 时,它可能会升级到较新的存储域格式,且可能无法重新连接到源 Data-Center。这会破坏使用 Data-Domain 作为导出域的替代。

2.6.8.3. 在 Same 环境中数据中心之间迁移存储域

将存储域从一个数据中心迁移到同一 Red Hat Virtualization 环境中的另一个数据中心,以允许目标数据中心访问存储域中包含的数据。这个过程涉及将存储域从一个数据中心分离,并将其附加到不同的数据中心。

警告

将数据存储域迁移到具有比原始数据中心更高的兼容性等级的数据中心升级存储域的存储格式版本。

如果由于任何原因(如将虚拟机迁移到新数据中心)将存储域重新移至原始数据中心,请注意更高版本可防止将数据存储域重新连接到原始数据中心。

管理门户提示您确认您想要更新存储域格式,例如从 V3 更新至 V5。它还警告,您将无法将其重新附加到具有较低数据中心级别的旧数据中心。

要临时解决这个问题,您可以创建一个与源数据中心相同的兼容版本的目标数据中心。当您不再需要维护较低兼容性版本时,可以提高目标数据中心的兼容性版本。

详情请参阅 从较旧的 RHV 版本导入存储域和虚拟机的相关支持性和限制

流程

  1. 关闭在所需存储域上运行的所有虚拟机。
  2. Storage Domains
  3. 点存储域的名称。这会打开详情视图。
  4. Data Center 选项卡。
  5. 单击 Maintenance,然后单击 OK
  6. 单击 Detach然后单击确定
  7. Attach
  8. 选择目标数据中心,然后单击确定

存储域连接到目标数据中心,并自动激活。现在,您可以将虚拟机和模板从存储域导入到目标数据中心。

2.6.8.4. 在不同环境中在数据中心间迁移存储域

将存储域从一个 Red Hat Virtualization 环境迁移到另一个环境,以允许目标环境访问存储域中包含的数据。这个过程涉及从一个 Red Hat Virtualization 环境中删除存储域,并将其导入到不同的环境中。要将现有数据存储域导入并附加到 Red Hat Virtualization 数据中心,存储域的源数据中心必须具有正确的兼容性级别。

警告

将数据存储域迁移到具有比原始数据中心更高的兼容性等级的数据中心升级存储域的存储格式版本。

如果由于任何原因(如将虚拟机迁移到新数据中心)将存储域重新移至原始数据中心,请注意更高版本可防止将数据存储域重新连接到原始数据中心。

管理门户提示您确认您想要更新存储域格式,例如从 V3 更新至 V5。它还警告,您将无法将其重新附加到具有较低数据中心级别的旧数据中心。

要临时解决这个问题,您可以创建一个与源数据中心相同的兼容版本的目标数据中心。当您不再需要维护较低兼容性版本时,可以提高目标数据中心的兼容性版本。

详情请参阅 从较旧的 RHV 版本导入存储域和虚拟机的相关支持性和限制

流程

  1. 登录源环境的管理门户。
  2. 关闭在所需存储域上运行的所有虚拟机。
  3. Storage Domains
  4. 点存储域的名称。这会打开详情视图。
  5. Data Center 选项卡。
  6. 单击 Maintenance,然后单击 OK
  7. 单击 Detach然后单击确定
  8. 单击 Remove
  9. Remove Storage (s) 窗口中,确保 Format Domain, i.e. Storage Content will be lost! 复选框没有被选择。此步骤在存储域中保留数据,以备以后使用。
  10. OK 以将存储域从源环境中删除。
  11. 登录目标环境的管理门户。
  12. Storage Domains
  13. 单击 Import Domain
  14. Data Center 下拉列表中选择目标数据中心。
  15. 输入存储域的名称。
  16. 从适当的下拉列表中,选择 Domain FunctionStorage Type
  17. 从主机下拉列表中选择一个主机
  18. 输入存储域的详细信息。

    注意

    根据您在 Storage Type 下拉列表中选择的值,用于指定存储域详情的字段。这些字段与可用于添加新的存储域的用户相同。

  19. 选择 Activate Domain in Data Center 复选框,以在连接该存储域时自动激活。
  20. 点击 OK

存储域连接到新 Red Hat Virtualization 环境中的目标数据中心,并自动激活。现在,您可以将虚拟机和模板从导入存储域导入到目标数据中心。

警告

将存储域附加到目标 Data-Center 时,它可能会升级到较新的存储域格式,且可能无法重新连接到源 Data-Center。这会破坏使用 Data-Domain 作为导出域的替代。

2.6.8.5. 从导入的 Data Storage Domains 导入模板

从您导入 Red Hat Virtualization 环境中的数据存储域中导入模板。此流程假设导入的数据存储域已附加到数据中心,并已激活。

流程

  1. Storage Domains
  2. 单击导入的存储域的名称。这会打开详情视图。
  3. Template Import 选项卡。
  4. 选择要导入的一个或多个模板。
  5. Import
  6. 对于 Import Templates (s) 窗口中的每个模板,请确保 Cluster 列表中选择了正确的目标集群。
  7. 将外部虚拟机 vNIC 配置集映射到目标集群中存在的配置集:

    1. 点击 vNic Profiles Mapping
    2. Target vNic Profile 下拉列表中选择要使用的 vNIC 配置集。
    3. 如果在 Import Templates 窗口中选择了多个目标集群,请在 Target Cluster 下拉列表中选择每个目标集群,并确保映射正确。
    4. 点击 OK
  8. 点击 OK

导入的模板将不再显示在模板导入选项卡下的列表中。

2.6.9. 存储任务

2.6.9.1. 将镜像上传到数据存储域

您可以将虚拟磁盘镜像和 ISO 镜像上传到管理门户中的数据存储域,或使用 REST API 上传。

注意

要使用 REST API 上传镜像,请参阅 REST API 指南中的 IMAGETRANSFERSIMAGETRANSFER

兼容 QEMU 的虚拟磁盘可以附加到虚拟机。虚拟磁盘类型必须是 QCOW2 或 raw。从 QCOW2 虚拟磁盘创建的磁盘无法共享,QCOW2 虚拟磁盘文件不得具有备份文件。

ISO 映像可以作为 CDROM 连接到虚拟机或用于启动虚拟机。

前提条件

上传功能使用 HTML 5 API,这需要您的环境包含以下内容:

  • 证书颁发机构(导入到用于访问管理门户的网页浏览器中)。

    要导入证书颁发机构,访问 https://engine_address/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA 并启用所有信任设置。请参阅有关在 FirefoxInternet ExplorerGoogle Chrome 中安装证书颁发机构的说明。

  • 支持 HTML 5 的浏览器,如 Firefox 35、Internet Explorer 10、Chrome 13 或更高版本。

流程

  1. Storage Disks
  2. Upload 菜单中选择 Start
  3. 单击 Choose File,再选择要上传的镜像。
  4. 填写 Disk Options 字段。有关 相关字段的描述,请参阅 New Virtual Disk Window 中的 Settings 的说明。
  5. 点击 OK

    进度条显示上传的状态。您可以从 Upload 菜单中暂停、取消或恢复上传。

提示

如果上传超时并显示消息的 Reason: timeout,因为要传输不活跃,请增加超时值并重启 ovirt-engine 服务:

# engine-config -s TransferImageClientInactivityTimeoutInSeconds=6000
# systemctl restart ovirt-engine

2.6.9.2. 将 VirtIO 镜像文件上传到存储域

virtio-win_version.iso 镜像包含以下用于 Windows 虚拟机以提高性能和可用性:

  • virtio 驱动程序
  • 客户机代理的安装程序
  • 驱动程序的安装程序

要安装并上传 virtio-win_version.iso 的最新版本:

  1. 在 Manager 机器上安装镜像文件:

    # dnf -y install virtio-win

    在 Manager 机器上安装后,镜像文件为 /usr/share/virtio-win/virtio-win_version.iso

  2. 将镜像文件上传到在安装过程中没有在本地创建的数据存储域中。如需更多信息,请参阅管理指南中的将镜像上传到数据存储域
  3. 将镜像文件附加到虚拟机。

虚拟机现在可以使用 virtio 驱动程序和代理。

有关将镜像文件附加到虚拟机的详情,请参考虚拟机管理指南中的在 Windows 上安装客户机代理、工具和驱动程序

2.6.9.3. 将镜像上传到 ISO 域

注意

ISO 域是已弃用的存储域类型。Red Hat Virtualization 4.4 中删除了 ISO Uploader 工具 ovirt-iso-uploader。您应该使用管理门户或使用 REST API 将 ISO 镜像上传到数据域。详情请参阅将镜像上传到数据存储域

虽然 ISO 域已弃用,但此处仍提供此信息以便您需要使用 ISO 域。

要将 ISO 镜像上传到 ISO 存储域,以便从 Manager 内部提供它,请按照以下步骤操作。

流程

  1. 以 root 身份登录属于您的 ISO 存储域所在的数据中心的主机。
  2. 获取 /rhv/data-center 的目录树:

    # tree /rhev/data-center
    .
    |-- 80dfacc7-52dd-4d75-ab82-4f9b8423dc8b
    |   |-- 76d1ecba-b61d-45a4-8eb5-89ab710a6275  /rhev/data-center/mnt/10.10.10.10:_rhevnfssd/76d1ecba-b61d-45a4-8eb5-89ab710a6275
    |   |-- b835cd1c-111c-468d-ba70-fec5346af227  /rhev/data-center/mnt/10.10.10.10:_rhevisosd/b835cd1c-111c-468d-ba70-fec5346af227
    |   |-- mastersd  76d1ecba-b61d-45a4-8eb5-89ab710a6275
    |   |-- tasks  mastersd/master/tasks
    |   `-- vms  mastersd/master/vms
    |-- hsm-tasks
    `-- mnt
        |-- 10.10.10.10:_rhevisosd
        |   |-- b835cd1c-111c-468d-ba70-fec5346af227
        |   |   |-- dom_md
        |   |   |   |-- ids
        |   |   |   |-- inbox
        |   |   |   |-- leases
        |   |   |   |-- metadata
        |   |   |   `-- outbox
        |   |   `-- images
        |   |       `-- 11111111-1111-1111-1111-111111111111
        |   `-- lost+found [error opening dir]
    
    (output trimmed)
  3. 将镜像安全地从源位置复制到完全路径 11111111-1111-1111-1111-111111111111:

    # scp root@isosource:/isos/example.iso /rhev/data-center/mnt/10.96.4.50:_rhevisosd/b835cd1c-111c-468d-ba70-fec5346af227/images/11111111-1111-1111-1111-111111111111
  4. 新复制的 ISO 镜像的文件权限应为 36:36 (vdsm:kvm)。如果没有,请将 ISO 文件的用户和组所有权更改为 36:36 (vdsm 的用户和组):

    # cd /rhev/data-center/mnt/10.96.4.50:_rhevisosd/b835cd1c-111c-468d-ba70-fec5346af227/images/11111111-1111-1111-1111-111111111111
    # chown 36.36 example.iso

ISO 镜像现在应在数据中心的 ISO 域中可用。

2.6.9.4. 将存储域移到维护模式

存储域必须处于维护模式,然后才能被分离和删除。这要求将另一个数据域重新设计为 master 数据域。

重要

如果虚拟机在存储域上具有租用,则无法将存储域进入维护模式。需要关闭虚拟机,或者需要首先删除或移动到其他存储域中。有关虚拟机租期的信息,请参阅 虚拟机管理指南

通过添加更多 LUN 扩展 iSCSI 域,只能在域活跃时完成。

流程

  1. 关闭在存储域上运行的所有虚拟机。
  2. Storage Domains
  3. 点存储域的名称。这会打开详情视图。
  4. Data Center 选项卡。
  5. Maintenance

    注意

    Ignore OVF 更新失败复选框允许存储域进入维护模式,即使 OVF 更新失败。

  6. 点击 OK

存储域将被停用,并在结果列表中具有 不活动状态。现在,您可以编辑、分离、删除或重新激活数据中心中不活跃的存储域。

注意

您还可以在与其关联的数据中心的详情视图中使用 Storage 选项卡激活、分离和将域置于维护模式。

2.6.9.5. 编辑存储域

您可以通过管理门户编辑存储域参数。根据存储域的状态,可以是 active 或 inactive,不同的字段可用于编辑。Data Center, Domain Function, Storage Type, 和 Format 等项不能改变。

  • Active :当存储域处于活跃状态时,可以编辑 Name, Description, Comment, Warning Low Space Indicator (%), Critical Space Action Blocker (GB), Wipe After Delete, 和 Discard After Delete 字段。只有存储域处于活动状态时才能编辑 Name 字段。还可以在存储域不活跃时编辑所有其他字段。
  • Inactive :当存储域处于维护模式或未附加模式时(处于不活动状态)您可以编辑 Name, Data Center, Domain Function, Storage Type, 和 Format 之外的所有字段。存储域必须不活跃才能编辑存储连接、挂载选项和其他高级参数。这只支持 NFS、POSIX 和 Local 存储类型。
注意

无法通过管理门户编辑 iSCSI 存储连接,但可以通过 REST API 编辑。请参阅 REST API 指南中的更新存储连接

编辑 Active Storage Domain*

  1. 单击 Storage Domains 并选择一个存储域。
  2. 单击 Manage Domain
  3. 根据需要编辑可用的字段。
  4. 点击 OK

编辑不活跃存储域

  1. Storage Domains
  2. 如果存储域处于活跃状态,请将其移到维护模式:

    1. 点存储域的名称。这会打开详情视图。
    2. Data Center 选项卡。
    3. Maintenance
    4. 点击 OK
  3. 单击 Manage Domain
  4. 根据需要编辑存储路径和其他详情。新的连接详情必须与原始连接的存储类型相同。
  5. 点击 OK
  6. 激活存储域:

    1. 点存储域的名称。这会打开详情视图。
    2. Data Center 选项卡。
    3. Activate

2.6.9.6. 更新 OVF

默认情况下,M OVF 每 60 分钟更新一次。但是,如果您导入了重要的虚拟机或进行关键更新,您可以手动更新 OVFs。

流程

  1. Storage Domains
  2. 选择存储域并点 More Actions ( moreactions ),然后点 Update OVFs

    OVF 已更新,并显示在 Events 中。

2.6.9.7. 从维护模式激活存储域

如果您要更改数据中心的存储,则必须将存储域置于维护模式。激活存储域以恢复使用该存储域.

  1. Storage Domains
  2. 点不活跃存储域的名称。这会打开详情视图。
  3. Data Centers 选项卡。
  4. Activate
重要

如果您在激活数据域之前尝试激活 ISO 域,则会显示错误消息,并且域未激活。

2.6.9.8. 将存储域从数据中心分离

将存储域从一个数据中心分离,将其迁移到另一个数据中心。

流程

  1. Storage Domains
  2. 点存储域的名称。这会打开详情视图。
  3. Data Center 选项卡。
  4. Maintenance
  5. 单击 OK 以启动维护模式。
  6. 单击 Detach
  7. 单击 OK 以分离存储域。

存储域已从数据中心分离,准备好连接到另一个数据中心。

2.6.9.9. 将存储域附加到数据中心

将存储域连接到数据中心.

流程

  1. Storage Domains
  2. 点存储域的名称。这会打开详情视图。
  3. Data Center 选项卡。
  4. Attach
  5. 选择相应的数据中心。
  6. 点击 OK

存储域连接到数据中心,并自动激活。

2.6.9.10. 删除存储域

在您的数据中心中有一个要从虚拟环境中删除的存储域。

流程

  1. Storage Domains
  2. 将存储域移到维护模式并分离它:

    1. 点存储域的名称。这会打开详情视图。
    2. Data Center 选项卡。
    3. 单击 Maintenance,然后单击 OK
    4. 单击 Detach然后单击确定
  3. 单击 Remove
  4. (可选)选择 格式化域,即存储内容将丢失! 复选框可清除域的内容。
  5. 点击 OK

存储域已从环境中永久移除。

2.6.9.11. 销毁存储域

存储域遇到错误可能无法通过正常流程删除。销毁存储域以强制从虚拟环境中删除存储域。

流程

  1. Storage Domains
  2. 选择存储域并点 More Actions ( moreactions ),然后点 Destroy
  3. 选择 Approve operation 复选框。
  4. 点击 OK

2.6.9.12. 创建磁盘配置集

磁盘配置文件定义存储域中虚拟磁盘的最大吞吐量以及最大输入和输出操作级别。磁盘配置文件基于数据中心中定义的存储配置文件创建,必须手动分配到单独的虚拟磁盘,才能使配置文件生效。

此流程假设您已在存储域所属数据中心下定义了一个或多个服务条目存储质量。

流程

  1. Storage Domains
  2. 点数据存储域的名称。这会打开详情视图。
  3. Disk Profiles 选项卡。
  4. 单击 New
  5. 为磁盘配置文件输入 NameDescription
  6. QoS 列表中选择要应用到磁盘配置集的服务质量。
  7. 点击 OK

2.6.9.13. 删除磁盘配置集

从 Red Hat Virtualization 环境中删除现有磁盘配置集。

流程

  1. Storage Domains
  2. 点数据存储域的名称。这会打开详情视图。
  3. Disk Profiles 选项卡。
  4. 选择要删除的磁盘配置文件。
  5. 单击 Remove
  6. 点击 OK

如果磁盘配置集分配给任何虚拟磁盘,则会从这些虚拟磁盘中移除该磁盘。

2.6.9.14. 查看存储域的 Health 状态

除了常规的 Status 外,存储域还具有外部健康状态。外部健康状态由插件或外部系统报告,或者由管理员设置,并出现在存储域名称左侧的以下图标之一:

  • 确定 :无图标
  • infoInfo
  • 警告Warning
  • 错误Error
  • 失败Failure

要查看有关存储域健康状态的详情,请单击存储域的名称。这会打开详情视图,然后点 Events 选项卡。

也可以使用 REST API 查看存储域的健康状况。存储域上的 GET 请求将包含 external_status 元素,其中包含健康状态。

您可以通过 事件 集合在 REST API 中设置存储域的健康状况。如需更多信息,请参阅 REST API 指南中的 添加事件

2.6.9.15. 在为存储域删除后设置 Discard

选择了 Discard After Delete 复选框后,会在逻辑卷上调用 blkdiscard 命令,并在删除时对底层存储进行通知,通知块可用。存储阵列可以使用空闲的空间并在请求时分配。删除后丢弃 仅适用于块存储。对于文件存储,这个标志不适用于 Red Hat Virtualization Manager,例如 NFS。

限制:

  • 在块存储域(如 iSCSI 或光纤通道)中丢弃 删除 功能才可用。
  • 底层存储必须支持 Discard

在创建块存储域或编辑块存储域时,可以在 删除后丢弃。请参阅准备和添加块存储编辑存储域

2.6.9.16. 在有超过 250 个主机的环境中启用 4K 支持

默认情况下,GlusterFS 域和本地存储域支持 Red Hat Virtualization 环境中有最多 250 个主机的 4K 块大小。4k 块大小可以提供更好的性能,特别是在使用大型文件时,在使用需要 4K 兼容性的工具时(如 VDO)也需要这样做。

注意

GlusterFS 存储已弃用,并将在以后的发行版本中删除。

当主机数量上限为 250 时,Sanlock 分配的锁定空间区域为 1 MB。当您在使用 4K 存储时增加主机的最大数量时,锁定空间区会较大。例如,在使用 2000 个主机时,锁定空间区域可能会大为 8 MB。

您可以通过设置 engine 配置参数 MaxNumberOfHostsInStoragePool 在有超过 250 个主机的环境中启用 4K 块支持。

流程

  1. 在 Manager 机器上启用所需的最大主机数:

    # engine-config -s MaxNumberOfHostsInStoragePool=NUMBER_OF_HOSTS
  2. 重启 JBoss 应用服务器:

    # service jboss-as restart

例如,如果您有一个具有 300 个主机的集群,请输入:

# engine-config -s MaxNumberOfHostsInStoragePool=300
# service jboss-as restart

验证

查看 Manager 中的 MaxNumberOfHostsInStoragePool 参数的值:

 # engine-config --get=MaxNumberOfHostsInStoragePool
 MaxNumberOfHostsInStoragePool: 250 version: general

2.6.9.17. 禁用 4K 支持

默认情况下,GlusterFS 域和本地存储域支持 4K 块大小。4k 块大小可以提供更好的性能,特别是在使用大型文件时,在使用需要 4K 兼容性的工具时(如 VDO)也需要这样做。

注意

GlusterFS 存储已弃用,并将在以后的发行版本中删除。

您可以禁用 4K 块支持。

流程

  1. 确定启用了 4K 块支持。

    $ vdsm-client Host getCapabilities
    …​
    {
        "GLUSTERFS" : [
             0,
             512,
             4096,
        ]
        …​
  2. 编辑 /etc/vdsm/vdsm.conf.d/gluster.conf 并将 enable_4k_storage 设置为 false。例如:

    $ vi  /etc/vdsm/vdsm.conf.d/gluster.conf
    
    [gluster]
    # Use to disable 4k support
    # if needed.
    enable_4k_storage = false

2.6.9.18. 监控存储域中的可用空间

您可以监控存储域中的可用空间,并创建一个警报来警告您何时存储域接近容量。您还可以定义在域关闭时指出域的关键阈值。

使用 Virtual Data Optimizer (VDO)和精简池支持,您可能会看到比物理可用的更多可用空间。对于 VDO 此行为,但 Manager 无法预测您实际写入的数据量。Warning Low Confirmed Space Indicator 参数会在域接近物理空间容量时通知您,显示已确认空间的大小。已确认空间指的是可用于写入数据的实际空间。

流程

  1. 在管理门户中,点 Storage Storage Domain ,再点存储域的名称。
  2. 单击 Manage Domain。此时会打开 Manage Domains 对话框。
  3. 展开 Advanced Parameters
  4. 对于 Warning 低 Space Indicator (%) 输入百分比值。当存储域中的可用空间达到这个值时,您该域的 Manager 警报已接近容量。
  5. 对于 关键空间操作块(GB),以 GB 为单位输入一个值。当存储域中的可用空间达到这个值时,管理器将关闭。
  6. 对于 Warning 低确认空间分配器(%) 的百分比值。当存储域中的可用空间达到这个值时,Manager 会提醒您写入数据的实际空间已接近容量。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.