Deployment Guide for Public Cloud
Red Hat Gluster Storage on Public Cloudの展開
概要
第1章 パブリック来るアドにおける Red Hat ストレージ リンクのコピーリンクがクリップボードにコピーされました!
1.1. glusterFS について リンクのコピーリンクがクリップボードにコピーされました!
1.2. 前提条件 リンクのコピーリンクがクリップボードにコピーされました!
第2章 Amazon Web Services を使用した Red Hat Gluster Storage へのアクセス リンクのコピーリンクがクリップボードにコピーされました!
図2.1 Amazon Web Services 統合アーキテクチャー
- NFS および CIFS の高可用性
- Red Hat Gluster Storage Web 管理
2.1. Amazon Machine Image として Red Hat Gluster Storage へのアクセス リンクのコピーリンクがクリップボードにコピーされました!
2.2. 前提条件 リンクのコピーリンクがクリップボードにコピーされました!
- ノードの最小数は 3 です。
- 互換性のある物理サーバー、仮想サーバー、クライアントの OS プラットフォームについては、https://access.redhat.com/articles/66206 を参照してください。
2.3. Red Hat Gluster Storage インスタンスの起動 リンクのコピーリンクがクリップボードにコピーされました!
| EBS ボリュームタイプ | インスタンスごとのボリューム数 | インスタンスごとのボリュームの最大数 | EBS ボリュームの容量範囲 |
|---|---|---|---|
| Magnetic | 1 | 24 | 1 GiB - 1 TiB |
| 汎用 SSD | 1 | 24 | 1 GiB - 16 TiB |
| PIOPS SSD | 1 | 24 | 4 GiB - 16 TiB |
| 最適化した HDD (ST1) | 1 | 24 | 500 GiB - 16 TiB |
| コールド HDD (SC1) | 1 | 24 | 500 GiB - 16 TiB |
- Red Hat Gluster Storage ボリュームスナップショットの作成は、magnetic、一般的な SSD および PIOPS EBS ボリュームでサポートされます。USS を使用してスナップショットコンテンツを参照することもできます。Red Hat Gluster Storage ボリュームスナップショットの管理に関する情報は、『『RedHat Gluster Storage 管理ガイド』』の「『スナップショットの管理』」を参照してください。
- 警告階層化は、Red Hat Gluster Storage 3.5 では非推奨です。Red Hat ではこの使用を推奨しておらず、Red Hat Gluster Storage 3.5.3 にアップグレードする新規デプロイメントおよび既存デプロイメントでは階層化をサポートしません。警告Gluster-NFS は、Red Hat Gluster Storage 3.5 では非推奨です。Red Hat では Gluster-NFS の使用を推奨しておらず、Red Hat Gluster Storage 3.5.3 にアップグレードする新規デプロイメントおよび既存デプロイメントでのその使用をサポートしません。警告RDMA をトランスポートプロトコルとして使用することは、Red Hat Gluster Storage 3.5 で非推奨となっています。Red Hat ではこの使用を推奨しておらず、Red Hat Gluster Storage 3.5.3 にアップグレードする新規デプロイメントおよび既存デプロイメントでサポートしません。Amazon Web Service 環境は、Red Hat Gluster Storage 階層機能をサポートします。magnetic EBS ボリュームで作成された既存の Red Hat Gluster Storage ボリュームまたは新しい Red Hat Gluster Storage ボリュームに、PIOPS から作成したブリックをアタッチすることができます。階層化されたボリュームの作成に関する情報は、『『RedHat Gluster ストレージ管理ガイド』』の「『階層の管理』」を参照してください。
- http://aws.amazon.com で Amazon Web Services ホームページに移動します。
- Amazon Web Services にログインします。AWS マネジメントコンソール 画面が表示されます。
- EC2 オプションをクリックします。EC2 管理コンソール が表示されます。
- Launch Instance をクリックします。ステップ 1: Amazon Machine Image (AMI) 画面が表示されます。
- My AMIs をクリックし、Shared with me チェックボックスを選択します。
- 必要な AMI を検索し、AMI に対応する Select をクリックします。ステップ 2: インスタンスタイプ の画面が表示されます。
- インスタンスの必要なタイプを探し、インスタンスタイプに対応するラジオボタンを使用して選択します。
- Next:Configure Instance Details をクリックします。ステップ 3: Configure Instance Details 画面が表示されます。
- インスタンスの設定を指定するか、デフォルト設定を続行するには、Next: Add Storage をクリックします。ステップ 4: Add Storage 画面が表示されます。
- ステップ 4: Add Storage 画面でストレージの詳細を指定し、Next: Add Tags をクリックします。ステップ 5: Add Tags 画面が表示されます。
- Add をクリックして、各タグの Value フィールドに必要な情報を入力します。重要Name タグの追加が必要です。Name タグを追加するには、クリックして Name タグを追加をクリックします。この名前を後で使用して、インスタンスが正常に動作していることを確認できます。
- Next: Configure Security Group をクリックします。ステップ 6: 「セキュリティーグループの設定」 画面が表示されます。
- 新しいセキュリティーグループを作成するか、既存のセキュリティーグループを選択します。
- 新しいまたは選択したセキュリティーグループで、以下の TCP ポート番号を開くようにしてください。
- 22: 作成したインスタンスへの ssh アクセスを許可
- Review and Launch をクリックします。ステップ 7: インスタンス起動の確認 画面が表示されます。
- 必要な設定を確認して編集し、起動 をクリックします。
- 既存のキーペアを選択するか、新規キーペアを作成して インスタンスの起動 をクリックします。
2.4. Red Hat Gluster Storage インスタンスが実行中であることを確認します。 リンクのコピーリンクがクリップボードにコピーされました!
- http://aws.amazon.com に移動します。
- Amazon Web Services にログインします。AWS マネジメントコンソール 画面が表示されます。
- EC2 オプションをクリックします。EC2 管理コンソール が表示されます。
- Instances セクションで、Instances リンクをクリックします。画面には、現在のインスタンスが表示されます。
- Instance State 列をチェックして、インスタンスが実行していることを確認します。黄色の円は、インスタンスが実行されていることを示す緑色の円で、保留中のステータスを示します。インスタンスを選択し、Description タブに表示される詳細を確認します。
- 次のコマンドを使用して、パブリック DNS フィールドのドメイン名を使用して Red Hat Amazon Machine Image インスタンスにリモートでログインします。
ssh -i Key_Pair_File Public_DNS sudo su
# ssh -i Key_Pair_File Public_DNS # sudo suCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記インスタンスの起動時に、選択したキーペアを使用する必要があります。たとえば、キーペアのファイル名はrhs-aws.pemで、パブリック DNS はec2-user@ec2-23-20-52-123.compute-1.amazonaws.comです。ssh -i rhs-aws.pem ec2-user@ec2-23-20-52-123.compute-1.amazonaws.com sudo su
# ssh -i rhs-aws.pem ec2-user@ec2-23-20-52-123.compute-1.amazonaws.com # sudo suCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下のコマンドを使用して、
glusterdデーモンがインスタンスで実行されていることを確認します。# service glusterd status注記Samba および NFS-Ganesha チャネルはデフォルトで無効になります。スタンドアロンの Samba および NFS-Ganesha を使用するには、以下を実行します。- Red Hat Gluster Storage Samba リポジトリーを有効にしてインストールする場合は、『『Red Hat Gluster Storage 3.5 インストールガイド』』の「『Red Hat Gluster Storage への Samba のデプロイ』」を参照してください。
- Red Hat Gluster Storage NFS-Ganesha リポジトリーを有効にしてインストールする場合は、『『Red Hat Gluster Storage 3.5 インストールガイド』』の「『Red Hat Gluster Storage への NFS-Ganesha のデプロイ』」を参照してください。
2.5. ストレージのプロビジョニング リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat Gluster Storage 3.4 以降、Red Hat は、Red Hat Gluster Storage インスタンスが使用する場合に複数の EBS ボリュームの集約を推奨しません。本章の手順に従って、AWS 環境で Red Hat Gluster Storage を設定します。
- Red Hat Gluster Storage EC2 インスタンスでサポートされる設定は、最大 24 個の Amazon EBS ボリュームです。
- 3 方向の複製ボリュームまたは Arbitrated ボリューム用にストレージをプロビジョニングする場合、3 つの異なるゾーンにボリュームの各レプリカセットを作成する必要があります。この設定では、2 つのアベイラビリティーゾーンが利用できない場合でも、データの可用性に影響を与えることはありません。クライアント側のクォーラムはデフォルトで有効になっています。そのため、2 つのゾーンが利用できないと、アクセスが読み取り専用になります。
- 仮想マシンのスナップショット、または Red Hat Gluster Storage Server がゲストオペレーティングシステムとしてインストールされているインスタンス、ファイバーチャネルまたは iSCSI SAN スナップショットなどの外部スナップショットはサポートされていません。
- 調整された複製ボリュームまたは 3 方向の複製ボリュームを作成する場合には、汎用 SSD または PIOPS SSD で構成される
EBSボリュームタイプを使用する必要があります。
- 以下のコマンドを使用して物理ボリューム (PV) を作成します。
pvcreate device
# pvcreate deviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下は例になります。pvcreate /dev/xvdd Physical volume "/dev/xvdd" successfully created.
# pvcreate /dev/xvdd Physical volume "/dev/xvdd" successfully created.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記/dev/babelは、ストレージデバイスです。複数のボリュームがある場合は、このコマンドをすべてのディスクで実行する必要があります。以下は例になります。pvcreate /dev/xvdd /dev/xvde /dev/xvdf…
# pvcreate /dev/xvdd /dev/xvde /dev/xvdf…Copy to Clipboard Copied! Toggle word wrap Toggle overflow - デバイス名と調整値は、使用中のデバイスによって異なります。
- 以下のコマンドを使用して PV からボリュームグループ (VG) を作成します。
vgcreate volume_group device
# vgcreate volume_group deviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下は例になります。vgcreate rhs_vg /dev/xvdd Volume group "rhs_vg" successfully created
# vgcreate rhs_vg /dev/xvdd Volume group "rhs_vg" successfully createdCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記/dev/babelは、ストレージデバイスです。複数のデバイスがある場合は、複数の VG を作成します。 - 使用可能な最大サイズまたは EBS ボリュームサイズの 0.5% のプールサイズのシンプールを作成します。
lvcreate --thinpool VOLGROUP/POOLNAME -l 100%FREE --chunksize chunk_size --poolmetadatasize metadata_pool_size --zero n
# lvcreate --thinpool VOLGROUP/POOLNAME -l 100%FREE --chunksize chunk_size --poolmetadatasize metadata_pool_size --zero nCopy to Clipboard Copied! Toggle word wrap Toggle overflow メタデータ LV に可能な最大サイズは 16 GiB です。Red Hat Gluster Storage は、サポートされている最大サイズのメタデータデバイスを作成することを推奨します。領域が懸念される場合は、最大数未満を割り当てることができますが、この場合はプールサイズの最小 0.5% を割り当てる必要があります。例 1デバイスの最大サイズの可能な最大メタデータデバイスサイズでシンプールを作成するには、次のコマンドを実行します。lvcreate --thinpool rhs_vg/rhs_pool -l 100%FREE --chunksize 256K --poolmetadatasize 16g --zero n Using default stripesize 64.00 KiB. Logical volume "rhs_pool" created.
# lvcreate --thinpool rhs_vg/rhs_pool -l 100%FREE --chunksize 256K --poolmetadatasize 16g --zero n Using default stripesize 64.00 KiB. Logical volume "rhs_pool" created.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例 2EBS ボリュームの サイズが 20 GiB の 0.5% プールメタデータサイズを作成するには、以下を実行します。lvcreate --thinpool rhs_vg1/rhs_pool1 -l 100%FREE --chunksize 256K --poolmetadatasize 0.1g --zero n Using default stripesize 64.00 KiB. Rounding up size to full physical extent 104.00 MiB
# lvcreate --thinpool rhs_vg1/rhs_pool1 -l 100%FREE --chunksize 256K --poolmetadatasize 0.1g --zero n Using default stripesize 64.00 KiB. Rounding up size to full physical extent 104.00 MiBCopy to Clipboard Copied! Toggle word wrap Toggle overflow - lvs コマンドを実行して、EBS ボリュームで利用可能な最大デバイス領域を取得します。論理ボリュームの作成時に、このコマンドに表示されている
LSizeサイズを使用できます。これにより、EBS ボリューム全体が使用され、容量がなくなるようになります。lvs rhs_vg LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert rhs_pool rhs_vg twi-a-t--- 1.97t 0.00 0.02
# lvs rhs_vg LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert rhs_pool rhs_vg twi-a-t--- 1.97t 0.00 0.02Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 直前のコマンドで取得した
LSizeを使用して論理ボリュームを作成し、シンプール全体を 1 つの LV に消費するか、1 つのシンプールから複数の LVs を作成することができます。lvcreate -V lv_size -T VOLGROUP/POOLNAME -n lv_name
# lvcreate -V lv_size -T VOLGROUP/POOLNAME -n lv_nameCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例 1直前のコマンドで取得したLSizeを使用して単一の LV を作成し、シンプール全体を 1 つの論理ボリュームに消費します。lvcreate -V 1.96T -T rhs_vg/rhs_pool -n rhs_lv Using default stripesize 64.00 KiB. Rounding up size to full physical extent 1.96 TiB Logical volume "rhs_lv" created.
# lvcreate -V 1.96T -T rhs_vg/rhs_pool -n rhs_lv Using default stripesize 64.00 KiB. Rounding up size to full physical extent 1.96 TiB Logical volume "rhs_lv" created.Copy to Clipboard Copied! Toggle word wrap Toggle overflow シンプールの自動拡張アクティベーション/thin_pool_autoextend_threshold は 100 未満である必要があります。例 21 つのシンプールから複数の LV を作成します。この例では、シンプール rhs_pool1 からサイズ 2G の LV を作成します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下のコマンドを使用して、論理ボリュームをフォーマットします。
mkfs.xfs -i size=512 -n size=8192 /VOLGROUP/POOLNAME/
# mkfs.xfs -i size=512 -n size=8192 /VOLGROUP/POOLNAME/Copy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、/dev/rhgs_vg/rhgs_lvをフォーマットするには、次のコマンドを実行します。mkfs.xfs -i size=512 -n size=8192 /dev/rhgs_vg/rhgs_lv
# mkfs.xfs -i size=512 -n size=8192 /dev/rhgs_vg/rhgs_lvCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下のコマンドを使用して、マウントポイントを作成し、論理デバイスをマウントします。
mkdir File Mount Path # mount -t xfs -o inode64,noatime Logical Volume Path File Mount Path
# mkdir File Mount Path # mount -t xfs -o inode64,noatime Logical Volume Path File Mount PathCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下は例になります。mkdir /export/mountlv mount -t xfs -o inode64,noatime /dev/rhgs_vg/rhgs_lv /export/mountlv
# mkdir /export/mountlv # mount -t xfs -o inode64,noatime /dev/rhgs_vg/rhgs_lv /export/mountlvCopy to Clipboard Copied! Toggle word wrap Toggle overflow /etc/fstabに以下の行を追加して、ファイルシステムを自動的にマウントします。Logical Volume Path File Mount Path xfs rw,inode64,noatime,nouuid 0 0
# Logical Volume Path File Mount Path xfs rw,inode64,noatime,nouuid 0 0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下は例になります。/dev/rhgs_vg/rhgs_lv /export/mountlv xfs rw,inode64,noatime,nouuid 0 0
# /dev/rhgs_vg/rhgs_lv /export/mountlv xfs rw,inode64,noatime,nouuid 0 0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.6. Red Hat Gluster Storage インスタンスの停止および再起動 リンクのコピーリンクがクリップボードにコピーされました!
第3章 Microsoft Azure を使用した Red Hat Gluster Storage へのアクセス リンクのコピーリンクがクリップボードにコピーされました!
統合アーキテクチャー
Microsoft Azure のアーキテクチャーは、ソリューションの作成方法を形化します。Microsoft Azure は、platform-as-a-service (PaaS) 環境または infrastructure-as-a-service (IaaS) 環境として機能できるクラウドサービスを提供します。Gluster Storage の場合、クラウドサービスは、仮想インスタンスをデプロイする論理コンテナーを提供する IaaS レイヤーでなければなりません。IaaS コンテナーでは、Microsoft Azure は DNS や DHCP などのネットワークサービスを提供します。これにより、物理デプロイメントを管理するのと同様の仮想インスタンスを管理します。
図3.1 統合アーキテクチャー
cloudapp.net ドメインに適用される接頭辞である名前で定義されます。クラウドサービス内のインスタンスへのアクセスは、クラウドサービス名および TCP ポート (エンドポイント) を指定して行われます。通常、これは SSH アクセスです。たとえば、クラウドサービス内で 30 個の仮想インスタンスが実行されている場合があります。そのため、インスタンスごとに異なるエンドポイントを公開すると、個別にアクセスできます。50,001 はインスタンス A のポート 22 にリンク、50,002 はインスタンス B のポート 22 にリンク。
図3.2 Microsoft Azure および Red Hat Gluster Storage のワークフロー
3.1. イメージのプロファイルとサイジング リンクのコピーリンクがクリップボードにコピーされました!
/mnt/resource に表示され、アプリケーションのスワップ領域と一時ストレージを提供するために Windows Azure Linux エージェントで設定されます。
- 仮想ディスクの最大サイズは 1023 GB です。複数の 1023 GB のディスクを集約することで、大きなディスクサイズに対応することができます。
- ディスクが定義されると、そのサイズを簡単に変更することはできません。Microsoft Azure Standard Storage の容量コストは使用をベースとしており、割り当てられた容量ではなく、Red Hat Gluster Storage ノードに割り当てられるすべてのディスクが 1023 GB になることが推奨されます。
- CPU、RAM、およびディスク数などの属性は、インスタンスの作成後に簡単に変更できますが、ネットワークの特性は使用できません。設定を計画する際には、インスタンスの作成前にネットワークトポロジーと接続に必要な接続を考慮してください。Microsoft Azure インスタンスは、複数のネットワークカードと複数の仮想ネットワークをサポートしますが、これらのタイプの高度なネットワーク機能は Windows Powershell を使用してのみ設定可能です。
3.2. 前提条件 リンクのコピーリンクがクリップボードにコピーされました!
- https://access.redhat.com/articles/uploading-rhel-image-to-azure#install-the-azure-cross-platform-cli-on-your-azure-administration-server-6 記載の指示に従って、Microsoft Azure CLI をインストールします。
- https://access.redhat.com/articles/migrating-to-red-hat-cloud-access 記載の指示に従って、システムを Red Hat から Microsoft Azure に移行します。
- ノードの最小数は 3 です。
- 互換性のある物理サーバー、仮想サーバー、クライアントの OS プラットフォームについては、https://access.redhat.com/articles/66206 を参照してください。
3.3. プランニングのガイドライン リンクのコピーリンクがクリップボードにコピーされました!
- Microsoft Azure サービスを操作し、制御するための管理サーバーを指定します。単純な Gluster Storage デプロイメント (単一サイト、単一 NIC) の場合、管理プラットフォームは Linux サーバー/ワークステーションになります。より複雑なデプロイメントでは、Powershell を使用する Windows デスクトップが推奨されます。
- initramfs ファイルに含まれる Hyper-V ドライバーを使用して、Red Hat Enterprise Linux 7 をベースにカスタムイメージをビルドします。これらのドライバーが存在しない場合は、インスタンスの起動に失敗します。
- Red Hat Gluster Storage ノードに仮想ネットワークを使用します。
- Geo レプリケーションの場合は、共通の
/etc/hostsファイルをすべてのノードにデプロイするか、共有 DNS サーバーを使用します。 - 標準ストレージに対する課金は、使用される容量に基づいています。したがって、データディスクの最大サイズ (1023 GB) を使用し、将来の管理オーバーヘッドを最小限にするために、インストール時にインスタンスをサポートする数だけ割り当てると便利です。
- NFS が Gluster Storage ノードに接続するのに推奨される方法としては、クロックの速度が高くなる CPU を持つ
Dシリーズインスタンスを使用することを検討してください。 - 可用性を強化するために、可用性セットを使用して Gluster Storage ノードを複製セット内にグループ化します。
mdadmを使用して、ディスクを組み合わせてより大きなディスクを形成します。- より少ない仮想マシンを使用して、最高の容量を提供します。
- 高可用性データアクセスの場合は、ネイティブ
glusterfsクライアントで複製された GlusterFS ボリュームを使用します。 - 各 Gluster Storage ノードで実行している SSH サービスへの公開アクセスには、デフォルト以外の SSH ポートを使用します (つまり、vm create で --ssh を使用します)。
3.4. ARM モードでの Microsoft Azure での Red Hat Gluster Storage の設定 リンクのコピーリンクがクリップボードにコピーされました!
3.4.1. Red Hat Gluster Storage for Microsoft Azure の取得 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat カスタマーポータル (https://access.redhat.com/login) にアクセスし、ユーザー名およびパスワードを入力してログインします。
- Downloads をクリックし、 Software & Download Center に移動します。
- Red Hat Gluster Storage Server エリアで、 をクリックして
VHDイメージの最新バージョンをダウンロードします。 - ファイルがダウンロードされたディレクトリーに移動し、ファイルで
sha256sumコマンドを実行します。以下に例を示します。sha256sum rhgs-azure-3.5-rhel-7-x86_64.tar.gz 2d083222d6a3c531fa2fbbd21c9ea5b2c965d3b8f06eb8 ff3b2b0efce173325d rhgs-azure-3.5-rhel-7-x86_64.tar.gz
$ sha256sum rhgs-azure-3.5-rhel-7-x86_64.tar.gz 2d083222d6a3c531fa2fbbd21c9ea5b2c965d3b8f06eb8 ff3b2b0efce173325d rhgs-azure-3.5-rhel-7-x86_64.tar.gzCopy to Clipboard Copied! Toggle word wrap Toggle overflow sha256sumユーティリティーで生成された値は、ファイルについて Red Hat カスタマーポータルに表示される値と一致している必要があります。これらが同じでない場合は、ダウンロードが不完全または破損しているため、ファイルを再度ダウンロードする必要があります。ダウンロードの試行後にチェックサムが正常に検証されていない場合は、Red Hat サポートにお問い合わせください。 - ダウンロードしたファイル
rhgs-azure-[version].zipを展開してアーカイブコンテンツを展開します。以下に例を示します。tar -xvzf rhgs-azure-3.5-rhel-7-x86_64.tar.gz
# tar -xvzf rhgs-azure-3.5-rhel-7-x86_64.tar.gzCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.4.2. Microsoft Azure での新規リソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
- リソースグループを作成します。
azure group create -l [azure-region] -n [resource-group]
# azure group create -l [azure-region] -n [resource-group]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - ストレージアカウントを作成します。以下のコマンドは、使用するレプリケーションオプションを特定できるいくつかの詳細を設定します。詳細は、https://azure.microsoft.com/en-us/documentation/articles/storage-redundancy/ の Microsoft の 『Account Replication Options』 の記事を参照してください。
azure storage account create --sku-name [LRS, ZRS, GRS, RA-GRS] --kind [Storage, Blob Storage] -l [azure-region] -g [resource-group] [account-name]
# azure storage account create --sku-name [LRS, ZRS, GRS, RA-GRS] --kind [Storage, Blob Storage] -l [azure-region] -g [resource-group] [account-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。azure storage account create --sku-name LRS --kind Storage -l eastus -g rhgsarm rhgsstorage info: Executing command storage account create + Checking availability of the storage account name + Creating storage account info: storage account create command OK
# azure storage account create --sku-name LRS --kind Storage -l eastus -g rhgsarm rhgsstorage info: Executing command storage account create + Checking availability of the storage account name + Creating storage account info: storage account create command OKCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 次の手順で使用するストレージアカウントキーを取得します。
azure storage account keys list -g [resource-group] [account-name]
# azure storage account keys list -g [resource-group] [account-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow Microsoft Azure は、ストレージコンテナーへのアクセスを許可する鍵の 2 つを生成します。Microsoft Azure は、キーの再生成目的で 2 つのキーを生成します。再生成時に、セキュアなアクセスに 1 つのキーを使用します。一方、Microsoft Azure はキーを再生成して新規キーを作成します。新しいキーがある場合は、そのキーに切り替えて、他の鍵を次の時間に再生成します。これは、Microsoft Azure ストレージコンテナーのパスワードを変更するのに適しています。これは定期的に行うべきですが、2 つのキーのみが作成されているため、これは実行しません。キーおよびキーの再生成に関する情報は、https://azure.microsoft.com/en-us/documentation/articles/storage-configure-connection-string/ の Microsoft の Storage Connection Strings を参照してください。 - キーをエクスポートします。前の手順で作成した key1 文字列をコピーし、AccountKey= ファイルに貼り付けます。
export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;AccountName=[account-name];AccountKey=[storage-account-key]"
# export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;AccountName=[account-name];AccountKey=[storage-account-key]"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;AccountName=rhgsstorage;AccountKey=ba8zt8LSUznaGX92DV1zWhj3ikrpIQEsZXxmNQcd194JaD/NgSwueVVmPfAjOMptpu3fDR/7olT2smo/9ZON+w=="
# export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;AccountName=rhgsstorage;AccountKey=ba8zt8LSUznaGX92DV1zWhj3ikrpIQEsZXxmNQcd194JaD/NgSwueVVmPfAjOMptpu3fDR/7olT2smo/9ZON+w=="Copy to Clipboard Copied! Toggle word wrap Toggle overflow - ストレージコンテナーを作成します。
azure storage container create [container-name]
# azure storage container create [container-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Microsoft Azure 仮想ネットワークを作成します。
azure network vnet create -g [resource-group] -l [azure-region] -a [CIDR-address-prefixe-vnet] [vnet-name]
# azure network vnet create -g [resource-group] -l [azure-region] -a [CIDR-address-prefixe-vnet] [vnet-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Microsoft Azure 仮想ネットワークのサブネットを作成します。
azure network vnet subnet create -g [resource-group] -e [vnet-name] -a [CIDR-address-prefix-subnet] [subnet-name]
# azure network vnet subnet create -g [resource-group] -e [vnet-name] -a [CIDR-address-prefix-subnet] [subnet-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要マシンをシャットダウンしない場合には、ストレージ接続キーは以下の手順により維持されます。この手順を行う前にシャットダウンした場合は、以下のコマンドでキー (-k "[storage-account-key]) を渡す必要があります。キーを設定ファイルに追加して、マシンのブート時に毎回読み込むことができます。
3.4.3. ディスクイメージの Microsoft Azure へのアップロード リンクのコピーリンクがクリップボードにコピーされました!
azure storage blob upload -t page -a [account-name] --container [container-name] -b [azure-image-name].vhd [path to image-name].vhd
# azure storage blob upload -t page -a [account-name] --container [container-name] -b [azure-image-name].vhd [path to image-name].vhd
3.4.4. Gluster Storage インスタンスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
- SSH 鍵を使用した認証
- パスワードを使用した認証
- Red Hat Gluster Storage 仮想マシンを作成します。注記このコマンドの実行時に vnic-name、public-ip-name、および public-ip-domain-name が作成されます。使用する名前を入力し、コマンドの実行時に作成されます。-Q オプションの直前の手順でイメージの URL をコピーアンドペーストします。-G オプションは ssh キーを生成します。表示される詳細で key-pem ファイルへのパスを書き留めておきます。Azure 仮想マシンへの ssh へのパスが必要です。重要Microsoft Azure 仮想マシン名には、文字、数字、ピリオド、およびハイフンを含めることができます。名前はハイフンで起動したり終了したり、数字を完全に構成したり、512 文字以下にする必要があります。詳細は、Microsoft の「『 Recommended naming conventions for Azure resources』」を参照してください。https://docs.microsoft.com/en-us/azure/guidance/guidance-naming-conventions
SSH 鍵を使用した認証
- 以下のコマンドを入力して、Red Hat Gluster Storage インスタンスを作成し、SSH 鍵を使用して認証します。
azure vm create -g [resource-group] -l [azure-region] -f [vnic-name] -y [os-type] -Q [image-url] -G -z [vm-size] -i [public-ip-name] -o [storage-account-name] -R [storage-container-name] -m [public-ip-allocation-method] -w [public-ip-domain-name] -t [public-ip-idletimeout] -F [vnet-name] -j [vnet-subnet-name] -u [admin-name] -n [virtual-machine-name]
azure vm create -g [resource-group] -l [azure-region] -f [vnic-name] -y [os-type] -Q [image-url] -G -z [vm-size] -i [public-ip-name] -o [storage-account-name] -R [storage-container-name] -m [public-ip-allocation-method] -w [public-ip-domain-name] -t [public-ip-idletimeout] -F [vnet-name] -j [vnet-subnet-name] -u [admin-name] -n [virtual-machine-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - SSH セッションを開始し、管理者名と公開鍵ファイルを使用して、実行中の仮想マシンに接続します。
ssh -i [path-to-key-pem] [admin-name@public-ip-address]
# ssh -i [path-to-key-pem] [admin-name@public-ip-address]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。ssh -i /root/.azure/ssh/rhgs72-key.pem clouduser@rhgs72.east.cloudapp.azure.com
# ssh -i /root/.azure/ssh/rhgs72-key.pem clouduser@rhgs72.east.cloudapp.azure.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow
パスワードを使用した認証
- 以下のコマンドを入力して、Red Hat Gluster Storage インスタンスを作成し、SSH パスワードを使用して認証します。プロンプトが表示されたら、パスワードを入力する必要があります。
azure vm create -g [resource-group] -l [azure-region] -f [vnic-name] -y [os-type] -Q [image-url] -z [vm-size] -i [public-ip-name] -o [storage-account-name] -R [storage-container-name] -m [public-ip-allocation-method] -w [public-ip-domain-name] -t [public-ip-idletimeout] -F [vnet-name] -j [vnet- subnet-name] -u [admin-name] -n [virtual-machine-name]
# azure vm create -g [resource-group] -l [azure-region] -f [vnic-name] -y [os-type] -Q [image-url] -z [vm-size] -i [public-ip-name] -o [storage-account-name] -R [storage-container-name] -m [public-ip-allocation-method] -w [public-ip-domain-name] -t [public-ip-idletimeout] -F [vnet-name] -j [vnet- subnet-name] -u [admin-name] -n [virtual-machine-name]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - SSH セッションを開始し、管理者名とインスタンスの作成時に使用されるパスワードを使用して、実行中の仮想マシンに接続します。
ssh [admin-name@public-ip-address]
# ssh [admin-name@public-ip-address]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。ssh clouduser@rhgs72.east.cloudapp.azure.com
# ssh clouduser@rhgs72.east.cloudapp.azure.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- 新規作成された仮想マシンにデータディスクを追加します。
azure vm disk attach-new resource-group vm-name size-in-gb
# azure vm disk attach-new resource-group vm-name size-in-gbCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - インスタンスを作成し、すべてのインスタンスにディスクを割り当てる上記のステップを実行します。
- インスタンスが適切に作成されたことを確認します。
azure vm list -g [resource group]
# azure vm list -g [resource group]Copy to Clipboard Copied! Toggle word wrap Toggle overflow For example,
For example,Copy to Clipboard Copied! Toggle word wrap Toggle overflow Copy to Clipboard Copied! Toggle word wrap Toggle overflow Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- Microsoft Azure の可用性セットは、保持するインスタンスに対するフォールトトレランスのレベルを提供し、システム障害や予定されている停止から保護します。これは、同じ可用性セット内のインスタンスが異なる障害や、Microsoft Azure データセンター内のアップグレードドメインをデプロイすることで実現されます。
- Gluster Storage がブリック間でデータを複製する場合は、レプリカセットを特定の可用性セットに関連付けます。レプリケーション設計で可用性セットを使用すると、Microsoft Azure インフラストラクチャー内のインシデントはレプリカセットのすべてのメンバーを同時に影響を受けることができません。
3.5. Gluster Storage クラスターの設定 リンクのコピーリンクがクリップボードにコピーされました!
- キーまたはパスワードを使用して各ノードにログインします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - subscription-manager コマンドを使用して各ノードを Red Hat Network に登録し、関連する Red Hat Storage サブスクリプションをアタッチします。Red Hat Gluster Storage 3.5 チャンネルをサブスクライブする方法については、『Red Hat Gluster Storage 3.5 Installation Guide』の 『Installing Red Hat Gluster Storage』 を参照してください。
- 各ノードを更新して、最新の拡張機能およびパッチが適用されていることを確認します。
yum update
# yum updateCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 『『Red Hat Gluster Storage Administration Guide』』の「『信頼できるストレージプールへのサーバーの追加』」の章に記載の手順に従って、信頼できるストレージプールを作成します。
3.6. 付録: ASM モードでの Microsoft Azure での Red Hat Gluster Storage の設定 リンクのコピーリンクがクリップボードにコピーされました!
3.6.1. Red Hat Gluster Storage for Microsoft Azure の取得 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat カスタマーポータル (https://access.redhat.com/login) にアクセスし、ユーザー名およびパスワードを入力してログインします。
- Downloads をクリックし、 Software & Download Center に移動します。
- Red Hat Gluster Storage Server エリアで、 をクリックして
VHDイメージの最新バージョンをダウンロードします。 - ファイルがダウンロードされたディレクトリーに移動し、ファイルで
sha256sumコマンドを実行します。以下に例を示します。sha256sum rhgs-azure-3.5-rhel-7-x86_64.tar.gz 2d083222d6a3c531fa2fbbd21c9ea5b2c965d3b8f06eb8ff3b2b0efce173325d rhgs-azure-3.5-rhel-7-x86_64.tar.gz
$ sha256sum rhgs-azure-3.5-rhel-7-x86_64.tar.gz 2d083222d6a3c531fa2fbbd21c9ea5b2c965d3b8f06eb8ff3b2b0efce173325d rhgs-azure-3.5-rhel-7-x86_64.tar.gzCopy to Clipboard Copied! Toggle word wrap Toggle overflow sha256sumユーティリティーで生成された値は、ファイルについて Red Hat カスタマーポータルに表示される値と一致している必要があります。これらが同じでない場合は、ダウンロードが不完全または破損しているため、ファイルを再度ダウンロードする必要があります。ダウンロードの試行後にチェックサムが正常に検証されていない場合は、Red Hat サポートにお問い合わせください。 - ダウンロードしたファイル
rhgs-azure-[version].zipを展開してアーカイブコンテンツを展開します。以下に例を示します。tar -xvzf rhgs-azure-3.5-rhel-7-x86_64.tar.gz
# tar -xvzf rhgs-azure-3.5-rhel-7-x86_64.tar.gzCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.6.2. ネットワークトポロジーの定義 リンクのコピーリンクがクリップボードにコピーされました!
- Gluster Storage ノードのクラウドサービスを作成します。
azure service create --serviceName service_name --location location
# azure service create --serviceName service_name --location locationCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。azure service create --serviceName rhgs313-cluster --location "East US" info: Executing command service create + Creating cloud service data: Cloud service name rhgs313-cluster info: service create command OK
# azure service create --serviceName rhgs313-cluster --location "East US" info: Executing command service create + Creating cloud service data: Cloud service name rhgs313-cluster info: service create command OKCopy to Clipboard Copied! Toggle word wrap Toggle overflow cloudapp.netがサービス名に追加され、完全なサービス名がインターネットに直接公開されます。この場合は、rhgs313-cluster.cloudapp.netになります。 - Gluster Storage ノードが接続する仮想ネットワークを作成します。この例では、ネットワークが East US の場所内に作成されます。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.6.3. ディスクイメージを Microsoft Azure にアップロードする リンクのコピーリンクがクリップボードにコピーされました!
azure vm image create image_name --location location --os linux VHD_image_name
# azure vm image create image_name --location location --os linux VHD_image_name
azure vm image list | awk '$3 == "User" {print $2;}'
# azure vm image list | awk '$3 == "User" {print $2;}'
awk は Microsoft Azure アカウント下に追加されたイメージのみを表示するために使用されます。
3.6.4. Gluster Storage インスタンスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
- 準備済みイメージからインスタンスを作成するには、
azure vm create --vm-name vm_name --availability-set name_of_the_availability_set --vm-size size --virtual-network-name vnet_name --ssh port_number --connect cluster_name username_and_password
# azure vm create --vm-name vm_name --availability-set name_of_the_availability_set --vm-size size --virtual-network-name vnet_name --ssh port_number --connect cluster_name username_and_passwordCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 各インスタンスに 1023 GB のデータディスクを追加します。
azure vm disk attach-new VM_name 1023
# azure vm disk attach-new VM_name 1023Copy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、以下のようになります。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - インスタンスを作成し、すべてのインスタンスにディスクを割り当てる上記のステップを実行します。
- インスタンスが適切に作成されたことを確認します。
azure vm list azure vm show vm-name
# azure vm list # azure vm show vm-nameCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Microsoft Azure の可用性セットは、保持するインスタンスに対するフォールトトレランスのレベルを提供し、システム障害や予定されている停止から保護します。これは、同じ可用性セット内のインスタンスが異なる障害や、Microsoft Azure データセンター内のアップグレードドメインをデプロイすることで実現されます。
- Gluster Storage がブリック間でデータを複製する場合は、レプリカセットを特定の可用性セットに関連付けます。レプリケーション設計で可用性セットを使用すると、Microsoft Azure インフラストラクチャー内のインシデントはレプリカセットのすべてのメンバーを同時に影響を受けることができません。
- 各インスタンスには、SSH アクセスを許可するためのクラウドサービスに追加される静的 IP ( -S) 内の静的 IP (-S)が割り当てられ、SSH アクセスを許可できます (--ssh ポート)。
- bash の解釈の問題を回避するために、パスワードの周りの引用符 (') があります。
例
以下は、準備したイメージから 4 つのインスタンスを作成する例です。
- これらの名前は
rhgs31-nです。 - これらの IP アドレスは 10.18.0.11 から 10.18.0.14 です。
for i in 1 2 3 4; do as=$((i/3)); azure vm create --vm-name rhgs31-$i --availability-set AS$as -S 10.18.0.1$i --vm-size Medium --virtual-network-name rhgs-vnet --ssh 5000$i --connect rhgs-cluster rhgs3.1 rhgsuser 'AzureAdm1n!'; done
for i in 1 2 3 4; do as=$((i/3)); azure vm create --vm-name rhgs31-$i --availability-set AS$as -S 10.18.0.1$i --vm-size Medium --virtual-network-name rhgs-vnet --ssh 5000$i --connect rhgs-cluster rhgs3.1 rhgsuser 'AzureAdm1n!'; done
for node in 1 2 3 4; do for disk in 1 2 3 4; do azure vm disk attach-new rhgs31-$node 1023; done ; done
for node in 1 2 3 4; do for disk in 1 2 3 4; do azure vm disk attach-new rhgs31-$node 1023; done ; done
azure vm list azure vm show vm-name
# azure vm list
# azure vm show vm-name
3.6.5. Gluster Storage クラスターの設定 リンクのコピーリンクがクリップボードにコピーされました!
- 各ノードにログインします。
ssh rhgsuser@rhgs313-cluster.cloudapp.net -p 50001
# ssh rhgsuser@rhgs313-cluster.cloudapp.net -p 50001Copy to Clipboard Copied! Toggle word wrap Toggle overflow - subscription-manager コマンドを使用して各ノードを Red Hat Network に登録し、関連する Red Hat Storage サブスクリプションをアタッチします。Red Hat Gluster Storage 3.5 チャンネルをサブスクライブする方法については、『Red Hat Gluster Storage 3.5 Installation Guide』の 『Installing Red Hat Gluster Storage』 を参照してください。
- 各ノードを更新して、最新の拡張機能およびパッチが適用されていることを確認します。
yum update
# yum updateCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 『『Red Hat Gluster Storage Administration Guide』』の「『信頼できるストレージプールへのサーバーの追加』」の章に記載の手順に従って、信頼できるストレージプールを作成します。
3.7. 付録: ISO からのカスタムディスクイメージの作成 リンクのコピーリンクがクリップボードにコピーされました!
- Gluster Storage の最新 ISO を https://access.redhat.com/downloads/content/186/ver=3.1/rhel---7/3.1/x86_64/product-software からダウンロードします。
virt-managerを使用して、2 つのコアである 4 GB RAM、2 つのコア 20 GB の virtio HDD と 1 つの NIC を持つ qcow2 イメージを作成します。- ISO イメージからインスタンスを起動し、Gluster Storage のインストールを完了します。Windows Azure エージェントはスワップ領域用に一時ディスクを設定するため、スワップ領域を割り当てないでください。
- インスタンスを再起動してログインします。
- 汎用ホスト名を設定します。Red Hat Enterprise Linux 7 の場合:
hostnamectl set-hostname localhost.localdomain
# hostnamectl set-hostname localhost.localdomainCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 6 の場合:vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=localhost.localdomain
# vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=localhost.localdomainCopy to Clipboard Copied! Toggle word wrap Toggle overflow - DHCP が
/etc/sysconfig/network-scripts/ifcfg-eth0 に設定されていることを確認します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Microsoft Azure および Hyper-V との競合を回避するために、udev ルールを更新します。
rm -f /etc/udev/rules.d/70-persistent-net.rules rm -f /lib/udev/rules.d/75-persistent-net-generator.rules
# rm -f /etc/udev/rules.d/70-persistent-net.rules # rm -f /lib/udev/rules.d/75-persistent-net-generator.rulesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Red Hat Enterprise Linux 7 では、Gluster Storage にデフォルトのファイアウォールルールを適用します。これらのルールセットは、ノード間の通信、GlusterFS クライアント、および NFS に使用されます。
firewall-cmd --zone=public --add-service=glusterfs --permanent firewall-cmd --zone=public --add-service=nfs --add-service=rpc-bind --permanent
# firewall-cmd --zone=public --add-service=glusterfs --permanent # firewall-cmd --zone=public --add-service=nfs --add-service=rpc-bind --permanentCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 仮想マシンを登録します。
subscription-manager register --auto-attach subscription-manager repos --disable=*
# subscription-manager register --auto-attach # subscription-manager repos --disable=*Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Extras リポジトリーおよび Gluster Storage リポジトリーを有効にします。これは rhel-6- または rhel-7- のいずれかになります。
subscription-manager repos --enable rhel-7-server-rpms --enable rhel-7-server-extras-rpms --enable rh-gluster-3-for-rhel-7-server-rpms
# subscription-manager repos --enable rhel-7-server-rpms --enable rhel-7-server-extras-rpms --enable rh-gluster-3-for-rhel-7-server-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow - システムを更新して、Microsoft Azure Linux エージェントをインストールします。
yum update –y yum –y install WALinuxAgent
# yum update –y # yum –y install WALinuxAgentCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Gluster Storage のインストール時に定義されたスワップ領域を無効にします。これは Red Hat Enterprise Linux 7 で必要になります。Microsoft Azure は、ランタイム時に一時ストレージを割り当てます。このストレージは swap に使用されるため、スワップ領域を明示的に定義する必要はありません。
swapoff -v /dev/rhgs/swap sed -i '/.* swap/d' /etc/fstab
# swapoff -v /dev/rhgs/swap # sed -i '/.* swap/d' /etc/fstabCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 6 では、インストーラーはディスク設定を変更できるため、スワップが定義されていません。ただし、論理ボリュームを作成している場合は、RHEL 7 で設定を削除します。 - Red Hat Enterprise Linux 7 のみAzure で実行されている Linux 仮想マシンには、initramfs イメージ内に hv_storvsc ドライバーおよび hv_vmbus ドライバーが必要です。Red Hat Enterprise Linux 6 インストーラーにはこれらのドライバーが自動的に含まれていますが、Red Hat Enterprise Linux 7 では、インストーラーは Hyper-V デバイスがインストール時に検出される場合にのみこれらのドライバーを追加します。virt-manager を使用して仮想マシンイメージをビルドする場合は、これらの Hyper-V ドライバーを手動で追加します。
- 以下の内容を
/etc/dracut.confに追加します。 initramfsを再生成します。dracut -f -v
# dracut -f -vCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- カーネルブート設定を更新します。Red Hat Enterprise Linux 7 の場合:
- /etc/default/grub に GRUB_CMDLINE_LINUX 変数を設定します。
``rd.lvm.lv=rhgs/root console=ttyS0 earlyprintk=ttyS0 rootdelay=300
``rd.lvm.lv=rhgs/root console=ttyS0 earlyprintk=ttyS0 rootdelay=300Copy to Clipboard Copied! Toggle word wrap Toggle overflow - grub2 設定を更新します。
grub2-mkconfig -o /boot/grub2/grub.cfg
# grub2-mkconfig -o /boot/grub2/grub.cfgCopy to Clipboard Copied! Toggle word wrap Toggle overflow - rhqb、quiet、または crashkernel=auto パラメーターを削除します。
Red Hat Enterprise Linux 6 の場合:- /boot/grub/menu.lst でカーネルブート行を更新します。
console=ttyS0 earlyprintk=ttyS0 rootdelay=300 numa=off
console=ttyS0 earlyprintk=ttyS0 rootdelay=300 numa=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow - rhqb、quiet、または crashkernel=auto パラメーターを削除します。
- 起動時に Windows Azure エージェントを起動できるようにします。
- Red Hat Enterprise Linux 7 の場合:
systemctl enable waagent
# systemctl enable waagentCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Red Hat Enterprise Linux 6 の場合:
chkconfig waagent on
# chkconfig waagent onCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Red Hat Subscription Manager を使用して仮想マシンの登録を解除します。
subscription-manager unregister
# subscription-manager unregisterCopy to Clipboard Copied! Toggle word wrap Toggle overflow - インスタンスのプロビジョニングを解除してローカル設定を削除します。これにより、インスタンスは Microsoft Azure 内のディスクイメージとして使用することができます。
yum clean all waagent -force -deprovision export HISTSIZE=0 poweroff
# yum clean all # waagent -force -deprovision # export HISTSIZE=0 # poweroffCopy to Clipboard Copied! Toggle word wrap Toggle overflow - インスタンスの XML をダンプし、作成した仮想ディスクのファイル名を見つけ、Microsoft Azure と互換性のある VHD ファイルに変換します。この例では、インスタンスは
qcow2ディスク形式を使用して最初に作成されました。virsh dumpxml image-name qemu-img convert -f qcow2 -O vpc -o subformat=fixed -O vpc rhgs313.qcow2 rhgs313.vhd
# virsh dumpxml image-name # qemu-img convert -f qcow2 -O vpc -o subformat=fixed -O vpc rhgs313.qcow2 rhgs313.vhdCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.8. 付録: Performance Categorization リンクのコピーリンクがクリップボードにコピーされました!
3.8.1. ストレージタイプ リンクのコピーリンクがクリップボードにコピーされました!
3.8.2. Bandwidth リンクのコピーリンクがクリップボードにコピーされました!
iperf を使用して単純なテストが実行されました。このテストでは、単一のネットワークインターフェースが 600 - 700 Mbit の間で配信されることが予想されていることが分かります。
3.8.3. ディスクライセンス リンクのコピーリンクがクリップボードにコピーされました!
mdadm ツールを使用して RAID0 セットを形成するために集約されました。LUN は、LVM、dm-thinp、および XFS ファイルシステムに基づいて、推奨されるベストプラクティスを使用して設定されていました。その後、fio ツールを使用して、同時実行レベルが増えたときに、基礎となるディスクの無作為な読み取りプロファイルを表示していました。
図3.3 ディスクライセンス
- 一般的なレイテンシーは 20 - 50 ミリ秒の範囲内です。
- より高い IOPS を取得するには、マルチスレッドのワークロードが必要です。つまり、1 つの thread=32 IOPS, 32 スレッド = 961 IOPS です。
- 仮想ドライブを
mdadmと組み合わせると、LUN は 1 つの仮想ディスクを超えて IOPS を提供できます。
3.8.4. GlusterFS リンクのコピーリンクがクリップボードにコピーされました!
図3.4 Gluster パフォーマンス: Small ファイル「Create」ワークロード
- ネイティブファイルシステムは適切に起動しますが、ネイティブファイルシステムのフリーズと GlusterFS ボリュームがスケーリングを継続しますが、8 - 12 スレッド間でパフォーマンスのクロスオーバーが発生します。
- GlusterFS ボリュームのスループットは、クライアントワークロードの増加によって直線的に増加します。
- 同時実行性が高いと、GlusterFS ボリュームはローカルファイルシステムを最大 47% に上げます。
- 同時実行性が高い場合には、ネイティブファイルシステムの負荷が低下します。テストの実行時にディスクサブシステムの統計を調査すると、問題は I/O の待機時間が増加していました (70 - 90%)。
第4章 Google Cloud Platform での Red Hat Gluster Storage の使用 リンクのコピーリンクがクリップボードにコピーされました!
Google Cloud Platformの概要
Google Cloud Platform は Google のパブリッククラウドオファリングで、完全に統合されたクラウド環境を実行するためのサービスを多数提供します。Google Compute Engine は、仮想マシン環境をドライブとして、管理します。この章は、この仮想マシンのインフラストラクチャーに基づいています。この仮想フレームワークは、指定されたワークロードの需要を満たすために、Red Hat Gluster Storage 環境をスケールアウトするネットワーク、ストレージ、および仮想マシンを提供します。
図4.1 統合アーキテクチャー
4.1. デプロイメントのプランニング リンクのコピーリンクがクリップボードにコピーされました!
永続ディスクの最大サイズ
元のテストビルドは、VM ごとの永続ディスクサイズを最大 10 TB で制限していました。Google では、その制限を 64 TB に拡大しました。Red Hat は、Google の現在の最大サイズ (64 TB) までの仮想マシンごとに永続ディスクをサポートします。(64 TB はディスクごとのものと仮想マシンごとの最大値の両方)、実際のデータディスクの最大値は 64 TB、オペレーティングシステムのディスクサイズを減らすことに注意してください。
4.1.1. 環境 リンクのコピーリンクがクリップボードにコピーされました!
4.1.2. 前提条件 リンクのコピーリンクがクリップボードにコピーされました!
- Google アカウント
- Google Cloud SDKGoogle Cloud SDK には、Google Cloud Platform でリソースを簡単に作成し、管理できるツールおよびライブラリーが含まれています。これは後で使用され、複数の Red Hat Gluster Storage インスタンスの作成が容易になります。Google Cloud SDK を設定し、インストールする方法は、https://cloud.google.com/sdk を参照してください。
- Red Hat Gluster Storage ソフトウェアチャンネルにアクセスするためのサブスクリプションRed Hat Gluster Storage 3.5 チャンネルをサブスクライブする方法については、『Red Hat Gluster Storage 3.5 Installation Guide』の 『Installing Red Hat Gluster Storage』 を参照してください。
- ノードの最小数は 3 です。
- 互換性のある物理サーバー、仮想サーバー、クライアントの OS プラットフォームについては、https://access.redhat.com/articles/66206 を参照してください。
4.1.3. プライマリーストレージプールの設定 リンクのコピーリンクがクリップボードにコピーされました!
- 10 x 2 Distribute-Replicate ボリュームに設定された Red Hat Gluster Storage
- 20 x n1-highmem-4 インスタンス:
Expand リソース 仕様 vCPU 4 メモリー 26 GB ブートディスク 20 GB 標準永続ディスク データディスク 10,220 GB の標準永続ディスク。1 つのインスタンスに対する永続ディスクの割り当ての最大数は 10 TB です。したがって、データディスクの最大サイズは 10 TB、ブートディスクの 20 GB のサイズ (10,220 GB) を引いた合計です。 イメージ Red Hat Enterprise Linux 7.7 でのカスタム Red Hat Gluster Storage 3.5 - 仮想マシンゾーンの割り当て:各 Gluster 同期レプリカのペアがゾーンに置かれ、ゾーンの失敗の影響を制限します。単一のゾーン障害により、データアクセスが失われることはありません。同期レプリカのペアの設定は、gluster volume create コマンドで定義された順序の機能です。
4.1.4. セカンダリーストレージプールの設定 リンクのコピーリンクがクリップボードにコピーされました!
- 10 x 1 分散ボリュームで設定された Gluster
- 10 x n1-highmem-4 インスタンス:
Expand リソース 仕様 vCPU 4 メモリー 24 GB ブートディスク 20 GB 標準永続ディスク データディスク 10,220 GB 標準永続ディスク イメージ Red Hat Enterprise Linux 7.7 でのカスタム Red Hat Gluster Storage 3.5 - 仮想マシンゾーンの割り当て:障害復旧のリモートリージョンの Geo レプリケーションを介して、非同期レプリケーションの受信側として設計されたセカンダリーストレージプール。この保護層のコストを制限するため、このストレージプールはローカルリージョン内で同期的に複製されず、分散のみの gluster ボリュームが使用されます。停止の影響を制限するため、このリージョンのすべてのノードが同じゾーンに配置されます。
4.1.5. クライアント設定 リンクのコピーリンクがクリップボードにコピーされました!
- 10 x n1-standard-2 インスタンス:
Expand リソース 仕様 vCPU 2 メモリー 7.5 GB ブートディスク 10 GB の標準永続ディスク イメージ Red Hat Enterprise Linux 7.7 でのカスタム Red Hat Gluster Storage 3.5
4.1.6. 信頼されたプールトポロジー リンクのコピーリンクがクリップボードにコピーされました!
4.1.7. Google Cloud Platform 向けの Red Hat Gluster Storage の取得 リンクのコピーリンクがクリップボードにコピーされました!
- Red Hat カスタマーポータル (https://access.redhat.com/login) にアクセスし、ユーザー名およびパスワードを入力してログインします。
- Downloads をクリックし、 Software & Download Center に移動します。
- Red Hat Gluster Storage Server エリアで、 をクリックして
qcow2イメージの最新バージョンをダウンロードします。
4.2. Google Compute Engine の設定 リンクのコピーリンクがクリップボードにコピーされました!
4.2.1. SSH キー リンクのコピーリンクがクリップボードにコピーされました!
- 以下のコマンドを使用して、Google Compute Engine で使用する SSH キーペアを生成します。
ssh-keygen -t rsa -f ~/.ssh/google_compute_engine
# ssh-keygen -t rsa -f ~/.ssh/google_compute_engineCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Google Developers コンソールで、Computer > Compute Engine > Metadata > SSH Keys > Edit の順にクリックします。
~/.ssh/google_compute_engine.pubファイルから生成された出力を入力し、保存 をクリックします。- SSH エージェントが新規ローカルコンソールセッションごとにこの ID ファイルを使用するようにするには、コンソールで以下のコマンドを実行します。
ssh-add ~/.ssh/google_compute_engine
# ssh-add ~/.ssh/google_compute_engineCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 以下の行を
~/.ssh/configファイルに追加すると、このコマンドの自動化に役立ちます。IdentityFile ~/.ssh/google_compute_engine
IdentityFile ~/.ssh/google_compute_engineCopy to Clipboard Copied! Toggle word wrap Toggle overflow - これで、Google Compute Engine プロジェクトで作成した新しい仮想マシンインスタンスへの標準の SSH 経由で接続できるようになりました。
ssh -i ~/.ssh/google_compute_engine <username>@<instance_external_ip>
# ssh -i ~/.ssh/google_compute_engine <username>@<instance_external_ip>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
~/.ssh/config ファイルに、インスタンス名による単純な SSH 接続を可能にするエイリアスを設定します。
4.2.2. クォータの設定 リンクのコピーリンクがクリップボードにコピーされました!
- ローカルリージョン (「プライマリーストレージプールの設定」 の US-CENTRAL1 図を参照)
- 永続ディスクの合計 (GB) >= 206,000
- 100 を超える CPU
- リモートリージョン(「セカンダリーストレージプールの設定」の EUROPE-WEST1 を参照してください)
- 103,000 を超える永続ディスクの合計(GB)
- CPU >=40
4.3. qcow2 から .raw 形式への変換 リンクのコピーリンクがクリップボードにコピーされました!
qcow2 イメージを .raw 形式に変換します。
qemu-img convert image_name disk.raw
# qemu-img convert image_name disk.raw
qemu-img convert RHGS-3.5.0.x86_64.qcow2 disk.raw
# qemu-img convert RHGS-3.5.0.x86_64.qcow2 disk.raw
4.4. Google Compute Engine のイメージのパッケージ化 リンクのコピーリンクがクリップボードにコピーされました!
tar -czSf disk.raw.tar.gz disk.raw
# tar -czSf disk.raw.tar.gz disk.raw
4.5. Google Cloud Storage へのイメージのアップロード リンクのコピーリンクがクリップボードにコピーされました!
gsutil mb gs://rhgs_image_upload gsutil cp disk.raw.tar.gz gs://rhgs_image_upload
# gsutil mb gs://rhgs_image_upload
# gsutil cp disk.raw.tar.gz gs://rhgs_image_upload
4.6. Google Compute Engine へのイメージのインポート リンクのコピーリンクがクリップボードにコピーされました!
gcloud compute images create rhgs31 --source-uri gs://rhgs_image_upload/disk.raw.tar.gz
# gcloud compute images create rhgs31 --source-uri gs://rhgs_image_upload/disk.raw.tar.gz
4.7. Red Hat Gluster Storage インスタンスのディスクを設定するための仮想マシンインスタンスの作成 リンクのコピーリンクがクリップボードにコピーされました!
- Google Developers コンソールで、Compute > Compute Engine > VM instances > Create Instance をクリックします。Create Instance ウインドウが表示されます。
- Create a new instance ウィンドウで以下を入力し、Create をクリックします。
- 名前: rhgs-primary-n01
- ゾーン: us-central1-a
- マシンタイプ: n1-highmem-4 (4 vCPU、26 GB メモリー)
- ブートディスク: 20 GB 標準永続ディスク
- イメージ: rhgs31 (4 つのアップロードイメージファイル)
4.8. 初期データディスクの作成 リンクのコピーリンクがクリップボードにコピーされました!
- Google Developers コンソールで、Compute > Compute Engine > Disks > New disk をクリックします。
- New Disk ウィンドウで以下を入力し、Create をクリックします。
- Name: rhgs-primary-n01-data
- ゾーン: us-central1-a
- ディスクタイプ: 標準の永続ディスク
- ソースタイプ: None (空白ディスク)
- サイズ (GB): 10220
4.9. データディスクのアタッチおよび設定 リンクのコピーリンクがクリップボードにコピーされました!
- Google Developers コンソールから、 Compute > Compute Engine > VM instances > rhgs-primary-n01 > Attach > rhgs-primary-n01-data をクリックします。
- モードを Read/write として選択します。
- SSH 経由で rhgs-primary-n01 インスタンスに接続し、データディスクを設定します。
ssh username@instance_external_ip
# ssh username@instance_external_ipCopy to Clipboard Copied! Toggle word wrap Toggle overflow - データディスクが /dev/sdb として表示されることを確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - LVM を構成し、ファイルシステムのフォーマットを作成して、データディスクをマウントします。以下のスクリプトを使用して、文書化された推奨事項に従ってこのプロセスを完了できます。警告このスクリプトは、スナップショットに必要な LVM シンプロビジョニングに、対応している最大メタデータ LV サイズ 16 GB に対応するのに十分なブロックデバイスをカバーすることを前提としています。スクリプトの各ステップを使用する前に、これを実行する内容を理解する必要があります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.10. イメージ作成プロセスのディスクの割り当て解除 リンクのコピーリンクがクリップボードにコピーされました!
- Google Developers コンソールで、Compute > Compute Engine > VM instances > rhgs-primary-n01 をクリックします。Disks セクションまで下方向にスクロールします (ブートディスク用および追加ディスク用のものである必要があります)。インスタンスが削除されても 、チェックボックスのチェックマークが外れ、インスタンスの削除時に追加のディスクには Keep disk が表示されることを確認します。次に、上部の Delete をクリックし、仮想マシンインスタンスを削除します。
4.11. イメージを使用した複数の Red Hat Gluster Storage インスタンスの作成 リンクのコピーリンクがクリップボードにコピーされました!
- rhgs-primary-n01 のイメージをルート永続ディスクとして作成する。Google Developers コンソールで、Compute > Compute Engine > Images > New image をクリックします。Create a new image ウインドウが表示されます。Create a new image ウィンドウで以下を入力し、Create をクリックします。
- 名前: rhgs-image01
- ソースディスク: rhgs-primary-n01
- rhgs-primary-n01-data のイメージをデータ永続ディスクとして作成する。Google Developers コンソールで、Compute > Compute Engine > Images > New image をクリックします。Create a new image ウィンドウで以下を入力し、Create をクリックします。
- 名前: rhgs-data-image01
- ソースディスク: rhgs-primary-n01-data
4.12. Google Cloud Deployment Manager を使用した複数インスタンスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
- https://cloud.google.com/sdk/gcloud/#gcloud.auth の手順に従って、ログインして Google Cloud に対して認証します。
- 「付録: Red Hat Gluster Storage デプロイメントの設定ファイル」 の設定内容をコピーします。
- 以下の gcloud コマンドを実行します。
gcloud deployment-manager deployments create rghs --config glusterfs-config.yaml
# gcloud deployment-manager deployments create rghs --config glusterfs-config.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.13. Red Hat Gluster Storage の設定 リンクのコピーリンクがクリップボードにコピーされました!
4.13.1. ノードのピア リンクのコピーリンクがクリップボードにコピーされました!
for i in {02..20};
do gluster peer probe rhgs-primary-n${i};
done
# for i in {02..20};
do gluster peer probe rhgs-primary-n${i};
done
gluster peer status | grep Hostname | grep -v rhgs Hostname: 10.240.21.133
# gluster peer status | grep Hostname | grep -v rhgs
Hostname: 10.240.21.133
gluster peer probe rhgs-primary-n01 peer probe: success. gluster peer status | grep Hostname | grep n01 Hostname: rhgs-primary-n01
# gluster peer probe rhgs-primary-n01
peer probe: success.
# gluster peer status | grep Hostname | grep n01
Hostname: rhgs-primary-n01
for i in {02..10};
do gluster peer probe rhgs-secondary-n${i};
done
# for i in {02..10};
do gluster peer probe rhgs-secondary-n${i};
done
gluster peer probe rhgs-secondary-n01
# gluster peer probe rhgs-secondary-n01
4.13.2. 分散ボリュームの作成 リンクのコピーリンクがクリップボードにコピーされました!
gluster volume start myvol-slave volume start: myvol-slave: success
# gluster volume start myvol-slave
volume start: myvol-slave: success
4.13.3. プライマリーからセカンダリーリージョンへの Geo レプリケーションの設定 リンクのコピーリンクがクリップボードにコピーされました!
myvol ボリュームからリモートリージョン myvol-slave ボリュームに geo レプリケーションを確立します。
- 前提条件として、すべてのセカンダリー/スレーブサイドノードで SSH 経由での root ユーザーのログインを許可する必要があります。以下のコマンドは、すべての rhgs-secondary-n{01..10} で実行する必要があります。
sed -i s/PermitRootLogin\ no/PermitRootLogin\ yes/ \ /etc/ssh/sshd_config service sshd restart
# sed -i s/PermitRootLogin\ no/PermitRootLogin\ yes/ \ /etc/ssh/sshd_config # service sshd restartCopy to Clipboard Copied! Toggle word wrap Toggle overflow - rhgs-primary-n01 で root ユーザーの SSH キーペアを作成し、パブリックキーの内容をコピーします。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - rhgs-secondary-n01 で、SSH 公開鍵を rhgs-primary-n01 から root ユーザーの authorized_keys ファイルに追加します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記上記の SSH 公開鍵は、説明のみを目的としています。rhgs-primary-n01 で独自のid_rsa.pubファイルからのキーを使用します。
- rhgs-primary-n01 に共通の pem pub ファイルを作成します。注記これは、パスワードなしの SSH がセカンダリーノードに設定されたノードで行う必要があります。
gluster system:: execute gsec_create
# gluster system:: execute gsec_createCopy to Clipboard Copied! Toggle word wrap Toggle overflow - プライマリーサイトからセカンダリーサイトへのジオレプリケーションセッションを作成します。セカンダリーノードで必要な pem-file を設定するには、push-pem オプションが必要です。
gluster volume geo-replication myvol \ rhgs-secondary-n01::myvol-slave create push-pem
# gluster volume geo-replication myvol \ rhgs-secondary-n01::myvol-slave create push-pemCopy to Clipboard Copied! Toggle word wrap Toggle overflow gluster volume geo-replication myvol \ rhgs-secondary-n01::myvol-slave start
# gluster volume geo-replication myvol \ rhgs-secondary-n01::myvol-slave startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - geo レプリケーションのステータスを確認します。数分後に初期化ステージを完了し、各接続はそのステータスに Active または Passive と表示されるはずです。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.14. データにアクセスするためのクライアントの設定 リンクのコピーリンクがクリップボードにコピーされました!
NFS および SMB クライアント
NFS プロトコルおよび SMB プロトコルを使用することができますが、ネットワーク設定の制限により、通常通り、CTDB または Pacemaker ではこれらのプロトコルを高可用性にすることはできません。
前提条件
Native Client をインストールする前に、システムを登録およびサブスクライブする必要があります。システムを登録する方法は、『『Red Hat Gluster Storage 管理ガイド』』の「『ボリュームへのアクセス の作成』」の章を参照してください。
4.14.1. ネイティブクライアントのインストール リンクのコピーリンクがクリップボードにコピーされました!
yum -y install glusterfs-fuse attr
# yum -y install glusterfs-fuse attr
4.14.2. Red Hat Gluster Storage ボリュームのマウント リンクのコピーリンクがクリップボードにコピーされました!
mkdir -p /rhgs/client/myvol
# mkdir -p /rhgs/client/myvol
sh -c 'echo "rhgs-primary-n01:myvol /rhgs/client/myvol \ glusterfs defaults 0 0" >> /etc/fstab'
# sh -c 'echo "rhgs-primary-n01:myvol /rhgs/client/myvol \
glusterfs defaults 0 0" >> /etc/fstab'
4.14.3. マウントしたボリュームのテスト リンクのコピーリンクがクリップボードにコピーされました!
mount /rhgs/client/myvol'
# mount /rhgs/client/myvol'
4.15. 付録: スクラットから Red Hat Gluster Storage Compute Engine イメージのビルド リンクのコピーリンクがクリップボードにコピーされました!
4.15.1. ISO から RAW ディスクイメージファイルへの Red Hat Gluster Storage のインストール リンクのコピーリンクがクリップボードにコピーされました!
dd コマンドを実行して、RAW ディスクイメージとして機能する 20 GB のスパースファイルを作成します。
dd if=/dev/zero of=disk.raw bs=1 count=0 seek=20G
# dd if=/dev/zero of=disk.raw bs=1 count=0 seek=20G
4.15.2. ネットワークインターフェースの有効化と起動 リンクのコピーリンクがクリップボードにコピーされました!
- システムの起動時に、デフォルトの eth0 ネットワークインターフェースを有効にします。
sed -i s/ONBOOT=no/ONBOOT=yes/ /etc/sysconfig/network-scripts/ifcfg-eth0
# sed -i s/ONBOOT=no/ONBOOT=yes/ /etc/sysconfig/network-scripts/ifcfg-eth0Copy to Clipboard Copied! Toggle word wrap Toggle overflow - eth0 ネットワークインターフェースを起動します。
ifup eth0
# ifup eth0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.15.3. Red Hat Gluster Storage Server チャンネルのサブスクライブ リンクのコピーリンクがクリップボードにコピーされました!
4.15.4. システムの更新 リンクのコピーリンクがクリップボードにコピーされました!
yum -y update
# yum -y update
4.15.5. チューニングとその他の設定 リンクのコピーリンクがクリップボードにコピーされました!
rhgs-sequential-io に設定します。
tuned-adm profile rhgs-sequential-io
# tuned-adm profile rhgs-sequential-io
rhgs-sequential-io プロファイルはこの環境に適していますが、rhgs-random-io プロファイルは異なるワークロードに適しています。
setenforce 0
# setenforce 0
4.15.6. Google Compute Engine の仮想マシンのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
init 0
# init 0
4.16. 付録: Red Hat Gluster Storage デプロイメントの設定ファイル リンクのコピーリンクがクリップボードにコピーされました!
ファイル名: glusterfs-config.yaml
ファイル名: gluster_instance.jinja
ファイル名: path_utils.jinja
付録A 改訂履歴 リンクのコピーリンクがクリップボードにコピーされました!
| 改訂履歴 | |||
|---|---|---|---|
| 改訂 3.5-0 | Wed Oct 30 2019 | ||
| |||