マネージドクラウドまたは Operator 環境向けの自動化メッシュ
クラウドネイティブな方法で大規模に自動化する
概要
はじめに
Red Hat Ansible Automation Platform に興味をお持ちいただきありがとうございます。Ansible Automation Platform は、Ansible を装備した環境に、制御、ナレッジ、委譲の機能を追加して、チームが複雑かつ複数層のデプロイメントを管理できるように支援する商用サービスです。
このガイドでは、Red Hat Ansible Automation Platform の Operator ベースのインストールにおける自動化メッシュのセットアップに関する要件とプロセスを説明します。このガイドの更新により、Ansible Automation Platform の最新リリースの情報が追加されました。
Red Hat ドキュメントへのフィードバック (英語のみ)
このドキュメントの改善に関するご意見がある場合や、エラーを発見した場合は、https://access.redhat.com から Technical Support チームに連絡してください。
第1章 Operator ベースの Red Hat Ansible Automation Platform 環境における自動化メッシュの計画
次のトピックには、Operator ベースの Red Hat Ansible Automation Platform 環境における自動化メッシュのデプロイメントを計画する際に役立つ情報が含まれています。このドキュメントでは、OpenShift Container Platform や Microsoft Azure マネージドアプリケーション上の Ansible Automation Platform など、Operator ベースのデプロイメントに自動化メッシュを設定する方法を説明します。
1.1. 自動化メッシュについて
自動化メッシュは、既存ネットワークを使用して互いにピアツーピア接続を確立しているノードを介して、大規模な分散ワーカーのコレクション全体で作業分散を容易にするオーバーレイネットワークです。
Red Hat Ansible Automation Platform 2 では、Ansible Tower と分離されたノードが Ansible Automation Platform と Automation Hub に置き換えられます。Ansible Automation Platform は、UI、RESTful API、RBAC、ワークフローおよび CI/CD 統合を介して自動化のコントロールプレーンを提供します。一方、自動化メッシュは、制御および実行レイヤーを構成するノードのセットアップ、検出、変更、または修正に使用できます。
自動化メッシュは次の場合に役立ちます。
- 困難なネットワークトポロジーを通過する
-
実行機能 (
ansible-playbook
を実行しているマシン) をターゲットホストに近づける
ノード (コントロール、ホップ、および実行インスタンス) は、receptor メッシュを介して相互接続され、仮想メッシュを構成します。
自動化メッシュは通信に TLS 暗号化を使用するため、外部ネットワーク (インターネットまたはその他) を通過するトラフィックは転送中に暗号化されます。
自動化メッシュは以下のものを提供します。
- 個別にスケーリングする動的クラスター容量。これにより、ダウンタイムを最小限に抑えてノードを作成、登録、グループ化、グループ化解除、および登録解除できます。
- コントロールプレーンと実行プレーンの分離。コントロールプレーンの容量とは関係なく Playbook の実行容量をスケーリングできます。
- 遅延に対する回復力があり、停止することなく再設定可能であり、停止した場合は動的に再ルーティングして別のパスを選択するデプロイメントの選択肢。
- Federal Information Processing Standards (FIPS) に準拠する双方向、マルチホップのメッシュ通信の可能性を含む接続性。
1.2. コントロールプレーンおよび実行プレーン
インスタンスは、相互に通信するデバイスのネットワークを構成します。インスタンスは自動化メッシュのビルディングブロックです。これらのビルディングブロックは、メッシュトポロジー内のノードとして機能します。自動化メッシュでは、ユニークなノードタイプを使用して コントロール プレーンと 実行 プレーンの両方を作成します。自動化メッシュトポロジーを設計する前に、コントロールプレーンおよび実行プレーン、ならびにそのノードタイプの詳細を確認してください。
1.2.1. コントロールプレーン
コントロールプレーンのインスタンスは、プロジェクトの更新や管理ジョブに加えて、Web サーバーやタスクディスパッチャーなどの永続的な Ansible Automation Platform サービスを実行します。ただし、Operator ベースのモデルには、ハイブリッドノードやコントロールノードはありません。Kubernetes クラスター上で実行されるコンテナーを構成するコンテナーグループはあります。それがコントロールプレーンを構成します。このコントロールプレーンは、Red Hat Ansible Automation Platform がデプロイされている Kubernetes クラスターに対してローカルです。
1.2.2. 実行プレーン
実行プレーン は、コントロールプレーンの代わりに自動化を実行し制御機能を持たない実行ノードで構成されます。ホップノードは、通信に対応します。実行プレーン のノードは、地理的にコントロールプレーンから離れた、レイテンシーの高いユーザー空間のジョブのみを実行します。
-
実行ノード - 実行ノードは、
podman
分離によりansible-runner
でジョブを実行します。このノードタイプは分離されたノードに似ています。これは、実行プレーンノードのデフォルトのノードタイプです。 - ホップノード - ジャンプホストと同様に、ホップノードはトラフィックを他の実行ノードにルーティングします。ホップノードは自動化を実行できません。
第2章 Operator ベースの Red Hat Ansible Automation Platform 向け自動化メッシュ
自動化メッシュのスケーリングは Red Hat Ansible Automation Platform の OpenShift デプロイメントで利用でき、インストールスクリプトを実行せずに、Ansible Automation Platform UI の Instances リソースを使用してクラスターにノードを動的に追加または削除することでスケーリングできます。
インスタンスは、メッシュトポロジー内のノードとして機能します。自動化メッシュを使用すると、自動化のフットプリントを拡張できます。ジョブを起動する場所は、ansible-playbook が実行される場所とは異なる場合があります。
Ansible Automation Platform UI からインスタンスを管理するには、システム管理者またはシステム監査者の権限が必要です。
一般に、ノードのプロセッサーコア (CPU) とメモリー (RAM) が多いほど、そのノードで同時に実行するようにスケジュールできるジョブの数も多くなります。
詳細は、Automation Controller の容量決定とジョブへの影響 を参照してください。
2.1. 前提条件
自動化メッシュは、Red Hat Enterprise Linux (RHEL) 上で実行されるホップおよび実行ノードに依存します。Red Hat Ansible Automation Platform サブスクリプションにより、Ansible Automation Platform のコンポーネントの実行に使用できる 10 個の Red Hat Enterprise Linux ライセンスが付与されます。
Red Hat Enterprise Linux サブスクリプションの詳細は、Red Hat Enterprise Linux ドキュメントの システムの登録とサブスクリプションの管理 を参照してください。
次の手順では、自動化メッシュのデプロイメント用の RHEL インスタンスを準備します。
- Red Hat Enterprise Linux オペレーティングシステムが必要です。メッシュ内の各ノードには、静的 IP アドレス、または Ansible Automation Platform がアクセスできる解決可能な DNS ホスト名が必要です。
- 続行する前に、RHEL 仮想マシンの最小要件を満たしていることを確認している。詳細は、システム要件 を参照してください。
通信が必要なリモートネットワーク内に RHEL インスタンスをデプロイします。仮想マシンの作成は、Red Hat Enterprise Linux ドキュメントの 仮想マシンの作成 を参照してください。提案されたタスクを仮想マシン上で実行できるように、必ず仮想マシンの容量を十分にスケーリングしてください。
- RHEL ISO は、access.redhat.com から入手できます。
- RHEL クラウドイメージは、console.redhat.com の Image Builder を使用してビルドできます。
2.2. 自動化メッシュで使用するための仮想マシンのセットアップ
手順
各 RHEL インスタンスに SSH で接続し、次の手順を実行します。ネットワークアクセスと制御によっては、SSH プロキシーまたは他のアクセスモデルが必要になる場合があります。
以下のコマンドを使用します。
ssh [username]@[host_ip_address]
たとえば、Amazon Web Services で実行されている Ansible Automation Platform インスタンスの場合は、以下のようになります。
ssh ec2-user@10.0.0.6
- 後のステップで、ホップノードから実行ノードに接続するために使用できる SSH キーを作成またはコピーします。これは、自動化メッシュ設定のためだけに使用される一時キー、または長期間有効なキーの場合があります。SSH ユーザーとキーは、後の手順で使用されます。
baseos
およびappstream
リポジトリーを使用して、RHEL サブスクリプションを有効にします。Ansible Automation Platform RPM リポジトリーは、Red Hat Update Infrastructure (RHUI) はなく、subscription-manager を通じてのみ利用できます。RHEL と RHUI を含む他の Linux フットプリントを使用しようとすると、エラーが発生します。sudo subscription-manager register --auto-attach
アカウントで Simple Content Access が有効になっている場合は、次を使用します。
sudo subscription-manager register
Simple Content Access の詳細は、Simple Content Access のスタートガイド を参照してください。
Ansible Automation Platform サブスクリプションと適切な Red Hat Ansible Automation Platform チャネルを有効にします。
RHEL 8 の場合:
# subscription-manager repos --enable ansible-automation-platform-2.5-for-rhel-8-x86_64-rpms
RHEL 9 の場合:
# subscription-manager repos --enable ansible-automation-platform-2.5-for-rhel-9-x86_64-rpms
ARM の場合:
# subscription-manager repos --enable ansible-automation-platform-2.5-for-rhel-aarch64-rpms
パッケージが最新であることを確認します。
sudo dnf upgrade -y
ダウンロードしたバンドルを実行するマシンに ansible-core パッケージをインストールします。
sudo dnf install -y ansible-core
注記自動化メッシュ設定バンドル Playbook を実行するマシンには Ansible Core が必要です。このドキュメントは、実行ノードでの実行を前提としています。別のマシンから Playbook を実行する場合は、この手順を省略できます。コントロールノードから直接実行することはできません。これは現在サポートされていませんが、将来的にはコントロールノードが実行ノードに直接接続される予定です。
2.3. 自動化メッシュノードタイプの定義
ジョブの容量を拡張するには、Automation Controller のデプロイメントと一緒に実行するように追加できるスタンドアロンの 実行ノード を作成します。これらの実行ノードは、Automation Controller Kubernetes クラスターの一部ではありません。
クラスター内で実行される制御ノードは、Receptor を介して実行ノードに接続し、作業を送信します。
これらの実行ノードは、タイプ execution
インスタンスとして、Automation Controller に登録されます。つまり、コントロールノードのように作業をディスパッチしたり、Web リクエストを処理したりするのではなく、ジョブを実行するためにのみ使用されます。
ホップノード は、Automation Controller のコントロールプレーンとスタンドアロン実行ノードの間に追加できます。これらのホップノードは Kubernetes クラスターの一部ではなく、タイプ hop
のインスタンスとして Automation Controller に登録されます。つまり、別のネットワークまたはより厳密なネットワーク内で到達不可能なノードへの受信および送信のトラフィックのみを処理します。
次の手順は、ホストのノードタイプを設定する方法を示しています。
デフォルトでは、AWS 上の Red Hat Ansible Automation Platform Service には、実行ノードをピアリングできる 2 つのホップノードが含まれています。
手順
- ナビゲーションパネルから → → を選択します。
Instances リストページで、 をクリックします。Add Instance ウィンドウが開きます。
インスタンスには次の属性が必要です。
Host name: (必須) インスタンスの完全修飾ドメイン名 (パブリック DNS) または IP アドレスを入力します。このフィールドは、インストーラーベースのデプロイメントの
hostname
に相当します。注記インスタンスがコントロールクラスターから解決できないプライベート DNS を使用している場合、DNS ルックアップルーティングは失敗し、生成された SSL 証明書は無効になります。代わりに IP アドレスを使用してください。
- オプション: Description: インスタンスの説明を入力します。
- Instance state: このフィールドは自動入力され、インストール中であることを示します。変更はできません。
-
Listener port: このポートは、受信接続をリッスンするために receptor に使用されます。ポートを設定に適したポートに設定できます。このフィールドは、API の
listen_port
に相当します。デフォルト値は 27199 ですが、独自のポート値を設定できます。 Instance type:
execution
ノードおよびhop
ノードのみを作成できます。Operator ベースのデプロイメントは、コントロールノードまたはハイブリッドノードをサポートしません。オプション:
- Enable instance: 実行ノード上でジョブを実行できるようにするには、このボックスをオンにします。
- Managed by policy ボックスをオンにして、ポリシーがインスタンスの割り当て方法を決定できるようにします。
Peers from control nodes:
ホップノードを設定する場合:
- 要求を Automation Controller からホップノードに直接プッシュする必要がある場合は、Peers from Control チェックボックスをオンにします。
- ホップノードを別のホップノードにピアリングする場合は、Peers from Control チェックボックスがオンになっていないことを確認します。
実行ノードを設定する場合:
- 要求を Automation Controller から実行ノードに直接プッシュする必要がある場合は、Peers from Control チェックボックスをオンにします。
- 実行ノードをホップノードにピアリングする場合は、Peers from Control チェックボックスがオンになっていないことを確認します。
- をクリックします。
ピアリング設定とトラフィックの方向を確認するために、トポロジービューを使用して、更新されたトポロジーのグラフィカル表現を表示します。これは、ファイアウォールルールを更新する必要がある場所を特定するのに役立ちます。詳細は、トポロジービュー を参照してください。
注記新しく作成したインスタンスに SSH アクセスできる任意のコンピューターから、次の手順を実行します。
Download Bundle の横にある
アイコンをクリックして、この新しいインスタンスと、作成されたノードを自動化メッシュにインストールするために必要なファイルを含む tar ファイルをダウンロードします。
インストールバンドルには、TLS 証明書とキー、認証局、および適切な Receptor 設定ファイルが含まれています。
receptor-ca.crt work-public-key.pem receptor.key install_receptor.yml inventory.yml group_vars/all.yml requirements.yml
-
ダウンロードした
tar.gz
インストールバンドルを、ダウンロードした場所から展開します。これらのファイルがリモートマシン上の正しい場所にあることを確認するために、インストールバンドルにはinstall_receptor.yml
Playbook が含まれています。 ansible-playbook
コマンドを実行する前に、inventory.yml
ファイル内の次のフィールドを編集します。all: hosts: remote-execution: ansible_host: localhost # change to the mesh node host name ansible_user: <username> # user provided ansible_ssh_private_key_file: ~/.ssh/<id_rsa>
-
ansible_host
が、ノードの IP アドレスまたは DNS に設定されていることを確認します。 -
ansible_user
を、インストールを実行しているユーザー名に設定します。 -
ansible_ssh_private_key_file
を設定して、インスタンスへの接続に使用される秘密鍵のファイル名を含めます。 -
inventory.yml
ファイルの内容はテンプレートとして機能し、メッシュトポロジーでの receptor ノードのインストールおよび設定中に適用されるロールの変数が含まれています。他のフィールドの一部を変更したり、高度なシナリオではファイル全体を置き換えたりすることができます。詳細は、Role Variables を参照してください。
-
プライベート DNS を使用するノードの場合は、次の行を
inventory.yml
に追加します。ansible_ssh_common_args: <your ssh ProxyCommand setting>
これは、
install-ceptor.yml
Playbook に、proxy コマンドを使用してローカル DNS ノード経由でプライベートノードに接続するように指示します。- 属性を設定したら、Details ページが開きます。 をクリックします。作成したインスタンスの
- ファイルを保存して続行します。
インストールバンドルを実行してリモートノードをセットアップし、
ansible-playbook
を実行するシステムには、ansible.receptor
コレクションがインストールされている必要があります。ansible-galaxy collection install ansible.receptor
または
ansible-galaxy install -r requirements.yml
-
requirements.yml
ファイルから receptor コレクションの依存関係をインストールすると、そこで指定された receptor のバージョンが一貫して取得されます。さらに、今後必要になる可能性のある他のコレクションの依存関係も取得されます。 - Playbook が実行されるすべてのノードに receptor コレクションをインストールします。インストールしない場合は、エラーが発生します。
-
receptor_listener_port
が定義されている場合、マシンには、受信 TCP 接続を確立するために使用可能なオープンポート (27199 など) も必要です。次のコマンドを実行して、Receptor 通信用にポート 27199 を開きます (ファイアウォールでポート 27199 が開いていることを確認してください)。sudo firewall-cmd --permanent --zone=public --add-port=27199/tcp
注記場合によっては、サーバーが Receptor ポート (デフォルトは 27199) をリッスンしないことがあります。
ノード A、B、C、D を持つコントロールプレーンがあるとします。
RPM インストーラーは、最小権限アプローチを使用してコントロールプレーンノード間に強力に接続されたピアリングを作成し、必要なノード上でのみ TCP リスナーを開きます。Receptor の接続はすべて双方向接続であるため、接続が確立されると、Receptor は双方向に通信できるようになります。
以下に、3 つのコントローラーノードのピアリング設定を例として示します。
コントローラーノード A -→ コントローラーノード B
コントローラーノード A -→ コントローラーノード C
コントローラーノード B -→ コントローラーノード C
以下を設定すると、リスナーを強制できます。
receptor_listener=True
ただし、コントローラー B -→ A への接続は、すでに存在するため、拒否される可能性があります。
その場合、コントローラー A は他のノードへの接続を作成しているため、コントローラー A には何も接続されません。コントローラー A で次のコマンドを実行しても、何も返されません。
[root@controller1 ~]# ss -ntlp | grep 27199 [root@controller1 ~]#
自動化メッシュを更新するマシン上で、次の Playbook を実行します。
ansible-playbook -i inventory.yml install_receptor.yml
この Playbook には OpenSSL が必要です。次のコマンドを実行してインストールできます。
openssl -v
返される場合は、OpenSSL のバージョンがインストールされています。返されない場合は、次のように OpenSSL をインストールする必要があります。
sudo dnf install -y openssl
この Playbook を実行すると、自動化メッシュが設定されます。

メッシュからインスタンスを削除するには、インスタンスの削除 を参照してください。
2.4. インスタンスグループの作成
新しいインスタンスグループを作成するには、次の手順を実行します。
手順
- ナビゲーションパネルから、 → → を選択します。
- Create instance group を選択します。 をクリックし、リストから
以下のフィールドに該当する詳細を入力します。
- Name: 名前は一意でなければならず、"controller" という名前に指定しないようにしてください。
- Policy instance minimum: 新規インスタンスがオンラインになると、このグループに自動的に最小限割り当てられるインスタンス数を入力します。
*Policy instance percentage: スライダーを使用して、新規インスタンスがオンラインになると、このグループに自動的に最小限割り当てられるインスタンスの割合を選択します。
注記新しいインスタンスグループを作成する場合、ポリシーインスタンスフィールドは必要ありません。値を指定しない場合、Policy instance minimum と Policy instance percentage は、デフォルトで 0 に設定されます。
- Max concurrent jobs: 特定のジョブに対して実行できるフォークの最大数を指定します。
Max forks: 特定のジョブに対して実行できる同時ジョブの最大数を指定します。
注記Max concurrent jobs と Max forks のデフォルト値 0 は、制限がないことを示します。詳細は、インスタンスグループの容量制限 を参照してください。
- をクリックするか、既存のインスタンスグループを編集した場合は をクリックします。
インスタンスグループが正常に作成されると、新しく作成されたインスタンスグループの Details タブでインスタンスグループ情報を確認および編集できるようになります。
Instances を編集し、このインスタンスグループに関連付けられた Jobs を確認することもできます。

2.5. インスタンスグループへのインスタンスの関連付け
手順
- インスタンスグループの Details ページで、Instances タブを選択します。
- をクリックします。
- リストから 1 つ以上の使用可能なインスタンスの横にあるチェックボックスをクリックして、インスタンスグループに関連付けるインスタンスを選択し、 をクリックします。
2.6. 実行ノードでのジョブの実行
ジョブを実行する場所を指定する必要があります。指定しなかった場合、デフォルトでコントロールクラスターで実行されます。
これを行うには、ジョブテンプレートを設定します。
ジョブテンプレートの詳細は、自動化実行の使用 の ジョブテンプレート を参照してください。
手順
-
Templates リストビューには、現在利用可能なジョブテンプレートが表示されます。この画面から、ワークフローのジョブテンプレートの起動 (
)、編集 (
)、コピー (
) を実行できます。
-
必要なジョブを選択し、
アイコンをクリックします。
- ジョブを実行する Instance Group を選択します。ジョブテンプレートでインスタンスグループを使用するには、システム管理者によってユーザーまたはチームに権限が付与されている必要があることに注意してください。複数のジョブテンプレートを選択した場合は、選択した順序によって実行の優先順位が設定されます。
- をクリックします。
- をクリックします。
2.7. メッシュ Ingress を介したノードの接続
受信接続を制限または許可しないネットワークを使用している場合、インスタンスを使用してコントロールプレーンにピアリングされたホップノードをセットアップすると、問題が発生する可能性があります。ホップノードインスタンスを作成するには、ホップノードに内部接続用の 'listener_port' がセットアップされていることも必要です。ただし、メッシュ Ingress を使用して自動化メッシュをセットアップする別の方法があります。
メッシュ Ingress をインスタンス化する場合、Kubernetes コントロールクラスター内に Pod または receptor ホップノードをセットアップします。これらは、Operator を通じてデータベースに登録されます。また、コントロールプレーンがホップノードと Automation Controller に接続するために使用するサービスとルート URL も作成します。

前提条件
- 自動化メッシュ内の実行ノード用に、リモートネットワーク内にノードインスタンスを作成します。
メッシュノードをセットアップするには、次の手順に従います。
手順
メッシュ Ingress ノードを設定するための YAML ファイル (この場合の名前は
oc_meshingress.yml
) を作成します。ファイルは次のようになります。
apiVersion: automationcontroller.ansible.com/v1alpha1 kind: AutomationControllerMeshIngress metadata: name: namespace: spec: deployment_name: aap-controller
ここでは、以下のようになります。
- apiVersion: オブジェクトのこの表現のバージョンスキーマを定義します。サーバーは認識されたスキーマを最新の内部値に変換し、認識されない値は拒否することがあります。この値は静的です。
kind: 作成するノードのタイプです。
値
AutomationControllerMeshIngress
を使用します。AutomationControllerMeshIngress
は、Automation Controller 上のメッシュ Ingress のデプロイメントと設定を制御します。- name: メッシュ Ingress ノードの名前を入力します。
namespace: メッシュ Ingress をデプロイする Kubernetes namespace の名前を入力します。
これは、メッシュが接続されている Automation Controller と同じ namespace に存在する必要があります。
- Deployment_name: このメッシュ Ingress が接続されている Automation Controller インスタンスです。Automation Controller インスタンスの名前を指定します。
以下を使用して、この YAML ファイルを適用します。
oc apply -f oc_meshingress.yml
この Playbook を実行して、
AutomationControllerMeshIngress
リソースを作成します。Operator は、指定したname
で Automation Controller にホップノードを作成します。MeshIngress インスタンスが作成されると、Instances ページに表示されます。
重要"プル" モードでリモート実行ノードとして機能するインスタンスは、この手順の後に作成する必要があり、次のように設定する必要があります。
instance type: Execution listener port: keep empty options: Enable instance: checked Managed by Policy: as needed Peers from control nodes: unchecked (this one is important)
- この新しいインスタンスを、この段落の手順で作成したホップノードに関連付けます。
tarball をダウンロードします。
注記ホップノードとの関連付けは、tarball を作成する前に行う必要があります。
2.8. OpenShift Container Platform デプロイメントのシークレットの取得
これは、Microsoft Azure 上の Ansible Automation Platform には適用されません。
Automation Controller に付属するデフォルトの実行環境を使用してリモート実行ノードで実行する場合は、実行環境イメージをプルするための認証情報を含むプルシークレットを Automation Controller に追加する必要があります。
これを行うには、Automation Controller の namespace でプルシークレットを作成し、次のように Operator で ee_pull_credentials_secret
パラメーターを設定します。
手順
次のコマンドを使用してシークレットを作成します。
oc create secret generic ee-pull-secret \ --from-literal=username=<username> \ --from-literal=password=<password> \ --from-literal=url=registry.redhat.io
デプロイメント仕様を編集して、
ee_pull_credentials_secret
とee-pull-secret
を仕様に追加します。oc edit automationcontrollers aap-controller-o yaml
そして次の行を追加します。
spec ee_pull_credentials_secret=ee-pull-secret
- Automation Controller UI からインスタンスを管理するには、システム管理者またはシステム監査者の権限が必要です。
2.9. インスタンスの削除
Instances ページから、ノードに対するヘルスチェックを追加、削除、または実行できます。
追加のノードを作成する場合、RHEL パッケージをインストールする手順に従う必要があります。この追加のノードを既存のホップノードにピアリングする場合は、各ノードにインストールバンドルもインストールする必要があります。
インスタンスの横にあるチェックボックスでインスタンスを選択し、インスタンスを削除するか、ヘルスチェックを実行します。
- UI を使用してノードを削除すると、ノードが「削除」され、そのステータスが表示されなくなります。UI で削除する前にノードの仮想マシンを削除すると、エラーが表示されます。
- インストールバンドルを再インストールする必要があるのは、トポロジーによって通信パターンが変更された場合、つまりホップノードが変更された場合やノードを追加した場合のみです。
ボタンが無効になっている場合は、その操作を実行する権限がありません。必要なレベルのアクセスを許可するよう管理者に連絡してください。
インスタンスを削除できる場合は、確認を求めるプロンプトが表示されます。
インスタンスがアクティブでジョブを実行中の場合でも、インスタンスを削除できます。Automation Controller が、このノードで実行されているジョブが完了するまで待機してから、このノードを削除します。
2.10. Receptor のアップグレード
ソフトウェアを更新すると、問題やバグが修正され、テクノロジーの使用体験が向上します。管理者権限を持つユーザーであれば、誰でも実行ノード上の Receptor を更新できます。
Red Hat では、Ansible Automation Platform コントロールプレーンの更新後に Receptor の更新を実行することを推奨しています。これにより、最新バージョンを確実に使用できます。ベストプラクティスは、コントロールプレーンの更新とは別に定期的な更新を実行することです。
手順
現在の Receptor バージョンを確認します。
receptor --version
Receptor を更新します。
sudo dnf update ansible-runner receptor -y
注記Receptor だけでなくすべてのパッケージをアップグレードするには、
dnf update
を使用してから、reboot
で再起動します。インストールを確認します。更新が完了したら、Receptor のバージョンを再度確認して更新を確認します。
receptor --version
Receptor サービスを再起動します。
sudo systemctl restart receptor
- Receptor が正しく動作しており、コントローラーまたはシステム内の他のノードに適切に接続されていることを確認します。