第5章 レポートのダウンロード
スキャンの実行後、スキャンのレポートをダウンロードして、スキャン中に収集および処理されたデータを表示できます。
詳細情報
レポートのダウンロードに関する詳細は、以下の情報を参照してください。
5.1. レポートのダウンロード
スキャンの実行後、スキャンのレポートをダウンロードして、スキャン中に収集および処理されたデータを表示できます。
スキャンのレポートは、コンマ区切り変数 (CSV) 形式と JavaScript Object Notation (JSON) 形式という 2 つの形式で利用できます。また、これらは 2 つのコンテンツタイプで利用できます。スキャンからの raw 出力は、詳細レポートと、デプロイメントレポートとして処理されたコンテンツです。
3 番目のタイプのレポートである Insights レポートを利用できますが、このレポートは、Discovery コマンドラインインターフェイス経由でのみ生成できます。Insights レポートをダウンロードすると、cloud.redhat.com の Hybrid Cloud Console に転送できる .tar.gz
ファイルが提供されます。このファイルを転送すると、レポートデータを Red Hat Insights インベントリーサービスおよびサブスクリプションサービスで使用できるようになります。
詳細情報
レポートのマージおよびダウンロードの詳細は、以下の情報を参照してください。
レポートの作成方法の詳細は、以下の情報を参照してください。この情報には、レポート生成プロセスの経過が含まれます。これらのプロセスは、詳細レポートの生のファクトをフィンガープリントのデータに変更し、次にフィンガープリントのデータからデプロイメントレポートを重複排除してマージしたデータに変更します。この情報には、Discovery レポートの作成に使用されるデータの種類を示す部分的なフィンガープリントの例も含まれます。
5.1.1. レポートのダウンロード
Scans ビューで、1 つ以上のレポートを選択し、それらをダウンロードしてレポートデータを表示できます。
前提条件
スキャンのレポートをダウンロードする場合は、スキャンの最新のスキャンジョブが正常に完了している必要があります。
手順
- Scans ビューで、レポートをダウンロードする必要のあるスキャンの行に移動します。
- このスキャンの ダウンロード をクリックします。
検証手順
ダウンロードしたレポートは、.tar.gz
ファイルとしてブラウザーをダウンロードできる場所に保存されます (例 : report_id_224_20190702_173309.tar.gz
)。ファイル形式は report_id_ID_DATE_TIME.tar.gz
です。ID
はサーバーが割り当てた一意のレポート ID に、DATE
は yyyymmdd 形式の日付に、TIME
は 24 時間形式をもとにした hhmmss 形式の時間に置き換えます。日付および時間のデータは、クライアントをサーバー API と共に実行しているブラウザーとの対話によって決まります。
レポートを表示するには、.tar.gz
ファイルを report_id_ID
ディレクトリーに展開します。展開したレポートバンドルには 4 つのレポートファイルが含まれます (CSV 形式および JSON 形式の 2 つの詳細レポートと、CSV 形式および JSON 形式の 2 つのデプロイメントレポートが含まれます)。
これらのレポートの出力を表示して、独自の内部プロセスに使用することはできますが、Discovery ドキュメントには、レポートの結果を解釈するのに役立つ情報が含まれていません。さらに、Red Hat サポートは Discovery のインストールおよび使用方法に関する基本的なサポートを提供しますが、レポートを理解するためのサポートは提供しません。レポートとその形式は、Red Hat Subscription Education and Awareness Program (SEAP) チームが顧客とのエンゲージメントに使用したり、さまざまな Hybrid Cloud Console サービスへのデータ提供など、他の Red Hat 内部プロセスで使用するように設計されています。
5.1.2. レポートの作成方法
スキャンプロセスは、IT インフラストラクチャーでシステムを検出し、それらのシステムの性質および内容に関する情報を収集し、各システムの調査中に収集した情報からレポートを作成するために使用されます。
システム は、SSH 接続、vCenter Server データ、Satellite Server API、または Red Hat OpenShift クラスター API を使用して、検査タスクにより問い合わせることができるエンティティーです。したがって、システムは物理マシンや仮想マシンなどのマシンである場合もあれば、コンテナーやクラスターなどの別のタイプのエンティティーである場合もあります。
5.1.2.1. ファクトとフィンガープリント
スキャン中、各ソースに含まれるシステムごとにファクトのコレクションが収集されます。ファクト とは、オペレーティングシステムのバージョン、CP U コアの数、Red Hat 製品の消費されたエンタイトルメントなど、システムに関する単一のデータです。
ファクトは、各システム用に要約された一連のデータ (フィンガープリントとして知られているデータ) を作成するために処理されます。フィンガープリント とは、アーキテクチャー、オペレーティングシステム、そのシステムにインストールされているさまざまな製品とそのバージョン、そのシステムで使用されるエンタイトルメントなど、一意のシステムとその特性を特定する一連のファクトです。
スキャンジョブを実行すると、フィンガープリントデータが生成されますが、データは 1 種類のレポートのみを作成するために使用されます。詳細レポートを要求すると、フィンガープリントがないスキャンの未加工のファクトが表示されます。デプロイメントレポートを要求すると、重複排除、マージ、処理後のプロセスからの結果を含むフィンガープリントデータを受け取ります。これらのプロセスには、未加工のファクトからインストールされた製品とバージョンの特定、使用されたエンタイトルメントの検索、さまざまなソースからの製品の重複インスタンスの検索とマージ、デフォルト以外の場所にインストールされた製品の検索などが含まれます。
5.1.2.2. システムの重複排除とマージ
単一のシステムは、スキャン中に複数のソースを確認できます。たとえば、vCenter Server 上の仮想マシンは、Satellite にも管理される Red Hat Enterprise Linux オペレーティングシステムのインストールを実行できます。各タイプの source、vCenter、satellite、および network が含まれるスキャンを作成すると、その 1 つのシステムは、スキャン時に 3 つのソースすべてにより報告されます。
現在、スキャンで OpenShift または Ansible ソースを他のタイプのソースと組み合わせことはできないため、重複排除およびマージプロセスは OpenShift または Ansible スキャンには適用されません。
この問題を解決して正確なフィンガープリントを作成するには、スキャンから未処理のシステムのファクトをフィンガーエンジンに提供します。フィンガープリントエンジンは、重複排除とマージプロセスを使用して、複数のソースにあるシステムのデータを照合し、マージします。
システムの重複排除プロセスは、システムに関する特定のファクトを使用して、重複システムを特定します。このプロセスは、これらのファクトを使用して複数のフェーズに移動し、連続して詳細なデータセットで重複したシステムを組み合わせます。
-
ネットワークソースのすべてのシステムは、1 つのネットワークシステムセットに統合されます。
subscription_manager_id
ファクトまたはbios_uuid
ファクトに同じ値があると、システムが重複しているとみなされます。 -
vCenter ソースからのすべてのシステムは、1 つの vCenter システムセットに統合されます。
vm_uuid
ファクトに同じ値があると、システムが重複していると見なされます。 -
satellite ソースのすべてのシステムは、1 つのサテライトシステムセットに統合されます。
subscription_manager_id
ファクトに同じ値があると、システムが重複していると見なされます。 -
ネットワークシステムセットは、単一の network-satellite システムセットを形成するために設定された Satellite システムとマージされます。
subscription_manager
に同じ値がある場合や、mac_addresses
ファクトで MAC アドレスの値と一致する場合は、システムが重複していると見なされます。 -
network-satellite システムセットは、完全なシステムセットを形成する vCenter システムとマージされます。
mac_addresses
ファクトで MAC アドレス値が一致する場合や、vm_uuid
ファクトの vCenter 値がbios_uuid
ファクトのネットワーク値と一致する場合は、システムが重複していると見なされます。
5.1.2.2.1. システムのマージ
重複排除プロセスで 2 つのシステムが重複していると判断した後、次の手順では、2 つのシステムのマージを実行します。マージされたシステムには、各ソースからのシステムファクトがまとめられています。2 つのシステムで表示されるファクトがマージされると、マージプロセスでは、以下の順序で、そのファクトを上から下にマージします。
- network ソースファクト
- satellite ソースファクト
- vCenter ソースファクト
システムフィンガープリントには、そのシステムに対する各ファクトの元のソースを取得する metadata
ディクショナリーが含まれています。
5.1.2.3. システム後処理
重複排除とマージが完了したら、派生したシステムファクトを作成する処理後のフェーズがあります。派生したシステムファクト は、複数のシステムファクトの評価から生成されたファクトです。派生したシステムファクトの大半は、特定の製品とそのバージョンの存在など、製品識別データに関連します。
以下の例は、派生したシステムファクト system_creation_date
の作成方法を示しています。
system_creation_date
ファクトは、実際のシステム作成時間が含まれる派生システムファクトです。このファクトの値は、以下のファクトの評価によって決まります。各ファクトの値は、次の優先順位で検査されます。優先順位は、実際のシステム作成時間との一致の精度により決まります。system_creation_date
ファクトの値を判断するために、空でない最大値が使用されます。
-
date_machine_id
-
registration_time
-
date_anaconda_log
-
date_filesystem_create
-
date_yum_history
5.1.2.4. レポートの作成
レポートデータの処理が完了すると、レポート作成プロセスは、JSON (JavaScript Object Notation) およびコンマ区切り変数 (CSV) の 2 つの異なる形式でレポートを作成します。各フォーマットの 詳細 レポートには、未処理で未加工なファクトが含まれ、各形式の デプロイメント レポートには、フィンガープリント、重複排除、マージ、および処理後のプロセスで未処理のファクトが渡された後の出力が含まれます。
このレポート形式は、Red Hat Subscription Education and Awareness Program (SEAP) チームが顧客とのエンゲージメントやその他の Red Hat 社内プロセスで使用するように設計されています。
これらのレポートの出力を表示して、独自の内部プロセスに使用することはできますが、Discovery ドキュメントには、レポートの結果を解釈するのに役立つ情報が含まれていません。さらに、Red Hat サポートは Discovery のインストールおよび使用方法に関する基本的なサポートを提供しますが、レポートを理解するためのサポートは提供しません。レポートとその形式は、Red Hat Subscription Education and Awareness Program (SEAP) チームが顧客とのエンゲージメントに使用したり、さまざまな Hybrid Cloud Console サービスへのデータ提供など、他の Red Hat 内部プロセスで使用するように設計されています。
5.1.2.5. フィンガープリントの例
フィンガープリントは、システム上の製品、エンタイトルメント、ソース、メタデータに加えて、1 つのシステムに関するファクトのセットで構成されています。以下の例は、フィンガープリントデータを示しています。Red Hat 製品がほとんどインストールされていない場合でも、1 台システムのフィンガープリント行は多くなる可能性があります。したがって、この例では部分的なフィンガープリントのみが使用されます。
例
{ "os_release": "Red Hat Enterprise Linux Atomic Host 7.4", "cpu_count": 4, "products": [ { "name": "JBoss EAP", "version": null, "presence": "absent", "metadata": { "source_id": 5, "source_name": "S62Source", "source_type": "satellite", "raw_fact_key": null } } ], "entitlements": [ { "name": "Satellite Tools 6.3", "entitlement_id": 54, "metadata": { "source_id": 5, "source_name": "S62Source", "source_type": "satellite", "raw_fact_key": "entitlements" } } ], "metadata": { "os_release": { "source_id": 5, "source_name": "S62Source", "source_type": "satellite", "raw_fact_key": "os_release" }, "cpu_count": { "source_id": 4, "source_name": "NetworkSource", "source_type": "network", "raw_fact_key": "os_release" } }, "sources": [ { "id": 4, "source_type": "network", "name": "NetworkSource" }, { "id": 5, "source_type": "satellite", "name": "S62Source" } ] }
フィンガープリントの最初の数行は、オペレーティングシステムや CPU に関するファクトを含む、システムに関するファクトを示しています。この例では、os_release
ファクトで、インストールされているオペレーティングシステムとリリースが Red Hat Enterprise Linux Atomic Host 7.4
として説明されています。
次に、フィンガープリントは、products
セクションにインストールされている製品をリスト表示します。製品には、name、version、presence、および metadata フィールドがあります。JBoss EAP セクションでは、presence
フィールドの値が absent
と表示されるため、この例のシステムには Red Hat JBoss Enterprise Application Platform がインストールされていません。
また、フィンガープリントには、entitlements
セクションで、そのシステムの消費済みエンタイトルメントも表示されます。リストの各エンタイトルメントには、そのファクトの元のソースを記述する名前、ID、メタデータがあります。フィンガープリントのサンプルでは、システムに Satellite Tools 6.3
のエンタイトルメントがあります。
products
セクションおよび entitlements
セクションにあるメタデータフィールドに加えて、フィンガープリントには、システムファクトメタデータに使用される metadata
セクションが含まれます。システムファクトごとに、フィンガープリントの metadata
セクションに対応するエントリーがあります。そのエントリーは、そのシステムファクトの元のソースを識別します。この例では、Satellite Server で os_release
ファクトがサテライトソースのスキャンで検出されました。
最後に、フィンガープリントは、sources
セクションにこのシステムを含むソースをリスト表示します。システムは、複数のソースに含めることができます。たとえば、スキャンに network ソースと Satellite ソースの両方が含まれていると、スキャンの両方の部分で 1 台のシステムが見つかる可能性があります。