第4章 クイックスタート
OpenShift Logging は 2 つのデータモデルをサポートしています。
- ViaQ (一般提供)
- OpenTelemetry (テクノロジープレビュー)
ClusterLogForwarder の lokiStack.dataModel フィールドを設定することにより、要件に基づきこれらのデータモデルのいずれかを選択できます。ViaQ は、ログを LokiStack に転送する際のデフォルトのデータモデルです。
OpenShift Logging の今後のリリースでは、デフォルトのデータモデルが ViaQ から OpenTelemetry に変更されます。
4.1. ViaQ のクイックスタート リンクのコピーリンクがクリップボードにコピーされました!
デフォルトの ViaQ データモデルを使用するには、次の手順に従います。
前提条件
-
cluster-admin権限を使用して OpenShift Container Platform クラスターにアクセスできる。 -
OpenShift CLI (
oc) がインストールされている。 - サポートされているオブジェクトストアにアクセスできる。たとえば、AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation などです。
手順
-
OperatorHub から
Red Hat OpenShift Logging Operator、Loki Operator、およびCluster Observability Operator (COO)をインストールします。 openshift-loggingnamespace にLokiStackカスタムリソース (CR) を作成します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: managementState: Managed size: 1x.extra-small storage: schemas: - effectiveDate: '2024-10-01' version: v13 secret: name: logging-loki-s3 type: s3 storageClassName: gp3-csi tenants: mode: openshift-logging注記事前に
logging-loki-s3シークレットが事前に作成されていることを確認します。このシークレットの内容は、使用しているオブジェクトストレージにより異なります。詳細は、シークレットと TLS 設定を参照してください。コレクターのサービスアカウントを作成します。
$ oc create sa collector -n openshift-loggingコレクターのサービスアカウントによる
LokiStackCR へのデータ書き込みを許可します。$ oc adm policy add-cluster-role-to-user logging-collector-logs-writer -z collector -n openshift-logging注記ClusterRoleリソースは、Cluster Logging Operator のインストール中に自動的に作成されるため、手動で作成する必要はありません。ログを収集するために、次のコマンドを実行してコレクターのサービスアカウントを使用します。
$ oc adm policy add-cluster-role-to-user collect-application-logs -z collector -n openshift-logging$ oc adm policy add-cluster-role-to-user collect-audit-logs -z collector -n openshift-logging$ oc adm policy add-cluster-role-to-user collect-infrastructure-logs -z collector -n openshift-logging注記この例では、コレクターを 3 つのロール (アプリケーション、インフラストラクチャー、監査) すべてにバインドしますが、デフォルトでは、アプリケーションログとインフラストラクチャーログのみが収集されます。監査ログを収集するには、
ClusterLogForwarder設定を更新して監査ログを含めます。環境に必要な特定のログタイプに基づきロールを割り当てます。UIPluginCR を作成して、Observe タブの Log セクションを有効にします。apiVersion: observability.openshift.io/v1alpha1 kind: UIPlugin metadata: name: logging spec: type: Logging logging: lokiStack: name: logging-lokiClusterLogForwarderCR を作成して、ログ転送を設定します。apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: collector namespace: openshift-logging spec: serviceAccount: name: collector outputs: - name: default-lokistack type: lokiStack lokiStack: authentication: token: from: serviceAccount target: name: logging-loki namespace: openshift-logging tls: ca: key: service-ca.crt configMapName: openshift-service-ca.crt pipelines: - name: default-logstore inputRefs: - application - infrastructure outputRefs: - default-lokistack注記dataModelフィールドはオプションであり、デフォルトでは未設定 (dataModel: "") になっています。これにより、Cluster Logging Operator (CLO) はデータモデルを自動的に選択できるようになります。現在、このフィールドが設定されていない場合の CLO はデフォルトで ViaQ モデルになりますが、これは今後のリリースで変更される予定です。dataModel: ViaQを指定すると、デフォルトが変更されても設定の互換性が維持されます。
検証
- OpenShift Container Platform Web コンソールの Observe タブの Log セクションにログが表示されていることを確認します。