10.15. Transférer les logs vers Splunk
Vous pouvez transmettre les journaux au collecteur d'événements HTTP Splunk (HEC) en plus ou à la place du magasin de journaux interne par défaut d'OpenShift Container Platform.
L'utilisation de cette fonction avec Fluentd n'est pas prise en charge.
Conditions préalables
- Red Hat OpenShift Logging Operator 5.6 et supérieur
- Instance de ClusterLogging avec un vecteur spécifié comme collecteur
- Jeton Splunk HEC encodé en Base64
Procédure
Créez un secret en utilisant votre jeton Splunk HEC encodé en Base64.
oc -n openshift-logging create secret generic vector-splunk-secret --from-literal hecToken=<HEC_Token>
Créez ou modifiez la ressource personnalisée (CR)
ClusterLogForwarder
à l'aide du modèle ci-dessous :apiVersion: "logging.openshift.io/v1" kind: "ClusterLogForwarder" metadata: name: "instance" 1 namespace: "openshift-logging" 2 spec: outputs: - name: splunk-receiver 3 secret: name: vector-splunk-secret 4 type: splunk 5 url: <http://your.splunk.hec.url:8088> 6 pipelines: 7 - inputRefs: - application - infrastructure name: 8 outputRefs: - splunk-receiver 9
- 1
- Le nom du CR ClusterLogForwarder doit être
instance
. - 2
- L'espace de noms du CR ClusterLogForwarder doit être
openshift-logging
. - 3
- Spécifiez un nom pour la sortie.
- 4
- Indiquez le nom du secret qui contient votre jeton HEC.
- 5
- Spécifiez le type de sortie comme
splunk
. - 6
- Spécifiez l'URL (y compris le port) de votre Splunk HEC.
- 7
- Spécifiez les types de journaux à transférer en utilisant le pipeline :
application
,infrastructure
, ouaudit
. - 8
- Facultatif : Spécifiez un nom pour le pipeline.
- 9
- Spécifiez le nom de la sortie à utiliser lors du transfert des journaux avec ce pipeline.