搜索

第 10 章 更新 OpenShift Logging

download PDF
表 10.1. OpenShift Container Platform 版本支持 Red Hat OpenShift Logging (RHOL)
 4.74.84.9

RHOL 5.1

X

X

 

RHOL 5.2

X

X

X

RHOL 5.3

 

X

X

要从 OpenShift Container Platform 4.6 及更早版本的集群日志记录升级到 OpenShift Logging 5.x,您需要将 OpenShift Container Platform 集群更新至 4.7 或 4.8。然后,您更新以下 operator:

  • 从 Elasticsearch Operator 4.x 到 OpenShift Elasticsearch Operator 5.x
  • 从 Cluster Logging Operator 4.x 到 Red Hat OpenShift Logging Operator 5.x

要从 OpenShift Logging 的旧版本升级到当前版本,您需要将 OpenShift Elasticsearch Operator 和 Red Hat OpenShift Logging Operator 更新至当前版本。

10.1. 从 OpenShift Container Platform 4.6 或更早版本的集群日志记录升级到 OpenShift Logging 5.x

OpenShift Container Platform 4.7 进行了以下名称更改:

  • 集群日志记录功能成为 Red Hat OpenShift Logging 5.x 产品。
  • Cluster Logging Operator 成为 Red Hat OpenShift Logging Operator。
  • Elasticsearch Operator 成为 OpenShift Elasticsearch Operator。

要从 OpenShift Container Platform 4.6 及更早版本的集群日志记录升级到 OpenShift Logging 5.x,您需要将 OpenShift Container Platform 集群更新至 4.7 或 4.8。然后,您更新以下 operator:

  • 从 Elasticsearch Operator 4.x 到 OpenShift Elasticsearch Operator 5.x
  • 从 Cluster Logging Operator 4.x 到 Red Hat OpenShift Logging Operator 5.x
重要

在更新 Red Hat OpenShift Logging Operator ,您必须更新 OpenShift Elasticsearch Operator。您还必须将两个 Operator 更新至同一版本。

如果您以错误的顺序更新 Operator,则 Kibana 不会更新,并且不会创建 Kibana 自定义资源 (CR)。要临时解决这个问题,请删除 Red Hat OpenShift Logging Operator pod。当 Red Hat OpenShift Logging Operator pod 重新部署时,它会创建 Kibana CR 和 Kibana 再次可用。

先决条件

  • OpenShift Container Platform 版本为 4.7 或更高版本。
  • OpenShift Logging 处于健康状态:

    • 所有 pod 都为 Ready 状态。
    • Elasticsearch 集群处于健康状态。
  • 您的 Elasticsearch 和 Kibana 数据已被备份。

流程

  1. 更新 OpenShift Elasticsearch Operator:

    1. 在 Web 控制台中,点 Operators Installed Operators
    2. 选择 openshift-operators-redhat 项目。
    3. OpenShift Elasticsearch Operator
    4. Subscription Channel
    5. Change Subscription Update Channel 窗口中,选择 5.0stable-5.1 并点 Save
    6. 等待几秒钟,然后点 Operators Installed Operators

      验证 OpenShift Elasticsearch Operator 版本是否为 5.x.x。

      等待 Status 的值变为 Succeeded

  2. 更新 Cluster Logging Operator:

    1. 在 Web 控制台中,点 Operators Installed Operators
    2. 选择 openshift-logging 项目。
    3. Cluster Logging Operator
    4. Subscription Channel
    5. Change Subscription Update Channel 窗口中,选择 5.0stable-5.1 并点 Save
    6. 等待几秒钟,然后点 Operators Installed Operators

      验证 Red Hat OpenShift Logging Operator 版本是否为 5.0.x 或 5.1.x。

      等待 Status 的值变为 Succeeded

  3. 检查日志记录组件:

    1. 确保所有 Elasticsearch pod 都处于 Ready 状态:

      $ oc get pod -n openshift-logging --selector component=elasticsearch

      输出示例

      NAME                                            READY   STATUS    RESTARTS   AGE
      elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk   2/2     Running   0          31m
      elasticsearch-cdm-1pbrl44l-2-5c6d87589f-gx5hk   2/2     Running   0          30m
      elasticsearch-cdm-1pbrl44l-3-88df5d47-m45jc     2/2     Running   0          29m

    2. 确保 Elasticsearch 集群健康:

      $ oc exec -n openshift-logging -c elasticsearch elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk -- health
      {
        "cluster_name" : "elasticsearch",
        "status" : "green",
      }
    3. 确保创建了 Elasticsearch cron 任务:

      $ oc project openshift-logging
      $ oc get cronjob
      NAME                     SCHEDULE       SUSPEND   ACTIVE   LAST SCHEDULE   AGE
      elasticsearch-im-app     */15 * * * *   False     0        <none>          56s
      elasticsearch-im-audit   */15 * * * *   False     0        <none>          56s
      elasticsearch-im-infra   */15 * * * *   False     0        <none>          56s
    4. 验证日志存储是否已更新至 5.0 或 5.1,并且索引是绿色的:

      $ oc exec -c elasticsearch <any_es_pod_in_the_cluster> -- indices

      验证输出是否包含 app-00000xinfra-00000xaudit-00000x.security 索引。

      例 10.1. 带有绿色状态索引的输出示例

      Tue Jun 30 14:30:54 UTC 2020
      health status index                                                                 uuid                   pri rep docs.count docs.deleted store.size pri.store.size
      green  open   infra-000008                                                          bnBvUFEXTWi92z3zWAzieQ   3 1       222195            0        289            144
      green  open   infra-000004                                                          rtDSzoqsSl6saisSK7Au1Q   3 1       226717            0        297            148
      green  open   infra-000012                                                          RSf_kUwDSR2xEuKRZMPqZQ   3 1       227623            0        295            147
      green  open   .kibana_7                                                             1SJdCqlZTPWlIAaOUd78yg   1 1            4            0          0              0
      green  open   infra-000010                                                          iXwL3bnqTuGEABbUDa6OVw   3 1       248368            0        317            158
      green  open   infra-000009                                                          YN9EsULWSNaxWeeNvOs0RA   3 1       258799            0        337            168
      green  open   infra-000014                                                          YP0U6R7FQ_GVQVQZ6Yh9Ig   3 1       223788            0        292            146
      green  open   infra-000015                                                          JRBbAbEmSMqK5X40df9HbQ   3 1       224371            0        291            145
      green  open   .orphaned.2020.06.30                                                  n_xQC2dWQzConkvQqei3YA   3 1            9            0          0              0
      green  open   infra-000007                                                          llkkAVSzSOmosWTSAJM_hg   3 1       228584            0        296            148
      green  open   infra-000005                                                          d9BoGQdiQASsS3BBFm2iRA   3 1       227987            0        297            148
      green  open   infra-000003                                                          1-goREK1QUKlQPAIVkWVaQ   3 1       226719            0        295            147
      green  open   .security                                                             zeT65uOuRTKZMjg_bbUc1g   1 1            5            0          0              0
      green  open   .kibana-377444158_kubeadmin                                           wvMhDwJkR-mRZQO84K0gUQ   3 1            1            0          0              0
      green  open   infra-000006                                                          5H-KBSXGQKiO7hdapDE23g   3 1       226676            0        295            147
      green  open   infra-000001                                                          eH53BQ-bSxSWR5xYZB6lVg   3 1       341800            0        443            220
      green  open   .kibana-6                                                             RVp7TemSSemGJcsSUmuf3A   1 1            4            0          0              0
      green  open   infra-000011                                                          J7XWBauWSTe0jnzX02fU6A   3 1       226100            0        293            146
      green  open   app-000001                                                            axSAFfONQDmKwatkjPXdtw   3 1       103186            0        126             57
      green  open   infra-000016                                                          m9c1iRLtStWSF1GopaRyCg   3 1        13685            0         19              9
      green  open   infra-000002                                                          Hz6WvINtTvKcQzw-ewmbYg   3 1       228994            0        296            148
      green  open   infra-000013                                                          KR9mMFUpQl-jraYtanyIGw   3 1       228166            0        298            148
      green  open   audit-000001                                                          eERqLdLmQOiQDFES1LBATQ   3 1            0            0          0              0
    5. 验证日志收集器是否已更新至 5.0 或 5.1:

      $ oc get ds fluentd -o json | grep fluentd-init

      验证输出是否包含 fluentd-init 容器:

      "containerName": "fluentd-init"
    6. 使用 Kibana CRD 验证日志可视化工具是否已更新至 5.0 或 5.1:

      $ oc get kibana kibana -o json

      验证输出是否包含具有 ready 状态的 Kibana Pod:

      例 10.2. 带有就绪 Kibana pod 的输出示例

      [
      {
      "clusterCondition": {
      "kibana-5fdd766ffd-nb2jj": [
      {
      "lastTransitionTime": "2020-06-30T14:11:07Z",
      "reason": "ContainerCreating",
      "status": "True",
      "type": ""
      },
      {
      "lastTransitionTime": "2020-06-30T14:11:07Z",
      "reason": "ContainerCreating",
      "status": "True",
      "type": ""
      }
      ]
      },
      "deployment": "kibana",
      "pods": {
      "failed": [],
      "notReady": []
      "ready": []
      },
      "replicaSets": [
      "kibana-5fdd766ffd"
      ],
      "replicas": 1
      }
      ]
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.