3.23. 操作日志配置字段
3.23.1. 操作日志存储配置
字段 | 类型 | 描述 |
---|---|---|
FEATURE_LOG_EXPORT | 布尔值 |
是否允许导出操作日志。 |
LOGS_MODEL | 字符串 |
指定处理日志数据的首选方法。 |
LOGS_MODEL_CONFIG | 对象 | 用于操作日志的日志模型配置。 |
ALLOW_WITHOUT_STRICT_LOGGING | 布尔值 |
当设置为 |
3.23.1.1. Elasticsearch 配置字段
为 Red Hat Quay 配置 Elasticsearch 时,可以使用以下字段。
LOGS_MODEL_CONFIG [object]:操作日志的日志模型配置。
elasticsearch_config [object]: Elasticsearch 集群配置。
access_key [string]: Elasticsearch 用户(或 AWS ES 的 IAM 密钥)。
-
示例 :
some_string
-
示例 :
Host [string]: Elasticsearch 集群端点。
-
示例 :
host.elasticsearch.example
-
示例 :
index_prefix [string]: Elasticsearch 的索引前缀。
-
示例 :
logentry_
-
示例 :
- index_settings [object]:Elasticsearch 的索引设置
use_ssl [boolean]:对 Elasticsearch 使用 ssl。默认值为
True
。-
示例 :
True
-
示例 :
SECRET_KEY [字符串]:Elasticsearch 密码(或 AWS ES 的 IAM secret)。
-
示例 :
some_secret_string
-
示例 :
AWS_REGION [string]: Amazon Web 服务区域。
-
示例 :
us-east-1
-
示例 :
端口 [number]: Elasticsearch 集群端点端口。
-
示例 :
1234
-
示例 :
kinesis_stream_config [object]: AWS Kinesis Stream 配置。
aws_secret_key [string]: AWS secret key。
-
示例 :
some_secret_key
-
示例 :
stream_name [string]: Kinesis 流将操作日志发送到。
-
示例 :
logentry-kinesis-stream
-
示例 :
aws_access_key [string]: AWS 访问密钥。
-
示例 :
some_access_key
-
示例 :
retries [number]:在单个请求中尝试次数。
-
示例 :
5
-
示例 :
read_timeout [number]:从连接读取时超时前的秒数。
-
示例 :
5
-
示例 :
max_pool_connections [number] :连接池中要保留的最大连接数。
-
示例
:10
-
示例
AWS_REGION [string]: AWS region。
-
示例 :
us-east-1
-
示例 :
connect_timeout [number]:尝试进行连接时超时前的秒数。
-
示例 :
5
-
示例 :
producer [string]:如果日志记录到 Elasticsearch,则日志制作者。
- enum: kafka, elasticsearch, kinesis_stream
-
示例 :
kafka
kafka_config [object]: Kafka 集群配置。
topic [string]: Kafka topic 将日志条目发布到。
-
示例 :
logentry
-
示例 :
- bootstrap_servers [array]:从中引导客户端的 Kafka 代理列表。
max_block_seconds [number]: 在
send ()
期间最大要阻止的秒数,因为缓冲区已满或元数据不可用。-
示例
:10
-
示例
3.23.1.2. Splunk 配置字段
为 Red Hat Quay 配置 Splunk 时,可以使用以下字段。
-
producer [string]:
mvapich .
在配置 Splunk 时使用。 mvapich_config [object]: Splunk 操作日志的日志模型配置或 Splunk 集群配置。
- Host [string]: Splunk 集群端点。
- port [integer]: Splunk 管理集群端点端口。
- bearer_token [string]: Splunk 的 bearer 令牌。
-
verify_ssl [boolean]: 启用(
True
)或为 HTTPS 连接禁用 TLS/SSL 验证。 - index_prefix [string]: Splunk 的索引前缀。
-
ssl_ca_path [字符串]:指向包含用于 SSL 验证的证书颁发机构(CA)的单个
.pem
文件的相对容器路径。
Splunk 配置示例
# ... LOGS_MODEL: splunk LOGS_MODEL_CONFIG: producer: splunk splunk_config: host: http://<user_name>.remote.csb port: 8089 bearer_token: <bearer_token> url_scheme: <http/https> verify_ssl: False index_prefix: <splunk_log_index_name> ssl_ca_path: <location_to_ssl-ca-cert.pem> # ...
3.23.1.3. Splunk HEC 配置字段
在为 Red Hat Quay 配置 Splunk HTTP 事件收集器(HEC)时,可以使用以下字段。
-
producer [string]:
mvapich_hec
.在配置 Splunk HEC 时使用。 splunk_hec_config [object]: Splunk HTTP 事件收集器操作日志配置的日志模型配置。
- Host [string]: Splunk 集群端点。
- port [integer]: Splunk 管理集群端点端口。
- hec_token [字符串]: 用于 Splunk 的 HEC 令牌。
-
url_scheme [string] :用于访问 Splunk 服务的 URL 方案。如果 Splunk 位于 SSL/TLS 之后,则必须是
https
。 -
verify_ssl [boolean]: Enable (
true
)或为 HTTPS 连接禁用(false
) SSL/TLS 验证。 - index [string] :要使用的 Splunk 索引。
- mvapich_host [字符串] :记录此事件的主机名。
-
mvapich_sourcetype [string] :要使用的 Splunk
sourcetype
的名称。
# ... LOGS_MODEL: splunk LOGS_MODEL_CONFIG: producer: splunk_hec splunk_hec_config: 1 host: prd-p-aaaaaq.splunkcloud.com 2 port: 8088 3 hec_token: 12345678-1234-1234-1234-1234567890ab 4 url_scheme: https 5 verify_ssl: False 6 index: quay 7 splunk_host: quay-dev 8 splunk_sourcetype: quay_logs 9 # ...
3.23.2. 操作日志轮转和归档配置
字段 | 类型 | 描述 |
---|---|---|
FEATURE_ACTION_LOG_ROTATION | 布尔值 |
启用日志轮转和归档会将所有超过 30 天的日志移到存储。 |
ACTION_LOG_ARCHIVE_LOCATION | 字符串 |
如果启用了操作日志存档,则在其中放置存档数据的存储引擎。 |
ACTION_LOG_ARCHIVE_PATH | 字符串 |
如果启用了操作日志存档,则存储中要放置存档数据的路径。 |
ACTION_LOG_ROTATION_THRESHOLD | 字符串 |
轮转日志的时间间隔。 |
3.23.3. 操作日志审计配置
字段 | 类型 | 描述 |
---|---|---|
ACTION_LOG_AUDIT_LOGINS | 布尔值 |
当设置为 |