3.23. 操作日志配置字段
3.23.1. 操作日志存储配置
字段 | 类型 | 描述 |
---|---|---|
FEATURE_LOG_EXPORT | 布尔值 |
是否允许导出操作日志。 |
LOGS_MODEL | 字符串 |
指定处理日志数据的首选方法。 |
LOGS_MODEL_CONFIG | 对象 | 操作日志的日志模型配置。 |
ALLOW_WITHOUT_STRICT_LOGGING | 布尔值 |
当设置为 |
3.23.1.1. Elasticsearch 配置字段
为 Red Hat Quay 配置 Elasticsearch 时,可以使用以下字段。
LOGS_MODEL_CONFIG [object]: Logs model config for action logs.
elasticsearch_config [object]: Elasticsearch 集群配置。
access_key [字符串]:Elasticsearch 用户(或 AWS ES 的 IAM 密钥)。
-
示例 :
some_string
-
示例 :
Host [string]: Elasticsearch 集群端点。
-
示例 :
host.elasticsearch.example
-
示例 :
index_prefix [string]: Elasticsearch 的索引前缀。
-
示例 :
logentry_
-
示例 :
- index_settings [object]: Elasticsearch 的索引设置
use_ssl [boolean]: 为 Elasticsearch 使用 ssl。默认值为
True
。-
示例:
True
-
示例:
SECRET_KEY [字符串]:Elasticsearch 密码(或 AWS ES 的 IAM secret)。
-
示例 :
some_secret_string
-
示例 :
AWS_REGION [字符串]:Amazon Web 服务区域。
-
示例:
us-east-1
-
示例:
port [number]: Elasticsearch 集群端点端口。
-
示例 :
1234
-
示例 :
kinesis_stream_config [object]: AWS Kinesis Stream 配置。
aws_secret_key [字符串]: AWS secret key。
-
示例 :
some_secret_key
-
示例 :
stream_name [string]: Kinesis stream to send action logs to.
-
示例 :
logentry-kinesis-stream
-
示例 :
aws_access_key [字符串]:AWS access key。
-
示例 :
some_access_key
-
示例 :
retries [number]: 在单个请求中尝试次数上限。
-
示例 :
5
-
示例 :
read_timeout [数字]:从连接时超时前的秒数。
-
示例 :
5
-
示例 :
max_pool_connections [number] :连接池中要保留的最大连接数。
-
示例
:10
-
示例
AWS_REGION [字符串]:AWS region。
-
示例:
us-east-1
-
示例:
connect_timeout [数字]: 在尝试建立连接时超时前的秒数。
-
示例 :
5
-
示例 :
制作者 [字符串]:如果日志记录到 Elasticsearch,日志生成者。
- enum: kafka, elasticsearch, kinesis_stream
-
示例 :
kafka
kafka_config [object]: Kafka 集群配置。
topic [string]: Kafka topic 用来发布日志条目。
-
示例 :
logentry
-
示例 :
- bootstrap_servers [array]: Kafka 代理列表来引导客户端。
max_block_seconds [number]: 在
send ()
期间阻止的最大秒数(以秒为单位),因为缓冲区已满或元数据不可用。-
示例
:10
-
示例
3.23.1.2. Splunk 配置字段
为 Red Hat Quay 配置 Splunk 时,可以使用以下字段。
-
producer [string]:
mvapich .
在配置 Splunk 时使用。 splunk_config [object]: Splunk 操作日志或 Splunk 集群配置的日志模型配置。
- Host [string]: Splunk 集群端点。
- port [integer]: Splunk 管理集群端点端口。
- bearer_token [字符串] :Splunk 的 bearer 令牌。
-
verify_ssl [boolean]: Enable (
True
)或禁用(False
) TLS/SSL 验证 HTTPS 连接。 - index_prefix [string]: Splunk 的索引前缀。
-
ssl_ca_path [字符串] :指向单个
.pem
文件的相对路径,其中包含用于 SSL 验证的证书颁发机构(CA)。
Splunk 配置示例
# ... LOGS_MODEL: splunk LOGS_MODEL_CONFIG: producer: splunk splunk_config: host: http://<user_name>.remote.csb port: 8089 bearer_token: <bearer_token> url_scheme: <http/https> verify_ssl: False index_prefix: <splunk_log_index_name> ssl_ca_path: <location_to_ssl-ca-cert.pem> # ...
3.23.1.3. Splunk HEC 配置字段
在为 Red Hat Quay 配置 Splunk HTTP 事件收集器(HEC)时,可以使用以下字段。
-
producer [string]:
mvapich_hec
.在配置 Splunk HEC 时使用。 splunk_hec_config [object]: Splunk HTTP 事件收集器操作日志配置的日志模型配置。
- Host [string]: Splunk 集群端点。
- port [integer]: Splunk 管理集群端点端口。
- hec_token [字符串]: 用于 Splunk 的 HEC 令牌。
-
url_scheme [string] :用于访问 Splunk 服务的 URL 方案。如果 Splunk 位于 SSL/TLS 之后,则必须是
https
。 -
verify_ssl [boolean]: Enable (
true
)或为 HTTPS 连接禁用(false
) SSL/TLS 验证。 - index [string] :要使用的 Splunk 索引。
- mvapich_host [字符串] :记录此事件的主机名。
-
mvapich_sourcetype [string] :要使用的 Splunk
sourcetype
的名称。
# ... LOGS_MODEL: splunk LOGS_MODEL_CONFIG: producer: splunk_hec splunk_hec_config: 1 host: prd-p-aaaaaq.splunkcloud.com 2 port: 8088 3 hec_token: 12345678-1234-1234-1234-1234567890ab 4 url_scheme: https 5 verify_ssl: False 6 index: quay 7 splunk_host: quay-dev 8 splunk_sourcetype: quay_logs 9 # ...
3.23.2. 操作日志轮转和归档配置
字段 | 类型 | 描述 |
---|---|---|
FEATURE_ACTION_LOG_ROTATION | 布尔值 |
启用日志轮转和归档将将所有超过 30 天的日志移到存储中。 |
ACTION_LOG_ARCHIVE_LOCATION | 字符串 |
如果启用了操作日志归档,则要放置归档数据的存储引擎。 |
ACTION_LOG_ARCHIVE_PATH | 字符串 |
如果启用了操作日志归档,则要放置 |
ACTION_LOG_ROTATION_THRESHOLD | 字符串 |
轮转日志的时间间隔。 |
3.23.3. 操作日志审计日志配置
字段 | 类型 | 描述 |
---|---|---|
ACTION_LOG_AUDIT_LOGINS | 布尔值 |
当设置为 |