Kamelets 参考
Kamelets 参考
摘要
前言 复制链接链接已复制到粘贴板!
使开源包含更多
红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始:master、slave、黑名单和白名单。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。有关更多详情,请参阅我们的首席技术官 Chris Wright 提供的消息。
第 1 章 AWS DynamoDB Sink 复制链接链接已复制到粘贴板!
将数据发送到 AWS DynamoDB 服务。发送的数据将在给定的 AWS DynamoDB 表中插入/更新/删除项。
access Key/Secret Key 是 AWS DynamoDB 服务身份验证的基本方法。这些参数是可选的,因为 Kamelet 还提供以下选项 'useDefaultCredentialsProvider'。
当使用默认凭据提供商时,AWS DynamoDB 客户端将通过此提供程序加载凭据,也不会使用静态凭证。这是无 access key 和 secret key 作为这个 Kamelet 的必要参数的原因。
此 Kamelet 需要一个 JSON 字段作为正文。JSON 字段和表属性值之间的映射由键实现,因此,如果您有输入,如下所示:
{"username":"oscerd", "city":"Rome"}
Kamelet 将在给定的 AWS DynamoDB 表中插入/更新一个项目,并分别设置属性 'username' 和 'city'。请注意,JSON 对象必须包含定义项目的主键值。
1.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-ddb-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| 表 * | 表 | 要查看的 DynamoDB 表的名称 | 字符串 | ||
| accessKey | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| operation | 操作 | 要执行的操作(一个 PutItem、UpdateItem、DeleteItem) | 字符串 |
|
|
| overrideEndpoint | endpoint Overwrite | 设置端点 URI 的需求。这个选项需要与 uriEndpointOverride 设置结合使用。 | 布尔值 |
| |
| secretKey | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| uriEndpointOverride | 覆盖端点 URI | 设置覆盖端点 URI。这个选项必须与 overrideEndpoint 选项一同使用。 | 字符串 | ||
| useDefaultCredentialsProvider | 默认凭证供应商 | 设置 DynamoDB 客户端是否应该应该通过默认凭据加载凭据,还是期望传递静态凭据。 | 布尔值 |
| |
| writeCapacity | 写容量 | 为将资源写入您的表的置备吞吐量 | 整数 |
|
带星号(*)标记的字段是必需的。
1.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-ddb-sink Kamelet 依赖于以下依赖项:
- mvn:org.apache.camel.kamelets:camel-kamelets-utils:1.8.0
- camel:core
- camel:jackson
- camel:aws2-ddb
- camel:kamelet
1.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-ddb-sink。
1.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-ddb-sink Kamelet 绑定到 Knative 对象来使用 aws-ddb-sink Kamelet 作为 Knative sink。
aws-ddb-sink-binding.yaml
1.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
1.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-ddb-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-ddb-sink-binding.yaml
oc apply -f aws-ddb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-ddb-sink -p "sink.region=eu-west-1" -p "sink.table=The Table"
kamel bind channel:mychannel aws-ddb-sink -p "sink.region=eu-west-1" -p "sink.table=The Table"
这个命令会在集群的当前命名空间中创建 KameletBinding。
1.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-ddb-sink Kamelet 绑定到 Kafka 主题来使用 aws-ddb-sink Kamelet 作为 Kafka sink。
aws-ddb-sink-binding.yaml
1.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
1.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-ddb-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-ddb-sink-binding.yaml
oc apply -f aws-ddb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-ddb-sink -p "sink.region=eu-west-1" -p "sink.table=The Table"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-ddb-sink -p "sink.region=eu-west-1" -p "sink.table=The Table"
这个命令会在集群的当前命名空间中创建 KameletBinding。
1.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-ddb-sink.kamelet.yaml
第 2 章 Avro Deserialize Action 复制链接链接已复制到粘贴板!
将有效负载反序列化为 Avro
2.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了适用于 avro-deserialize-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| schema * | 模式 | 在序列化过程中使用的 Avro 模式(以单行形式,使用 JSON 格式) | 字符串 |
| |
| validate | validate | 指明是否必须对 schema 验证内容 | 布尔值 |
|
带星号(*)标记的字段是必需的。
2.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,av ro-deserialize-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
- camel:jackson-avro
2.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 avro-deserialize-action。
2.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 avro-deserialize-action Kamelet 作为 Knative 绑定中的中间步骤。
avro-deserialize-action-binding.yaml
2.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
2.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
avro-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f avro-deserialize-action-binding.yaml
oc apply -f avro-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name avro-deserialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step avro-deserialize-action -p step-2.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step json-serialize-action channel:mychannel
kamel bind --name avro-deserialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step avro-deserialize-action -p step-2.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step json-serialize-action channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
2.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 avro-deserialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
avro-deserialize-action-binding.yaml
2.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
2.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
avro-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f avro-deserialize-action-binding.yaml
oc apply -f avro-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name avro-deserialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step avro-deserialize-action -p step-2.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step json-serialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name avro-deserialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step avro-deserialize-action -p step-2.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' --step json-serialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
2.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/avro-deserialize-action.kamelet.yaml
第 3 章 Avro Serialize Action 复制链接链接已复制到粘贴板!
将有效负载序列化为 Avro
3.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 avro-serialize-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| schema * | 模式 | 在序列化过程中使用的 Avro 模式(以单行形式,使用 JSON 格式) | 字符串 |
| |
| validate | validate | 指明是否必须对 schema 验证内容 | 布尔值 |
|
带星号(*)标记的字段是必需的。
3.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,av ro-serialize-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
- camel:jackson-avro
3.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 avro-serialize-action。
3.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 avro-serialize-action Kamelet 作为 Knative 绑定中的中间步骤。
avro-serialize-action-binding.yaml
3.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
3.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
avro-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f avro-serialize-action-binding.yaml
oc apply -f avro-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name avro-serialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' channel:mychannel
kamel bind --name avro-serialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
3.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 avro-serialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
avro-serialize-action-binding.yaml
3.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
3.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
avro-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f avro-serialize-action-binding.yaml
oc apply -f avro-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name avro-serialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name avro-serialize-action-binding timer-source?message='{"first":"Ada","last":"Lovelace"}' --step json-deserialize-action --step avro-serialize-action -p step-1.schema='{"type": "record", "namespace": "com.example", "name": "FullName", "fields": [{"name": "first", "type": "string"},{"name": "last", "type": "string"}]}' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
3.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/avro-serialize-action.kamelet.yaml
第 4 章 AWS Kinesis Sink 复制链接链接已复制到粘贴板!
将数据发送到 AWS Kinesis。
Kamelet 需要以下标头:
-
分区/ce-partition: 以设置 Kinesis 分区密钥
如果未设置交换 ID,则将使用该标头。
Kamelet 还能够识别以下标头:
-
sequence-number/ce-sequencenumber: 以设置序列号
这个标头是可选的。
4.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-kinesis-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| 流 * | 流名称 | 您要访问的 Kinesis 流(需要提前创建) | 字符串 |
带星号(*)标记的字段是必需的。
4.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-kinesis-sink Kamelet 依赖于以下依赖项:
- camel:aws2-kinesis
- camel:kamelet
4.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-kinesis-sink。
4.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-kinesis-sink Kamelet 绑定到 Knative 对象来使用 aws-kinesis-sink Kamelet。
aws-kinesis-sink-binding.yaml
4.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
4.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-kinesis-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-kinesis-sink-binding.yaml
oc apply -f aws-kinesis-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-kinesis-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.stream=The Stream Name"
kamel bind channel:mychannel aws-kinesis-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.stream=The Stream Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
4.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-kinesis-sink Kamelet 绑定到 Kafka 主题,来使用 aws-kinesis-sink Kame。
aws-kinesis-sink-binding.yaml
4.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
4.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-kinesis-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-kinesis-sink-binding.yaml
oc apply -f aws-kinesis-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-kinesis-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.stream=The Stream Name"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-kinesis-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.stream=The Stream Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
4.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-kinesis-sink.kamelet.yaml
第 5 章 AWS Kinesis Source 复制链接链接已复制到粘贴板!
从 AWS Kinesesis 接收数据。
5.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-kinesis-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| 流 * | 流名称 | 您要访问的 Kinesis 流(需要提前创建) | 字符串 |
带星号(*)标记的字段是必需的。
5.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-kinesis-source Kamelet 依赖于以下依赖项:
- camel:gson
- camel:kamelet
- camel:aws2-kinesis
5.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-kinesis-source。
5.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-kinesis-source Kamelet 绑定到 Knative 对象来使用 aws-kinesis-source Kamelet 作为 Knative 源。
aws-kinesis-source-binding.yaml
5.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
5.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-kinesis-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f aws-kinesis-source-binding.yaml
oc apply -f aws-kinesis-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
5.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-kinesis-source -p "source.accessKey=The Access Key" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" -p "source.stream=The Stream Name" channel:mychannel
kamel bind aws-kinesis-source -p "source.accessKey=The Access Key" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" -p "source.stream=The Stream Name" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
5.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-kinesis-source Kamelet 绑定到 Kafka 主题,来使用 aws-kinesis-source Kame 作为 Kafka 源。
aws-kinesis-source-binding.yaml
5.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
5.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-kinesis-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f aws-kinesis-source-binding.yaml
oc apply -f aws-kinesis-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
5.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-kinesis-source -p "source.accessKey=The Access Key" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" -p "source.stream=The Stream Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind aws-kinesis-source -p "source.accessKey=The Access Key" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" -p "source.stream=The Stream Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
5.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-kinesis-source.kamelet.yaml
第 6 章 AWS Lambda Sink 复制链接链接已复制到粘贴板!
向 AWS Lambda 功能发送有效负载
6.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-lambda-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| 功能 * | 功能名称 | Lambda Function 名称 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 |
带星号(*)标记的字段是必需的。
6.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-lambda-sink Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:aws2-lambda
6.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-lambda-sink。
6.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-lambda-sink Kamelet 绑定到 Knative 对象来使用 aws-lambda-sink Kamelet 作为 Knative sink。
aws-lambda-sink-binding.yaml
6.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
6.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-lambda-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-lambda-sink-binding.yaml
oc apply -f aws-lambda-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-lambda-sink -p "sink.accessKey=The Access Key" -p "sink.function=The Function Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind channel:mychannel aws-lambda-sink -p "sink.accessKey=The Access Key" -p "sink.function=The Function Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
6.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-lambda-sink Kamelet 绑定到 Kafka 主题,来使用 aws-lambda-sink Kame a Kafka sink。
aws-lambda-sink-binding.yaml
6.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
6.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-lambda-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-lambda-sink-binding.yaml
oc apply -f aws-lambda-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-lambda-sink -p "sink.accessKey=The Access Key" -p "sink.function=The Function Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-lambda-sink -p "sink.accessKey=The Access Key" -p "sink.function=The Function Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
6.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-lambda-sink.kamelet.yaml
第 7 章 AWS Redshift Sink 复制链接链接已复制到粘贴板!
将数据发送到 AWS Redshift 数据库。
此 Kamelet 需要一个 JSON 作为正文。JSON 字段和参数之间的映射通过键实现,因此如果您有以下查询:
'INSERT INTO accounts (username,city) VALUES (:#username,:#city)'
Kamelet 需要以类似的输入的形式接收:
'{ "username":"oscerd", "city":"Rome"}'
7.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-redshift-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| databaseName * | 数据库名 | 我们指向的数据库名称 | 字符串 | ||
| 密码 * | 密码 | 用于访问安全 AWS Redshift 数据库的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 AWS Redshift 数据库执行的查询 | 字符串 |
| |
| serverName * | 服务器名称 | 数据源的服务器名称 | 字符串 |
| |
| 用户名 * | 用户名 | 用于访问安全 AWS Redshift 数据库的用户名 | 字符串 | ||
| serverPort | 服务器端口 | 数据源的服务器端口 | 字符串 |
|
带星号(*)标记的字段是必需的。
7.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-redshift-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:sql
- mvn:com.amazon.redshift:redshift-jdbc42:2.1.0.5
- mvn:org.apache.commons:commons-dbcp2:2.7.0
7.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-redshift-sink。
7.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-redshift-sink Kamelet 绑定到 Knative 对象来使用 aws-redshift-sink Kamelet 作为 Knative sink。
aws-redshift-sink-binding.yaml
7.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
7.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-redshift-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-redshift-sink-binding.yaml
oc apply -f aws-redshift-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
7.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-redshift-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind channel:mychannel aws-redshift-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
7.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-redshift-sink Kamelet 绑定到 Kafka 主题,来使用 aws-redshift-sink Kame。
aws-redshift-sink-binding.yaml
7.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
7.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-redshift-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-redshift-sink-binding.yaml
oc apply -f aws-redshift-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
7.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-redshift-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-redshift-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
7.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-redshift-sink.kamelet.yaml
第 8 章 AWS SNS Sink 复制链接链接已复制到粘贴板!
发送消息到 AWS SNS 主题
8.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-sns-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| topicNameOrArn * | 主题名称 | SQS Topic 名称或 ARN | 字符串 | ||
| autoCreateTopic | Autocreate Topic | 设置 SNS 主题的自动填充。 | 布尔值 |
|
带星号(*)标记的字段是必需的。
8.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-sns-sink Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:aws2-sns
8.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-sns-sink。
8.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-sns-sink Kamelet 绑定到 Knative 对象来使用 aws-sns-sink Kamelet 作为 Knative sink。
aws-sns-sink-binding.yaml
8.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
8.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sns-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-sns-sink-binding.yaml
oc apply -f aws-sns-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
8.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-sns-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.topicNameOrArn=The Topic Name"
kamel bind channel:mychannel aws-sns-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.topicNameOrArn=The Topic Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
8.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将其绑定到 Kafka 主题,使用 aws-sns-sink Kamelet 作为 Kafka sink。
aws-sns-sink-binding.yaml
8.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
8.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sns-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-sns-sink-binding.yaml
oc apply -f aws-sns-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
8.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sns-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.topicNameOrArn=The Topic Name"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sns-sink -p "sink.accessKey=The Access Key" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key" -p "sink.topicNameOrArn=The Topic Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
8.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-sns-sink.kamelet.yaml
第 9 章 AWS SQS Sink 复制链接链接已复制到粘贴板!
向 AWS SQS Queue 发送消息
9.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-sqs-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| queueNameOrArn * | 队列名称 | SQS Queue name 或 ARN | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| autoCreateQueue | Autocreate Queue | 设置 SQS 队列的自动。 | 布尔值 |
|
带星号(*)标记的字段是必需的。
9.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-sqs-sink Kamelet 依赖于以下依赖项:
- camel:aws2-sqs
- camel:core
- camel:kamelet
9.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-sqs-sink。
9.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-sink Kamelet 绑定到 Knative 对象来使用 aws-sqs-sink Kamelet 作为 Knative sink。
aws-sqs-sink-binding.yaml
9.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
9.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-sqs-sink-binding.yaml
oc apply -f aws-sqs-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
9.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-sqs-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind channel:mychannel aws-sqs-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
9.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-sink Kamelet 绑定到 Kafka 主题,来使用 aws-sqs-sink Kame。
aws-sqs-sink-binding.yaml
9.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
9.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f aws-sqs-sink-binding.yaml
oc apply -f aws-sqs-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
9.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sqs-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sqs-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
9.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-sqs-sink.kamelet.yaml
第 10 章 AWS SQS 源 复制链接链接已复制到粘贴板!
从 AWS SQS 接收数据。
10.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-sqs-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| queueNameOrArn * | 队列名称 | SQS Queue name 或 ARN | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| autoCreateQueue | Autocreate Queue | 设置 SQS 队列的自动。 | 布尔值 |
| |
| deleteAfterRead | 自动删除消息 | 在消耗消息后删除信息 | 布尔值 |
|
带星号(*)标记的字段是必需的。
10.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-sqs-source Kamelet 依赖于以下依赖项:
- camel:aws2-sqs
- camel:core
- camel:kamelet
- camel:jackson
10.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-sqs-source。
10.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-source Kamelet 绑定到 Knative 对象,来使用 aws-sqs-source Kamelet 作为 Knative 源。
aws-sqs-source-binding.yaml
10.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
10.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f aws-sqs-source-binding.yaml
oc apply -f aws-sqs-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
10.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-sqs-source -p "source.accessKey=The Access Key" -p "source.queueNameOrArn=The Queue Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" channel:mychannel
kamel bind aws-sqs-source -p "source.accessKey=The Access Key" -p "source.queueNameOrArn=The Queue Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
10.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-source Kamelet 绑定到 Kafka 主题,来使用 aws-sqs-source Kame 作为 Kafka 源。
aws-sqs-source-binding.yaml
10.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
10.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f aws-sqs-source-binding.yaml
oc apply -f aws-sqs-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
10.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-sqs-source -p "source.accessKey=The Access Key" -p "source.queueNameOrArn=The Queue Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind aws-sqs-source -p "source.accessKey=The Access Key" -p "source.queueNameOrArn=The Queue Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
10.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-sqs-source.kamelet.yaml
第 11 章 AWS 2 Simple Queue Service FIFO sink 复制链接链接已复制到粘贴板!
向 AWS SQS FIFO Queue 发送消息
11.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-sqs-fifo-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| queueNameOrArn * | 队列名称 | SQS Queue name 或 ARN | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| autoCreateQueue | Autocreate Queue | 设置 SQS 队列的自动。 | 布尔值 |
| |
| contentBasedDeduplication | 基于内容的重复 | 使用基于内容的重复数据删除(应该首先在 SQS FIFO FIFO 队列中启用) | 布尔值 |
|
带星号(*)标记的字段是必需的。
11.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-sqs-fifo-sink Kamelet 依赖于以下依赖项:
- camel:aws2-sqs
- camel:core
- camel:kamelet
11.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-sqs-fifo-sink。
11.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-fifo-sink Kamelet 绑定到 Knative 对象来使用 aws-sqs-fifo-sink Kamelet。
aws-sqs-fifo-sink-binding.yaml
11.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
11.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-fifo-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-sqs-fifo-sink-binding.yaml
oc apply -f aws-sqs-fifo-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
11.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-sqs-fifo-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind channel:mychannel aws-sqs-fifo-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
11.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-sqs-fifo-sink Kamelet 绑定到 Kafka 主题,来使用 aws-sqs-fifo-sink Kame。
aws-sqs-fifo-sink-binding.yaml
11.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
11.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-sqs-fifo-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-sqs-fifo-sink-binding.yaml
oc apply -f aws-sqs-fifo-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
11.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sqs-fifo-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-sqs-fifo-sink -p "sink.accessKey=The Access Key" -p "sink.queueNameOrArn=The Queue Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
11.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-sqs-fifo-sink.kamelet.yaml
第 12 章 AWS S3 Sink 复制链接链接已复制到粘贴板!
将数据上传到 AWS S3。
Kamelet 需要设置以下标头:
-
文件/ce-file: 作为要上传的文件名
如果未设置交换 ID,则将用作文件名。
12.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-s3-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥。 | 字符串 | ||
| bucketNameOrArn * | 存储桶名称 | S3 bucket 名称或 ARN。 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域。 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的机密密钥。 | 字符串 | ||
| autoCreateBucket | Autocreate Bucket | 设置 S3 存储桶 bucketName 的自动记录。 | 布尔值 |
|
带星号(*)标记的字段是必需的。
12.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-s3-sink Kamelet 依赖于以下依赖项:
- camel:aws2-s3
- camel:kamelet
12.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-s3-sink。
12.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-sink Kamelet 绑定到 Knative 对象来使用 aws-s3-sink Kamelet 作为 Knative sink。
aws-s3-sink-binding.yaml
12.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
12.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-s3-sink-binding.yaml
oc apply -f aws-s3-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
12.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-s3-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind channel:mychannel aws-s3-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
12.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-sink Kamelet 绑定到 Kafka 主题,来使用 aws-s3-sink Kamelet 作为 Kafka sink。
aws-s3-sink-binding.yaml
12.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
12.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-s3-sink-binding.yaml
oc apply -f aws-s3-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
12.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-s3-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-s3-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
12.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-s3-sink.kamelet.yaml
第 13 章 AWS S3 源 复制链接链接已复制到粘贴板!
从 AWS S3 接收数据。
13.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-s3-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥 | 字符串 | ||
| bucketNameOrArn * | 存储桶名称 | S3 Bucket 名称或 ARN | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的 secret 密钥 | 字符串 | ||
| autoCreateBucket | Autocreate Bucket | 设置 S3 存储桶 bucketName 的自动记录。 | 布尔值 |
| |
| deleteAfterRead | 自动删除对象 | 使用对象后删除对象 | 布尔值 |
|
带星号(*)标记的字段是必需的。
13.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-s3-source Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:aws2-s3
13.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-s3-source。
13.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-source Kamelet 绑定到 Knative 对象来使用 aws-s3-source Kamelet 作为 Knative 源。
aws-s3-source-binding.yaml
13.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
13.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f aws-s3-source-binding.yaml
oc apply -f aws-s3-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
13.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-s3-source -p "source.accessKey=The Access Key" -p "source.bucketNameOrArn=The Bucket Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" channel:mychannel
kamel bind aws-s3-source -p "source.accessKey=The Access Key" -p "source.bucketNameOrArn=The Bucket Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
13.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-source Kamelet 绑定到 Kafka 主题,来使用 aws-s3-source Kamelet 作为 Kafka 源。
aws-s3-source-binding.yaml
13.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
13.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f aws-s3-source-binding.yaml
oc apply -f aws-s3-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
13.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind aws-s3-source -p "source.accessKey=The Access Key" -p "source.bucketNameOrArn=The Bucket Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind aws-s3-source -p "source.accessKey=The Access Key" -p "source.bucketNameOrArn=The Bucket Name" -p "source.region=eu-west-1" -p "source.secretKey=The Secret Key" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
13.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-s3-source.kamelet.yaml
第 14 章 AWS S3 Streaming upload Sink 复制链接链接已复制到粘贴板!
以流传输上传模式将数据上传到 AWS S3。
14.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 aws-s3-streaming-upload-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | 从 AWS 获取的访问权限密钥。 | 字符串 | ||
| bucketNameOrArn * | 存储桶名称 | S3 bucket 名称或 ARN。 | 字符串 | ||
| keyName * | 键名称 | 通过 endpoint 参数设置 bucket 中元素的键名称。使用默认配置完成上传时,这将是逐渐创建文件的基础。 | 字符串 | ||
| 区域 * | AWS 区域 | 要连接的 AWS 区域。 | 字符串 |
| |
| secretkey * | 机密密钥 | 从 AWS 获取的机密密钥。 | 字符串 | ||
| autoCreateBucket | Autocreate Bucket | 设置 S3 存储桶 bucketName 的自动记录。 | 布尔值 |
| |
| batchMessageNumber | 批处理消息号 | 以流传输上传模式组成批处理的消息数量 | int |
| |
| batchSize | 批处理大小 | 流上传模式中的批处理大小(以字节为单位) | int |
| |
| namingStrategy | 命名策略 | 在流传输上传模式中使用的命名策略。有两个 enums,值可以是逐渐的随机数 | 字符串 |
| |
| restartingPolicy | 重启策略 | 在流传输上传模式中使用的重启策略。有两个 enums,值可以是 lastPart 中的一个覆盖。 | 字符串 |
| |
| streamingUploadMode | 流上传模式 | 设置流上传模式 | 布尔值 |
|
带星号(*)标记的字段是必需的。
14.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,aws-s3-streaming-upload-sink Kamelet 依赖于以下依赖项:
- camel:aws2-s3
- camel:kamelet
14.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 aws-s3-streaming-upload-sink。
14.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-streaming-upload-sink Kamelet 绑定到 Knative 对象来使用 aws-s3-streaming-upload-sink。
aws-s3-streaming-upload-sink-binding.yaml
14.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
14.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-streaming-upload-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-s3-streaming-upload-sink-binding.yaml
oc apply -f aws-s3-streaming-upload-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
14.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel aws-s3-streaming-upload-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.keyName=The Key Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind channel:mychannel aws-s3-streaming-upload-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.keyName=The Key Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
14.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 aws-s3-streaming-upload-sink Kamelet 绑定到 Kafka 主题,来使用 aws-s3-streaming-upload-sink Kame。
aws-s3-streaming-upload-sink-binding.yaml
14.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
14.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
aws-s3-streaming-upload-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f aws-s3-streaming-upload-sink-binding.yaml
oc apply -f aws-s3-streaming-upload-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
14.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-s3-streaming-upload-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.keyName=The Key Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic aws-s3-streaming-upload-sink -p "sink.accessKey=The Access Key" -p "sink.bucketNameOrArn=The Bucket Name" -p "sink.keyName=The Key Name" -p "sink.region=eu-west-1" -p "sink.secretKey=The Secret Key"
这个命令会在集群的当前命名空间中创建 KameletBinding。
14.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/aws-s3-streaming-upload-sink.kamelet.yaml
第 15 章 Azure Storage Blob Sink 复制链接链接已复制到粘贴板!
将数据上传到 Azure Storage Blob。
Azure Storage Blob Sink Kamelet 只是一个技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。
这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview。
Kamelet 需要设置以下标头:
-
文件/ce-file: 作为要上传的文件名
如果未设置交换 ID,则将用作文件名。
15.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 azure-storage-blob-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | Azure Storage Blob 访问密钥。 | 字符串 | ||
| accountName * | 帐户名称 | Azure Storage Blob 帐户名称。 | 字符串 | ||
| containerName * | 容器名称 | Azure Storage Blob 容器名称。 | 字符串 | ||
| operation | 操作名称 | 要执行的操作。 | 字符串 |
|
带星号(*)标记的字段是必需的。
15.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,azure-storage-blob-sink Kamelet 依赖于以下依赖项:
- camel:azure-storage-blob
- camel:kamelet
15.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 azure-storage-blob-sink。
15.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-blob-sink Kamelet 绑定到 Knative 对象来使用 azure-storage-blob-sink Kamelet。
azure-storage-blob-sink-binding.yaml
15.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
15.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-blob-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f azure-storage-blob-sink-binding.yaml
oc apply -f azure-storage-blob-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
15.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel azure-storage-blob-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.containerName=The Container Name"
kamel bind channel:mychannel azure-storage-blob-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.containerName=The Container Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
15.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-blob-sink Kamelet 绑定到 Kafka 主题,来使用 azure-storage-blob-sink Kame。
azure-storage-blob-sink-binding.yaml
15.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
15.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-blob-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f azure-storage-blob-sink-binding.yaml
oc apply -f azure-storage-blob-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
15.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic azure-storage-blob-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.containerName=The Container Name"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic azure-storage-blob-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.containerName=The Container Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
15.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/azure-storage-blob-sink.kamelet.yaml
第 16 章 Azure Storage Blob 源 复制链接链接已复制到粘贴板!
使用 Azure Storage Blob 中的文件。
Azure Storage Blob Source Kamelet 只是一个技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。
这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview。
16.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 azure-storage-blob-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | Azure Storage Blob 访问密钥。 | 字符串 | ||
| accountName * | 帐户名称 | Azure Storage Blob 帐户名称。 | 字符串 | ||
| containerName * | 容器名称 | Azure Storage Blob 容器名称。 | 字符串 | ||
| 周期 * | Polls 间的周期 | 获取 Azure Storage Container 的时间间隔(以毫秒为单位) | 整数 |
|
带星号(*)标记的字段是必需的。
16.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,azure-storage-blob-source Kamelet 依赖于以下依赖项:
- camel:azure-storage-blob
- camel:jsonpath
- camel:core
- camel:timer
- camel:kamelet
16.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 azure-storage-blob-source。
16.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-blob-source Kamelet 绑定到 Knative 对象来使用 azure-storage-blob-source Kamelet 作为 Knative 源。
azure-storage-blob-source-binding.yaml
16.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
16.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-blob-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f azure-storage-blob-source-binding.yaml
oc apply -f azure-storage-blob-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
16.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind azure-storage-blob-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.containerName=The Container Name" channel:mychannel
kamel bind azure-storage-blob-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.containerName=The Container Name" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
16.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-blob-source Kamelet 绑定到 Kafka 主题,来使用 azure-storage-blob-source Kame 作为 Kafka 源。
azure-storage-blob-source-binding.yaml
16.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
16.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-blob-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f azure-storage-blob-source-binding.yaml
oc apply -f azure-storage-blob-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
16.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind azure-storage-blob-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.containerName=The Container Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind azure-storage-blob-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.containerName=The Container Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
16.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/azure-storage-blob-source.kamelet.yaml
第 17 章 Azure Storage Queue Sink 复制链接链接已复制到粘贴板!
将消息发送到 Azure Storage 队列。
Azure Storage Queue Sink Kamelet 只是一个技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。
这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview。
Kamelet 可以理解以下要设置的标头:
-
过期/过期:作为队列中消息的实时时间。
如果该标头没有设置默认值 7 天,则将使用 7 天。
格式的格式应采用以下形式:PnDTnHnMn.nS.,例如:PT20.345Showparses 为 20.345 秒,P2DIB-mediationActionparses 为 2 天。
17.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 azure-storage-queue-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | Azure Storage Queue 访问密钥。 | 字符串 | ||
| accountName * | 帐户名称 | Azure Storage Queue 帐户名称。 | 字符串 | ||
| queueName * | 队列名称 | Azure Storage Queue 容器名称。 | 字符串 |
带星号(*)标记的字段是必需的。
17.2. 依赖项 复制链接链接已复制到粘贴板!
azure-storage-queue-sink Kamelet 依赖于以下依赖项:
- camel:azure-storage-queue
- camel:kamelet
17.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 azure-storage-queue-sink。
17.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-queue-sink Kamelet 绑定到 Knative 对象来使用 azure-storage-queue-sink Kamelet。
azure-storage-queue-sink-binding.yaml
17.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
17.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-queue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f azure-storage-queue-sink-binding.yaml
oc apply -f azure-storage-queue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
17.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel azure-storage-queue-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.queueName=The Queue Name"
kamel bind channel:mychannel azure-storage-queue-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.queueName=The Queue Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
17.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-queue-sink Kamelet 绑定到 Kafka 主题,来使用 azure-storage-queue-sink Kame。
azure-storage-queue-sink-binding.yaml
17.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
17.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-queue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f azure-storage-queue-sink-binding.yaml
oc apply -f azure-storage-queue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
17.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic azure-storage-queue-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.queueName=The Queue Name"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic azure-storage-queue-sink -p "sink.accessKey=The Access Key" -p "sink.accountName=The Account Name" -p "sink.queueName=The Queue Name"
这个命令会在集群的当前命名空间中创建 KameletBinding。
17.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/azure-storage-queue-sink.kamelet.yaml
第 18 章 Azure Storage Queue Source 复制链接链接已复制到粘贴板!
接收来自 Azure Storage 队列的消息。
Azure Storage Queue Source Kamelet 只是一个技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。
这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview。
18.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 azure-storage-queue-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | Azure Storage Queue 访问密钥。 | 字符串 | ||
| accountName * | 帐户名称 | Azure Storage Queue 帐户名称。 | 字符串 | ||
| queueName * | 队列名称 | Azure Storage Queue 容器名称。 | 字符串 | ||
| maxMessages | 最大信息 | 如果队列中存在比请求的所有消息,则要获取的最大消息数会返回。默认情况下,它将考虑检索的 1 消息,允许的范围为 1 到 32 信息。 | int |
|
带星号(*)标记的字段是必需的。
18.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,azure-storage-queue-source Kamelet 依赖于以下依赖项:
- camel:azure-storage-queue
- camel:kamelet
18.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 azure-storage-queue-source。
18.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-queue-source Kamelet 绑定到 Knative 对象,来使用 azure-storage-queue-source Kamelet 作为 Knative 源。
azure-storage-queue-source-binding.yaml
18.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
18.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-queue-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f azure-storage-queue-source-binding.yaml
oc apply -f azure-storage-queue-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
18.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind azure-storage-queue-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.queueName=The Queue Name" channel:mychannel
kamel bind azure-storage-queue-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.queueName=The Queue Name" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
18.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 azure-storage-queue-source Kamelet 绑定到 Kafka 主题,来使用 azure-storage-queue-source Kame 作为 Kafka 源。
azure-storage-queue-source-binding.yaml
18.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
18.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
azure-storage-queue-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f azure-storage-queue-source-binding.yaml
oc apply -f azure-storage-queue-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
18.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind azure-storage-queue-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.queueName=The Queue Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind azure-storage-queue-source -p "source.accessKey=The Access Key" -p "source.accountName=The Account Name" -p "source.queueName=The Queue Name" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
18.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/azure-storage-queue-source.kamelet.yaml
第 19 章 Cassandra Sink 复制链接链接已复制到粘贴板!
将数据发送到 Cassandra 集群。
此 Kamelet 需要将正文用作 JSON Array。JSON Array 的内容将用作查询参数中设置的 CQL Prepared 语句的输入。
19.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了适用于 cassandra-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | 主机名(s) cassandra server (s)。可以使用逗号分隔多个主机。 | 字符串 |
| |
| connectionPort * | 连接端口 | cassandra server (s)的端口号 | 字符串 |
| |
| keyspace * | keyspace | 要使用的密钥空间 | 字符串 |
| |
| 密码 * | 密码 | 用于访问安全 Cassandra 集群的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 Cassandra 集群表执行的查询 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问安全 Cassandra 集群的用户名 | 字符串 | ||
| consistencyLevel | 致性级别 | 要使用的一致性级别。该值可以是 ANY, ONE, TWO, THREE, QUORUM, ALL, LOCAL_QUORUM, EACH_QUORUM, SERIAL, LOCAL_SERIAL, LOCAL_SERIAL, LOCAL_ONE | 字符串 |
|
带星号(*)标记的字段是必需的。
19.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,cassandra-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:cassandraql
19.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 cassandra-sink。
19.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 cassandra-sink Kamelet 绑定到 Knative 对象来使用 cassandra-sink Kamelet 作为 Knative sink。
cassandra-sink-binding.yaml
19.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
19.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
cassandra-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f cassandra-sink-binding.yaml
oc apply -f cassandra-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
19.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel cassandra-sink -p "sink.connectionHost=localhost" -p sink.connectionPort=9042 -p "sink.keyspace=customers" -p "sink.password=The Password" -p "sink.query=Query" -p "sink.username=The Username"
kamel bind channel:mychannel cassandra-sink -p "sink.connectionHost=localhost" -p sink.connectionPort=9042 -p "sink.keyspace=customers" -p "sink.password=The Password" -p "sink.query=Query" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
19.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 cassandra-sink Kamelet 绑定到 Kafka 主题,来使用 cassandra-sink Kamelet 作为 Kafka sink。
cassandra-sink-binding.yaml
19.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
19.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
cassandra-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f cassandra-sink-binding.yaml
oc apply -f cassandra-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
19.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic cassandra-sink -p "sink.connectionHost=localhost" -p sink.connectionPort=9042 -p "sink.keyspace=customers" -p "sink.password=The Password" -p "sink.query=The Query" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic cassandra-sink -p "sink.connectionHost=localhost" -p sink.connectionPort=9042 -p "sink.keyspace=customers" -p "sink.password=The Password" -p "sink.query=The Query" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
19.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/cassandra-sink.kamelet.yaml
第 20 章 Cassandra 源 复制链接链接已复制到粘贴板!
查询 Cassandra 集群表。
20.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了适用于 cassandra-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | 主机名(s) cassandra server (s)。可以使用逗号分隔多个主机。 | 字符串 |
| |
| connectionPort * | 连接端口 | cassandra server (s)的端口号 | 字符串 |
| |
| keyspace * | keyspace | 要使用的密钥空间 | 字符串 |
| |
| 密码 * | 密码 | 用于访问安全 Cassandra 集群的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 Cassandra 集群表执行的查询 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问安全 Cassandra 集群的用户名 | 字符串 | ||
| consistencyLevel | 致性级别 | 要使用的一致性级别。该值可以是 ANY, ONE, TWO, THREE, QUORUM, ALL, LOCAL_QUORUM, EACH_QUORUM, SERIAL, LOCAL_SERIAL, LOCAL_SERIAL, LOCAL_ONE | 字符串 |
| |
| resultStrategy | 结果策略 | 转换查询的结果集的策略。可能的值有 ALL, ONE, LIMIT_10, LIMIT_100… | 字符串 |
|
带星号(*)标记的字段是必需的。
20.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,cassandra-source Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:cassandraql
20.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 cassandra-source。
20.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 cassandra-source Kamelet 绑定到 Knative 对象,来使用 cassandra-source Kamelet 作为 Knative 源。
cassandra-source-binding.yaml
20.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
20.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
cassandra-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f cassandra-source-binding.yaml
oc apply -f cassandra-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
20.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind cassandra-source -p "source.connectionHost=localhost" -p source.connectionPort=9042 -p "source.keyspace=customers" -p "source.password=The Password" -p "source.query=The Query" -p "source.username=The Username" channel:mychannel
kamel bind cassandra-source -p "source.connectionHost=localhost" -p source.connectionPort=9042 -p "source.keyspace=customers" -p "source.password=The Password" -p "source.query=The Query" -p "source.username=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
20.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 cassandra-source Kamelet 绑定到 Kafka 主题,来使用 cassandra-source Kamelet 作为 Kafka 源。
cassandra-source-binding.yaml
20.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
20.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
cassandra-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f cassandra-source-binding.yaml
oc apply -f cassandra-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
20.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind cassandra-source -p "source.connectionHost=localhost" -p source.connectionPort=9042 -p "source.keyspace=customers" -p "source.password=The Password" -p "source.query=The Query" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind cassandra-source -p "source.connectionHost=localhost" -p source.connectionPort=9042 -p "source.keyspace=customers" -p "source.password=The Password" -p "source.query=The Query" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
20.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/cassandra-source.kamelet.yaml
第 21 章 Ceph Sink 复制链接链接已复制到粘贴板!
将数据上传到由对象存储网关管理的 Ceph 存储桶。
在标头中,您可以选择性地设置文件 / ce- 属性来指定要上传的文件的名称。
file
如果您没有在标头中设置 属性,K Kamelet 会将交换 ID 用于文件名。
21.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 ceph-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | access 密钥。 | 字符串 | ||
| bucketName * | 存储桶名称 | Ceph bucket 名称。 | 字符串 | ||
| cephUrl * | Ceph Url 地址 | 设置 Ceph Object Storage Address Url。 | 字符串 |
| |
| secretkey * | 机密密钥 | secret 密钥。 | 字符串 | ||
| zoneGroup * | bucket zone Group | bucket zone group。 | 字符串 | ||
| autoCreateBucket | Autocreate Bucket | 指定 以自动创建存储桶。 | 布尔值 |
| |
| keyName | 键名称 | 在存储桶中保存元素的密钥名称。 | 字符串 |
带星号(*)标记的字段是必需的。
21.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,ceph-sink Kamelet 依赖于以下依赖项:
- camel:core
- camel:aws2-s3
- camel:kamelet
21.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 ceph-sink。
21.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 ceph-sink Kamelet 绑定到 Knative 对象,来使用 ceph-sink Kamelet 作为 Knative sink。
ceph-sink-binding.yaml
21.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
21.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ceph-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f ceph-sink-binding.yaml
oc apply -f ceph-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
21.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel ceph-sink -p "sink.accessKey=The Access Key" -p "sink.bucketName=The Bucket Name" -p "sink.cephUrl=http://ceph-storage-address.com" -p "sink.secretKey=The Secret Key" -p "sink.zoneGroup=The Bucket Zone Group"
kamel bind channel:mychannel ceph-sink -p "sink.accessKey=The Access Key" -p "sink.bucketName=The Bucket Name" -p "sink.cephUrl=http://ceph-storage-address.com" -p "sink.secretKey=The Secret Key" -p "sink.zoneGroup=The Bucket Zone Group"
这个命令会在集群的当前命名空间中创建 KameletBinding。
21.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 ceph-sink Kamelet 绑定到 Kafka 主题,来使用 ceph-sink Kamelet 作为 Kafka sink。
ceph-sink-binding.yaml
21.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
21.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ceph-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f ceph-sink-binding.yaml
oc apply -f ceph-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
21.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic ceph-sink -p "sink.accessKey=The Access Key" -p "sink.bucketName=The Bucket Name" -p "sink.cephUrl=http://ceph-storage-address.com" -p "sink.secretKey=The Secret Key" -p "sink.zoneGroup=The Bucket Zone Group"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic ceph-sink -p "sink.accessKey=The Access Key" -p "sink.bucketName=The Bucket Name" -p "sink.cephUrl=http://ceph-storage-address.com" -p "sink.secretKey=The Secret Key" -p "sink.zoneGroup=The Bucket Zone Group"
这个命令会在集群的当前命名空间中创建 KameletBinding。
21.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/ceph-sink.kamelet.yaml
第 22 章 Ceph 源 复制链接链接已复制到粘贴板!
从 Ceph bucket 接收由对象存储网关管理的数据。
22.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 ceph-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| accesskey * | 访问密钥 | access 密钥。 | 字符串 | ||
| bucketName * | 存储桶名称 | Ceph bucket 名称。 | 字符串 | ||
| cephUrl * | Ceph Url 地址 | 设置 Ceph Object Storage Address Url。 | 字符串 |
| |
| secretkey * | 机密密钥 | secret 密钥。 | 字符串 | ||
| zoneGroup * | bucket zone Group | bucket zone group。 | 字符串 | ||
| autoCreateBucket | Autocreate Bucket | 指定 以自动创建存储桶。 | 布尔值 |
| |
| delay | delay | 所选存储桶下次轮询前的毫秒数。 | 整数 |
| |
| deleteAfterRead | 自动删除对象 | 指定在消耗对象后删除对象。 | 布尔值 |
| |
| ignoreBody | 忽略 Body |
如果为 true,则忽略对象正文。把它设置为 true 会覆盖 | 布尔值 |
| |
| includeBody | include Body | 如果为 true,则会使用交换并放入正文和关闭状态。如果为 false,则对象流会将原始状态放在正文中,标头会使用对象元数据来设置。 | 布尔值 |
| |
| prefix | prefix | 搜索时需要考虑的存储桶前缀。 | 字符串 |
|
带星号(*)标记的字段是必需的。
22.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,ceph-source Kamelet 依赖于以下依赖项:
- camel:aws2-s3
- camel:kamelet
22.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 ceph-source。
22.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 ceph-source Kamelet 绑定到 Knative 对象,来使用 ceph-source Kamelet 作为 Knative 源。
ceph-source-binding.yaml
22.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
22.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ceph-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f ceph-source-binding.yaml
oc apply -f ceph-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
22.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind ceph-source -p "source.accessKey=The Access Key" -p "source.bucketName=The Bucket Name" -p "source.cephUrl=http://ceph-storage-address.com" -p "source.secretKey=The Secret Key" -p "source.zoneGroup=The Bucket Zone Group" channel:mychannel
kamel bind ceph-source -p "source.accessKey=The Access Key" -p "source.bucketName=The Bucket Name" -p "source.cephUrl=http://ceph-storage-address.com" -p "source.secretKey=The Secret Key" -p "source.zoneGroup=The Bucket Zone Group" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
22.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 ceph-source Kamelet 绑定到 Kafka 主题,来使用 ceph-source Kamelet 作为 Kafka 源。
ceph-source-binding.yaml
22.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
22.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ceph-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f ceph-source-binding.yaml
oc apply -f ceph-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
22.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind ceph-source -p "source.accessKey=The Access Key" -p "source.bucketName=The Bucket Name" -p "source.cephUrl=http://ceph-storage-address.com" -p "source.secretKey=The Secret Key" -p "source.zoneGroup=The Bucket Zone Group" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind ceph-source -p "source.accessKey=The Access Key" -p "source.bucketName=The Bucket Name" -p "source.cephUrl=http://ceph-storage-address.com" -p "source.secretKey=The Secret Key" -p "source.zoneGroup=The Bucket Zone Group" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
22.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/ceph-source.kamelet.yaml
第 23 章 提取字段操作 复制链接链接已复制到粘贴板!
从正文中提取字段
23.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了适用于 extract-field-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 字段 * | 字段 | 要添加的字段名称 | 字符串 |
带星号(*)标记的字段是必需的。
23.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,extract-field-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
- camel:jackson
23.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 extract-field-action。
23.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 extract-field-action Kamelet 作为 Knative 绑定中的中间步骤。
extract-field-action-binding.yaml
23.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
23.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
extract-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f extract-field-action-binding.yaml
oc apply -f extract-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
23.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step extract-field-action -p "step-0.field=The Field" channel:mychannel
kamel bind timer-source?message=Hello --step extract-field-action -p "step-0.field=The Field" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
23.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 extract-field-action Kamelet 作为 Kafka 绑定中的中间步骤。
extract-field-action-binding.yaml
23.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
23.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
extract-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f extract-field-action-binding.yaml
oc apply -f extract-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
23.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step extract-field-action -p "step-0.field=The Field" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step extract-field-action -p "step-0.field=The Field" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
23.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/extract-field-action.kamelet.yaml
第 24 章 FTP Sink 复制链接链接已复制到粘贴板!
将数据发送到 FTP 服务器。
Kamelet 需要设置以下标头:
-
文件/ce-file: 作为要上传的文件名
如果未设置交换 ID,则将用作文件名。
24.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 ftp-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | FTP 服务器的主机名 | 字符串 | ||
| connectionPort * | 连接端口 | FTP 服务器的端口 | 字符串 |
| |
| directoryName * | 目录名称 | 启动目录 | 字符串 | ||
| 密码 * | 密码 | 用于访问 FTP 服务器的密码 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问 FTP 服务器的用户名 | 字符串 | ||
| fileExist | 文件保留 | 如果文件已存在,则的行为方式。共有 4 个 enums,值可以是覆盖、Append、Fail 或 Ignore 之一 | 字符串 |
| |
| passiveMode | 被动模式 | 设置被动模式连接 | 布尔值 |
|
带星号(*)标记的字段是必需的。
24.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,ftp-sink Kamelet 依赖于以下依赖项:
- camel:ftp
- camel:core
- camel:kamelet
24.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 ftp-sink。
24.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 ftp-sink Kamelet 绑定到 Knative 对象,来使用 ftp-sink Kamelet 作为 Knative sink。
ftp-sink-binding.yaml
24.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
24.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ftp-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f ftp-sink-binding.yaml
oc apply -f ftp-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
24.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel ftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
kamel bind channel:mychannel ftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
24.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 ftp-sink Kamelet 绑定到 Kafka 主题,来使用 ftp-sink Kamelet 作为 Kafka sink。
ftp-sink-binding.yaml
24.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
24.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ftp-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f ftp-sink-binding.yaml
oc apply -f ftp-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
24.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic ftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic ftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
24.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/ftp-sink.kamelet.yaml
第 25 章 FTP 源 复制链接链接已复制到粘贴板!
从 FTP 服务器接收数据。
25.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 ftp-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | FTP 服务器的主机名 | 字符串 | ||
| connectionPort * | 连接端口 | FTP 服务器的端口 | 字符串 |
| |
| directoryName * | 目录名称 | 启动目录 | 字符串 | ||
| 密码 * | 密码 | 用于访问 FTP 服务器的密码 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问 FTP 服务器的用户名 | 字符串 | ||
| idempotent | Idempotency | 跳过已处理的文件。 | 布尔值 |
| |
| passiveMode | 被动模式 | 设置被动模式连接 | 布尔值 |
| |
| 递归 | 递归 | 如果某个目录也会在所有子目录中查找文件。 | 布尔值 |
|
带星号(*)标记的字段是必需的。
25.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,ftp-source Kamelet 依赖于以下依赖项:
- camel:ftp
- camel:core
- camel:kamelet
25.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 ftp-source。
25.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 ftp-source Kamelet 绑定到 Knative 对象,来使用 ftp-source Kamelet 作为 Knative 源。
ftp-source-binding.yaml
25.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
25.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ftp-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f ftp-source-binding.yaml
oc apply -f ftp-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
25.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind ftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
kamel bind ftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
25.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 ftp-source Kamelet 绑定到 Kafka 主题,来使用 ftp-source Kamelet 作为 Kafka 源。
ftp-source-binding.yaml
25.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
25.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
ftp-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f ftp-source-binding.yaml
oc apply -f ftp-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
25.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind ftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind ftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
25.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/ftp-source.kamelet.yaml
第 26 章 具有标头过滤操作 复制链接链接已复制到粘贴板!
根据一个标头的存在过滤
26.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 has-header-filter-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 名称 * | 标头名称 | 要评估的标头名称。标头名称必须由源 Kamelet 传递。对于 Knative,如果您使用的是云事件,则必须在标头名称中包含 CloudEvent (ce-)前缀。 | 字符串 |
|
带星号(*)标记的字段是必需的。
26.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,with -header-filter-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
26.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 has-header-filter-action。
26.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 has-header-filter-action Kamelet 作为 Knative 绑定中的中间步骤。
has-header-filter-action-binding.yaml
26.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
26.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
has-header-filter-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f has-header-filter-action-binding.yaml
oc apply -f has-header-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
26.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name has-header-filter-action-binding timer-source?message="Hello" --step insert-header-action -p "step-0.name=my-header" -p "step-0.value=my-value" --step has-header-filter-action -p "step-1.name=my-header" channel:mychannel
kamel bind --name has-header-filter-action-binding timer-source?message="Hello" --step insert-header-action -p "step-0.name=my-header" -p "step-0.value=my-value" --step has-header-filter-action -p "step-1.name=my-header" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
26.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 has-header-filter-action Kamelet 作为 Kafka 绑定中的中间步骤。
has-header-filter-action-binding.yaml
26.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
26.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
has-header-filter-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f has-header-filter-action-binding.yaml
oc apply -f has-header-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
26.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name has-header-filter-action-binding timer-source?message="Hello" --step insert-header-action -p "step-0.name=my-header" -p "step-0.value=my-value" --step has-header-filter-action -p "step-1.name=my-header" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name has-header-filter-action-binding timer-source?message="Hello" --step insert-header-action -p "step-0.name=my-header" -p "step-0.value=my-value" --step has-header-filter-action -p "step-1.name=my-header" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
26.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/has-header-filter-action.kamelet.yaml
第 27 章 Hoist 字段操作 复制链接链接已复制到粘贴板!
将数据嵌套在一个字段中
27.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 hoist-field-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 字段 * | 字段 | 包含事件的字段名称 | 字符串 |
带星号(*)标记的字段是必需的。
27.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,hoist-field-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:core
- camel:jackson
- camel:kamelet
27.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 hoist-field-action。
27.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 hoist-field-action Kamelet 作为 Knative 绑定中的中间步骤。
hoist-field-action-binding.yaml
27.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
27.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
hoist-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f hoist-field-action-binding.yaml
oc apply -f hoist-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
27.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step hoist-field-action -p "step-0.field=The Field" channel:mychannel
kamel bind timer-source?message=Hello --step hoist-field-action -p "step-0.field=The Field" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
27.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 hoist-field-action Kamelet 作为 Kafka 绑定中的中间步骤。
hoist-field-action-binding.yaml
27.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
27.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
hoist-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f hoist-field-action-binding.yaml
oc apply -f hoist-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
27.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step hoist-field-action -p "step-0.field=The Field" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step hoist-field-action -p "step-0.field=The Field" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
27.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/hoist-field-action.kamelet.yaml
第 28 章 HTTP Sink 复制链接链接已复制到粘贴板!
将事件转发到 HTTP 端点
28.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 http-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| url * | URL | 要发送数据的 URL | 字符串 |
| |
| 方法 | 方法 | 要使用的 HTTP 方法 | 字符串 |
|
带星号(*)标记的字段是必需的。
28.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,http-sink Kamelet 依赖于以下依赖项:
- camel:http
- camel:kamelet
- camel:core
28.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 http-sink。
28.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 http-sink Kamelet 绑定到 Knative 对象,来使用 http-sink Kamelet 作为 Knative sink。
http-sink-binding.yaml
28.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
28.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
http-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f http-sink-binding.yaml
oc apply -f http-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
28.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel http-sink -p "sink.url=https://my-service/path"
kamel bind channel:mychannel http-sink -p "sink.url=https://my-service/path"
这个命令会在集群的当前命名空间中创建 KameletBinding。
28.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 http-sink Kamelet 绑定到 Kafka 主题,来使用 http-sink Kamelet 作为 Kafka sink。
http-sink-binding.yaml
28.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
28.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
http-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f http-sink-binding.yaml
oc apply -f http-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
28.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic http-sink -p "sink.url=https://my-service/path"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic http-sink -p "sink.url=https://my-service/path"
这个命令会在集群的当前命名空间中创建 KameletBinding。
28.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/http-sink.kamelet.yaml
第 29 章 插入字段操作 复制链接链接已复制到粘贴板!
为传输中的消息添加带有恒定值的自定义字段
29.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 insert-field-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 字段 * | 字段 | 要添加的字段名称 | 字符串 | ||
| 值 * | 值 | 字段的值 | 字符串 |
带星号(*)标记的字段是必需的。
29.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,插入字段的 Ka melet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:core
- camel:jackson
- camel:kamelet
29.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 insert-field-action。
29.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 insert-field-action Kamelet 作为 Knative 绑定中的中间步骤。
insert-field-action-binding.yaml
29.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
29.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
insert-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f insert-field-action-binding.yaml
oc apply -f insert-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
29.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name insert-field-action-binding timer-source?message='{"foo":"John"}' --step json-deserialize-action --step insert-field-action -p step-1.field='The Field' -p step-1.value='The Value' channel:mychannel
kamel bind --name insert-field-action-binding timer-source?message='{"foo":"John"}' --step json-deserialize-action --step insert-field-action -p step-1.field='The Field' -p step-1.value='The Value' channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
29.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 insert-field-action Kamelet 作为 Kafka 绑定中的中间步骤。
insert-field-action-binding.yaml
29.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
29.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
insert-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f insert-field-action-binding.yaml
oc apply -f insert-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
29.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name insert-field-action-binding timer-source?message='{"foo":"John"}' --step json-deserialize-action --step insert-field-action -p step-1.field='The Field' -p step-1.value='The Value' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name insert-field-action-binding timer-source?message='{"foo":"John"}' --step json-deserialize-action --step insert-field-action -p step-1.field='The Field' -p step-1.value='The Value' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
29.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/insert-field-action.kamelet.yaml
第 30 章 插入标头操作 复制链接链接已复制到粘贴板!
为传输中的消息添加带有恒定值的标头
30.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 insert-header-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 名称 * | 名称 | 要添加的标头的名称。对于 Knative,标头的名称需要 CloudEvent (ce-)前缀。 | 字符串 | ||
| 值 * | 值 | 标头的值 | 字符串 |
带星号(*)标记的字段是必需的。
30.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,insert-header-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
30.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 insert-header-action。
30.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 insert-header-action Kamelet 作为 Knative 绑定中的中间步骤。
insert-header-action-binding.yaml
30.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
30.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
insert-header-action-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行操作:
oc apply -f insert-header-action-binding.yaml
oc apply -f insert-header-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
30.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step insert-header-action -p "step-0.name=The Name" -p "step-0.value=The Value" channel:mychannel
kamel bind timer-source?message=Hello --step insert-header-action -p "step-0.name=The Name" -p "step-0.value=The Value" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
30.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 insert-header-action Kamelet 作为 Kafka 绑定中的中间步骤。
insert-header-action-binding.yaml
30.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
30.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
insert-header-action-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行操作:
oc apply -f insert-header-action-binding.yaml
oc apply -f insert-header-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
30.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step insert-header-action -p "step-0.name=The Name" -p "step-0.value=The Value" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step insert-header-action -p "step-0.name=The Name" -p "step-0.value=The Value" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
30.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/insert-header-action.kamelet.yaml
第 31 章 is Tombstone Filter Action 复制链接链接已复制到粘贴板!
根据正文的存在或不存在过滤
31.1. 配置选项 复制链接链接已复制到粘贴板!
is-tombstone-filter-action Kamelet 不指定任何配置选项。
31.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,is-tombstone-filter-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
31.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 is-tombstone-filter-action。
31.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 is-tombstone-filter-action Kamelet 作为 Knative 绑定中的中间步骤。
is-tombstone-filter-action-binding.yaml
31.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
31.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
is-tombstone-filter-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f is-tombstone-filter-action-binding.yaml
oc apply -f is-tombstone-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
31.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step is-tombstone-filter-action channel:mychannel
kamel bind timer-source?message=Hello --step is-tombstone-filter-action channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
31.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 is-tombstone-filter-action Kamelet 作为 Kafka 绑定中的中间步骤。
is-tombstone-filter-action-binding.yaml
31.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
31.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
is-tombstone-filter-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f is-tombstone-filter-action-binding.yaml
oc apply -f is-tombstone-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
31.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step is-tombstone-filter-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step is-tombstone-filter-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
31.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/is-tombstone-filter-action.kamelet.yaml
第 32 章 JIRA Add Comment Sink 复制链接链接已复制到粘贴板!
为 JIRA 中的现有问题添加新注释。
Kamelet 需要设置以下标头:
-
issueKey/ce-issueKey: 作为问题代码。
注释在消息的正文中设置。
32.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jira-add-comment-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| jiraUrl * | Jira URL | JIRA 实例的 URL | 字符串 |
| |
| 密码 * | 密码 | 用于访问 JIRA 的 API 令牌或 API 令牌 | 字符串 | ||
| 用户名 * | 用户名 | 访问 Jira 的用户名 | 字符串 |
带星号(*)标记的字段是必需的。
32.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jira-add-comment-sink Kamelet 依赖于以下依赖项:
- camel:core
- camel:jackson
- camel:jira
- camel:kamelet
- mvn:com.fasterxml.jackson.datatype:jackson-datatype-joda:2.12.4.redhat-00001
32.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jira-add-comment-sink。
32.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-add-comment-sink Kamelet 绑定到 Knative 对象来使用 jira-add-comment-sink Kamelet。
jira-add-comment-sink-binding.yaml
32.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
32.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-add-comment-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-add-comment-sink-binding.yaml
oc apply -f jira-add-comment-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
32.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-add-comment-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-167 jira-add-comment-sink?password="password"\&username="username"\&jiraUrl="jira url"
kamel bind --name jira-add-comment-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-167 jira-add-comment-sink?password="password"\&username="username"\&jiraUrl="jira url"
这个命令会在集群的当前命名空间中创建 KameletBinding。
32.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-add-comment-sink Kamelet 绑定到 Kafka 主题,来使用 jira-add-comment-sink Kame。
jira-add-comment-sink-binding.yaml
32.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
32.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-add-comment-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-add-comment-sink-binding.yaml
oc apply -f jira-add-comment-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
32.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-add-comment-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-167 jira-add-comment-sink?password="password"\&username="username"\&jiraUrl="jira url"
kamel bind --name jira-add-comment-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-167 jira-add-comment-sink?password="password"\&username="username"\&jiraUrl="jira url"
这个命令会在集群的当前命名空间中创建 KameletBinding。
32.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jira-add-comment-sink.kamelet.yaml
第 33 章 JIRA Add Issue Sink 复制链接链接已复制到粘贴板!
为 JIRA 添加新问题。
Kamelet 需要设置以下标头:
-
projectKey/ce-projectKey: 作为 JIRA 项目密钥。 -
issueTypeName/ce-issueTypeName: 作为问题类型的名称(例如:error、Enhancement)。 -
issueSummary/ce-issueSummary: 作为问题的标题或摘要。 -
issueAssignee/ce-issueAssignee: 作为分配给该问题的用户(可选)。 -
issuePriorityName/ce-issuePriorityName: 作为问题的优先级名称(例如: Critical、blocker、Trivial)(可选)。 -
问题Components/ce-issueComponents: 作为包含有效组件名称(可选)的字符串列表。 -
问题说明/过期说明:作为问题描述(可选)。
可以在消息正文中设置问题描述,或标头中 的问题描述/ce-issueDescription,但正文具有优先权。
33.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jira-add-issue-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| jiraUrl * | Jira URL | JIRA 实例的 URL | 字符串 |
| |
| 密码 * | 密码 | 用于访问 JIRA 的 API 令牌或 API 令牌 | 字符串 | ||
| 用户名 * | 用户名 | 访问 Jira 的用户名 | 字符串 |
带星号(*)标记的字段是必需的。
33.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jira-add-issue-sink Kamelet 依赖于以下依赖项:
- camel:core
- camel:jackson
- camel:jira
- camel:kamelet
- mvn:com.fasterxml.jackson.datatype:jackson-datatype-joda:2.12.4.redhat-00001
33.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jira-add-issue-sink。
33.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-add-issue-sink Kamelet 绑定到 Knative 对象来使用 jira-add-sink Kamelet 作为 Knative sink。
jira-add-issue-sink-binding.yaml
33.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
33.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-add-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-add-issue-sink-binding.yaml
oc apply -f jira-add-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
33.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-add-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=projectKey -p step-0.value=MYP --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Bug --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a bug" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Low jira-add-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-add-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=projectKey -p step-0.value=MYP --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Bug --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a bug" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Low jira-add-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
33.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过把它绑定到 Kafka 主题,使用 jira-add-issue-sink Kamelet 作为 Kafka sink。
jira-add-issue-sink-binding.yaml
33.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
33.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-add-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-add-issue-sink-binding.yaml
oc apply -f jira-add-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
33.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-add-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=projectKey -p step-0.value=MYP --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Bug --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a bug" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Low jira-add-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-add-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=projectKey -p step-0.value=MYP --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Bug --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a bug" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Low jira-add-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
33.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jira-add-issue-sink.kamelet.yaml
第 34 章 JIRA Transition Issue Sink 复制链接链接已复制到粘贴板!
在 Jira 中设置现有问题的新状态(转换)。
Kamelet 需要设置以下标头:
-
issueKey/ce-issueKey: 作为问题唯一代码。 -
issueTransitionId/ce-issueTransitionId:作为新状态(翻译)代码。您应该仔细检查项目工作流,因为每个转换可能需要在转换前检查这些条件。
转换的评论在消息的正文中设定。
34.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jira-transition-issue-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| jiraUrl * | Jira URL | JIRA 实例的 URL | 字符串 |
| |
| 密码 * | 密码 | 用于访问 JIRA 的 API 令牌或 API 令牌 | 字符串 | ||
| 用户名 * | 用户名 | 访问 Jira 的用户名 | 字符串 |
带星号(*)标记的字段是必需的。
34.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jira-transition-issue-sink Kamelet 依赖于以下依赖项:
- camel:core
- camel:jackson
- camel:jira
- camel:kamelet
- mvn:com.fasterxml.jackson.datatype:jackson-datatype-joda:2.12.4.redhat-00001
34.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 jira-transition-issue-sink。
34.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-transition-issue-sink Kamelet 绑定到 Knative 对象来使用 jira-transition-issue-sink Kamelet。
jira-transition-issue-sink-binding.yaml
34.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
34.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-transition-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-transition-issue-sink-binding.yaml
oc apply -f jira-transition-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
34.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-transition-issue-sink-binding timer-source?message="The new comment 123"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTransitionId -p step-1.value=5 jira-transition-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-transition-issue-sink-binding timer-source?message="The new comment 123"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTransitionId -p step-1.value=5 jira-transition-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
34.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-transition-issue-sink Kamelet 绑定到 Kafka 主题,来使用 jira-transition-issue-sink Kamelet。
jira-transition-issue-sink-binding.yaml
34.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
34.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-transition-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-transition-issue-sink-binding.yaml
oc apply -f jira-transition-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
34.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-transition-issue-sink-binding timer-source?message="The new comment 123"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTransitionId -p step-1.value=5 jira-transition-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-transition-issue-sink-binding timer-source?message="The new comment 123"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTransitionId -p step-1.value=5 jira-transition-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
34.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jira-transition-issue-sink.kamelet.yaml
第 35 章 JIRA 更新问题 复制链接链接已复制到粘贴板!
JIRA 中现有问题的更新字段。Kamelet 需要设置以下标头:
-
issueKey/ce-issueKey: 作为 JIRA 中的问题代码。 -
issueTypeName/ce-issueTypeName: 作为问题类型的名称(例如:error、Enhancement)。 -
issueSummary/ce-issueSummary: 作为问题的标题或摘要。 -
issueAssignee/ce-issueAssignee: 作为分配给该问题的用户(可选)。 -
issuePriorityName/ce-issuePriorityName: 作为问题的优先级名称(例如: Critical、blocker、Trivial)(可选)。 -
问题Components/ce-issueComponents: 作为包含有效组件名称(可选)的字符串列表。 -
问题说明/过期说明:作为问题描述(可选)。
可以在消息正文中设置问题描述,或标头中 的问题描述/ce-issueDescription,但正文具有优先权。
35.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jira-update-issue-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| jiraUrl * | Jira URL | JIRA 实例的 URL | 字符串 |
| |
| 密码 * | 密码 | 用于访问 JIRA 的 API 令牌或 API 令牌 | 字符串 | ||
| 用户名 * | 用户名 | 访问 Jira 的用户名 | 字符串 |
带星号(*)标记的字段是必需的。
35.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jira-update-issue-sink Kamelet 依赖于以下依赖项:
- camel:core
- camel:jackson
- camel:jira
- camel:kamelet
- mvn:com.fasterxml.jackson.datatype:jackson-datatype-joda:2.12.4.redhat-00001
35.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jira-update-issue-sink。
35.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-update-issue-sink Kamelet 绑定到 Knative 对象来使用 jira-update-sink Kamelet 作为 Knative sink。
jira-update-issue-sink-binding.yaml
35.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
35.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-update-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-update-issue-sink-binding.yaml
oc apply -f jira-update-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
35.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-update-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Story --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a story 123" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Highest jira-update-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-update-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Story --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a story 123" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Highest jira-update-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
35.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 jira-update-issue-sink Kamelet 绑定到 Kafka 主题,来使用 jira-update-sink Kame。
jira-update-issue-sink-binding.yaml
35.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
35.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-update-issue-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f jira-update-issue-sink-binding.yaml
oc apply -f jira-update-issue-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
35.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jira-update-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Story --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a story 123" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Highest jira-update-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
kamel bind --name jira-update-issue-sink-binding timer-source?message="The new comment"\&period=60000 --step insert-header-action -p step-0.name=issueKey -p step-0.value=MYP-170 --step insert-header-action -p step-1.name=issueTypeName -p step-1.value=Story --step insert-header-action -p step-2.name=issueSummary -p step-2.value="This is a story 123" --step insert-header-action -p step-3.name=issuePriorityName -p step-3.value=Highest jira-update-issue-sink?jiraUrl="jira url"\&username="username"\&password="password"
这个命令会在集群的当前命名空间中创建 KameletBinding。
35.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jira-update-issue-sink.kamelet.yaml
第 36 章 JIRA 源 复制链接链接已复制到粘贴板!
从 JIRA 接收有关新问题的通知。
36.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jira-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| jiraUrl * | Jira URL | JIRA 实例的 URL | 字符串 |
| |
| 密码 * | 密码 | 访问 Jira 的密码 | 字符串 | ||
| 用户名 * | 用户名 | 访问 Jira 的用户名 | 字符串 | ||
| jql | JQL | 用于过滤问题的查询 | 字符串 |
|
带星号(*)标记的字段是必需的。
36.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jira-source Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:jira
36.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jira-source。
36.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 jira-source Kamelet 绑定到 Knative 对象来使用 jira-source Kamelet 作为 Knative 源。
jira-source-binding.yaml
36.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
36.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f jira-source-binding.yaml
oc apply -f jira-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
36.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind jira-source -p "source.jiraUrl=http://my_jira.com:8081" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
kamel bind jira-source -p "source.jiraUrl=http://my_jira.com:8081" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
36.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 jira-source Kamelet 绑定到 Kafka 主题,来使用 jira-source Kamelet 作为 Kafka 源。
jira-source-binding.yaml
36.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
36.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jira-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f jira-source-binding.yaml
oc apply -f jira-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
36.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind jira-source -p "source.jiraUrl=http://my_jira.com:8081" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind jira-source -p "source.jiraUrl=http://my_jira.com:8081" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
36.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jira-source.kamelet.yaml
第 37 章 JMS - AMQP 1.0 Kamelet Sink 复制链接链接已复制到粘贴板!
Kamelet,可以利用 Apache Qpid JMS 客户端向任何 AMQP 1.0 兼容消息代理生成事件
37.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jms-amqp-10-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| destinationName * | 目的地名称 | JMS 目的地名称 | 字符串 | ||
| remoteURI * | 代理 URL | JMS URL | 字符串 |
| |
| destinationType | 目标类型 | JMS 目的地类型(例如:队列或主题) | 字符串 |
|
带星号(*)标记的字段是必需的。
37.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jms-amqp-10-sink Kamelet 依赖于以下依赖项:
- camel:jms
- camel:kamelet
- mvn:org.apache.qpid:qpid-jms-client:0.55.0
37.3. 使用 复制链接链接已复制到粘贴板!
本节介绍如何使用 jms-amqp-10-sink。
37.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 jms-amqp-10-sink Kamelet 绑定到 Knative 对象来使用 jms-amqp-10-sink Kamelet。
jms-amqp-10-sink-binding.yaml
37.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
37.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-amqp-10-sink-binding.yaml文件保存到本地驱动器,然后根据需要编辑它作为您的配置。 使用以下命令运行 sink:
oc apply -f jms-amqp-10-sink-binding.yaml
oc apply -f jms-amqp-10-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
37.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel jms-amqp-10-sink -p "sink.destinationName=The Destination Name" -p "sink.remoteURI=amqp://my-host:31616"
kamel bind channel:mychannel jms-amqp-10-sink -p "sink.destinationName=The Destination Name" -p "sink.remoteURI=amqp://my-host:31616"
这个命令会在集群的当前命名空间中创建 KameletBinding。
37.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 jms-amqp-10-sink Kamelet 绑定到 Kafka 主题,来使用 jms-amqp-10-sink Kame。
jms-amqp-10-sink-binding.yaml
37.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
37.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-amqp-10-sink-binding.yaml文件保存到本地驱动器,然后根据需要编辑它作为您的配置。 使用以下命令运行 sink:
oc apply -f jms-amqp-10-sink-binding.yaml
oc apply -f jms-amqp-10-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
37.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic jms-amqp-10-sink -p "sink.destinationName=The Destination Name" -p "sink.remoteURI=amqp://my-host:31616"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic jms-amqp-10-sink -p "sink.destinationName=The Destination Name" -p "sink.remoteURI=amqp://my-host:31616"
这个命令会在集群的当前命名空间中创建 KameletBinding。
37.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jms-amqp-10-sink.kamelet.yaml
第 38 章 JMS - AMQP 1.0 Kamelet 源 复制链接链接已复制到粘贴板!
Kamelet,它可以利用 Apache Qpid JMS 客户端消耗来自任何 AMQP 1.0 兼容消息代理的事件
38.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jms-amqp-10-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| destinationName * | 目的地名称 | JMS 目的地名称 | 字符串 | ||
| remoteURI * | 代理 URL | JMS URL | 字符串 |
| |
| destinationType | 目标类型 | JMS 目的地类型(例如:队列或主题) | 字符串 |
|
带星号(*)标记的字段是必需的。
38.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jms-amqp-10-source Kamelet 依赖于以下依赖项:
- camel:jms
- camel:kamelet
- mvn:org.apache.qpid:qpid-jms-client:0.55.0
38.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jms-amqp-10-source。
38.3.1. Knative 源 复制链接链接已复制到粘贴板!
通过将 jms-amqp-10-source Kamelet 绑定到 Knative 对象,使用 jms-amqp-10-source Kamelet 作为 Knative 源。
jms-amqp-10-source-binding.yaml
38.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
38.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-amqp-10-source-binding.yaml文件保存到本地驱动器,然后根据需要编辑它作为您的配置。 使用以下命令运行源:
oc apply -f jms-amqp-10-source-binding.yaml
oc apply -f jms-amqp-10-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
38.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind jms-amqp-10-source -p "source.destinationName=The Destination Name" -p "source.remoteURI=amqp://my-host:31616" channel:mychannel
kamel bind jms-amqp-10-source -p "source.destinationName=The Destination Name" -p "source.remoteURI=amqp://my-host:31616" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
38.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 jms-amqp-10-source Kamelet 绑定到 Kafka 主题,来使用 jms-amqp-10-source Kame。
jms-amqp-10-source-binding.yaml
38.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
38.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-amqp-10-source-binding.yaml文件保存到本地驱动器,然后根据需要编辑它作为您的配置。 使用以下命令运行源:
oc apply -f jms-amqp-10-source-binding.yaml
oc apply -f jms-amqp-10-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
38.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind jms-amqp-10-source -p "source.destinationName=The Destination Name" -p "source.remoteURI=amqp://my-host:31616" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind jms-amqp-10-source -p "source.destinationName=The Destination Name" -p "source.remoteURI=amqp://my-host:31616" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
38.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jms-amqp-10-source.kamelet.yaml
第 39 章 JMS - IBM MQ Kamelet Sink 复制链接链接已复制到粘贴板!
Kamelet,它可以利用 JMS 向 IBM MQ 消息队列生成事件。
39.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jms-ibm-mq-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| channel * | IBM MQ Channel | IBM MQ Channel 的名称 | 字符串 | ||
| destinationName * | 目的地名称 | 目的地名称 | 字符串 | ||
| 密码 * | 密码 | 用于向 IBM MQ 服务器进行身份验证的密码 | 字符串 | ||
| queueManager * | IBM MQ Queue Manager | IBM MQ Queue Manager 的名称 | 字符串 | ||
| serverName * | IBM MQ 服务器名称 | IBM MQ 服务器名称或地址 | 字符串 | ||
| serverPort * | IBM MQ 服务器端口 | IBM MQ 服务器端口 | 整数 |
| |
| 用户名 * | 用户名 | 用于向 IBM MQ 服务器进行身份验证的用户名 | 字符串 | ||
| clientId | IBM MQ 客户端 ID | IBM MQ 客户端 ID 的名称 | 字符串 | ||
| destinationType | 目标类型 | JMS 目的地类型(队列或主题) | 字符串 |
|
带星号(*)标记的字段是必需的。
39.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jms-ibm-mq-sink Kamelet 依赖于以下依赖项:
- camel:jms
- camel:kamelet
- mvn:com.ibm.mq:com.ibm.mq.allclient:9.2.5.0
39.3. 使用 复制链接链接已复制到粘贴板!
本节介绍如何使用 jms-ibm-mq-sink。
39.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将其绑定到 Knative 对象,使用 jms-ibm-mq-sink Kamelet 作为 Knative sink。
jms-ibm-mq-sink-binding.yaml
39.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
39.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-ibm-mq-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f jms-ibm-mq-sink-binding.yaml
oc apply -f jms-ibm-mq-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
39.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jms-ibm-mq-sink-binding timer-source?message="Hello IBM MQ!" 'jms-ibm-mq-sink?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd'
kamel bind --name jms-ibm-mq-sink-binding timer-source?message="Hello IBM MQ!" 'jms-ibm-mq-sink?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd'
这个命令会在集群的当前命名空间中创建 KameletBinding。
39.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 jms-ibm-mq-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
jms-ibm-mq-sink-binding.yaml
39.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
39.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-ibm-mq-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f jms-ibm-mq-sink-binding.yaml
oc apply -f jms-ibm-mq-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
39.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind --name jms-ibm-mq-sink-binding timer-source?message="Hello IBM MQ!" 'jms-ibm-mq-sink?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd'
kamel bind --name jms-ibm-mq-sink-binding timer-source?message="Hello IBM MQ!" 'jms-ibm-mq-sink?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd'
这个命令会在集群的当前命名空间中创建 KameletBinding。
39.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jms-ibm-mq-sink.kamelet.yaml
第 40 章 JMS - IBM MQ Kamelet 源 复制链接链接已复制到粘贴板!
Kamelet,可以使用 JMS 从 IBM MQ 消息队列读取事件。
40.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 jms-ibm-mq-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| channel * | IBM MQ Channel | IBM MQ Channel 的名称 | 字符串 | ||
| destinationName * | 目的地名称 | 目的地名称 | 字符串 | ||
| 密码 * | 密码 | 用于向 IBM MQ 服务器进行身份验证的密码 | 字符串 | ||
| queueManager * | IBM MQ Queue Manager | IBM MQ Queue Manager 的名称 | 字符串 | ||
| serverName * | IBM MQ 服务器名称 | IBM MQ 服务器名称或地址 | 字符串 | ||
| serverPort * | IBM MQ 服务器端口 | IBM MQ 服务器端口 | 整数 |
| |
| 用户名 * | 用户名 | 用于向 IBM MQ 服务器进行身份验证的用户名 | 字符串 | ||
| clientId | IBM MQ 客户端 ID | IBM MQ 客户端 ID 的名称 | 字符串 | ||
| destinationType | 目标类型 | JMS 目的地类型(队列或主题) | 字符串 |
|
带星号(*)标记的字段是必需的。
40.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,jms-ibm-mq-source Kamelet 依赖于以下依赖项:
- camel:jms
- camel:kamelet
- mvn:com.ibm.mq:com.ibm.mq.allclient:9.2.5.0
40.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 jms-ibm-mq-source。
40.3.1. Knative 源 复制链接链接已复制到粘贴板!
通过将 jms-ibm-mq-source Kamelet 绑定到 Knative 对象,使用 jms-ibm-mq-source Kamelet 作为 Knative 源。
jms-ibm-mq-source-binding.yaml
40.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
40.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-ibm-mq-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f jms-ibm-mq-source-binding.yaml
oc apply -f jms-ibm-mq-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
40.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind --name jms-ibm-mq-source-binding 'jms-ibm-mq-source?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd' channel:mychannel
kamel bind --name jms-ibm-mq-source-binding 'jms-ibm-mq-source?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd' channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
40.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 jms-ibm-mq-source Kamelet 绑定到 Kafka 主题,来使用 jms-ibm-mq-source Kame。
jms-ibm-mq-source-binding.yaml
40.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
40.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
jms-ibm-mq-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f jms-ibm-mq-source-binding.yaml
oc apply -f jms-ibm-mq-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
40.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind --name jms-ibm-mq-source-binding 'jms-ibm-mq-source?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name jms-ibm-mq-source-binding 'jms-ibm-mq-source?serverName=10.103.41.245&serverPort=1414&destinationType=queue&destinationName=DEV.QUEUE.1&queueManager=QM1&channel=DEV.APP.SVRCONN&username=app&password=passw0rd' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
40.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/jms-ibm-mq-source.kamelet.yaml
第 41 章 JSON 反序列化操作 复制链接链接已复制到粘贴板!
将有效负载序列化为 JSON
41.1. 配置选项 复制链接链接已复制到粘贴板!
json-deserialize-action Kamelet 不指定任何配置选项。
41.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,json-deserialize-action Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:core
- camel:jackson
41.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 json-deserialize-action。
41.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 json-deserialize-action Kamelet 作为 Knative 绑定中的中间步骤。
json-deserialize-action-binding.yaml
41.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
41.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
json-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f json-deserialize-action-binding.yaml
oc apply -f json-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
41.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step json-deserialize-action channel:mychannel
kamel bind timer-source?message=Hello --step json-deserialize-action channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
41.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 json-deserialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
json-deserialize-action-binding.yaml
41.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
41.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
json-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f json-deserialize-action-binding.yaml
oc apply -f json-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
41.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step json-deserialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step json-deserialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
41.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/json-deserialize-action.kamelet.yaml
第 42 章 JSON Serialize Action 复制链接链接已复制到粘贴板!
将有效负载序列化为 JSON
42.1. 配置选项 复制链接链接已复制到粘贴板!
json-serialize-action Kamelet 不指定任何配置选项。
42.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,json-serialize-action Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:core
- camel:jackson
42.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 json-serialize-action。
42.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 json-serialize-action Kamelet 作为 Knative 绑定中的中间步骤。
json-serialize-action-binding.yaml
42.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
42.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
json-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f json-serialize-action-binding.yaml
oc apply -f json-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
42.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step json-serialize-action channel:mychannel
kamel bind timer-source?message=Hello --step json-serialize-action channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
42.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 json-serialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
json-serialize-action-binding.yaml
42.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
42.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
json-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f json-serialize-action-binding.yaml
oc apply -f json-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
42.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step json-serialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step json-serialize-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
42.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/json-serialize-action.kamelet.yaml
第 43 章 Kafka Sink 复制链接链接已复制到粘贴板!
将数据发送到 Kafka 主题。
Kamelet 可以理解以下要设置的标头:
-
密钥/ce-key: 作为消息键 -
partition-key/ce-partitionkey: 作为消息分区密钥
两个标头都是可选的。
43.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 kafka-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| bootstrapServers * | 代理(Broker) | Kafka Broker URL 的逗号分隔列表 | 字符串 | ||
| 密码 * | 密码 | 对 kafka 进行身份验证的密码 | 字符串 | ||
| 主题 * | 主题名称 | Kafka 主题名称的逗号分隔列表 | 字符串 | ||
| 用户 * | 用户名 | 在 Kafka 中进行身份验证的用户名 | 字符串 | ||
| saslMechanism | SASL Mechanism | 使用简单验证和安全层(SASL)机制。 | 字符串 |
| |
| securityProtocol | 安全协议 | 用于与代理通信的协议。SASL_PLAINTEXT, PLAINTEXT, SASL_SSL 和 SSL 受到支持 | 字符串 |
|
带星号(*)标记的字段是必需的。
43.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,'kafka-sink Kamelet 依赖于以下依赖项:
- camel:kafka
- camel:kamelet
43.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 kafka-sink。
43.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 kafka-sink Kamelet 绑定到 Knative 对象来使用 kafka-sink Kamelet。
kafka-sink-binding.yaml
43.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
43.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
kafka-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f kafka-sink-binding.yaml
oc apply -f kafka-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
43.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel kafka-sink -p "sink.bootstrapServers=The Brokers" -p "sink.password=The Password" -p "sink.topic=The Topic Names" -p "sink.user=The Username"
kamel bind channel:mychannel kafka-sink -p "sink.bootstrapServers=The Brokers" -p "sink.password=The Password" -p "sink.topic=The Topic Names" -p "sink.user=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
43.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 kafka-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
kafka-sink-binding.yaml
43.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
43.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
kafka-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f kafka-sink-binding.yaml
oc apply -f kafka-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
43.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic kafka-sink -p "sink.bootstrapServers=The Brokers" -p "sink.password=The Password" -p "sink.topic=The Topic Names" -p "sink.user=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic kafka-sink -p "sink.bootstrapServers=The Brokers" -p "sink.password=The Password" -p "sink.topic=The Topic Names" -p "sink.user=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
43.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/kafka-sink.kamelet.yaml
第 44 章 Kafka 源 复制链接链接已复制到粘贴板!
从 Kafka 主题接收数据。
44.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 kafka-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 主题 * | 主题名称 | Kafka 主题名称的逗号分隔列表 | 字符串 | ||
| bootstrapServers * | 代理(Broker) | Kafka Broker URL 的逗号分隔列表 | 字符串 | ||
| securityProtocol | 安全协议 | 用于与代理通信的协议。SASL_PLAINTEXT, PLAINTEXT, SASL_SSL 和 SSL 受到支持 | 字符串 |
| |
| saslMechanism | SASL Mechanism | 使用简单验证和安全层(SASL)机制。 | 字符串 |
| |
| 用户 * | 用户名 | 在 Kafka 中进行身份验证的用户名 | 字符串 | ||
| 密码 * | 密码 | 对 kafka 进行身份验证的密码 | 字符串 | ||
| autoCommitEnable | 自动提交启用 | 如果为 true,请定期提交 ZooKeeper 被消费者获取的消息偏移。 | 布尔值 |
| |
| allowManualCommit | 允许手动提交 | 是否允许手动提交 | 布尔值 |
| |
| autoOffsetReset | Auto Offset Reset | 当没有初始偏移时怎么办。共有 3 个 enums,值可以是最新的、最早、无 | 字符串 |
| |
| pollOnError | 轮询错误行为 | 如果 kafka threw 在轮询新消息时出现异常,该怎么办。共有 5 个枚举值,值可以是 DISCARD、ERROR_HANDLER、RECONNECT、RETRY、STOP 之一 | 字符串 |
| |
| deserializeHeaders | 自动销毁标头 |
启用 Kamelet 源会将所有消息标头反序列化为字符串表示。默认值为 | 布尔值 |
|
带星号(*)标记的字段是必需的。
44.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,'kafka-source Kamelet 依赖于以下依赖项:
- camel:kafka
- camel:kamelet
- camel:core
44.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 kafka-source。
44.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 kafka-source Kamelet 绑定到 Knative 对象来使用 kafka-source Kamelet 作为 Knative 源。
kafka-source-binding.yaml
44.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
44.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
kafka-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f kafka-source-binding.yaml
oc apply -f kafka-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
44.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind kafka-source -p "source.bootstrapServers=The Brokers" -p "source.password=The Password" -p "source.topic=The Topic Names" -p "source.user=The Username" channel:mychannel
kamel bind kafka-source -p "source.bootstrapServers=The Brokers" -p "source.password=The Password" -p "source.topic=The Topic Names" -p "source.user=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
44.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 kafka-source Kamelet 绑定到 Kafka 主题,来使用 kafka-source Kamelet 作为 Kafka 源。
kafka-source-binding.yaml
44.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
44.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
kafka-source-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行源:
oc apply -f kafka-source-binding.yaml
oc apply -f kafka-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
44.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind kafka-source -p "source.bootstrapServers=The Brokers" -p "source.password=The Password" -p "source.topic=The Topic Names" -p "source.user=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind kafka-source -p "source.bootstrapServers=The Brokers" -p "source.password=The Password" -p "source.topic=The Topic Names" -p "source.user=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
44.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/kafka-source.kamelet.yaml
第 45 章 Kafka 主题名称匹配过滤操作 复制链接链接已复制到粘贴板!
根据与 regex 的 kafka 主题值进行过滤
45.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 topic-name-matches-filter-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| regex * | 正则表达式 | Regex to Evaluate 与 Kafka 主题名称 | 字符串 |
带星号(*)标记的字段是必需的。
45.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,topic-name-matches-filter-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
45.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 topic-name-matches-filter-action。
45.3.1. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 topic-name-matches-filter-action Kamelet 作为 Kafka 绑定中的中间步骤。
topic-name-matches-filter-action-binding.yaml
45.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
45.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
topic-name-matches-filter-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f topic-name-matches-filter-action-binding.yaml
oc apply -f topic-name-matches-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
45.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step topic-name-matches-filter-action -p "step-0.regex=The Regex" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step topic-name-matches-filter-action -p "step-0.regex=The Regex" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
45.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
第 46 章 日志 Sink 复制链接链接已复制到粘贴板!
一个 sink,用于记录它接收的所有数据,这对于调试非常有用。
46.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 log-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| showHeaders | 显示标头 | 显示接收的标头 | 布尔值 |
| |
| showStreams | 显示流 | 显示流正文(后续步骤中可能不可用) | 布尔值 |
|
带星号(*)标记的字段是必需的。
46.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,log-sink Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:log
46.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 log-sink。
46.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 log-sink Kamelet 绑定到 Knative 对象,来使用 log-sink Kamelet 作为 Knative sink。
log-sink-binding.yaml
46.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
46.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
log-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f log-sink-binding.yaml
oc apply -f log-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
46.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel log-sink
kamel bind channel:mychannel log-sink
这个命令会在集群的当前命名空间中创建 KameletBinding。
46.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 log-sink Kamelet 绑定到 Kafka 主题,来使用 log-sink Kamelet 作为 Kafka sink。
log-sink-binding.yaml
46.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
46.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
log-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f log-sink-binding.yaml
oc apply -f log-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
46.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic log-sink
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic log-sink
这个命令会在集群的当前命名空间中创建 KameletBinding。
46.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/log-sink.kamelet.yaml
第 47 章 MariaDB Sink 复制链接链接已复制到粘贴板!
将数据发送到 MariaDB 数据库。
此 Kamelet 需要一个 JSON 作为正文。JSON 字段和参数之间的映射通过键实现,因此如果您有以下查询:
'INSERT INTO accounts (username,city) VALUES (:#username,:#city)'
Kamelet 需要以类似的输入的形式接收:
'{ "username":"oscerd", "city":"Rome"}'
47.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 mariadb-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| databaseName * | 数据库名 | 我们指向的数据库名称 | 字符串 | ||
| 密码 * | 密码 | 用于访问安全 MariaDB 数据库的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 MariaDB 数据库执行的查询 | 字符串 |
| |
| serverName * | 服务器名称 | 数据源的服务器名称 | 字符串 |
| |
| 用户名 * | 用户名 | 用于访问安全 MariaDB 数据库的用户名 | 字符串 | ||
| serverPort | 服务器端口 | 数据源的服务器端口 | 字符串 |
|
带星号(*)标记的字段是必需的。
47.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,mariadb-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:sql
- mvn:org.apache.commons:commons-dbcp2:2.7.0.redhat-00001
- mvn:org.mariadb.jdbc:mariadb-java-client
47.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 mariadb-sink。
47.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 mariadb-sink Kamelet 绑定到 Knative 对象,来使用 mariadb-sink Kamelet 作为 Knative sink。
mariadb-sink-binding.yaml
47.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
47.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mariadb-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f mariadb-sink-binding.yaml
oc apply -f mariadb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
47.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel mariadb-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind channel:mychannel mariadb-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
47.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 mariadb-sink Kamelet 绑定到 Kafka 主题,来使用 mariadb-sink Kamelet 作为 Kafka sink。
mariadb-sink-binding.yaml
47.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
47.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mariadb-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f mariadb-sink-binding.yaml
oc apply -f mariadb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
47.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mariadb-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mariadb-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
47.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/mariadb-sink.kamelet.yaml
第 48 章 掩码字段操作 复制链接链接已复制到粘贴板!
在传输中带有恒定值的掩码字段
48.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了用于 mask-field-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 字段 * | 字段 | 要屏蔽的字段以逗号分隔的列表 | 字符串 | ||
| 替换 * | 替换 | 替换要屏蔽的字段 | 字符串 |
带星号(*)标记的字段是必需的。
48.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,mask-field-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:jackson
- camel:kamelet
- camel:core
48.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 mask-field-action。
48.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 mask-field-action Kamelet 作为 Knative 绑定中的中间步骤。
mask-field-action-binding.yaml
48.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
48.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mask-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f mask-field-action-binding.yaml
oc apply -f mask-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
48.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step mask-field-action -p "step-0.fields=The Fields" -p "step-0.replacement=The Replacement" channel:mychannel
kamel bind timer-source?message=Hello --step mask-field-action -p "step-0.fields=The Fields" -p "step-0.replacement=The Replacement" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
48.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 mask-field-action Kamelet 作为 Kafka 绑定中的中间步骤。
mask-field-action-binding.yaml
48.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
48.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mask-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f mask-field-action-binding.yaml
oc apply -f mask-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
48.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step mask-field-action -p "step-0.fields=The Fields" -p "step-0.replacement=The Replacement" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step mask-field-action -p "step-0.fields=The Fields" -p "step-0.replacement=The Replacement" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
48.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/mask-field-action.kamelet.yaml
第 49 章 Message Timestamp Router Action 复制链接链接已复制到粘贴板!
将 topic 字段更新为原始主题名称和记录的时间戳字段的功能。
49.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 message-timestamp-router-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| timestampKeys * | 时间戳键 | Timestamp 键的逗号分隔列表。时间戳取自第一个 found 字段。 | 字符串 | ||
| timestampFormat | 时间戳格式 | 与 java.text.SimpleDateFormat 兼容的时间戳格式字符串。 | 字符串 |
| |
| timestampKeyFormat | 时间戳键格式 | 时间戳密钥的格式。可能的值有 'timestamp' 或任何与 java.text.SimpleDateFormat 兼容的时间戳格式字符串。如果 'timestamp' 字段从 1970 年起,将以毫秒的形式评估,因此作为 UNIX Timestamp。 | 字符串 |
| |
| topicFormat | 主题格式 | 格式化字符串,可分别包含 '$[topic]' 和 '$timestamp]' 作为主题和时间戳的占位符。 | 字符串 |
|
带星号(*)标记的字段是必需的。
49.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,Message -timestamp-router-action Kamelet 依赖于以下依赖项:
- mvn:org.apache.camel.kamelets:camel-kamelets-utils:1.0.0.fuse-800048-redhat-00001
- camel:jackson
- camel:kamelet
- camel:core
49.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 message-timestamp-router-action。
49.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 message-timestamp-router-action Kamelet 作为 Knative 绑定中的中间步骤。
message-timestamp-router-action-binding.yaml
49.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
49.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
message-timestamp-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f message-timestamp-router-action-binding.yaml
oc apply -f message-timestamp-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
49.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step message-timestamp-router-action -p "step-0.timestampKeys=The Timestamp Keys" channel:mychannel
kamel bind timer-source?message=Hello --step message-timestamp-router-action -p "step-0.timestampKeys=The Timestamp Keys" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
49.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 message-timestamp-router-action Kamelet 作为 Kafka 绑定中的中间步骤。
message-timestamp-router-action-binding.yaml
49.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
49.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
message-timestamp-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f message-timestamp-router-action-binding.yaml
oc apply -f message-timestamp-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
49.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step message-timestamp-router-action -p "step-0.timestampKeys=The Timestamp Keys" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step message-timestamp-router-action -p "step-0.timestampKeys=The Timestamp Keys" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
49.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
第 50 章 MongoDB Sink 复制链接链接已复制到粘贴板!
向 MongoDB 发送文档。
此 Kamelet 需要一个 JSON 作为正文。
您可以设置为标头的属性:
-
db-upsert/ce-dbupsert:如果数据库创建该元素(如果它不存在)布尔值
50.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 mongodb-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 集合 * | MongoDB Collection | 设置要绑定到此端点的 MongoDB 集合的名称。 | 字符串 | ||
| 数据库 * | MongoDB Database | 将 MongoDB 数据库的名称设置为目标。 | 字符串 | ||
| 主机 * | MongoDB Hosts | 以 host:port 格式分隔的 MongoDB 主机地址列表。 | 字符串 | ||
| createCollection | 集合 | 如果初始创建集合不存在,则进行创建。 | 布尔值 |
| |
| password | MongoDB 密码 | 用于访问 MongoDB 的用户密码。 | 字符串 | ||
| username | MongoDB Username | 用于访问 MongoDB 的用户名。 | 字符串 | ||
| writeConcern | 编写 Concern | 为写入操作配置 MongoDB 请求的级别,可能的值是 ACKNOWLEDGED、W1、W2、W3、UNACKNOWLEDGED、JOURNALED、MAJORITY。 | 字符串 |
带星号(*)标记的字段是必需的。
50.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,mongodb-sink Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:mongodb
- camel:jackson
50.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 mongodb-sink。
50.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 mongodb-sink Kamelet 绑定到 Knative 对象来使用 mongodb-sink Kamelet 作为 Knative sink。
mongodb-sink-binding.yaml
50.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
50.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mongodb-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f mongodb-sink-binding.yaml
oc apply -f mongodb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
50.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel mongodb-sink -p "sink.collection=The MongoDB Collection" -p "sink.database=The MongoDB Database" -p "sink.hosts=The MongoDB Hosts"
kamel bind channel:mychannel mongodb-sink -p "sink.collection=The MongoDB Collection" -p "sink.database=The MongoDB Database" -p "sink.hosts=The MongoDB Hosts"
这个命令会在集群的当前命名空间中创建 KameletBinding。
50.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 mongodb-sink Kamelet 绑定到 Kafka 主题,来使用 mongodb-sink Kamelet 作为 Kafka sink。
mongodb-sink-binding.yaml
50.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
50.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mongodb-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f mongodb-sink-binding.yaml
oc apply -f mongodb-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
50.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mongodb-sink -p "sink.collection=The MongoDB Collection" -p "sink.database=The MongoDB Database" -p "sink.hosts=The MongoDB Hosts"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mongodb-sink -p "sink.collection=The MongoDB Collection" -p "sink.database=The MongoDB Database" -p "sink.hosts=The MongoDB Hosts"
这个命令会在集群的当前命名空间中创建 KameletBinding。
50.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/mongodb-sink.kamelet.yaml
第 51 章 MongoDB Source 复制链接链接已复制到粘贴板!
使用 MongoDB 的文档。
如果启用了 persistentTailTracking 选项,使用者将跟踪上次使用的消息和下一次重新启动,消耗将从该消息中重启。如果启用 persistentTailTracking,则必须提供 tailTrackIncreasingField (默认为可选)。
如果没有启用 persistentTailTracking 选项,使用者将使用整个集合,等待闲置新文档。
51.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 mongodb-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 集合 * | MongoDB Collection | 设置要绑定到此端点的 MongoDB 集合的名称。 | 字符串 | ||
| 数据库 * | MongoDB Database | 将 MongoDB 数据库的名称设置为目标。 | 字符串 | ||
| 主机 * | MongoDB Hosts | 以 host:port 格式分隔的 MongoDB 主机地址列表。 | 字符串 | ||
| 密码 * | MongoDB 密码 | 用于访问 MongoDB 的用户密码。 | 字符串 | ||
| 用户名 * | MongoDB Username | 用于访问 MongoDB 的用户名。用户名必须存在于 MongoDB 的验证数据库中(身份验证数据库)。默认情况下,MongoDB authenticationDatabase 为 'admin'。 | 字符串 | ||
| persistentTailTracking | MongoDB Persistent Tail Tracking | 启用持久跟踪跟踪,这是在系统重启后跟踪最后一次使用的消息的机制。下次系统启动后,端点将从其上停止的滑动记录中恢复光标。 | 布尔值 |
| |
| tailTrackIncreasingField | MongoDB Tail Track Increasing 字段 | 传入 记录中的关联字段(即增加的性质),每次生成时都会用来定位尾部光标。 | 字符串 |
带星号(*)标记的字段是必需的。
51.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,mongodb-source Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:mongodb
- camel:jackson
51.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 mongodb-source。
51.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 mongodb-source Kamelet 绑定到 Knative 对象来使用 mongodb-source Kamelet 作为 Knative 源。
mongodb-source-binding.yaml
51.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
51.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mongodb-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f mongodb-source-binding.yaml
oc apply -f mongodb-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
51.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind mongodb-source -p "source.collection=The MongoDB Collection" -p "source.database=The MongoDB Database" -p "source.hosts=The MongoDB Hosts" -p "source.password=The MongoDB Password" -p "source.username=The MongoDB Username" channel:mychannel
kamel bind mongodb-source -p "source.collection=The MongoDB Collection" -p "source.database=The MongoDB Database" -p "source.hosts=The MongoDB Hosts" -p "source.password=The MongoDB Password" -p "source.username=The MongoDB Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
51.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 mongodb-source Kamelet 绑定到 Kafka 主题,来使用 mongodb-source Kamelet 作为 Kafka 源。
mongodb-source-binding.yaml
51.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
51.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mongodb-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f mongodb-source-binding.yaml
oc apply -f mongodb-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
51.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind mongodb-source -p "source.collection=The MongoDB Collection" -p "source.database=The MongoDB Database" -p "source.hosts=The MongoDB Hosts" -p "source.password=The MongoDB Password" -p "source.username=The MongoDB Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind mongodb-source -p "source.collection=The MongoDB Collection" -p "source.database=The MongoDB Database" -p "source.hosts=The MongoDB Hosts" -p "source.password=The MongoDB Password" -p "source.username=The MongoDB Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
51.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/mongodb-source.kamelet.yaml
第 52 章 MySQL Sink 复制链接链接已复制到粘贴板!
将数据发送到 MySQL 数据库。
此 Kamelet 需要一个 JSON 作为正文。JSON 字段和参数之间的映射通过键实现,因此如果您有以下查询:
'INSERT INTO accounts (username,city) VALUES (:#username,:#city)'
Kamelet 需要以类似的输入的形式接收:
'{ "username":"oscerd", "city":"Rome"}'
52.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 mysql-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| databaseName * | 数据库名 | 我们指向的数据库名称 | 字符串 | ||
| 密码 * | 密码 | 用于访问安全 MySQL 数据库的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 MySQL 数据库执行的查询 | 字符串 |
| |
| serverName * | 服务器名称 | 数据源的服务器名称 | 字符串 |
| |
| 用户名 * | 用户名 | 用于访问安全 MySQL 数据库的用户名 | 字符串 | ||
| serverPort | 服务器端口 | 数据源的服务器端口 | 字符串 |
|
带星号(*)标记的字段是必需的。
52.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,mysql-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:sql
- mvn:org.apache.commons:commons-dbcp2:2.7.0.redhat-00001
- mvn:mysql:mysql-connector-java
52.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 mysql-sink。
52.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 mysql-sink Kamelet 绑定到 Knative 对象,来使用 mysql-sink Kamelet 作为 Knative sink。
mysql-sink-binding.yaml
52.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
52.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mysql-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f mysql-sink-binding.yaml
oc apply -f mysql-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
52.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel mysql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind channel:mychannel mysql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
52.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 mysql-sink Kamelet 绑定到 Kafka 主题,来使用 mysql-sink Kamelet 作为 Kafka sink。
mysql-sink-binding.yaml
52.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
52.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
mysql-sink-binding.yaml文件保存到本地驱动器中,然后根据需要进行编辑。 使用以下命令运行 sink:
oc apply -f mysql-sink-binding.yaml
oc apply -f mysql-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
52.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mysql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic mysql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
52.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/mysql-sink.kamelet.yaml
第 53 章 PostgreSQL Sink 复制链接链接已复制到粘贴板!
将数据发送到 PostgreSQL 数据库。
此 Kamelet 需要一个 JSON 作为正文。JSON 字段和参数之间的映射通过键实现,因此如果您有以下查询:
'INSERT INTO accounts (username,city) VALUES (:#username,:#city)'
Kamelet 需要以类似的输入的形式接收:
'{ "username":"oscerd", "city":"Rome"}'
53.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 postgresql-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| databaseName * | 数据库名 | 我们指向的数据库名称 | 字符串 | ||
| 密码 * | 密码 | 用于访问安全 PostgreSQL 数据库的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 PostgreSQL 数据库执行的查询 | 字符串 |
| |
| serverName * | 服务器名称 | 数据源的服务器名称 | 字符串 |
| |
| 用户名 * | 用户名 | 用于访问安全 PostgreSQL 数据库的用户名 | 字符串 | ||
| serverPort | 服务器端口 | 数据源的服务器端口 | 字符串 |
|
带星号(*)标记的字段是必需的。
53.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,postgresql-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:sql
- mvn:org.postgresql:postgresql
- mvn:org.apache.commons:commons-dbcp2:2.7.0.redhat-00001
53.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 postgresql-sink。
53.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 postgresql-sink Kamelet 绑定到 Knative 对象,来使用 postgresql-sink Kamelet 作为 Knative sink。
postgresql-sink-binding.yaml
53.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
53.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
postgresql-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f postgresql-sink-binding.yaml
oc apply -f postgresql-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
53.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel postgresql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind channel:mychannel postgresql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
53.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 postgresql-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
postgresql-sink-binding.yaml
53.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
53.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
postgresql-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f postgresql-sink-binding.yaml
oc apply -f postgresql-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
53.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic postgresql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic postgresql-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
53.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/postgresql-sink.kamelet.yaml
第 54 章 predicate Filter Action 复制链接链接已复制到粘贴板!
基于 JsonPath 表达式过滤
54.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 predicate-filter-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 表达式 * | 表达式 | 要评估的 JsonPath 表达式,没有外部圆括号。由于这是一个过滤器,因此表达式将是一个模糊的,这意味着如果示例中的 foo 字段等于 John,因此信息将提前执行,否则它将会被过滤。 | 字符串 |
|
带星号(*)标记的字段是必需的。
54.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,predicate-filter-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
- camel:jsonpath
54.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 predicate-filter-action。
54.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 predicate-filter-action Kamelet 作为 Knative 绑定中的中间步骤。
predicate-filter-action-binding.yaml
54.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
54.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
predicate-filter-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f predicate-filter-action-binding.yaml
oc apply -f predicate-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
54.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step predicate-filter-action -p "step-0.expression=@.foo =~ /.*John/" channel:mychannel
kamel bind timer-source?message=Hello --step predicate-filter-action -p "step-0.expression=@.foo =~ /.*John/" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
54.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 predicate-filter-action Kamelet 作为 Kafka 绑定中的中间步骤。
predicate-filter-action-binding.yaml
54.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
54.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
predicate-filter-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f predicate-filter-action-binding.yaml
oc apply -f predicate-filter-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
54.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step predicate-filter-action -p "step-0.expression=@.foo =~ /.*John/" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step predicate-filter-action -p "step-0.expression=@.foo =~ /.*John/" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
54.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/predicate-filter-action.kamelet.yaml
第 55 章 protobuf Deserialize Action 复制链接链接已复制到粘贴板!
将有效负载序列化为 Protobuf
55.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 protobuf-deserialize-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| schema * | 模式 | 在序列化过程中使用的 Protobuf 模式(作为单行) | 字符串 |
|
带星号(*)标记的字段是必需的。
55.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,protobuf-deserialize-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
- camel:jackson-protobuf
55.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 protobuf-deserialize-action。
55.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 protobuf-deserialize-action Kamelet 作为 Knative 绑定中的中间步骤。
protobuf-deserialize-action-binding.yaml
55.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
55.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
protobuf-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f protobuf-deserialize-action-binding.yaml
oc apply -f protobuf-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
55.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name protobuf-deserialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' --step protobuf-deserialize-action -p step-2.schema='message Person { required string first = 1; required string last = 2; }' channel:mychannel
kamel bind --name protobuf-deserialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' --step protobuf-deserialize-action -p step-2.schema='message Person { required string first = 1; required string last = 2; }' channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
55.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 protobuf-deserialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
protobuf-deserialize-action-binding.yaml
55.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
55.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
protobuf-deserialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f protobuf-deserialize-action-binding.yaml
oc apply -f protobuf-deserialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
55.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name protobuf-deserialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' --step protobuf-deserialize-action -p step-2.schema='message Person { required string first = 1; required string last = 2; }' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name protobuf-deserialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' --step protobuf-deserialize-action -p step-2.schema='message Person { required string first = 1; required string last = 2; }' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
55.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/protobuf-deserialize-action.kamelet.yaml
第 56 章 protobuf Serialize Action 复制链接链接已复制到粘贴板!
将有效负载序列化为 Protobuf
56.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 protobuf-serialize-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| schema * | 模式 | 在序列化过程中使用的 Protobuf 模式(作为单行) | 字符串 |
|
带星号(*)标记的字段是必需的。
56.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,protobuf-serialize-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
- camel:jackson-protobuf
56.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 protobuf-serialize-action。
56.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 protobuf-serialize-action Kamelet 作为 Knative 绑定中的中间步骤。
protobuf-serialize-action-binding.yaml
56.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
56.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
protobuf-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f protobuf-serialize-action-binding.yaml
oc apply -f protobuf-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
56.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name protobuf-serialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' channel:mychannel
kamel bind --name protobuf-serialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
56.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 protobuf-serialize-action Kamelet 作为 Kafka 绑定中的中间步骤。
protobuf-serialize-action-binding.yaml
56.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
56.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
protobuf-serialize-action-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行操作:
oc apply -f protobuf-serialize-action-binding.yaml
oc apply -f protobuf-serialize-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
56.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind --name protobuf-serialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind --name protobuf-serialize-action-binding timer-source?message='{"first":"John","last":"Doe"}' --step json-deserialize-action --step protobuf-serialize-action -p step-1.schema='message Person { required string first = 1; required string last = 2; }' kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
56.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/protobuf-serialize-action.kamelet.yaml
第 57 章 正则表达式路由器操作 复制链接链接已复制到粘贴板!
使用配置的正则表达式和替换字符串更新目的地
57.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 regex-router-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| regex * | 正则表达式 | 目的地的正则表达式 | 字符串 | ||
| 替换 * | 替换 | 匹配时替换 | 字符串 |
带星号(*)标记的字段是必需的。
57.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,regex-router-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
57.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 regex-router-action。
57.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 regex-router-action Kamelet 作为 Knative 绑定中的中间步骤。
regex-router-action-binding.yaml
57.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
57.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
regex-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f regex-router-action-binding.yaml
oc apply -f regex-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
57.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step regex-router-action -p "step-0.regex=The Regex" -p "step-0.replacement=The Replacement" channel:mychannel
kamel bind timer-source?message=Hello --step regex-router-action -p "step-0.regex=The Regex" -p "step-0.replacement=The Replacement" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
57.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 regex-router-action Kamelet 作为 Kafka 绑定中的中间步骤。
regex-router-action-binding.yaml
57.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
57.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
regex-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f regex-router-action-binding.yaml
oc apply -f regex-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
57.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step regex-router-action -p "step-0.regex=The Regex" -p "step-0.replacement=The Replacement" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step regex-router-action -p "step-0.regex=The Regex" -p "step-0.replacement=The Replacement" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
57.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/regex-router-action.kamelet.yaml
第 58 章 替换字段操作 复制链接链接已复制到粘贴板!
使用传递消息中的不同密钥替换 field。
- 必需参数 'renames' 是以冒号分隔的重命名对列表,如 'foo:bar,abc:xyz',它代表字段重命名映射。
- 可选参数"enabled"表示要包含的字段。如果指定,则只有指定字段将包含在生成的消息中。
- 可选参数 'disabled' 代表要排除的字段。如果指定,列出的字段将不包括在生成的消息中。这优先于 'enabled' 参数。
- 'enabled' 参数的默认值为 'all',因此将包括有效负载的所有字段。
- 'disabled' 参数的默认值为 'none',因此没有包括有效负载的字段。
58.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 replace-field-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 重命名 * | 重命名 | 使用要重命名的新值的以逗号分隔的字段列表 | 字符串 |
| |
| Disabled | Disabled | 要禁用用逗号分开的字段列表 | 字符串 | "none" | |
| enabled | Enabled | 要启用的以逗号分隔的字段列表 | 字符串 | "all" |
带星号(*)标记的字段是必需的。
58.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,replace-field-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:core
- camel:jackson
- camel:kamelet
58.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 replace-field-action。
58.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 replace-field-action Kamelet 作为 Knative 绑定中的中间步骤。
replace-field-action-binding.yaml
58.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
58.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
replace-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f replace-field-action-binding.yaml
oc apply -f replace-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
58.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step replace-field-action -p "step-0.renames=foo:bar,c1:c2" channel:mychannel
kamel bind timer-source?message=Hello --step replace-field-action -p "step-0.renames=foo:bar,c1:c2" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
58.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 replace-field-action Kamelet 作为 Kafka 绑定中的中间步骤。
replace-field-action-binding.yaml
58.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
58.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
replace-field-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑该文件。 使用以下命令运行操作:
oc apply -f replace-field-action-binding.yaml
oc apply -f replace-field-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
58.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step replace-field-action -p "step-0.renames=foo:bar,c1:c2" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step replace-field-action -p "step-0.renames=foo:bar,c1:c2" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
58.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/replace-field-action.kamelet.yaml
第 59 章 Salesforce 源 复制链接链接已复制到粘贴板!
从 Salesforce 接收更新。
59.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 salesforce-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| clientID * | 消费者密钥 | Salesforce 应用程序消费者密钥 | 字符串 | ||
| clientSecret * | 消费者机密 | Salesforce 应用程序消费者 secret | 字符串 | ||
| 密码 * | 密码 | Salesforce 用户密码 | 字符串 | ||
| 查询 * | 查询 | 在 Salesforce 网站上执行的查询 | 字符串 |
| |
| topicName * | 主题名称 | 要使用的主题/频道的名称 | 字符串 |
| |
| userName * | 用户名 | Salesforce 用户名 | 字符串 | ||
| loginUrl | 登录 URL | Salesforce 实例登录 URL | 字符串 |
|
带星号(*)标记的字段是必需的。
59.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,salesforce-source Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:salesforce
- mvn:org.apache.camel.k:camel-k-kamelet-reify
- camel:kamelet
59.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 salesforce-source。
59.3.1. Knative 源 复制链接链接已复制到粘贴板!
通过将 salesforce-source Kamelet 绑定到 Knative 对象,您可以使用 salesforce-source Kamelet 作为 Knative 源。
salesforce-source-binding.yaml
59.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
59.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f salesforce-source-binding.yaml
oc apply -f salesforce-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
59.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind salesforce-source -p "source.clientId=The Consumer Key" -p "source.clientSecret=The Consumer Secret" -p "source.password=The Password" -p "source.query=SELECT Id, Name, Email, Phone FROM Contact" -p "source.topicName=ContactTopic" -p "source.userName=The Username" channel:mychannel
kamel bind salesforce-source -p "source.clientId=The Consumer Key" -p "source.clientSecret=The Consumer Secret" -p "source.password=The Password" -p "source.query=SELECT Id, Name, Email, Phone FROM Contact" -p "source.topicName=ContactTopic" -p "source.userName=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
59.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 salesforce-source Kamelet 绑定到 Kafka 主题,来使用 salesforce-source Kamelet 作为 Kafka 源。
salesforce-source-binding.yaml
59.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
59.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f salesforce-source-binding.yaml
oc apply -f salesforce-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
59.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind salesforce-source -p "source.clientId=The Consumer Key" -p "source.clientSecret=The Consumer Secret" -p "source.password=The Password" -p "source.query=SELECT Id, Name, Email, Phone FROM Contact" -p "source.topicName=ContactTopic" -p "source.userName=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind salesforce-source -p "source.clientId=The Consumer Key" -p "source.clientSecret=The Consumer Secret" -p "source.password=The Password" -p "source.query=SELECT Id, Name, Email, Phone FROM Contact" -p "source.topicName=ContactTopic" -p "source.userName=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
59.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/salesforce-source.kamelet.yaml
第 60 章 Salesforce Create Sink 复制链接链接已复制到粘贴板!
在 Salesforce 中创建对象。消息正文必须包含 salesforce 对象的 JSON。
Example body: { "Phone": "555", "Name": "Antonia", "LastName": "Garcia" }
60.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 salesforce-create-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| clientID * | 消费者密钥 | Salesforce 应用程序消费者密钥 | 字符串 | ||
| clientSecret * | 消费者机密 | Salesforce 应用程序消费者 secret | 字符串 | ||
| 密码 * | 密码 | Salesforce 用户密码 | 字符串 | ||
| userName * | 用户名 | Salesforce 用户名 | 字符串 | ||
| loginUrl | 登录 URL | Salesforce 实例登录 URL | 字符串 |
| |
| sObjectName | 对象名称 | 对象的类型 | 字符串 |
|
带星号(*)标记的字段是必需的。
60.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,salesforce-create-sink Kamelet 依赖于以下依赖项:
- camel:salesforce
- camel:kamelet
60.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 salesforce-create-sink。
60.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 salesforce-create-sink Kamelet 绑定到 Knative 对象来使用 salesforce-create-sink Kamelet 作为 Knative sink。
salesforce-create-sink-binding.yaml
60.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
60.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-create-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-create-sink-binding.yaml
oc apply -f salesforce-create-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
60.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel salesforce-create-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
kamel bind channel:mychannel salesforce-create-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
60.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 salesforce-create-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
salesforce-create-sink-binding.yaml
60.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
60.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-create-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-create-sink-binding.yaml
oc apply -f salesforce-create-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
60.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-create-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-create-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
60.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/salesforce-create-sink.kamelet.yaml
第 61 章 Salesforce Delete Sink 复制链接链接已复制到粘贴板!
从 Salesforce 中删除对象。收到的正文必须是一个 JSON,它包含两个键:sObjectId 和 sObjectName。
Example body: { "sObjectId": "XXXXX0", "sObjectName": "Contact" }
61.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 salesforce-delete-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| clientID * | 消费者密钥 | Salesforce 应用程序消费者密钥 | 字符串 | ||
| clientSecret * | 消费者机密 | Salesforce 应用程序消费者 secret | 字符串 | ||
| 密码 * | 密码 | Salesforce 用户密码 | 字符串 | ||
| userName * | 用户名 | Salesforce 用户名 | 字符串 | ||
| loginUrl | 登录 URL | Salesforce 实例登录 URL | 字符串 |
|
带星号(*)标记的字段是必需的。
61.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,salesforce-delete-sink Kamelet 依赖于以下依赖项:
- camel:salesforce
- camel:kamelet
- camel:core
- camel:jsonpath
61.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 salesforce-delete-sink。
61.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 salesforce-delete-sink Kamelet 绑定到 Knative 对象来使用 salesforce-delete-sink Kamelet 作为 Knative sink。
salesforce-delete-sink-binding.yaml
61.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
61.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-delete-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-delete-sink-binding.yaml
oc apply -f salesforce-delete-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
61.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel salesforce-delete-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
kamel bind channel:mychannel salesforce-delete-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
61.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 salesforce-delete-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
salesforce-delete-sink-binding.yaml
61.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
61.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-delete-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-delete-sink-binding.yaml
oc apply -f salesforce-delete-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
61.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-delete-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-delete-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
61.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/salesforce-delete-sink.kamelet.yaml
第 62 章 Salesforce Update Sink 复制链接链接已复制到粘贴板!
更新 Salesforce 中的对象。收到的正文必须包含要更新的每个属性的 JSON 键值对,以及 sObjectName 和 sObjectId 必须作为参数提供。
键值对示例: { "Phone": "1234567890", "Name": "Antonia" }
62.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 salesforce-update-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| clientID * | 消费者密钥 | Salesforce 应用程序消费者密钥 | 字符串 | ||
| clientSecret * | 消费者机密 | Salesforce 应用程序消费者 secret | 字符串 | ||
| 密码 * | 密码 | Salesforce 用户密码 | 字符串 | ||
| sObjectId * | 对象 Id | 对象的 ID。仅在使用键值对时才需要。 | 字符串 | ||
| sObjectName * | 对象名称 | 对象的类型。仅在使用键值对时才需要。 | 字符串 |
| |
| userName * | 用户名 | Salesforce 用户名 | 字符串 | ||
| loginUrl | 登录 URL | Salesforce 实例登录 URL | 字符串 |
|
带星号(*)标记的字段是必需的。
62.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,salesforce-update-sink Kamelet 依赖于以下依赖项:
- camel:salesforce
- camel:kamelet
62.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 salesforce-update-sink。
62.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 salesforce-update-sink Kamelet 绑定到 Knative 对象来使用 salesforce-update-sink Kamelet 作为 Knative sink。
salesforce-update-sink-binding.yaml
62.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
62.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-update-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-update-sink-binding.yaml
oc apply -f salesforce-update-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
62.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel salesforce-update-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.sObjectId=The Object Id" -p "sink.sObjectName=Contact" -p "sink.userName=The Username"
kamel bind channel:mychannel salesforce-update-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.sObjectId=The Object Id" -p "sink.sObjectName=Contact" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
62.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以使用 salesforce-update-sink Kamelet 作为 Kafka sink,方法是将其绑定到 Kafka 主题。
salesforce-update-sink-binding.yaml
62.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
62.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
salesforce-update-sink-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行 sink:
oc apply -f salesforce-update-sink-binding.yaml
oc apply -f salesforce-update-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
62.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-update-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.sObjectId=The Object Id" -p "sink.sObjectName=Contact" -p "sink.userName=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic salesforce-update-sink -p "sink.clientId=The Consumer Key" -p "sink.clientSecret=The Consumer Secret" -p "sink.password=The Password" -p "sink.sObjectId=The Object Id" -p "sink.sObjectName=Contact" -p "sink.userName=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
62.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/salesforce-update-sink.kamelet.yaml
第 63 章 SFTP Sink 复制链接链接已复制到粘贴板!
将数据发送到 SFTP 服务器。
Kamelet 需要设置以下标头:
-
文件/ce-file: 作为要上传的文件名
如果未设置交换 ID,则将用作文件名。
63.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 sftp-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | FTP 服务器的主机名 | 字符串 | ||
| connectionPort * | 连接端口 | FTP 服务器的端口 | 字符串 |
| |
| directoryName * | 目录名称 | 启动目录 | 字符串 | ||
| 密码 * | 密码 | 用于访问 FTP 服务器的密码 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问 FTP 服务器的用户名 | 字符串 | ||
| fileExist | 文件保留 | 如果文件已存在,则的行为方式。共有 4 个 enums,值可以是覆盖、Append、Fail 或 Ignore 之一 | 字符串 |
| |
| passiveMode | 被动模式 | 设置被动模式连接 | 布尔值 |
|
带星号(*)标记的字段是必需的。
63.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,sftp-sink Kamelet 依赖于以下依赖项:
- camel:ftp
- camel:core
- camel:kamelet
63.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 sftp-sink。
63.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 sftp-sink Kamelet 绑定到 Knative 对象来使用 sftp-sink Kamelet。
sftp-sink-binding.yaml
63.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
63.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sftp-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f sftp-sink-binding.yaml
oc apply -f sftp-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
63.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel sftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
kamel bind channel:mychannel sftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
63.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 sftp-sink Kamelet 绑定到 Kafka 主题,来使用 sftp-sink Kamelet 作为 Kafka sink。
sftp-sink-binding.yaml
63.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
63.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sftp-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f sftp-sink-binding.yaml
oc apply -f sftp-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
63.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic sftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic sftp-sink -p "sink.connectionHost=The Connection Host" -p "sink.directoryName=The Directory Name" -p "sink.password=The Password" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
63.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/sftp-sink.kamelet.yaml
第 64 章 SFTP 源 复制链接链接已复制到粘贴板!
从 SFTP 服务器接收数据。
64.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 sftp-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| connectionHost * | 连接主机 | SFTP 服务器的主机名 | 字符串 | ||
| connectionPort * | 连接端口 | FTP 服务器的端口 | 字符串 |
| |
| directoryName * | 目录名称 | 启动目录 | 字符串 | ||
| 密码 * | 密码 | 用于访问 SFTP 服务器的密码 | 字符串 | ||
| 用户名 * | 用户名 | 用于访问 SFTP 服务器的用户名 | 字符串 | ||
| idempotent | Idempotency | 跳过已处理的文件。 | 布尔值 |
| |
| passiveMode | 被动模式 | 设置被动模式连接 | 布尔值 |
| |
| 递归 | 递归 | 如果某个目录也会在所有子目录中查找文件。 | 布尔值 |
|
带星号(*)标记的字段是必需的。
64.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,sftp-source Kamelet 依赖于以下依赖项:
- camel:ftp
- camel:core
- camel:kamelet
64.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 sftp-source。
64.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 sftp-source Kamelet 绑定到 Knative 对象来使用 sftp-source Kamelet 作为 Knative 源。
sftp-source-binding.yaml
64.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
64.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sftp-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f sftp-source-binding.yaml
oc apply -f sftp-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
64.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind sftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
kamel bind sftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
64.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 sftp-source Kamelet 绑定到 Kafka 主题,来使用 sftp-source Kamelet 作为 Kafka 源。
sftp-source-binding.yaml
64.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
64.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sftp-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f sftp-source-binding.yaml
oc apply -f sftp-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
64.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind sftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind sftp-source -p "source.connectionHost=The Connection Host" -p "source.directoryName=The Directory Name" -p "source.password=The Password" -p "source.username=The Username" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
64.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/sftp-source.kamelet.yaml
第 65 章 Slack 源 复制链接链接已复制到粘贴板!
从 Slack 频道接收信息。
65.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 slack-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| channel * | Channel | 从中接收信息的 Slack 频道 | 字符串 |
| |
| 令牌 * | 令牌 | 访问 Slack 的令牌。需要 Slack 应用程序。这个应用程序需要有 channel:history 和 channel:read permissions。Bot User OAuth 访问令牌是所需的令牌类型。 | 字符串 |
带星号(*)标记的字段是必需的。
65.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,slack-source Kamelet 依赖于以下依赖项:
- camel:kamelet
- camel:slack
- camel:jackson
65.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 slack-source。
65.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 slack-source Kamelet 绑定到 Knative 对象,来使用 slack-source Kamelet 作为 Knative 源。
slack-source-binding.yaml
65.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
65.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
slack-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f slack-source-binding.yaml
oc apply -f slack-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
65.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind slack-source -p "source.channel=#myroom" -p "source.token=The Token" channel:mychannel
kamel bind slack-source -p "source.channel=#myroom" -p "source.token=The Token" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
65.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 slack-source Kamelet 绑定到 Kafka 主题,来使用 slack-source Kamelet 作为 Kafka 源。
slack-source-binding.yaml
65.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
65.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
slack-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f slack-source-binding.yaml
oc apply -f slack-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
65.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind slack-source -p "source.channel=#myroom" -p "source.token=The Token" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind slack-source -p "source.channel=#myroom" -p "source.token=The Token" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
65.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/slack-source.kamelet.yaml
第 66 章 Microsoft SQL Server Sink 复制链接链接已复制到粘贴板!
将数据发送到 Microsoft SQL Server 数据库。
此 Kamelet 需要一个 JSON 作为正文。JSON 字段和参数之间的映射通过键实现,因此如果您有以下查询:
'INSERT INTO accounts (username,city) VALUES (:#username,:#city)'
Kamelet 需要以类似的输入的形式接收:
'{ "username":"oscerd", "city":"Rome"}'
66.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 sqlserver-sink Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| databaseName * | 数据库名 | 我们指向的数据库名称 | 字符串 | ||
| 密码 * | 密码 | 用于访问安全 SQL Server 数据库的密码 | 字符串 | ||
| 查询 * | 查询 | 要针对 SQL Server 数据库执行的查询 | 字符串 |
| |
| serverName * | 服务器名称 | 数据源的服务器名称 | 字符串 |
| |
| 用户名 * | 用户名 | 用于访问安全 SQL Server 数据库的用户名 | 字符串 | ||
| serverPort | 服务器端口 | 数据源的服务器端口 | 字符串 |
|
带星号(*)标记的字段是必需的。
66.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,sqlserver-sink Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:sql
- mvn:org.apache.commons:commons-dbcp2:2.7.0.redhat-00001
- mvn:com.microsoft.sqlserver:mssql-jdbc:9.2.1.jre11
66.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 sqlserver-sink。
66.3.1. Knative Sink 复制链接链接已复制到粘贴板!
您可以通过将 sqlserver-sink Kamelet 绑定到 Knative 对象来使用 sqlserver-sink Kamelet 作为 Knative sink。
sqlserver-sink-binding.yaml
66.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
66.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sqlserver-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f sqlserver-sink-binding.yaml
oc apply -f sqlserver-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
66.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind channel:mychannel sqlserver-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind channel:mychannel sqlserver-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
66.3.2. Kafka Sink 复制链接链接已复制到粘贴板!
您可以通过将 sqlserver-sink Kamelet 绑定到 Kafka 主题,来使用 sqlserver-sink Kamelet 作为 Kafka sink。
sqlserver-sink-binding.yaml
66.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
66.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
sqlserver-sink-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行 sink:
oc apply -f sqlserver-sink-binding.yaml
oc apply -f sqlserver-sink-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
66.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行 sink:
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic sqlserver-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
kamel bind kafka.strimzi.io/v1beta1:KafkaTopic:my-topic sqlserver-sink -p "sink.databaseName=The Database Name" -p "sink.password=The Password" -p "sink.query=INSERT INTO accounts (username,city) VALUES (:#username,:#city)" -p "sink.serverName=localhost" -p "sink.username=The Username"
这个命令会在集群的当前命名空间中创建 KameletBinding。
66.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/sqlserver-sink.kamelet.yaml
第 67 章 Telegram 源 复制链接链接已复制到粘贴板!
接收人们发送给您的 Telegram bot 的所有消息。
要创建 bot,请使用 Telegram 应用联系 @botfather 帐户。
源将以下标头附加到消息中:
-
chat-id/ce-chatid:聊天消息的 ID。
67.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 telegram-source Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| authorizationToken * | 令牌 | 在 Telegram 上访问 bot 的令牌。您可以从 Telegram @botfather 获取它。 | 字符串 |
带星号(*)标记的字段是必需的。
67.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,telegram-source Kamelet 依赖于以下依赖项:
- camel:jackson
- camel:kamelet
- camel:telegram
- camel:core
67.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 telegram-source。
67.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 telegram-source Kamelet 绑定到 Knative 对象来使用 telegram-source Kamelet 作为 Knative 源。
telegram-source-binding.yaml
67.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
67.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
telegram-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f telegram-source-binding.yaml
oc apply -f telegram-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
67.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind telegram-source -p "source.authorizationToken=The Token" channel:mychannel
kamel bind telegram-source -p "source.authorizationToken=The Token" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
67.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 telegram-source Kamelet 绑定到 Kafka 主题,来使用 telegram-source Kamelet 作为 Kafka 源。
telegram-source-binding.yaml
67.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
67.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
telegram-source-binding.yaml文件保存到本地驱动器中,然后根据您的配置需要对其进行编辑。 使用以下命令运行源:
oc apply -f telegram-source-binding.yaml
oc apply -f telegram-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
67.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind telegram-source -p "source.authorizationToken=The Token" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind telegram-source -p "source.authorizationToken=The Token" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
67.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/telegram-source.kamelet.yaml
第 68 章 throttle Action 复制链接链接已复制到粘贴板!
Throttle 操作允许您确保特定接收器不会过载。
68.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了 throttle-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 消息 * | 消息号 | 在时间段内发送的消息数量 | 整数 |
| |
| timePeriod | 时间 Period | 以毫秒为单位设置最大请求数的有效时间段,以毫秒为单位 | 字符串 |
|
带星号(*)标记的字段是必需的。
68.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,throttle-action Kamelet 依赖于以下依赖项:
- camel:core
- camel:kamelet
68.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 throttle-action。
68.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 throttle-action Kamelet 作为 Knative 绑定中的中间步骤。
throttle-action-binding.yaml
68.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
68.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
throttle-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f throttle-action-binding.yaml
oc apply -f throttle-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
68.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step throttle-action -p "step-0.messages=10" channel:mychannel
kamel bind timer-source?message=Hello --step throttle-action -p "step-0.messages=10" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
68.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 throttle-action Kamelet 作为 Kafka 绑定中的中间步骤。
throttle-action-binding.yaml
68.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
68.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
throttle-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f throttle-action-binding.yaml
oc apply -f throttle-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
68.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step throttle-action -p "step-0.messages=1" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step throttle-action -p "step-0.messages=1" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
68.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/throttle-action.kamelet.yaml
第 69 章 计时器源 复制链接链接已复制到粘贴板!
使用自定义有效负载生成定期事件。
69.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 计时器 Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| Message * | 消息 | 生成的消息 | 字符串 |
| |
| contentType | 内容类型 | 生成消息的内容类型 | 字符串 |
| |
| 周期 | 时期 | 以毫秒为单位的两个事件之间的间隔 | 整数 |
|
带星号(*)标记的字段是必需的。
69.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,计时器 Ka melet 依赖于以下依赖项:
- camel:core
- camel:timer
- camel:kamelet
69.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 计时器源。
69.3.1. Knative 源 复制链接链接已复制到粘贴板!
您可以通过将 timer-source Kamelet 绑定到 Knative 对象,来使用 timer-source Kamelet 作为 Knative 源。
timer-source-binding.yaml
69.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
69.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
timer-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f timer-source-binding.yaml
oc apply -f timer-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
69.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind timer-source -p "source.message=hello world" channel:mychannel
kamel bind timer-source -p "source.message=hello world" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
69.3.2. Kafka 源 复制链接链接已复制到粘贴板!
您可以通过将 timer-source Kamelet 绑定到 Kafka 主题,来使用 timer-source Kamelet 作为 Kafka 源。
timer-source-binding.yaml
69.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
69.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
timer-source-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行源:
oc apply -f timer-source-binding.yaml
oc apply -f timer-source-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
69.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行源:
kamel bind timer-source -p "source.message=hello world" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source -p "source.message=hello world" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
69.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/timer-source.kamelet.yaml
第 70 章 时间戳路由器操作 复制链接链接已复制到粘贴板!
将 topic 字段更新为原始主题名称和记录时间戳的功能。
70.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了用于 timestamp-router-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| timestampFormat | 时间戳格式 | 与 java.text.SimpleDateFormat 兼容的时间戳格式字符串。 | 字符串 |
| |
| timestampHeaderName | 时间戳头名称 | 包含时间戳的标头名称 | 字符串 |
| |
| topicFormat | 主题格式 | 格式化字符串,可分别包含 '$[topic]' 和 '$timestamp]' 作为主题和时间戳的占位符。 | 字符串 |
|
带星号(*)标记的字段是必需的。
70.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,timestamp-router-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:kamelet
- camel:core
70.3. 使用 复制链接链接已复制到粘贴板!
本节论述了如何使用 timestamp-router-action。
70.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 timestamp-router-action Kamelet 作为 Knative 绑定中的中间步骤。
timestamp-router-action-binding.yaml
70.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
70.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
timestamp-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f timestamp-router-action-binding.yaml
oc apply -f timestamp-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
70.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step timestamp-router-action channel:mychannel
kamel bind timer-source?message=Hello --step timestamp-router-action channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
70.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 timestamp-router-action Kamelet 作为 Kafka 绑定中的中间步骤。
timestamp-router-action-binding.yaml
70.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
70.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
timestamp-router-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f timestamp-router-action-binding.yaml
oc apply -f timestamp-router-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
70.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step timestamp-router-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step timestamp-router-action kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
70.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/timestamp-router-action.kamelet.yaml
第 71 章 密钥操作值 复制链接链接已复制到粘贴板!
将 Kafka 记录密钥替换为来自正文字段子集的新密钥
71.1. 配置选项 复制链接链接已复制到粘贴板!
下表总结了可用于 value-to-key-action Kamelet 的配置选项:
| 属性 | 名称 | 描述 | 类型 | 默认 | Example |
|---|---|---|---|---|---|
| 字段 * | 字段 | 用于形成新密钥的字段以逗号分隔的列表 | 字符串 |
带星号(*)标记的字段是必需的。
71.2. 依赖项 复制链接链接已复制到粘贴板!
在运行时,value-to-key-action Kamelet 依赖于以下依赖项:
- github:openshift-integration.kamelet-catalog:camel-kamelets-utils:kamelet-catalog-1.6-SNAPSHOT
- camel:core
- camel:jackson
- camel:kamelet
71.3. 使用 复制链接链接已复制到粘贴板!
这部分论述了如何使用 value-to-key-action。
71.3.1. Knative Action 复制链接链接已复制到粘贴板!
您可以使用 value-to-key-action Kamelet 作为 Knative 绑定中的中间步骤。
value-to-key-action-binding.yaml
71.3.1.1. 前提条件 复制链接链接已复制到粘贴板!
确保将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
71.3.1.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
value-to-key-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f value-to-key-action-binding.yaml
oc apply -f value-to-key-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
71.3.1.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step value-to-key-action -p "step-0.fields=The Fields" channel:mychannel
kamel bind timer-source?message=Hello --step value-to-key-action -p "step-0.fields=The Fields" channel:mychannel
这个命令会在集群的当前命名空间中创建 KameletBinding。
71.3.2. Kafka Action 复制链接链接已复制到粘贴板!
您可以使用 value-to-key-action Kamelet 作为 Kafka 绑定中的中间步骤。
value-to-key-action-binding.yaml
71.3.2.1. 前提条件 复制链接链接已复制到粘贴板!
确保已在 OpenShift 集群中安装了 AMQ Streams Operator,并在当前命名空间中创建一个名为 my-topic 的主题。确保已将 "Red Hat Integration - Camel K" 安装到您连接到的 OpenShift 集群中。
71.3.2.2. 使用集群 CLI 的步骤 复制链接链接已复制到粘贴板!
-
将
value-to-key-action-binding.yaml文件保存到本地驱动器中,然后根据需要编辑它。 使用以下命令运行操作:
oc apply -f value-to-key-action-binding.yaml
oc apply -f value-to-key-action-binding.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
71.3.2.3. 使用 Kamel CLI 的步骤 复制链接链接已复制到粘贴板!
使用以下命令配置并运行操作:
kamel bind timer-source?message=Hello --step value-to-key-action -p "step-0.fields=The Fields" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
kamel bind timer-source?message=Hello --step value-to-key-action -p "step-0.fields=The Fields" kafka.strimzi.io/v1beta1:KafkaTopic:my-topic
这个命令会在集群的当前命名空间中创建 KameletBinding。
71.4. Kamelet 源文件 复制链接链接已复制到粘贴板!
https://github.com/openshift-integration/kamelet-catalog/value-to-key-action.kamelet.yaml