34.3. 구성 요소 옵션


Kafka 구성 요소는 아래에 나열된 104 옵션을 지원합니다.

Expand
이름설명Default유형

추가 속성 (common)

kafka consumer 또는 kafka 생산자에 대한 추가 속성을 설정하며 camel 구성에서 직접 설정할 수 없는 경우 속성(예: Camel 구성에 아직 반영되지 않은 새 Kafka 속성)을 접두사로 추가해야 합니다. 예: 추가Properties.knativeal.id=12345&additionalProperties.schema.registry.url=http://localhost:8811/avro.

 

map

브로커 (공용)

사용할 Kafka 브로커의 URL입니다. 형식은 host1:port1,host2:port2이며 목록은 브로커의 하위 집합 또는 브로커의 하위 집합을 가리키는 VIP의 하위 집합일 수 있습니다. 이 옵션은 Kafka 설명서에서 bootstrap.servers라고 합니다.

 

문자열

ClientID (common)

클라이언트 ID는 호출 추적을 돕기 위해 각 요청에 전송된 사용자 지정 문자열입니다. 요청을 수행하는 애플리케이션을 논리적으로 식별해야 합니다.

 

문자열

구성 (공용)

엔드포인트에서 재사용할 공통 옵션을 사용하여 Kafka 구성 요소를 사전 설정할 수 있습니다.

 

KafkaConfiguration

headerFilterStrategy (common)

사용자 정의 HeaderFilterStrategy를 사용하여 Camel 메시지 간 헤더를 필터링하려면 다음을 수행합니다.

 

HeaderFilterStrategy

reconnectBackoffMaxMs (common)

브로커에 다시 연결할 때 대기하는 최대 시간(밀리초)입니다. 제공되는 경우 호스트당 백오프는 연속된 연결 실패마다 최대 최대 기하급수적으로 증가합니다. 백오프 증가를 계산한 후 연결 문제가 발생하지 않도록 20 % 임의 지터가 추가됩니다.

1000

정수

shutdownTimeout (common)

소비자 또는 생산자가 작업자 스레드를 종료하고 종료할 때까지 정상적으로 대기하는 시간(밀리초)입니다.

30000

int

allowManualCommit (consumer)

KafkaManualCommit을 통한 수동 커밋 허용 여부입니다. 이 옵션을 활성화하면 KafkaManualCommit 인스턴스가 Exchange 메시지 헤더에 저장되어 최종 사용자가 이 API에 액세스하고 Kafka 소비자를 통해 수동 오프셋 커밋을 수행할 수 있습니다.

false

boolean

autoCommitEnable (consumer)

true인 경우 사용자가 이미 가져온 메시지 오프셋을 ZooKeeper에 주기적으로 커밋합니다. 이 커밋된 오프셋은 프로세스가 새 소비자가 시작되는 위치로 실패할 때 사용됩니다.

true

부울

autoCommitIntervalMs (consumer)

소비자 오프셋이 zookeeper에 커밋되는 ms의 빈도입니다.

5000

정수

autoCommitOnStop (consumer)

소비자가 중지되어 브로커가 마지막으로 사용된 메시지에서 커밋이 있는지 확인할 때 명시적 자동 커밋을 수행할지 여부입니다. 이를 위해서는 autoCommitEnable 옵션이 설정되어 있어야 합니다. 가능한 값은 sync, async 또는 none입니다. 및 sync 값이 기본값입니다.

CloudEvent 값:

  • 동기화
  • async
  • none

동기화

문자열

autoOffsetReset (consumer)

ZooKeeper에 초기 오프셋이 없거나 오프셋이 범위를 벗어나면해야 할 일 : 가장 빠른 오프셋의 마지막으로 오프셋을 자동으로 재설정하십시오. 최신 오프셋으로 오프셋을 자동으로 재설정하십시오: 소비자에 예외가 발생합니다.

CloudEvent 값:

  • 최신 정보
  • 가장 빠른
  • none

최신 정보

문자열

breakOnFirstError (consumer)

이 옵션은 소비자가 교환을 처리하고 실패할 때 발생하는 상황을 제어합니다. 옵션이 false인 경우 소비자는 다음 메시지를 계속하고 처리합니다. 옵션이 true인 경우 소비자는 오류가 발생한 메시지의 오프셋을 다시 찾은 다음 이 메시지를 처리하기 위해 다시 시도합니다. 그러나 이로 인해 동일한 메시지가 무한한 처리로 이어질 수 있습니다. 그 바인딩이 실패할 때마다 실패할 수 있습니다. 따라서 Camel의 오류 처리기를 사용하여 이러한 문제를 처리하는 것이 좋습니다.

false

boolean

bridgeErrorHandler (consumer)

사용자가 Camel 라우팅 오류 핸들러로 브리징할 수 있습니다. 이는 소비자가 수신되는 메시지 또는 등을 선택하는 동안 예외가 발생한 것을 의미하며, 이제 라우팅 오류 처리기에 의해 처리되고 라우팅 오류 처리기에 의해 처리됩니다. 기본적으로 소비자는 org.apache.camel.spi.ExceptionHandler를 사용하여 WARN 또는 ERROR 수준에서 로깅되고 무시되는 예외를 처리합니다.

false

boolean

checkCrcs (consumer)

사용된 레코드의 CRC32를 자동으로 확인합니다. 이렇게 하면 메시지의 온-the-wire 또는 온-디스크 손상이 발생하지 않습니다. 이 검사에는 오버헤드가 추가되므로 과도한 성능을 원하는 경우 비활성화될 수 있습니다.

true

부울

commitTimeoutMs (consumer)

코드에서 동기 커밋이 완료될 때까지 대기하는 최대 시간(밀리초)입니다.

5000

long

consumerRequestTimeoutM (consumer)

구성은 클라이언트가 요청 응답을 기다리는 최대 시간을 제어합니다. 시간 초과가 경과하기 전에 응답이 수신되지 않으면 필요한 경우 클라이언트가 요청을 다시 전송하거나 재시도가 고갈되면 요청이 실패합니다.

40000

정수

consumersCount (consumer)

kafka 서버에 연결하는 소비자 수입니다. 각 소비자는 들어오는 데이터를 검색하고 처리하는 별도의 스레드에서 실행됩니다.

1

int

fetchMaxBytes (consumer)

서버에서 가져오기 요청에 대해 반환해야 하는 최대 데이터 양 This is not an absolute maximum, if the first message in the first message in the first message in the first message in the fetch is larger than this value, 메시지를 계속 반환하여 소비자가 진행할 수 있도록 합니다. 브로커가 승인한 최대 메시지 크기는 message.max.bytes(broker config) 또는 max.message.bytes(topic config)를 통해 정의됩니다. 소비자는 여러 가져오기를 병렬로 수행합니다.

52428800

정수

fetchMinBytes (consumer)

가져오기 요청에 대해 서버가 반환해야 하는 최소 데이터 양입니다. 데이터가 충분하지 않으면 요청은 요청에 응답하기 전에 많은 데이터가 누적될 때까지 기다립니다.

1

정수

fetchWaitMaxMs (consumer)

fetch.min.bytes를 즉시 충족하기에 충분하지 않은 경우 가져오기 요청에 응답하기 전에 서버가 차단하는 최대 시간입니다.

500

정수

groupId (consumer)

이 소비자가 속하는 소비자 프로세스 그룹을 고유하게 식별하는 문자열입니다. 동일한 그룹 ID를 여러 프로세스를 설정하면 해당 프로세스가 모두 동일한 소비자 그룹의 일부임을 나타냅니다. 이 옵션은 고객에게 필요합니다.

 

문자열

groupInstanceId (consumer)

최종 사용자가 제공하는 소비자 인스턴스의 고유 식별자입니다. 비어 있지 않은 문자열만 허용됩니다. 설정된 경우 소비자는 정적 멤버로 처리되므로 이 ID가 있는 하나의 인스턴스만 언제든지 소비자 그룹에 허용됩니다. 이는 일시적인 비가용성으로 인한 그룹 재조정(예: 프로세스 재시작)으로 인한 그룹 재조정을 방지하기 위해 더 큰 세션 시간 제한과 함께 사용할 수 있습니다. 설정하지 않으면 소비자는 기존 동작인 동적 멤버로 그룹을 조인합니다.

 

문자열

headerDeserializer (consumer)

사용자 지정 KafkaHeaderDeserializer를 사용하여 kafka 헤더 값을 역직렬화합니다.

 

KafkaHeaderDeserializer

heartbeatIntervalMs (consumer)

Kafka의 그룹 관리 기능을 사용할 때 소비자 조정자에게 하트비트 간 예상 시간입니다. 하트비트는 소비자의 세션이 활성 상태로 유지되고 새 소비자가 그룹을 참여하거나 나가면 재조정을 용이하게 하는 데 사용됩니다. 값은 session.timeout.ms보다 작아야 하지만 일반적으로 해당 값의 1/3을 넘지 않아야 합니다. 일반 리밸런스에 대해 예상 시간을 제어하도록 더욱 낮게 조정할 수 있습니다.

3000

정수

keyDeserializer (consumer)

Deserializer 인터페이스를 구현하는 키에 대한 Deserializer 클래스입니다.

org.apache.kafka.common.serialization.StringDeserializer

문자열

maxPartitionFetchBytes (consumer)

서버가 반환할 파티션당 최대 데이터 양입니다. 요청에 사용된 최대 총 메모리는 #partitions max.partition.fetch.bytes입니다. 이 크기는 서버에서 허용하는 최대 메시지 크기 이상이어야 합니다. 그러지 않으면 생산자가 소비자가 가져올 수 있는 것보다 큰 메시지를 보낼 수 있습니다. 이러한 경우 소비자는 특정 파티션에서 큰 메시지를 가져오려고 할 수 있습니다.

1048576

정수

maxPollIntervalMs (consumer)

소비자 그룹 관리를 사용할 때 poll() 호출 간 최대 지연입니다. 이렇게 하면 더 많은 레코드를 가져오기 전에 소비자가 유휴 상태가 될 수 있는 시간에 바인딩된 상한이 배치됩니다. poll()가 이 시간 만료 전에 호출되지 않은 경우 소비자는 실패한 것으로 간주되고 그룹이 파티션을 다른 멤버에 다시 할당하기 위해 재조정됩니다.

 

long

maxPollRecords (consumer)

poll()에 대한 단일 호출에서 반환된 최대 레코드 수입니다.

500

정수

offsetRepository (consumer)

주제의 각 파티션의 오프셋을 로컬로 저장하기 위해 사용할 오프셋 리포지토리입니다. 하나를 정의하면 자동 커밋이 비활성화됩니다.

 

StateRepository

partitionAssignor (consumer)

클라이언트가 그룹 관리를 사용할 때 클라이언트가 파티션 소유권을 배포하는 데 사용할 파티션 할당 전략의 클래스 이름입니다.

org.apache.kafka.clients.consumer.RangeAssignor

문자열

pollOnError (consumer)

kafka가 새 메시지를 폴링하는 동안 예외를 제한하면 어떻게 해야 합니까. 은 엔드포인트 수준에서 명시적 값을 구성하지 않는 한 기본적으로 구성 요소 구성의 값을 사용합니다. DISCARD는 메시지를 삭제하고 다음 메시지를 계속 폴링합니다. ERROR_HANDLER는 Camel의 오류 처리기를 사용하여 예외를 처리하고 나중에 다음 메시지를 계속 폴링합니다. RECONNECT는 소비자를 다시 연결하고 메시지를 다시 폴링하려고 시도하면 동일한 메시지를 다시 폴링하면 소비자 재시도에서 소비자를 다시 중지시킬 수 있습니다(고객이 메시지를 다시 사용할 수 있어야 하는 경우 수동으로 시작/다시 시작됨).

CloudEvent 값:

  • DISCARD
  • ERROR_HANDLER
  • RECONNECT
  • RETRY
  • STOP

ERROR_HANDLER

PollOnError

pollTimeoutM (consumer)

KafkaConsumer를 폴링할 때 사용되는 제한 시간입니다.

5000

long

resumeStrategy (consumer)

이 옵션을 사용하면 사용자 정의 재개 전략을 설정할 수 있습니다. resume 전략은 파티션이 할당될 때(예: 연결 또는 다시 연결할 때) 실행됩니다. 구현이 작업을 재개하는 방법을 사용자 지정하고 seekTo 및 offsetRepository 메커니즘에 대한 보다 유연한 대안으로 사용할 수 있습니다. 구현 세부 사항은 KafkaConsumerResumeStrategy를 참조하십시오. 이 옵션은 자동 커밋 설정에 영향을 미치지 않습니다. 이 설정을 사용하는 구현에서는 이와 함께 수동 커밋 옵션을 사용하여 평가할 수도 있습니다.

 

KafkaConsumerResumeStrategy

seekTo (consumer)

KafkaConsumer가 시작시 시작 또는 종료 시부터 읽는 경우 설정 : 처음부터 읽기 : 마지막부터 읽기 This is replacing the earlier property seekToBeginning.

CloudEvent 값:

  • Starting
  • end
 

문자열

sessionTimeoutM (consumer)

Kafka의 그룹 관리 기능을 사용할 때 오류를 감지하는 데 사용되는 시간 초과입니다.

10000

정수

specificAvroReader (consumer)

이를 통해 Confluent Platform 스키마 레지스트리 및 io.confluent.kafka.serializers.KafkaAvroDeserializer와 함께 사용할 수 있습니다. 이 옵션은 Confluent Platform (표준 Apache Kafka)에서만 사용할 수 있습니다.

false

boolean

topicIsPattern (consumer)

주제가 패턴(regular expression)인지 여부. 이를 사용하여 패턴과 일치하는 동적 주제 수를 서브스크립션할 수 있습니다.

false

boolean

valueDeserializer (consumer)

Deserializer 인터페이스를 구현하는 값에 대한 Deserializer 클래스입니다.

org.apache.kafka.common.serialization.StringDeserializer

문자열

kafkaManualCommitFactory (consumer (advanced)

KafkaManualCommit 인스턴스를 생성하는 데 사용할 Autowired anchor입니다. 이를 통해 사용자 지정 팩토리를 플러그인하여 사용자 지정 KafkaManualCommit 인스턴스를 생성할 수 있습니다. 이 경우 박스에서 제공되는 기본 구현에서 벗어난 수동 커밋을 수행할 때 특수 논리가 필요합니다.

 

KafkaManualCommitFactory

pollExceptionStrategy (consumer (advanced))

Autowired 소비자와 사용자 정의 전략을 사용하여 메시지를 풀링하는 동안 Kafka 브로커에서 발생하는 예외를 처리하는 방법을 제어합니다.

 

PollExceptionStrategy

bufferMemorySize (producer)

생산자가 서버로 전송되는 대기 중인 레코드를 버퍼링하는 데 사용할 수 있는 총 메모리 바이트입니다. 생산자가 block.on.buffer.full에서 지정한 기본 설정에 따라 서버에 레코드를 더 빠르게 전송하면 생산자가 사용하는 모든 메모리가 버퍼링에 사용되는 것은 아니지만 모든 메모리가 버퍼링에 사용되는 것은 아니기 때문에 프로듀서가 사용하는 기본 설정에 따라 예외를 차단하거나 throw합니다. 이 설정은 프로듀서에서 사용하는 모든 메모리가 버퍼링에 사용되는 것은 아니므로 하드 바인딩은 아닙니다. 일부 추가 메모리는 압축( 압축이 활성화된 경우)과 진행 중인 요청을 유지 관리하는 데 사용됩니다.

33554432

정수

compressionCodec (producer)

이 매개변수를 사용하면 이 프로듀서에서 생성한 모든 데이터에 대해 압축 코드c를 지정할 수 있습니다. 유효한 값은 none, gzip 및 snappy입니다.

CloudEvent 값:

  • none
  • gzip
  • snappy
  • lz4

none

문자열

connectionMaxIdleMs (producer)

이 구성에서 지정한 시간(밀리초) 후 유휴 연결을 종료합니다.

540000

정수

deliveryTimeoutM (producer)

send() 호출을 반환한 후 성공 또는 실패를 보고하는 시간에 상한입니다. 이렇게 하면 레코드가 전송 전에 지연되는 총 시간, 브로커의 승인 대기 시간(필요한 경우) 및 재시도 가능한 전송 실패에 허용되는 시간이 제한됩니다.

120000

정수

enableIdempotence (producer)

'true'로 설정하면 생산자가 스트림에 각 메시지의 사본을 정확히 1개씩 작성합니다. 'false'인 경우 생산자는 스트림에 재시도된 메시지의 중복을 작성할 수 있습니다. true로 설정하면 max.in.flight.requests.per.connection을 1로 설정하고 재시도할 수 없으며 추가 acks를 'all'로 설정해야 합니다.

false

boolean

headerSerializer (producer)

사용자 지정 KafkaHeaderSerializer를 사용하여 kafka 헤더 값을 직렬화합니다.

 

KafkaHeaderSerializer

(producer)

레코드 키(키가 지정되지 않은 경우 null)입니다. 이 옵션이 구성된 경우 헤더 KafkaConstants#KEY보다 우선합니다.

 

문자열

keySerializer (producer)

키의 serializer 클래스(제공되지 않은 경우 메시지의 기본값과 동일).

org.apache.kafka.common.serialization.StringSerializer

문자열

lazyStartProducer (producer)

첫 번째 메시지에서 생산자를 lazy로 시작해야 하는지 여부입니다. lazy를 시작하여 이를 사용하여 생산자가 시작되지 않고 생산자가 실패할 수 있는 상황에서 CamelContext 및 경로가 시작될 수 있도록 허용할 수 있습니다. 이 시작이 지연되도록 지연되면 Camel의 라우팅 오류 핸들러를 통해 메시지를 라우팅하는 동안 시작 실패를 처리할 수 있습니다. 첫 번째 메시지가 처리되면 프로듀서 생성 및 시작이 다소 시간이 걸릴 수 있으며 총 처리 시간이 길어질 수 있습니다.

false

boolean

lingerMs (producer)

생산자는 단일 배치된 요청으로의 요청 전송 사이에 들어오는 모든 레코드를 그룹화합니다. 일반적으로 이는 전송 가능한 것보다 레코드가 더 빨리 도달할 때 로드 중에만 발생합니다. 그러나 경우에 따라 클라이언트는 중간 수준의 부하에서도 요청 수를 줄일 수 있습니다. 이 설정은 약간의 인공 지연을 추가하여 즉, 생산자가 즉시 레코드를 보내는 대신 지정된 지연까지 대기하여 전송이 함께 배치될 수 있도록 다른 레코드를 보낼 수 있도록 합니다. 이는 TCP의 Nagle 알고리즘과 유사합니다. 이 설정은 일괄 처리 지연에 대한 상한을 제공합니다. 이 설정에 관계없이 파티션의 batch.size 가치가 있는 경우 즉시 전송되지만 이 파티션에 누적된 바이트 수보다 적으면 더 많은 레코드가 표시되도록 지정된 시간에 대해 '어링er'합니다. 이 설정 기본값은 0입니다(예: no delay). 예를 들어 linger.ms=5를 설정하면 전송된 요청 수를 줄이는 효과가 있지만 로드 중에 전송된 레코드에 최대 5ms의 대기 시간을 더할 수 있습니다.

0

정수

maxBlockMs (producer)

구성에서는 kafka로 보내는 기간을 제어합니다. 이러한 방법은 여러 가지 이유로 차단될 수 있습니다. 예를 들어 버퍼 전체 메타데이터를 사용할 수 없습니다. 이 구성은 메타데이터 가져오기에 소비된 총 시간, 키 및 값의 직렬화, send()를 수행할 때 버퍼 메모리의 파티셔닝 및 할당에 최대 제한을 적용합니다. partitionsFor()의 경우 이 구성은 메타데이터 대기 시 최대 시간 임계값을 적용합니다.

60000

정수

maxInFlightRequest (producer)

인증되지 않은 최대 요청 수에 따라 클라이언트가 차단하기 전에 단일 연결을 통해 전송할 수 있습니다. 이 설정이 1보다 크고 전송에 실패한 경우 재시도로 인해 메시지 재순환 위험이 있습니다(예: 재시도가 활성화된 경우).

5

정수

maxRequestSize (producer)

요청의 최대 크기입니다. 이는 또한 실질적으로 최대 레코드 크기에 대한 제한입니다. 서버에는 이와 다를 수 있는 레코드 크기에 대한 자체 제한이 있습니다. 이 설정은 생산자가 대규모 요청을 보내지 않도록 단일 요청으로 전송할 레코드 배치 수를 제한합니다.

1048576

정수

metadataMaxAgeMs (producer)

이 기간(밀리초) 후 새 브로커 또는 파티션을 사전에 검색하기 위해 파티션 리더십 변경을 보지 못하더라도 메타데이터를 강제로 새로 고침합니다.

300000

정수

metricReporters (producer)

메트릭 보고자로 사용할 클래스 목록입니다. MetricReporter 인터페이스를 구현하면 새 지표 생성에 대한 알림을 받을 클래스를 연결할 수 있습니다. JmxReporter는 항상 통계를 등록하기 위해 포함됩니다.

 

문자열

metricsSampleWindowMs (producer)

메트릭으로 유지 관리되는 샘플 수입니다.

30000

정수

noOfMetricsSample (producer)

메트릭으로 유지 관리되는 샘플 수입니다.

2

정수

partitioner (producer)

하위 주제 간에 메시지를 분할하는 partitioner 클래스입니다. 기본 partitioner는 키의 해시를 기반으로 합니다.

org.apache.kafka.clients.producer.internals.DefaultPartitioner

문자열

partitionKey (producer)

레코드가 전송되는 파티션(또는 파티션이 지정되지 않은 경우 null)입니다. 이 옵션이 구성된 경우 헤더 KafkaConstants#PARTITION_KEY보다 우선합니다.

 

정수

producerBatchSize (producer)

생산자는 여러 레코드가 동일한 파티션에 전송될 때마다 레코드를 더 적은 수의 요청으로 함께 배치하려고 합니다. 이렇게 하면 클라이언트와 서버 모두에서 성능이 향상됩니다. 이 구성은 기본 배치 크기(바이트)를 제어합니다. 이 크기보다 큰 배치 레코드는 없습니다. 브로커에 전송된 요청에는 여러 일괄 처리가 포함됩니다. 하나는 전송 가능한 데이터가 있는 각 파티션에 대해 일괄 처리를 덜 일반화하고 처리량을 줄일 수 있습니다(0의 배치 크기는 완전히 비활성화됨). 배치 크기가 매우 큰 경우 추가 레코드를 예상할 때 항상 지정된 일괄 처리 크기의 버퍼를 할당하므로 메모리를 약간 더 불편하게 사용할 수 있습니다.

16384

정수

queueBufferingMaxMessages (producer)

생산자를 차단하거나 데이터를 삭제하기 전에 async 모드를 사용할 때 프로듀서에서 대기할 수 있는 최대 무의식 메시지 수입니다.

10000

정수

receiveBufferBytes (producer)

데이터를 읽을 때 사용할 TCP 수신 버퍼(SO_RCVBUF)의 크기입니다.

65536

정수

reconnectBackoffMs (producer)

지정된 호스트에 다시 연결하기 전에 대기하는 시간입니다. 이렇게 하면 엄격한 루프에서 호스트에 반복적으로 연결하는 것을 방지할 수 있습니다. 이 백오프는 소비자가 브로커로 보낸 모든 요청에 적용됩니다.

50

정수

recordMetadata (producer)

생산자가 Kafka로 전송한 RecordMetadata 결과를 저장해야 하는지 여부입니다. 결과는 RecordMetadata 메타데이터가 포함된 목록에 저장됩니다. 목록은 KafkaConstants#KAFKA_RECORDMETA 키가 있는 헤더에 저장됩니다.

true

boolean

requestRequiredAcks (producer)

생산자가 승인한 승인의 수에 따라 요청이 완료된 것을 고려하기 전에 리더를 수령해야 합니다. 이렇게 하면 전송되는 레코드의 중요도가 제어됩니다. acks=0로 설정하면 생산자가 서버의 승인을 전혀 기다리지 않습니다. 레코드는 소켓 버퍼에 즉시 추가되고 전송된 것으로 간주합니다. 이 경우 서버가 레코드를 수신했음을 보장할 수 없으며 재시도 구성은 적용되지 않습니다(클라이언트는 일반적으로 오류를 알 수 없기 때문에). 각 레코드에 대해 주어진 오프셋은 항상 -1로 설정됩니다. acks=1 이는 리더가 해당 로컬 로그에 레코드를 작성하지만 모든 팔로워의 완전한 승인을 기다리지 않고 응답한다는 것을 의미합니다. 이 경우 레코드 확인 후 바로 리더가 실패하지만, 팔로워가 복제되기 전에 해당 레코드가 손실됩니다. acks=all이 발생하면 비동기(in-sync) 복제본의 전체 세트를 확인하여 레코드를 승인할 수 있습니다. 이렇게 하면 하나 이상의 동기화 복제본이 활성 상태로 유지되는 한 레코드가 손실되지 않습니다. 이는 사용 가능한 보증입니다.

CloudEvent 값:

  • -1
  • 0
  • 1
  • all

1

문자열

requestTimeoutM (producer)

브로커가 클라이언트에 오류를 보내기 전에 request.required.acks 요구 사항을 충족하기 위해 대기하는 시간입니다.

30000

정수

재시도 (producer)

값을 0보다 크게 설정하면 클라이언트가 전송이 잠재적으로 일시적인 오류와 함께 실패하는 모든 레코드를 다시 보냅니다. 이 재시도는 클라이언트가 오류를 수신할 때 레코드를 재지정하는 경우와 다르지 않습니다. 재시도를 허용하면 두 개의 레코드가 단일 파티션에 전송되고 첫 번째 레코드가 실패하고 다시 시도되지만 두 번째 레코드가 먼저 표시될 수 있기 때문에 레코드 순서가 변경될 수 있습니다.

0

정수

retryBackoffMs (producer)

각 재시도 전에 생산자는 관련 주제의 메타데이터를 새로 고침하여 새 리더가 선택되었는지 확인합니다. 리더 선택에는 시간이 걸리므로 이 속성은 메타데이터를 새로 고치기 전에 프로듀서가 대기하는 시간을 지정합니다.

100

정수

sendBufferBytes (producer)

소켓 쓰기 버퍼 크기.

131072

정수

valueSerializer (producer)

메시지에 대한 serializer 클래스입니다.

org.apache.kafka.common.serialization.StringSerializer

문자열

workerpool (producer)

kafka 서버 이후에 Exchange를 계속 라우팅하는 데 사용자 지정 작업자 풀을 사용하려면 비동기 비차단 처리를 사용하여 KafkaProducer에서 전송된 메시지를 인식합니다. 이 옵션을 사용하는 경우 더 이상 필요하지 않은 경우 풀을 종료하려면 스레드 풀의 라이프사이클을 처리해야 합니다.

 

ExecutorService

workerPoolCoreSize (producer)

kafka 서버 이후에 Exchange를 계속 라우팅하기 위한 작업자 풀의 코어 스레드 수는 비동기 비차단 처리를 사용하여 KafkaProducer에서 전송된 메시지를 인식합니다.

10

정수

workerPoolMaxSize (producer)

kafka 서버 후에 Exchange를 계속 라우팅하기 위한 작업자 풀의 최대 스레드 수는 비동기 비차단 처리를 사용하여 KafkaProducer에서 전송된 메시지를 승인합니다.

20

정수

autowiredEnabled (advanced)

autowiring이 활성화되었는지 여부 이 옵션은 일치하는 유형의 단일 인스턴스가 있는지 확인한 다음 구성 요소에 구성됩니다. 이는 JDBC 데이터 소스, JMS 연결 팩토리, AWS 클라이언트 등을 자동으로 구성하는 데 사용할 수 있습니다.

true

boolean

kafkaClientFactory (advanced)

org.apache.kafka.clients.consumer.KafkaConsumer.KafkaConsumer 및 org.apache.kafka.clients.producer.KafkaProducer 인스턴스를 생성하는 데 사용할 Autowired 10.0.0.1입니다. 이를 통해 vanill Kafka 클라이언트를 확장하는 논리를 사용하여 인스턴스를 생성하도록 사용자 지정 팩토리를 구성할 수 있습니다.

 

KafkaClientFactory

동기 (고급)

동기 처리를 엄격하게 사용해야 하는지 여부를 설정합니다.

false

boolean

schemaRegistryURL (confluent)

사용할 Confluent Platform 스키마 레지스트리 서버의 URL입니다. 형식은 host1:port1,host2:port2입니다. 이를 Confluent Platform 문서에서 schema.registry.url이라고 합니다. 이 옵션은 Confluent Platform (표준 Apache Kafka)에서만 사용할 수 있습니다.

 

문자열

interceptorClasses (monitoring)

생산자 또는 소비자에 대한 인터셉터를 설정합니다. 생산자 인터셉터는 org.apache.kafka.clients.producer.ProducerInterceptor 인터셉터를 구현하는 클래스여야 합니다. ConsumerInterceptor 인터셉터는 org.apache.kafka.clients.consumer.ConsumerInterceptor를 구현하는 클래스여야 합니다. 소비자에 Producer 인터셉터를 사용하는 경우 런타임에 클래스 캐스트를 발생시킵니다.

 

문자열

kerberosBeforeReloginMinTime (security)

새로 고침 시도 사이에 로그인 스레드 절전 시간.

60000

정수

kerberosInitCmd (security)

Kerberos kinit 명령 경로입니다. 기본값은 /usr/bin/kinit입니다.

/usr/bin/kinit

문자열

kerberosPrincipalToLocalRules (보안)

보안 주체 이름에서 짧은 이름(일반적으로 운영 체제 사용자 이름)으로 매핑하는 규칙 목록입니다. 규칙은 순서대로 평가되고 주체 이름과 일치하는 첫 번째 규칙은 짧은 이름에 매핑하는 데 사용됩니다. 목록의 이후 규칙은 무시됩니다. 기본적으로 {username}/{hostname}{REALM} 형식의 주체 이름은 {username}에 매핑됩니다. 형식에 대한 자세한 내용은 보안 권한 및 acls 문서를 참조하십시오. 여러 값을 쉼표로 구분할 수 있습니다.

DEFAULT

문자열

kerberosRenewJitter (security)

임의의 지터의 백분율이 갱신 시간에 추가되었습니다.

0.05

double

kerberosRenewWindowFactor (security)

로그인 스레드는 마지막 새로 고침에서 티켓 만료까지 지정된 창 요인에 도달할 때까지 유휴 상태가 됩니다. 이 때 티켓을 갱신하려고 합니다.

0.8

double

saslJaasConfig (security)

kafka sasl.jaas.config 매개변수 예제: org.apache.kafka.common.security.plain.PlainLoginModule 필수 username=USERNAME password=PASSWORD;를 노출합니다.

 

문자열

saslKerberosServiceName (security)

Kafka가 실행되는 Kerberos 사용자 이름입니다. Kafka의 10.0.0.1 구성 또는 Kafka 구성에서 정의할 수 있습니다.

 

문자열

saslMechanism (security)

SASL(Simple Authentication and Security Layer) 메커니즘이 사용되었습니다. 유효한 값은 의 내용을 참조하십시오.

GSSAPI

문자열

securityProtocol (보안)

브로커와 통신하는 데 사용되는 프로토콜입니다. SASL_PLAINTEXT, PLAINTEXT 및 SSL이 지원됩니다.

PLAINTEXT

문자열

sslCipherSuites (보안)

암호화 제품군 목록입니다. 이는 TLS 또는 SSL 네트워크 프로토콜을 사용하여 네트워크 연결의 보안 설정을 협상하는 데 사용되는 인증, 암호화, MAC 및 키 교환 알고리즘의 이름 지정 조합입니다. 기본적으로 사용 가능한 모든 암호화 제품군이 지원됩니다.

 

문자열

sslContextParameters (보안)

Camel SSLContextParameters 오브젝트를 사용한 SSL 구성입니다. 구성된 경우 다른 SSL 끝점 매개변수보다 먼저 적용됩니다. 참고: Kafka는 파일 위치의 키 저장소 로드만 지원하므로 KeyStoreParameters.resource 옵션에서 file:의 위치를 접두사로 지정합니다.

 

SSLContextParameters

sslEnabledProtocols (security)

SSL 연결에 활성화된 프로토콜 목록입니다. TLSv1.2, TLSv1.1 및 TLSv1은 기본적으로 활성화되어 있습니다.

 

문자열

sslEndpointAlgorithm (security)

서버 인증서를 사용하여 서버 호스트 이름을 검증하는 끝점 식별 알고리즘입니다.

https

문자열

sslKeymanagerAlgorithm (security)

SSL 연결에 대해 키 관리자 팩토리에서 사용하는 알고리즘입니다. 기본값은 Java 가상 머신에 대해 구성된 키 관리자 팩토리 알고리즘입니다.

SunX509

문자열

sslKeyPassword (security)

키 저장소 파일에 있는 개인 키의 암호입니다. 이는 클라이언트의 경우 선택 사항입니다.

 

문자열

sslKeystoreLocation (security)

키 저장소 파일의 위치입니다. 이는 클라이언트의 경우 선택 사항이며 클라이언트의 양방향 인증에 사용할 수 있습니다.

 

문자열

sslKeystorePassword (security)

키 저장소 파일의 저장소 암호입니다. 클라이언트의 경우 선택 사항이며 ssl.keystore.location이 구성된 경우에만 필요합니다.

 

문자열

sslKeystoreType (security)

키 저장소 파일의 파일 형식입니다. 이는 클라이언트의 경우 선택 사항입니다. 기본값은 JKS입니다.

JKS

문자열

SSLProtocol (보안)

SSLContext를 생성하는 데 사용되는 SSL 프로토콜입니다. 기본 설정은 TLS이며 대부분의 경우 적합합니다. 최근 JVM에서 허용되는 값은 TLS, TLSv1.1 및 TLSv1.2입니다. SSL, SSLv2 및 SSLv3은 이전 JVM에서 지원될 수 있지만 알려진 보안 취약점으로 인해 해당 사용이 권장되지 않습니다.

 

문자열

sslProvider (security)

SSL 연결에 사용되는 보안 공급자의 이름입니다. 기본값은 JVM의 기본 보안 공급자입니다.

 

문자열

sslTrustmanagerAlgorithm (security)

신뢰 관리자 팩토리에서 SSL 연결에 사용하는 알고리즘입니다. 기본값은 Java 가상 머신에 대해 구성된 신뢰 관리자 팩토리 알고리즘입니다.

PKIX

문자열

sslTruststoreLocation (security)

신뢰 저장소 파일의 위치입니다.

 

문자열

sslTruststorePassword (security)

신뢰 저장소 파일의 암호입니다.

 

문자열

sslTruststoreType (security)

신뢰 저장소 파일의 파일 형식입니다. 기본값은 JKS입니다.

JKS

문자열

useGlobalSslContextParameters (security)

글로벌 SSL 컨텍스트 매개변수 사용을 활성화합니다.

false

boolean

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat