190.2. 옵션


Kafka 구성 요소는 아래에 나열된 9 가지 옵션을 지원합니다.

Expand
이름설명Default유형

구성 (공용)

끝점이 재사용할 일반적인 옵션을 사용하여 Kafka 구성 요소를 사전 구성할 수 있습니다.

 

KafkaConfiguration

브로커 (공용)

사용할 Kafka 브로커의 URL입니다. 형식은 host1:port1,host2:port2이며, 목록은 브로커의 하위 집합 또는 브로커의 하위 집합을 가리키는 VIP일 수 있습니다. 이 옵션을 Kafka 문서에서 bootstrap.servers라고 합니다.

 

문자열

workerPool (고급)

kafka 서버가 비동기 비 차단 처리를 사용하여 KafkaProducer에서 보낸 메시지를 확인한 후 계속해서 Exchange 라우팅에 공유 사용자 지정 작업자 풀을 사용하려면 다음을 수행하십시오. 이 옵션을 사용하는 경우 스레드 풀의 라이프사이클을 처리하여 더 이상 필요하지 않은 경우 풀을 종료해야 합니다.

 

ExecutorService

UseGlobalSslContext 매개변수 (보안)

글로벌 SSL 컨텍스트 매개 변수 사용을 활성화합니다.

false

boolean

breakOnFirstError (consumer)

이 옵션은 소비자가 교환을 처리할 때 발생하는 작업을 제어하므로 실패합니다. 옵션이 false이면 소비자는 다음 메시지로 계속 진행하여 처리합니다. 옵션이 true이면 소비자가 중단되고 오류가 발생한 메시지의 오프셋으로 다시 이동한 다음 이 메시지를 다시 처리하려고 시도합니다. 그러나 이로 인해 매번 실패할 때마다 동일한 메시지가 무한하게 처리될 수 있습니다(예: 중독 메시지). 따라서 Camel의 오류 처리기를 사용하여 이러한 문제를 해결하는 것이 좋습니다.

false

boolean

allowManualCommit (consumer)

KafkaManualCommit을 통해 수동 커밋을 허용할지 여부입니다. 이 옵션을 사용하면 KafkaManualCommit의 인스턴스가 Exchange 메시지 헤더에 저장되어, 일반 사용자가 이 API에 액세스하고 Kafka 소비자를 통해 수동 오프셋 커밋을 수행할 수 있습니다.

false

boolean

kafkaManualCommit Factory (consumer)

KafkaManualCommit 인스턴스를 생성하는 데 사용할 팩토리입니다. 이를 통해 사용자 정의 팩토리를 플러그인하여 즉시 제공되는 기본 구현에서 벗어나는 수동 커밋을 수행할 때 특별한 논리가 필요한 경우 사용자 정의 KafkaManualCommit 인스턴스를 생성할 수 있습니다.

 

KafkaManualCommit Factory

resolvePropertyECDHEholders (advanced)

구성 요소가 시작할 때 속성 자리 표시자를 확인해야 하는지 여부입니다. String 유형의 속성만 속성 자리 표시자를 사용할 수 있습니다.Only properties which are of String type can use property placeholders.

true

boolean

shutdownTimeout (common)

소비자 또는 생산자가 정상적으로 종료되고 작업자 스레드를 종료할 때까지 대기하는 시간(밀리초)입니다.

30000

int

Kafka 끝점은 URI 구문을 사용하여 구성됩니다.

kafka:topic
Copy to Clipboard Toggle word wrap

다음 경로 및 쿼리 매개변수를 사용합니다.

190.2.1. 경로 매개변수 (1 매개변수):

Expand
이름설명Default유형

주제

사용할 주제의 필수 이름입니다. 소비자에서는 쉼표를 사용하여 여러 항목을 분리할 수 있습니다. 생산자는 하나의 주제로만 메시지를 보낼 수 있습니다.

 

문자열

190.2.2. 쿼리 매개변수(94 매개변수):

Expand
이름설명Default유형

브로커 (공용)

사용할 Kafka 브로커의 URL입니다. 형식은 host1:port1,host2:port2이며, 목록은 브로커의 하위 집합 또는 브로커의 하위 집합을 가리키는 VIP일 수 있습니다. 이 옵션을 Kafka 문서에서 bootstrap.servers라고 합니다.

 

문자열

clientID (common)

클라이언트 ID는 호출을 추적하기 위해 각 요청에서 전송되는 사용자 지정 문자열입니다. 요청을 수행하는 애플리케이션을 논리적으로 식별해야 합니다.

 

문자열

headerFilterStrategy (common)

사용자 정의 HeaderFilterStrategy를 사용하여 Camel 메시지로 헤더를 필터링합니다.

 

HeaderFilterStrategy

reconnectBackoffMaxMs (common)

브로커를 다시 연결하지 못한 경우 대기하는 최대 시간(밀리초)입니다. 제공되는 경우 호스트당 백오프는 연속되는 각 연결 오류에 대해 최대 최대까지 기하급수적으로 증가합니다. 백오프 증가를 계산한 후 연결의 변동을 방지하기 위해 20%의 임의의 지터가 추가됩니다.

1000

정수

allowManualCommit (consumer)

KafkaManualCommit을 통해 수동 커밋을 허용할지 여부입니다. 이 옵션을 사용하면 KafkaManualCommit의 인스턴스가 Exchange 메시지 헤더에 저장되어, 일반 사용자가 이 API에 액세스하고 Kafka 소비자를 통해 수동 오프셋 커밋을 수행할 수 있습니다.

false

boolean

autoCommitEnable (consumer)

true인 경우 주기적으로 사용자가 이미 가져온 메시지의 오프셋을 ZooKeeper에 커밋합니다. 이 커밋된 오프셋은 프로세스가 새 소비자가 시작될 위치로 실패할 때 사용됩니다.

true

부울

autoCommitIntervalMs (consumer)

소비자 오프셋이 zookeeper에 커밋되는 빈도입니다.

5000

정수

autoCommitOnStop (consumer)

소비자가 마지막으로 사용한 메시지의 커밋을 확인하기 위해 소비자가 중지하면 명시적인 자동 커밋을 수행할지 여부입니다. 이를 위해서는 autoCommitEnable 옵션이 설정되어 있어야 합니다. 가능한 값은 sync, async 또는 none입니다. 및 sync가 기본값입니다.

sync

문자열

autoOffsetReset (consumer)

ZooKeeper에 초기 오프셋이 없거나 오프셋이 범위를 벗어나는 경우 수행할 작업 : 자동으로 오프셋을 가장 오래된 오프셋으로 재설정 : 자동으로 오프셋을 최신 오프셋으로 재설정 : 자동으로 오프셋을 최신 오프셋으로 재설정 : 자동으로 오프셋을 최신 오프셋으로 재설정하십시오: 소비자에게 예외를 발생

최신

문자열

breakOnFirstError (consumer)

이 옵션은 소비자가 교환을 처리할 때 발생하는 작업을 제어하므로 실패합니다. 옵션이 false이면 소비자는 다음 메시지로 계속 진행하여 처리합니다. 옵션이 true이면 소비자가 중단되고 오류가 발생한 메시지의 오프셋으로 다시 이동한 다음 이 메시지를 다시 처리하려고 시도합니다. 그러나 이로 인해 매번 실패할 때마다 동일한 메시지가 무한하게 처리될 수 있습니다(예: 중독 메시지). 따라서 Camel의 오류 처리기를 사용하여 이러한 문제를 해결하는 것이 좋습니다.

false

boolean

bridgeErrorHandler (consumer)

소비자가 수신되는 메시지를 선택하려고 하는 동안 예외가 발생했음을 나타내는 Camel 라우팅 오류 처리기에 소비자를 브리징할 수 있습니다. 즉, 소비자가 수신되는 메시지를 선택하려고 하는 동안 예외가 발생되거나 이제 메시지로 처리되고 라우팅 오류 처리기에 의해 처리됩니다. 기본적으로 소비자는 org.apache.camel.spi.Exception handler를 사용하여 WARN 또는 ERROR 수준에서 로깅되고 무시됩니다.

false

boolean

checkCrcs (consumer)

사용된 레코드의 CRC32를 자동으로 확인합니다. 이렇게 하면 메시지에 대한 유선 또는 온-디스크 손상이 발생하지 않습니다. 이 검사에서는 몇 가지 오버헤드가 추가되므로 극단적인 성능을 찾는 경우 비활성화될 수 있습니다.

true

부울

consumerRequestTimeoutMs (consumer)

구성은 클라이언트가 요청 응답을 대기하는 최대 시간을 제어합니다. 시간 초과가 만료되기 전에 응답이 수신되지 않으면 필요한 경우 클라이언트가 요청을 다시 보내거나 재시도가 소진되면 요청이 실패합니다.

40000

정수

consumersCount (consumer)

kafka 서버에 연결하는 소비자 수

1

int

consumerStreams (consumer)

소비자의 동시 소비자 수

10

int

fetchMaxBytes (consumer)

서버가 페치 요청에 대해 반환해야 하는 최대 데이터 양입니다. 이는 가져오기의 첫 번째 비어 있지 않은 파티션의 첫 번째 메시지가 이 값보다 큰 경우 소비자가 진행하도록 메시지를 계속 반환합니다. 브로커가 승인한 최대 메시지 크기는 message.max.bytes(broker config) 또는 max.message.bytes(topic config)를 통해 정의됩니다. 소비자는 병렬로 여러 가져오기를 수행합니다.

52428800

정수

fetchMinBytes (consumer)

서버에서 가져오기 요청에 대해 반환해야 하는 최소 데이터 양입니다. 데이터가 충분하지 않으면 요청은 요청에 응답하기 전에 많은 데이터가 누적될 때까지 기다립니다.

1

정수

fetchWaitMaxMs (consumer)

fetch.min.bytes를 즉시 충족할 수 있는 데이터가 충분하지 않은 경우 가져오기 요청에 응답하기 전에 서버가 차단되는 최대 시간

500

정수

groupId (consumer)

이 소비자가 속한 소비자 프로세스 그룹을 고유하게 식별하는 문자열입니다. 동일한 그룹 ID를 여러 프로세스를 설정하면 모두 동일한 소비자 그룹의 일부임을 나타냅니다. 이 옵션은 소비자에게 필요합니다.

 

문자열

heartbeatIntervalMs (consumer)

Kafka의 그룹 관리 기능을 사용할 때 하트비트와 소비자 조정자 간 예상 시간입니다. 하트비트는 소비자 세션이 활성 상태로 유지되고 새 소비자가 그룹에 참여하거나 퇴원할 때 재조정을 용이하게 하는 데 사용됩니다. 값은 session.timeout.ms 보다 낮게 설정해야 하지만 일반적으로 해당 값의 1/3 미만으로 설정해야 합니다. 정상 리밸런스에 대한 예상 시간을 제어하도록 보다 낮게 조정할 수 있습니다.

3000

정수

kafkaHeaderDeserializer (consumer)

deserialization kafka 헤더 값에 대해 camel 헤더 값으로 사용자 정의 KafkaHeaderDeserializer를 설정합니다.

 

KafkaHeaderDeserializer

keyDeserializer (consumer)

Deserializer 인터페이스를 구현하는 키에 대한 Deserializer 클래스입니다.

org.apache.kafka.common.serialization.StringDeserializer

문자열

maxPartitionFetchBytes (consumer)

서버가 반환하는 파티션당 최대 데이터 양입니다. 요청에 사용되는 최대 메모리는 #partitions max.partition.fetch.bytes입니다. 이 크기는 서버가 허용하는 최대 메시지 크기 또는 생산자가 가져올 수 있는 메시지보다 큰 메시지를 보낼 수 있는 최대 메시지 크기보다 커야 합니다. 이러한 경우 소비자는 특정 파티션에 큰 메시지를 가져오기 위해 고착될 수 있습니다.

1048576

정수

maxPollIntervalMs (consumer)

소비자 그룹 관리를 사용할 때 poll() 호출 간 최대 지연입니다. 이로 인해 더 많은 레코드를 가져오기 전에 소비자가 유휴 상태가 될 수 있는 시간에 상한이 배치됩니다. poll()가 이 시간 만료 전에 호출되지 않으면 소비자가 실패한 것으로 간주되고 파티션을 다른 멤버에 다시 할당하기 위해 그룹이 재조정됩니다.

 

long

maxPollRecords (consumer)

poll()에 대한 단일 호출에서 반환된 최대 레코드 수입니다.

500

정수

offsetRepository (consumer)

주제의 각 파티션의 오프셋을 로컬로 저장하는 데 사용할 오프셋 리포지토리입니다. 하나를 정의하면 자동 커밋이 비활성화됩니다.

 

StateRepository

partitionAssignor (consumer)

그룹 관리가 사용될 때 클라이언트가 소비자 인스턴스 간에 파티션 소유권을 배포하는 데 사용할 파티션 할당 전략의 클래스 이름입니다.

org.apache.kafka.clients.consumer.RangeAssignor

문자열

pollTimeoutMs (consumer)

KafkaConsumer를 폴링할 때 사용되는 시간 초과입니다.

5000

long

behalfTo (consumer)

시작 시 KafkaConsumer가 시작 시 시작 또는 종료 시 읽어오는 경우 설정: beginning: read from end : end에서 읽기: 이전 속성 triesToBeginning을 대체합니다.

 

문자열

sessionTimeoutMs (consumer)

Kafka의 그룹 관리 기능을 사용할 때 오류를 감지하는 데 사용되는 시간 제한입니다.

10000

정수

shutdownTimeout (common)

소비자 또는 생산자가 정상적으로 종료되고 작업자 스레드를 종료할 때까지 대기하는 시간(밀리초)입니다.

30000

int

topicIsPECDHE n (consumer)

주제가 패턴인지 여부(regular expression). 이는 패턴과 일치하는 동적 주제 수를 구독하는 데 사용할 수 있습니다.

false

boolean

valueDeserializer (consumer)

Deserializer 인터페이스를 구현하는 값에 대한 Deserializer 클래스입니다.

org.apache.kafka.common.serialization.StringDeserializer

문자열

예외 처리기 (consumer)

소비자가 사용자 지정 예외 처리기를 사용하도록 하려면 다음을 수행합니다. bridgeErrorHandler 옵션이 활성화되어 있으면 이 옵션이 사용되지 않습니다. 기본적으로 소비자는 예외를 처리하며 WARN 또는 ERROR 수준에서 로깅되고 무시됩니다.

 

ExceptionHandler

exchangePattern (consumer)

소비자가 교환을 생성할 때 교환 패턴을 설정합니다.

 

ExchangePattern

bridgeEndpoint (producer)

옵션이 true이면 KafkaProducer는 인바운드 메시지의 KafkaConstants.TOPIC 헤더 설정을 무시합니다.

false

boolean

bufferMemorySize (producer)

생산자가 서버로 전송 대기 중인 레코드를 버퍼링하는 데 사용할 수 있는 총 메모리 바이트입니다. 레코드를 서버에 전달할 수 있는 것보다 빠르게 전송되는 경우 생산자는 block.on.buffer.full에 지정된 기본 설정에 따라 예외를 발생시킵니다. 이 설정은 생산자가 사용할 총 메모리에 대략적으로 일치해야 하지만 생산자가 사용하는 모든 메모리는 버퍼링에 사용되지 않으므로 하드 바인딩된은 아닙니다. 일부 추가 메모리는 압축( 압축이 활성화된 경우) 및 진행 중 요청을 유지 관리하는 데 사용됩니다.

33554432

정수

circularTopicDetection (producer)

옵션이 true인 경우 KafkaProducer는 메시지가 kafka 소비자에서 원본인지 여부와 동일한 주제로 다시 전송되는지 여부를 감지합니다. KafkaConstants.TOPIC 헤더가 원래 kafka 소비자 주제와 동일한 경우 헤더 설정이 무시되고 생산자 끝점의 항목이 사용됩니다. 즉, 동일한 메시지가 어디에서 발생했는지 다시 보내는 것을 방지할 수 있습니다. bridgeEndpoint 옵션이 true로 설정된 경우 이 옵션은 사용되지 않습니다.

true

boolean

compressionCodec (producer)

이 매개변수를 사용하면 이 생산자가 생성한 모든 데이터에 대해 압축 codec를 지정할 수 있습니다. 유효한 값은 none, gzip 및 snappy입니다.

none

문자열

connectionMaxIdleMs (producer)

이 구성에서 지정한 시간(밀리초) 이후 유휴 연결을 종료합니다.

540000

정수

enableIdempotence (producer)

'true'로 설정하면 생산자는 각 메시지의 정확히 하나의 사본이 스트림에 기록되도록 합니다. 'false'인 경우 생산자 재시도 횟수는 스트림에 재시도한 메시지의 중복을 작성할 수 있습니다. true로 설정하면 max.in.flight.requests.per.connection이 1로 설정되어야 하며 재시도 횟수는 0으로 설정할 수 없으며 추가로 acks를 'all'로 설정해야 합니다.

false

boolean

kafkaHeaderSerializer (producer)

kafka 헤더 값에 직렬화되는 camel 헤더 값에 대한 사용자 정의 KafkaHeaderDeserializer를 설정합니다.

 

KafkaHeaderSerializer

(producer)

레코드 키(또는 키가 지정되지 않은 경우 null)입니다. 이 옵션이 구성된 경우 헤더 KafkaConstants#KEY보다 우선합니다.

 

문자열

keySerializerClass (producer)

키에 대한 serializer 클래스(제공되지 않은 경우 메시지와 동일한 값으로 기본 설정)

org.apache.kafka.common.serialization.StringSerializer

문자열

lingerMs (producer)

생산자는 요청 전송 사이에 도달하는 모든 레코드를 단일 일괄 처리 요청으로 그룹화합니다. 일반적으로 이 문제는 레코드가 전송되는 속도보다 더 빨리 로드되는 경우에만 발생합니다. 그러나 경우에 따라 클라이언트는 중간 부하가 있는 경우에도 요청 수를 줄일 수 있습니다. 이 설정은 전송이 배치될 수 있도록 다른 레코드가 전송될 수 있도록 지정된 지연까지 대기하는 대신 소량의 인위적인 지연을 추가하여 이를 수행합니다. 이는 TCP에서 Nagle의 알고리즘과 유사한 것으로 생각할 수 있습니다. 이 설정은 일괄 처리에 대한 지연에 대한 상한을 제공합니다. 한 번 파티션의 레코드 가치가 있는 경우 이 설정에 관계없이 즉시 전송됩니다. 그러나 이 파티션에 대해 누적된 이 파티션보다 적은 수의 바이트 미만이 있으면 더 많은 레코드가 표시될 때까지 지정된 시간 동안 "링더"합니다. 이 설정은 기본값인 0(예: 지연 없음)입니다. 예를 들어 linger.ms=5를 설정하면 전송된 요청 수를 줄이는 효과가 있지만 로드 위반으로 전송된 레코드에 최대 5ms의 대기 시간이 추가됩니다.

0

정수

maxBlockMs (producer)

설정은 kafka로 보내는 데 걸리는 시간을 제어합니다. 이러한 방법은 여러 가지 이유로 차단될 수 있습니다. 예를 들어 버퍼 전체 메타데이터를 사용할 수 없습니다. 이 구성은 metadata를 가져오는 데 소비된 총 시간, 키 및 값 직렬화, send()를 수행할 때 버퍼 메모리의 파티셔닝 및 할당에 대한 최대 제한을 적용합니다. partitionsFor()의 경우 이 구성은 메타데이터를 기다리는 데 최대 시간 임계값을 적용합니다.

60000

정수

maxInFlightRequest (producer)

차단하기 전에 클라이언트가 단일 연결로 보낼 수 없는 최대 요청 수입니다. 이 설정이 1보다 크게 설정되고 전송 실패가 있는 경우 재시도 횟수로 인해 메시지를 다시 정렬할 위험이 있습니다(예: 재시도가 활성화된 경우).

5

정수

maxRequestSize (producer)

최대 요청 크기입니다. 또한 최대 레코드 크기의 한도이기도 합니다. 서버에는 이 값과 다를 수 있는 레코드 크기에 고유한 한도가 있습니다. 이 설정은 생산자가 대규모 요청을 전송하지 않도록 단일 요청으로 보낼 레코드 배치 수를 제한합니다.

1048576

정수

metadataMaxAgeMs (producer)

새로운 브로커 또는 파티션을 사전에 발견하기 위해 파티션 리더십 변경을 보지 못하더라도 메타데이터 새로 고침을 강제 적용하는 시간(밀리초)입니다.

300000

정수

metricReporters (producer)

지표 보고자로 사용할 클래스 목록입니다. MetricReporter 인터페이스를 구현하면 새 메트릭 생성을 알리는 클래스를 연결할 수 있습니다. JmxReporter는 항상ECDHE 통계를 등록하기 위해 포함되어 있습니다.

 

문자열

metricsSampleWindowMs (producer)

메트릭을 계산하기 위해 유지 관리되는 샘플 수입니다.

30000

정수

noOfMetricsSample (producer)

메트릭을 계산하기 위해 유지 관리되는 샘플 수입니다.

2

정수

partitioner (producer)

하위 항목 간에 메시지를 분할하기 위한 파티션 클래스입니다. 기본 파티션러는 키의 해시를 기반으로 합니다.

org.apache.kafka.clients.producer.internals.DefaultPartitioner

문자열

partitionKey (producer)

레코드를 전송할 파티션(또는 파티션이 지정되지 않은 경우 null)입니다. 이 옵션이 구성된 경우 헤더 KafkaConstants#ECDHEITION_KEY보다 우선합니다.

 

정수

producerBatchSize (producer)

생산자는 여러 레코드가 동일한 파티션으로 전송될 때마다 더 적은 수의 요청으로 레코드를 일괄 처리하려고 시도합니다. 그러면 클라이언트와 서버에서 모두 성능이 향상됩니다. 이 구성은 기본 배치 크기를 바이트 단위로 제어합니다. 브로커로 전송되는 것보다 큰 일괄 처리 레코드는 없습니다. 브로커로 전송되는 데이터가 있는 각 파티션에 대해 하나씩 여러 배치를 포함하지 않습니다. 작은 배치 크기로 인해 일괄 처리 크기가 덜 일반적이며 처리량이 감소합니다(0의 일괄 처리가 완전히 비활성화됨). 매우 큰 배치 크기는 항상 추가 레코드의 예상에 지정된 배치 크기의 버퍼를 할당하므로 메모리를 더 많이 사용할 수 있습니다.

16384

정수

queueBufferingMaxMessages (producer)

생산자를 차단하거나 데이터를 삭제하기 전에 async 모드를 사용할 때 생산자를 큐에 달할 수 있는 최대 메시지 수입니다.

10000

정수

receiveBufferBytes (producer)

데이터를 읽을 때 사용할 TCP 수신 버퍼(SO_RCVBUF)의 크기입니다.

65536

정수

reconnectBackoffMs (producer)

지정된 호스트에 다시 연결하기 전에 대기하는 시간입니다. 이렇게 하면 엄격한 루프에서 호스트에 반복적으로 연결할 수 없습니다. 이 백오프는 소비자가 브로커로 전송한 모든 요청에 적용됩니다.

50

정수

recordMetadata (producer)

생산자가 RecordMetadata 결과를 Kafka로 전송해야 하는지 여부입니다. 결과는 RecordMetadata 메타데이터가 포함된 List에 저장됩니다. 목록은 KafkaConstants#KAFKA_RECORDMETA 키가 있는 헤더에 저장됩니다.

true

boolean

RequestRequiredAcks (producer)

프로듀서가 승인한 수에 따라 리더는 요청 완료를 고려하기 전에 수령해야 합니다. 이렇게 하면 전송되는 레코드가 제어됩니다. 다음은 일반적인 설정입니다. acks=0이 0으로 설정되면 생산자는 서버에서 확인 메시지를 전혀 기다리지 않습니다. 레코드는 소켓 버퍼에 즉시 추가되고 전송된 것으로 간주됩니다. 이 경우 서버가 레코드를 수신했다고 보장할 수 없으며 재시도 구성이 적용되지 않습니다(클라이언트가 일반적으로 오류를 알 수 없기 때문입니다). 각 레코드에 대해 다시 지정된 오프셋은 항상 -1로 설정됩니다. acks=1 이는 리더가 로컬 로그에 레코드를 작성하지만 모든 로우더에서 완전히 승인하지 않고 응답합니다. 이 경우 리더는 레코드를 확인한 직후에 실패하지만, 그 후 그 로그가 복제되기 전에는 레코드가 손실됩니다. acks=all 이 경우 리더는 전체 동기화 복제본 세트에서 레코드를 인식할 때까지 대기합니다. 이렇게 하면 하나 이상의 동기화 복제본이 활성 상태로 유지되는 한 레코드가 손실되지 않습니다. 이것이 바로 사용 가능한 보장입니다.

1

문자열

requestTimeoutMs (producer)

브로커가 클라이언트로 오류를 보내기 전에 request.required.acks 요구 사항을 충족하려고 대기하는 시간입니다.

305000

정수

재시도 (producer)

값이 0보다 크면 클라이언트가 전송이 일시적인 오류로 실패한 레코드를 다시 보낼 수 있습니다. 이 재시도는 클라이언트가 오류를 수신할 때 레코드를 다시 생성하는 경우와 다릅니다. 두 개의 레코드가 단일 파티션으로 전송되고 첫 번째 실패하지만 두 번째 레코드가 실패하면 두 번째 레코드가 먼저 표시될 수 있으므로 재시도를 허용하면 레코드 순서가 변경될 수 있습니다.

0

정수

retryBackoffMs (producer)

각 재시도하기 전에 생산자는 관련 주제의 메타데이터를 새로 고침하여 새 리더가 선택되었는지 확인합니다. 리더 선택에는 시간이 다소 걸리기 때문에 이 속성은 생산자가 메타데이터를 업데이트하기 전에 대기하는 시간을 지정합니다.

100

정수

sendBufferBytes (producer)

소켓 쓰기 버퍼 크기

131072

정수

serializerClass (producer)

메시지에 대한 serializer 클래스입니다.

org.apache.kafka.common.serialization.StringSerializer

문자열

workerPool (producer)

kafka 서버가 비동기 차단되지 않은 처리를 사용하여 KafkaProducer에서 보낸 메시지를 확인한 후 계속해서 Exchange 라우팅에 사용자 지정 작업자 풀을 사용하려면 다음을 수행합니다.

 

ExecutorService

workerPoolCoreSize (producer)

kafka 서버가 비동기 비 차단 처리를 사용하여 KafkaProducer에서 보낸 메시지를 계속해서 라우팅하기 위한 작업자 풀의 코어 스레드 수입니다.

10

정수

workerPoolMaxSize (producer)

kafka 서버가 비동기 비 차단 처리를 사용하여 KafkaProducer에서 보낸 메시지를 계속 라우팅하기 위한 작업자 풀의 최대 스레드 수입니다.

20

정수

동기 (고급)

동기 처리를 엄격하게 사용해야 하는지 또는 Camel이 비동기 처리(지원되는 경우)를 사용할 수 있는지 여부를 설정합니다.

false

boolean

interceptorClasses (monitoring)

생산자 또는 소비자에 대한 인터셉터를 설정합니다. 프로듀서 인터셉터는 org.apache.kafka.clients.producer.producer.ProducerInterceptor를 구현하는 클래스여야 합니다. org.apache.kafka.clients.consumer.consumer.ConsumerInterceptor를 사용하는 경우 소비자에서 Producer interceptor를 사용하는 경우 런타임에서 클래스를 캐스팅합니다.

 

문자열

kerberosBeforeReloginMin 시간 (보안)

새로 고침 시도 간 로그인 스레드 수면 시간입니다.

60000

정수

kerberosInitCmd (security)

Kerberos kinit 명령 경로입니다. 기본값은 /usr/bin/kinit입니다.

/usr/bin/kinit

문자열

kerberosPrincipalToLocal 규칙 (보안)

사용자 이름에서 짧은 이름(일반적으로 운영 체제 사용자 이름)으로 매핑하는 규칙 목록입니다. 규칙은 순서대로 평가되고 보안 주체 이름과 일치하는 첫 번째 규칙은 짧은 이름에 매핑하는 데 사용됩니다. 목록의 모든 이후 규칙은 무시됩니다. 기본적으로 사용자 이름/hostnameREALM 형식의 주체 이름은 사용자 이름에 매핑됩니다. 형식에 대한 자세한 내용은 보안 권한 부여 및 ACL을 참조하십시오. 여러 값을 쉼표로 구분할 수 있습니다.

DEFAULT

문자열

kerberosRenewJitter (security)

임의 지터의 백분율이 갱신 시간에 추가되었습니다.

0.05

double

kerberosRenewWindowFactor (security)

로그인 스레드는 마지막 새로 고침에서 티켓 만료까지 지정된 시간 간격에 도달하여 티켓을 갱신하려고 할 때까지 유휴 상태가 됩니다.

0.8

double

saslJaasConfig (security)

kafka sasl.jaas.config 매개변수 예제: org.apache.kafka.common.security.plain.PlainLoginModule 필수 username=USERNAME password=PASSWORD;

 

문자열

saslKerberosServiceName (security)

Kafka가 실행되는 Kerberos 사용자 이름입니다. 이는 Kafka의 JAAS 구성 또는 Kafka의 구성에서 정의할 수 있습니다.

 

문자열

saslMechanism (security)

사용된 Simple Authentication and Security Layer (ECDHEL) 메커니즘입니다. 유효한 값은 http://www.iana.org/assignments/sasl-mechanisms/sasl-mechanisms.xhtml을 참조하십시오.

GSSAPI

문자열

securityProtocol (security)

브로커와 통신하는 데 사용되는 프로토콜입니다. 현재는 PLAINTEXT 및 SSL만 지원됩니다.

일반 텍스트

문자열

sslCipherSuites (보안)

암호화 제품군 목록입니다. 이는 TLS 또는 SSL 네트워크 프로토콜을 사용하여 네트워크 연결의 보안 설정을 협상하는 데 사용되는 인증, 암호화, MAC 및 키 교환 알고리즘의 이름이 지정된 조합입니다. 기본적으로 사용 가능한 모든 암호화 제품군이 지원됩니다.

 

문자열

sslContextParameters (security)

Camel SSLContextParameters 오브젝트를 사용하는 SSL 구성입니다. 구성된 경우 다른 SSL 끝점 매개변수보다 먼저 적용됩니다.

 

SSLContextParameters

sslEnabledProtocols (보안)

SSL 연결에 사용되는 프로토콜 목록입니다. TLSv1.2, TLSv1.1 및 TLSv1은 기본적으로 활성화되어 있습니다.

TLSv1.2,TLSv1.1,TLSv1

문자열

sslEndpointAlgorithm (security)

서버 인증서를 사용하여 서버 호스트 이름을 검증하는 끝점 식별 알고리즘입니다.

 

문자열

sslKeymanagerAlgorithm (security)

SSL 연결을 위해 키 관리자 팩토리에서 사용하는 알고리즘입니다. 기본값은 Java Virtual Machine에 대해 구성된 키 관리자 팩토리 알고리즘입니다.

SunX509

문자열

sslKeyPassword (security)

키 저장소 파일에 있는 개인 키의 암호입니다. 이는 클라이언트에는 선택 사항입니다.

 

문자열

sslKeystoreLocation (보안)

키 저장소 파일의 위치입니다. 클라이언트의 경우 선택 사항이며 클라이언트에 대한 양방향 인증에 사용할 수 있습니다.

 

문자열

sslKeystorePassword (security)

키 저장소 파일의 저장소 암호입니다. 클라이언트에는 선택 사항이며 ssl.keystore.location이 구성된 경우에만 필요합니다.

 

문자열

sslKeystoreType (security)

키 저장소 파일의 파일 형식입니다. 이는 클라이언트에는 선택 사항입니다. 기본값은 JKS입니다.

JKS

문자열

sslProtocol (security)

SSLContext를 생성하는 데 사용되는 SSL 프로토콜입니다. 기본 설정은 TLS이며 대부분의 경우 정상입니다. 최근 JVM에서 허용되는 값은 TLS, TLSv1.1 및 TLSv1.2입니다. SSL, SSLv2 및 SSLv3은 이전 JVM에서 지원되지만 알려진 보안 취약점으로 인해 사용이 권장되지 않습니다.

TLS

문자열

sslProvider (보안)

SSL 연결에 사용되는 보안 공급자의 이름입니다. 기본값은 JVM의 기본 보안 공급자입니다.

 

문자열

sslTrustmanagerAlgorithm (security)

SSL 연결을 위해 신뢰 관리자 팩토리에서 사용하는 알고리즘입니다. 기본값은 Java Virtual Machine에 대해 구성된 신뢰 관리자 팩토리 알고리즘입니다.

PKIX

문자열

sslTruststoreLocation (보안)

신뢰 저장소 파일의 위치입니다.

 

문자열

sslTruststorePassword (security)

신뢰 저장소 파일의 암호입니다.

 

문자열

sslTruststoreType (security)

신뢰 저장소 파일의 파일 형식입니다. 기본값은 JKS입니다.

JKS

문자열

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat