15장. Kafka에 연결


Apache Kafka는 데이터를 가져오고 게시하는 데 사용할 수 있는 분산 스트리밍 플랫폼입니다. 통합에서는 사용자가 지정하는 Kafka 주제의 데이터를 구독하거나 지정하는 Kafka 항목에 게시할 수 있습니다. 이렇게 하려면 Kafka에 대한 연결을 생성하고 통합 흐름에 해당 연결을 추가합니다. 자세한 내용은 다음 항목에 있습니다.

15.1. Kafka 브로커에 대한 연결 생성

통합에서 Kafka 주제의 데이터를 구독하거나 Kafka 항목에 데이터를 게시하려면 Kafka에 대한 연결을 생성한 다음 통합에 해당 연결을 추가합니다.

사전 요구 사항

  • For Red Hat Managed Kafka:

    • Kafka 인스턴스를 생성하고, 서비스 계정을 생성하고, Apache Kafka용 Red Hat OpenShift Streams 시작하기에 설명된 Kafka 주제를 설정했습니다. 서비스 계정의 클라이언트 ID 및 클라이언트 시크릿을 알고 있습니다.
    • Kafka 인스턴스의 부트스트랩 서버 URI를 알고 있습니다. 부트스트랩 서버 URI를 가져오려면 다음을 수행합니다.

      1. Red Hat Managed Services 웹 콘솔에 로그인합니다.
      2. 웹 콘솔 의 Kafka 인스턴스 페이지에서 연결하려는 관련 Kafka 인스턴스의 경우 옵션 아이콘(세로 점)을 선택한 다음 연결을 클릭하여 부트스트랩 서버 URI를 확인합니다.
  • PLAIN SSL 메커니즘의 경우 사용자 이름과 암호를 알고 있습니다.
  • TLS(Transport Layer Security)를 사용하여 데이터를 암호화하려면 Kafka 브로커의 PEM 인증서 텍스트가 있습니다. 일반적으로 Kafka 서버 관리자에서 브로커 인증서 텍스트를 가져옵니다.

절차

  1. Fuse Online의 왼쪽 패널에서 연결을 클릭하여 사용 가능한 연결을 표시합니다.
  2. 연결 만들기를 클릭하여 커넥터를 표시합니다.
  3. Kafka Message Broker 커넥터를 클릭합니다.
  4. Kafka 브로커 URI 필드에 이 연결에 액세스할 브로커를 입력하거나 선택하거나 Kafka 브로커 URI의 쉼표로 구분된 목록을 입력합니다. 각 URI는 host:port 형식이어야 합니다.

    Red Hat Managed Kafka는 관리형 Kafka 인스턴스의 부트스트랩 서버 URI를 입력합니다. OpenShift 클러스터에 Strimzi Operator 또는 AMQ Streams Operator를 설치한 경우 URI가 자동으로 검색되고 이를 선택할 수 있습니다.

  5. 보안 프로토콜 필드의 경우 다음 옵션 중 하나를 선택합니다.

    • 데이터를 암호화하여 전송 중에 보호하려면 TLS (Transport Layer Security)를 선택합니다. 단계 7로 건너뜁니다.
    • SASL으로 인증하고 SSL을 사용하여 데이터를 암호화하려면(예: Red Hat Managed Kafka 사용) SASL_SSL 을 선택합니다.
    • 데이터를 암호화하지 않으려면 Plain 을 선택한 다음 8 단계로 건너뜁니다.
  6. SASL_SSL보안 프로토콜 로 선택한 경우 인증 정보를 설정하려면 두 가지 옵션 중에서 선택해야 합니다.

    • PLAINSASL Mechanism 으로 사용하려면 UsernamePassword 필드를 설정해야 합니다.
    • OAUTHBEARERSASL 메커니즘으로 사용하려면 다음 필드를 설정해야 합니다.

      • OAuth 클라이언트 ID가 있는 사용자 이름입니다.
      • OAUth 클라이언트 시크릿을 사용한 암호 입니다.
      • SASL 로그인 콜백 핸들러 클래스는 kafka-clients 2.5 버전 또는 Strimzi 프로젝트의 kafka-oauth-client의 콜백 처리기 클래스 를 사용할 수 있습니다. Red Hat Managed Kafka에 연결하려면 다음을 사용합니다.

        io.strimzi.kafka.oauth.client.JaasClientOauthLoginCallbackHandler

      • 공급자가 제공하는 /oauth/token 엔드포인트 URI를 사용한 OAuth 토큰 끝점 URI입니다.
  7. 5단계에서 TLS 를 선택한 경우 Broker 인증서 필드에서 Kafka 브로커의 PEM 인증서 텍스트를 붙여넣습니다.
  8. 선택 사항: Add a custom property 를 클릭하여 key:value 쌍을 지정하여 Kafka 생산자 및 소비자 옵션을 구성합니다.

    예를 들어 새 통합에서 주제의 이전 메시지를 소비하려면 필드에 auto.offset.reset 값을 입력하고 Value 필드의 경우 가장 빠른 속도로 auto.offset.reset 값을 입력하여 기본 (최신)에서 가장 빨리 auto.offset.reset 값을 변경합니다.

    Kafka 생산자 구성 옵션에 대한 자세한 내용은 https://kafka.apache.org/documentation/#producerconfigs로 이동하십시오.

    Kafka 소비자 구성 옵션에 대한 자세한 내용은 https://kafka.apache.org/documentation/#consumerconfigs로 이동하십시오.

    참고: 구성 속성을 추가하는 경우 Fuse Online에서는 다음 단계에서 유효성 검사 프로세스의 일부로 포함되지 않습니다.

  9. Validate 를 클릭합니다. Fuse Online은 즉시 연결의 유효성을 검사하려고 시도하며 유효성 검사에 성공했는지 여부를 나타내는 메시지를 표시합니다. 유효성 검사가 실패하면 입력 매개변수를 수정하고 다시 시도합니다.
  10. 유효성 검사가 성공하면 다음을 클릭합니다.
  11. 이름 필드에 이 연결을 다른 연결과 구별하는 데 도움이 되는 이름의 선택을 입력합니다. 예를 들어 Kafka 테스트를 입력할 수 있습니다.
  12. 설명 필드에 선택적으로 이 연결에 대해 알 수 있는 정보를 입력합니다.
  13. 저장을 클릭하여 생성한 연결을 지금 사용할 수 있는지 확인합니다. 예제 이름을 입력한 경우 Kafka Test 가 통합에 추가하도록 선택할 수 있는 연결로 표시되는 것을 확인할 수 있습니다.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동