2.3. Red Hat Enterprise Linux에서 AMQ Streams를 사용하여 Debezium 배포
다음 절차에서는 Red Hat Enterprise Linux에서 Debezium에 대한 커넥터를 설정하는 방법을 설명합니다. 커넥터는 Apache Kafka와 외부 시스템 간에 데이터를 스트리밍하기 위한 프레임워크인 Apache Kafka Connect를 사용하여 AMQ Streams 클러스터에 배포됩니다. Kafka Connect는 독립 실행형 모드가 아닌 분산 모드에서 실행되어야 합니다.
사전 요구 사항
Debezium을 배포할 호스트 환경은 지원되는 구성에서 Red Hat Enterprise Linux, AMQ Streams 및 Java를 실행합니다.
- AMQ Streams 설치 방법에 대한 자세한 내용은 AMQ Streams 설치를 참조하십시오. https://access.redhat.com/documentation/en-us/red_hat_amq_streams/2.3/html-single/using_amq_streams_on_rhel/index#proc-installing-amq-streams-str
- 단일 ZooKeeper 노드와 단일 Kafka 노드가 포함된 기본 비프로덕션 스트림 클러스터를 설치하는 방법에 대한 자세한 내용은 단일 노드 AMQ Streams 클러스터 실행을 참조하십시오.
이전 버전의 AMQ Streams를 실행하는 경우 먼저 AMQ Streams 2.3으로 업그레이드해야 합니다. 업그레이드 프로세스에 대한 자세한 내용은 AMQ Streams 및 Kafka 업그레이드를 참조하십시오.
-
호스트에 대한 관리 권한(
sudo액세스)이 있습니다. - Apache ZooKeeper 및 Apache Kafka 브로커가 실행 중입니다.
- Kafka Connect는 독립 실행형 모드가 아닌 분산 모드로 실행됩니다.
-
AMQ Streams를 설치할 때 생성된
kafka사용자의 인증 정보를 알고 있습니다. - 소스 데이터베이스가 배포되고 Debezium을 배포하는 호스트는 데이터베이스에 액세스할 수 있습니다.
- 커넥터를 구성하는 방법을 알고 있습니다.
절차
- Red Hat Integration 다운로드 사이트에서 사용하려는 Debezium 커넥터 또는 커넥터를 다운로드합니다. 예를 들어 MySQL 데이터베이스와 함께 Debezium을 사용하려면 Debezium 2.1.4 MySQL Connector 를 다운로드합니다.
AMQ Streams를 배포한 Red Hat Enterprise Linux 호스트에서 터미널 창을 열고
/opt/kafka에connector-plugins디렉터리를 생성합니다.sudo mkdir /opt/kafka/connector-plugins
$ sudo mkdir /opt/kafka/connector-pluginsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 다음 명령을 입력하여
/opt/kafka/connector-plugins디렉터리에 다운로드한 Debezium 커넥터 아카이브의 콘텐츠를 추출합니다.sudo unzip debezium-connector-mysql-2.1.4.Final.zip -d /opt/kafka/connector-plugins
$ sudo unzip debezium-connector-mysql-2.1.4.Final.zip -d /opt/kafka/connector-pluginsCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 설치하려는 각 커넥터에 대해 1~3단계를 반복합니다.
터미널 창에서
kafka사용자로 로그인합니다.su - kafka Password:
$ su - kafka $ Password:Copy to Clipboard Copied! Toggle word wrap Toggle overflow Kafka Connect 프로세스가 실행 중인 경우 중지합니다.
다음 명령을 입력하여 Kafka Connect가 분산 모드에서 실행 중인지 확인합니다.
jcmd | grep ConnectDistributed
$ jcmd | grep ConnectDistributedCopy to Clipboard Copied! Toggle word wrap Toggle overflow 프로세스가 실행 중인 경우 명령에서 프로세스 ID를 반환합니다. 예를 들면 다음과 같습니다.
18514 org.apache.kafka.connect.cli.ConnectDistributed /opt/kafka/config/connect-distributed.properties
18514 org.apache.kafka.connect.cli.ConnectDistributed /opt/kafka/config/connect-distributed.propertiesCopy to Clipboard Copied! Toggle word wrap Toggle overflow 프로세스 ID로
kill명령을 입력하여 프로세스를 중지합니다. 예를 들면 다음과 같습니다.kill 18514
$ kill 18514Copy to Clipboard Copied! Toggle word wrap Toggle overflow
/opt/kafka/config/에서connect-distributed.properties파일을 편집하고 Debezium 커넥터 플러그인의 상위 디렉터리 위치로plugin.path값을 설정합니다.plugin.path=/opt/kafka/connector-plugins
plugin.path=/opt/kafka/connector-pluginsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 분산 모드에서 Kafka Connect를 시작합니다.
/opt/kafka/bin/connect-distributed.sh /opt/kafka/config/connect-distributed.properties
$ /opt/kafka/bin/connect-distributed.sh /opt/kafka/config/connect-distributed.propertiesCopy to Clipboard Copied! Toggle word wrap Toggle overflow Kafka Connect가 실행된 후 Kafka Connect API를 사용하여 커넥터를 등록합니다.
curl명령을 입력하여 2.2절. “Debezium 커넥터 구성 계획” 에 지정한 커넥터 구성 JSON을localhost:8083/connectors의 Kafka Connect REST API 엔드포인트에 전송하는POST요청을 제출합니다.
예를 들면 다음과 같습니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 여러 커넥터를 등록하려면 각각에 대해 별도의 요청을 제출합니다.
Kafka Connect를 다시 시작하여 변경 사항을 구현합니다.
Kafka Connect가 시작되면
connector-plugins디렉터리에서 구성된 Debezium 커넥터를 로드합니다.구성을 완료한 후 배포된 커넥터는 소스 데이터베이스에 연결되고 삽입, 업데이트 또는 삭제된 행 또는 문서에 대한 이벤트를 생성합니다.
- 각 Kafka Connect 작업자 노드에 대해 5-10단계를 반복합니다.
다음 단계
추가 리소스