314.7. Hive 작업
Instead of working with RDDs or DataFrame Spark component can also receive Hive SQL queries as payloads. To send Hive query to Spark component, use the following URI:
스파크 RDD 프로듀서
spark:hive
다음 스니펫에서는 메시지를 작업에 입력으로 보내고 결과를 반환하는 방법을 보여줍니다.
스파크 작업 호출
long carsCount = template.requestBody("spark:hive?collect=false", "SELECT * FROM cars", Long.class); List<Row> cars = template.requestBody("spark:hive", "SELECT * FROM cars", List.class);
쿼리를 실행하려는 테이블은 쿼리하기 전에 HiveContext에 등록되어야 합니다. 예를 들어 Spring에서 이러한 등록은 다음과 같을 수 있습니다.
스파크 RDD 정의
@Bean Dataset<Row> cars(HiveContext hiveContext) { jsonCars = hiveContext.read().json("/var/data/cars.json"); jsonCars.registerTempTable("cars"); return jsonCars; }