311.5. Hive 任务


 除了使用 RDD 或 DataFrame Spark 组件外,还可接收 Hive SQL 查询作为有效负载。 要将 Hive 查询发送到 Spark 组件,请使用以下 URI:

spark RDD producer

spark:hive

以下片段演示了如何将消息作为输入发送到作业并返回结果:

调用 spark 任务

long carsCount = template.requestBody("spark:hive?collect=false", "SELECT * FROM cars", Long.class);
List<Row> cars = template.requestBody("spark:hive", "SELECT * FROM cars", List.class);

在我们查询前,我们希望对 进行查询的表应在 HiveContext 中注册。例如,在 Spring 中,注册示例如下:

spark RDD 定义

@Bean
DataFrame cars(HiveContext hiveContext) {
    DataFrame jsonCars = hiveContext.read().json("/var/data/cars.json");
    jsonCars.registerTempTable("cars");
    return jsonCars;
}
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.