在Spring Boot中使用Hive,需要引入以下依赖:
<dependency> <groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-hadoop</artifactId> </dependency>
然后,在application.properties中配置Hive相关信息:
spring.hadoop.config.fs.defaultFS=hdfs://namenode:8020
spring.hadoop.config.hive.metastore.uri=thrift://metastore:9083
其中,fs.defaultFS指定HDFS的地址,hive.metastore.uri指定Hive的元数据服务地址。
使用Hive可以通过以下方式:
import org.apache.hadoop.hive.conf.HiveConf; import
org.apache.hadoop.hive.ql.Driver; import
org.apache.hadoop.hive.ql.parse.ParseException; import
org.apache.hadoop.hive.ql.parse.SemanticException; import
org.springframework.beans.factory.annotation.Autowired; import
org.springframework.stereotype.Service; import java.io.IOException; import
java.sql.SQLException; @Service public class HiveService { @Autowired private
HiveConf hiveConf; public void useHive() throws IOException, SQLException,
ParseException, SemanticException { Driver driver = new Driver(hiveConf);
driver.run("SHOW DATABASES"); } }
其中,HiveConf可以从Spring容器中自动注入。在这个例子中,使用Hive的Driver执行了一条SHOW DATABASES的SQL查询语句。