Sark Sql读取hive数据
来源:互联网 发布:海康威视有一个无网络 编辑:程序博客网 时间:2024/06/08 04:31
1、将hadoop的配置文件:hdfs-site.xml,core-site.html文件拷贝到spark的配置文件conf下
2、将hive的配置文件:hive-site.xml拷贝到spark的配置文件conf下
3、将连接hive元数据的mysql的jar包拷贝到spark的lib目录下
4、运行spark-shell命令,进入命令行,指定集群的地址,运行内存,运行core个数,以及连接hive元数据库的JAR包
./spark-shell --master spark://*.*.*.*:7077 --executor-memory 1g --total-executor-cores 2 --driver-class-path /hadoop/work/hadoop/spark-1.6.2-bin-hadoop2.4/lib/mysql-connector-java-5.1.28.jar
5、编程程序
import org.apache.spark.sql.hive.HiveContext
val hiveContext = new HiveContext(sc)
var result = hiveContext.sql("create table person(id int,name varchar(20),age int)")
result.collect.foreach(println)
运行结果:
6、打成jar包,提交到集群运行程序
SPARK_CLASSPATH=/hadoop/work/hadoop/spark-1.6.2-bin-hadoop2.4/lib/mysql-connector-java-5.1.28.jar ./spark-submit --class SqlHive --master spark://*.*.*.*:7077 /hadoop/work/hadoop/lib/WordCount.jar
object SqlHive{ def main(args: Array[String]): Unit = { val conf = new SparkConf(); conf.setAppName("SqlHive App") val sc = new SparkContext(conf) val hsc = new HiveContext(sc) val rdd = hsc.sql("select * from stoptime limit 10") val dfdesc = rdd.describe() rdd.collect().foreach(println) }
0 0
- Sark Sql读取hive数据
- spark-sql读取hive
- Spark SQL来读取现有Hive中的数据
- Spark SQL读取hive数据时报找不到mysql驱动
- hive读取es数据
- hiveContext读取hive数据
- hcatalog读取hive数据并写入hive
- Hive SQL 数据去重简析
- 使用hive读取hbase数据
- 使用hive读取hbase数据
- 使用hive读取hbase数据
- SparkSQL读取Hive中的数据
- Spark SQL读取Hive数据配置及使用Thrift JDBC/ODBC Server访问Spark SQL
- spark sql读取hive数据时报找不到mysql驱动的解决办法
- Hive 股票数据SQL分析[Hive 案例]
- hive 数据查询复杂SQL
- spark-sql读取hive挂载alluxio
- SQL 读取前几条数据
- Linux入门:shell编程
- 1668: [Usaco2006 Oct]Cow Pie Treasures 馅饼里的财富
- css下 让元素贴近容器的底部
- 编写程序将C / C++代码中的注释去掉
- Runtime简介
- Sark Sql读取hive数据
- Java 加密解密基础
- C++ 优化
- vb中line的用法
- DG的RFS进程不存在的解决办法
- Android 自定义View(四)IOS LoadingView
- vlc-for-android
- AJAX 跨域请求 - JSONP获取JSON数据
- Java byte数组与十六进制字符串互转