hive on spark

在我学习hive的时候,按照官网上的demo,

// sc is an existing SparkContext.
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)")
sqlContext.sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")

// Queries are expressed in HiveQL
sqlContext.sql("FROM src SELECT key, value").collect().foreach(println)

根据此,在最后select 的时候一直都是NULL ,NULL(/在kv1.txt文件中我使用的是制表符隔开)后来发现是hive中默认的分隔符是/u0001(Ctrl+A),而后改成如下
sqlContext.sql("CREATE TABLE IF NOT EXISTS src1 (key INT, value STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '")
设置hive中的分隔符为tab键,则最后得到相应的结果。
ps:load数据的时候使用的是LOAD DATA LOCAL INPUT则指的是从本地中读入文件,如果把LOCAL去掉则表示从hdfs文件系统中加载数据。

原文地址:https://www.cnblogs.com/nolonely/p/5371195.html