设为首页 加入收藏

TOP

hive 操作
2019-02-11 13:00:15 】 浏览:13
Tags:hive 操作

1、Hive操作演示

1.1内部表

1.1.1创建表并加载数据

第一步启动HDFS、YARN和Hive,启动完毕后创建Hive数据库

hive>create database hive;

hive>show databases;

hive>use hive;

第二步创建内部表

由于Hive使用了类似SQL的语法,所以创建内部表的语句相对SQL只增加了行和字段分隔符。

hive>CREATE

TABLE tab2(DT STRING,WEBSESSION STRING,WORD STRING,S_SEQ INT,C_SEQ

INT,WEBSITE STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES

TERMINATED BY '\n' ;

第三步加载数据

数据文件可以从HDFS或者本地操作系统加载到表中,如果加载HDFS文件使用LOAD DATA INPATH,而加载本地操作系统文件使用LOAD DATA LOCAL INPATH命令。HIVE表保存的默认路径在${HIVE_HOME}/conf/hive-site.xml配置文件的hive.metastore.warehouse.dir属性指定,当创建表时会在hive.metastore.warehouse.dir指向的目录下以表名创建一个文件夹,在本演示中表默认指向的是/user/hive/warehouse。

数据文件在本地操作系统将复制到表对应的目录中,而数据文件在HDFS中,数据文件将移动到表对应的目录中,原来的路径将不存在该文件。

hive>LOAD DATA LOCAL INPATH '/home/hadoop/upload/sogou/tab2.txt' INTO TABLE tab2;

在/user/hive/warehouse/hive.db/tab2目录下,可以看到tab2.txt数据文件:

1.1.2查询行数

可以用count关键字查询tab2.txt数据行数,查询时会启动MapReduce进行计算,Map的个数一般和数据分片个数对应,在本查询中有2个Map任务(数据文件有2个Block),1个Reduce任务。

hive>select count(*) from tab2;

1.1.3包含laopo的数据

可以用like关键字进行模糊查询,Map的个数一般和数据分片个数对应。

hive>select count(*) from tab2 where WEBSITE like '%laopo%';

1.1.4查询结果排名第1,点击次序排第2,其中URL包含google的数据

hive>select count(*) from tab2 where S_SEQ=1 and C_SEQ=2 and WEBSITE like '%google%';

1.2外部表

1.2.1创建表关联数据

第一步在HDFS创建外部表存放数据目录

$hadoop fs -mkdir -p /class5/tab1

$hadoop fs -ls /class5

第二步在Hive创建外部表,指定表存放目录

hive>CREATE

EXTERNAL TABLE tab1(DT STRING,WEBSESSION STRING,WORD STRING,S_SEQ

INT,C_SEQ INT,WEBSITE STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY

'\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE LOCATION

'/class5/tab1';

hive>show tables;

观察一下创建表和外部表的区别,会发现创建外部表多了EXTERNAL关键字以及指定了表对应存放文件夹LOCATION‘/class5/tab1

【注】在删除表的时候,内部表将删除表的元数据和数据文件;而删除外部表的时候,仅仅删除外部表的元数据,不删除数据文件

第三步加载数据文件到外部表对应的目录中

创建Hive外部表关联数据文件有两种方式,一种是把外部表数据位置直接关联到数据文件所在目录上,这种方式适合数据文件已经在HDFS存在,另外一种方式是创建表时指定外部表数据目录,随后把数据加载到该目录下。以下将以第二种方式进行演示:

$hadoop fs -copyFromLocal /home/hadoop/upload/sogou/tab1.txt /class5/tab1/

$hadoop fs -ls /class5/tab1

$hadoop fs -tail /class5/tab1/tab1.txt

1.2.2查询行数

hive>select count(*) from tab1;

1.2.3显示前10行

hive>select * from tab1limit 10;

可以看出Hive会根据查询不同任务决定是否生成Job,获取前10条并没有生成Job,而是得到数据后直接进行显示。

1.2.4查询结果排名第1,点击次序排第2的数据

hive>select count(*) from tab1where S_SEQ=1 and C_SEQ=2;

1.2.5查询次数排行榜

按照session号进行归组,并按照查询次数进行排序,最终显示查询次数最多的前10条。

hive>select WEBSESSION,count(WEBSESSION) as cw from tab1group by WEBSESSION order by cw desc limit 10;

2、交易数据演示

2.1准备数据

2.1.1上传数据

交易数据存放在该系列配套资源的/class5/saledata目录下,在/home/hadoop/upload创建class5目录用于存放本周测试数据

$cd /home/hadoop/upload

$mkdir class5

创建新文件夹后使用,使用SSH Secure File Transfer工具上传到/home/hadoop/upload/class5目录下,如下图所示:

9813147-b6f50e5aa161e4cb.jpg

2.1.2在Hive创建数据库和表

启动Hadoop集群,进入Hive命令行操作界面,使用如下命令创建三张数据表:

ltbDate定义了日期的分类,将每天分别赋予所属的月份、星期、季度等属性,字段分别为日期、年月、年、月、日、周几、第几周、季度、旬、半月;

ltbStock定义了订单表头,字段分别为订单号、交易位置、交易日期;

ltbStockDetail文件定义了订单明细,该表和tbStock以交易号进行关联,字段分别为订单号、行号、货品、数量、金额:

hive>use hive;

hive>CREATE TABLEtbDate(dateID

string,theyearmonth string,theyear string,themonth string,thedate

string,theweek string,theweeks

string,thequot string,thetenday string,thehalfmonth string) ROW FORMAT

DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' ;

hive>CREATE TABLEtbStock(ordernumber STRING,locationid string,dateID string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ','

LINES TERMINATED BY '\n' ;

hive>CREATE TABLEtbStockDetail(ordernumber STRING,rownum int,itemid string,qty int,price int ,amount int) ROW FORMAT DELIMITED

FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' ;

2.1.3导入数据

从本地操作系统分别加载日期、交易信息和交易详细信息表数据

hive>use hive;

hive>LOAD DATA LOCAL INPATH '/home/hadoop/upload/class5/saledata/tbDate.txt' INTO TABLE tbDate;

hive>LOAD DATA LOCAL INPATH '/home/hadoop/upload/class5/saledata/tbStock.txt' INTO TABLE tbStock;

hive>LOAD DATA LOCAL INPATH '/home/hadoop/upload/class5/saledata/tbStockDetail.txt' INTO TABLE tbStockDetail;

查看HDFS中相关SALEDATA数据库中增加了三个文件夹,分别对应三个表:

2.2计算所有订单每年的总金额

2.2.1算法分析

要计算所有订单每年的总金额,首先需要获取所有订单的订单号、订单日期和订单金信息,然后把这些信息和日期表进行关联,获取年份信息,最后根据这四个列按年份归组统计获取所有订单每年的总金额。

2.2.2执行HSQL语句

hive>use hive;

hive>select

c.theyear, sum(b.amount) from tbStock a,tbStockDetail b,tbDate c where

a.ordernumber=b.ordernumber and a.dateid=c.dateid group by c.theyear

order by c.theyear;


2.3计算所有订单每年最大金额订单的销售额

2.3.1算法分析

该算法分为两步:

1.按照日期和订单号进行归组计算,获取所有订单每天的销售数据;

2.把第一步获取的数据和日期表进行关联获取的年份信息,然后按照年份进行归组,使用Max函数,获取所有订单每年最大金额订单的销售额。

2.3.2执行HSQL语句

//所有订单每年最大金额订单的销售额

//第一步:

hive>use hive;

hive>select

a.dateid,a.ordernumber,sum(b.amount) as sumofamount from tbStock

a,tbStockDetail b where a.ordernumber=b.ordernumber group by

a.dateid,a.ordernumber;

//第二步:

hive>select

c.theyear,max(d.sumofamount) from tbDate c,(select

a.dateid,a.ordernumber,sum(b.amount) as sumofamount from tbStock

a,tbStockDetail b where a.ordernumber=b.ordernumber group by

a.dateid,a.ordernumber)

dwhere c.dateid=d.dateid group by c.theyear sort by c.theyear;

9813147-ee529f43d671e9ca.jpg

运行过程中创建两个Job,分别为job_1437659442092_0004和job_1437659442092_0005,运行过程如下:

9813147-287387fc034e7a14.jpg

9813147-3ed3cd037970c364.jpg

在YARN的资源管理器界面中可以看到如下界面:

9813147-47d004a3934ad853.jpg

其中job_1437659442092_0005运行的具体情况如下:

9813147-99dd93b145f3ae7a.jpg

2.3.3查看结果

整个计算过程使用了285秒,结果如下:

9813147-183051b0ccd2c96b.jpg

2.4计算其他金额

2.4.1所有订单中季度销售额前10位

//所有订单中季度销售额前10位

hive>use hive;

hive>select

c.theyear,c.thequot,sum(b.amount) as sumofamount from tbStock

a,tbStockDetail b,tbDate c where a.ordernumber=b.ordernumber and

a.dateid=c.dateid group by c.theyear,c.thequot order by sumofamount

desc limit 10;

200815252819

200744613093

200714446088

200613916638

200823886470

200733870558

200723782235

200643691314

200513592007

200533304243

9813147-70ad7bc5d031a39c.jpg

9813147-a4f43a2f50ec8363.jpg

2.4.2列出销售金额在100000以上的单据

//列出销售金额在100000以上的单据

hive>use hive;

hive>select

a.ordernumber,sum(b.amount) as sumofamount from tbStock a,tbStockDetail b

where a.ordernumber=b.ordernumber group by a.ordernumber having

sumofamount>100000;

9813147-92757eb76b3d91e1.jpg

2.4.3所有订单中每年最畅销货品

//所有订单中每年最畅销货品

第一步:

hive>use hive;

hive>select

c.theyear,b.itemid,sum(b.amount) as sumofamount from tbStock

a,tbStockDetail b,tbDate c where a.ordernumber=b.ordernumber and

a.dateid=c.dateid group by c.theyear,b.itemid;

第二步:

hive>select

d.theyear,max(d.sumofamount) as maxofamount from (select

c.theyear,b.itemid,sum(b.amount) as sumofamount from tbStock

a,tbStockDetail b,tbDate c where a.ordernumber=b.ordernumber and

a.dateid=c.dateid

group by c.theyear,b.itemid) d group by d.theyear ;

第三步:

hive>select distincte.theyear,e.itemid,f.maxofamount from (select c.theyear,b.itemid,sum(b.amount) as sumofamount from tbStock a,tbStockDetail b,tbDate c where a.ordernumber=b.ordernumber and a.dateid=c.dateid group by c.theyear,b.itemid) e , (select d.theyear,max(d.sumofamount) as maxofamount from (select c.theyear,b.itemid,sum(b.amount) as sumofamount from tbStock a,tbStockDetail b,tbDate c where a.ordernumber=b.ordernumber and a.dateid=c.dateid group by c.theyear,b.itemid) d group by d.theyear) f where e.theyear=f.theyear and e.sumofamount=f.maxofamount order by e.theyear;

2004JY42442081010153374

20052412411888010256569

2006JY425468460101113684

2007JY42546846010170226

2008E262820404010197981

2009YL32743908010230029

2010SQ4294250901014494


编程开发网
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇spark on hive原理与环境搭建 &nb.. 下一篇第20天:   嵌套复杂类型

评论

帐  号: 密码: (新用户注册)
验 证 码:
表  情:
内  容:

array(4) { ["type"]=> int(8) ["message"]=> string(24) "Undefined variable: jobs" ["file"]=> string(32) "/mnt/wp/cppentry/do/bencandy.php" ["line"]=> int(214) }