Alex的Hadoop菜鸟教程:第8课Sqoop1导入Hbase以及Hive(二)

2015-07-24 10:45:25 · 作者: · 浏览: 8
tats: [num_partitions: 0, num_files: 4, num_rows: 0, total_size: 23, raw_data_size: 0] 14/12/02 15:12:14 INFO hive.HiveImport: OK 14/12/02 15:12:14 INFO hive.HiveImport: Time taken: 0.799 seconds 14/12/02 15:12:14 INFO hive.HiveImport: Hive import complete. 14/12/02 15:12:14 INFO hive.HiveImport: Export directory is empty, removing it.
这里说下真实环境中mysql的jdbc链接不要用localhost,因为这个任务会被分布式的发送不同的hadoop机子上,要那些机子真的可以通过jdbc连到mysql上才行,否则会丢数据
检查下hive
hive> select * from hive_employee;
OK
1	michael
2	ted
3	jack
Time taken: 0.179 seconds, Fetched: 3 row(s)

还有一点要声明下:目前sqoop只能从mysql导入数据到hive的原生表(也就是基于hdfs存储的),无法导入数据到外部表(比如基于hbase建立的hive表)
下课!下次讲导出!