博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
mysql-hive-hbase数据之间的传递-sqoop
阅读量:4160 次
发布时间:2019-05-26

本文共 3846 字,大约阅读时间需要 12 分钟。

1.将mysql数据导入hivea.普通表创建hive表格	CREATE TABLE hive.mysql_to_hive	(	id INT,	name STRING,	age INT	)	ROW FORMAT DELIMITED FIELDS TERMINATED BY ','	STORED AS TEXTFILE;	sqoop import \	--connect 'jdbc:mysql://candle:3306/sqoop' \	--username 'hive' \	--password 'hive' \	--as-textfile \	--table 'human' \	--mapreduce-job-name 'mysql to hdfs' \	--fields-terminated-by ',' \	--lines-terminated-by '\n' \	-m 1 \	--hive-import \	--hive-database 'hive' \	--hive-table 'mysql_to_hive'错误原因  hive中相关的包没有找到把export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*  添加环境变量 ~/.base_profileException in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hive/shims/ShimLoader	at org.apache.hadoop.hive.conf.HiveConf$ConfVars.
(HiveConf.java:370) at org.apache.hadoop.hive.conf.HiveConf.
(HiveConf.java:108) at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:264)19/01/17 23:15:34 ERROR hive.HiveConfig: Could not load org.apache.hadoop.hive.conf.HiveConf. Make sure HIVE_CONF_DIR is set correctly.19/01/17 23:15:34 ERROR tool.ImportTool: Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf at org.apache.sqoop.hive.HiveConfig.getHiveConf(HiveConfig.java:50) at org.apache.sqoop.hive.HiveImport.getHiveArgs(HiveImport.java:392) at org.apache.sqoop.hive.HiveImport.executeExternalHiveScript(HiveImport.java:379)b.mysql 通过查询语句插入分区表创建一个分区表 CREATE TABLE hive.mysql_to_hive1 ( id INT, name STRING, age INT ) PARTITIONED BY (sex STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE; sqoop import \ --connect 'jdbc:mysql://candle:3306/sqoop' \ --username 'hive' \ --password 'hive' \ --as-textfile \ --table 'human' \ --mapreduce-job-name 'mysql to hdfs' \ --fields-terminated-by ',' \ --lines-terminated-by '\n' \ -m 1 \ --hive-import \ --hive-database 'hive' \ --hive-table 'mysql_to_hive1' \ --hive-partition-key 'sex' \ --hive-partition-value 'male'2.mysql数据迁移到hbaseHBase arguments: --column-family
列族 Sets the target column family for the import --hbase-bulkload 批量 Enables HBase bulk loading --hbase-create-table 会自动创建 If specified, create missing HBase tables --hbase-row-key row key指定 Specifies which input column to use as the row key --hbase-table
表格 Import to
in HBase从mysql插入到hbase中,作为rowkey列不能有空列sqoop import \--connect 'jdbc:mysql://candle:3306/sqoop' \--username 'hive' \--password 'hive' \--table 'human' \--mapreduce-job-name 'mysql to hbase' \-m 1 \--hbase-create-table \--hbase-table 'hadoop:mysql_to_hbase1' \--column-family 'f1' \--hbase-row-key 'age'id为空Error: java.io.IOException: Could not insert row with null value for row-key column: id at org.apache.sqoop.hbase.ToStringPutTransformer.getPutCommand(ToStringPutTransformer.java:152) at org.apache.sqoop.hbase.HBasePutProcessor.accept(HBasePutProcessor.java:132) at org.apache.sqoop.mapreduce.DelegatingOutputFormat$DelegatingRecordWriter.write(DelegatingOutputFormat.java:128)c.hbase(hive)导出MySQL--创建hive表,和hbase表关联create external table hive.hbase_hive_human(rowkey string,id int,name string ) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties ("hbase.columns.mapping" = ":key,info:id,info:name" ,"hbase.table.name" = "hadoop:hbase_hive_human");--将外部表改为内部表create table hivetomysql ROW FORMAT DELIMITED FIELDS TERMINATED BY ','as select * from hbase_hive_human;--将内部表导出给MySQLsqoop export \--connect 'jdbc:mysql://wangfutai:3306/sqoop' \--username 'hive' \--password 'hive' \--table 'hbase_hive_human' \--export-dir '/user/wangfutai/hive/warehouse/hive.db/hivetomysql' \--num-mappers 1 \--mapreduce-job-name 'hive to mysql' \--fields-terminated-by ',' \--lines-terminated-by '\n'

 

转载地址:http://kwnxi.baihongyu.com/

你可能感兴趣的文章
hive 自定义函数jar发布的方法
查看>>
对DMA传输机制的学习
查看>>
QT中this指针
查看>>
java中的异常机制
查看>>
java SE面向对象思维导图
查看>>
数据结构常见排序
查看>>
Docker搭建各平台的启动命令集锦
查看>>
Docker第八篇-docker-compose教程(介绍,安装,入门示例)
查看>>
Docker第九篇-docker-compose命令和模板文件说明
查看>>
CSDN-markdown编辑器使用
查看>>
携程Apollo分布式配置中心安装使用
查看>>
Lucene搜索引擎-搜索
查看>>
Slor搜索引擎第一篇-初识
查看>>
Solr搜索引擎第二篇-单机安装、基本使用
查看>>
Linux下OpenJDK安装
查看>>
Solr搜索引擎第五篇-Schema模式和FieldType详解
查看>>
Solr搜索引擎第三篇-两种部署模式详解
查看>>
Solr搜索引擎第四篇-常用命令
查看>>
IntelliJ IDEA单独对java类打JAR包
查看>>
Solr搜索引擎第六篇-Solr集成中文分词器IKAnalyzer
查看>>