hive与hbase的导入导出
mysql的数据导入到hdfs sqoop import --connect jdbc:mysql://node01:3306/spark --username root --password 123 --table person --columns Id,name,age -m 1 --target-dir /sqoop2/data


然后用sqoop –option-file 文件名 就可以运行了
条件插入
sqoop import --connect jdbc:mysql://node01:3306/spark --username root --password 123 -e 'select id, name, age from person where id like "1" and $CONDITIONS' -m 1 --target-dir /sqoop2/data2
有where后面就要and $CONDITIONS 标识

导出
sqoop export --connect jdbc:mysql://node01/test --username root --password 123 -m 1 --columns id,name,age --export-dir /sqoop2/data --table h_psn

good厉害了
奥利给
奥利给
好
给你点赞
看了那么多博客,就你的能看懂
奥利给