Sqoop(一)安装及基本使用
本文轉(zhuǎn)載自:https://www.cnblogs.com/yfb918/p/10411507.html
Sqoop:
sqoop底層還是執(zhí)行的mapreduce程序,但是特殊的地方只有map task
可以實現(xiàn):企業(yè)級數(shù)據(jù)倉庫、文檔型系統(tǒng)、關(guān)系型數(shù)據(jù)庫
sqoop安裝:
3.配置環(huán)境變量
export SQOOP_HOME=/yang/sqoop-1.4.6-cdh5.5.2 export PATH=$PATH:$SQOOP_HOME/bin開始使用:
前提:mysql可以正常使用
hdfs服務(wù)開啟start-dfs.sh start-yarn.sh
hive服務(wù)開啟 nohup hive --service metastore &
查看數(shù)據(jù)庫有哪些表
或者(上面大寫P會讓你在控制臺輸入密碼)
sqoop list-tables --connect jdbc:mysql://192.168.100.121:3306/big_data --username root --password 1234 sqoop list-tables --connect jdbc:mysql://192.168.100.121:3306/big_data --username root -P#使用 sqoop將數(shù)據(jù)庫的數(shù)據(jù)導(dǎo)入到 Hdfs(地址使用默認地址/user/$user/tabname)
斜杠后面不能有空格 而且需要啟動yarn,因為要sqoop底層要執(zhí)行mapreduce
當執(zhí)行報錯;classwrite的時候加入:–driver com.mysql.jdbc.Driver \
#使用sqoop將HDFS文件導(dǎo)出到 MYSQL 表中,默認MAP為 4個 ,先將空表建好t_area_copy1
sqoop export \ --connect jdbc:mysql://192.168.100.121:3306/big_data \ --driver com.mysql.jdbc.Driver \ --table t_area_copy1 \ --username root \ --password 1234 \ --export-dir hdfs://192.168.200.200:9000/sqoopmysql導(dǎo)入到hive:
注意需要啟動服務(wù):hive服務(wù)開啟 nohup hive --service metastore &
再來啟動hive
異常:org.apache.hadoop.hive.conf.HiveConf
Make sure HIVE_CONF_DIR is set correctly
解決:
在/etc/profile下面加上:
分布發(fā)送到其他主機上 source 一下
sqoop export \ --connect jdbc:mysql://192.168.100.121:3306/big_data \ 將hive的數(shù)據(jù)導(dǎo)出到mysql:是通過hdfs中的路徑導(dǎo)入到mysql中 如果需要通過導(dǎo)入指定行的話,需要建立中間表 --driver com.mysql.jdbc.Driver \ --table t_area1 \ //導(dǎo)入到mysql表t_area1 --username root \ --password 1234 \ --export-dir /user/hive/warehose/t_area \ 這個文件路徑從hdfs上知道 --input-fields-terminated-by ',' 是以,分割的總結(jié)
以上是生活随笔為你收集整理的Sqoop(一)安装及基本使用的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 19_clickhouse,数据查询与写
- 下一篇: 亚洲狮发动机油底壳多少钱一个?