时间:2021-07-01 10:21:17 帮助过:4人阅读
##SqlServer作为元数据
$ sqoop import --connect ‘jdbc:sqlserver://IP:1433;username=NAME;password=PWD;database=DataName‘ --table T_SQOOP_TEST --where “$conditions” --target-dir ‘mydir‘ --delete-target-dir
$ sqoop import --hive-import --connect jdbc:mysql://IP:PORT/ --username USER --password ‘PASSWD‘ --table T_SQOOP_TEST --m 1--target-dir ‘mydir‘ --delete-target-dir参数说明:
参数名 |
参数说明 |
--hive-import | 数据导入到Hive |
--hive-overwrite | 覆盖Hive表中已存在的数据 |
--create-hive-table | 设置了此参数,导入时如果hive中表已经存在,则导入任务失败。默认为false |
--hive-table <table-name> | 指定导入到Hive中的表名 |
--hive-drop-import-delims | 导入Hive时,去除字符型字段中的\n(换行符),\r(回车符)和\01(标题开始符)字符。 |
--hive-delims-replacement | 导入Hive时,用用户定义的字符串替换字符型字段中的\n,\r和\01字符。 |
sqoop Mysql 导入到hdfs、hive
标签:oda ado 官网 连接 head map targe pwd 数字