打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
HIVE 数据迁移
-

项目中需要把开发环境中的表与数据迁移到生产环境,hive中没有提供直接工具,但是可以利用hive提供的export/import 工具实现批量同步。

具体使用参考 ImportExport


1. 设置默认需要导出的hive数据库
vi ~/.hiverc
use logbase;
2. 创建数据临时目录
hdfs dfs -mkdir /tmp/hive-export
3.生成导出数据脚本
hive -e "show tables " | awk '{printf "export table %s to @/tmp/hive-export/%s@;\n",$1,$1}' | sed "s/@/'/g" > export.hql
手工去掉第一行(因为第一行是tab_name,不是实际表)
4.手工导出数据到hdfs
hive -f export.hql
5. 下载hdfs数据到本地并传送到目标hadoop集群的/tmp/hive-export 目录
hdfs dfs -get /tmp/hive-export/*
hdfs dfs -put * /tmp/hive-export
 7.构造导入语句
cp export.sql import.sql
sed -i 's/export table/import table/g' import.sql
sed -i 's/ to / from /g' import.sql
8.导入数据 (第5步上传的路径一定要与导出的路径一致,如果目标数据库不是default,需要编辑目标集群的 ~/.hiverc文件)
hive -f import.sql 

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Hadoop数据传输工具sqoop
SQOOP安装手册(附安装文件)
Sqoop
Sqoop学习之路 (一)
sqoop 常用命令整理(一)
hive和hbase的区别以及使用场景图
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服