所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

OceanStor 9000 V300R006C10 文件系统特性指南 05

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
(可选)迁移业务数据

(可选)迁移业务数据

如果对接前Cloudera Hadoop中已存在HDFS业务数据,则需要将这些数据迁移到OceanStor 9000中;否则,无需执行此操作。

前提条件

已成功对接Cloudera Hadoop。

为确保数据迁移成功,建议在验证步骤中由相关业务人员确认数据正确性和完整性。

如果HDFS、HBase、Hive中的一个或多个组件无业务数据,则无需执行该组件相关的迁移操作。

操作步骤

  1. 记录NameNode服务的IP地址。

    登录Cloudera Manager,选择HDFS > NameNode,单击主机名称,记录“IP”,如图14-23所示。

    图14-23  查看Active NameNode服务 IP地址

  2. 以root用户登录任意一个Hadoop节点。
  3. 迁移HDFS数据。

    迁移所有HDFS数据,下面以数据位于hdfs://namenode:8020/hdfs为例介绍。其中,namenode为Active NameNode服务的IP地址。

    hadoop fs -get hdfs://namenode:8020/hdfs /mnt/nfsdata0

  4. 停止HBase和Hive服务。
    1. 登录Cloudera Manager,单击HBase右侧的,选择“停止”,然后单击“停止”
    2. 单击Hive右侧的,选择“停止”,然后单击“停止”
  5. 迁移HBase数据。

    迁移所有HBase数据,下面以数据位于hdfs://namenode:8020/hbase为例介绍。其中,namenode为Active NameNode服务的IP地址。

    hadoop fs -get hdfs://namenode:8020/hbase /mnt/nfsdata0

  6. 迁移Hive数据。

    迁移所有Hive数据,下面以数据位于hdfs://namenode:8020/user/hive/warehouse为例介绍。其中,namenode为Active NameNode服务的IP地址。

    hadoop fs -get hdfs://namenode:8020/user/hive/warehouse /mnt/nfsdata0

  7. 调整Hive数据库参数。
    1. 以root用户登录Hive所在Hadoop节点。
    2. 登录Hive元数据库。
    3. 执行如下两条SQL语句。

      update DBS set DB_LOCATION_URI='nas:/user/hive/warehouse';
      update SDS set LOCATION='nas:/user/hive/warehouse/lineitem';

  8. 启动HBase和Hive服务。
    1. 登录Cloudera Manager,单击HBase右侧的,选择“启动”,然后单击“启动”
    2. 单击Hive右侧的,选择“启动”,然后单击“启动”

验证步骤

以root用户登录任意一个Hadoop节点,执行命令hadoop fs -ls /,确认数据正确性和完整性。

翻译
下载文档
更新时间:2019-03-30

文档编号:EDOC1000162199

浏览量:30611

下载量:108

平均得分:
本文档适用于这些产品
相关文档
相关版本
Share
上一页 下一页