所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

OceanStor 9000 V300R006C10 文件系统特性指南 05

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
验证对接状态

验证对接状态

验证是否已对接成功。

操作步骤

  1. 登录FusionInsight Hadoop Manager,检查Hadoop组件状态。

    图14-14所示,如果所有组件状态均为“Good”,表明状态正常。

    图14-14  检查Hadoop组件状态

  2. 检查HDFS Plugin是否已安装成功。
    1. 以root用户登录第一个Hadoop节点。
    2. 执行如下命令。

      node1:/ # df -h                                                      
      Filesystem                Size  Used Avail Use% Mounted on                     
      ...
      example.com:/hadoop_dir   33T   12G   33T   1% /mnt/nfsdata0   
      node1:/ # cd /mnt/nfsdata0                                                 
      node1:/mnt/nfsdata0 # ll                                                   
      total 68                                                                        
      -rw-r--r--  1 root root    21 Oct 23  2015 -root.Meta~$%^                       
      drwxrwxrwx  2 root root  4096 Oct 23  2015 encryption                           
      -rwxrwxrwx  1 root root    17 Oct 23  2015 encryption.Meta~$%^                  
      drwxrwxrwx  2 root root  4096 Oct 23  2015 flume                                
      -rwxrwxrwx  1 root root    18 Oct 23  2015 flume.Meta~$%^                       
      drwxrwxrwx  6 root root  4096 Oct 23  2015 hbase                                
      -rwxrwxrwx  1 root root    18 Oct 23  2015 hbase.Meta~$%^                       
      drwxrwxrwx  4 root root  4096 Oct 23  2015 mr-history                           
      -rwxrwxrwx  1 root root    19 Oct 23  2015 mr-history.Meta~$%^                  
      drwxrwxrwx  2 omm  wheel 4096 Oct 23  2015 sparkJobHistory                      
      -rwxrwxrwx  1 omm  wheel   21 Oct 23  2015 sparkJobHistory.Meta~$%^             
      drwxrwxrwx  6 root root  4096 Oct 23  2015 tmp                                  
      -rwxrwxrwx  1 root root    17 Oct 23  2015 tmp.Meta~$%^                         
      drwxrwxrwx 10 root root  4096 Oct 23  2015 user                                 
      -rwxrwxrwx  1 root root    17 Oct 23  2015 user.Meta~$%^                        

      如果存在“/mnt/nfsdata0”目录,该目录下存在多个数据目录与元数据文件(名称中包含“.Meta”的文件),表明已成功对接OceanStor 9000

    3. 执行如下命令。

      node1:/mnt/nfsdata0 # find /opt/huawei/Bigdata -name Share*.jar
      /opt/huawei/Bigdata/FusionInsight-Hadoop-2.7.1/hadoop/share/hadoop/common/lib/ShareNASFileSystem.jar
      /opt/huawei/Bigdata/FusionInsight-HBase-1.0.0/hbase/lib/ShareNASFileSystem.jar
      /opt/huawei/Bigdata/FusionInsight-Hive-1.1.0/hive-1.1.0/lib/ShareNASFileSystem.jar
      /opt/huawei/Bigdata/FusionInsight-Spark-1.3.0/spark/lib/ShareNASFileSystem.jar

      如果存在上述记录,表明jar文件已成功复制到本地。如果无需对接某些组件,这些组件对应的记录可能不再显示,请忽略。

    4. 重复2.a2.c,检查其他所有Hadoop节点。
  3. 登录Hadoop客户端。
    1. 以root用户登录任意一个Hadoop客户端。
    2. 进入Hadoop客户端安装路径(以/opt/client为例),请执行命令cd /opt/client
    3. 执行命令source bigdata_env配置客户端环境变量。
    4. 当FusionInsight Hadoop采用安全模式时,请先执行命令kinit admin,然后输入客户端用户登录密码。

      当FusionInsight Hadoop采用非安全模式时,请略过本操作。

  4. 在Hadoop客户端中尝试创建一个目录,确认业务状态是否正常。
    1. 执行如下命令。

      client:/opt/ficlient/HDFS # hadoop fs -mkdir /test
      ...
      client:/opt/ficlient/HDFS # hadoop fs -ls /
      ...
      Found 8 items
      drwxr-x---   - hdfs   hadoop           4096 2015-10-23 18:00 /encryption
      drwxr-x---   - flume  hadoop           4096 2015-10-23 18:00 /flume
      drwx------   - hbase  hadoop           4096 2015-10-23 18:49 /hbase
      drwxr-xr-x   - hdfs   hadoop           4096 2015-10-23 22:59 /test
      drwxrwxrwx   - mapred hadoop           4096 2015-10-23 18:00 /mr-history
      drwxrwxrwx   - spark  supergroup       4096 2015-10-23 18:54 /sparkJobHistory
      drwxrwxrwx   - hdfs   hadoop           4096 2015-10-23 18:54 /tmp
      drwxrwxrwx   - hdfs   hadoop           4096 2015-10-23 22:24 /user

      如果命令执行成功,且显示“/test”目录,表明业务状态正常。

      执行如下命令,清除测试数据。

      client:/opt/ficlient/HDFS # hadoop fs -rmdir /test

    2. 查看容量信息。

      执行命令hadoop fs -df -h /

      说明:

      当前版本不支持通过GUI界面查看OceanStor 9000容量信息。

翻译
下载文档
更新时间:2019-03-30

文档编号:EDOC1000162199

浏览量:30810

下载量:108

平均得分:
本文档适用于这些产品
相关文档
相关版本
Share
上一页 下一页