所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

FusionCloud 6.3.1 故障处理 06

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
基础设施类故障

基础设施类故障

CPS服务不可用

现象描述

执行CPS的CLI命令,没有成功返回,或者返回错误“Connection refused!”。例如执行cpssafe命令进入安全模式,选择1,按照提示输入用户名和密码后再按照提示输入命令查看主机的状态。

cps host-list

命令执行后没有返回,或者提示如下信息:

Connection refused!
可能原因
  • 网络故障。
  • 鉴权模式打开情况下,配置DNS错误,导致cps命令不可用。
  • 控制节点所在主机提供CPS服务的socket端口异常。
处理步骤
  1. 使用“PuTTY”,通过External OM平面IP地址登录AZ内任意一台主机。

    帐号:fsp,默认密码:Huawei@CLOUD8
    说明:
    • 系统同时支持密码和公私钥对身份进行认证,如果使用公私钥对进行登录认证请参见使用PuTTY通过公私钥对认证方式登录节点
    • External OM平面IP地址请参考软件安装阶段FusionCloud Deploy导出的参数信息汇总文件《xxx_export_all.xlsm》的“FCD生成的LLD”页签搜索对应参数名称获取。不同场景参数名称如下所示:
      • Region Type I场景级联层:Cascading-ExternalOM-Reverse-Proxy,被级联层:Cascaded-ExternalOM-Reverse-Proxy。
      • Region Type II和Type III场景:ExternalOM-Reverse-Proxy。

  2. 执行以下命令切换到“root”用户。

    su - root

    “root”用户的默认密码为“Huawei@CLOUD8!”。

  3. 执行TMOUT=0防止会话超时退出。
  4. 导入环境变量。

    具体操作请参见导入环境变量

  5. 执行如下命令,查询提供CPS服务的IP是否能够ping通。

    ping CPS服务所在主机的管理IP

    CPS服务所在主机的管理IP:CPS服务所在主机的IP地址固定为“172.28.8.130”。

  6. 联系运维人员恢复网络。重新执行CPS命令,查看是否能正常运行。

    • 是,执行结束。
    • 否,执行步骤 7

  7. 执行以下命令通过ssh登录控制节点主机。

    一般控制节点主机为安装时最先安装的三台主机,此时IP地址依次为172.28.0.2、172.28.0.3、172.28.0.4,具体请从管理员处获取。如果管理员未记录,请联系技术支持工程师协助解决

    su - fsp

    ssh fsp@IP地址

    按照提示输入系统私钥密码,默认私钥密码是“Huawei@CLOUD8!”。如果已生成并替换了新的公私钥文件,请输入新私钥密码。或者直接按“Enter”后按照提示输入fsp用户的密码登录。

    然后执行su - root并输入root用户密码切换到root用户。

  8. 执行以下命令强制关闭鉴权模式。

    sed -i 's/"auth_mode": "True"/"auth_mode": "False"/g' /etc/huawei/fusionsphere/cps.cps-client/cfg/cps.cps-client.cfg

    sed -i 's/"auth_mode": "True"/"auth_mode": "False"/g' /etc/huawei/fusionsphere/cps.cps-server/cfg/cps.cps-server.cfg

    sed -i 's/auth_mode = True/auth_mode = False/g' /usr/local/bin/cps-client/cps_client/cps_client.ini

    sed -i 's/auth_mode = True/auth_mode = False/g' /usr/local/bin/cps-server/cps_server/cps-server.ini

  9. 执行以下命令关闭CPS服务进程。

    kill -9 `ps -eo pid,cmd ww | grep ' /usr/local/bin/cps-server/cps_server/cpsserver.py'| grep -v grep| awk '{print $1}'`

  10. 重复执行步骤 7步骤 9,在另外两台控制节点主机进行操作。
  11. 在当前登录的任意一台主机执行cps host-list命令,显示完整主机列表则表示cps服务已自动重启成功。
  12. 执行以下命令查看当前DNS配置。

    cps template-params-show --service dns dns-server

    显示类似如下信息:

    +----------+------------------------------------------+ 
    | Property | Value                                    | 
    +----------+------------------------------------------+ 
    | address  | /az1.dc1.domainname.com/192.168.211.10,/ | 
    |          | identity.az1.dc1.domainname.com/192.168. | 
    |          | 211.10,/image.az1.dc1.domainname.com/192 | 
    |          | .168.211.10                              | 
    | network  | []                                       | 
    | server   |                                          | 
    +----------+------------------------------------------+

  13. 查看所配置的DNS信息所对应的IP地址,如果有误,使用如下命令修改。

    cps template-params-update --service dns dns-server --parameter address=/address/IP

    多条DNS信息中间用英文“,”分隔。DNS地址的详细说明可参见《FusionCloud 6.3.1 运维指南》(可选)修改系统配置章节。

  14. 执行以下命令提交配置。

    cps commit

  15. 执行以下命令确认配置已正确写入配置文件。

    cat /etc/dnsmasq.conf | grep address=

  16. 待配置正确后,执行以下命令重新开启鉴权模式。

    sed -i 's/"auth_mode": "False"/"auth_mode": "True"/g' /etc/huawei/fusionsphere/cps.cps-client/cfg/cps.cps-client.cfg

    sed -i 's/"auth_mode": "False"/"auth_mode": "True"/g' /etc/huawei/fusionsphere/cps.cps-server/cfg/cps.cps-server.cfg

    sed -i 's/auth_mode = False/auth_mode = True/g' /usr/local/bin/cps-client/cps_client/cps_client.ini

    sed -i 's/auth_mode = False/auth_mode = True/g' /usr/local/bin/cps-server/cps_server/cps-server.ini

  17. 执行以下命令关闭CPS服务进程。

    kill -9 `ps -eo pid,cmd ww | grep ' /usr/local/bin/cps-server/cps_server/cpsserver.py'| grep -v grep| awk '{print $1}'`

  18. 重复执行步骤 16步骤 17,在另外两台控制节点主机进行操作。
  19. 再次开启鉴权模式后,重新执行CPS命令,查看是否能正常运行。

    • 是,执行结束。
    • 否,执行步骤 20

  20. 执行以下操作,登录CPS服务所在的主机。

    ssh fsp@管理IP

    su - root

  21. 导入环境变量
  22. 执行如下命令,查询CPS服务监听的端口状态。

    netstat -anp | grep 8000 | grep 130

    显示结果类似如下:

    tcp        0      0 172.28.8.130:8000       0.0.0.0:*               LISTEN      -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58434        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59575        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59759        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58449        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58437        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59765        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58439        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58451        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58450        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59748        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58243        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58441        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58245        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58443        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59749        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58444        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59750        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58250        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59755        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59758        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59751        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59760        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58442        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.3:49066        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58436        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59763        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59754        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59752        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59762        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.3:47725        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58446        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58438        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59572        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59753        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59764        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59578        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58445        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58440        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59757        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58435        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58452        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58448        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59561        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59761        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:59756        TIME_WAIT   -                    
    tcp        0      0 172.28.8.130:8000       172.28.0.2:58248        TIME_WAIT   - 

    检查上述结果中的倒数第二列,是否存在大量的SYN_RECV或CLOSE_WAIT状态。

  23. 执行如下命令,获取CPS服务的进程ID。

    ps -ef | grep cpsserver.py | grep -v grep | awk -F ' ' '{print $2}'

    能够成功得到进程ID,类似如下结果:

    25567

  24. 执行如下命令,关闭查询到的所有服务进程。

    kill -9 进程ID

    echo $?

    进程ID:为步骤 23操作得到的进程id。

    判断显示命令执行结果为0,如下显示:

    0

  25. 等待1分钟,执行cpssafe命令进入安全模式,选择1,按照提示输入密码后再按照提示输入命令,验证修复结果。

    cps host-list

    能够显示如下信息。

    +--------------------------------------+-----------+----------------------+--------+------------+------+ 
    | id                                   | boardtype | roles                | status | manageip   | omip | 
    +--------------------------------------+-----------+----------------------+--------+------------+------+ 
    | D826749C-FD53-118E-8567-000000821800 | BC21THSA  | auth,                | normal | 172.28.6.1 |      | 
    |                                      |           | blockstorage-driver, |        |            |      | 
    |                                      |           | compute,             |        |            |      | 
    |                                      |           | controller,          |        |            |      | 
    |                                      |           | database,            |        |            |      | 
    |                                      |           | image,               |        |            |      | 
    |                                      |           | measure,             |        |            |      | 
    |                                      |           | rabbitmq,            |        |            |      | 
    |                                      |           | router,              |        |            |      | 
    |                                      |           | sys-server           |        |            |      | 
    | 57CB4932-E26B-1167-8567-000000821800 | BC21THSA  | auth,                | normal | 172.28.0.2 |      | 
    |                                      |           | blockstorage-driver, |        |            |      | 
    |                                      |           | compute,             |        |            |      | 
    |                                      |           | controller,          |        |            |      | 
    |                                      |           | database,            |        |            |      | 
    |                                      |           | image,               |        |            |      | 
    |                                      |           | measure,             |        |            |      | 
    |                                      |           | mongodb,             |        |            |      | 
    |                                      |           | router,              |        |            |      | 
    |                                      |           | sys-server           |        |            |      | 
    +--------------------------------------+-----------+----------------------+--------+------------+------+
    • 是,执行结束。
    • 否,执行步骤 26

  26. 请联系技术支持工程师协助解决

主备服务出现双备故障

现象描述

正常情况下为主备状态的服务出现双备。主备服务出现双备的场景包括:执行cps template-instance-list --service service_name template_name,发现所有的实例状态为“standby”,且持续时间超过5分钟。

可能原因

zookeeper数据不一致。需要重新触发该服务的主备仲裁,恢复其主备状态。

处理步骤
  1. 使用“PuTTY”,登录AZ内第一台主机。

    帐号:fsp,默认密码:Huawei@CLOUD8

    说明:
    • 系统同时支持密码和公私钥对身份进行认证,如果使用公私钥对进行登录认证请参见使用PuTTY通过公私钥对认证方式登录节点
    • External OM平面IP地址请参考软件安装阶段FusionCloud Deploy导出的参数信息汇总文件《xxx_export_all.xlsm》的“FCD生成的LLD”页签搜索对应参数名称获取。不同场景参数名称如下所示:
      • Region Type I场景级联层:Cascading-ExternalOM-Reverse-Proxy,被级联层:Cascaded-ExternalOM-Reverse-Proxy。
      • Region Type II和Type III场景:ExternalOM-Reverse-Proxy。

  2. 执行以下命令切换到“root”用户。

    su - root

    “root”用户的默认密码为“Huawei@CLOUD8!”。

  3. 执行TMOUT=0防止会话超时退出。
  4. 导入环境变量,具体操作请参见导入环境变量
  5. 执行以下命令,查询zookeeper服务器的IP地址段。

    ip addr show | grep zk-s | awk -F '/' '{print $1}' | awk -F ' ' '{print $2}' | awk -F '.' '{print $1"."$2"."$3}'

    回显如下类似信息:

    172.28.8

    根据上述查询到的IP地址段,分别得到zookeeper的IP地址为172.28.8.121、172.28.8.122、172.28.8.123

  6. 执行如下命令,登录对应的zookeeper服务器,其中的server_ip为上一步中获取到的zookeeper三个IP地址中的第一个IP地址。

    export JAVA_HOME=/usr/lib/jre

    sh /usr/local/bin/zookeeper/zookeeper/bin/zkCli.sh -server server_ip:9880

  7. 执行以下命令设置zookeeper的acl认证数据。

    addauth digest zookeeper:cps200@HW

  8. 执行以下命令查询出现双备的服务的仲裁节点队列。

    ls /cps/runtime/srvdeploy/service_name.template_name/haarbitration

    其中service_nametemplate_name分别对应服务名和组件名,如haproxy.haproxy,显示信息如下:

    [10000000004, 10000000003]

  9. 执行以下命令退出登录的zookeeper服务器。

    quit

  10. 重复执行步骤 6步骤 9,依次使用zookeeper的三个IP地址登录对应的服务器,查询对应的仲裁节点序列。
  11. 比较不同的服务器中的仲裁节点序列是否一致。

    • 是,执行步骤 12
    • 否,请联系技术支持工程师协助解决

  12. 依次登录三个控制节点,执行以下命令:

    export JAVA_HOME=/usr/lib/jre

    sh /usr/local/bin/zookeeper/zookeeper/bin/zkServer.sh status /usr/local/bin/zookeeper/zookeeper/conf/zoo_Clusters.cfg

    回显如下类似信息:

    JMX disabled by user request 
    Using config: /usr/local/bin/zookeeper/zookeeper/conf/zoo_Clusters.cfg 
    Mode: leader

    待查询出来的“Mode”为“leader”时,则可以进行下一步操作。

  13. 执行以下命令,停止zookeeper进程。

    kill -9 `ps -ef | grep -v grep | grep /usr/local/bin/zookeeper | awk -F ' ' '{print $2}'`

  14. 等待zookeeper服务停止成功,等待5秒执行如下命令。

    export JAVA_HOME=/usr/lib/jre

    sh /usr/local/bin/zookeeper/zookeeper/bin/zkServer.sh status /usr/local/bin/zookeeper/zookeeper/conf/zoo_Clusters.cfg

    回显如下类似信息:

    JMX disabled by user request 
    Using config: /usr/local/bin/zookeeper/zookeeper/conf/zoo_Clusters.cfg 
    Mode: follower     

    回显信息是否如上所示。

    • 是,执行步骤 15
    • 否,等待2分钟,若仍无法显示,请联系技术支持工程师协助解决

  15. 执行以下命令,查询服务的主备状态。

    cps template-instance-list --service service name template name

    service nametemplate name分别代表服务名和组件名。

    例如,查询haproxy服务的主备状态,执行命令如下:

    cps template-instance-list --service haproxy haproxy

    回显如下类似信息,表示主备状态正常。

    +------------+---------------------------------+---------+------------+ 
    | instanceid | componenttype                   | status  | runsonhost | 
    +------------+---------------------------------+---------+------------+ 
    | 0          | haproxy-2015.1.521-1.noarch.rpm | standby | 106control | 
    | 1          | haproxy-2015.1.521-1.noarch.rpm | active  | 107control | 
    +------------+---------------------------------+---------+------------+     

    可每隔10秒查询一次,查看是否恢复主备。

    • 是,结束。
    • 否,若查询状态全部为“standby”超过5分钟,请联系技术支持工程师协助解决

服务对接的远端存储故障

现象描述

服务(包括image、image-cache、mongodb)对接的远端存储的磁盘故障。

可能原因

远端存储硬件故障导致服务所使用的LUN无法读写数据。

处理步骤
  1. 参考所使用的远端存储的故障处理手册,处理远端存储自身的故障。
  2. 删除各主机上所有使用本地镜像启动的虚拟机。

    使用本地镜像启动的虚拟机包括通过FusionSphere OpenStack创建的所有管理虚拟机,可通过FusionSphere OpenStack安装部署界面删除。

  3. 查询当前系统中各主机使用的磁盘规则。

    1. 在FusionSphere OpenStack安装部署界面的“配置 > 磁盘”页面查询各主机分组,找出使用了故障远端存储的主机分组,并记录该分组下的主机ID。
    2. 使用“PuTTY”,通过External OM平面IP地址登录FusionSphere OpenStack控制节点。
      帐号:fsp,默认密码:Huawei@CLOUD8
      说明:
      • 系统同时支持密码和公私钥对身份进行认证,如果使用公私钥对进行登录认证请参见使用PuTTY通过公私钥对认证方式登录节点
      • External OM平面IP地址请参考软件安装阶段FusionCloud Deploy导出的参数信息汇总文件《xxx_export_all.xlsm》的“FCD生成的LLD”页签搜索对应参数名称获取。不同场景参数名称如下所示:
        • Region Type I场景级联层:Cascading-ExternalOM-Reverse-Proxy,被级联层:Cascaded-ExternalOM-Reverse-Proxy。
        • Region Type II和Type III场景:ExternalOM-Reverse-Proxy。
    3. 执行以下命令切换到“root”用户。

      su - root

      “root”用户的默认密码为“Huawei@CLOUD8!”。

    4. 执行TMOUT=0防止会话超时退出。
    5. 导入环境变量,具体操作请参见导入环境变量
    6. 执行以下命令查看系统中配置的磁盘规则。

      cps hostcfg-list --type storage

      显示类似如下信息:

      +---------+-------------------+--------------------------------+ 
      | type    | name              | hosts                          | 
      +---------+-------------------+--------------------------------+ 
      | storage | default           | default:all                    | 
      |         |                   |                                | 
      | storage | control_group0    | hostid:first-node, second-node | 
      |         |                   |                                | 
      | storage | compute_group0    | hostid:forth-node              | 
      |         |                   |                                | 
      | storage | control_group1    | hostid:third-node              | 
      +---------+-------------------+--------------------------------+     

      其中,hosts列表示磁盘规则匹配条件,目前支持的匹配条件优先级:mac > hostid > boardtype > role > default:all

      根据主机ID的对应关系,找到需要处理的磁盘规则。

    7. 执行以下命令查询并记录该磁盘规则中各服务所占用磁盘分区大小。

      cps hostcfg-show --type storage ${hostcfg_name}

      其中,

      • “${hostcfg_name}”为查询到需要处理的磁盘规则的名称。
      • image、image-cache、mongodb服务对应的分区名称分别为image、image-cache、ceilometer-data,需记录这三个分区的大小。

  4. 删除磁盘规则中使用的远端存储。

    cps hostcfg-item-delete --item logical-volume --lvname ${lv_name} --type storage ${hostcfg_name}

    cps commit

    其中,

    • image、image-cache、mongodb服务对应的“${lv_name}”分别为image、image-cache、ceilometer-data。
    • “${hostcfg_name}”为查询到需要处理的磁盘规则的名称。

  5. 手动重启使用该磁盘规则的所有主机。

    如果多台主机都使用了该规则,则需要依次重启,即一台主机重启成功且服务运行正常后,再重启下一台主机。

  6. 在FusionSphere OpenStack安装部署界面的“配置 > 磁盘”页面重新配置远端存储。
  7. 在已登录的主机,创建新的磁盘规则。

    如果主机均被重启,需要使用PuTTY重新登录。

    cps hostcfg-add --type storage ${new_hostcfg_name}

    cps commit

    新的磁盘规则名称需要以“control_”开头。

    说明:

    如果涉及的主机有多种不同配置(只有型号、硬件配置、硬件规格、所用槽位号等完全一致的主机才能被认为是相同配置),需要创建多个磁盘规则,数量与主机种类数量相同。

  8. 配置新的磁盘规则与原磁盘规则一致。

    cps hostcfg-item-update --item logical-volume --lvname image --size ${size} --type storage ${new_hostcfg_name}

    cps commit

    cps hostcfg-item-update --item logical-volume --lvname image-cache --size ${size} --type storage ${new_hostcfg_name}

    cps commit

    cps hostcfg-item-update --item logical-volume --lvname ceilometer-data --size ${size} --type storage ${new_hostcfg_name}

    cps commit

    其中,“${size}”对应原规则中分区的大小。

  9. 更新分区的后端存储类型为远端存储。

    cps hostcfg-item-update --item logical-volume --lvname image --backendtype remote --type storage ${new_hostcfg_name}

    cps commit

    cps hostcfg-item-update --item logical-volume --lvname image-cache --backendtype remote --type storage ${new_hostcfg_name}

    cps commit

    cps hostcfg-item-update --item logical-volume --lvname ceilometer-data --backendtype remote --type storage ${new_hostcfg_name}

    cps commit

  10. 将应用原磁盘规则的主机从原规则中删除,添加到新的磁盘规则中。

    cps hostcfg-host-delete --type storage --host hostid=${hostid} --type storage ${hostcfg_name}

    cps hostcfg-host-add --type storage --host hostid=${hostid} --type storage ${new_hostcfg_name}

    多个主机ID之间使用英文“,”隔开。

    说明:
    • 不同配置的主机需要加入到不同的磁盘规则中。
    • 原规则中主机全部移除后,需要在FusionSphere OpenStack安装部署界面的“配置 > 磁盘”页面手动删除该主机分组。

  11. 等待片刻,执行以下命令查询分区配置。

    df -h

    创建分区需要对分区进行格式化,因此分区容量越大,分区时间越长,需等待新配置的分区全部能够显示,表示分区成功。新的分区分别显示为extend_vg-image、extend_vg-image--cache、extend_vg-ceilometer--data。

  12. 在FusionSphere OpenStack安装部署界面的“配置 > 磁盘”页面查看新的主机分组的各项配置是否正常。

    • 是,处理完毕。
    • 否,请联系技术支持工程师协助解决

Swift分区拉远到远端存储后上传、下载镜像失败

现象描述

Swift分区拉远到远端存储后上传、下载镜像失败,后台登录到swift-store组件所在节点,执行“ls /opt/HUAWEI/swift”命令,提示“Input/output error”。

可能原因

网络或远端存储出现异常。

操作步骤
  1. 处理远端存储自身故障,具体操作请参见远端存储对应型号的产品文档。
  2. 使用“PuTTY”,通过反向代理IP地址登录FusionSphere OpenStack首节点,用户:fsp,默认密码:Huawei@CLOUD8。

    说明:
    • 系统同时支持密码和公私钥对身份进行认证,如果使用公私钥对进行登录认证请参见使用PuTTY通过公私钥对认证方式登录节点
    • External OM平面IP地址请参考软件安装阶段FusionCloud Deploy导出的参数信息汇总文件《xxx_export_all.xlsm》的“FCD生成的LLD”页签搜索对应参数名称获取。不同场景参数名称如下所示:
      • Region Type I场景级联层:Cascading-ExternalOM-Reverse-Proxy,被级联层:Cascaded-ExternalOM-Reverse-Proxy。
      • Region Type II和Type III场景:ExternalOM-Reverse-Proxy。

  3. 执行如下命令切换到root用户。

    su - root

    root用户的默认密码为Huawei@CLOUD8!

  4. 导入环境变量

    具体操作请参见导入环境变量

  5. 执行如下命令停止swift-store服务。

    cps host-template-instance-operate --action stop --service swift swift-store

  6. 执行如下命令查看swift服务所在的节点。

    cps template-instance-list --service swift swift-store

  7. 依次登录到步骤 6输出的每个节点,执行以下命令进行修复。

    cd /home/fsp

    umount /opt/HUAWEI/swift

    mount /dev/mapper/extend_vg-swift /opt/HUAWEI/swift

  8. 修复完成后,执行如下命令启动swift-store服务。

    cps host-template-instance-operate --action start --service swift swift-store

翻译
下载文档
更新时间:2019-08-19

文档编号:EDOC1100043088

浏览量:18462

下载量:439

平均得分:
本文档适用于这些产品
相关版本
相关文档
Share
上一页 下一页