所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

FusionCloud 6.3.1 用户指南 (Region Type II) 10

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
申请服务

申请服务

用户订购场景说明

用户订购场景说明如表33-6所示。

表33-6 订购场景说明

编号

场景

如何订购大数据服务

说明

1

创建一个用户,使之能使用spark core,只能使用自己的HDFS数据。

租户:订购YARN、HDFS资源。

用户:选择Spark服务。

Spark的任务只能提交到租户的YARN队列。

用户只能使用租户的HDFS目录,不能访问其他HDFS数据。

2

在场景1上增加SparkSQL访问Hive的能力。

在场景1上增加如下订购。

用户:选择Hive/SparkSQL服务。

在场景1上增加访问或创建数据库/表/列的权限,可以使用SparkSQL操作Hive。

3

在场景1上增加Spark访问HBase的能力。

在场景1上增加如下订购。

用户:选择HBase服务。

在场景1上增加访问或创建命名空间/表/列的权限,可以使用SparkSQL操作HBase。

4

创建一个用户,使之只能使用HBase。

用户:选择HBase服务。

用户拥有访问或创建命名空间/表/列的权限。

5

创建一个用户,使之只能使用Hive。

租户:订购YARN、HDFS资源。

用户:选择Hive服务。

只能创建数据库到租户HDFS路径(不指定则创建到HDFS下Hive的warehouse)。

只能创建表到指定数据库(不指定则创建到Hive的default数据库)。

数据库放开给用户自行创建,暂不做资源监控。

申请HDS实例

用户在服务市场中,可以选择订购需要的服务,并进行实例化,实例化后购买者即可使用该服务。

前提条件
  • FusionInsight HD大数据集群已部署完成。
    说明:
    • 在FusionInsight HD大数据集群中事先会创建好HDS需要用到的各个服务,如HDFS、HBase、Spark、Hive/SparkSQL、Flink、Solr、YARN、Kafka、MapReduce。这些不需要用户创建。
    • 选择Flink服务的用户会默认添加至Kafka用户组。
  • HDS服务已自动化部署完成。
  • 确保有足够的节点资源来托管服务。
操作步骤
  1. 使用浏览器,以VDC管理员帐号登录ManageOne。

    • 非B2B场景登录地址:https://ManageOne控制台主页的访问地址。例如,https://console.demo.com。

      B2B场景登录地址:https://ManageOne租户的访问地址。例如,https://tenant.demo.com。

    • 帐号密码:VDC管理员对应帐号和密码。

  2. 在导航栏左上角下拉框选择地域和Project。
  3. 选择“大数据 > Hadoop服务”。进入实例管理页面。
  4. 单击右上角“申请实例”。
  5. 弹框显示选择产品界面,选择Hadoop服务,单击“立即申请”。
  6. 显示HDS申请实例页面,选择集群ID,选择登录方式,输入实例名称,勾选需要的组件。

    说明:
    • 至少选择一个组件。
    • 组件一旦申请成功就不支持取消。
    • 登录方式选择“keytab认证凭据”,则不需要输入密码。
    • 登录方式选择“密码”,则需要输入密码。
    • 组件勾选Flink或Hive/SparkSQL或Spark时,默认勾选HDFS和MapReduce。

  7. 选择完成后,进行选择组件的规格配置。

    说明:

    具体选择范围,请根据页面中的问号提示信息填写。

  8. 参数配置完成后,单击“下一步”。
  9. 进入“订单确认”,查看是否填写正确:

    • 是,单击“立即创建”。执行步骤 10
    • 否,单击“上一步”,执行步骤 6

  10. 等待实例创建成功,之后会在服务实例列表中显示。
后续处理
  1. 使用浏览器,以VDC管理员帐号登录ManageOne。

    • 非B2B场景登录地址:https://ManageOne控制台主页的访问地址。例如,https://console.demo.com。

      B2B场景登录地址:https://ManageOne租户的访问地址。例如,https://tenant.demo.com。

    • 帐号密码:VDC管理员对应帐号和密码。

  2. 在导航栏左上角下拉框选择地域和Project。
  3. 选择“大数据 > Hadoop服务”。
  4. 单击右上角头像,选择“我的订单”。
  5. 查看申请实例进度、结果。

实例申请成功后,回到“实例管理”页面,还可以执行表33-7中的操作。

表33-7 其他操作

操作

操作说明

查看控制台

单击“查看控制台”,打开管理服务实例的控制台。

详情参见查看服务实例章节。

软删除

单击“软删除”,状态变为软删除,该实例会进入回收站。

详情参见删除服务实例章节。

删除

去回收站,单击“彻底删除”,删除服务实例。

仅“租户”以及“有admin或power_user权限的用户”才可删除本租户下的服务实例。

详情参见删除服务实例章节。

更新

单击右侧“修改”,修改初始化参数。

详情参见更新服务实例章节。

查看服务实例

访问Hadoop集群
前提条件

服务订购完成并通过审批。

操作步骤
  1. 使用浏览器,以VDC管理员帐号登录ManageOne。

    • 非B2B场景登录地址:https://ManageOne控制台主页的访问地址。例如,https://console.demo.com。

      B2B场景登录地址:https://ManageOne租户的访问地址。例如,https://tenant.demo.com。

    • 帐号密码:VDC管理员对应帐号和密码。

  2. 在导航栏左上角下拉框选择地域和Project。
  3. 选择“大数据 > Hadoop服务”。进入实例管理页面。
  4. 在实例管理中找到申请好的服务实例,单击“查看控制台”。
  5. 进入具体实例,可进行以下操作:

    访问Hadoop:服务客户端、用户认证凭据的下载和使用指导。

  6. 查看完毕后,若要使用服务。详情参见使用
资源监控
前提条件

服务订购完成并通过审批。

操作步骤6676589
  1. 使用浏览器,以VDC管理员帐号登录ManageOne。

    • 非B2B场景登录地址:https://ManageOne控制台主页的访问地址。例如,https://console.demo.com。

      B2B场景登录地址:https://ManageOne租户的访问地址。例如,https://tenant.demo.com。

    • 帐号密码:VDC管理员对应帐号和密码。

  2. 在导航栏左上角下拉框选择地域和Project。
  3. 选择“大数据 > Hadoop服务”。进入实例管理页面。
  4. 在实例管理中找到申请好的服务实例,单击“查看控制台”。
  5. 进入具体实例,可进行以下操作:

    资源监控:监控Hadoop计算资源和存储资源的使用率。

翻译
下载文档
更新时间:2019-08-15

文档编号:EDOC1100043091

浏览量:48912

下载量:316

平均得分:
本文档适用于这些产品
相关文档
相关版本
Share
上一页 下一页