所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

FusionCloud 6.3.1 用户指南 (Region Type I) 10

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
组件数据清除

组件数据清除

租户删除了实例后,需要清除数据,如果不清除可能会导致数据泄露。

前提条件

  1. 登录客户端服务器,进入客户端目录(例如:cd /opt/client),source环境变量:source ./bigdata_env
  2. 两种方式完成认证:
    • 使用用户认证凭据完成认证:kinit -kt user.keytab [用户名]
    • 使用密码登录认证:kinit [用户名],然后输入密码。

MapReduce

停止租户的MapReduce任务

  1. 查看MapReduce任务,执行语句:

    mapred job -list

    说明:

    mapred job -list all 可以查看所有任务。

  2. 查看属于自己的任务,关掉MapReduce任务,执行语句(job_xx为job id,可以在执行界面的打印中看到):

    mapred job -kill job_1537932218516_0001

Spark

删除数据表和算子包、任务。

  1. 执行如下命令连接JDBC:spark-beeline
  2. 查询表。例如查看表test是否存在。执行语句:

    show tables;

  3. 删除表。执行语句:

    drop table test;

  4. 再次查询表,查看表是否被删除。执行语句 :

    show tables;

  5. 查看算子包。

    spark-submit --help

  6. 删除算子包。

    spark-submit --kill

  7. 查看是否删除。

    spark-submit --status

HDFS

删除租户目录

  1. 查看文件夹,查看文件夹是否存在。执行语句:

    hdfs dfs -ls /tenant/testuser

  2. 删除文件夹。执行语句:

    hdfs dfs -rm -r -f -skipTrash /tenant/testuser

  3. 查看文件夹,查看是否删除成功。执行语句:

    hdfs dfs -ls /tenant/testuser

Hive/SparkSQL

删除数据表。

  1. 在客户端安装目录下执行beeline命令进入Hive的beeline客户端。
  2. 例如查看表test是否存在。执行语句:

    show tables;

  3. 删除表,先执行语句:

    drop table test;

  4. 再执行如下命令,查看表是否还存在。

    show tables;

Flink

停止任务。

  1. 查询集群中运行的程序。

    flink list

    说明:

    -m,--jobmanager <host:port>:指定JobManager。

    -r,--running:仅显示running状态的Job。

    -s,--scheduled:仅显示scheduled状态的Job。

    -z,--zookeeperNamespace <zookeeperNamespace>:指定zookeeper的namespace。

    -yid,--yarnapplicationId <arg>:绑定YARN session。

    -h:获取帮助。

  2. 强制停止一个运行中的Job。

    flink stop

    说明:

    -m,--jobmanager <host:port>:指定JobManager。

    -z,--zookeeperNamespace <zookeeperNamespace>:指定zookeeper的namespace。

    -yid,--yarnapplicationId <arg>:绑定YARN session。

    -h:获取帮助。

Solr

删除collection。

  1. 查看当前已有collection:

    solrctl collection --list

  2. 删除collection。执行如下命令,删除collection:

    solrctl collection --delete col_filter_1

  3. 查看当前已有collection,确认已经删除:

    solrctl collection --list

HBase

删除命名空间和表。

  1. 执行hbase shell,进入HBase客户端。
  2. 执行list,查看表test是否存在。
  3. 经过一系列对数据操作后要删除表,先disable表,执行:

    disable 'test'

  4. 再执行删除:

    drop 'test'

  5. 最后执行list。查看是否删除成功。

Kafka

如果有自己独占的Topic,联系管理员执行如下操作删除。

  1. 进入Kafka客户端主目录:

    cd $KAFKA_HOME

  2. 查询集群中的Topic(名为testTopic)信息:

    bin/kafka-topics.sh --zookeeper $zkUrls --list

    bin/kafka-topics.sh --zookeeper $zkUrls --describe --topic testTopic

  3. 删除创建的Topic:

    bin/kafka-topics.sh --zookeeper $zkUrls --delete --topic testTopic

  4. 再次查询集群中的Topic信息,验证是否删除成功:

    bin/kafka-topics.sh --zookeeper $zkUrls --list

    bin/kafka-topics.sh --zookeeper $zkUrls --describe --topic testTopic

Storm

删除storm拓扑。

  1. 进入Storm客户端主目录:

    cd $STORM_HOME

  2. 查询storm版本号:

    storm version

  3. 查询storm客户端配置:

    storm localconfvalue storm.zookeeper.root

    cat conf/storm.yaml | grep storm.zookeeper.root

  4. 查询storm集群端配置:

    storm remoteconfvalue storm.thrift.transport

  5. 查询storm拓扑。

    storm list

  6. 关掉测试拓扑:

    storm kill testapp

Elasticsearch

删除索引数据。

  1. 查询数据。执行如下命令查询索引数据:

    curl --negotiate -k -v -u: -XGET "https://10.7.66.204:24100/my_index-1/address/1?pretty"

  2. 删除数据。执行如下命令删除索引数据:

    curl --negotiate -k -v -u: -XDELETE "https://10.7.66.204:24100/my_index-1/address/1"

  3. 查询数据。执行如下命令查询索引数据:

    curl --negotiate -k -v -u: -XGET "https://10.7.66.204:24100/my_index-1/address/1?pretty"

  4. 删除index。执行如下命令删除索引:

    curl --negotiate -k -v -u: -XDELETE "https://10.7.66.204:24100/my_index-1"

Redis

删除集群数据。

  1. 连接Redis集群

    $/opt/client/Redis/bin/redis-cli -h hostip -p 22400 -c --realm hadoop.com

    说明:

    hostip为Redis集群的其中一个实例IP。

  2. 使用del命令删除数据:

    hostip:22400> del myname

    OK

翻译
下载文档
更新时间:2019-08-15

文档编号:EDOC1100043090

浏览量:12946

下载量:555

平均得分:
本文档适用于这些产品
相关文档
相关版本
Share
上一页 下一页