评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
算子部署
- 设置环境变量。以HwHiAiUser用户执行如下命令,在当前终端下声明环境变量,关闭Shell终端失效。
export ASCEND_OPP_PATH=/home/HwHiAiUser/Ascend/ascend-toolkit/latest/opp
/home/HwHiAiUser/Ascend/ascend-toolkit/latest表示OPP组件安装路径,请根据实际路径修改。
- 在自定义算子安装包所在路径下,执行如下命令,安装自定义算子包。
./custom_opp_<target os>_<target architecture>.run
命令执行成功后,会将编译生成的自定义算子相关文件部署到opp对应目录下的custom路径下,部署后目录结构示例如下所示:
├── opp //算子库目录 │ ├── op_impl │ ├── built-in │ ├── custom │ ├── ai_core │ ├── tbe │ ├── config │ ├── {soc_version} //昇腾AI处理器类型 │ ├── aic-{soc_version}-ops-info.json //自定义算子信息库文件 │ ├── custom_impl //自定义算子实现代码文件 │ ├── xx.py │ ├── vector_core //此目录预留,无需关注 │ ├── cpu //AI CPU自定义算子实现库及算子信息库所在目录,TBE算子无需关注 │ ├── framework │ ├── built-in │ ├── custom │ ├── caffe //存放caffe框架的自定义算子插件库 │ ├── libcust_caffe_parsers.so //算子插件库文件,包含了自定义算子的插件解析函数 │ ├── custom.proto //自定义算子的原始定义,算子编译过程中会读取此文件自动解析算子原始定义 │ ├── tensorflow //存放tensorflow框架的自定义算子插件库及npu对相关自定义算子支持度的配置文件 │ ├── libcust_tf_parsers.so //算子插件库文件 │ ├── libcust_tf_scope_fusion.so //scope融合规则定义库文件 │ ├── npu_supported_ops.json //Ascend 910场景下使用的文件 │ ├── op_proto │ ├── built-in │ ├── custom │ ├── libcust_op_proto.so //自定义算子原型库文件
注:其他目录与文件,自定义算子部署无需关注。