评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
编译配置
from npu_bridge.estimator import npu_ops
from tensorflow.core.protobuf.rewriter_config_pb2 import RewriterConfig
config = tf.ConfigProto()
custom_op = config.graph_options.rewrite_options.custom_optimizers.add()
custom_op.name = "NpuOptimizer"
# 配置1:选择在昇腾AI处理器上执行推理
custom_op.parameter_map["use_off_line"].b = True
# 配置2:在线推理场景下建议保持默认值force_fp16,使用float16精度推理,以获得较优的性能
custom_op.parameter_map["precision_mode"].s = tf.compat.as_bytes("force_fp16")
# 配置3:图执行模式,推理场景下请配置为0,训练场景下为默认1
custom_op.parameter_map["graph_run_mode"].i = 0
# 配置4:关闭remapping
config.graph_options.rewrite_options.remapping = RewriterConfig.OFF
在线推理几个关键配置项为:
- use_off_line配置为True,表示在昇腾AI处理器上执行推理。
- precision_mode建议保持默认值force_fp16,使用float16精度推理,以获得较优的性能。
- graph_run_mode配置为0。
在线推理当前支持的所有配置项,请参考sess.run模式下的session配置。