MNN/docs/tools/benchmark.md

2.4 KiB
Raw Blame History

Benchmark工具

Linux / macOS / Ubuntu

从源码编译,然后执行如下命令:

./benchmark.out models_folder loop_count warm_up_count forwardtype numberThread precision weightSparsity weightSparseBlockNumber testQuantizdModel

参数如下:

  • models_folder: benchmark models文件夹benchmark models
  • loop_count: 可选默认是10
  • warm_up_count: 预热次数
  • forwardtype: 可选默认是0即CPUforwardtype有0->CPU1->Metal3->OpenCL6->OpenGL7->Vulkan
  • numberThread: 可选默认是4为 CPU 线程数或者 GPU 的运行模式
  • precision: 可选,默认是 2 precision_low
  • weightSparsity: 可选,默认是 0.0 ,在 weightSparsity > 0.5 时且后端支持时,开启稀疏计算
  • weightSparseBlockNumber: 可选,默认是 1 ,仅当 weightSparsity > 0.5 时生效,为稀疏计算 block 大小,越大越有利于稀疏计算的加速,一般选择 1, 4, 8, 16
  • testQuantizedModel 可选默认是0即只测试浮点模型取1时会在测试浮点模型后进行量化模型的测试

Android

benchmark目录下直接执行脚本bench_android.sh默认编译armv7加参数-64编译armv8参数-p将benchmarkModels push到机器上。 脚本执行完成在benchmark目录下得到测试结果benchmark.txt

iOS

  1. 先准备模型文件进入tools/script目录下执行脚本get_model.sh
  2. 打开demo/iOS目录下的demo工程点击benchmark可通过底部工具栏切换模型、推理类型、线程数。

基于表达式构建模型的Benchmark

从源码编译,运行以下命令查看帮助:

 ./benchmarkExprModels.out help

示例:

 ./benchmarkExprModels.out MobileNetV1_100_1.0_224 10 0 4 
 ./benchmarkExprModels.out MobileNetV2_100 10 0 4 
 ./benchmarkExprModels.out ResNet_100_18 10 0 4 
 ./benchmarkExprModels.out GoogLeNet_100 10 0 4 
 ./benchmarkExprModels.out SqueezeNet_100 10 0 4 
 ./benchmarkExprModels.out ShuffleNet_100_4 10 0 4

相应模型的paper链接附在头文件里benchmark/exprModels/MobileNetExpr.hpp