导航

    全志在线开发者论坛

    • 注册
    • 登录
    • 搜索
    • 版块
    • 话题
    • 在线文档
    • 社区主页

    量化模型如何输出 FLOAT16 格式?

    V Series
    2
    2
    1259
    正在加载更多帖子
    • 从旧到新
    • 从新到旧
    • 最多赞同
    回复
    • 在新帖中回复
    登录后回复
    此主题已被删除。只有拥有主题管理权限的用户可以查看。
    • E
      edisondeng LV 2 最后由 编辑

      我们给 Tina 5.0 里的 lenet 源码添加前处理与后处理代码。使得lenet可以直接读取28X28像素的 JPG 文件,然后输出 0~9 的 SOFTMAX。引用编译好的 /etc/model/lenet.nb 模型, 输出正常。我们的后处理代码把输出tensor当作是FLOAT16格式解码,输出结果正常。这说明模型输出的就是FLOAT16格式。我们自己重新做了一个模型在PC端成功识别了MNIST数据集。我们按照文档将这个模型转成NB格式,并利用上述我们修改好的lenet程序引用我们新转的NB做推演,我们发现这时候模型输出的是UINT8格式。我们尝试修改pegasus命令行参数改变量化后的格式,但是pegasus提示只支持 UINT8,INT8, INT4之类格式,没有FLOAT16格式。请问要怎么操作才能量化输出成FLOAT16格式?Tina 5.0 里的提供的lenet.nb为什么是FLOAT16?

      1 条回复 最后回复 回复 引用 分享 0
      • YuzukiTsuru
        柚木 鉉 LV 9 最后由 编辑

        pegasus inference --model lenet.json --model-data lenet.data --batch-size 1 --dtype float32
        --device CPU --with-input-meta lenet-inputmeta.yml --postprocess-file lenet-postprocess-file.yml
        --iterations 10
        
        pegasus export ovxlib --model lenet.json --model-data lenet.data --dtype float32 --batch-size 1
        --save-fused-graph --target-ide-project 'linux64' --with-input-meta lenet-inputmeta.yml
        --postprocess-file lenet-postprocess-file.yml --output-path ovxlib/lenet/lenet --pack-nbg-unify
        --optimize "VIP9000PICO_PID0XEE" --viv-sdk ${VIV_SDK}
        

        浮点部署直接跳过量化步骤,虽然精度得到保障但是速度相较于定点成数量级下降,不建议使用

        1 条回复 最后回复 回复 引用 分享 0
        • 1 / 1
        • First post
          Last post

        Copyright © 2024 深圳全志在线有限公司 粤ICP备2021084185号 粤公网安备44030502007680号

        行为准则 | 用户协议 | 隐私权政策