产品咨询:18982151213
联系我们
产品咨询

CV186AH 适配 BM1684 算法模型:关键步骤与技术差异

作者:万物纵横
发布时间:2026-01-27 09:55
阅读量:

CV186AH 核心板支持 BM1684 的算法模型,但需要通过 TPU-MLIR 重新编译适配,不能直接运行 BM1684 原生 bmodel 文件。


一、兼容性基础


算能(Sophgo)官方明确标注 CV186AH 支持 BM1684/BM1684X 兼容性,属于同一 AI 处理器生态体系。CV186AH 内置神经网络加速引擎 TPU,拥有 7.2TOPS@INT8 算力,与 BM1684(17.6TOPS@INT8)在核心架构上有延续性。


CV186AH 适配 BM1684 算法模型:关键步骤与技术差异(图1)


二、适配关键步骤


模型重编译:使用支持 BM1688/CV186AH 的 TPU-MLIR 工具链重新编译模型,生成适配 CV186AH 的 bmodel 文件


pip install tpu_mlir[torch]  # 安装适配工具链

# 执行模型转换与编译流程


内存配置调整:BM1688/CV186AH 仅有两个 heap 区,需将原 BM1684 模型中 heap2 的内存分配调整至 heap1,否则会导致内存分配失败;


SDK 版本要求:需使用 BM1688/CV186AH SOPHONSDK v1.3 及以上版本,确保工具链与驱动兼容性;


三、技术差异要点


项目

BM1684

CV186AH

适配影响

算力

17.6TOPS@INT8

7.2TOPS@INT8

推理性能会有差异,需根据算力调整批量或分辨率

内存架构

heap 区

heap 区

必须修改内存分配策略

处理器核心

八核 A53

六核 A53

影响多线程调度,可能需调整并行策略

模型格式

BM1684 原生 bmodel

适配 CV186AH 的 bmodel

必须通过 TPU-MLIR 重新编译

四、适配优势


支持主流深度学习框架:Caffe、TensorFlow、PyTorch、PaddlePaddle 等,与 BM1684 生态兼容;


提供完整迁移工具链,包括内存修改工具、模型转换脚本等;


适配后可充分利用 CV186AH 的低功耗特性(典型功耗低于 BM1684),适合边缘端部署;


五、总结


CV186AH 核心板对 BM1684 算法模型的支持是兼容性支持,而非原生支持。开发者只需完成模型重编译与少量内存配置调整,即可将基于 BM1684 开发的算法平滑迁移至 CV186AH 平台,实现算法资产复用与硬件升级。

- END -
分享:
留言 留言 试用申请
电话咨询 电话咨询 产品咨询
18982151213
微信在线客服 微信在线客服 在线客服
返回官网顶部 返回官网顶部 回到顶部
关闭窗口
产品订购
  • *

  • *

  • *

  • *

  • *