CV186AH 核心板支持 BM1684 的算法模型,但需要通过 TPU-MLIR 重新编译适配,不能直接运行 BM1684 原生 bmodel 文件。
一、兼容性基础
算能(Sophgo)官方明确标注 CV186AH 支持 BM1684/BM1684X 兼容性,属于同一 AI 处理器生态体系。CV186AH 内置神经网络加速引擎 TPU,拥有 7.2TOPS@INT8 算力,与 BM1684(17.6TOPS@INT8)在核心架构上有延续性。

二、适配关键步骤
模型重编译:使用支持 BM1688/CV186AH 的 TPU-MLIR 工具链重新编译模型,生成适配 CV186AH 的 bmodel 文件
pip install tpu_mlir[torch] # 安装适配工具链
# 执行模型转换与编译流程
内存配置调整:BM1688/CV186AH 仅有两个 heap 区,需将原 BM1684 模型中 heap2 的内存分配调整至 heap1,否则会导致内存分配失败;
SDK 版本要求:需使用 BM1688/CV186AH SOPHONSDK v1.3 及以上版本,确保工具链与驱动兼容性;
三、技术差异要点
项目 | BM1684 | CV186AH | 适配影响 |
算力 | 17.6TOPS@INT8 | 7.2TOPS@INT8 | 推理性能会有差异,需根据算力调整批量或分辨率 |
内存架构 | 三 heap 区 | 两 heap 区 | 必须修改内存分配策略 |
处理器核心 | 八核 A53 | 六核 A53 | 影响多线程调度,可能需调整并行策略 |
模型格式 | BM1684 原生 bmodel | 适配 CV186AH 的 bmodel | 必须通过 TPU-MLIR 重新编译 |
四、适配优势
支持主流深度学习框架:Caffe、TensorFlow、PyTorch、PaddlePaddle 等,与 BM1684 生态兼容;
提供完整迁移工具链,包括内存修改工具、模型转换脚本等;
适配后可充分利用 CV186AH 的低功耗特性(典型功耗低于 BM1684),适合边缘端部署;
五、总结
CV186AH 核心板对 BM1684 算法模型的支持是兼容性支持,而非原生支持。开发者只需完成模型重编译与少量内存配置调整,即可将基于 BM1684 开发的算法平滑迁移至 CV186AH 平台,实现算法资产复用与硬件升级。
需求留言: