hemi网站怎么做热图,沈阳网站制作哪家好,wordpress私活,做黄页网站要告我一、评测思路在第一阶段完成了数据集制作与 YOLO-Fastest 模型训练之后#xff0c;本阶段的目标是完成模型格式转换#xff0c;使训练得到的模型能够最终运行在 Titan Board 的 NPU 上。整个转换流程如下#xff1a;Darknet (.weights)↓ Keras (.h5)↓ TFLite (.tflite)↓ …一、评测思路在第一阶段完成了数据集制作与 YOLO-Fastest 模型训练之后本阶段的目标是完成模型格式转换使训练得到的模型能够最终运行在 Titan Board 的 NPU 上。整个转换流程如下Darknet (.weights)↓Keras (.h5)↓TFLite (.tflite)↓INT8量化↓Ruhmi模型↓Titan NPU部署本周主要完成两个步骤Darknet → TFLite INT8 模型转换TFLite → Ruhmi MCU 部署模型这一步是 AI 部署过程中非常关键的环节因为 MCU 上的 NPU 只能运行特定格式的量化模型。二、模型训练回顾在上一阶段中使用 CPU 训练 YOLO-Fastest 模型训练指令darknet.exe detector train datasets/voc.data datasets/yolo-fastest.cfg -dont_show由于使用 CPU 训练速度较慢大约3天训练10000轮。训练日志显示avg loss ≈ 8说明模型已经开始收敛因此暂时保存权重文件yolo-fastest_last.weights随后进入模型转换阶段。三、Darknet → TFLite 模型转换1. 准备模型文件需要准备两个文件yolo-fastest.cfgyolo-fastest_last.weights将它们复制到keras-YOLOv3-model-set目录中。2. 运行模型转换脚本转换代码需要的参数如下首先激活 convert 环境conda activate convert进入转换工具目录cd /path/to/keras-YOLOv3-model-set运行转换脚本python tools/model_converter/conver2tflite_and_int8.py \--config_path yolo-fastest.cfg \--weights_path yolo-fastest_last.weights \--output_path face.h5 \--int8_img_path ../Yolo-Fastest/datasets/face/data_1/train/image/ \--save_tflite_path face_int8.tflite \-f脚本会自动完成以下步骤读取 Darknet cfg加载 weights转换为 Keras 模型生成 .h5进行 INT8 量化输出 .tflite 模型最终得到face_int8.tflite这个模型已经是量化后的 TensorFlow Lite 模型。四、TFLite → Ruhmi 模型转换Titan Board 的 NPU 不能直接运行 .tflite必须转换为Ruhmi MCU 推理格式。1. 复制模型将生成的模型face_int8.tflite复制到ruhmi-framework-mcu/models目录。2. 运行部署脚本首先进入 ruhmi 环境conda activate ruhmi进入脚本目录cd /path/to/ruhmi-framework-mcu/scripts运行部署指令python mcu_deploy.py --ethos --ref_data ../models/ deploy_qtzed_ethos该脚本会解析 TFLite 计算图编译 Ethos-U NPU 指令生成 MCU 推理代码输出可在 Titan 上运行的模型最终生成NPU可部署模型文件用于后续 MCU 工程调用。五、代码解释1. 参数说明在转换命令中--config_pathYOLO 网络结构配置文件。--weights_path训练得到的权重文件。--output_path生成的 Keras .h5 模型。--int8_img_path量化校准数据集路径。量化需要真实图像进行统计否则精度会严重下降。--save_tflite_path输出的 TFLite INT8 模型。2. 为什么需要 INT8 量化Titan 的 Ethos-U NPU 主要支持INT8 推理量化后优点推理速度更快内存占用更小更适合 MCU 设备代价少量精度损失3. Ruhmi 的作用Ruhmi 是 MCU AI 部署工具链它的作用是解析 TFLite 模型编译 NPU 指令生成 MCU 可调用代码因此TFLite → Ruhmi实际上是AI模型 → MCU推理程序六、成果展示本阶段成功完成1. Darknet 模型转换.weights → .h5 → .tflite2. INT8量化生成face_int8.tflite3. NPU部署模型生成完成TFLite → Ruhmi在ruhmi-framework-mcu/scripts下生成可部署模型⽂件为 Titan 板卡运行 AI 推理做好准备。七、本阶段总结本周主要完成了模型部署前最重要的一步模型转换。完成内容包括YOLO-Fastest 模型训练Darknet → TFLite 转换INT8 量化Ruhmi MCU 部署模型生成整个流程验证了训练模型能够成功转换量化流程正确Titan NPU 部署环境正常八、下一步计划下一阶段将进行Titan 板卡 AI 推理部署摄像头图像采集NPU 推理调用串口输出检测结果最终实现Titan Board 实时人脸检测系统。