我读过MobileNetV2(arXiv:1801.04381)
从Tensorflow model zoo运行模型。
我注意到SSD Lite MobileNetV2的推断时间比SSD MobileNetV2快。
在MobileNetV2的论文中,以下句子仅对SSD Lite作了简短的解释:
'我们用可分离卷积(depthwise)替换所有正则卷积 然后是1×1投影)。
所以我的问题是,SSD和SSD Lite有什么区别?
我不明白这个区别,因为当MobileNetV1(arXiv:1704.04861v1)发布并应用于SSD时,它已经取代了所有的卷积层,使上面提到的可分离卷积分离。
这是令人沮丧的,因为所有搜索SSDLite的结果都是“一个新的框架,我们称之为SSDLite”,所以我期待着一件事。但是,我怀疑SSDLite只是通过对通用SSD模型文件进行一次修改(内核大小)和两次添加(使用深度)来实现的。
比较模型文件ssd mobilenet_v1_coco.config和sdlite_mobilenet_v2_coco.config会产生以下结果:
我得试试看。
正如已经指出的答案之一,配置中的主要差异是box_predictor和feature_extractor的两个use_depthwise选项。底层的改变已经在基本上取代SSD层和最后一个box+类预测层中的所有规则卷积的codebase中实现,以使+点分离卷积分离。本文介绍了MobilenetV2的理论参数和节省的触发器。
为了回答@Seongkyun Han的问题,我们没有在v1文件中替换SSD层中的所有conv(只有属于mobilenet的所有层都是可分离的conv)。
相关问题 更多 >
编程相关推荐