SqueezeNet
輕量級神經網路
Ivan Lee
摘要
1.與AlexNet同樣的精度,但容量小50倍
2.使用模型壓縮技術,可SqueezeNet壓縮到小於0.5MB(比AlexNet小510倍)
3.需要較少帶寬,可部署在移動裝置上
AlexNet比較
| model size | top-1 accuracy | top-5 accuracy | parameter |
AlexNet | 240MB | 57.2% | 80.3% | 60M |
SqueezeNet | 4.8MB | 57.5% | 80.3% | 1.25M |
策略設計
(1)使用1x1濾鏡
相較3x3濾鏡,1x1比起3x3參數少9倍。
(2)減少3x3卷積的Input
組成Fire model,用1X1接3x3 filiters的方式,減少3x3的Input。
(3)延遲下降採樣
減少降採樣,使卷積有更大面積的激活。
Fire Module
SqueezeNet
conv1�max pool��fire2�fire3�fire4
max pool�fire5�fire6�fire7�fire8
max pool
fire9��conv10(softmax)�global avgpool
設計選擇
1.設定Zero-padding
2.擠壓層與拓展層使用Relu
3.fire 9 疊一層Dropout(50%)
4.沒有FC,最後搭全局均值池化
5.lr = 0.04開始,線性降低
6.caffe不支援不同濾鏡同時多個。
因此使用兩個展開圖層來實現拓展層。
實現框架
�- MXNet (Chen et al., 2015a) port of SqueezeNet: (Haria, 2016) �- Chainer (Tokui et al., 2015) port of SqueezeNet: (Bell, 2016) �- Keras (Chollet, 2016) port of SqueezeNet: (DT42, 2016) �- Torch (Collobert et al., 2011) port of SqueezeNet’s Fire Modules: (Waghmare, 2016)
精準度、容量比較
旁路設計(左:簡單版,右邊:複雜版)
簡單版:增加準確率,模型大小相同
複雜版:增加準確率,模型大小增加
Deep Compression-裁剪
參考
Code:https://github.com/DeepScale/SqueezeNet
Deep Compression:https://arxiv.org/pdf/1510.00149.pdf