《Network Pruning via Transformable Architecture Search》论文阅读
网络修剪可减少过度参数化的网络的计算成本,而不会影响性能。现有的修剪算法会预先定义修剪网络的宽度和深度,然后将参数从未修剪的网络传输到修剪的网络。为了突破修剪网络的结构限制,我们提出应用神经架构搜索(NAS)直接搜索具有灵活的通道大小和层大小的网络。通过最小化修剪网络的损失来学习通道/层的数量。修剪后的网络的特征图是K个特征图片段的集合(由不同大小的K个网络生成),这些片段是根据概率分布进行采样的。损耗不仅可以反向传播到网络权重,还可以反向传播到参数化分布,以显式调整通道/层的大小。具体来说,我们应用逐通道插值(填充)以使具有不同通道大小的特征图在聚合过程中保持对齐。每个分布中的size的最大概率用作修剪网络的宽度和深度,修剪网络的参数是通过知识迁移(例如知识蒸馏)从原始网络中获知的。与传统的网络修剪算法相比,在CIFAR-10,CIFAR-100和ImageNet上进行的实验证明了我们的网络修剪新观点的有效性。进行了各种搜索和知识转移方法以显示这两个组件的有效性。代码位于:https://github.com/D-X-Y/NAS-Projects