《Net2Net: Accelerating Learning Via Knowledge Transfer》 论文阅读
TianqiChen,IanGoodfellow,JonathonShlens,ICLR2016引用量-278https://arxiv.org/abs/1511.056411简介知识迁移路径:预训练网络->更深/宽的网络目前很多任务都会训练多个不同的网络,每一个可能是对之前的网络的改进,但是每一个网络的训练都是从头开始的,很浪费,本文设计一个方法加快改进网络的训练。从先前训练好的模型中提取知识,