深度学习模型的随机性?

抛开领域谈基准论文太宽泛了,本篇只适用于计算机研究生-图像处理方向。

相关函数

torch.manual_seed(number):为CPU中设置种子,生成随机数;

torch.cuda.manual_seed(number):为特定GPU设置种子,生成随机数;

torch.cuda.manual_seed_all(number):为所有GPU设置种子,生成随机数

模型随机种子会导致0.5点的差异

模型训练长比训练时间短效果更好。此外,在短训练时间条件下,准确率最小值和最大值相差为1.82%

大部分论文都存在以下问题:

1 比以往方法更强的trick

2 随机性的高正确率结果

3 在较低的baseline上有效

4 明显可以提高精度的结构的堆叠

5 更大的计算量换取更高的精度

你可能感兴趣的:(深度学习,人工智能)