作者 :“码上有前”
文章简介 :人工智能面经
欢迎小伙伴们 点赞、收藏⭐、留言
围绕模型训练与优化的训练技巧(正则化、迁移学习 )和数据工程(数据增强、标注质量 )展开,通过20个关键问题,解析正则化协同策略、迁移学习适配场景、数据增强实践等核心要点,助力读者掌握人工智能与计算机视觉岗位面试中模型训练优化的知识体系,明晰技术原理与实际应用的关联。
答案:L1正则是在损失函数中添加参数绝对值之和(λ∑∣θ∣\lambda\sum|\theta|λ∑∣θ∣),促使参数稀疏化;L2正则添加参数平方和(λ∑θ2\lambda\sum\theta^2λ∑θ2 ),让参数趋近0但非稀疏。全连接层参数多、易过拟合,L2正则限制参数规模,Dropout随机失活神经元,二者从参数约束和结构随机化协同,减少模型对训练数据的依赖,提升泛化,所以常组合使用 。
答案:BatchNorm 对每个batch的特征,计算均值和方差,再标准化(y=x−μσ2+ϵ⋅γ+βy=\frac{x - \mu}{\sqrt{\sigma^2+\epsilon}} \cdot \gamma + \betay=σ2+ϵ