机器学习面试笔试知识点-线性回归、逻辑回归(Logistics Regression)和支持向量机(SVM)

机器学习面试笔试知识点-线性回归、逻辑回归Logistics Regression和支持向量机SVM

  • 微信公众号:数学建模与人工智能
  • 一、线性回归
    • 1.线性回归的假设函数
    • 2.线性回归的损失函数(Loss Function)
      • 两者区别
    • 3.简述岭回归与Lasso回归以及使用场景
    • 4.什么场景下用L1、L2正则化
    • 5.什么是ElasticNet回归
    • 6.ElasticNet回归的使用场景
    • 7.线性回归要求因变量服从正态分布?(持保留态度)
  • 二、逻辑回归(Logistics Regression)
    • 1.本质:极大似然估计
    • 2.激活函数:Sigmoid
    • 3.损失函数:对数损失函数(log loss)
    • 4.代价函数:交叉熵(Cross Entropy):
    • 5.可以进行多分类吗?
    • 6.逻辑回归优缺点
    • 7.逻辑回归有哪些应用
    • 8.逻辑回归为什么要对特征进行离散化。
  • 机器学习中的最优化方法
    • 1.梯度下降法
    • 2.牛顿法
    • 3.拟牛顿法
    • 4.共轭梯度法
  • 三、支持向量机(SVM)
    • 函数间隔
    • 几何间隔(geometrical margin)
    • 1.损失函数:合页损失函数(Hinge loss)
    • 2.为什么要将求解SVM的原始问题转换为其对偶问题?
    • 3.支持向量
    • 4.带核的SVM为什么能分类非线性问题
    • 5.SVM的应用
    • 6. 如何选择核函数?
    • 7.LR和SVM的联系与区别
    • 8.加入松弛变量的SVM的训练误差可以为0吗?

微信公众号:数学建模与人工智能

一、线性回归

1.线性回归的假设函数

在这里插入图片描述

2.线性回归的损失函数

你可能感兴趣的:(机器学习,线性回归,逻辑回归)