Machine Learning —— Model & Cost Function
以监督学习中的线性回归举例,其中线性回归输入监督学习中的回归模型,目标是对连续样本数值进行预测和建模
Notation
m –训练样本的个数
x – 输入数据/特征
y – 输出数据/目标数据
训练数据
(x,y) ( x , y )
或者表示为:
(x(i),y(i)) ( x ( i ) , y ( i ) ) i i 表示第 i i 个训练样本
训练过程:
Training Set -> Learning Algorithm ->h函数(hypothesis, 该假设函数的确定来源于x和y之间的映射关系)
h的表示形式:
假设为一个变量的线性回归的情况下
hθ(x)=θ0+θ1x h θ ( x ) = θ 0 + θ 1 x
(题外话)代价函数 cost function, 损失函数 loss function和目标函数 object function 的简单说明
损失函数一般针对单个样本,计算单个样本预测值和实际值之间的差距
∣yi−f(xi)∣ ∣ y i − f ( x i ) ∣
代价函数一般针对整个总体,计算整个数据集损失函数的平均值
1N⋅∑i=1N∣yi−f(xi)∣ 1 N ⋅ ∑ i = 1 N ∣ y i − f ( x i ) ∣
每个算法都有一个 目标函数,算法的目的是为了让该函数达到最优
1N⋅∑i=1N∣yi−f(xi)∣+正则化项 1 N ⋅ ∑ i = 1 N ∣ y i − f ( x i ) ∣ + 正 则 化 项
已知训练集和假设函数 hθ(x)=θ0+θ1x h θ ( x ) = θ 0 + θ 1 x
接下来首先要确定假设函数中的 θ0 θ 0 和 θ1 θ 1 , θi θ i 为参数, θ θ 的不同导致假设函数的不同
目标:选择 θ0 θ 0 和 θ1 θ 1 ,使得假设函数h尽可能的拟合训练数据,即 hθ(x) h θ ( x ) 尽可能的接近 y y
代价函数定义(代价函数也称为平方误差函数squared error function,或者平方误差代价函数):
Cost Function:
Hypothesis:
Parameters:
Cost Function:
Goal: minimizeθ0,θ1J(θ0,θ1) m i n i m i z e θ 0 , θ 1 J ( θ 0 , θ 1 )
(用简单的假设函数了解代价函数的工作原理)
Hypothesis:
Parameters:
Cost Function:
Goal: minimizeθ1J(θ1) m i n i m i z e θ 1 J ( θ 1 )
(有两个参数情况下的假设函数以及代价函数)
Hypothesis:
Parameters:
Cost Function:
Goal: minimizeθ0,θ1J(θ0,θ1) m i n i m i z e θ 0 , θ 1 J ( θ 0 , θ 1 )
Goal:找到一种算法,能够自动找到代价函数的最小值对应的参数。