李宏毅2020ML——P11 Logistic Regression(逻辑回归)

Review

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第1张图片

3 steps of machine learning

Step1: function set

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第2张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第3张图片

Step2:Goodness of a function

似然函数只需要将每一个点产生的概率相乘即可,注意,这里假定是二元分类,class 2的概率为1减去class 1的概率
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第4张图片
由于L ( w , b ) 是乘积项的形式,为了方便计算,我们将上式做个变换:
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第5张图片李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第6张图片
这样式子进一步改写:
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第7张图片
如果是上面的例子就会是:(目的就是为了统一格式)
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第8张图片
现在已经有了统一的格式,我们就可以把要minimize的对象写成一个summation的形式:
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第9张图片
在这里插入图片描述
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第10张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第11张图片

Step 3: Find the best function

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第12张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第13张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第14张图片
最终结果,也就是gradient descent每次update只需要做::
在这里插入图片描述
现在你的update取决于三件事:
1.learning rate
2.在这里插入图片描述,来自于data
3.在这里插入图片描述,代表function的output跟理想target的差距有多大,如果离目标越远,update的步伐就要越大

Logistic Regression V.s. Linear Regression

我们可以把逻辑回归和之前将的线性回归做一个比较

compare in step1

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第15张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第16张图片

compare in step2

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第17张图片

compare in step3

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第18张图片

Logistic Regression + Square error?

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第19张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第20张图片
综上,尽管square error可以使用,但是会出现update十分缓慢的现象,而使用cross entropy可以让你的Training更顺利

Discriminative v.s. Generative

Logistic Regression的方法,我们把它称之为discriminative的方法;而我们用Gaussian来描述posterior Probability这件事,我们称之为Generative的方法
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第21张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第22张图片

原因

example

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第23张图片
Generative model和discriminative model的差别就在于,Generative的model它有做了某些假设,假设你的data来自于某个概率模型;而Discriminative的model是完全不作任何假设的
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第24张图片

Conclusion

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第25张图片

Multi-class Classification

之前讲的都是二元分类的情况,这里讨论一下多元分类问题,其原理的推导过程与二元分类基本一致
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第26张图片

Softmax

softmax的意思是对最大值做强化,因为在做第一步的时候,对z取exponential会使大的值和小的值之间的差距被拉得更开,也就是强化大的值
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第27张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第28张图片

multi-class classification的过程

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第29张图片
在这里插入图片描述

Limitation of Logistic Regression

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第30张图片
因为Logistic Regression在两个class之间的boundary就是一条直线,但是在这个平面上无论怎么画直线都不可能把图中的两个class分隔开来

Feature Transformation

如果坚持要用Logistic Regression的话,有一招叫做Feature Transformation,原来的feature分布不好划分,那我们可以将之转化以后,找一个比较好的feature space,让Logistic Regression能够处理。
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第31张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第32张图片
李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第33张图片

李宏毅2020ML——P11 Logistic Regression(逻辑回归)_第34张图片

你可能感兴趣的:(李宏毅2020ML,机器学习,人工智能,深度学习,逻辑回归)