Lecture 5:Training versus Testing

回顾一下前四个Lecture,Lecture 1讲的是找一个使得(也就是),Lecture 2讲的是使得,Lecture 3讲的是机器学习的分类,Lecture 4讲的是让。
那么,我们就有两个核心问题需要解决了。

  1. 我们如何保证尽可能地靠近?
  2. 我们如何使得足够小?

而在这两个问题里面,假设集大小又扮演着什么样的角色?应该多大呢?
如果是一个很小的,能够满足,但是可选的假设又太少了。
如果是一个很大的,可选的假设很多,但是又很难满足。
因此,一个合适的是很重要的。


Effective Number of lines


将一个点
进行划分,会有两种情况。

不管,
怎么移动,只要在
下面,那么它表示的就是把x_1划分为
,
同理。
如果是两个inputs
就会有4种情况,3个inputs最多会有8种情况。
比如:在下面这种情况下,三个输入成一条直线,两个画
的情况是不可能实现的,一条直线无法将相间分布进行划分。

那么4个inputs呢?

能够划分N个输入的直线最多有类的数目
有效线的数目


Effective Number of Hypothesis







Break Point



你可能感兴趣的:(Lecture 5:Training versus Testing)