深度学习 Day 4.2 Logistic Regression——Discriminative Model

目录

1. Function Set 设定公式

 2. Goodness of a Function 损失函数

  3. Find the best function 梯度下降

4. 为何判断logistic regression模型的好坏,用 交叉熵而不是Square Error:

 5. Multi-class Classification

5.1 用softmax来计算一个元素去到各个class的概率

 5.2 把f(x)和y的分布用交叉熵来对比

 6. Feature transformation


1. Function Set 设定公式

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第1张图片

 2. Goodness of a Function 损失函数

即两个伯努利分布的交叉熵

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第2张图片

  3. Find the best function 梯度下降

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第3张图片

 4. 为何判断logistic regression模型的好坏,用 交叉熵而不是Square Error:

交叉熵在距离目标越远的时候比较陡峭,而Square Error在离目标远的地方也可能会比较平坦

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第4张图片

 5. Multi-class Classification

5.1 用softmax来计算一个元素去到各个class的概率

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第5张图片

 5.2 把f(x)和y的分布用交叉熵来对比

深度学习 Day 4.2 Logistic Regression——Discriminative Model_第6张图片

 6. Feature transformation

用logistic regression来做featrure transformation深度学习 Day 4.2 Logistic Regression——Discriminative Model_第7张图片

 

你可能感兴趣的:(深度学习,python,深度学习,人工智能)