E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
regularization
损失函数
dramanan/teaching/ics273a_winter08/lectures/lecture14.pdfLossFunction损失函数可以看做 误差部分(lossterm)+ 正则化部分(
regularization
term
iamzhangzhuping
·
2015-12-12 10:00
正则化方法:L1和L2
regularization
、数据集扩增、dropout
正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在trainingdata上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。为了防止overfitting,可以用的方法有很多
iamzhangzhuping
·
2015-12-11 15:00
初识交替最小二乘ALS
ALS是alternatingleastsquares的缩写,意为交替最小二乘法;而ALS-WR是alternating-least-squareswithweighted-λ -
regularization
DM张朋飞
·
2015-12-09 14:00
深度神经网络面临的挑战与解决方案
模型复杂度(modelcomplexity)正则化(
regularization
)技术:dropout:whennetworkcorrupted网络结构本身被破坏时denoising:wheninputcorrupted
lanchunhui
·
2015-12-08 10:00
BP神经网络——使用L2 进行
regularization
通过这篇文章,我们会看到,在原有框架,神经网络拓扑结构(topology)、计算流程(backpropagation)的基础上,添加进新的数学工具,进行改进时,并不需要对框架对基本结构的大动,只需简单的小幅微调,所以,应用新的数学机制到原有的网络结构,计算框架时,不必如临大敌,就像我们之前看到的:BP神经网络——从二次代价函数(Quadraticcost)到交叉熵(cross-entropycos
lanchunhui
·
2015-11-30 10:00
规则化和模型选择(
Regularization
and model selection)
1问题 模型选择问题:对于一个学习问题,可以有多种模型选择。比如要拟合一组样本点,可以使用线性回归,也可以用多项式回归。那么使用哪种模型好呢(能够在偏差和方差之间达到平衡最优)? 还有一类参数选择问题:如果我们想使用带权值的回归模型,那么怎么选择权重w公式里的参数?形式化定义:假设可选的模型集合是,比如我们想分类,那么SVM、logistic回归、神经网络等模型都包含在M中。2交叉验证
GarfieldEr007
·
2015-11-27 11:00
机器学习
Model
selection
模型选择
regularization
规则化
支持向量机SVM(四)
9规则化和不可分情况处理(
Regularization
andthenon-separablecase)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
GarfieldEr007
·
2015-11-27 11:00
vector
SVM
learning
machine
support
支持向量机
Machines
什么是过拟合问题,怎么样避免.
正则化
Regularization
为了和正规方程(normalequation)里”正规”区分开来,这里
Regularization
都译作“正则化”,有些地方也用的是“正规化”。
djd已经存在
·
2015-11-23 20:36
机器学习
什么是过拟合问题,怎么样避免.
正则化
Regularization
为了和正规方程(normalequation)里”正规”区分开来,这里
Regularization
都译作“正则化”,有些地方也用的是“正规化”。
djd1234567
·
2015-11-23 20:00
Machine Learning week 3 quiz :
Regularization
Regularization
5 试题1.
GarfieldEr007
·
2015-11-17 20:00
learning
machine
Coursera
quiz
regularization
Machine Learning No.4:
Regularization
1. Underfit = High bias Overfit = High varience 2. Addressing overfitting: (1) reduce number of features. Manually select which features to keep. Model selection algorithm &nb
·
2015-11-13 12:04
【机器学习】支持向量机[续1]
规则化和不可分情况处理(
Regularization
and the Non-separable Case) 当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维,这样很可能就可分了。
·
2015-11-13 11:53
机器学习
转:机器学习 规则化和模型选择(
Regularization
and model selection)
规则化和模型选择(
Regularization
and model selection) 转: http://www.cnblogs.com/jerrylead/archive/2011/03/27
·
2015-11-13 07:30
支持向量机系列
支持向量机属于一般化线性分类器,也可以被认为是提克洛夫规范化(Tikhonov
Regularization
)方法的一个特例。这族
·
2015-11-12 17:43
支持
denoising autoencoder
神经网络结构决定(层,神经元,连接) 加入特定领域的知识(CNN 图片处理) 2.模型复杂度高 大的数据量;
regularization
·
2015-11-12 09:36
encode
机器学习复习——
Regularization
Regularization
:作用是:1.数值上更容易求解;2.特征数目太大时更稳定;3.控制模型的复杂度,光滑性。复杂性越小且越光滑的目标函数泛化能力越强。
renyp8799
·
2015-11-11 16:00
机器学习之正则化(
Regularization
)
1. The Problem of Overfitting 1 还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。 如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。 我们把此类情况称为欠拟合(under
·
2015-11-11 14:44
机器学习
机器学习中的正则化和范数规则化
正则化(
regularization
)来源于线性代数理论中的不适定问题,求解不适定问题的普遍方法是:用一族与原不适定问题相“邻近”的适定问题的解去逼近原问题的解,这种方法称为正则化方法。如何建立有
·
2015-11-11 00:20
机器学习
DeepLearning (六) 学习笔记整理:神经网络以及卷积神经网络
神经网络神经网络模型前向传播反向传播NeuralNetwordsTipsandTricksGradientCheck
Regularization
激活函数sigmoid函数TanhRelu稀疏编码卷积神经网络卷积局部感知权值共享多通道卷积卷积输出大小计算公式池化
llp1992
·
2015-11-06 17:00
神经网络
深度学习
卷积神经网络
浅谈dropout--防止过拟合的方法
算法介绍为了防止过拟合和提高泛化能力,在Neural Networks and Deep Learning中提到了几种方法,包括:early stopping、Data augmentation、正则化(
Regularization
he_min
·
2015-11-05 21:00
极大后验概率(MAP)- maximum a posteriori(转载)
所以最大后验估计可以看作是规则化(
regularization
)的最大似然估计。假设我们需要根据观察数据 x 估计没有观察到的总体参数 θ,让 f
winone361
·
2015-11-05 16:00
浅谈dropout--防止过拟合的方法
算法介绍为了防止过拟合和提高泛化能力,在Neural Networks and Deep Learning中提到了几种方法,包括:early stopping、Data augmentation、正则化(
Regularization
鱼香土豆丝
·
2015-11-05 00:00
A parameter-free dimensionality reduction method
6560364andthematlabcodecanbedownloadedfromhttp://www.openpr.org.cn/index.php/104-How-to-Estimate-the-
Regularization
-Param
杰
·
2015-11-03 15:00
正则化方法:L1和L2
regularization
、数据集扩增、dropout
文章转自:http://blog.csdn.net/u012162613/article/details/44261657本文是《Neuralnetworksanddeeplearning》概览中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟
u010402786
·
2015-11-02 21:00
机器学习
正则
深度学习
Proximal Gradient Descent for L1
Regularization
[本文链接: http://www.cnblogs.com/breezedeus/p/3426757.html,转载请注明出处] 假设我们要求解以下的最小化问题: &n
·
2015-11-02 15:34
des
issue2:overfitting and
regularization
数据训练时分为训练集和测试集,在训练集上训练模型得到的误差叫做test err,在测试集上测试得到的误差就做test err。 我们最终的目标是在训练集上的test err足够小,这样表示模型能很好的fit这个类型的数据。 对于上节中的最小二乘问题,有如下等式: 模型复杂度(complexity)即是描述训练误差和测试误差的不同的工具。 泛化(由训练集到测试集)误差
·
2015-11-02 15:26
over
正则化方法:L1和L2
regularization
、数据集扩增、dropout
正则化方法:L1和L2
regularization
、数据集扩增、dropout 本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习
·
2015-11-02 15:23
drop
Overfitting &
Regularization
Overfitting &
Regularization
The Problem of overfitting A common issue in machine learning or mathematical
·
2015-11-02 11:19
over
关于正则化话的理解
正则化与归一化含义解析:http://sobuhu.com/ml/2012/12/29/normalization-
regularization
.html正则化:http://www.cnblogs.com
li4850729
·
2015-11-02 11:11
斯坦福大学机器学习第七课“正则化(
Regularization
)”
【转自】:http://52opencourse.com/133/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D%A6%E7%A6%8F%E5%A4%A7%E5%AD%A6%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AC%AC%E4%B8%83%E8%AF%BE-%E6%
li4850729
·
2015-11-02 10:28
MachineLearning
Deep learning:六(regularized logistic回归练习)
前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了
regularization
项在线性回归问题中的应用,这节主要是练习
regularization
·
2015-11-01 10:17
log
Deep learning:五(regularized线性回归练习)
前言: 本节主要是练习
regularization
项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。
·
2015-11-01 10:16
reg
支持向量机(四)
9 规则化和不可分情况处理(
Regularization
and the non-separable case) 我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
·
2015-10-30 12:17
支持
规则化和模型选择(
Regularization
and model selection)
1 问题 模型选择问题:对于一个学习问题,可以有多种模型选择。比如要拟合一组样本点,可以使用线性回归,也可以用多项式回归。那么使用哪种模型好呢(能够在偏差和方差之间达到平衡最优)? 还有一类参数选择问题:如果我们想使用带权值的回归模型,那么怎么选择权重w公式里的参数? 形式化定义:假设可选
·
2015-10-30 12:17
select
Tikhonov
regularization
Tikhonov
regularization
is the most commonly used method of
regularization
of ill-posed problems.
·
2015-10-30 11:38
reg
Andrew Ng机器学习公开课笔记 --
Regularization
and Model Selection
网易公开课,第10,11课 notes,http://cs229.stanford.edu/notes/cs229-notes5.pdf Model Selection 首先需要解决的问题是,模型选择问题,如何来平衡bais和variance来自动选择模型?比如对于多项式分类,如何决定阶数k,对于locally weighted regression如何决定窗口大小,对于SVM
·
2015-10-27 12:23
select
Shooting Algorithm
Shooting算法是Wenjiang提出的一种优化Lasso(L1
Regularization
)和Bridge Regression的算法, 本文以Lasso为例.对于线性回归问题$\mathbb{
·
2015-10-27 11:46
Algorithm
没有参数的降维方法
arnumber=6560364,代码链接:http://www.openpr.org.cn/index.php/104-How-to-Estimate-the-
Regularization
-Parameter-for-Spectral-Regression-Discrimina
杰
·
2015-10-21 19:00
Machine Learning Basics(要点)
MachineLearningBasicsLearningAlgorithmsTheTaskTThePerformanceMeasurePTheExperienceEExampleLinearRegressionGeneralizationCapacityOverfittingandUnderfittingTheNoFreeLunchTheorem
Regularization
Hyperpar
u011762313
·
2015-10-03 18:00
机器学习
Regularization
and model selection
Regularization
andmodelselection假设我们为了一个学习问题尝试从几个模型中选择一个合适的模型。
shinian1987
·
2015-09-25 18:00
机器学习
逻辑回归和过拟合问题的解决 logistic Regression &
Regularization
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
ZhikangFu
·
2015-09-23 10:00
机器学习之正则化(
Regularization
)
我不生产自己不熟悉的内容,我只是陌生内容的搬运工!向原作致敬!TheProblemofOverfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。我们把此类
jzwong
·
2015-09-18 10:00
台湾国立大学机器学习技法.听课笔记(第五讲) :Kernel Logistic Regression
它很像L2
regularization
,但是我们为什么算Soft-ma
huang1024rui
·
2015-09-17 20:00
机器学习
听课笔记
台湾大学机器学习技法
优化算法——OWL-QN
一、正则化(
Regularization
)1、正则化的作用 在机器学习中,正则化是相对于过拟合出现的一种特征选择的方法。
google19890102
·
2015-09-07 09:00
OWL-QN
损失函数(loss function)
原文地址:http://blog.csdn.net/yhdzw/article/details/39291493通常而言,损失函数由损失项(lossterm)和正则项(
regularization
term
liuxiabing150
·
2015-08-27 16:00
cnn
深度学习
Machine Learning 学习笔记Week3 (续)——如何避免overfitting
Regularization
就是用
wjl769900937
·
2015-08-25 15:00
机器学习
人工智能
预测
CAFFE CONTRASTIVE_LOSS 对比损失函数
caffe的损失函数,目前已经囊括了所有可以用的了吧,损失函数由激活函数决定,同时有时会加入
regularization
,在BP过程中,使得误差传递得以良好运行。
u014114990
·
2015-08-25 11:00
台湾国立大学机器学习基石.听课笔记(第十四讲):
Regularization
台湾国立大学机器学习基石.听课笔记(第十四讲):
Regularization
1,
Regularization
Hypothesisset我们有上一讲的假设集合可知:我们发现发生overfitting的一个重要原因可能是假设过于复杂了
Paul-Huang
·
2015-08-25 10:27
机器学习
台湾国立大学机器学习基石.听课笔记(第十四讲):
Regularization
台湾国立大学机器学习基石.听课笔记(第十四讲):
Regularization
1,
Regularization
Hypothesisset我们有上一讲的假设集合可知:我们发现发生overfitting的一个重要原因可能是假设过于复杂了
huang1024rui
·
2015-08-25 10:00
机器学习
听课笔记
台湾国立大学机器学习基石
Deep learning:五(regularized线性回归练习)
前言:本节主要是练习
regularization
项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。
mydear_11000
·
2015-08-23 09:00
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他