E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
regularization
支持向量机(四)
9规则化和不可分情况处理(
Regularization
andthenon-separablecase)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
macyang
·
2014-08-28 22:00
Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable
abcjennifer/article/details/7691571本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
Leytton
·
2014-08-16 14:00
机器学习
variable
multiple
learning
machine
Regression
Linear
多变量线性回归
Regularization
Whatis
regularization
andhowdoesithelpOverfittingwithlinearregres
chlele0105
·
2014-07-29 13:00
机器学习
regularization
Stanford ML -
Regularization
正则化
在线性和逻辑回归中,如果选择的特征过多,会出现overfitting的情况:回归函数匹配训练集内的数据特别好,但是不能很好的预测新数据。解决overfitting的方法一般有两种:1.减少特征的数量-用老婆的话说,就是控制参数的稀疏性,不让参数过多,防止过拟合。很专业的说,赞一个:)2.正则化-保留所有的特征,但是让theta的取值小些,这样每个特征对最终结果的影响就减小了。这里呢介绍正则化这种方
u013166464
·
2014-07-22 23:00
正则
learning
machine
支持向量机(四)
9规则化和不可分情况处理(
Regularization
andthenon-separablecase)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
yhdzw
·
2014-07-17 08:00
MATLAB支持向量机SVM代码实现
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
wenyusuran
·
2014-06-30 10:00
规则化和模型选择(
Regularization
and model selection)
1问题 模型选择问题:对于一个学习问题,可以有多种模型选择。比如要拟合一组样本点,可以使用线性回归,也可以用多项式回归。那么使用哪种模型好呢(能够在偏差和方差之间达到平衡最优)? 还有一类参数选择问题:如果我们想使用带权值的回归模型,那么怎么选择权重w公式里的参数?形式化定义:假设可选的模型集合是,比如我们想分类,那么SVM、logistic回归、神经网络等模型都包含在M中。2交叉验证
wenyusuran
·
2014-06-27 18:00
第八讲. 支持向量机进行机器学习——Support Vector Machine
abcjennifer/article/details/7849812本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
erli11
·
2014-06-23 10:32
机器学习
算法
正则化、归一化含义解析
原帖地址:http://sobuhu.com/ml/2012/12/29/normalization-
regularization
.html正则化、归一化含义解析正则化(
Regularization
)、
jideljd_2010
·
2014-06-17 12:00
正则化,归一化的解释
本文摘自http://sobuhu.com/ml/2012/12/29/normalization-
regularization
.html正则化(
Regularization
)、归一化(也有称为正规化/
zaozxueyuan
·
2014-06-06 10:00
归一化
正则化
L1和L2正则化
http://freemind.pluskid.org/machine-learning/sparsity-and-some-basics-of-l1-
regularization
/Sparsity是当今机器学习领域中的一个重要话题
u010666109
·
2014-06-04 10:00
优化
机器学习
正则
模式识别
正则化
最近听吴立德老师的深度学习课程,不断强调可以再Loss函数后面加上正则化项以优化问题最小解,于是查了一些正则化的相关资料,介绍几篇解释的通俗易懂的文章:(1)正则化、归一化含义解析(2)StanfordML-
Regularization
u010555688
·
2014-05-16 16:00
机器学习
正则
Deep learning:六(regularized logistic回归练习)
www.cnblogs.com/tornadomeet/archive/2013/03/17/2964858.html前言:在上一讲Deeplearning:五(regularized线性回归练习)中已经介绍了
regularization
siliang13
·
2014-05-15 16:00
DeepLearning
Deep learning:五(regularized线性回归练习)
本文转自http://www.cnblogs.com/tornadomeet/archive/2013/03/17/2964515.html前言:本节主要是练习
regularization
项的使用原则。
siliang13
·
2014-05-15 16:00
DeepLearning
Sparsity and Some Basics of L1
Regularization
http://freemind.pluskid.org/machine-learning/sparsity-and-some-basics-of-l1-
regularization
/
u010555688
·
2014-05-14 12:00
l1
regularization
斯坦福大学-回归规则化处理_Exercise Code
Regularization
规则化(过拟合处理方法:一是减少特征,二是规则化)http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?
sunny13love
·
2014-04-13 14:00
机器学习
matlab
线性回归和正则化(
Regularization
)
1.线性回归介绍X指训练数据的feature,beta指待估计得参数。详细见http://zh.wikipedia.org/wiki/%E4%B8%80%E8%88%AC%E7%BA%BF%E6%80%A7%E6%A8%A1%E5%9E%8B使用最小二乘法拟合的普通线性回归是数据建模的基本方法。令最小二乘项的偏导为0(为0时RSS项最小),求Beta估计值,得到最小二乘的向量形式。最小二乘其实就是
u013363719
·
2014-04-08 20:00
lasso
正则化
线性模型
岭回归
ridge
regressio
正则化和归一化的浅层理解
正则化(
Regularization
)、归一化(也有称为正规化/标准化,Normalization)是对数据尽心预处理的方式,他们的目的都是为了让数据更便于我们的计算或获得更加泛化的结果,但并不改变问题的本质
OPPOA113
·
2014-03-25 22:00
total variation denoising
来自wiki totalvariationdenoising) Insignalprocessing,TotalVariationdenoising,alsoknownastotalvariation
regularization
isaprocess
todayq
·
2014-03-18 18:00
奇异矩阵与L2
Regularization
奇异矩阵是线性代数的概念,就是对应的行列式等于0的矩阵。奇异矩阵的判断方法:首先,看这个矩阵是不是方阵(即行数和列数相等的矩阵。若行数和列数不相等,那就谈不上奇异矩阵和非奇异矩阵)。 然后,再看此方阵的行列式|A|是否等于0,若等于0,称矩阵A为奇异矩阵;若不等于0,称矩阵A为非奇异矩阵。 同时,由|A|≠0可知矩阵A可逆,这样可以得出另外一个重要结论:可逆矩阵就是非奇异矩阵,非奇异矩阵也是可逆矩
pbyang
·
2014-02-27 11:00
2013_ICCV_Efficient Image Dehazing with Boundary Constraint and Contextual
Regularization
算法步骤:step1:估计大气光A本算法是通过对有雾图像的每个颜色通道进行局部最小值滤波,得到三个暗通道图像,然后把每个暗通道图像中的最大值作为大气光值A的相应通道的灰度值。step2:边界约束step3:邻域约束step4:根据分离变量的方法来解目标函数并得到透射率tstep5:去雾正则化大概有两个功能:1,从模型修正上看,起了一个trade-off作用,用于平衡学习过程中两个基本量,名字诸如b
wanglongfei_hust
·
2014-02-19 19:00
Sparsity and Some Basics of L1
Regularization
SparsityandSomeBasicsofL1
Regularization
Sparsity是当今机器学习领域中的一个重要话题。
xidianzhimeng
·
2014-02-14 14:00
机器学习
sparsity
斯坦福机器学习-week 3 学习笔记(3)—— 解决Overfitting
keyword:Overfitting,
Regularization
目录一.Overfitting的定义二.解决Overfitting的方法三.
Regularization
四.
Regularization
shengno1
·
2014-01-30 11:00
机器学习
学习笔记
【MLF Week 7 上】Overfitting和
Regularization
过拟合和正则化Badgeneralization指的是一个状态,在这个VC维下,Error_in小,Error_out大。Overfitting指的是一个过程,在VC维变大过程中,Error_in变小,Error_out变大。Overfitting(过拟合)指的是当VC维很大时,学到的MODEL不能很好的举一反三。在训练数据上取得很好的效果,但是对于训练数据以外的其他数据(如测试数据),预测结果与
lqhbupt
·
2014-01-25 00:00
斯坦福ML公开课笔记11——贝叶斯正则化、在线学习、ML应用建议
学习理论的内容包括贝叶斯统计和正则化(Bayesianstatisticsand
Regularization
)、在线学习(OnlineLearning)。
xinzhangyanxiang
·
2014-01-19 11:00
机器学习
在线学习
贝叶斯正则化
What is the difference between L1 and L2
regularization
?
今天讨论班一个师姐讲到L1norm还有L2norm的
regularization
问题,还有晚上和一个同学也讨论到这个问题,具体什么时候用L1,什么时候用L2,论文上写道一般当成分中有几个成分是principlefactor
lansatiankongxxc
·
2013-10-26 01:00
第二讲.Linear Regression with multiple variable (多变量线性回归)
multiple variable 本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
lch614730
·
2013-10-25 16:00
python
机器学习
learning
machine
多变量线性回归
Sparsity and Some Basics of L1
Regularization
SparsityandSomeBasicsofL1
Regularization
分类: MachineLearning2013-08-2711:55 269人阅读 评论(0) 收藏 举报目录(?)
·
2013-10-08 10:00
learning
machine
第一讲.Liner_Regression and Gradient_Descent(Rui Xia) 单变量线性回归及梯度下降
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
lch614730
·
2013-10-05 19:00
算法
数据
机器学习
预测
learning
machine
Stanford机器学习---第十讲. 数据降维
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 20:00
机器学习
learning
machine
Stanford机器学习---第九讲. 聚类
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 20:00
机器学习
learning
machine
Stanford机器学习---第八讲. 支持向量机SVM
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
淡淡的生活
·
2013-08-21 19:41
machine
learning
Stanford机器学习---第八讲. 支持向量机SVM
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 19:00
机器学习
learning
machine
Stanford机器学习---第七讲. 机器学习系统设计
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 19:00
机器学习
learning
machine
Stanford机器学习---第五讲. 神经网络的学习 Neural Networks learning
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 18:00
机器学习
神经网络
learning
machine
Stanford机器学习---第四讲. 神经网络的表示 Neural Networks representation
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 18:00
机器学习
learning
machine
逻辑回归和过拟合问题的解决 logistic Regression &
Regularization
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 18:00
learning
machine
Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 18:00
机器学习
learning
machine
Stanford机器学习---第一讲. Linear Regression with one variable
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 18:00
机器学习
learning
machine
Stanford机器学习---第六讲. 怎样选择机器学习方法、系统
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
android_asp
·
2013-08-21 17:00
机器学习
数据挖掘十大经典算法(3) Support vector machines
支持向量机属于一般化线性分类器.他们也可以认为是提克洛夫规范化(Tikhonov
Regularization
)方法的一个特例.这族分类器的特点是他们能够同时最小化经验误差与最大化几何边缘区.因此支持向量机也被称为最大边缘区分类器
starstarstone
·
2013-08-12 11:00
Stanford机器学习---神经网络的学习 Neural Networks learning
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
jirongzi_cs2011
·
2013-07-27 14:00
machine
BP
le
ann
支持向量机-坐标下降(上升)法
9规则化和不可分情况处理(
Regularization
andthenon-separablecase)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
vanlin5566
·
2013-06-06 21:00
Sparsity and Some Basics of L1
Regularization
Sparsity是当今机器学习领域中的一个重要话题。JohnLafferty和LarryWasserman在2006年的一篇评论中提到:Somecurrentchallenges…arehighdimensionaldata,sparsity,semi-supervisedlearning,therelationbetweencomputationandrisk,andstructuredpred
next9pm
·
2013-06-01 20:00
Coursera公开课笔记: 斯坦福大学机器学习第七课“正则化(
Regularization
)”
斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1) TheProblemofOverfitting(过拟合问题)2) CostFunction(成本函数)3) RegularizedLinearRegression(线性回归的正则化)4) RegularizedLogisticRegression(逻辑回归的正则化)以下是每一部分的详细解读。 1) TheProblemo
·
2013-05-29 19:00
机器学习
Exercise 5:
Regularization
Exercise5:
Regularization
Inthisexercise,youwillimplementregularizedlinearregressionandregularizedlogisticregression.DataThisdatabundlecontainstwosetsofdata
ncztc
·
2013-05-25 09:00
规则化和模型选择(
Regularization
and model selection)
1问题 模型选择问题:对于一个学习问题,可以有多种模型选择。比如要拟合一组样本点,可以使用线性回归,也可以用多项式回归。那么使用哪种模型好呢(能够在偏差和方差之间达到平衡最优)? 还有一类参数选择问题:如果我们想使用带权值的回归模型,那么怎么选择权重w公式里的参数?形式化定义:假设可选的模型集合是,比如我们想分类,那么SVM、logistic回归、神经网络等模型都包含在M中。2交叉验证
ncztc
·
2013-05-24 13:00
支持向量机(四)
9规则化和不可分情况处理(
Regularization
andthenon-separablecase)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维
ncztc
·
2013-05-24 13:00
Stanford机器学习---第二讲. 多变量线性回归Linear Regression with multiple variables
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
ncztc
·
2013-05-18 19:00
Stanford机器学习---第一讲. Linear Regression with one variable
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
ncztc
·
2013-05-18 18:00
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他