E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
regularization
8月13日TensorFlow学习笔记——卷积神经网络、CIFAR100、ResNet
文章目录前言一、减少Overfitting1、Moredata2、Constrainmodelcomplexity3、
Regularization
4、动量5、学习率衰减6、Dropout二、卷积神经网络
Ashen_0nee
·
2022-09-21 15:56
tensorflow
学习
cnn
机器学习系列:过拟合与正则化
目录一、过拟合问题(TheProblemofOverfitting)1、回归问题中的过拟合问题2、分类问题中的过拟合问题3、过拟合的解决方法二、正则化(
Regularization
)1、代价函数2、正则化线性回归问题
已退游,勿扰
·
2022-09-13 07:25
机器学习
逻辑回归
回归
人工智能
Dropout层到底在干些什么(Pytorch实现)
Dropout如何缓解过拟合3.Dropout实际实现三、Pytorch实现1.实际实现方式(训练模式下)2.调用方式3.参数解析4.实例5.Dropout1d和Dropout2d参考:一、基本概念1.正则化(
Regularization
NorthSmile
·
2022-09-12 07:42
深度学习
Pytorch
pytorch
深度学习
人工智能
卷积神经网络
神经网络
CS231n-2022 Module1: 神经网络概要1:Setting Up the Architecture
Modelingoneneuron3.1神经元基本模型3.2Singleneuronasalinearclassifier3.2.1BinarySoftmaxclassifier3.2.2BinarySVMclassifier3.2.3
Regularization
interpretation3.3Commonlyusedactivationfunctions
笨牛慢耕
·
2022-08-25 07:18
深度学习
神经网络
人工智能
深度学习
【转】 cs231n学习笔记-激活函数-BN-参数优化
一次性设置(Onetimesetup)-激活函数(Activationfunctions)-数据预处理(DataPreprocessing)-权重初始化(WeightInitialization)-正则化(
Regularization
Vincent_zbt
·
2022-08-22 07:30
机器学习
机器学习
激活函数
吴恩达【优化深度神经网络】笔记01——深度学习的实用层面
“偏差-方差分解”(bias-variancedecomposition)2.输入特征是高维的情况3.应对方法三、正则化(
regularization
)1.L2
regularization
2.L1regula
美式咖啡不加糖x
·
2022-08-13 09:11
DeepLearning
神经网络
深度学习
人工智能
全面讨论泛化 (generalization) 和正则化 (
regularization
)
模型泛化能力,是设计和评估一个机器学习or深度学习方法时无比重要的维度,所以我想通过一系列文章,与大家全面地讨论机器学习和深度学习中的泛化(generalization)/正则化(
regularization
数据派THU
·
2022-08-13 07:33
神经网络
算法
python
计算机视觉
机器学习
线性模型中的高级特征选择技术——基于R
弹性网络数据理解和准备一.数据预处理二.训练集和测试集的划分三.模型构建与评价1.最优子集2.岭回归3.LASSO回归4.弹性网络岭回归岭回归(英文名:ridgeregression,Tikhonov
regularization
阿强真
·
2022-08-10 19:26
R语言数据分析
r语言
机器学习
人工智能
A Survey on Graph Structure Learning: Progress and Opportunities
GSLpiplineGraphStructureModelingMetric-basedApproachesNeuralApproachesDirectApproachesPostprocessingGraphStructuresDiscreteSamplingResidualConnectionsGraph
Regularization
siyan985
·
2022-07-18 07:35
机器学习
图论和图神经网络
机器学习
人工智能
标准化、归一化和正则化的关系
首先,标准化的英文是Standardization,归一化的英文是Normalization,正则化的英文是
Regularization
。
阿升1990
·
2022-07-17 09:28
标准化、归一化和正则化的关系
首先,标准化的英文是Standardization,正则化的英文是Normalization,正则化的英文是
Regularization
。
阿升1990
·
2022-07-17 09:00
正则化方法之DropBlock
论文:DropBlock:A
regularization
methodforconvolutionalnetworksGithub:https://github.com/miguelvr/dropblockhttps
watersink
·
2022-07-14 21:01
深度学习
SVM理论详解及代码实现
wenyusuran/article/details/35987813本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
Cynthia小阁
·
2022-07-13 07:45
信号处理的基本算法
Pytorch(六) —— 模型调优tricks
Pytorch(六)——模型调优tricks1.正则化
Regularization
1.1L1正则化1.2L2正则化2动量与学习率衰减2.1momentum2.2learningratetunning3.
CyrusMay
·
2022-07-04 07:07
Pytorch
深度学习(神经网络)专题
pytorch
深度学习
python
人工智能
机器学习
卷积网络的block_DropBlock实现一种PyTorch中卷积网络的正则化方法
DropBlockAbstractDeepneuralnetworksoftenworkwellwhentheyareover-parameterizedandtrainedwithamassiveamountofnoiseand
regularization
Chongchong Zhang
·
2022-07-03 07:16
卷积网络的block
图灵奖得主Yann LeCun:我的论文也被NeurIPS拒了
被拒绝的论文标题为《VICReg:Variance-Invariance-Covariance
Regularization
forSelf-SupervisedLearning
算法与数学之美
·
2022-07-01 10:30
机器学习
人工智能
深度学习
计算机视觉
算法
【学习day5】正则化+权重衰退
Regularization
,翻译过来可以称为正则化,或者是规范化。什么是规则?闭卷考试中不能查书,这就是规则,一个限制。同理,在这里,
辛幼安Sonia
·
2022-07-01 07:40
pytorch
深度学习
机器学习
【学习笔记】Pytorch深度学习—正则化之weight decay权值衰减
【学习笔记】Pytorch深度学习—正则化之weightdecay权值衰减正则化与偏差—方差分解`正则化
Regularization
定义``什么是方差?
白桃乌龙茶
·
2022-06-27 23:29
深度学习
ACL 2022 RE两篇
ContinualFew-shotRelationLearningviaEmbeddingSpace
Regularization
andDataAugmentation看上去似乎有些难,这篇文章做的工作不少
追光女孩儿
·
2022-06-27 23:01
论文记录
机器学习
自然语言处理
人工智能
西瓜书学习笔记第5章【神经网络】
神经网络】5.1神经元模型5.2感知机与多层网络一、感知机二、多层功能神经元(多层网络)5.3误差逆传播算法(反向传播(BP)算法)对各个参数更新公式的推导“早停(earlystopping)”“正则化(
regularization
Halozzk
·
2022-06-27 13:45
西瓜书-机器学习(学习笔记)
机器学习
深度学习
卷积神经网络
神经网络
人工智能
(二)升级版RNN实现文本情感分析(Pytorch)
文章目录准备数据搭建模型不同的RNN架构BidirectionalRNNMulti-layerRNN
Regularization
实现细节训练模型用户输入完整代码后续行动在前面的笔记中,我们记下了基本面,
Nlper_Zhao
·
2022-06-23 07:30
自然语言处理
自然语言处理
pytorch
深度学习
机器学习13种算法的优缺点,你都知道哪些?
正则化算法(
Regularization
Algorithms)集成算法(EnsembleAlgorithms)决策树算法(DecisionTreeAlgorithm)回归(Regression)人工神经网络
weixin_34362991
·
2022-06-13 13:33
人工智能
大数据
数据结构与算法
pytorch贝叶斯网络_使用贝叶斯优化快速调试pytorch中的超参数的快速教程
贝叶斯网络Hyperparametersaretheparametersinmodelsthatdeterminemodelarchitecture,learningspeedandscope,and
regularization
weixin_26748251
·
2022-06-12 12:26
java
人工智能
python
机器学习
linux
Stanford机器学习---第十讲 数据降维
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
画面很美
·
2022-06-12 07:35
李宏毅机器学习课程梳理【七】:深度神经网络优化方法与卷积神经网络
1.1ReLU1.2Maxout1.3RMSProp1.4Momentum1.5Adam2优化在TrainingSet上结果好却在TestingSet上结果差的问题2.1EarlyStopping2.2
Regularization
2.3Dropout3ConvolutionalNeuralNetwork3.1
-Emmie
·
2022-06-07 07:33
机器学习
深度学习
李宏毅2021ML-hw1 新冠预测
系列文章目录李宏毅ML-2022hw2文章目录系列文章目录简介实验部分SimpleBaselineMediumBaselineStrongBaseline模型参数选择(损失函数、激活函数)特征选择L1/L2
Regularization
sama_AA
·
2022-06-03 07:56
李宏毅机器学习hw
python
深度学习
机器学习
pytorch
(pytorch-深度学习系列)pytorch避免过拟合-权重衰减的实现-学习笔记
权重衰减等价于L2范数正则化(
regularization
)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。对于线性回归损失函数ℓ(w1,w2,b)=1n∑i=1
我是一颗棒棒糖
·
2022-05-29 08:26
DeepLearning学习
python
正则化
机器学习
过拟合
深度学习
【一起入门DeepLearning】中科院深度学习第五课:正则化「
Regularization
」和优化「Optimization」
如果感兴趣的话,就和我一起入门DL吧目录0重要概念回顾0.1泛化误差Generalizationerror0.2偏差Bias0.3方差Variance1正则化
Regularization
介
vector<>
·
2022-05-27 07:40
深度学习
泛化
优化
深度学习
正则化
深度学习:标签平滑(Label Smoothing
Regularization
)
文章目录1.标签平滑的作用—防止过拟合2.传统的交叉熵损失计算3.带有标签平滑的交叉熵损失的计算4.标签平滑与传统的交叉熵损失的比较与分析5.标签平滑的应用场景1.标签平滑的作用—防止过拟合在进行多分类时,很多时候采用one-hot标签进行计算交叉熵损失,而单纯的交叉熵损失时,只考虑到了正确标签的位置的损失,而忽略了错误标签位置的损失。这样导致模型可能会在训练集上拟合的非常好,但由于其错误标签位置
陈壮实的编程生活
·
2022-05-23 10:04
深度学习
深度学习
机器学习
标签平滑
交叉熵损失
dropout层_【深度学习理论】一文搞透Dropout、L1L2正则化/权重衰减
常用正则化方法介绍,重点介绍Dropout的概念和代码实现、L1-norm/L2-norm的概念、L1/L2正则化的概念和代码实现~要是文章看完还不明白,欢迎交流、分享、拍砖:)详细内容如下:1.正则化
Regularization
1.1
weixin_39749243
·
2022-05-20 18:22
dropout层
dropout层的作用
dropout层的作用_【深度学习理论】一文搞透Dropout、L1L2正则化/权重衰减
常用正则化方法介绍,重点介绍Dropout的概念和代码实现、L1-norm/L2-norm的概念、L1/L2正则化的概念和代码实现~要是文章看完还不明白,欢迎交流、分享、拍砖:)详细内容如下:1.正则化
Regularization
1.1
weixin_39637919
·
2022-05-20 18:22
dropout层的作用
pytorch
l2正则化
pytorch
正则化
正则化综述(L2\L1正则化、弹性网络正则化,数据增强、k折交叉验证、dropout、early stopping、injecting noise)
折交叉验证(k-foldcross-validation)早停法(earlystopping)参数范数惩罚(ParameterNormPenalty)L2正则化L1正则化弹性网络正则化(elasticnet
regularization
today__present
·
2022-05-20 18:51
网络
深度学习
机器学习
正则化
过拟合
paper_summary
paper_summary训练Trick[1]learnningratescheduler:Accurate,LargeMinibatchSGD:TrainingImageNetin1Hour[2]Adam+L2
regularization
程序猿小姜
·
2022-05-19 09:14
深度学习
计算机视觉
深度学习
人工智能
PyTorch——L2范数正则化(权重衰减)
tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.12_weight-decay权重衰减(weightdecay)权重衰减等价于L2范数正则化(
regularization
cqu_shuai
·
2022-05-19 07:55
PyTorch
深度学习
正则化
pytorch
神经网络
regularization
CS231n课后作业 | Assignment 3 Q4 | StyleTransfer-PyTorch 风格迁移
风格迁移编写:BenVonStyleTransfer设置Setup计算损失ComputingLoss内容损失ContentLoss风格损失StyleLoss整体方差正则化Total-variation
regularization
BenVon
·
2022-05-11 07:16
cs231n
Stanford
pytorch
对抗攻击与防御 (2):对抗样本的反制策略
stochastic/randomizedgradients)2..4梯度爆炸和消失(exploding&vanishinggradients)2.5梯度混淆或掩盖方法不安全3健壮性优化3.1正则化方法(
regularization
met
因吉
·
2022-04-28 13:13
#
信息安全
对抗攻击与防御
对抗样本反制
因吉与皮卡墨
[二十二]深度学习Pytorch-正则化
Regularization
之dropout
0.往期内容[一]深度学习Pytorch-张量定义与张量创建[二]深度学习Pytorch-张量的操作:拼接、切分、索引和变换[三]深度学习Pytorch-张量数学运算[四]深度学习Pytorch-线性回归[五]深度学习Pytorch-计算图与动态图机制[六]深度学习Pytorch-autograd与逻辑回归[七]深度学习Pytorch-DataLoader与Dataset(含人民币二分类实战)[八
yanzhiwen2
·
2022-04-14 07:12
深度学习Pyrotch
pytorch
深度学习
python
人工智能
机器学习
Stanford机器学习---第5讲. 神经网络的学习 Neural Networks learning
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
hellotruth
·
2022-04-08 08:21
Andrew
Ng
神经网络
Stanford公开课--神经网络的学习
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、
Regularization
、神经网络、机器学习系统设计
Before1993
·
2022-04-08 07:12
机器学习
深度学习技巧(激活函数-BN-参数优化等等)
一次性设置(Onetimesetup)-激活函数(Activationfunctions)-数据预处理(DataPreprocessing)-权重初始化(WeightInitialization)-正则化(
Regularization
loving_coco
·
2022-03-31 19:14
Deep
Learning
机器学习
本周的总结
1INTRODUCTION(介绍)2BACKGROUND(背景)2.1MIXMATCH3REMIXMATCH3.1DISTRIBUTIONALIGNMENT(分布对齐)3.2IMPROVEDCONSISTENCY
REGULARIZATION
ZN_daydayup
·
2022-03-24 07:27
半监督学习
ReMixMatch
多GPU训练
Linear Regression 线性回归
LossFunction)梯度下降(GradientDescent)LearningRate的选择求取损失函数最小值正则项总结代码实现一次模型二次模型二次模型Adamgrad五次模型五次模型(With
Regularization
Aroundchange
·
2022-03-23 07:30
MachineLearning
机器学习
线性回归
linear
regression
《动手学深度学习PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸
过拟合和欠拟合模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合解决方法权重衰减权重衰减等价于L2范数正则化(
regularization
kanatappi
·
2022-03-22 17:55
动手学深度学习PyTorch版
神经网络
pytorch
深度学习
AdamW优化器(自适应梯度方法)
DECOUPLEDWEIGHTDECAY
REGULARIZATION
解耦权值衰减正则化摘要L2正则化和权值衰减正则化对于标准随机梯度下降是等价的(当按学习率重新调整时),但是在自适应梯度算法的情况下确并非如此
星光里
·
2022-03-19 08:13
深度学习
pytorch
神经网络
神经网络基础知识
MultiLayerPerceptron,MLP)3.激活函数4.反向传播(BackPropagation)5.损失函数(LossFunction)6.权值初始化(Initialization)7.正则化方法(
Regularization
le_printemps
·
2022-02-25 07:12
神经网络
卷积
Machine Learning - Andrew Ng 笔记(5)
是本次课程中会介绍到的最后一种监督机器学习算法.OptimizationObjectiveSVMcost1(z)andcost0(z)如果将logisticregression的costfunction去掉
regularization
nafoahnaw
·
2022-02-21 08:45
AI数学基础14——神经网络的参数和超参数
可以用训练的方式获得神经网络的超参数(HyperParameters),是神经网络模型外部的配置参数,比如学习率a、隐藏层数L、隐藏层单元数、激活函数的选择、momentum、minibatchsize、
regularization
parameters
LabVIEW_Python
·
2022-02-20 07:44
On the
regularization
of wasserstein GANs
摘要自从他们的发明以来,生成对抗网络(GAN)已经成为一种流行的方法,用于学习对真实(未标记)数据的分布进行建模。WassersteinGAN克服了训练过程中的收敛性问题,该问题以不同的度量标准使模型和经验分布之间的距离最小化,从而将Lipschitz约束引入到优化问题中。可以通过神经网络建模的对函数类实施Lipschitz约束的一种简单方法是权重裁剪。作为改进培训的替代方案,提出了一种通过修正正
一技破万法
·
2022-02-19 19:08
Overfitting and
Regularization
Overfittingand
Regularization
Whatshouldwedoifourmodelistoocomplicated?
asuka_19d5
·
2022-02-16 04:53
【zt】LogisticRegression 调参 & GridSearchCV
==============================================================C:float,optional(default=1.0)Inverseof
regularization
strength
木木资料馆
·
2022-02-15 05:41
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他