E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gradient
Mnist分别用两层神经网络和三层神经网络实现(一)
coding:utf-8importsys,ossys.path.append(os.pardir)#为了导入父目录的文件而进行的设定fromcommon.functionsimport*fromcommon.
gradient
importnumerical_
gradient
classTwoLayerNet
我就是人工智能
·
2022-11-26 10:00
深度学习
神经网络
python
深度学习
Mnist分别用两层神经网络和三层神经网络实现(二)
three_layer_net.pyimportsys,osfromcommon.functionsimport*fromcommon.
gradient
importnumerical_
gradient
classThreeLayerNet
我就是人工智能
·
2022-11-26 10:49
深度学习
神经网络
python
numpy
pytorch bug: Unable to find a valid cuDNN algorithm to run convolution
ProgramFiles\Anaconda\lib\site-packages\torch\tensor.py",line221,inbackwardtorch.autograd.backward(self,
gradient
小卜妞~
·
2022-11-26 01:12
异常
pytorch
深度学习
人工智能
pytorch bug: Unable to find a valid cuDNN algorithm to run convolution解决!
ProgramFiles\Anaconda\lib\site-packages\torch\tensor.py",line221,inbackwardtorch.autograd.backward(self,
gradient
qq_40929682
·
2022-11-26 01:12
深度学习
pytorch
bug
python
初识Grad-CAM
基于论文:Grad-CAM:VisualExplanationsfromDeepNetworksvia
Gradient
-basedLocalization论文下载地址:https://arxiv.org
果子尝尝
·
2022-11-26 01:41
深度学习
python
pytorch
人工智能
神经网络
【深度学习】02-04-类神经网络训练不起来怎么办?(自动调整学习速率)-李宏毅老师21&22深度学习课程笔记
自动调整学习速率总结Trainingstuck≠Small
Gradient
(训练卡住不代表小梯度)-有可能是梯度还很大但是训练停止了(在峡谷间震荡不能到峡谷底部)为什么需要自动调整学习率?
暖焱
·
2022-11-25 20:14
#
深度学习-李宏毅
深度学习
神经网络
学习
李宏毅机器学习 之 神经网络训练不起来怎么办(五)
二、批次Batch与动量法Momentum1、Batch和Epoch1)随机梯度下降Stochastic
Gradient
Descent2)小批量梯度下降Mini-batch
Gradient
Descent3
Arbicoral
·
2022-11-25 20:40
机器学习
深度学习
机器学习
batch
手把手神经网络讲解和无调包实现系列(2)Softmax回归【R语言】【小白学习笔记】
回归目录一·模型讲解1假设函数【HypothesisFunction】2激活函数【ActivationFunction】3损失函数【LossFunction】4随机梯度下降法推导【Stochastic
Gradient
Decent
美国小土豆
·
2022-11-25 20:31
r语言
机器学习
人工智能
神经网络
深度学习
神经网络训练不起来怎么办?(一)局部最小值(Local minima)与鞍点(saddle point)
criticalpoint指的是鞍点(saddlepoint)和局部最优点(localminima),当训练不起来时候可能是此时梯度(
gradient
)为0训练不起来了,此时可能遇到了criticalpoint
m0_59199033
·
2022-11-25 15:08
深度学习
神经网络
深度学习
机器学习
Pytorch强化学习算法实现
Policy
Gradient
算法实现Policy
Gradient
算法的思想在另一篇博客中有介绍了,下面是算法的具体实现。
日暮途远.
·
2022-11-25 15:06
强化学习
pytorch
算法
深度学习
经典CNN结构之LeNet5 开山鼻祖
论文传送门《
Gradient
-BasedLearningAppliedtoDocumentRecognition》byYANNLECUN,点击下载英文论文。
yueyueniaolzp
·
2022-11-25 14:32
深度学习
神经网络
深度学习
机器学习
卷积
算法
Pytorch【60天修炼计划】之第二阶段——进阶:卷积神经网络之LeNet
LeNet是来自论文《
Gradient
-BasedLearningAppliedtoDocumentRecognition》中提出的网络,它是CNN的开山鼻祖,对于手写数字的识别有了当时最先进的结果。
Bread Sir
·
2022-11-25 14:59
Pytorch
【60天修炼计划】
CNN
(八)集成学习之GBDT与python代码实现
学习笔记参考:https://www.ccs.neu.edu/home/vip/teach/MLcourse/4_boosting/slides/
gradient
_boosting.pdf全英文PPT,
十二十二呀
·
2022-11-25 14:22
数据挖掘学习笔记
python
数据挖掘
算法
机器学习
GBDT调参总结及代码实现
##一.scikit-learnGBDT类库概述在scikit-learn中,
Gradient
BoostingClassifier为GBDT的分类类,而
Gradient
BoostingRegressor
VABIS_VHAS
·
2022-11-25 14:49
Machine
Learning
gbdt
算法实现
GBDT回归算法实例分析
源码实现参考Github:https://github.com/Freemanzxp/GBDT_Simple_TutorialGBDT简介GBDT的全称是
Gradient
BoostingDecisionTree
Diamond-Mine
·
2022-11-25 14:18
机器学习
GBDT算法原理以及实例理解(含Python代码简单实现版)
一、算法简介:GBDT的全称是
Gradient
BoostingDecisionTree,梯度提升树,在传统机器学习算法中,GBDT算的上是TOP前三的算法。
旅途中的宽~
·
2022-11-25 14:16
机器学习系列文章
python
算法
机器学习
卷积神经网络CNN---LeNet
论文:
Gradient
-BasedLearningAppliedtoDocumentRecognition年份:1998一、模型简介:LeNet是一个七层的网络。
奶茶可可
·
2022-11-25 14:44
深度学习
卷积神经网络
深度学习第一次作业 - 波士顿房价预测
文章目录划分训练集和测试集建立线性回归模型特征选择重建模型尝试使用
Gradient
Boostingimportpandasaspdimportnumpyasnpimportseabornassnsfromsklearn.linear_modelimportLinearRegressionfromsklearn.model_selectionimporttrain_test_splitfromskl
未来影子
·
2022-11-25 13:02
机器学习
深度学习
python
【AI】浅谈梯度下降算法(理论篇)
前言在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(
Gradient
Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。
SYBH.
·
2022-11-25 09:24
掘金
python
人工智能
工程实践_深度学习训练模型时Loss出现NAN的原因及解决办法
6.加入梯度截断(
gradient
clipping)。原因2:网络结构设计问题解决方法:加如BN层进行归一化。修改网络结构(如增加网络宽度
TravelingLight77
·
2022-11-25 08:57
DL
tensorflow
深度学习
前端累加nan怎么解决_训练网络loss出现Nan解决办法
2.如果当前的网络是类似于RNN的循环神经网络的话,出现NaN可能是因为梯度爆炸的原因,一个有效的方式是增加“
gradient
clipping”(梯
weixin_39876595
·
2022-11-25 08:56
前端累加nan怎么解决
训练损失越来越大
输入矩阵包含
nan
或
inf
深度学习模型中出现loss nan解决办法
1脏数据,输入中可能有nan去除脏数据2梯度爆炸
gradient
_clipping,学习率减小,batch_size减小3网络结构不合理4归一化减均值,除方差,bn,L1,L25在loss函数某个位置添加
zhurui_xiaozhuzaizai
·
2022-11-25 08:26
遇到的问题
深度学习
人工智能
CatBoost详解--原理+类别特征处理的技巧+加速
CatBoost详解CatBoost简介CatBoost中处理类别特征的方法算法实现修正梯度偏差快速评分基于GPU快速学习CatBoost的参数CatBoost简介 CatBoost:基本原理类似于常规的
Gradient
Boosting
爱学习的小杠精
·
2022-11-25 08:24
机器学习/深度学习
机器学习
深度学习
数据挖掘
重参数 (Reparameterization)
Contents基本概念连续情形离散情形GumbelMaxGumbelSoftmaxStraight-ThroughGumbel-SoftmaxEstimator背后的故事:梯度估计(
gradient
estimator
连理o
·
2022-11-25 07:33
机器学习
机器学习
概率论
算法
【模型剪枝】|重参数化 ResRep
LosslessCNNChannelPruningvia
Gradient
ResettingandConvolutionalRe-parameterization提出了一种新的无损的通道剪枝方法ResRep
rrr2
·
2022-11-25 07:58
目标检测
信号检测占个坑
1.四种起伏类型的单脉冲检测,和多脉冲检测2.GLRT,Rao,Wald,
Gradient
等自适应检测设计
_就是玩儿_
·
2022-11-25 07:43
算法
深度学习入门代码详解(附代码)
训练配置2.2训练过程2.3梯度下降法2.4计算梯度2.5使用Numpy进行梯度计算2.6确定损失函数更小的点2.7代码封装Train函数2.8训练扩展到全部参数三、随机梯度下降法(Stochastic
Gradient
Descent
Dr.sky_
·
2022-11-25 05:35
NLP
人工智能
深度学习
神经网络
回归
机器学习
【ML23】浅谈 Adam Algorithm 解决学习率 α
Onestepof
Gradient
Descentwj=wj−αddwJ(w,b)w_j=w_j-α\fracd{dw}J(w,b)wj=wj−αdwdJ(w,b)bj=bj−αddbJ(w,b)b_j=
脚踏实地的大梦想家
·
2022-11-25 05:44
【机器学习】
学习
机器学习
深度学习
Adam优化算法介绍
Adam是一种优化算法,全称时adaptivemomentestimation(适应性矩估计)SGD和AdamSGD(stochastic
gradient
descent随机梯度下降)与Adam(adaptive
路新航
·
2022-11-25 05:14
深度学习
使用GradCAM绘制神经网络的特征图
代码:https://github.com/jacobgil/pytorch-grad-cam论文:Grad-CAM-VisualExplanationsfromDeepNetworksvia
Gradient
-basedLocalization
icecreamdinner
·
2022-11-25 02:01
python
matlab
人脸识别
神经网络
python环境下xgboost的安装与使用
XGboost(eXtreme
Gradient
Boosting)属于有监督学习,是
Gradient
Boosting模型的一种改进版,在国外的Kaggle,国内的Kesci、天池、DataCastle等平台上的数据比赛中应用十分广泛
极客范儿
·
2022-11-25 00:11
━═━═━◥
AI
◤━═━═━
机器学习
XGBoost
python
机器学习
人工智能
SimSiam:Exploring Simple Siamese Representation Learning
我们的实验表明,停止梯度stop-
gradient
运算在防止崩塌中起着重要作用。Siamese网络是应用于两个或多个输入的权重共享神经网络。它们是比较(包括但不限于“对比”)实体的自然工具。
YoooooL_
·
2022-11-25 00:08
论文阅读笔记
论文阅读
计算机视觉
深度学习
人工智能
优化算法之梯度下降算法整理
目录1介绍2优化方法2.1GD2.2SGD2.3mini-batchGD2.4Momentum2.5AdaGrad2.6RMSProp2.7Adam3总结1介绍梯度下降(
Gradient
Descent)
予以初始
·
2022-11-25 00:37
机器学习
机器学习
深度学习
算法
人工智能
梯度下降算法(
Gradient
descent)
一、什么是梯度下降算法首先,我们需要明确梯度下降就是求一个函数的最小值,对应的梯度上升就是求函数最大值。简而言之:梯度下降的目的就是求函数的极小值点,例如在最小化损失函数或是线性回归学习中都要用到梯度下降算法。##梯度下降算法作为很多算法的一个关键环节,其重要意义是不言而喻的。梯度下降算法的思想:先任取点(x0,f(x0)),求f(x)在该点x0的导数f"(x0),在用x0减去导数值f"(x0),
醉蕤
·
2022-11-25 00:06
人工智能
python
人工智能
GAN学习笔记-李宏毅:GAN Lecture 9 (2018): Sequence Generation
maximizelikelihood(也可以称为minimizecrossentropy)训练seq2seqmodel的问题是trainingcriterion很难选到合适的byRLimprovingpolicygradeint与普通
Gradient
ahigan
·
2022-11-24 22:07
阅读笔记
深度学习
GAN
为啥训练的时候要分batch
所有这个时候有了一种mini-batch
gradient
descent小批量梯度下降,把数据分成一个一个的batch,然后每计算一个batch,就更
OnTheRoad 白中白
·
2022-11-24 22:28
深度学习图像处理
学习率衰减之余弦退火(CosineAnnealing)
在论文Stochastic
Gradient
Desce
我就是超级帅
·
2022-11-24 19:46
学习率衰减
深度学习
神经网络
目标检测论文阅读:GHM(anchor based)
)论文链接:https://arxiv.org/abs/1811.05181代码链接:https://github.com/libuyu/GHM_Detection今天介绍一篇AAAI2019的文章,
Gradient
HarmonizedSingle-stageDetector
littleYii
·
2022-11-24 19:11
目标检测(Anchor
Based)
CS143-project4基于滑窗的人脸检测 Face detection with a sliding window
1.hog和方法简介2.获取积极(人脸)特征3.获取随机消极(非人脸)特征4.训练模型5.检测验证一.hog和方法简介方向梯度直方图(HistogramofOriented
Gradient
),简称HOG
rain2211
·
2022-11-24 19:47
计算机视觉
机器学习
CS143
matlab
Face
detection
sliding
window
HOG
人脸检测
方向梯度直方图
scss总结大全,如scss变量引入拆分,scss初中阶函数,继承选择器,媒体查询等
import'Viriables';.main{background-color:$color2;}.module{font-size:$font1;}.feature{background-image:linear-
gradient
不愿意学全栈的小白
·
2022-11-24 19:46
scss
前端
css
构建神经网络- 手写字体识别案例
importnumpyasnpfromutils.featuresimportprepare_for_training#做归一化fromutils.hypothesisimportsigmoid,sigmoid_
gradient
磁生电
·
2022-11-24 16:58
python
神经网络
深度学习
机器学习
学习笔记 - GreedyAI - DeepLearningCV - Lesson3 Deep-Neural-Network
第7章深度神经网络任务学习41:梯度消亡深度神经网络面临的挑战(1)梯度消亡(
Gradient
Vanishing):训练过程非常慢(2)过拟合(Overfitting):在训练数据集上表现好,在实际测试数据集上表现差梯度消亡
K5niper
·
2022-11-24 15:45
GreedyAi
-
DeepLearningCV
论文笔记(二十二):GRiD: GPU-Accelerated Rigid Body Dynamics with Analytical
Gradient
s
GRiD:GPU-AcceleratedRigidBodyDynamicswithAnalytical
Gradient
s文章概括摘要1.介绍2.相关工作3.背景A.
墨绿色的摆渡人
·
2022-11-24 15:42
文章
论文阅读
谈起AlphaGo,来看其中的强化学习知识点
来看其中的强化学习知识点王树森老师的深度强化学习课程笔记1.TrainingandExecution1.1.trainingin3steps:首先,利用behaviorcloning模仿学习(是一种监督学习)初始化策略网络接着使用强化学习的policy
gradient
Catherine_he_ye
·
2022-11-24 15:04
RL
深度学习
人工智能
鱼书深度学习入门:
gradient
_simplenet
os.pardir)importnumpyasnpfromcommon.functionsimportsoftmax,cross_entropy_error#softmax交叉熵函数fromcommon.
gradient
importnumerical_grad
我怎么知道叫什么
·
2022-11-24 14:54
深度学习
python
保姆级教程吴恩达机器学习ex2Matlab代码解析
GirlsHelpGirls#DOUBANEZU%%logisticregression's%1.sigmoidfunction%2.computecostFunctionforlogisticregression%3.
Gradient
forlogisticregress
youknowwho3_3
·
2022-11-24 12:49
机器学习
Coursera
machinelearning
机器学习
人工智能
python
matlab
吴恩达机器学习 ex2 逻辑回归及过拟合 python实现
本文的目录~1LogisticRegression1.1visualizingthedata1.2implementation1.2.1sigmoidfunction1.2.2Costfunctionand
gradient
1.2.3Learningparametersusingfminunc
洗千帆,还少年
·
2022-11-24 12:48
机器学习学习篇
python
机器学习
深度学习
2017年深度学习--梯度下降 优化算法研究
SebastianRuder曾在去年发表博文《梯度下降优化算法综述》(Anoverviewof
gradient
desce
yeler082
·
2022-11-24 12:23
泛读笔记
Mini-batch梯度下降法
文章目录其与传统batch
gradient
descent的比较选择mini-batch的size在大数据时代,数据量很大,如果我们每次都进行基于整个训练集的batch
gradient
descent也就是批梯度下降会使得计算时间变得很长所以我们研究出了一种新的算法
不爱写程序的程序猿
·
2022-11-24 12:20
AI
深度学习
算法
机器学习
人工智能
随机梯度下降
PyTorch深度学习——梯度下降算法
目录一、梯度下降算法(batch
gradient
descend)二、随机梯度下降算法(stochastic
gradient
descend)三、小批量梯度下降算法(mini-batch
gradient
descend
小T_
·
2022-11-24 12:50
pytorch
深度学习
pytorch
算法
上一页
54
55
56
57
58
59
60
61
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他