E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gradient
深度学习系列 | 解读LeNet及PyTorch实现
论文原文:
Gradient
-BasedLearningAppliedtoDocumentRecognitionLeNet的整体结构0.Input1.C1:input_size=32×32,output_size
麻瓜1号
·
2022-12-24 12:39
深度学习
深度学习
卷积神经网络
机器学习
神经网络
python VTK(十三) ----图像边缘检测 梯度算子 sobel算子
梯度算子importvtkreader=vtk.vtkJPEGReader()#读入灰度图reader.SetFileName(r'E:\lena-gray.jpg')reader.Update()
gradient
Filter
爱吃鱼的喵喵咪
·
2022-12-24 11:49
python
开发语言
后端
NEURAL COMBINATORIAL OPTIMIZATION WITH REINFORCEMENT LEARNING 2020-05-07
NEURALCOMBINATORIALOPTIMIZATIONWITHREINFORCEMENTLEARNINGAbstract(借用pointernetwork用policy
gradient
优化,)givenasetofcitycoordinates
zjy2015302395
·
2022-12-24 10:06
DRL&CO
phd
kaldi-tdnn模型训练策略-pytorch实现
relu:RectifiedLinearComponentself-repair-scale=1e-05affine:Natural
Gradient
AffineComponentmax-change=0.75norm
guocehnxi
·
2022-12-24 10:20
pytorch
深度学习
语音识别
斯坦福机器学习视频笔记 Week1 线性回归和梯度下降 Linear Regression and
Gradient
Descent
最近开始学习Coursera上的斯坦福机器学习视频,我是刚刚接触机器学习,对此比较感兴趣;准备将我的学习笔记写下来,作为我每天学习的签到吧,也希望和各位朋友交流学习。这一系列的博客,我会不定期的更新,希望大家多多批评指正。SupervisedLearning(监督学习)在监督学习中,我们的数据集包括了算法的输出结果,比如具体的类别(分类问题)或数值(回归问题),输入和输出存在某种对应关系。监督学习
Peter-Young
·
2022-12-24 09:10
数据挖据与机器学习
机器学习笔记(第一周)——吴恩达ML课程
什么是无监督学习二、单变量线性回归(LinearRegressionwithOneVariable)1.模型表示(ModelRepresentation)2.代价函数(CostFunction)3.梯度下降(
Gradient
Descent
派大星不憨
·
2022-12-24 09:40
机器学习笔记——吴恩达
机器学习
人工智能
斯坦福机器学习视频笔记 Week1 线性回归和梯度下降 Linear Regression and
Gradient
Descent...
最近开始学习Coursera上的斯坦福机器学习视频,我是刚刚接触机器学习,对此比较感兴趣;准备将我的学习笔记写下来,作为我每天学习的签到吧,也希望和各位朋友交流学习。这一系列的博客,我会不定期的更新,希望大家多多批评指正。SupervisedLearning(监督学习)在监督学习中,我们的数据集包括了算法的输出结果,比如具体的类别(分类问题)或数值(回归问题),输入和输出存在某种对应关系。监督学习
weixin_30569033
·
2022-12-24 09:38
数据结构与算法
人工智能
线性回归(Linear Regression)
线性回归(LinearRegression)文章目录线性回归(LinearRegression)1变量表2线性回归模型3代价函数(CostFunction)4求解模型参数4.1梯度下降(
Gradient
Descent
西红柿爱喝水
·
2022-12-24 09:38
数据挖掘
线性回归
机器学习
监督学习
数据挖掘
随机梯度下降法 数学原理_随机梯度下降的数学证明
随机梯度下降法数学原理Minimisingcostfunctionistheholygrailofmachinelearning.
Gradient
descentisourmasterkeytoallcostminimisationproblems.But
gradient
descentisslow.Itusesentiretrainingdatasetforoneiteration.Thisprob
羊牮
·
2022-12-24 09:45
深度学习
机器学习
python
神经网络
人工智能
机器学习数学基础梯度下降法之Python矩阵运算
梯度下降算法原理二、梯度下降法的一般求解步骤三、梯度下降法手工求解极值四、Excel中利用梯度下降求解近似根五、线性回归问题求解(一)最小二乘法(二)梯度下降参考链接一、梯度下降法的原理介绍(一)梯度下降法梯度下降(
gradient
descent
咩咩叫的闲鱼
·
2022-12-24 09:15
机器学习
python
随机梯度下降
机器学习中的数学原理——随机梯度下降法
对于整个样本做GD又称为批梯度下降(BGD,batch
gradient
descent)。随机梯度下降(
爱睡觉的咋
·
2022-12-24 09:09
白话机器学习的数学学习笔记
回归
人工智能
算法
深度学习
深度学习网络模型(转)
自从1988年开始,在许多次成功的迭代后,这项由YannLeCun完成的开拓性成果被命名为LeNet5(参见:
Gradient
-BasedLearningAppliedtoDocumentRecognition
律者无疆
·
2022-12-24 06:15
图像识别
2021-08-16
为了导入父目录的文件而进行的设定importpickleimportnumpyasnpfromcollectionsimportOrderedDictfromcommon.layersimport*fromcommon.
gradient
importnumerical_
gradient
classS
w1234567XH
·
2022-12-24 06:14
面试(opencv)
/data/6.png")k=np.ones((3,3),np.uint8)r=cv2.morphologyEx(o,cv2.MORPH_
GRADIENT
,k
孙兔子
·
2022-12-23 23:47
opencv
python
计算机视觉
opencv(三)形态学操作(膨胀、腐蚀,开运算、闭运算)
形态学操作预备知识(卷积)膨胀和腐蚀的应用范围膨胀dilate()腐蚀erode()开运算(Opening)闭运算(Closing)形态梯度(Morphological
Gradient
)顶帽(TopHat
qq_39075859
·
2022-12-23 23:45
opencv学习笔记
opencv
计算机视觉
人工智能
小批量随机梯度下降法
文章目录写在前面小批量随机梯度公式代码参考文献写在前面小批量随机梯度下降法(Mini-batchStochastic
Gradient
Decent)是对速度和稳定性进行妥协后的产物小批量随机梯度公式我们可以看出当
RDSunday
·
2022-12-23 22:55
机器学习
机器学习
深度学习
逻辑回归
小批量随机梯度下降(Mini-batch Stochastic
Gradient
Descent)
对于深度学习模型而言,人们所说的“随机梯度下降,SGD”,其实就是基于小批量(mini-batch)的随机梯度下降。小批量随机梯度是在梯度下降的基础上带有随机性在我们的全部样本中随机选取b个样本,把这些样本组成一个新样本,用于我们的梯度下降。步骤:时刻1时随机的取一个w;持续时间到模型收敛(发现目标函数在每个样本平均的损失不再下降;或者是其他的指标基本上趋向平衡):在每一步里,在所有的样本中随机采
HowieHwong
·
2022-12-23 22:55
机器学习
深度学习
Batch\Stochastic\Mini-Batch 梯度下降法
1.批量梯度下降法(Vanilla\Batch
Gradient
Descent)Vanilla指的是某一事物标准,通常或者未修改的版本。
Architect_0
·
2022-12-23 22:25
机器学习
算法
机器学习
简单理解小批量梯度下降中模型参数的更新过程
如何理解小批量梯度下降中模型参数的更新过程如何更新每经历一次Batch后的参数使用小批量的平均损失来更新如何更新每经历一次Batch后的参数在小批量随机梯度下降(mini-batchstochastic
gradient
descent
是可帅鸭
·
2022-12-23 22:55
知识汇总
人工智能
神经网络
算法
机器学习
深度学习
整合 逻辑回归 BGD(批量)+MBGD(小批量)+SGD(随机)底层实现 优缺点以及代码实现
梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式文章目录1、批量梯度下降(Batch
Gradient
Descent,BGD)2、随机梯度下降(Stochastic
Gradient
Descent
忘川之水&
·
2022-12-23 22:54
机器学习
随机梯度下降
机器学习
论文那些事—NESTEROV ACCELERATED
GRADIENT
AND SCALEINVARIANCE FOR ADVERSARIAL ATTACKS
NESTEROVACCELERATED
GRADIENT
ANDSCALEINVARIANCEFORADVERSARIALATTACKS(ICRL2020,NI-FGSM,SIM)1、摘要在本文中,我们从将对抗性例子的生成作为一个优化过程的角度出发
凉茶i
·
2022-12-23 21:54
深度学习
神经网络
计算机视觉
论文那些事—Meta
Gradient
Adversarial Attack
Meta
Gradient
AdversarialAttack(ICCV2021,MGAA)1、摘要受元学习思想的启发,本文提出了一种新的体系结构元梯度对抗攻击(Meta
Gradient
AdversarialAttack
凉茶i
·
2022-12-23 21:24
深度学习
人工智能
tf.
Gradient
Tape 函数
函数原型tf.
Gradient
Tape(persistent=False,watch_accessed_variables=True)函数说明TensorFlow为自动微分提供了tf.
Gradient
TapeAPI
不负韶华ღ
·
2022-12-23 19:50
#
tensorflow
tensorflow
深度学习
python
tf.
Gradient
Tape() 示例
tf.
Gradient
Tape()示例简单写写,代码请自行补全#定义模型model=keras.Sequential([layers.Dense(256,activation='relu'),layers.Dense
夏华东的博客
·
2022-12-23 19:20
python
深度学习
机器学习
tf.
Gradient
Tape
目录Class
Gradient
TapeUsedintheguide:Usedinthetutorials:__init__Methods__enter____exit__batch_jacobian
gradient
jacobianresetstop_recordingwatchwatched_variablesClass
Gradient
TapeRecordoperationsforautomati
Wanderer001
·
2022-12-23 19:50
TensorFlow
tensorflow
深度学习
keras
output_
gradient
s 在 tf.
Gradient
Tape()中的作用
minimize(loss,var_list,grad_loss=None,name=None,tape=None)其中参数grad_loss的解释是(Optional).ATensorholdingthe
gradient
computedforloss
纯洁的小火车
·
2022-12-23 19:50
机器学习笔记
Python学习笔记
tensorflow
深度学习
机器学习
深度学习笔记-tf.
Gradient
Tape用法详解
TensorFlow
Gradient
Tape用法详解最近看到莫凡老师上传的GAN相关的代码时,发现莫凡老师写的GAN网络的代码使用了tf.
Gradient
Tape()进行先计算模型的梯度,然后利用优化器的
DeepBrainWH
·
2022-12-23 19:49
深度学习
python
深度学习
tensorflow
TensorFlow2.X——tf.
Gradient
Tape() && Optimziers结合使用
tf.
Gradient
Tape()&&Optimzier结合使用一、tf.
Gradient
Tape()首先讲解一下tf.
Gradient
Tape()中的参数:tf.
Gradient
Tape( persistent
一只工程狮
·
2022-12-23 19:19
TensorFlow
CatBoost详解--原理
CatBoost详解CatBoost简介CatBoost中处理类别特征的方法算法实现修正梯度偏差快速评分基于GPU快速学习CatBoost的参数CatBoost简介 CatBoost:基本原理类似于常规的
Gradient
Boosting
普通网友
·
2022-12-23 19:49
Gradient
Tape
w=tf.Variable([[1.0]])withtf.
Gradient
Tape()astape:#命名成tape loss=w*wgrad=tape.
gradient
(loss,w)#求解梯度,dloss
kimyu_
·
2022-12-23 19:18
tensorflow
深度学习
机器学习
TensorFlow2.0自动求导机制(tf.
Gradient
Tape的用法)
文章目录1使用tf.
Gradient
Tape()计算y=x2y=x^2y=x2的导数2当使用常量tf.constant时3对多个数求导时4使用求导机制进行线性回归的案例在机器学习中,我们经常需要计算函数的导数
宛如近在咫尺
·
2022-12-23 19:17
TensorFlow2
Python
python
tensorflow
Tensorflow2基础:自动微分机制(tf.
Gradient
Tape)
Tensorflow一般使用梯度磁带tf.
Gradient
Tape来记录正向运算过程,然后反播磁带自动得到梯度值。
Code_LT
·
2022-12-23 19:17
TensorFlow
tensorflow
python
深度学习
tensorflow 计算梯度: tf.
gradient
() 与 tf.
Gradient
Tape()
tensorflow就是版本繁多,同一个功能有n种实现方式,之前一直用tf.
gradient
()计算梯度,今天发现还有tf.
Gradient
Tape.1.tf.
gradient
()参考:Tensorflow
wzg2016
·
2022-12-23 19:17
关于tf.
Gradient
Tape()的常用方法
Gradient
Tape,字面意思就是‘梯度磁带’,是Tensorflow的eager模式下计算梯度用的,这是一个自动求解模型梯度的利器。
打篮球的程序员
·
2022-12-23 19:17
tensorflow
深度学习
python
论文笔记:Grad-CAM: Visual Explanations from Deep Networks via
Gradient
-based Localization
一、这篇论文解决什么问题模型的可解释性:类别判别性(class-discriminative):不同类别画出来的区域不一样高分辨率(highresolution):最好是和原图一样,可以找到细粒度的信息,从像素级别可以知道到底是哪部分使得网络预测出相应的类别与人类直觉一致CAM的局限性:必须有GAP层,所以得修改模型结构,换来了可解释性的同时牺牲了精度必须有GAP层,修改了模型结构后,需要重新训练
foreverbeginnerz
·
2022-12-23 18:00
论文笔记
模型的可解释性
Grad-CAM
论文阅读
深度学习
人工智能
更加灵活、经济、高效的训练 — 新一代搜推广稀疏大模型训练范式GBA
作者:苏文博、张远行近日,阿里巴巴在国际顶级机器学习会议NeurIPS2022上发表了新的自研训练模式GloablBatch
gradient
sAggregation(GBA,论文链接:https://arxiv.org
阿里技术
·
2022-12-23 13:51
人工智能
深度学习
NeurIPS'22 | GBA:面向搜推广模型的同步和异步自由切换的训练范式
·搜推广增量迭代挑战·GBA的诞生·GBA的收敛性分析·GBA工程实现·GBA实验效果·未来展望近日,阿里巴巴在国际顶级机器学习会议NeurIPS2022上发表了新的自研训练模式GloablBatch
gradient
sAggregationGBA
阿里妈妈技术
·
2022-12-23 11:30
联邦学习-论文阅读-AAAI-Game of
Gradient
s: Mitigating Irrelevant Clients in Federated Learning
1、Gameof
Gradient
s:MitigatingIrrelevantClientsinFederatedLearning(选择客户端,主要为把不相关的客户端剔除出去)1、概要中心服务器无法知道每个客户端所拥有的数据的品质如何
liZhnw
·
2022-12-23 10:37
联邦学习
人工智能
【机器学习】反向传播推导
梯度下降(
Gradient
Descent)深度学习使用反向传播计算梯度。
小小草帽
·
2022-12-23 09:37
笔记
机器学习
TensorFlow
深度学习
人工智能
神经网络
机器学习
卷积神经网络
反向传播与梯度下降
文章目录前言一、梯度下降(
Gradient
Descent)二、链式法则(chainrule)三、反向传播(backpropagation)1.forwardpass(前向模式)2.backwardpass3
炼丹师小米
·
2022-12-23 09:03
深度学习
深度学习
人工智能
李宏毅机器学习三天速成~~~第八课~~~Backprapagation
Backpropagation是一种有效计算
Gradient
(梯度),即微分(偏微分)的方法。
薛定谔小猫@Historia
·
2022-12-23 09:03
机器学习
cbow 与 skip-gram的比较
在cbow方法中,是用周围词预测中心词,从而利用中心词的预测结果情况,使用
Gradient
Desent方法,不断的去调整周围词的向量。当训练完成之后,每个词都会作为中心词,把周围词的词向量进行了调整
京城王多鱼
·
2022-12-23 07:57
机器学习
机器学习
自然语言处理
人工智能
基于Python的HOG+SVM行人识别
首先HOG就是梯度方向直方图(HistogramofOriented
Gradient
,HOG),HOG特征是直接将图
YuriFan
·
2022-12-23 07:53
机器学习
机器学习
css背景页面铺满屏幕
注:仅用于记录学习笔记1.css背景页面铺满屏幕body{ background:linear-
gradient
(#e66465,#9198e5)no-repeat; background-attachment
默甜默甜
·
2022-12-23 01:28
css
前端
html
LightGBM(lgb)详解
1.LightGBM简介GBDT(
Gradient
BoostingDecisionTree)是机器学习中一个长盛不衰的模型,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好
越前浩波
·
2022-12-22 22:25
机器/深度学习
决策树
机器学习
集成学习——LightGBM原理理解
LightGBM(Light
Gradient
BoostingMachine)是梯度提升框架下的适用于大规模数据的又一boosting学习框架,它由微软亚洲研究院分布式机器学习工具包(DMTK)团队以及北大的一个学者在
学吧学吧终成学霸
·
2022-12-22 22:25
机器学习
机器学习模型——LightGBM
LightGBM(Light
Gradient
BoostingMachine)是一个实现GBDT算法的框架,支持高效率的并行训练,并且具有更快的训练速度、更低的内存消耗、更好的准确率、支持分布式可以快速处理海量数据等优点
行者无疆_ty
·
2022-12-22 22:53
人工智能
机器学习
lightGBM
LightGBM原理简介
1.LightGBM简介Light
Gradient
BoostingMachine是一个实现GBDT算法的框架,支持高效率的并行训练,并且具有以下优点:1.更快的训练速度;2.更低的内存消耗;3.更好的准确率
MusicDancing
·
2022-12-22 22:22
深度学习
机器学习
算法
深度学习
3D深度学习总结(聚焦3D深度学习的现在于未来)
3D深度学习总结(聚焦3D深度学习的现在于未来)本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载选自The
gradient
【点击此处】,作者:MihirGarimella
xiaobai_Ry
·
2022-12-22 22:15
#
点云处理
深度学习
3d
人工智能
3D检测
点云
如何编译opencv java_OpenCV 4.3 编译和配置
OpenCV4.3.0版本,在4月份发布了,新加的功能说明如下:其中,imgproc模块的HoughCircles()函数,新加了检测算法HOUGH_
GRADIENT
_ALT,精度得到了很大的提升另外,
weixin_39548193
·
2022-12-22 21:16
如何编译opencv
java
上一页
45
46
47
48
49
50
51
52
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他