E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gradients
对抗样本:ICLR 2022 基于积分梯度的对抗攻击(可迁移的黑盒攻击)Transferable Attack based on Integrated
Gradients
(TAIG)
文章目录代码感受:该论文提出的攻击算法,在实验中特别费时间,每一次迭代需要循环N次(N为batch_size的大小),因此需要消耗大量的时间去生成对抗样本。此外,用该论文的方法与2022年几篇顶会论文对比。发现该算法在白盒以及黑盒上的攻击表现都稍微低于其他顶会的攻击算法。相对于经典的IFGSM、MIFGSM算法有显著的提高。此外,结合的多种数学知识。作者将三种方法分别是优化标准目标函数、注意力图和
算法黑哥
·
2023-04-15 07:28
对抗学习
深度学习
python
机器学习
对抗样本
Tensorflow——tf.contrib.layers.optimize_loss
tf.contrib.layers.optimize_loss(loss,global_step,learning_rate,optimizer,gradient_noise_scale=None,gradient_multipliers=None,clip_
gradients
SpareNoEfforts
·
2023-04-12 16:43
GradientTape和implicit_
gradients
的区别
在学习Tensorflow的过程中,遇到了两个梯度计算函数GradientTape和implicit_
gradients
,就会纳闷他们的区别,最后在stackoverflow中找到了答案。
chocoford
·
2023-04-08 10:49
tf.
gradients
与 tf.stop_gradient() 与 高阶导数
tensorflow学习笔记(三十):tf.
gradients
与tf.stop_gradient()与高阶导数
xyq_learn
·
2023-04-05 12:45
css3 渐变(
gradients
)
CSS3渐变(
gradients
)可以让你在两个或多个指定的颜色之间显示平稳的过渡。
逆_3ec2
·
2023-04-03 20:51
11. css3背景颜色渐变属性(
Gradients
)
CSS3渐变(
Gradients
)CSS3渐变(
gradients
)可以让你在两个或多个指定的颜色之间显示平稳的过渡。以前,你必须使用图像来实现这些效果。
Devops海洋的渔夫
·
2023-04-03 09:10
从 Supervised Learning 到 Policy
Gradients
http://karpathy.github.io/2016/05/31/rl/的翻译如图,对于有监督学习,深度网络的输出结果是30%可能性predict-label=070%可能性predict-label=1有labeledground-truth-label=0然后,对类似image提升predict-label=0的概率,降低predict-label=1的概率如图,对于强化学习的Poli
CoderOnly
·
2023-03-31 21:26
强化学习
深度学习
深度学习
人工智能
机器学习
actor-critic代码逐行解析(tensorflow版)
深度强化学习算法actor-critic代码逐行解析(tensorflow版)Actor是基于Policy-
Gradients
。可以选择连续动作,但是必须循环一个回合才可以更新策略。学习效率低。
温州草履虫
·
2023-03-31 03:24
tensorflow
Day14_CSS3 渐变
以前,你必须使用图像来实现这些效果,现在通过使用CSS3的渐变(
gradients
)即可实现。此外,渐变效果的元素在放大时看起来效果更好,因为渐变(gradient)是由浏览器生成的。
溜溜球的嘛
·
2023-03-28 00:40
CSS3之渐变属性
中的渐变线性渐变径向渐变重复线性渐变重复径向渐变制作彩虹CSS3中的角度CSS3中的渐变此前,渐变效果必须使用图像来显示部分效果,但是现在可以使用css渐变实现,减少下载的事件和宽带的使用CSS3渐变(
gradients
许小墨~
·
2023-03-25 14:28
全栈工程师的基本素养
#
前端开发
css3
css
前端
html
开发语言
yj.微信小程序渐变色
注:因最近在研究微信小程序,所以记录下观看CSS3渐变(
gradients
)可以在两个或多个指定的颜色之间显示平稳的过渡。
蓦然暖心
·
2023-03-15 09:49
【深度强化学习】(3) Policy
Gradients
模型解析,附Pytorch完整代码
大家好,今天和各位分享一下基于策略的深度强化学习方法,策略梯度法是对策略进行建模,然后通过梯度上升更新策略网络的参数。我们使用了OpenAI的gym库,基于策略梯度法完成了一个小游戏。完整代码可以从我的GitHub中获得:https://github.com/LiSir-HIT/Reinforcement-Learning/tree/main/Model1.基于策略的深度强化学习针对智能体在大规模
立Sir
·
2023-03-11 08:33
深度强化学习
pytorch
python
强化学习
深度强化学习
策略梯度
Fabric.js使用说明Part 1
Part1Fabric.js简介开始方法事件canvas常用属性对象属性图层层级操作二、Fabric.js使用说明Part2分组(Groups)动画(Animation)图像滤镜(Imagefilters)渐变(
Gradients
小矮马
·
2023-02-24 10:47
javascript
fabric
动画
vue.js
论文 | 目标检测HOG特征解读《Histograms of Oriented
Gradients
for Human Detection》
一写在前面有一个月没更博客了,捂脸o( ̄= ̄)d端午回家休息了几天,6月要加油~回到正文,HOG是很经典的一种图像特征提取方法,尤其是在行人识别领域被应用的很多。虽然文章是2005年发表在CVPR上的,但近十年来还没有被淹没的文章真的是很值得阅读的研究成果了。文章出处:CVPR2005文章链接:https://lear.inrialpes.fr/people/triggs/pubs/Dalal-c
与阳光共进早餐
·
2023-01-27 06:03
【RL 第5章】Policy
Gradients
今日小年,祝大家小年纳福瑞,喜迎团圆年。今早Willing和同学院的余巨稍微交流了一些,即便是快过年了,大家也都还在肝进度,也是没有办法,但Willing相信大家的努力会有回报,最近也是有很多事,比赛、大创、DDL、社会实践等,昨晚也是失眠了很久( ̄o ̄).zZ,但还是想到那句话,人生如棋啊,一步一步来,一关一关过,我相信任何事都能过去。强化学习是一个大家族,里面有不同的成员,每个成员之间也有不同
NPU_Willing
·
2023-01-23 15:13
RL
深度学习
人工智能
【CS 285 DRL Homework 2】Policy
Gradients
策略优化
Exp1:原始策略优化(VanillaPolicyGradient)Vanillaadj.普通的,没有新意的;香草的训练算法总体思路主要的训练算法集中在RL_Trainer.run_training_loop中。通过观察一个循环(iteration)的调用过程,可总结为:收集多个路线,,获得train_batch_size个时刻的数据存在replaybuffer中上一步完全结束之后,从buffer
·
2023-01-18 19:36
深度学习强化学习
学习OpenCV+Python
draw.py4.read.py5.thresh.py6.transformations.py三.Section21.bitwise.py2.blurring.py3.colour_spaces.py4.
gradients
.py5
机智的橙子
·
2023-01-13 11:21
人工智能与机器学习
opencv
python
计算机视觉
tensorflow中梯度求解及梯度裁剪
1.tensorflow中梯度求解的几种方式1.1tf.gradientstf.
gradients
(ys,xs,grad_ys=None,name='
gradients
',colocate_
gradients
_with_ops
orangerfun
·
2023-01-13 11:35
tensorflow
tensorflow
深度学习
python
人工智能
共轭梯度法(Conjugate
Gradients
)(3)
最近在看ATOM,作者在线训练了一个分类器,用的方法是高斯牛顿法和共轭梯度法。看不懂,于是恶补了一波。学习这些东西并不难,只是难找到学习资料。简单地搜索了一下,许多文章都是一堆公式,这谁看得懂啊。后来找到一篇《AnIntroductiontotheConjugateGradientMethodWithouttheAgonizingPain》,解惑了。为什么中文没有这么良心的资料呢?英文看着费劲,于
Yemiekai
·
2023-01-13 11:04
概念
机器学习
人工智能
算法
共轭梯度法(Conjugate
Gradients
)(2)
最近在看ATOM,作者在线训练了一个分类器,用的方法是高斯牛顿法和共轭梯度法。看不懂,于是恶补了一波。学习这些东西并不难,只是难找到学习资料。简单地搜索了一下,许多文章都是一堆公式,这谁看得懂啊。后来找到一篇《AnIntroductiontotheConjugateGradientMethodWithouttheAgonizingPain》,解惑了。为什么中文没有这么良心的资料呢?英文看着费劲,于
Yemiekai
·
2023-01-13 11:32
概念
人工智能
机器学习
Tensorflow2.0 求梯度返回None(WARNING:tensorflow:
Gradients
do not exist for variables)
问题说明利用梯度带计算梯度时发现有些层的梯度返回None。解决方法将正向传播中所有的操作都用tensorflow中的API执行,不能使用numpy等其他库中的API,比如np.concatenate需要被换成tf.concat。
cofisher
·
2023-01-12 21:31
报错
Tensorflow
2.0
python 方向梯度直方图_梯度方向直方图Histogram of Oriented
Gradients
(HOG)
在学习HOG特征的时候,发现一片英文文章讲得浅显易懂。因此翻译在这里学习。(文中的图片均来自翻译原文)什么是特征描述子特征描述子一张图片或者一个图片块的一种表示,通过提取有用信息并扔掉多余的信息来简化图像。通常,特征描述子将一张大小为width×height×3(通道数)的图片化成一个长度为n的特征向量/数组。以HOG特征为例,输入图像的大小是64×128×3,输出是一个长度为3780的特征向量。
weixin_39989939
·
2023-01-09 15:33
python
方向梯度直方图
梯度方向直方图Histogram of Oriented
Gradients
(HOG)
在学习HOG特征的时候,发现一片英文文章讲得浅显易懂。因此翻译在这里学习。(文中的图片均来自翻译原文)原文链接:HistogramofOrientedGradients什么是特征描述子特征描述子一张图片或者一个图片块的一种表示,通过提取有用信息并扔掉多余的信息来简化图像。通常,特征描述子将一张大小为width×height×3(通道数)的图片化成一个长度为n的特征向量/数组。以HOG特征为例,输入
Meringue_zz
·
2023-01-09 15:01
图像处理
HOG
OpenCV
Caffe源码解读:防止梯度爆炸的措施-梯度裁剪
执行梯度裁剪的方法有很多,但常见的一种是当参数矢量的L2范数(L2norm)超过一个特定阈值时对参数矢量的梯度进行标准化,这个特定阈值根据函数:新梯度=梯度*阈值/梯度L2范数new_
gradients
faithenXX
·
2023-01-07 16:28
caffe
解决 from tensorflow.keras import datasets,layers, optimizers报错的问题, SGD没有apply_
gradients
首先我的tensorflow-gpu版本是2.0.0解决方法:fromtensorflow_core.python.kerasimportdatasets,layers问题描述:我是条看视频的时候,有这样一句代码:fromtensorflow.kerasimportdatasets,layers但是我自己输入的时候会报错,然后我看了一下代码所在环境下的包site-packages我的目录是:C:\
青峰不长存
·
2023-01-07 10:04
tensorflow
深度学习
tensorflow1.0模型的保存、加载、在训练
ckpt文件是二进制文件,保存了所有的weights、biases、
gradients
等变量。在tensorflow0.11之前,保存在**.ckpt**文件中。
贪狼切
·
2023-01-06 08:24
python机器学习
tensorflow
深度学习
python
【再学Tensorflow2】TensorFlow2的模型训练组件(2)
TensorFlow2的模型训练组件(2)损失函数损失函数和正则化项Tensorflow2内置的损失函数自定义损失函数评估指标常用的内置评估指标自定义评估指标优化器优化器的使用使用optimizer.apply_
gradients
镰刀韭菜
·
2022-12-31 09:26
Tensorflow2
Tensorflow2
损失函数
回调函数
评估指标
优化器
output_
gradients
在 tf.GradientTape()中的作用
tf.keras.optimizers.Optimizer拥有methodminimize()minimize(loss,var_list,grad_loss=None,name=None,tape=None)其中参数grad_loss的解释是(Optional).ATensorholdingthegradientcomputedforloss.令人费解。其实和tf.GradientTape()的
纯洁的小火车
·
2022-12-23 19:50
机器学习笔记
Python学习笔记
tensorflow
深度学习
机器学习
深度学习笔记-tf.GradientTape用法详解
TensorFlowGradientTape用法详解最近看到莫凡老师上传的GAN相关的代码时,发现莫凡老师写的GAN网络的代码使用了tf.GradientTape()进行先计算模型的梯度,然后利用优化器的apply_
gradients
DeepBrainWH
·
2022-12-23 19:49
深度学习
python
深度学习
tensorflow
tensorflow 计算梯度: tf.gradient() 与 tf.GradientTape()
参考:Tensorflow:tf.gradient()用法以及参数stop_gradient理解importtensorflowastfa=tf.constant(3.)b=2*ac=a+bg=tf.
gradients
wzg2016
·
2022-12-23 19:17
联邦学习-论文阅读-AAAI-Game of
Gradients
: Mitigating Irrelevant Clients in Federated Learning
1、GameofGradients:MitigatingIrrelevantClientsinFederatedLearning(选择客户端,主要为把不相关的客户端剔除出去)1、概要中心服务器无法知道每个客户端所拥有的数据的品质如何,因此在FL设置写如果选择相关客户端的问题十分复杂。将FL建模为一个合作博弈,将从作为客户端接收到的更新以及模型在服务器验证数据集上的性能作为特征函数。并计算每个客户机
liZhnw
·
2022-12-23 10:37
联邦学习
人工智能
可解释性与积分梯度 Integrated
Gradients
积分梯度是一种神经网络可解释性方法此方法首先在论文《GradientsofCounterfactuals》中提出,后来《AxiomaticAttributionforDeepNetworks》再次介绍了它,这已经是2016~2017年间的工作了此方法已得到较多应用,但是也有一些反对者表示其给出的结果对于积分路径敏感,不能给出唯一确切的结果,因此存在争议文章目录1.可解释性2.积分梯度2.1梯度饱和
云端FFF
·
2022-12-22 13:57
机器学习
机器学习
可解释性
积分梯度
IG
Learning to Generalize:Meta-Learning for Domain Geralization 深度理解(公式详细推导,包含二阶导)
学习率:β,γ\beta,\gammaβ,γforiteiniterationsdoSplit:Sˉ\bar{S}SˉandSˇ\check{S}Sˇ→\rightarrow→SSSMeta-train:
Gradients
dailleson_
·
2022-12-22 09:08
迁移学习
线性代数
机器学习
深度学习
算法
pytorch
Histograms of Oriented
Gradients
(HOG)理解和源码
HOGdescriptors是应用在计算机视觉和图像处理领域,用于目标检测的特征描述器。这项技术是用来计算局部图像梯度的方向信息的统计值。这种方法跟边缘方向直方图(edgeorientationhistograms)、尺度不变特征变换(scale-invariantfeaturetransformdescriptors)以及形状上下文方法(shapecontexts)有很多相似之处,但与它们的不同
wk119911
·
2022-12-21 10:39
matlab
opencv
matlab
parameters
matrix
algorithm
div
image
共轭梯度法(Conjugate
Gradients
)(4)
最近在看ATOM,作者在线训练了一个分类器,用的方法是高斯牛顿法和共轭梯度法。看不懂,于是恶补了一波。学习这些东西并不难,只是难找到学习资料。简单地搜索了一下,许多文章都是一堆公式,这谁看得懂啊。后来找到一篇《AnIntroductiontotheConjugateGradientMethodWithouttheAgonizingPain》,解惑了。为什么中文没有这么良心的资料呢?英文看着费劲,于
Yemiekai
·
2022-12-18 00:35
概念
人工智能
算法
优化算法
共轭梯度法(Conjugate
Gradients
)(5)
最近在看ATOM,作者在线训练了一个分类器,用的方法是高斯牛顿法和共轭梯度法。看不懂,于是恶补了一波。学习这些东西并不难,只是难找到学习资料。简单地搜索了一下,许多文章都是一堆公式,这谁看得懂啊。后来找到一篇《AnIntroductiontotheConjugateGradientMethodWithouttheAgonizingPain》,解惑了。为什么中文没有这么良心的资料呢?英文看着费劲,于
Yemiekai
·
2022-12-18 00:35
概念
算法
优化算法
机器学习
人工智能
Photometric Stereo 光度立体三维重建(三)——由法向量恢复深度(二)DGP方法
在这篇文章中,笔者将介绍一篇论文,论文提出了一种由法向量恢复深度的方法:论文为Surface-from-
gradients
:Anapproachbasedondiscretegeometryprocessing1
廣阝
·
2022-12-15 11:20
三维重建
计算机视觉
Generative Modeling by Estimating
Gradients
of the Data Distribution阅读笔记
目录概述传统score-basedgenerativemodeling介绍scorematchingLangevindynamics传统score-basedgenerativemodeling存在的问题流型假设上的问题低密度区域的问题NoiseConditionalScoreNetwork噪声条件分数网络(NoiseConditionalScoreNetworks)annealedLangevi
冰冰冰泠泠泠
·
2022-12-15 09:43
人工智能
深度学习
[论文阅读] 2019 NeurIPS - Generative modeling by estimating
gradients
of the data distribution
[阅读笔记]Generativemodelingbyestimatinggradientsofthedatadistribution本文创造性的使用积分函数来学习训练数据的分布,并提出slicedscorematching解决了传统scorematching中存在的性能问题。♂️张同学
[email protected]
有问题请联系我~本文的目录鸭~[阅读笔记]Generativemo
文三路张同学
·
2022-12-14 17:37
我的科研之路~
机器学习
深度学习
人工智能
RNN的反向传播算法(Backpropagation)
英文详细解析:https://neptune.ai/blog/understanding-gradient-clipping-and-how-it-can-fix-exploding-
gradients
-problem
子燕若水
·
2022-12-09 10:22
cuda&深度学习环境
深度学习算法
rnn
人工智能
深度学习
Generative Modeling by Estimating
Gradients
of the Data Distribution论文阅读
论文链接:GenerativeModelingbyEstimatingGradientsoftheDataDistribution文章目录摘要引文基于分数的生成建模/Score-basedgenerativemodeling用于分数估计的分数匹配/ScorematchingforscoreestimationDenoisingscorematchingSlicedscorematching朗之万动
zzfive
·
2022-12-08 04:49
生成模型
论文阅读
论文阅读
深度学习
人工智能
pytorch学习笔记(七):pytorch hook 和 关于pytorch backward过程的理解
每次
gradients
被计算的时候,这个hook都被调用。hook应该拥有以下签名:hoo
长夜悠悠
·
2022-12-07 02:56
pytorch
tensorflow训练时报错:
Gradients
do not exist for variables问题解决
今天在使用tensorflow内容的时候,发现训练的过程之中出现相应的报错WARNING:tensorflow:Gradientsdonotexistforvariables['bert/transformer_0/attention/query/kernel:0','bert/transformer_0/attention/query/bias:0','bert/transformer_0/at
唐僧爱吃唐僧肉
·
2022-12-06 00:59
深度学习函数学习
Fast and Scalable Adversarial Training of Kernel SVM via Doubly Stochastic
Gradients
基于双重随机梯度的核支持向量机快速可扩展对抗性训练本文针对核支持向量机,提出了adv-SVM,通过对抗训练来提高其对抗鲁棒性。具体而言:首先建立原始空间和核空间之间样本扰动的连接,然后基于该连接给出核支持向量机对抗性训练的简化和等价公式;接下来,基于两个无偏随机近似(即一个在训练点上面,一个在随即特征上)的双随机梯度被应用于更新目标函数的解;最后,我们证明我们的DSG优化算法在恒定步长和递减步长下
你今天论文了吗
·
2022-12-05 18:08
对抗攻击
人工智能
一种隐私保护边云协同训练
同时client只需要上传训练的
gradients
,防止了用户原生数据的泄露。但FedAvg仍然具备
昇思MindSpore
·
2022-12-05 15:00
技术博客
人工智能
深度学习
tensorflow—tf.
gradients
()简单实用教程
声明:参考官方文档参考tensorflow学习笔记(三十)关于神经网络中的梯度计算,推荐吴恩达的deeplearning公开课tf.
gradients
()在tensorflow中,tf.
gradients
hustqb
·
2022-12-02 22:12
TensorFlow
Tensorflow tf.
gradients
详解
tf.gradientsgradients(ys,xs,grad_ys=None,name=‘
gradients
’,colocate_
gradients
_with_ops=False,gate_
gradients
EversChen5
·
2022-12-02 22:12
tensorflow
gradients
`loss` passed to Optimizer.compute_
gradients
should be a function when eager execution is enabl
losspassedtoOptimizer.compute_gradientsshouldbeafunctionwheneagerexecutionisenabl1、错误原因:这是因为tensorflow版本的问题,tensorflow1和tensorflow2中的代码略有不同,更换部分代码即可2、tensorflow1出错的代码loss=tf.reduce_mean(tf.square(y-y_
张炳远
·
2022-11-28 08:24
tensorflow
python
tensorflow
python
错误处理-`loss` passed to Optimizer.compute_
gradients
should be a function when eager execution is enabl
错误解释:`loss'传递给Optimizer.compute_
gradients
应该是一个启用了立即执行的函数。
monissa.J
·
2022-11-28 08:50
python
tensorflow
python
【问题记录】RuntimeError: `loss` passed to Optimizer.compute_
gradients
should be a function when eager exe
目录一、问题描述二、问题解决(尚未解决)三、问题解决(解决了.)一、问题描述报错截图如下:定位到源代码:#四、传播误差optimizer=tf.train.GradientDescentOptimizer(0.5)train=optimizer.minimize(loss)二、问题解决ÿ
追光者♂
·
2022-11-28 07:41
【工具
技巧
解决办法】
【小小的项目
(实战+案例)】
python
tensorflow
深度学习
RuntimeError
Optimizer
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他