E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch学习
Pytorch学习
记录-Pytorch可视化使用tensorboardX
Pytorch学习
记录-Pytorch可视化使用tensorboardX在很早很早以前(至少一个半月),我做过几节关于tensorboard的学习记录。
我的昵称违规了
·
2024-01-29 11:20
PyTorch学习
---2.自动求梯度
自动求梯度首先给大家介绍几个基本概念:方向导数:是一个数;反映的是f(x,y)在P0点沿方向v的变化率。偏导数:是多个数(每元有一个);是指多元函数沿坐标轴方向的方向导数,因此二元函数就有两个偏导数。偏导函数:是一个函数;是一个关于点的偏导数的函数。梯度:是一个向量;每个元素为函数对一元变量的偏导数;它既有大小(其大小为最大方向导数),也有方向。摘自《方向导数与梯度》梯度从本质上来说也是导数的一种
与世无争小菜鸡
·
2024-01-29 05:53
pytorch学习
路径
微信公众号:诗人藏夜里参考了黄海广老师的[pytorch快速入门资料](https://zhuanlan.zhihu.com/p/87263048),并结合自身从0到1的学习经历,写下此pytorch入门路径本路径适合人群:深度学习初学者,深度学习框架初学者**欢迎拥抱最美DL框架**#1.[莫烦pytorch系列教程](https://morvanzhou.github.io/tutorials
诗人藏夜里
·
2024-01-28 07:46
小土堆
pytorch学习
笔记004
目录1、神经网络的基本骨架-nn.Module的使用2、卷积操作实例3、神经网络-卷积层4、神经网络-最大池化的使用(1)最大池化画图理解:(2)代码实现:5、神经网络-非线性激活(1)代码实现(调用sigmoid函数)6、神经网络-线性层(1)代码7、网络搭建-小实战(1)完整代码1、神经网络的基本骨架-nn.Module的使用官网地址:pytorch里的nnimporttorchfromtor
柠檬不萌只是酸i
·
2024-01-28 00:52
深度学习
pytorch
学习
笔记
机器学习
深度学习
小土堆
pytorch学习
笔记003 | 下载数据集dataset 及报错处理
目录1、下载数据集2、展示数据集里面的内容3、DataLoader的使用例子:结果展示:1、下载数据集#数据集importtorchvisiontrain_set=torchvision.datasets.CIFAR10(root="./test10_dataset",train=True,download=True)test_set=torchvision.datasets.CIFAR10(ro
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
人工智能
深度学习
机器学习
pytorch
python
小土堆
pytorch学习
笔记005 | 完结,✿✿ヽ(°▽°)ノ✿
目录1、损失函数与反向传播2、如何在搭建的网络中使用损失函数呢?3、优化器4、现有网络模型的使用及修改例子:5、模型训练保存+读取(1)保存(2)读取6、完整的模型训练:(1)代码【model文件】:【主文件】:(2)运行截图:(3)绘图展示:(4)添加训练正确率的完整代码:(5)总结!!!:(6)使用GPU训练7、完整模型验证(1)代码(2)运行结果1、损失函数与反向传播①计算实际输出和目标之间
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
学习
笔记
pytorch
机器学习
深度学习
小土堆
pytorch学习
笔记002
目录1、TensorBoard的使用(1)显示坐标:(2)显示图片:2、Transform的使用3、常见的Transforms(1)#ToTensor()(2)#Normalize()(3)#Resize()(4)#Compose()4、总结:1、TensorBoard的使用(1)显示坐标:fromtorch.utils.tensorboardimportSummaryWriterimportnu
柠檬不萌只是酸i
·
2024-01-28 00:50
深度学习
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续2)
p30:1.均方差(MeanSquaredError,MSE):(1)注意区分MSE和L2范数:L2范数要开根号,而MSE不需要开根号。用torch.norm函数求MSE的时候不要忘记加上pow(2)。求导:pytorch实现自动求导:第一种方法:torch.autograd.grad()设置w需要求导有两种方法:(1)在创建w之后,用来设置w需要求导。(2)在创建w的时候,用w=torch.te
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续1)
p22:1.加减乘除:(1)add(a,b):等同于a+b。(2)sub(a,b):等同于a-b。(3)mul(a,b):等同于a*b。(4)div(a,b):等同于a/b。a//b表示整除。2.tensor的矩阵式相乘:matmul注意区分:(1)*:表示相同位置的元素相乘;(2).matmul:表示矩阵相乘。对于(2)矩阵的相乘,有三种方式:(1)torch.mm:只适用于二维的tensor,
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记
(实践)p5:线性回归问题中损失函数为什么要使用均方误差?均方误差:即误差的平方和的平均数。p8:1.pytorch不是一个完备的语言库,而是一个对于数据的gpu加速库,所以其没有对string的内键支持,即pytorch的基本类型中不包含string。2.pytorch表示string的方法:(1)onehotencoding问题:1)两个单词之间的相关性并没有在onehot编码中得到体现;2)
小白冲鸭
·
2024-01-26 18:34
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续3)
p41:1.LeakReLU,SELU,softplus2.GPU加速:.to方法p42:不太懂p43:1.visdom,tensorbroadXp44:p45:1.如何检测过拟合?在train上表现很好,而在test上表现不好。test的目的(没有valset的时候):防止过拟合,选取最优参数。相当于是验证集。一般选取testaccuracy最高的那点停止训练,作为最优参数。p46:1.trai
小白冲鸭
·
2024-01-26 18:03
pytorch
学习
笔记
pytorch学习
3——卷积神经网络
错题:全连接层解析:图像展平后长度为3×256×256,权重参数和偏置参数的数量是3×256×256×1000+1000=196609000。,前面是权重参数,后面的1000是偏执参数数量2.池化层基础问题解析:选项1:错误,池化层有参与模型的正向计算,同样也会参与反向传播选项2:正确,池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算循环神经网络描述解析:选项1:批量训练的过程中,
柠檬酸的很
·
2024-01-25 04:16
小土堆
pytorch学习
笔记001
1、Pytorch环境的配置与安装。(1)建议安装:Anaconda(2)检查显卡:GPU(3)管理环境(不同版本的pytorch版本不同):condacreate-npytorchpython=3.6(4)检测自己的电脑是否可以使用:2、pytorch编辑器的选择(1)pycharm(下载社区版)(2)jupyter(可以交互)启动本地的jupyter:3、为什么torch.cuda.is_av
柠檬不萌只是酸i
·
2024-01-24 19:11
深度学习
pytorch
学习
笔记
Pytorch学习
笔记(2) Autograd(自动求导) —— PyTorch的核心
本文是Pytorch快速入门第二部分,主要学习记录,主要翻译PytorchAutograd部分教程原文autograd包是PyTorch中神经网络的核心部分。torch.autograd提供了类和函数,用来对任意标量函数进行求导。要想使用自动求导,只需要对已有的代码进行微小的改变。只需要将所有的tensor包含进Variable对象中即可。一、Tensor(张量)torch.Tensor是程序包的
银色尘埃010
·
2024-01-24 10:53
pytorch学习
笔记(十)
一、损失函数举个例子比如说根据Loss提供的信息知道,解答题太弱了,需要多训练训练这个模块。Loss作用:1.算实际输出和目标之间的差距2.为我们更新输出提供一定的依据(反向传播)看官方文档每个输入输出相减取平均取绝对值再取平均第一个损失函数:L1Loss(差的绝对值取平均)需要注意输入输出N=batch_size你有多少个数据第一个损失函数:MSELoss(平方差误差,平方取平均)稳妥的写法是先
満湫
·
2024-01-23 10:45
学习
笔记
pytorch学习
笔记(八)
Sequential看看搭建了这个能不能更容易管理,CIFAR-10数据集进行看一下网络模型CIFAR-10模型123456789输入进过一次卷积,然后经过一次最大池化,尺寸变成16*16了,在经过一次卷积尺寸没变,紧接着进过了一次最大池化,变成了8*8,再经过一次卷积通道数改变32→64,再经过一次池化变成4*4,然后展平,最后输出。(1-2)根据图里面看,32×32经过卷积后的尺寸仍然是32×
満湫
·
2024-01-23 10:14
pytorch
学习
笔记
pytorch学习
笔记(十一)
优化器学习把搭建好的模型拿来训练,得到最优的参数。importtorch.optimimporttorchvisionfromtorchimportnnfromtorch.nnimportSequential,Conv2d,MaxPool2d,Flatten,Linearfromtorch.utils.dataimportDataLoaderdataset=torchvision.datasets
満湫
·
2024-01-23 10:12
pytorch
学习
笔记
Pytorch学习
第4周:综合应用和实战项目 Day 25-27: 模型调优和优化
第4周:综合应用和实战项目Day25-27:模型调优和优化在这段时间里,我们将深入学习和实践如何通过高级技巧优化Pytorch和TensorFlow模型的性能。关键点包括正则化、dropout和批标准化等技术的应用。正则化(Normalization):在Pytorch中,可以通过在优化器中添加权重衰减来实现L2正则化。在TensorFlow中,可以在层级中使用kernel_regularizer
M.D
·
2024-01-20 06:57
pytorch
学习
人工智能
tensorflow
Pytorch学习
第二周Day 10-11: 损失函数和优化器
Day10-11:损失函数和优化器在这两天的学习中,我深入了解了不同的损失函数和优化器,并通过使用两个流行的深度学习框架,PyTorch和TensorFlow,来对比学习这些概念的实际应用。损失函数学习了交叉熵损失、均方误差(MSE)、平均绝对误差(MAE)和Huber损失等常用损失函数。损失函数在训练过程中用于评估模型的性能,目标是最小化这个损失。优化器探讨了随机梯度下降(SGD)、Adam、R
M.D
·
2024-01-20 06:56
pytorch
学习
人工智能
tensorflow2
python
Pytorch学习
第二周--Day 12-13: 构建你的第一个神经网络
Day12-13:构建你的第一个神经网络在这两天里,我动手实践构建了我的第一个神经网络,目的是解决一个基本的分类问题。使用了两个主流的深度学习框架:PyTorch和TensorFlow,以对比和理解它们在神经网络构建方面的不同。目标:构建一个全连接的神经网络来处理分类问题。过程:设计网络结构,包括输入层、若干隐藏层和输出层。选择合适的激活函数,如ReLU。定义损失函数和优化器,例如使用交叉熵损失和
M.D
·
2024-01-20 06:16
pytorch
学习
神经网络
pytorch学习
(一)线性模型
文章目录线性模型pytorch是一个基础的python的科学计算库,它有以下特点:类似于numpy,但是它可以使用GPU可以用它来定义深度学习模型,可以灵活的进行深度学习模型的训练和使用线性模型线性模型的基本形式为:f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b,线性模型的参数是w和b,它的学习是通过不断减少损失实现的,其损失一般为均方损失pytorch代码实现:#fromtkin
@@老胡
·
2024-01-17 12:28
python
pytorch
学习
人工智能
pytorch学习
笔记(五)
关注不同的方法输入是什么类型,输出是什么类型。1.Compose主要关注初始化函数从作用内置call的调用方法两种,第一种,直接使用对象,不用使用点,直接调用的是__call__当要调用的时候直接写个Person()按住ctrl+P看看需要填啥参数。2.Totensor的使用输出结果如下3.Normalize归一化输入必须要tensor的均值,标准差,然后看图片的维度计算4.Resize给定的是一
満湫
·
2024-01-12 23:18
学习
笔记
pytorch学习
笔记
torchvision处理图像的pytorch官网上看数据集的包,COCO数据集目标检测、语义分割,cifar物体识别预训练好的模型这个模块是图片的处理root-位置,train-创建的true是个训练集,transform前面是输出图片的数据类型,“3”是targetimporttorchvisionfromtorch.utils.tensorboardimportSummaryWriterda
満湫
·
2024-01-12 23:18
pytorch
学习
人工智能
pytorch学习
笔记(七 )
池化类似压缩最大池化-上采样例如给一个3的话就会生成一个3×3的窗口(生成相同的高和宽),给一个tuple就会给出一个相同的池化核。stride默认值就是核的大小dilation在卷积dialation设置之后每一个会和另外的差一个,空洞卷积ceilfloor模式(天花板、地板)floor就是向下取整。按下面的方法走,走的步数默认为核的大小取9个里面的最大值,走到右一图,这种情况只能覆盖6个,其他
満湫
·
2024-01-12 23:13
pytorch
学习
笔记
Pytorch学习
记录-torchtext数据预处理
Pytorch学习
记录-torchtext学习Field重新又看了一遍,这东西还得实际做,具体内容看注释。等会还会用中文分词试一下,希望之后文本处理可以使用torchtext做预处理。
我的昵称违规了
·
2024-01-12 09:22
Pytorch学习
记录-60分钟
最最最基础的部分实现一遍,其实就是pytorch教程的那个60分钟实践。主要包括7个部分Basicautogradexample1Basicautogradexample2LoadingdatafromnumpyInputpiplineInputpiplineforcustomdatasetPretrainedmodelSaveandloadmodel1.Basicautogradexample1
我的昵称违规了
·
2024-01-11 06:18
Pytorch学习
记录-基于CRF+BiLSTM的CGED
Pytorch学习
记录-GEC语法纠错03五月第一周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用
我的昵称违规了
·
2024-01-10 20:06
pytorch学习
笔记(一)
1、今天在学习60分钟pytorchtutorial中2、zip就是把2个数组糅在一起x=[1,2,3,4,5]y=[6,7,8,9,10]zip(x,y)[(1,6),(2,7),(3,8),(4,9),(5,10)]还可以方便建立字典。x=['bob','tom','kitty']>>>y=[80,90,95]>>>d=dict(zip(x,y))[('bob',80),('tom',90),
乌拉圭没有壳
·
2024-01-09 00:57
【
pytorch学习
】 深度学习 教程 and 实战
pytorch编程实战博主:https://github.com/lucidrainshttps://github.com/lucidrains/vit-pytorch
联系丝信
·
2024-01-08 06:13
【杂学】
学习
深度学习
pytorch学习
记录:torch.inverse()
pytorchdoc介绍torch.inverse()和torch.linalg.inv()一样。>>>importtorch>>>A=torch.randn(4,4)>>>Ainv=torch.linalg.inv(A)>>>torch.dist(A@Ainv,torch.eye(4))tensor(1.1921e-07)>>>A=torch.randn(2,3,4,4)#Batchofmatr
guoqiangszu
·
2024-01-03 13:26
pytorch
pytorch
python
Pytorch学习
记录-使用Pytorch进行深度学习,60分钟闪电战
使用Pytorch进行深度学习,60分钟闪电战本次课程的目标:从更高水平理解Pytorch的Tensor(张量)和神经网络训练一个小的图像分类神经网络注意确定已经安装了torch和torchvision什么是PytorchPytorch是一个针对两类受众的科学计算包Numpy替代,可以使用GPU深度学习研究平台,提供灵活性和速度开始Tensors(张量)张量和Numpy的ndarrays类似,此外
我的昵称违规了
·
2024-01-03 01:03
pytorch学习
2 - 张量操作与线性回归
张量的操作:拼接、切分、索引和变换1张量的拼接与切分1.1torch.cat(tensors,dim=0,out=None)功能:将张量按维度dim进行拼接tensors:张量序列dim:要拼接的维度1.2torch.stack(tensors,dim=0,out=None)功能:在新创建的维度dim上进行拼接tensors:张量序列dim:要拼接的维度区别:cat不会扩展张量的维度,而stack
Rachel_nana
·
2024-01-02 04:59
pytorch
第二十三周:深度学习基础和
pytorch学习
第二十三周:深度学习和
pytorch学习
摘要Abstract1.TensorBoard的使用2.transforms的使用2.1ToTensor的使用2.2Normalization的使用3.torchvision
@默然
·
2024-01-01 16:53
深度学习
pytorch
学习
Pytorch学习
笔记 | GAN生成对抗网络 | 代码 | 生成mnist手写数字图片
文章目录GAN网络简介测试判别器和测试生成器测试判别器测试生成器首次生成图片(效果欠佳)生成图片(比较清晰,但还有差距)生成图片(继续优化,输入扩维)生成图片(继续优化,)GAN网络简介生成对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,由IanGoodfellow和他的同事在2014年首次提出。GAN是一种非常强大和独特的神经网络架构,用于生成新
惊鸿若梦一书生
·
2023-12-24 10:09
Python深度学习
pytorch
学习
笔记
Pytorch学习
概述
目录学习目标人工智能1.智能(Intelligence)1.1人类智能1.2机器学习(人工智能)1.3深度学习1.4学习系统的发展历程传统的机器学习策略2.传统机器学习算法的一些挑战3.神经网络的简要历史3.1BackPropagation(反向传播)3.2神经网络模型发展历程3.3深度学习框架学习目标学会使用Pytorch构建学习系统理解基础的神经网络和深度学习需要具备:线性代数+概率论(随机变
chairon
·
2023-12-18 11:33
PyTorch深度学习实践
pytorch
学习
人工智能
Pytorch学习
(1)
引用文章pytorch入门(超详细)什么是pytorch?pytorch是一个基于Python的科学计算包,它主要有两个用途:类似于Numpy但是能利用GPU加速一个非常灵活和快速用于深度学习的研究平台。importtorch#构建一个5x3的未初始化的矩阵x=torch.empty(5,3)print(x)#tensor([[9.9184e-39,8.7245e-39,9.2755e-39],[
AuroraGengi
·
2023-12-17 02:11
学习pytorch20 pytorch完整的模型验证套路
pytorch完整的模型验证套路使用非数据集的测试数据,测试训练好模型的效果代码预测结果解决报错B站小土堆
pytorch学习
视频https://www.bilibili.com/video/BV1hE411t7RN
陌上阳光
·
2023-12-14 23:37
学习pytorch
pytorch
python
pytorch学习
8-损失函数
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
9-优化器学习
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
10-网络模型的保存和加载
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
11-完整的模型训练过程
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
4-简易卷积实现
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
5-最大池化层的使用
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
7-序列模型搭建
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
1-数据加载以及Tensorboard可视化工具
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
2-Transforms主要方法使用
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
3-torchvisin和Dataloader的使用
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习
6-非线性变换(ReLU和sigmoid)
系列文章目录
pytorch学习
1-数据加载以及Tensorboard可视化工具
pytorch学习
2-Transforms主要方法使用
pytorch学习
3-torchvisin和Dataloader的使用
Magic171
·
2023-12-06 07:45
吴恩达机器学习
pytorch
学习
人工智能
『
PyTorch学习
笔记』分布式深度学习训练中的数据并行(DP/DDP) VS 模型并行
分布式深度学习训练中的数据并行(DP/DDP)VS模型并行文章目录一.介绍二.并行数据加载2.1.加载数据步骤2.2.PyTorch1.0中的数据加载器(Dataloader)三.数据并行3.1.DP(DataParallel)的基本原理3.1.1.从流程上理解3.1.2.从模式角度理解3.1.3.从操作系统角度看3.1.4.低效率3.2.DDP(DistributedDataParallel)的
AI新视界
·
2023-12-04 16:15
Pytorch学习笔记
pytorch
数据并行
模型并行
Data
Parallel
Pytorch学习
笔记——autograd
一、神经网络神经网络就是一个”万能的模型+误差修正函数“,每次根据训练得到的结果与预想结果进行误差分析,进而修改权值和阈值,一步一步得到能输出和预想结果一致的模型。机器学习可以看做是数理统计的一个应用,在数理统计中一个常见的任务就是拟合,也就是给定一些样本点,用合适的曲线揭示这些样本点随着自变量的变化关系。深度学习同样也是为了这个目的,只不过此时,样本点不再限定为(x,y)点对,而可以是由向量、矩
岳野
·
2023-12-04 00:46
学习笔记
python
机器学习
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他