E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch学习笔记
pytorch学习笔记
-自定义卷积
未完结的草稿———!大概是准备整合一下常见的层,整合完感觉就可以进行搭建了(还没进行到这一步所以不太确定版)(ps我将在完结这一篇的时候删除上面的小字and二编一下整篇文章的结构,如果看到了这部分文字也是很有缘分了/doge这一部分感觉也没啥好说的==也就是reshape部分值得注意一下?剩下的感觉就是了解一下用法就可以importtorchimporttorch.nnasnnimporttorc
墨染枫
·
2025-07-27 18:46
深度学习
pytorch
学习
笔记
【
Pytorch学习笔记
(三)】张量的运算(2)
一、引言在《张量的运算(1)》中我们已经学习了几种张量中常用的非算数运算如张量的索引与切片,张量的拼接等。本节我们继续学习张量的算术运算。二、张量的算术运算(一)对应元素的加减乘除在PyTorch中,张量的对应元素的算术运算包括加法、减法、乘法、除法等常见的数学运算。这些运算可以对张量进行逐元素操作(element-wise),也可以进行张量之间的广播运算(broadcasting)。1.逐元素操
·
2025-07-05 18:43
【
Pytorch学习笔记
】模型模块09——VGG详解
一、VGG核心设计原理小卷积核堆叠用多层3×3卷积替代大卷积核(如5×5/7×7)数学原理:2层3×3卷积感受野等效于5×5:RFout=(RFin−1)×stride+KRF_{out}=(RF_{in}-1)\timesstride+KRFout=(RFin−1)×stride+K参数量对比:3层3×3卷积(3×(32C2)=27C23×(3^2C^2)=27C^23×(32C2)=27C2)
越轨
·
2025-06-26 00:44
Pytorch学习笔记
pytorch
学习
笔记
深度学习
人工智能
python
PyTorch学习笔记
- 损失函数
文章目录1.内置损失函数2.继承nn.Module自定义损失函数3.继承autograd.Function自定义损失函数3.三种不同方式实现MSE实验PyTorch除了内置损失函数,还可以自定义损失函数。我们以均方误差为例来讲解PyTorch中损失函数的使用方法。均方误差(MeanSquaredError,MSE)是预测值x=(x1,x2,...,xn)x=(x_1,x_2,...,x_n)x=(
__星辰大海__
·
2025-06-05 18:11
PyTorch
pytorch
【
Pytorch学习笔记
】模型模块05——Module常用函数
Module常用函数设置训练和评估模式**作用:**在PyTorch中,模型有训练(training)和评估(evaluation)两种模式,它们会影响某些层的行为。主要影响的层:Dropout层:训练时随机丢弃神经元,评估时保持全部神经元BatchNorm层:训练时计算并更新统计量,评估时使用固定统计量LayerNorm层:行为在两种模式下基本一致2.设置方法#设置训练模式model.train
越轨
·
2025-06-03 22:15
Pytorch学习笔记
pytorch
学习
笔记
人工智能
python
【
Pytorch学习笔记
】模型模块06——hook函数
hook函数什么是hook函数hook函数相当于插件,可以实现一些额外的功能,而又不改变主体代码。就像是把额外的功能挂在主体代码上,所有叫hook(钩子)。下面介绍Pytorch中的几种主要hook函数。torch.Tensor.register_hooktorch.Tensor.register_hook()是一个用于注册梯度钩子函数的方法。它主要用于获取和修改张量在反向传播过程中的梯度。语法格
越轨
·
2025-06-02 16:06
Pytorch学习笔记
深度学习
pytorch
人工智能
学习
笔记
python
机器学习
小土堆
pytorch学习笔记
之神经网络基本骨架
pytorch之神经网络基本骨架[!TIP]首先来补补一些图像处理的基础知识吧!(尊嘟是0基础了)关于图片格式高度(Height):图像的垂直尺寸,即图像从上到下的像素数量。宽度(Width):图像的水平尺寸,即图像从左到右的像素数量。通道(Channels):图像的颜色信息,最常见的是RGB(红、绿、蓝)三通道。每个通道代表图像在特定颜色维度上的强度。批量处理:深度学习模型通常一次处理多个图像,
李小鱼爱喝水
·
2025-05-22 06:24
pytorch
pytorch
学习
笔记
【
Pytorch学习笔记
】数据模块05——编写自己的Dataset
编写自己的Dataset通过前面的知识,大家基本了解如何整个数据模块是如何构建的,下面举个完整的例子,要编写自定义的Dataset类,需要遵循以下基本步骤:1.基本结构自定义Dataset类需要继承torch.utils.data.Dataset,并实现以下三个必要方法:init:初始化函数,通常用于加载数据集和进行必要的预处理len:返回数据集的总长度getitem:根据索引返回对应的数据样本和
越轨
·
2025-05-21 08:56
Pytorch学习笔记
pytorch
学习
笔记
人工智能
pytorch学习笔记
(三)
pytorch学习笔记
(三)一、模型保存用pathlib库中的方法来保存模型参数1)保存模型参数frompathlibimportPathMODEL_PATH=Path("models")#Path更好表示路径
shushu113
·
2025-05-11 05:07
pytorch
学习
笔记
【
pytorch学习笔记
,利用Anaconda安装pytorch和paddle深度学习环境+pycharm安装---免额外安装CUDA和cudnn】
学习的作者链接:link一、安装pytorch环境1.打开打开anaconda的终端后condaenvlist然后创建一个名字叫pytorch,python是3.8版本的环境condacreate-npytorchpython=3.8再次看环境condaenvlist#condaenvironments:#显示如下环境base*D:\anacondapytorchD:\anaconda\envs\
徳一
·
2025-04-24 11:02
pytorch学习
深度学习
pytorch
学习
Pytorch学习笔记
(十六)Image and Video - Transfer Learning for Computer Vision Tutorial
这篇博客瞄准的是pytorch官方教程中ImageandVideo章节的TransferLearningforComputerVisionTutorial部分。官网链接:https://pytorch.org/tutorials/beginner/transfer_learning_tutorial.html完整网盘链接:https://pan.baidu.com/s/1L9PVZ-KRDGVER
nenchoumi3119
·
2025-04-02 11:05
pytorch学习笔记
pytorch
学习
笔记
Pytorch学习笔记
(十一)Learning PyTorch - What is torch.nn really
这篇博客瞄准的是pytorch官方教程中LearningPyTorch章节的Whatistorch.nnreally?部分。主要是教你如何一步一步将最原始的代码进行重构至pytorch标准的代码,如果你已经熟悉了如何使用原始代码以及pytorch标准形式构建模型,可以跳过这一篇。官网链接:https://pytorch.org/tutorials/beginner/nn_tutorial.html
nenchoumi3119
·
2025-04-01 16:44
pytorch学习笔记
pytorch
学习
笔记
【pytorch】图像数据预处理
本文是记录一些在深度学习中的预处理的一些语法和函数torchvision.transforms的图像变换[
PyTorch学习笔记
]2.3二十二种transforms图片数据预处理方法-知乎TORCHVISION.TRANSFORMS
子根
·
2025-03-27 17:20
笔记
pytorch
python
深度学习
Pytorch学习笔记
(二)
后续遇到一些函数等知识,还会进行及时的补充。tensor的创建使用pytorch中的列表创建tensortensor=torch.Tensor([[-1,1],[0,2<
不牌不改
·
2025-02-04 19:21
【Pytorch学习】
pytorch
深度学习
python
PyTorch学习笔记
之基础函数篇(四)
文章目录2.8torch.logspace函数讲解2.9torch.ones函数2.10torch.rand函数2.11torch.randn函数2.12torch.zeros函数2.8torch.logspace函数讲解torch.logspace函数在PyTorch中用于生成一个在对数尺度上均匀分布的张量(tensor)。这意味着张量中的元素是按照对数间隔排列的,而不是线性间隔。这对于创建在数
熊猫Devin
·
2024-03-17 16:54
深度学习之PyTorch
pytorch
学习
笔记
pytorch学习笔记
(2)--Tensor
系列文章
pytorch学习笔记
(1)–QUICKSTART
pytorch学习笔记
(2)–Tensor
pytorch学习笔记
(3)–数据集与数据导入
pytorch学习笔记
(4)–创建模型(BuildModel
ToToBe
·
2024-02-03 20:50
pytorch
笔记
1024程序员节
PyTorch学习笔记
(三):softmax回归
PyTorch学习笔记
(三):softmax回归softmax回归分类问题softmax回归模型单样本分类的矢量计算表达式小批量样本分类的矢量计算表达式交叉熵损失函数模型预测及评价小结Torchvision
FriendshipT
·
2024-02-02 09:15
PyTorch学习笔记
pytorch
回归
深度学习
softmax
PyTorch学习笔记
1
训练过程importtorch#batch_size,input_dimension,hidden_dimension,output_dimensionN,D_in,H,D_out=64,1000,100,10#模拟一个训练集x=torch.randn(N,D_in)y=torch.randn(N,D_out)#模型定义有多种方式,这里不提model#loss函数定义loss_fn=torch.n
zt_d918
·
2024-01-30 23:45
小土堆
pytorch学习笔记
004
目录1、神经网络的基本骨架-nn.Module的使用2、卷积操作实例3、神经网络-卷积层4、神经网络-最大池化的使用(1)最大池化画图理解:(2)代码实现:5、神经网络-非线性激活(1)代码实现(调用sigmoid函数)6、神经网络-线性层(1)代码7、网络搭建-小实战(1)完整代码1、神经网络的基本骨架-nn.Module的使用官网地址:pytorch里的nnimporttorchfromtor
柠檬不萌只是酸i
·
2024-01-28 00:52
深度学习
pytorch
学习
笔记
机器学习
深度学习
小土堆
pytorch学习笔记
003 | 下载数据集dataset 及报错处理
目录1、下载数据集2、展示数据集里面的内容3、DataLoader的使用例子:结果展示:1、下载数据集#数据集importtorchvisiontrain_set=torchvision.datasets.CIFAR10(root="./test10_dataset",train=True,download=True)test_set=torchvision.datasets.CIFAR10(ro
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
人工智能
深度学习
机器学习
pytorch
python
小土堆
pytorch学习笔记
005 | 完结,✿✿ヽ(°▽°)ノ✿
目录1、损失函数与反向传播2、如何在搭建的网络中使用损失函数呢?3、优化器4、现有网络模型的使用及修改例子:5、模型训练保存+读取(1)保存(2)读取6、完整的模型训练:(1)代码【model文件】:【主文件】:(2)运行截图:(3)绘图展示:(4)添加训练正确率的完整代码:(5)总结!!!:(6)使用GPU训练7、完整模型验证(1)代码(2)运行结果1、损失函数与反向传播①计算实际输出和目标之间
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
学习
笔记
pytorch
机器学习
深度学习
小土堆
pytorch学习笔记
002
目录1、TensorBoard的使用(1)显示坐标:(2)显示图片:2、Transform的使用3、常见的Transforms(1)#ToTensor()(2)#Normalize()(3)#Resize()(4)#Compose()4、总结:1、TensorBoard的使用(1)显示坐标:fromtorch.utils.tensorboardimportSummaryWriterimportnu
柠檬不萌只是酸i
·
2024-01-28 00:50
深度学习
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续2)
p30:1.均方差(MeanSquaredError,MSE):(1)注意区分MSE和L2范数:L2范数要开根号,而MSE不需要开根号。用torch.norm函数求MSE的时候不要忘记加上pow(2)。求导:pytorch实现自动求导:第一种方法:torch.autograd.grad()设置w需要求导有两种方法:(1)在创建w之后,用来设置w需要求导。(2)在创建w的时候,用w=torch.te
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续1)
p22:1.加减乘除:(1)add(a,b):等同于a+b。(2)sub(a,b):等同于a-b。(3)mul(a,b):等同于a*b。(4)div(a,b):等同于a/b。a//b表示整除。2.tensor的矩阵式相乘:matmul注意区分:(1)*:表示相同位置的元素相乘;(2).matmul:表示矩阵相乘。对于(2)矩阵的相乘,有三种方式:(1)torch.mm:只适用于二维的tensor,
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(实践)p5:线性回归问题中损失函数为什么要使用均方误差?均方误差:即误差的平方和的平均数。p8:1.pytorch不是一个完备的语言库,而是一个对于数据的gpu加速库,所以其没有对string的内键支持,即pytorch的基本类型中不包含string。2.pytorch表示string的方法:(1)onehotencoding问题:1)两个单词之间的相关性并没有在onehot编码中得到体现;2)
小白冲鸭
·
2024-01-26 18:34
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续3)
p41:1.LeakReLU,SELU,softplus2.GPU加速:.to方法p42:不太懂p43:1.visdom,tensorbroadXp44:p45:1.如何检测过拟合?在train上表现很好,而在test上表现不好。test的目的(没有valset的时候):防止过拟合,选取最优参数。相当于是验证集。一般选取testaccuracy最高的那点停止训练,作为最优参数。p46:1.trai
小白冲鸭
·
2024-01-26 18:03
pytorch
学习
笔记
小土堆
pytorch学习笔记
001
1、Pytorch环境的配置与安装。(1)建议安装:Anaconda(2)检查显卡:GPU(3)管理环境(不同版本的pytorch版本不同):condacreate-npytorchpython=3.6(4)检测自己的电脑是否可以使用:2、pytorch编辑器的选择(1)pycharm(下载社区版)(2)jupyter(可以交互)启动本地的jupyter:3、为什么torch.cuda.is_av
柠檬不萌只是酸i
·
2024-01-24 19:11
深度学习
pytorch
学习
笔记
Pytorch学习笔记
(2) Autograd(自动求导) —— PyTorch的核心
本文是Pytorch快速入门第二部分,主要学习记录,主要翻译PytorchAutograd部分教程原文autograd包是PyTorch中神经网络的核心部分。torch.autograd提供了类和函数,用来对任意标量函数进行求导。要想使用自动求导,只需要对已有的代码进行微小的改变。只需要将所有的tensor包含进Variable对象中即可。一、Tensor(张量)torch.Tensor是程序包的
银色尘埃010
·
2024-01-24 10:53
pytorch学习笔记
(十)
一、损失函数举个例子比如说根据Loss提供的信息知道,解答题太弱了,需要多训练训练这个模块。Loss作用:1.算实际输出和目标之间的差距2.为我们更新输出提供一定的依据(反向传播)看官方文档每个输入输出相减取平均取绝对值再取平均第一个损失函数:L1Loss(差的绝对值取平均)需要注意输入输出N=batch_size你有多少个数据第一个损失函数:MSELoss(平方差误差,平方取平均)稳妥的写法是先
満湫
·
2024-01-23 10:45
学习
笔记
pytorch学习笔记
(八)
Sequential看看搭建了这个能不能更容易管理,CIFAR-10数据集进行看一下网络模型CIFAR-10模型123456789输入进过一次卷积,然后经过一次最大池化,尺寸变成16*16了,在经过一次卷积尺寸没变,紧接着进过了一次最大池化,变成了8*8,再经过一次卷积通道数改变32→64,再经过一次池化变成4*4,然后展平,最后输出。(1-2)根据图里面看,32×32经过卷积后的尺寸仍然是32×
満湫
·
2024-01-23 10:14
pytorch
学习
笔记
pytorch学习笔记
(十一)
优化器学习把搭建好的模型拿来训练,得到最优的参数。importtorch.optimimporttorchvisionfromtorchimportnnfromtorch.nnimportSequential,Conv2d,MaxPool2d,Flatten,Linearfromtorch.utils.dataimportDataLoaderdataset=torchvision.datasets
満湫
·
2024-01-23 10:12
pytorch
学习
笔记
pytorch学习笔记
(五)
关注不同的方法输入是什么类型,输出是什么类型。1.Compose主要关注初始化函数从作用内置call的调用方法两种,第一种,直接使用对象,不用使用点,直接调用的是__call__当要调用的时候直接写个Person()按住ctrl+P看看需要填啥参数。2.Totensor的使用输出结果如下3.Normalize归一化输入必须要tensor的均值,标准差,然后看图片的维度计算4.Resize给定的是一
満湫
·
2024-01-12 23:18
学习
笔记
pytorch学习笔记
torchvision处理图像的pytorch官网上看数据集的包,COCO数据集目标检测、语义分割,cifar物体识别预训练好的模型这个模块是图片的处理root-位置,train-创建的true是个训练集,transform前面是输出图片的数据类型,“3”是targetimporttorchvisionfromtorch.utils.tensorboardimportSummaryWriterda
満湫
·
2024-01-12 23:18
pytorch
学习
人工智能
pytorch学习笔记
(七 )
池化类似压缩最大池化-上采样例如给一个3的话就会生成一个3×3的窗口(生成相同的高和宽),给一个tuple就会给出一个相同的池化核。stride默认值就是核的大小dilation在卷积dialation设置之后每一个会和另外的差一个,空洞卷积ceilfloor模式(天花板、地板)floor就是向下取整。按下面的方法走,走的步数默认为核的大小取9个里面的最大值,走到右一图,这种情况只能覆盖6个,其他
満湫
·
2024-01-12 23:13
pytorch
学习
笔记
pytorch学习笔记
(一)
1、今天在学习60分钟pytorchtutorial中2、zip就是把2个数组糅在一起x=[1,2,3,4,5]y=[6,7,8,9,10]zip(x,y)[(1,6),(2,7),(3,8),(4,9),(5,10)]还可以方便建立字典。x=['bob','tom','kitty']>>>y=[80,90,95]>>>d=dict(zip(x,y))[('bob',80),('tom',90),
乌拉圭没有壳
·
2024-01-09 00:57
Pytorch学习笔记
| GAN生成对抗网络 | 代码 | 生成mnist手写数字图片
文章目录GAN网络简介测试判别器和测试生成器测试判别器测试生成器首次生成图片(效果欠佳)生成图片(比较清晰,但还有差距)生成图片(继续优化,输入扩维)生成图片(继续优化,)GAN网络简介生成对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,由IanGoodfellow和他的同事在2014年首次提出。GAN是一种非常强大和独特的神经网络架构,用于生成新
惊鸿若梦一书生
·
2023-12-24 10:09
Python深度学习
pytorch
学习
笔记
『
PyTorch学习笔记
』分布式深度学习训练中的数据并行(DP/DDP) VS 模型并行
分布式深度学习训练中的数据并行(DP/DDP)VS模型并行文章目录一.介绍二.并行数据加载2.1.加载数据步骤2.2.PyTorch1.0中的数据加载器(Dataloader)三.数据并行3.1.DP(DataParallel)的基本原理3.1.1.从流程上理解3.1.2.从模式角度理解3.1.3.从操作系统角度看3.1.4.低效率3.2.DDP(DistributedDataParallel)的
AI新视界
·
2023-12-04 16:15
Pytorch学习笔记
pytorch
数据并行
模型并行
Data
Parallel
Pytorch学习笔记
——autograd
一、神经网络神经网络就是一个”万能的模型+误差修正函数“,每次根据训练得到的结果与预想结果进行误差分析,进而修改权值和阈值,一步一步得到能输出和预想结果一致的模型。机器学习可以看做是数理统计的一个应用,在数理统计中一个常见的任务就是拟合,也就是给定一些样本点,用合适的曲线揭示这些样本点随着自变量的变化关系。深度学习同样也是为了这个目的,只不过此时,样本点不再限定为(x,y)点对,而可以是由向量、矩
岳野
·
2023-12-04 00:46
学习笔记
python
机器学习
深度学习
PyTorch学习笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录学习目标学习内容:一pytorch深度学习方法二构建一个简单神经网络三深度学习工作流和pytorch生态系统四基于pytorch构建CNN五RNN以及序列数据处理六生成对抗网络七强化学习八将pytorch用用于生产三种不同的方法总结学习目标4月份到来之前学完《PorTorch深度学习实战》学习内容:一pytorch深度学习方法
欢桑
·
2023-11-30 09:14
pytorch
学习
深度学习
Pytorch学习笔记
(4)—LSTM序列生成模型
文章目录前言主要内容一、序列生成问题解决方法二、RNN的引入三、LongShortTermMemory(LSTM)4、序列生成音乐本文引用:前言掌握使用PyTorch构建LSTM模型的方法掌握使用LSTM生成MIDI音乐的方法主要内容如何用神经网络做序列生成?RNN与LSTM的工作原理RNN是如何记忆Pattern的?MIDI音乐的原理如何用LSTM作曲一、序列生成问题解决方法将生成问题转化成一个
llddycidy
·
2023-11-29 09:27
Pytorch学习笔记
pytorch
学习
笔记
PyTorch学习笔记
(二)——TensorBoard
1用途1、训练过程中loss是如何变化的,是否正常或是否按预想的变化,选择什么样的模型2、模型在不同阶段的输出2需要导入的类和常用的方法fromtorch.utils.tensorboardimportSummaryWriterwriter.add_image()writer.add_scalar()查看SummaryWriter的官方文档直接向log_dir文件夹写入事件文件,可以被Tensor
routine1o1oo
·
2023-11-28 01:18
pytorch
【
pytorch学习笔记
03】pytorch完整模型训练套路
B站我是土堆视频学习笔记,链接:https://www.bilibili.com/video/BV1hE411t7RN/?spm_id_from=333.999.0.01.准备数据集train_data=torchvision.datasets.CIFAR10(root='./dataset',train=True,transform=torchvision.transforms.ToTensor
yierrrrr
·
2023-11-21 13:23
DL学习笔记
pytorch
学习
笔记
PyTorch学习笔记
1.item()→number方法:item()返回一个数只能用于只包含一个元素的张量。对于其他的张量,请查看方法tolist().该操作是不可微分的,即不可求导.(译者注:返回的结果是普通Python数据类型,自然不能调用backward()方法来进行梯度的反向传播)Example:例子:>>>x=torch.tensor([1.0])>>>x.item()1.02.Tensor(张量)中包含d
Junoxiang
·
2023-11-20 17:47
pytorch
学习
笔记
PyTorch学习笔记
(4)--神经网络模型的保存和导入
1.numpy矩阵的保存importnumpyasnpa=np.array(2)np.save("nm.npy",a)a=np.load("nm.npy")2.模型的保存和导入将训练好的模型和参数保存下来,下一次使用的时候直接导入模型和参数,和一个已经训练好的神经网络模型一样保存模型importtorch#保存整个神经网络的结构和模型参数torch.save(mymodel,'mymodel.pk
别管我啦就是说
·
2023-11-11 08:00
Pytorch学习笔记
python
pytorch
PyTorch学习笔记
:nn.Sigmoid——Sigmoid激活函数
PyTorch学习笔记
:nn.Sigmoid——Sigmoid激活函数torch.nn.Sigmoid()功能:逐元素应用Sigmoid函数对数据进行激活,将元素归一化到区间(0,1)内函数方程:Sigmoid
视觉萌新、
·
2023-11-11 01:46
PyTorch学习笔记
pytorch
学习
深度学习
Pytorch学习笔记
(1)检查torch、cuda,张量的创建
lesson1检查torch、cudaimporttorch#打印torch版本print("HelloWorld,HelloPyTorch{}".format(torch.__version__))#打印cuda是否可用,打印cuda版本print("\nCUDAisavailable:{},versionis{}".format(torch.cuda.is_available(),torch.
小帅吖
·
2023-11-09 05:50
Pytorch学习笔记
python
pytorch
深度学习
PyTorch学习笔记
:nn.ReLU——ReLU激活函数
PyTorch学习笔记
:nn.ReLU——ReLU激活函数torch.nn.ReLU(inplace=False)功能:逐元素应用ReLU函数对数据进行激活函数方程:ReLU(x)=(x)+=max(
视觉萌新、
·
2023-11-08 06:08
PyTorch学习笔记
pytorch
学习
深度学习
Pytorch学习笔记
目录目录一、Anaconda+pytorch(GPU版)安装及注意事项Anaconda新建环境安装pytorch(GPU版)版本匹配清华源大坑!!!!pycharm中切换终端环境二、TensorBoard数据可视化2.1安装2.2TensorBoard使用流程pytorch代码部分终端部分2.3官方帮助*三、Transforms使用3.1结构及作用3.2常用类ComposeToTensor3.3为
Int mian[]
·
2023-11-07 18:58
pytorch
神经网络
深度学习
卷积神经网络
人工智能
Pytorch学习笔记
--torch.autograd.Function的使用
目录1--前言2--代码实例2-1--e^x函数实现2-2--linear函数实现3--参考1--前言构建可连续求导的神经网络时,往往会继承nn.Module类,此时只需重写__init__和forward函数即可,pytorch会自动求导;构建不可连续求导的神经网络时,可以继承torch.autograd.Function类,此时需要重写forward函数和backward函数,其中backwa
晓晓纳兰容若
·
2023-11-02 06:25
Pytorch学习笔记
pytorch
Pytorch学习笔记
--常用函数nn.init.normal()、nn.init.constant_()、torch.from_numpy()、torch.index_select()总结4
目录1--torch.nn.init.normal()和torch.nn.init.constant_()函数2--torch.from_numpy()函数3--torch.index_select()函数1--torch.nn.init.normal()和torch.nn.init.constant_()函数torch.nn.init.normal()函数:torch.nn.init.norma
晓晓纳兰容若
·
2023-10-28 21:10
Pytorch学习笔记
pytorch
深度学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他