E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
【第15章:量子深度学习与未来趋势—15.2 量子深度学习模型的基础理论与实现方法探索】
今天AI领域正面临类似的困境——GPT-4训练需要消耗1.7万个NVIDIAA100
GPU
运行3个月,能耗相当于300个家庭一年的用电量。
再见孙悟空_
·
2025-05-23 07:37
#
【
深度学习・探索智能核心奥秘】
深度学习
DeepSeek
人工智能
计算机视觉
强化学习
量子计算
量子深度学习
天文数据处理:基于
CUDA
的射电望远镜图像实时去噪算法(开源FAST望远镜数据处理代码解析)
一、射电天文数据处理的挑战与
CUDA
加速的必要性作为全球最大的单口径射电望远镜,中国天眼(FAST)每秒产生38GB原始观测数据,经预处理后生成数千万张图像。
学术猿之吻
·
2025-05-23 05:22
算法
开源
去中心化
智能合约
架构
risc-v
gpu算力
GPU
集群的“碳中和”策略:从DVFS调频到液冷散热系统的能效模型
引言在超算中心年均能耗突破百万度电的背景下(典型规模的1000节点
GPU
集群年耗电约2.5亿度,≈CNY1.8亿元),实现能耗优化已成为各国超算中心的核心任务。
学术猿之吻
·
2025-05-23 05:22
架构
pytorch
人工智能
python
开发语言
从零构建神经网络:PyTorch的nn.Module详解
nn.Module是PyTorch中所有神经网络模型的基类,它提供了以下核心功能:模块化设计:将网络拆分为可重用的层(如卷积层、全连接层)自动参数管理:自动跟踪所有可训练参数(parameters()方法)
GPU
小诸葛IT课堂
·
2025-05-23 03:39
神经网络
pytorch
人工智能
Python_day33 简单的神经网络
知识点回顾:PyTorch和
cuda
的安装查看显卡信息的命令行命令(cmd中使用)
cuda
的检查简单神经网络的流程数据预处理(归一化、转换成张量)模型的定义继承nn.Module类定义每一个层定义前向传播流程定义损失函数和优化器定义训练流程可视化
且慢.589
·
2025-05-23 00:21
Python_60
python
神经网络
开发语言
RISC-V 开发板经验
RISC-V的发展,但是很无奈,之前上市的RISC-V开发板,要么天价,要么是超低配,性能拉跨,然后2022年偶然看到了国产visionfive2板子的预售,jh7110,4核risc-v1.5ghz,而且配了
GPU
遥遥领先0316
·
2025-05-23 00:20
risc-v
PaddleOCR部署本机识别票据
####说明由于YOLO和PaddleOCR无法同时使用
GPU
加速,使用RT-D
嚛熙
·
2025-05-22 15:30
python
ocr
OpenCV
CUDA
模块图像过滤------创建一个列方向上的求和滤波器(Column Sum Filter)函数createColumnSumFilter()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数创建的是一个列方向一维滑动窗口求和滤波器。它会对图像中每一列像素进行滑动窗口内的求和操作。这个滤波器常用于:快速实现图像卷积计算的中间步骤(如均值滤波、Sobel等)图像积分图(IntegralImage)相关算法加速自定义卷积核时作为基础模块使用函数原型P
村北头的码农
·
2025-05-22 13:49
OpenCV
opencv
人工智能
计算机视觉
项目中Warmup耗时高该如何操作处理
1)项目中Warmup耗时高该如何操作处理2)如何在卸载资源后Untracked和Other的内存都回收3)总Triangles的值是否包含了通过
GPU
Instancing画的三角形4)有没有用Lua来修复虚幻引擎中对
UWA
·
2025-05-22 12:42
厚积薄发
Unity优化
Rendering
Memory
Script
5.22打卡
@浙大疏锦行DAY33简单的神经网络知识点回顾:1.PyTorch和
cuda
的安装2.查看显卡信息的命令行命令(cmd中使用)3.
cuda
的检查4.简单神经网络的流程a.数据预处理(归一化、转换成张量)
丁值心
·
2025-05-22 11:58
机器学习小白从0到1
python
开发语言
机器学习
人工智能
支持向量机
LlamaIndex环境配置
之前配Llama-Index时出现不兼容的问题,记录一下最后配好的版本记住一定要先安装pytorch,否则LlamaIndex自动安装的可能是cpu版本,而且没有配置下载源的情况下载torch包很慢,其中
cuda
L~river
·
2025-05-22 10:55
llamaindex
环境配置
PyTorch
LLM
opencv_version_win32
执行opencv_version_win32.exe因为显卡较老2060super,NVIDIA
GPU
arch:758086878990。至于更高的反本没有显卡因此不知道。
kmblack1
·
2025-05-22 07:34
opencv
人工智能
计算机视觉
如何设置FFmpeg进行高分辨率视频转码?
要使用FFmpeg进行高分辨率视频转码,可以参考以下步骤:1.检查FFmpeg是否支持
GPU
加速首先,确保你的FFmpeg安装支持
GPU
加速。
视频砖家
·
2025-05-22 06:24
FFmpeg
ffmpeg
音视频
视频添加背景
【AI论文】PRIMA.CPP:在低资源日常家用集群上加速700亿参数级大型语言模型推理
虽然消费类硬件越来越强大,模型量化也在不断改进,但现有的端侧解决方案仍然需要
GPU
集群、大RAM/VRAM和高带宽,远远超出了普通家庭集群的处理能力。
东临碣石82
·
2025-05-22 04:15
人工智能
语言模型
自然语言处理
window 显示驱动开发-准备 DMA 缓冲区
当
GPU
处理DMA缓冲区时,通常调用显示微型端口驱动程序来准备下一个DMA缓冲区,以便提交到
GPU
。
程序员王马
·
2025-05-21 23:07
windows图形显示驱动开发
驱动开发
windows
一看就会系列之配置Anaconda虚拟环境、配置
GPU
、
CUDA
、CUDNN、服务器运行深度学习代码!
深度学习
GPU
环境配置完整指南1.使用Anaconda创建虚拟环境并安装PyTorch/TensorFlow(Windows/Linux)Windows下:创建虚拟环境:打开AnacondaPrompt
Big__Star
·
2025-05-21 20:15
服务器
深度学习
python
gpu算力
gem5-
gpu
教程 第十一章 梳理代码 找到
cdgem5python3`whichscons`build/X86_VI_hammer_
GPU
/gem5.opt--default=X86EXTRAS=../gem5-`
gpu
/src:..
事橙1999
·
2025-05-21 13:28
gem5-gpu
前端
硬件架构
gem5-
gpu
教程 如何运行VSCode
launch.json{"version":"0.2.0","configurations":[{"name":"Debuggem5","type":"cppdbg"
事橙1999
·
2025-05-21 13:28
gem5-gpu
vscode
ide
编辑器
paddle ocr本地化部署进行文字识别
2.核心特点全场景覆盖:支持云端、边缘端、移动端等多硬件环境,适配CPU、
GPU
、FPGA等多种芯片。易用性与高效性:提供简洁的AP
隐形喷火龙
·
2025-05-21 11:45
Python
paddle
ocr
【NLP】37. NLP中的众包
众包的智慧:当“无数人”帮你训练AI当我们谈论构建大语言模型时,脑海中浮现的往往是服务器、
GPU
和Transformer,而很少想到成千上万的普通人也在默默贡献力量。
pen-ai
·
2025-05-21 03:27
深度学习
机器学习
自然语言处理
人工智能
昇腾torch.multiprocessing.spawn分布式训练使用pytorch迁移
假设你的程序程序基于torch.multiprocessing.spawn来启动:deflaunch_job(cfg,init_method,func,daemon=False):ifcfg.NUM_
GPU
S
duoyasong5907
·
2025-05-21 02:54
人工智能(vip栏目)
分布式
pytorch
人工智能
OpenCV 环境搭建与概述
3、中级:角点查找、BLOB查找、特征提取与匹配、机器学习、深度神经网络、
CUDA
加速。4、高级:掌握自定义对象检测
清醒的兰
·
2025-05-21 02:22
OpenCV
opencv
人工智能
计算机视觉
基于JAX的自动微分系统优化:从XLA编译到
GPU
代码生成(对比JAX与PyTorch的算子融合策略差异)
点击“AladdinEdu,同学们用得起的【H卡】算力平台”,H卡级别算力,按量计费,灵活弹性,顶级配置,学生专属优惠。一、自动微分系统的核心挑战与优化方向在深度学习框架的设计中,自动微分(AutomaticDifferentiation,AD)与计算图优化是决定训练效率的核心环节。JAX与PyTorch作为当前两大主流框架,分别采用不同的技术路径实现AD系统优化。JAX基于XLA编译器与函数式编
九章云极AladdinEdu
·
2025-05-21 00:10
pytorch
人工智能
python
gpu算力
深度学习
机器学习
架构
多节点多
GPU
:大规模使用 NVIDIA cuFFTMp FFT
借助cuFFTMp,NVIDIA现在不仅支持单个系统中的多个
GPU
,还支持跨多个节点的多个
技术瘾君子1573
·
2025-05-20 23:05
人工智能
多节点多GPU
并行计算
AI
HPC
【AI】YOLOv7部署在NVIDIA Jetson TX2上
算法,好神奇啊,比如MCUNet1.2CPUCentralProcessingUnit,中央处理器一般的框架都有CPU版本,当然速度会慢一些,在x86电脑上勉强能用,在嵌入式ARM板上几乎无法使用1.3
GPU
GraphicsProcessingUnit
郭老二
·
2025-05-20 21:21
AI
人工智能
YOLO
计算机视觉
TensorRT-LLM——优化大型语言模型推理以实现最大性能的综合指南
TensorRT-LLM提供了一系列令人印象深刻的性能改进,例如量化、内核融合、动态批处理和多
GPU
支持。这些改进使推理速度比传统的基于CPU的方法快8倍,从而改变了
知来者逆
·
2025-05-20 16:21
LLM
语言模型
人工智能
自然语言处理
TensorRT
LLM
大语言模型
深度学习
从零开始学习three.js(18):一文详解three.js中的着色器Shader
通过编写自定义的着色器代码,开发者可以直接操作
GPU
,实现从基础颜色渲染到动态光照、粒子效果等高级图形技术。
前端小崔
·
2025-05-20 14:37
three.js
学习
javascript
着色器
webgl
3d
前端
数据可视化
OpenCV
CUDA
模块中的矩阵算术运算------创建卷积操作对象的工厂方法 cv::
cuda
::createConvolution
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述createConvolution函数是OpenCV
CUDA
模块中用于创建卷积操作对象的工厂方法
村北头的码农
·
2025-05-20 13:33
OpenCV
opencv
人工智能
LLaMA-Factory微调大模型Qwen2.5
1、开始ModelScope社区
GPU
环境训练或微调模型都是非常耗费算力的。如果电脑的配置不高,可使用一些云服务器来做这项工作。
will.hu
·
2025-05-20 12:57
AI
linux
Python
llama
bisheng大模型项目之前期部署工作
最低配置8vCPU,32GB内存注意
GPU
要选择A10,v100,T4的都行。这里的Driver版本要高于515.
O执O
·
2025-05-20 06:19
大模型
阿里云
2024年深度学习-
CUDA
安装教程(失败解决方案)
1.打开设备管理器查看显卡如果存在nvidia系列显卡,则可以安装
cuda
进行深度学习加速如图存在NVIDIA系列显卡,可以继续安装2.打开cmd查看
cuda
version输入nvidia-smi结果如图记住自己的版本号
吃小花的魔王
·
2025-05-20 04:32
深度学习
人工智能
学习
笔记
kitty终端使用笔记
简介kitty是一个免费的开源图形处理单元(
GPU
)加速[2][3]终端仿真器,适用于Linux和macOS,专注于性能和功能。
ITKEY_
·
2025-05-20 00:36
archlinux
笔记
Terminal
kitty
【已解决】win11笔记本电脑突然无法检测到其他显示器 / 无法使用扩展屏(2024.8.29 / 驱动更新问题)
我们点击win+x,找到设备管理器,查看显示适配器:主要问题就出现在NVIDIAGeForceRTX3060Laptop
GPU
上(虽然我把所有驱动都重新更新了一遍)。
秀秀_heo
·
2025-05-19 19:59
电脑
计算机外设
win10使用清华源快速安装指定版本的pytorch-
GPU
检查自己的
cuda
是否安装好在anacondaprompt中输入nvcc-V显示如上面表示安装好了。
来自星星的菜鸟
·
2025-05-19 19:57
深度学习环境配置
pytorch-gpu安装
本地安装
gpu
版本torch(超简单)
1)创建并激活环境condacreate-nDOT1python==3.9condaactivateDOT12)方法1:命令行安装torch①查看
cuda
版本【12.6】nvidia-smi#查看电脑支持的
✧٩(ˊωˋ*)و✧709
·
2025-05-19 19:56
python
docker 方式运行ollama 大模型deepseek
在Linux上对于Nvidia
GPU
,Ollama可以在Docker容器内通过
GPU
加速运行。要开始使用Docker镜像,请使用以下命令。
neter.asia
·
2025-05-19 19:55
docker
容器
运维
Torch
GPU
版本的安装
*不需要单独安装巨大的
CUDA
安装包,先确保你的显卡是支持
GPU
运算的,再安装好anaconda确保没有安装:pytorchtorchvisiontorchaudio这三个模块然后在anaconda中的命令行输入
COOKER
·
2025-05-19 18:53
pytorch
机器学习
如何设置FFmpeg实现对高分辨率视频进行转码
使用FFmpeg进行高分辨率视频转码的步骤如下:首先,确保FFmpeg支持
GPU
加速,通过命令ffmpeg-hwaccels检查
CUDA
支持。
视频砖家
·
2025-05-19 16:39
FFmpeg
文章存档
视频技术
视频转码
FFmpeg
视频编解码
音视频
【图像生成大模型】HunyuanVideo:大规模视频生成模型的系统性框架
项目概述核心技术1.统一的图像和视频生成架构2.多模态大语言模型(MLLM)文本编码器3.3DVAE4.提示重写(PromptRewrite)项目运行方式与执行步骤1.环境准备2.安装依赖3.下载预训练模型4.单
GPU
白熊188
·
2025-05-19 13:17
图像大模型
音视频
人工智能
大模型
计算机视觉
opencv
极致压缩!PyTorch 2.2模型量化全解析:从原理到移动端部署实战(含性能对比与优化技巧)
一、引言:AI模型小型化革命1.1移动端AI的现实挑战在智能终端设备上部署深度学习模型面临三大核心痛点:内存限制:某主流手机内存仅8GB,大型模型加载占用超30%算力瓶颈:移动端
GPU
算力仅为桌面级1/
游戏人生的NPC
·
2025-05-19 13:16
PyTorch
2.2
深度学习进阶
pytorch
人工智能
python
【图像生成大模型】Wan2.1:下一代开源大规模视频生成模型
1.3D变分自编码器(Wan-VAE)2.视频扩散Transformer(VideoDiffusionDiT)3.数据处理与清洗项目运行方式与执行步骤1.环境准备2.安装依赖3.模型下载4.文本到视频生成单
GPU
白熊188
·
2025-05-19 12:41
图像大模型
开源
音视频
人工智能
计算机视觉
文生图
高性能 CSS3 动画
尽可能的让动画元素不在文档流中,以减少重排position:fixed;position:absolute;尽可能多的利用硬件能力,如使用3D变形来开启
GPU
加速-webkit-transform:translate3d
sunsineq
·
2025-05-19 11:40
CSS
css
【TVM 教程】创建使用 microTVM 的 MLPerfTiny 提交
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-05-19 11:39
---初始Linux---
一、认识计算机计算机=硬件+软件硬件:就是计算机系统中由电子、机械和光电元件等组成的各种物理装置的总称(CPU\
GPU
\...)软件:是用户和计算机硬件之间及进行交流的工具然而一个简单的计算机或者说基本的计算机就是有两大部分组成的
免檒
·
2025-05-19 06:00
linux
运维
服务器
p40上编译vllm0.8.6
目录前言编译内容前言编译内容(/data1/ai-llm/env/my-vllm-
gpu
)[root@localhostvllm-
gpu
]#TORCH_
CUDA
_ARCH_LIST="6.1;7.0;8.0
tianjun2012
·
2025-05-19 02:37
机器学习
项目构建
python
python
人工智能
【深度学习解惑】分析 Inception 特有的并行分支对显存占用、
GPU
利用率的正负影响?
Inception架构中并行分支对显存与
GPU
利用率的影响分析——从计算效率到硬件优化的多维度探讨文章目录背景与核心问题Inception模块的并行分支设计显存占用与
GPU
利用率的关键挑战显存占用的正向与负向影响并行分支的显存需求模型激活值膨胀
云博士的AI课堂
·
2025-05-18 23:15
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
深度学习
人工智能
Inception
GoogLeNet
机器学习
pytorch
【实战指南】Rocky Linux 本地部署 Qwen2.5-VL-Instruct(含
GPU
加速 + 多模态推理脚本)
【实战指南】RockyLinux本地部署Qwen2.5-VL-Instruct(含
GPU
加速+多模态推理脚本)适用系统:RockyLinux/CentOS/RHEL适用于本地
GPU
+Docker部署Qwen2.5
神志不清.
·
2025-05-18 21:34
Ai大模型
ai
人工智能
云计算
前端领域 Sass 样式的过渡与动画性能优化
前端领域Sass样式的过渡与动画性能优化关键词:Sass、CSS动画、性能优化、过渡效果、
GPU
加速、关键帧动画、浏览器渲染摘要:本文深入探讨了在前端开发中使用Sass编写高性能CSS过渡和动画的技术方案
大厂前端小白菜
·
2025-05-18 20:55
前端开发实战
前端
sass
性能优化
ai
PyTorch 张量基础操作:从入门到实践的深度解析
在深度学习技术快速发展的当下,PyTorch凭借其动态计算图、简洁的Python接口以及强大的
GPU
加速能力,成为开发者和研究者构建机器学习模型的首选框架之一。
wwangxubin
·
2025-05-18 15:23
pytorch
人工智能
python
显卡、
Cuda
和pytorch兼容问题
这里写目录标题驱动与
CUDA
版本兼容性问题1.**驱动与
CUDA
版本兼容性问题**2.**任务特性与硬件适配差异**3.**优化策略与框架配置差异**4.**散热与功耗限制**5.
小蜗笔记
·
2025-05-18 07:56
学习收藏
pytorch的使用
pytorch
人工智能
python
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他