E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU租用
CUDA与venv的配置
⚙️一、CUDA工具包的安装位置与虚拟环境的关系系统级全局安装CUDA工具包(含nvcc编译器、CUDA运行时库等)必须安装在系统全局路径(如Windows的C:\ProgramFiles\NVIDIA
GPU
Co
老兵发新帖
·
2025-06-27 03:17
经验分享
Pytorch血泪安装史好吗(
GPU
版本+cuda12.1+python3.9.13)
1.安装cuda首先看下自己电脑是CPU还是
GPU
,看自己电脑对应的cuda版本看右下角英伟达标识,点击组件,我的cuda版本是12.3,但最后发现安12.1比较好2.安装12.1cuda版本对应的cudnn
宇宙最强袋鼠
·
2025-06-26 22:16
pytorch
python
人工智能
华为仓颉鸿蒙HarmonyOS NEXT ArkTS应用使用仓颉混合开发实例
仓颉:处理CPU/
GPU
密集型任务(如实时渲染、复杂算法)。通信桥梁XC
暗雨,
·
2025-06-26 22:12
华为
harmonyos
harmonyos5
基于FPGA的数字图像处理【1.5】
多核结构处理、
GPU
处理及FPGA很快在实时性图像处理领域得到了迅速的发展。本章将重点介绍基于FPGA的实时性图像处理。
BinaryStarXin
·
2025-06-26 21:39
FPGA图像处理
fpga开发
FPGA与图像处理
FPGA技术优势
硬件工程
dsp开发
射频工程
驱动开发
高通 Camera 架构全景图:Sensor–ISP–DPU–
GPU
数据流向解析
高通Camera架构全景图:Sensor–ISP–DPU–
GPU
数据流向解析关键词高通Snapdragon、Camera架构、ISP模块、DPU、
GPU
、数据路径、硬件加速、图像处理流程摘要本文将深入解析高通
观熵
·
2025-06-26 19:26
影像技术全景图谱:架构
调优与实战
架构
接口隔离原则
影像
Camera
CUDA编程:优化
GPU
并行处理与内存管理
背景简介CUDA是NVIDIA推出的一种通用并行计算架构,它利用
GPU
的强大计算能力来解决复杂的计算问题。
Omoo
·
2025-06-26 19:19
CUDA
GPU并行处理
线程协作
内存管理
硬件限制
揭秘
GPU
技术新趋势:从虚拟化到池化
从
GPU
虚拟化到池化 大模型兴起加剧
GPU
算力需求,企业面临
GPU
资源有限且利用率不高的挑战。
科技互联人生
·
2025-06-26 19:49
科技
数码
人工智能
gpu算力
性能优化
深入
GPU
编程:从硬件架构到内核优化
深入
GPU
编程:从硬件架构到内核优化在当今由大型模型驱动的AI时代,
GPU
集群已成为推动技术进步的核心引擎。然而,仅仅让代码在
GPU
上“运行”与让其“高效运行”之间存在着巨大的性能鸿沟。
Kaydeon
·
2025-06-26 18:16
硬件架构
CUDA与PyTorch(
GPU
)的对应关系
CUDA与PyTorch(
GPU
)的对应关系:(需要自己按需求去找):https://pytorch.org/get-started/previous-versions/表二:CUDAToolkit版本及可用
·
2025-06-26 11:31
OpenCV CUDA模块设备层-----设备端(
GPU
)线程块级别的一个内存拷贝工具函数blockCopy()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述在同一个线程块(threadblock内,将[beg,end)范围内的数据并行地复制到out开始的位置。它使用了CUDA线程协作机制(warp-level或block-level)来实现高效的块级拷贝,通常比简单的逐线程拷贝更快。函数原型_device__stat
村北头的码农
·
2025-06-26 05:51
OpenCV
opencv
人工智能
计算机视觉
torch-
gpu
版本 anaconda配置教程
教程Pytorch的
GPU
版本安装,在安装anaconda的前提下安装pytorch_pytorch-
gpu
-CSDN博客版本对应PyTorch中torch、torchvision、torchaudio
GXYGGYXG
·
2025-06-25 20:43
python
云前沿-哈尔滨云服务器
租用
、服务器托管、物理服务器
租用
在数据即命脉的时代,每一次漏洞都可能成为致命缺口。黑客的窥视、病毒的潜伏、意外的丢失,让你的核心数据时刻游走在悬崖边缘。我们的云服务器,是数据世界的铜墙铁壁。采用银行级加密算法,如同给数据穿上隐形铠甲,即使信息在网络中穿梭,也无人能窥探其真容;多维度入侵检测系统,像永不眨眼的智能哨兵,24小时扫描网络的每个角落,将恶意攻击扼杀在萌芽状态;完备的容灾备份机制,更是为数据上了“双重保险”,即便遭遇不可
yunqianyan
·
2025-06-25 12:20
服务器
云计算
网络
运维
vllm docker容器部署大语言模型
它的目标是最大化推理吞吐量,并降低显存消耗,让大语言模型(LLMs)在单卡或多
GPU
服务器上运行得更高效。
zhangxiangweide
·
2025-06-25 07:15
docker
语言模型
容器
vllm
创建vllm的docker镜像和容器
首先用docker启动一个容器,需求是将模型所在目录挂在到容器某个路径下,设置
gpu
的使用数量,设置端口dockerrun-dit--
gpu
sall--ipc=host--namevLLM-p3001:
zhangxiangweide
·
2025-06-25 07:15
docker
容器
运维
人像抠图学习笔记
BiseNetV2MODNetu2net:MODNet方法RobustVideoMatting实时视频抠图Modnet预测脚本Modnet效果有时比RobustVideoMatting好,在衣服分割时,backbone是mobilev2
gpu
512
AI算法网奇
·
2025-06-25 07:10
人脸识别
深度学习宝典
深度学习
神经网络
自动驾驶
YOLO + OpenVINO 在英特尔平台部署实战:性能调优与跨架构加速全流程指南
YOLO+OpenVINO在英特尔平台部署实战:性能调优与跨架构加速全流程指南关键词:YOLOv5、YOLOv8、OpenVINO、英特尔部署、IR模型、异构加速、CPU推理、VPU、
GPU
、多设备调度
·
2025-06-25 04:49
CUDA out of memory内存碎片解决方法
RuntimeError:CUDAoutofmemory.Triedtoallocate704.00MiB(
GPU
0;16.00GiBtotalcapacity;13.55GiBalreadyallocated
weixin_42319617
·
2025-06-24 17:28
深度学习
PyTorch的Tensor与Variable的区别, detach的作用, with no_grad()
1.cuda()与cpu()用法:tensorA.cuda()#tensorA是一个tensor类型的变量作用:把tensorA从CPU移动到
GPU
,方便后续在
GPU
中计算用法:modelA.cuda(
半张紙
·
2025-06-24 17:26
computer
vision
Python
从7B到671B:DeepSeek R1大模型微调的
GPU
选型终极指南
这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错
GPU
的代价,远不止于训练失败——轻则增加30%推理延迟,重则造成百万级硬件成本的浪费。我们
卓普云
·
2025-06-24 17:54
教程
运维
服务器
gpu算力
DeepSeek
20倍推理加速秘诀!揭秘批处理(Batching)的底层优化逻辑 | 附工业级调优指南
例如:单样本推理:输入=[样本1]→输出=[结果1]批处理推理:输入=[样本1,样本2,...,样本N]→输出=[结果1,结果2,...,结果N]关键技术价值:通过并行计算最大化硬件利用率,尤其对
GPU
Lilith的AI星球
·
2025-06-24 14:07
大模型百宝箱
人工智能
AIGC
Batching
大模型
LLM
GPU
寿命的物理极限:实验室服务器运维的科学方法论
1.
GPU
衰减的物理机制解析1.1热力学衰减模型阿伦尼乌斯方程应用:k=A⋅e−Ea/(kBT)k:化学反应速率(电子迁移速度)Ea:激活能(约0.5-1.0eV)T:绝对温度(℃+273.15)寿命计算公式
Finehoo
·
2025-06-24 06:16
运维
服务器
人工智能
C#.VB.NET多线程,多用户下独立锁和全局锁的区别
用户WebSocket信息类PublicClassUserWebSocketInfoPublicPropertySessionIDAsStrin
gPu
blicPropertyWebSocketAsWebSocketPublicPropertyLastResponseTimeAsDateTimePublicPropertyPendingHeartbeatCou
专注VB编程开发20年
·
2025-06-24 01:17
php
开发语言
c#
.net
【TVM 教程】在 TVM 中使用 Bring Your Own Datatypes
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-06-23 22:20
Ubuntu24.04 ProteinMPNN安装
3.9condaactivateproteinmpnncondainstallpytorch=1.12.0torchvision=0.13.0torchaudiocudatoolkit=11.3-cpytorch#不指定的话cudapytorch和
GPU
lamovrevx
·
2025-06-23 15:02
pytorch
人工智能
深度学习
本地部署大语言模型
一、硬件准备本地部署大语言模型对硬件有一定的要求,主要集中在显卡(
GPU
)和内存(RAM)上。由于大语言模型通常具有庞大的参数量和计算量,因此需要强大的硬件支持。
小俊学长
·
2025-06-23 14:59
语言模型
人工智能
自然语言处理
TensorFlow 安装与
GPU
驱动兼容(h800)
环境说明TensorFlow安装与
GPU
驱动兼容CUDA/H800特殊注意事项PyCharm和终端环境变量设置方法测试
GPU
是否可用的Python脚本#使用TensorFlow2.13在NVIDIAH800
weixin_44719529
·
2025-06-23 07:17
tensorflow
neo4j
人工智能
非root用户在服务器(linux-Ubuntu16.04)上安装cuda和cudnn,tensorflow-
gpu
1.13.1
1.准备工作(下载CUDA10.0和cudnn安装包)查看tensorflow和CUDA,cudnn的版本的对应关系,从而选择合适的版本进行下载下载CUDA10.0安装包,点击官网进行下载,根据服务器的具体情况选择对应的版本,如下图所示下载完毕后得到安装包cuda_10.0.130_410.48_linux.run下载cudnn,选择CUDA10.0对应的版本(需要注册登录nvidia账号),点击
码小花
·
2025-06-23 07:16
模型测试
环境搭建
如何安装Tensorflow和
GPU
配置
课题组某一台服务器升级后,很多环境丢失了,4块3090的
GPU
的驱动已安装好,但没有公用的Tensorflow可使用。
神隐灬
·
2025-06-23 07:45
tensorflow学习
tensorflow
人工智能
python
非 root 用户安装 cuDNN 并配置 TensorFlow 使用
GPU
为非root用户安装cuDNN并配置TensorFlow使用
GPU
(以CUDA11.5为例)背景说明在科研服务器或非root权限环境下,用户往往无法通过apt或yum安装CUDA/cuDNN。
·
2025-06-23 07:12
BEV-Fusion环境配置(RTX4090)
BEV-Fusion环境配置(RTX4090)SystemVersionSystemVer.Ubuntu22.04.5LTSKernelVer.6.8.0-57-generic
GPU
:RTX4090CudaVersionin
·
2025-06-23 06:10
【转载翻译】Open3D和PCL的一些比较
https://github.com/LaplaceKorea/investigate_open3d_vs_pcl/blob/main/README.rst#whats-the-support-for-
gpu
s-look-like-in-open3d
空名Noname
·
2025-06-23 02:40
open3d
点云
c++
单机环境下基于 LLM-Agent 框架的数据查询智能体训练教程
单机环境下基于LLM-Agent框架的数据查询智能体训练教程以下教程介绍如何在单机环境(CPU或1~2张
GPU
)上,使用LLM-Agent框架搭建并训练一个混合数据源查询智能体。
·
2025-06-23 00:53
Oracle第五章PL/SQL基础
Homework-Chapter55.7.1实训Practicaltraining1:PL/SQL基础Basics〖实训目的Trainin
gpu
rpose〗(1)学会PL/SQL基本语法;LearnbasicPL
ZShuiShen
·
2025-06-22 23:49
oracle
sql
数据库
DirectX function “GetDeviceRemovedReason“ failed with DXGI_ERROR_DEVICE_HUNG (“The
GPU
will not resp
玩游戏的时候,报错:DirectXfunction“GetDeviceRemovedReason”failedwithDXGI_ERROR_DEVICE_HUNG(“The
GPU
willnotrespondtomorecommands
Roc-xb
·
2025-06-22 21:02
Windows相关问题解决
显卡驱动
Windows
在VTK中捕捉体绘制图像并实时图像处理
1.核心功能架构主窗口:3D体绘制视图(
GPU
加速的体积渲染)副窗口:2D截图视图(带高斯模糊后处理)交互机制:副窗口的交互操作会实时影响主窗口的3D视图2.关键组件分析2.1自定义交互器(CustomInteractorStyle
点PY
·
2025-06-22 20:28
三维渲染
图像处理
人工智能
VTK
基于腾讯云
GPU
服务器的深度学习训练技术指南
摘要本文针对深度学习训练场景,系统解析技术核心价值与实施路径,结合腾讯云
GPU
服务器产品特性,提供从环境搭建到性能优化的完整解决方案。
小猴崽
·
2025-06-22 15:00
解决方案
GPU
深度学习
深度学习
gpu算力
解决方案
WebGL&图形学总结(二)
一、简历中图形学与渲染相关内容梳理(一)专业技能中的图形学储备WebGL与Shader编程:掌握
GPU
渲染管线原理,能使用GLSL编写着色器,熟悉ShadowMapping、RTT等图形算法。
GISer_Jinger
·
2025-06-22 14:48
中大厂面试
webgl
前端
javascript
DeepSpeed 深度学习学习笔记:高效训练大型模型
大型模型训练的挑战随着深度学习模型规模的爆炸式增长(从BERT的几亿参数到GPT-3的千亿参数,再到现在的万亿参数模型),传统的单
GPU
训练方式变得力不从心,即使是多
GPU
训练也面临巨大挑战:内存限制(
·
2025-06-22 14:16
开发电磁-热-力-流耦合的
GPU
加速算法(基于NVIDIA Modulus)
一、技术背景与需求分析电磁-热-力-流多物理场耦合问题广泛存在于芯片散热设计、高功率激光器、航空航天热防护系统等场景。传统仿真方法面临以下挑战:计算复杂度爆炸:四场耦合需联立求解Maxwell方程、Navier-Stokes方程、热传导方程及结构动力学方程,单次仿真耗时可超100小时(基于CPU集群);跨尺度建模困难:纳米级电磁热点与毫米级热流场需不同网格精度,传统有限元法(FEM)难以统一;实时
百态老人
·
2025-06-22 13:11
算法
OpenCV CUDA模块设备层-----在
GPU
上计算反双曲正切函数atanh()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述对输入的uchar1像素值(范围[0,255]),先归一化到[0.0,1.0]浮点区间,然后计算其反双曲正切函数atanh(x),最终返回一个float1类型的结果。函数原型__device____forceinline__float1cv::cudev::ata
村北头的码农
·
2025-06-22 04:13
OpenCV
opencv
人工智能
计算机视觉
RISC-V向量扩展与
GPU
协处理:开源加速器设计新范式——对比NVDLA与香山架构的指令集融合方案
点击“AladdinEdu,同学们用得起的【H卡】算力平台”,H卡级别算力,按量计费,灵活弹性,顶级配置,学生专属优惠当开源指令集遇上异构计算,RISC-V向量扩展(RVV)正重塑加速器设计范式。本文深入对比两大开源架构——NVIDIANVDLA与中科院香山处理器在指令集融合上的创新路径。01开源加速器生态的范式转移RISC-V向量扩展的核心突破RVV1.0标准带来三大革命性特性:1.**可伸缩向
·
2025-06-22 02:05
Docker使用宿主机
GPU
驱动:绕开nvidia docker的神奇方法
0、前言当我们在一个docker的容器中想要使用
GPU
时,往往需要从dockerimage构建之初就开始使用nvidiadocker。
~LONG~
·
2025-06-21 19:22
工具类学习积累
docker
容器
运维
面向AI推理服务的可扩展性设计
面向AI推理服务的可扩展性设计在AI大模型落地的过程中,推理服务往往面临高并发、
GPU
资源紧张、模型加载延迟等挑战。相比传统业务服务,AI推理服务对算力的依赖更强,运行时资源波动也更大。
·
2025-06-21 14:50
资源调度与分配策略
以AI模型推理服务为例,
GPU
是最关键的计算资源。当一台
GPU
服务器同时运行多个模型服务实例,如果没有合理的资源调度机制,某些实例可能占用大量显存导致其他实例OOM,甚至拖垮整个节点。
大数据张老师
·
2025-06-21 14:20
kubernetes
容器
云原生
AI Infra:C-S-N-D模型,解码 AI 基础设施的黄金比例
引言:从“算力战争”到“基础设施全景图”过去十年,AI技术的爆发让全球陷入了对算力的争夺战:从
GPU
到TPU,从千卡集群到超算中心。但当我们真正将AI技术落地于工业
·
2025-06-21 13:01
人工智能
深度学习笔记16-VGG-16算法-Pytorch实现人脸识别
目录前言一、前期准备1.设置
GPU
2.导入数据3.划分数据集二、调用官方的VGG-16模型三、训练模型1.编写训练函数2.编写测试函数3.设置动态学习率4.正式训练四、结果可视化1.Loss与Accuracy
boooo_hhh
·
2025-06-21 12:04
深度学习
机器学习
pytorch
tensorflow
GPU
训练loss与val loss值差距过大问题
问题最近在ubuntu
gpu
上训练模型,训练十轮,结果如下epoch,loss,lr,val_loss200,nan,0.001,nan200,0.002468767808750272,0.001,44.29948425292969201,0.007177405059337616,0.001,49.16984176635742202,0.012423301115632057,0.001,49.30
LXJSWD
·
2025-06-21 12:03
tensorflow
人工智能
python
python pytorch 张量 (Tensor)
目录前言张量Tensor1.张量的基本概念2.创建张量从Python列表或NumPy数组生成特定形状的张量指定设备(CPU/
GPU
)指定数据类型(dtype)3.张量的属性4.张量的操作数学运算形状操作索引与切片广播机制
Python虫
·
2025-06-21 11:29
python
pytorch
人工智能
生成本地 微调 +强化学习 qwen3-4b 研究搭建流程步骤
一、环境准备硬件要求
GPU
:至少需要多块高性能
GPU
(如NVIDIAA100或V100),因为Qwen-3-4B模型参数量大,内存需求高。
行云流水AI笔记
·
2025-06-21 11:54
人工智能
云计算和5G相辅相成,网、云、业三位一体发展
美国国家标准和技术研究院的云计算定义中就明确了三种服务模式:软件即服务(SaaS):用户可以直接「
租用
」应用程序,不必考虑应用程序背后的逻辑和硬件结构,比较典型的是office365(跨平台办公软件)。
快速云KSY
·
2025-06-21 07:01
云计算
aws
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他