E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA)
LlamaIndex环境配置
之前配Llama-Index时出现不兼容的问题,记录一下最后配好的版本记住一定要先安装pytorch,否则LlamaIndex自动安装的可能是cpu版本,而且没有配置下载源的情况下载torch包很慢,其中
cuda
L~river
·
2025-05-22 10:55
llamaindex
环境配置
PyTorch
LLM
如何设置FFmpeg进行高分辨率视频转码?
运行以下命令检查FFmpeg是否检测到
CUDA
支持:bash复制ffmpeg-hwaccels此命令应列出
cuda
、vdpau和vaapi,表明GPU加速可用。
视频砖家
·
2025-05-22 06:24
FFmpeg
ffmpeg
音视频
视频添加背景
一看就会系列之配置Anaconda虚拟环境、配置GPU、
CUDA
、CUDNN、服务器运行深度学习代码!
深度学习GPU环境配置完整指南1.使用Anaconda创建虚拟环境并安装PyTorch/TensorFlow(Windows/Linux)Windows下:创建虚拟环境:打开AnacondaPrompt或终端,执行condacreate-ndl_gpu_envpython=3.8condaactivatedl_gpu_env(示例中创建名为dl_gpu_env的环境,Python版本可根据需要调整
Big__Star
·
2025-05-21 20:15
服务器
深度学习
python
gpu算力
OpenCV 环境搭建与概述
3、中级:角点查找、BLOB查找、特征提取与匹配、机器学习、深度神经网络、
CUDA
加速。4、高级:掌握自定义对象检测
清醒的兰
·
2025-05-21 02:22
OpenCV
opencv
人工智能
计算机视觉
OpenCV
CUDA
模块中的矩阵算术运算------创建卷积操作对象的工厂方法 cv::
cuda
::createConvolution
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述createConvolution函数是OpenCV
CUDA
模块中用于创建卷积操作对象的工厂方法
村北头的码农
·
2025-05-20 13:33
OpenCV
opencv
人工智能
2024年深度学习-
CUDA
安装教程(失败解决方案)
1.打开设备管理器查看显卡如果存在nvidia系列显卡,则可以安装
cuda
进行深度学习加速如图存在NVIDIA系列显卡,可以继续安装2.打开cmd查看
cuda
version输入nvidia-smi结果如图记住自己的版本号
吃小花的魔王
·
2025-05-20 04:32
深度学习
人工智能
学习
笔记
win10使用清华源快速安装指定版本的pytorch-GPU
检查自己的
cuda
是否安装好在anacondaprompt中输入nvcc-V显示如上面表示安装好了。
来自星星的菜鸟
·
2025-05-19 19:57
深度学习环境配置
pytorch-gpu安装
本地安装gpu版本torch(超简单)
1)创建并激活环境condacreate-nDOT1python==3.9condaactivateDOT12)方法1:命令行安装torch①查看
cuda
版本【12.6】nvidia-smi#查看电脑支持的
✧٩(ˊωˋ*)و✧709
·
2025-05-19 19:56
python
Torch GPU版本的安装
*不需要单独安装巨大的
CUDA
安装包,先确保你的显卡是支持GPU运算的,再安装好anaconda确保没有安装:pytorchtorchvisiontorchaudio这三个模块然后在anaconda中的命令行输入
COOKER
·
2025-05-19 18:53
pytorch
机器学习
如何设置FFmpeg实现对高分辨率视频进行转码
使用FFmpeg进行高分辨率视频转码的步骤如下:首先,确保FFmpeg支持GPU加速,通过命令ffmpeg-hwaccels检查
CUDA
支持。
视频砖家
·
2025-05-19 16:39
FFmpeg
文章存档
视频技术
视频转码
FFmpeg
视频编解码
音视频
p40上编译vllm0.8.6
目录前言编译内容前言编译内容(/data1/ai-llm/env/my-vllm-gpu)[root@localhostvllm-gpu]#TORCH_
CUDA
_ARCH_LIST="6.1;7.0;8.0
tianjun2012
·
2025-05-19 02:37
机器学习
项目构建
python
python
人工智能
显卡、
Cuda
和pytorch兼容问题
这里写目录标题驱动与
CUDA
版本兼容性问题1.**驱动与
CUDA
版本兼容性问题**2.**任务特性与硬件适配差异**3.**优化策略与框架配置差异**4.**散热与功耗限制**5.
小蜗笔记
·
2025-05-18 07:56
学习收藏
pytorch的使用
pytorch
人工智能
python
[4]
CUDA
中的向量计算与并行通信模式
CUDA
中的向量计算与并行通信模式本节开始,我们将利用GPU的并行能力,对其执行向量和数组操作讨论每个通信模式,将帮助你识别通信模式相关的应用程序,以及如何编写代码1.两个向量加法程序先写一个通过cpu
明月醉窗台
·
2025-05-18 02:51
CUDA
-
Opencv
人工智能
计算机视觉
CUDA
NVIDIA
opencv
【OpenCV】
CUDA
模块3:图像转换及采样
1:cv::
cuda
::threshold()阈值处理cv::
cuda
::threshold是OpenCV中
CUDA
模块的一个函数,用于在GPU上对图像进行阈值处理。
言雪松
·
2025-05-18 02:50
OpenCV
opencv
人工智能
计算机视觉
使用
cuda
实现图像的转置
图像的转置原理很简单,就是矩阵转置,把行变成列。没有使用GPU共享内存的时候,GPU处理速度是CPU的3倍左右,使用sharedmemory后,可以达到10倍以上的加速。但opencv里的图像转置,直接调用cv::Mat的t()方法,就可以返回一个转置后的新的图像对象,底层应该经过优化了,速度和GPU相比,没什么差异。相反,因为GPU使用前要分配显存、拷贝数据、释放显存,这些操作的耗时远大于转置处
小伟123456789
·
2025-05-18 02:50
c++
c++
图像处理
python虚拟环境深度学习环境配置Linux
python虚拟环境深度学习环境配置创建python3.9的虚拟环境安装
cuda
以及cudnn查找合适的
cuda
版本查找合适的torch版本(会同时安装
cuda
)检查是否安装成功cudnn环境不匹配修改编辑
小鹿不乱撞
·
2025-05-18 02:50
python
深度学习
linux
Python 深度学习环境配置
安装MicrosoftVisualStudio,推荐选择VisualStudioCommunity版本(用于编译
CUDA
工具链)。L
卖血买老婆
·
2025-05-18 02:19
Python专栏
python
深度学习
开发语言
是 OpenCV 的
CUDA
模块中用于在 GPU 上对图像或矩阵进行转置操作函数cv::
cuda
::transpose
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述cv::
cuda
::transpose是OpenCV的
CUDA
模块中的一个函数
村北头的码农
·
2025-05-18 02:17
OpenCV
opencv
人工智能
OpenCV的
CUDA
模块进行图像处理
本文介绍了使用OpenCV和
CUDA
加速的四种图像处理技术:灰度化、高斯模糊、Sobel边缘检测和直方图均衡化。每种技术都通过将图像数据上传到GPU,利用
CUDA
进行加速处理,最后将结果下载回CPU。
程序小K
·
2025-05-17 22:49
目标检测
opencv
图像处理
人工智能
linux下安装
cuda
后nvcc -V无法执行的解决方案
pytorch版本博主刚开始安装的pytorch版本为1.2.0,但是所跑的pytorch程序是在0.4.0版本下写的,结果运行时出现了一些问题,必须改装较低版本的pytorch——这里选择了0.4.1。下载链接:https://pytorch.org/get-started/previous-versions/下载后,得到安装包.tar.bx2,可以使用下述指令进行本地安装:$condainst
Retrospector
·
2025-05-17 21:16
linux
OpenCV
CUDA
模块中用于在 GPU 上计算矩阵中每个元素的绝对值或复数的模函数abs()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述voidcv::
cuda
::abs(InputArraysrc,OutputArraydst
村北头的码农
·
2025-05-17 15:35
OpenCV
opencv
人工智能
OpenCV
CUDA
模块中矩阵操作------归一化与变换操作
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述在OpenCV的
CUDA
模块中,normalize和rectStdDev
村北头的码农
·
2025-05-17 15:56
OpenCV
opencv
人工智能
Ubuntu 24.04 LTS 装RTX50系显卡驱动&
CUDA
建议参考官网
CUDA
安装,同时将NVIDIADriver安装好。
superfhp
·
2025-05-17 13:12
ubuntu
linux
运维
机器学习
语言模型
在Linux系统上部署DeepSeek的完整指南
Ubuntu22.04为例)硬件配置:CPU:4核以上(推荐IntelXeon或AMDEPYC系列)内存:16GB+(复杂模型需32GB+)存储:50GB+可用空间(建议SSD)GPU(可选):NVIDIA显卡(需
CUDA
摆烂大大王
·
2025-05-16 22:35
deepseek
linux
运维
服务器
deepseek
人工智能
安装flash-attn失败n次之后的总结
首先最最基础是安装
cuda
toolkit参考手把手教会你在Linux服务器上安装用户级别的
CUDA
_
cuda
安装.run文件同意协议:无法输入accept-CSDN博客推荐版本12.1使用新的
cuda
toolkit
weixin_51347647
·
2025-05-16 21:02
python
linux
深度学习
pip install flash-attn 报错
flash-attn安装不上的话,就是torch或者
cuda
版本不对应导致的,使用:pipinstallflash-attn--no-build-isolation可能会解决
杭杭爸爸
·
2025-05-16 21:28
pip
OpenCV
CUDA
模块中矩阵操作------降维操作
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述cv::
cuda
::reduce函数用于对GPU上的矩阵沿某个维度进行降维操作
村北头的码农
·
2025-05-16 18:03
OpenCV
opencv
人工智能
被
CUDA
性能问题困扰?从全局内存到共享内存,并行归约优化全解析!
别慌,今天我带你玩转
CUDA
里一个既基础又硬核的东西——并行归约。啥是归约?简单说,就是把一堆数加起来(或者其他累积操作),但在GPU上,这可不是简单的for循环,而是能让性能起飞的优化手法。
讳疾忌医丶
·
2025-05-16 03:11
动手学习CUDA编程
c++
CUDA
开发语言
cuda
优化策略
cuda
优化策略1.memorycoalescing,保证内存融合。因为globalmemory在CC为1.x上是按照halfwrap进行访问读写的,而在2.x上是按照wrap进行访问读写的。
xie7132524
·
2025-05-16 03:11
CUDA
CUDA
优化干货
CUDA
优化第一要义是设计block和thread的dimension,这时activeblock和activewarp就必须要考虑了。首先通俗地讲一些
CUDA
优化的常识吧。
crazybird1984
·
2025-05-16 03:10
nvidia-smi指令报错:Failed to initialize NVML: Driver解决 Ubuntu 清除缓存 apt-get命令参数
的驱动都装好了,但是使用指令:nvidia-smi报错:FailedtoinitializeNVML:Driver/libraryversionmismatch安装gpustat也显示找不到gpu,且
cuda
处女座程序员的朋友
·
2025-05-16 00:28
ubuntu
缓存
服务器
LAM单图秒级打造超写实3D数字人头部
CUDA
out of memory
RuntimeError:
CUDA
outofmemory.Triedtoallocate190.21GiB.GPU0hasatotalcapacityof6.00GiBofwhich1.97GiBisfree.Oftheallocatedmemory2.90GiBisallocatedbyPyTorch
天机️灵韵
·
2025-05-15 05:42
人工智能
python
LAM
人工智能
使用Thrust库实现异步操作与回调函数
使用Thrust库实现异步操作与回调函数在Thrust库中,你可以通过
CUDA
流(stream)来实现异步操作,并在适当的位置插入回调函数。
东北豆子哥
·
2025-05-14 23:59
CUDA
GPU
CUDA
YOLOv8 TensorRT 部署(Python 推理)保姆级教程
1.部署前的准备1.1硬件要求NVIDIAGPU(如RTX3060/4090、Jetson系列)或RK3588NPU(支持TensorRT)
CUDA
(如11.x)、cuDNN、TensorRT已正确安装可运行
码农的日常搅屎棍
·
2025-05-14 22:48
YOLO
python
如何判断IP是否被平台标记
示例命令:bashping8.8.8.8#检测延迟与丢包率traceroute8.8.8.8#定位网络瓶颈黑名单查询工具推荐:MXToolbox:检查IP是否被反垃圾邮件组织(如Spamhaus、Barra
cuda
IP管家
·
2025-05-14 20:34
网络
python
服务器
ip
tcp/ip
网络协议
【Linux】在Arm服务器源码编译onnxruntime-gpu的whl
服务器信息:aarch64架构ubuntu20.04nvidiaT4卡编译onnxruntime-gpu前置条件:已经安装合适的
cuda
已经安装合适的cudnn已经安装合适的cmake源码编译onnxruntime-gpu
阿颖&阿伟
·
2025-05-13 20:31
【8-1】linux安装部署
服务器
linux
arm开发
使用阿里开源大模型通义千问Qwen进行推理
)已经安装ubutun22.04如何学习大模型技术赋能业务和垂直领域(1):安装双操作系统_大模型操作系统用windows还是linux-CSDN博客(2)Ubuntu安装英伟达Nvidia显卡驱动-
CUDA
-cuDNNUbuntu
云博士的AI课堂
·
2025-05-13 11:03
大模型技术开发与实践
大模型
开源大模型
Qwen
通义千问
Qwen2.5
Qwen2.5推理
大模型部署
llama.cpp无法使用gpu的问题
使用
cuda
编译llama.cpp后,仍然无法使用gpu。./llama-server-m../../../../..
米有哥
·
2025-05-13 05:22
llama
ubuntu安装k8s+docker运行英伟达gpu
cuda
安装k8s+dockersealosresetsealosrunregistry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.7registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4registry.cn-shanghai.aliyuncs.com/labring/cilium
青年夏日科技工作者
·
2025-05-12 22:40
java
开发语言
Win7编译GPU版llama.cpp部署deepseek-r1等大模型记录
感谢“一只喜欢摄影的程序猿”的评论,在Windows7确实可以安装
cuda
11.6,我的情况是安装过程没报错,但是
cuda
11.6无效。
mygodalien
·
2025-05-12 20:25
语言模型
llama
人工智能
chatgpt
机器学习
复现MAET的环境问题(自用)
我的配置是3090,
CUDA
Version:12.4配置环境时总有冲突,解决好的环境如下如果你的配置也是
CUDA
12.4,可以把下面的配置信息保存成environment.yml文件然后执行下面的代码创建环境即可
小汪学不会
·
2025-05-12 19:52
低照度MAET
OpenCV
CUDA
模块中在 GPU 上对图像或矩阵进行 边界填充(padding)函数copyMakeBorder()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述cv::
cuda
::copyMakeBorder是OpenCV的
CUDA
村北头的码农
·
2025-05-12 15:49
OpenCV
opencv
人工智能
PyTorch 中如何针对 GPU 和 TPU 使用不同的处理方式
示例代码:importtorchimporttime#---GPU示例---print("---GPU示例---")#检查是否有可用的GPU(
CUDA
)iftorch.
cuda
.is_available
frostmelody
·
2025-05-12 10:43
PyTorch小知识点
pytorch
人工智能
python
如何用AMD显卡部署模型/进行推理
本文将从两方面进行介绍如何在A卡上是用pytorch如何使用C++调用模型前置知识众所周知,使用N卡进行训练或推理的话,首先要有驱动,然后要有
cuda
。那么A卡同理,驱动是什么应该不用多
别来这个网址
·
2025-05-12 07:22
杂谈
人工智能
《GPU高性能编程
CUDA
实战》中文版电子书
《GPU高性能编程
CUDA
实战》中文版电子书【下载地址】GPU高性能编程
CUDA
实战中文版电子书探索GPU高性能编程的奥秘,掌握
CUDA
实战技巧!
翁佳忱
·
2025-05-12 04:36
llamafactory-cli
cuda
显存动不动不够的一个解决办法
太不够就不要看了。使用一些模型之前还是多了解自己的显卡够不够格。其实关键就是使用deepspeed以及各种参数调整。以下是使用deepspeed的命令,记一笔为了以后改参数。deepspeed--num_gpus2\/mcm/LLaMA-Factory/src/train.py--deepspeed\/mcm/LLaMA-Factory/examples/deepspeed/ds_z3_confi
取啥都被占用
·
2025-05-11 18:35
软件应用
llamafactory
finetuning
deepseek
报错Detected that PyTorch and torchvision were compiled with different
CUDA
major versions. PyTorch ha
完整报错:DetectedthatPyTorchandtorchvisionwerecompiledwithdifferent
CUDA
majorversions.PyTorchhas
CUDA
Version
不当菜鸡的程序媛
·
2025-05-10 23:30
学习记录
人工智能
CUDA
:out of memory的解决方法(实测有效)
一、问题概述1.问题分析
CUDA
outofmemory问题通常发生在深度学习训练过程中,当GPU的显存不足以容纳模型、输入数据以及中间计算结果时就会触发。
摆烂仙君
·
2025-05-09 20:30
python
人工智能
量子机器学习中的GPU加速实践:基于
CUDA
Quantum的混合编程模型探索
本文聚焦于
CUDA
Quantum混合编程模型,深入探讨如何通过GPU加速技术突破量子机器学习的算力瓶颈。我们将结合NVIDIA最新量子计算框架,解析量子-经
九章云极AladdinEdu
·
2025-05-09 01:56
机器学习
量子计算
人工智能
gpu算力
分布式
AI编程
ai
GPU软硬件架构协同设计解析
一、硬件架构的核心设计原则流式多处理器(SM)的模块化设计计算单元分层:每个SM包含多个
CUDA
核心(如NVIDIAH100SM含128个FP32核心)、TensorCore(AI加速)及RTCore(
ShineSpark
·
2025-05-09 01:26
硬件架构
GPU
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他