E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
在Windows下编译出llama_cpp_python的DLL后,在虚拟环境中使用方法
定位编译生成的文件在VS2022编译完成后,在构建目录(如build/Release或build/Debug)中寻找以下关键文件:ggml.dll、ggml_base.dll、ggml_cpu.dll、ggml_
cuda
.dll
晨尘光
·
2025-06-07 18:37
llama
python
Python 训练营打卡 Day 34
GPU
训练及类的call方法一、
GPU
训练与day33采用的CPU训练不同,今天试着让模型在
GPU
上训练,引入importtime比较两者在运行时间上的差异importtorch#设置
GPU
设备device
2401_86382089
·
2025-06-07 17:35
Python打卡
python
使用deepSeek-8B-Transformers开发本地接口
__version__)#例如2.0.1print(torch.
cuda
.is_available())#必须返回True#使用HuggingFace(需
GPU
)model_name="app/utils
技术支持者python,php
·
2025-06-07 15:52
flask架构api项目
flask框架
python
flask
LLaMA-Factory环境安装-重点总结
在进行一系列的调整,总结如下:想要同时实现FlashAttention-2和Unsloth推理加速的环境安装方式:以Ubuntu22.04RTX409024GB为例:1.系统配置:
CUDA
版本选择12.2
丁兆海1991
·
2025-06-07 12:01
llama
人工智能
深度学习
Vortex GP
GPU
的github流程跑通与功能模块波形探索(四)
文章目录前言一、demo的输入文件二、trace_csv三、2个值得注意的点3.1csv指令表格里面的tmask?3.2rtlsim和simx的log文件?总结前言跟着前面那篇最后留下的几个问题接着把输出波形文件和csv文件的输入、输出搞明白!一、demo的输入文件该文件夹下的内容包括:dention@dention-virtual-machine:~/Desktop/vortex/vortex/
·
2025-06-07 09:15
【linux】服务器限制客户端ssh访问
只允许特定客户端访问服务器审计追踪:方便根据SSH密钥追踪访问者1实现方式1.1客户端生成SSH密钥以windows为例,以ssh-keygen-trsa命令生成密钥PSE:\>ssh-keygen-trsaGeneratin
gpu
blic
BreezeDove
·
2025-06-07 06:47
开发
服务器
linux
ssh
【PyTorch】
CUDA
基础知识
NVIDIA
CUDA
显卡中包含一个
GPU
,它能够以高度并行化的方式实现矩阵乘法。在很长一段时间,英伟达(NVIDIA)的
GPU
市场份额一直保持领先。他们有一套成熟的软件工具,可以充分利用硬件加速。
沐兮Krystal
·
2025-06-07 05:08
NLP
pytorch
深度学习
python
开源 v
GPU
方案:HAMi,实现细粒度
GPU
切分
本文主要分享一个开源的
GPU
虚拟化方案:HAMi,包括如何安装、配置以及使用。
·
2025-06-07 01:34
ubuntu20.04使用docker部署ubuntu16.04环境
ubuntu16.04环境3.查看镜像4.启动镜像的一个容器5.进入容器并查看环境使用docker起因刚开始学习机器学习、深度学习都是使用的笔记本(只有集显);后来做NLP项目需要训练bert这种大模型,训练是必须要用
GPU
NUAA1703
·
2025-06-06 23:32
docker
linux
采用 Docker &
GPU
部署的 Ubuntu 或者 windows 桌面环境
#国内下载不了dockerpullgezp/ubuntu-desktop:24.04-cu12.6.2#阿里云镜像dockerpullregistry.cn-hongkong.aliyuncs.com/gezp/ubuntu-desktop:24.04-cu12.6.2#createcontainerwithnomachinedockerrun-d--restart=on-failure--nam
深度求索者
·
2025-06-06 23:31
docker
ubuntu
SFT实战微调Gemma
1.运行环境搭建:虚拟环境实验要求:python3.10及以上版本pytorch1.12及以上版本,推荐2.0及以上版本建议使用
CUDA
11.4及以上transformers>=4.38.0请务必采用上面的环境
原味奶茶_三分甜
·
2025-06-06 22:53
深度学习
人工智能
unsloth微调Qwen3模型实战
一、前言Unsloth是一个专注于优化大型语言模型(LLMs)微调效率的开源框架,旨在显著提升训练速度并降低显存占用,使得在资源有限的硬件(如单张消费级
GPU
)上高效微调大模型成为可能。
韭菜盖饭
·
2025-06-06 22:19
大模型
语言模型
LLM
unsloth
微调大模型
人工智能
YOLO在QT中的完整训练、验证与部署方案
配置环境:安装必要的软件,包括Python3.x、
CUDA
(用于
GPU
加速)、CUDNN
LeonDL168
·
2025-06-06 15:03
YOLO
YOLO
qt
开发语言
YOLO在QT中的验证
YOLO在QT中的部署
YOLO在QT中训练
深度学习
手把手教你学PCIE--内存管理(2)-基本概念: UMD(用户模式驱动)、KMD(内核模式驱动)和 DDK(设备驱动开发工具包)之间的关系
目录示例背景步骤详解具体流程图示总结了更好地理解UMD(用户模式驱动)、KMD(内核模式驱动)和DDK(设备驱动开发工具包)之间的关系以及它们如何协同工作,我们可以考虑一个具体的示例:使用VulkanAPI提交一个简单的图形渲染作业到
GPU
小蘑菇二号
·
2025-06-06 14:27
手把手教你学
PCIe
专栏简介
驱动开发
pcie
<记录>基于pytorch的cifar-10卷积神经网络(CNN)分类
0,开始之前(不使用
GPU
可以直接跳到第一步)运行环境:win10+py3.7.8+pycharm(可选部分:
GPU
环境:GTX1660+
cuda
10.2+cudnn8.1.0)
cuda
和cudnn简单的说就是两个用于机器学习的包
shc9912
·
2025-06-06 12:17
笔记
机器学习
python
pytorch
springboot Ehcache缓存配置
org.springframeworkspring-context-supportnet.sf.ehcacheehcacheorg.apache.shiroshiro-ehcache1.3.2新建配置类文件(注意启动类的扫描范围,可自定义扫描)@Configuration@EnableCachin
gpu
blicclassCacheConfig
baicu7502
·
2025-06-06 11:07
java
运维
ui
《PyTorch Hub:解锁深度学习模型的百宝箱》
据统计,训练一个像GPT-3这样的大规模语言模型,可能需要数千块
GPU
芯片并行计算数月之久,成本高达数百
空云风语
·
2025-06-05 22:11
人工智能
深度学习
神经网络
深度学习
pytorch
人工智能
Jetson Nano 2GB训练yolo11n模型(本地训练使用
GPU
)
温馨提示本篇文章是在Jetsonnano2gb的10W模式和关闭图形化界面的条件进行的,请确保你的条件符合要求。#关闭图形化界面sudosystemctlset-defaultmulti-user.targetsudoreboot#开启图形化界面sudosystemctlset-defaultgraphical.targetsudoreboot#开启Jetsonnano2gb的最高功率模式sudo
·
2025-06-05 19:17
window 显示驱动开发-DirectX VA 2.0 的视频解码加速
关键特性包括:利用
GPU
进行解码,减轻CPU负担支持部分解码和完全解码模式提供统一的接口访问不同硬件厂商的解码能力2.创建视频解码设备创建视频解码设备的
程序员王马
·
2025-06-05 17:07
windows图形显示驱动开发
音视频
.NET 玩转 PaddleSharp:通天猿臂,AI一把抓
而且,它不仅能在Windows下霸气外露,还能飞到Linux下继续骚操作,
GPU
、CPU、表格识别、OC
许泽宇的技术分享
·
2025-06-05 16:55
.net
人工智能
Docker使用手册
dockerrunDockerrun命令基本结构:dockerrun[OPTIONS]IMAGE[:TAG|@DIGEST][COMMAND][ARG...]sudodockerrun--privileged--
gpu
一只积极向上的小咸鱼
·
2025-06-05 15:54
Linux内核
docker
容器
运维
OpenCV
CUDA
模块图像处理------创建
CUDA
加速的Canny边缘检测器对象createCannyEdgeDetector()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数用于创建一个
CUDA
加速的Canny边缘检测器对象(CannyEdgeDetector
村北头的码农
·
2025-06-05 15:51
OpenCV
opencv
图像处理
人工智能
NOV Chart for .NET 2025 Crack
NOVChartfor.NET2025CrackNOVChartfor.NET2025.1adds
GPU
-acceleratedFastBar,FastLineandFastPointseriestorendermillionsofdatapointsinrealtime.NOVChartfor.NETbyNevronisacomprehensive.NETchartingcomponentsui
SEO-狼术
·
2025-06-05 15:51
net
控件
Delphi
pdf
打卡第35天:
GPU
训练以及类的Call方法
知识点回归:1.CPU性能的查看:看架构代际、核心数、线程数2.
GPU
性能的查看:看显存、看级别、看架构代际3.
GPU
训练的方法:数据和模型移动到
GPU
device上4.类的call方法:为什么定义前向传播时可以直接写作
Shining_Jiang
·
2025-06-05 14:16
python
机器学习
开源量子模拟引擎:Quantum ESPRESSO本地部署教程,第一性原理计算轻松入门!
QuantumESPRESSO
GPU
版本支持
GPU
加速,该部署版本为q-e-7.4.1。
算家计算
·
2025-06-05 00:00
模型构建
开源
第一性原理计算引擎
电子结构
分子动力学模拟
算家云
部署教程
租算力
到算家云
(LLaMa Factory)大模型训练方法--准备模型(Qwen2-0.5B)
2、运行环境要求硬件:
GPU
:推荐使用24GB显存的显卡或者更高配置软件:python:3.10pytorch:2.1.2+
cuda
12.1操作系统:Ubuntu22.043、准备训练模型在开展大模型训练之前
风起晨曦
·
2025-06-04 23:21
llama
vLLM vs Ollama
一、介绍vLLM:VLLM(超大型语言模型)是SKYPILOT开发的推理优化框架,主要用于提升大语言模型在
GPU
上的运行效率。
iranw
·
2025-06-04 22:49
人工智能
ROS机器人和NPU的往事和新知-250602
ROS机器人与NPU的往事与新知一、往事:从分离到融合的探索早期机器人系统的算力瓶颈传统ROS机器人依赖CPU/
GPU
进行感知、决策与控制,但在复杂场景(如动态环境导航、多传感器融合)中,实时性与能效比成为瓶颈
zhangrelay
·
2025-06-04 17:07
机器人
学习
python学习打卡day33
DAY33简单的神经网络知识点回顾:PyTorch和
cuda
的安装查看显卡信息的命令行命令(cmd中使用)
cuda
的检查简单神经网络的流程数据预处理(归一化、转换成张量)模型的定义继承nn.Module
vijaycc
·
2025-06-04 16:59
python学习打卡
python
学习
开发语言
URP源码学习(七)一些细节和理解
RT理解RT是什么,用在哪首先rt是一张特殊贴图,这张贴图对应的是
GPU
上的FrameBuffer,一般用到的是颜色和深度,从这张图取数据用于计算,或是直接对这张图进行修改,以得到想要的效果。
真像大白阿
·
2025-06-04 16:56
Unity3d
URP
unity
游戏引擎
URP
pytorch的
cuda
版本依据nvcc --version与nvidia-smi
在安装PyTorch时,
CUDA
版本的选择需要关注三个关键点,它们的优先级如下:1.nvcc--version(编译时
CUDA
版本)作用:显示当前安装的
CUDA
Toolkit版本(即编译器nvcc的版本
Raina Chen
·
2025-06-04 13:04
pytorch
人工智能
python
Python报错:AssertionError: Torch not compiled with
CUDA
enabled
Python项目运行的时候报错:***其它报错信息***raiseAssertionError("Torchnotcompiledwith
CUDA
enabled")AssertionError:Torchnotcompiledwith
CUDA
enabled
漫游者Nova
·
2025-06-04 10:14
Python
python
深度学习
pytorch
OpenCV
CUDA
模块图像处理------图像融合函数blendLinear()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数执行线性融合(加权平均)两个图像img1和img2,使用对应的权重图weights1和weights2。融合公式如下:result(x,y)=img1(x,y)⋅weights1(x,y)+img2(x,y)⋅weights2(x,y)result(x,y)
村北头的码农
·
2025-06-04 09:35
OpenCV
opencv
图像处理
人工智能
OpenCV
CUDA
模块图像处理------双边滤波的
GPU
版本函数bilateralFilter()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数在
GPU
上执行双边滤波操作,是一种非线性平滑滤波器,能够在保留边缘的同时去除噪声
村北头的码农
·
2025-06-04 09:34
OpenCV
opencv
图像处理
人工智能
nvidia-device-plugin实现
gpu
虚拟化
简介NVIDIAdeviceplugin是以dameonset方式部署到k8s集群,部署后可以实现:暴露集群中n每个node节点的
gpu
数量跟踪
gpu
健康状态可以在k8s集群中运行
gpu
容器前置条件NVIDIAdrivers
riverz1227
·
2025-06-04 09:34
gpu虚拟化
k8s
gpu算力
# 使用 Micromamba 安装 vLLM 并运行最小模型(facebook/opt-125m)
️环境准备系统:UbuntuPython版本:3.10包管理器:Micromamba
GPU
:NVIDIA(
CUDA
支持)创建环境并安装vLLM#创建micromamba环境micromambacreate-nvllmpython
老大白菜
·
2025-06-03 22:14
机器学习
人工智能
python
python
自动混合精度(AMP)训练在低版本显卡上的使用问题
AMPtrainingonNVIDIAGeForceGTX1660SUPER
GPU
maycauseNaNlossesorzero-mAPresults,soAMPwillbedisabledduringtraining
shangjg3
·
2025-06-03 16:57
Pytorch
人工智能
CUDA
内存溢出问题解决方案
这个错误表明你的
GPU
内存不足,无法分配所需的76MB内存。GTX1660SUPER只有6GB显存,在处理大型深度学习模型时确实容易遇到内存不足的问题。
shangjg3
·
2025-06-03 16:57
Pytorch
人工智能
MiniCPM-o 2.6 技术解析:端侧可用的 GPT-4o 级多模态大模型
二、核心能力亮点1.视觉理解能力全面超越️2.双语实时语音对话+情绪控制3.实时多模态流式能力⚡4.高效+端侧可部署三、部署实践与生态支持✅本地部署Demo(适配CPU/
GPU
)✅框架支持广泛四、模型性能评估小结五
gs80140
·
2025-06-03 12:04
AI
MiniCPM
人工智能
python打卡day34
GPU
训练及类的call方法知识点回归:CPU性能的查看:看架构代际、核心数、线程数
GPU
性能的查看:看显存、看级别、看架构代际
GPU
训练的方法:数据和模型移动到
GPU
device上类的call方法:为什么定义前向传播时可以直接写作
(・Д・)ノ
·
2025-06-03 07:27
Python
打卡训练
python
开发语言
深度学习FPGA开发方式
https://blog.csdn.net/weixin_35729512/article/details/79763952FPGA深度学习的方向概述传统的CNN(Tensorflow、caffe)是在
GPU
jack_201316888
·
2025-06-03 01:45
FPGA
AI
centos中docker:Error response from daemon: could not select device driver ““ with capabilities: [[
gpu
centos进行docker跑程序出现问题想要在docker上面深度学习模型时,出现了来自daemon的错误响应:couldnotselectdevicedriver“”withcapabilities:[[
gpu
干饭喵
·
2025-06-03 00:05
Linux
centos
linux
centos
docker
对比传统
GPU
服务器,为什么建议选择IEC企业私有云存储言案 ?
Infortrend企业云(IEC)—是一个强大的私有云平台,集成了计算、存储和Kubernetes管理功能于一体。专为企业量身定制,凭借高扩展、高性能和高可靠的产品特性,打造企业IT基础建设新篇章。
smart1998
·
2025-06-02 14:52
存储
磁盘阵列
IT
kubernetes
云计算
在选购高性能显卡(
GPU
)时,两个风扇与三个风扇:
GPU
风扇越多越好吗?
在选购高性能显卡(
GPU
)时,消费者常常会被各种规格参数和设计选择所困扰,其中一个常见的问题是:风扇数量对
GPU
性能和散热效果到底有多大影响?
wljslmz
·
2025-06-02 13:16
Linux技术
GPU
window 显示驱动开发-支持多个处理器
驱动自主优化UMD需硬件特定优化(如
GPU
引擎绑定、NUMA感知内存分配)。2.运行时自动优化的特
程序员王马
·
2025-06-02 12:07
驱动开发
flash_attn_2_
cuda
undefined symbol ?
关键报错截取:ImportError:/root/miniconda3/lib/python3.10/site-packages/flash_attn_2_
cuda
.cpython-310-x86_64
CCSBRIDGE
·
2025-06-02 11:34
ComfyUI
ImportError: /usr/local/app/.local/lib/python3.10/site-packages/flash_attn_2_
cuda
.cpython-310-x86_64
情况描述环境:linuxtransformers4.39.0tokenizers0.15.2torch2.1.2+cu121flash-attn2.3.3在使用vllm运行xverse/XVERSE-13B-256K时(代码如下):qwen_model=AutoModelForSequenceClassification.from_pretrained(args.pre_train,trust_r
Cyril_KI
·
2025-06-02 11:03
LLM
llm
qwen
flash-attn
torch.
cuda
.is_available() is false
torch.
cuda
.is_available()isfalseafterinstalled
cuda
9.1.Anyonecanhelpmeout?
努力奋斗-不断进化
·
2025-06-02 10:58
深度学习
Ubuntu20.04
CUDA
及cuDNN安装教程
以下是针对Ubuntu20.04安装
CUDA
和cuDNN的详细教程,包含版本选择、步骤解释、验证方法及常见问题解决方案:一、安装前的准备1.硬件与系统要求
GPU
支持:确保你的NVIDIA
GPU
支持
CUDA
吃旺旺雪饼的小男孩
·
2025-06-02 10:26
linux
ubuntu
深度学习
pytorch
tensorflow
linux
cuda
10.2对应的pytorch
PyTorch对应的
CUDA
版本是1.7。换句话说,如果您的计算机上安装了
CUDA
10.2,您可以使用PyTorch1.7。
三更寒天
·
2025-06-02 10:25
pytorch
深度学习
人工智能
python
计算机视觉
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他