E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU并行处理
安装了torch发现是cpu版本怎么办?
全局可用:安装的包对所有项目可见(适合常用工具如numpy、pandas)可以省略以下步骤(防止污染环境)创建并激活环境condacreate-npytorch_
gpu
python=3.10-ycondaactivate
·
2025-06-08 01:56
Python Pandas数据处理效率提升指南
为了提升Pandas的处理速度,我们可以采用多种优化策略,如数据类型优化、向量化操作、
并行处理
、分块读取等。本文将详细介绍几种常见的Pandas性能优化方法,帮助高效处理大量数据,减少计算时间。
超酷的站长
·
2025-06-07 23:41
python学习
python
pandas
开发语言
CMake find_package(CUDAToolkit) 报错,找不到 CUDA_CUDART
安装llama-cpp-python时,使用
GPU
版本,系统版本是Ubuntu22.04cuda版本是12.1安装命令:CMAKE_ARGS="-DLLAMA_CUBLAS=on"pipinstallllama-cpp-python
0语1言
·
2025-06-07 18:40
llama
python
人工智能
linux
Python 训练营打卡 Day 34
GPU
训练及类的call方法一、
GPU
训练与day33采用的CPU训练不同,今天试着让模型在
GPU
上训练,引入importtime比较两者在运行时间上的差异importtorch#设置
GPU
设备device
2401_86382089
·
2025-06-07 17:35
Python打卡
python
使用deepSeek-8B-Transformers开发本地接口
__version__)#例如2.0.1print(torch.cuda.is_available())#必须返回True#使用HuggingFace(需
GPU
)model_name="app/utils
技术支持者python,php
·
2025-06-07 15:52
flask架构api项目
flask框架
python
flask
Vortex GP
GPU
的github流程跑通与功能模块波形探索(四)
文章目录前言一、demo的输入文件二、trace_csv三、2个值得注意的点3.1csv指令表格里面的tmask?3.2rtlsim和simx的log文件?总结前言跟着前面那篇最后留下的几个问题接着把输出波形文件和csv文件的输入、输出搞明白!一、demo的输入文件该文件夹下的内容包括:dention@dention-virtual-machine:~/Desktop/vortex/vortex/
·
2025-06-07 09:15
【linux】服务器限制客户端ssh访问
只允许特定客户端访问服务器审计追踪:方便根据SSH密钥追踪访问者1实现方式1.1客户端生成SSH密钥以windows为例,以ssh-keygen-trsa命令生成密钥PSE:\>ssh-keygen-trsaGeneratin
gpu
blic
BreezeDove
·
2025-06-07 06:47
开发
服务器
linux
ssh
【PyTorch】CUDA基础知识
NVIDIACUDA显卡中包含一个
GPU
,它能够以高度并行化的方式实现矩阵乘法。在很长一段时间,英伟达(NVIDIA)的
GPU
市场份额一直保持领先。他们有一套成熟的软件工具,可以充分利用硬件加速。
沐兮Krystal
·
2025-06-07 05:08
NLP
pytorch
深度学习
python
开源 v
GPU
方案:HAMi,实现细粒度
GPU
切分
本文主要分享一个开源的
GPU
虚拟化方案:HAMi,包括如何安装、配置以及使用。
·
2025-06-07 01:34
ubuntu20.04使用docker部署ubuntu16.04环境
ubuntu16.04环境3.查看镜像4.启动镜像的一个容器5.进入容器并查看环境使用docker起因刚开始学习机器学习、深度学习都是使用的笔记本(只有集显);后来做NLP项目需要训练bert这种大模型,训练是必须要用
GPU
NUAA1703
·
2025-06-06 23:32
docker
linux
采用 Docker &
GPU
部署的 Ubuntu 或者 windows 桌面环境
#国内下载不了dockerpullgezp/ubuntu-desktop:24.04-cu12.6.2#阿里云镜像dockerpullregistry.cn-hongkong.aliyuncs.com/gezp/ubuntu-desktop:24.04-cu12.6.2#createcontainerwithnomachinedockerrun-d--restart=on-failure--nam
深度求索者
·
2025-06-06 23:31
docker
ubuntu
unsloth微调Qwen3模型实战
一、前言Unsloth是一个专注于优化大型语言模型(LLMs)微调效率的开源框架,旨在显著提升训练速度并降低显存占用,使得在资源有限的硬件(如单张消费级
GPU
)上高效微调大模型成为可能。
韭菜盖饭
·
2025-06-06 22:19
大模型
语言模型
LLM
unsloth
微调大模型
人工智能
YOLO在QT中的完整训练、验证与部署方案
配置环境:安装必要的软件,包括Python3.x、CUDA(用于
GPU
加速)、CUDNN
LeonDL168
·
2025-06-06 15:03
YOLO
YOLO
qt
开发语言
YOLO在QT中的验证
YOLO在QT中的部署
YOLO在QT中训练
深度学习
手把手教你学PCIE--内存管理(2)-基本概念: UMD(用户模式驱动)、KMD(内核模式驱动)和 DDK(设备驱动开发工具包)之间的关系
目录示例背景步骤详解具体流程图示总结了更好地理解UMD(用户模式驱动)、KMD(内核模式驱动)和DDK(设备驱动开发工具包)之间的关系以及它们如何协同工作,我们可以考虑一个具体的示例:使用VulkanAPI提交一个简单的图形渲染作业到
GPU
小蘑菇二号
·
2025-06-06 14:27
手把手教你学
PCIe
专栏简介
驱动开发
pcie
<记录>基于pytorch的cifar-10卷积神经网络(CNN)分类
0,开始之前(不使用
GPU
可以直接跳到第一步)运行环境:win10+py3.7.8+pycharm(可选部分:
GPU
环境:GTX1660+cuda10.2+cudnn8.1.0)cuda和cudnn简单的说就是两个用于机器学习的包
shc9912
·
2025-06-06 12:17
笔记
机器学习
python
pytorch
springboot Ehcache缓存配置
org.springframeworkspring-context-supportnet.sf.ehcacheehcacheorg.apache.shiroshiro-ehcache1.3.2新建配置类文件(注意启动类的扫描范围,可自定义扫描)@Configuration@EnableCachin
gpu
blicclassCacheConfig
baicu7502
·
2025-06-06 11:07
java
运维
ui
《PyTorch Hub:解锁深度学习模型的百宝箱》
据统计,训练一个像GPT-3这样的大规模语言模型,可能需要数千块
GPU
芯片并行计算数月之久,成本高达数百
空云风语
·
2025-06-05 22:11
人工智能
深度学习
神经网络
深度学习
pytorch
人工智能
数据库设计常用架构
数据库构架设计中主要有SharedEverthting、SharedNothing、和SharedDisk:一、SharedEverthting:一般是针对单个主机,完全透明共享CPU/MEMORY/IO,
并行处理
能力是最差的
焱齿
·
2025-06-05 20:31
数据库
shared
nothing
Jetson Nano 2GB训练yolo11n模型(本地训练使用
GPU
)
温馨提示本篇文章是在Jetsonnano2gb的10W模式和关闭图形化界面的条件进行的,请确保你的条件符合要求。#关闭图形化界面sudosystemctlset-defaultmulti-user.targetsudoreboot#开启图形化界面sudosystemctlset-defaultgraphical.targetsudoreboot#开启Jetsonnano2gb的最高功率模式sudo
·
2025-06-05 19:17
window 显示驱动开发-DirectX VA 2.0 的视频解码加速
关键特性包括:利用
GPU
进行解码,减轻CPU负担支持部分解码和完全解码模式提供统一的接口访问不同硬件厂商的解码能力2.创建视频解码设备创建视频解码设备的
程序员王马
·
2025-06-05 17:07
windows图形显示驱动开发
音视频
.NET 玩转 PaddleSharp:通天猿臂,AI一把抓
而且,它不仅能在Windows下霸气外露,还能飞到Linux下继续骚操作,
GPU
、CPU、表格识别、OC
许泽宇的技术分享
·
2025-06-05 16:55
.net
人工智能
Docker使用手册
dockerrunDockerrun命令基本结构:dockerrun[OPTIONS]IMAGE[:TAG|@DIGEST][COMMAND][ARG...]sudodockerrun--privileged--
gpu
一只积极向上的小咸鱼
·
2025-06-05 15:54
Linux内核
docker
容器
运维
OpenCV CUDA模块图像处理------创建CUDA加速的Canny边缘检测器对象createCannyEdgeDetector()
ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数用于创建一个CUDA加速的Canny边缘检测器对象(CannyEdgeDetector),可以在
GPU
村北头的码农
·
2025-06-05 15:51
OpenCV
opencv
图像处理
人工智能
NOV Chart for .NET 2025 Crack
NOVChartfor.NET2025CrackNOVChartfor.NET2025.1adds
GPU
-acceleratedFastBar,FastLineandFastPointseriestorendermillionsofdatapointsinrealtime.NOVChartfor.NETbyNevronisacomprehensive.NETchartingcomponentsui
SEO-狼术
·
2025-06-05 15:51
net
控件
Delphi
pdf
打卡第35天:
GPU
训练以及类的Call方法
知识点回归:1.CPU性能的查看:看架构代际、核心数、线程数2.
GPU
性能的查看:看显存、看级别、看架构代际3.
GPU
训练的方法:数据和模型移动到
GPU
device上4.类的call方法:为什么定义前向传播时可以直接写作
Shining_Jiang
·
2025-06-05 14:16
python
机器学习
华为盘古 Ultra MoE 模型:国产 AI 的技术突破与行业影响
盘古UltraMoE采用混合专家(MoE)架构,包含256个路由专家,每个任务激活8个专家协同工作,显著提升了模型的
并行处理
能力。为解决训练稳定性问题,华为团队提出Dep
未来智慧谷
·
2025-06-05 12:57
华为
人工智能
Java中parallelStream并行流使用指南
Java中parallelStream并行流使用指南在Java中,parallelStream()是Java8引入的一个用于
并行处理
集合数据的工具,它基于Fork/Join框架实现,能够自动将任务拆分成子任务并利用多核处理器并行执行
永恒_顺其自然
·
2025-06-05 03:51
java
开发语言
开源量子模拟引擎:Quantum ESPRESSO本地部署教程,第一性原理计算轻松入门!
QuantumESPRESSO
GPU
版本支持
GPU
加速,该部署版本为q-e-7.4.1。
算家计算
·
2025-06-05 00:00
模型构建
开源
第一性原理计算引擎
电子结构
分子动力学模拟
算家云
部署教程
租算力
到算家云
(LLaMa Factory)大模型训练方法--准备模型(Qwen2-0.5B)
2、运行环境要求硬件:
GPU
:推荐使用24GB显存的显卡或者更高配置软件:python:3.10pytorch:2.1.2+cuda12.1操作系统:Ubuntu22.043、准备训练模型在开展大模型训练之前
风起晨曦
·
2025-06-04 23:21
llama
vLLM vs Ollama
一、介绍vLLM:VLLM(超大型语言模型)是SKYPILOT开发的推理优化框架,主要用于提升大语言模型在
GPU
上的运行效率。
iranw
·
2025-06-04 22:49
人工智能
ROS机器人和NPU的往事和新知-250602
ROS机器人与NPU的往事与新知一、往事:从分离到融合的探索早期机器人系统的算力瓶颈传统ROS机器人依赖CPU/
GPU
进行感知、决策与控制,但在复杂场景(如动态环境导航、多传感器融合)中,实时性与能效比成为瓶颈
zhangrelay
·
2025-06-04 17:07
机器人
学习
URP源码学习(七)一些细节和理解
RT理解RT是什么,用在哪首先rt是一张特殊贴图,这张贴图对应的是
GPU
上的FrameBuffer,一般用到的是颜色和深度,从这张图取数据用于计算,或是直接对这张图进行修改,以得到想要的效果。
真像大白阿
·
2025-06-04 16:56
Unity3d
URP
unity
游戏引擎
URP
Python报错:AssertionError: Torch not compiled with CUDA enabled
raiseAssertionError("TorchnotcompiledwithCUDAenabled")AssertionError:TorchnotcompiledwithCUDAenabled这个提示就是应用想使用
GPU
漫游者Nova
·
2025-06-04 10:14
Python
python
深度学习
pytorch
OpenCV CUDA模块图像处理------双边滤波的
GPU
版本函数bilateralFilter()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数在
GPU
上执行双边滤波操作,是一种非线性平滑滤波器,能够在保留边缘的同时去除噪声
村北头的码农
·
2025-06-04 09:34
OpenCV
opencv
图像处理
人工智能
nvidia-device-plugin实现
gpu
虚拟化
简介NVIDIAdeviceplugin是以dameonset方式部署到k8s集群,部署后可以实现:暴露集群中n每个node节点的
gpu
数量跟踪
gpu
健康状态可以在k8s集群中运行
gpu
容器前置条件NVIDIAdrivers
riverz1227
·
2025-06-04 09:34
gpu虚拟化
k8s
gpu算力
# 使用 Micromamba 安装 vLLM 并运行最小模型(facebook/opt-125m)
️环境准备系统:UbuntuPython版本:3.10包管理器:Micromamba
GPU
:NVIDIA(CUDA支持)创建环境并安装vLLM#创建micromamba环境micromambacreate-nvllmpython
老大白菜
·
2025-06-03 22:14
机器学习
人工智能
python
python
自动混合精度(AMP)训练在低版本显卡上的使用问题
AMPtrainingonNVIDIAGeForceGTX1660SUPER
GPU
maycauseNaNlossesorzero-mAPresults,soAMPwillbedisabledduringtraining
shangjg3
·
2025-06-03 16:57
Pytorch
人工智能
CUDA内存溢出问题解决方案
这个错误表明你的
GPU
内存不足,无法分配所需的76MB内存。GTX1660SUPER只有6GB显存,在处理大型深度学习模型时确实容易遇到内存不足的问题。
shangjg3
·
2025-06-03 16:57
Pytorch
人工智能
Hadoop学习笔记
(1)Hadoop概述Hadoop是一个开源的分布式计算和存储框架,用于处理大规模数据集(大数据)的
并行处理
。
wyn20001128
·
2025-06-03 12:06
hadoop
学习
笔记
MiniCPM-o 2.6 技术解析:端侧可用的 GPT-4o 级多模态大模型
二、核心能力亮点1.视觉理解能力全面超越️2.双语实时语音对话+情绪控制3.实时多模态流式能力⚡4.高效+端侧可部署三、部署实践与生态支持✅本地部署Demo(适配CPU/
GPU
)✅框架支持广泛四、模型性能评估小结五
gs80140
·
2025-06-03 12:04
AI
MiniCPM
人工智能
python打卡day34
GPU
训练及类的call方法知识点回归:CPU性能的查看:看架构代际、核心数、线程数
GPU
性能的查看:看显存、看级别、看架构代际
GPU
训练的方法:数据和模型移动到
GPU
device上类的call方法:为什么定义前向传播时可以直接写作
(・Д・)ノ
·
2025-06-03 07:27
Python
打卡训练
python
开发语言
异步与并行 LINQ:提升.NET应用程序性能的利器
在.NET生态系统中,LINQ(LanguageIntegratedQuery)作为一种强大的数据查询和处理工具,提供了异步和
并行处理
的能力,为开发高性能应用程序提供了有力支持。
冰茶_
·
2025-06-03 01:47
LINQ
C#
linq
.net
solr
Ray2.4.0
它为
并行处理
提供了计算层,因此你不需要成为一个分布式系统专家。
大势下的牛马
·
2025-06-03 01:15
Ray计算框架
Ray
python
深度学习FPGA开发方式
https://blog.csdn.net/weixin_35729512/article/details/79763952FPGA深度学习的方向概述传统的CNN(Tensorflow、caffe)是在
GPU
jack_201316888
·
2025-06-03 01:45
FPGA
AI
centos中docker:Error response from daemon: could not select device driver ““ with capabilities: [[
gpu
centos进行docker跑程序出现问题想要在docker上面深度学习模型时,出现了来自daemon的错误响应:couldnotselectdevicedriver“”withcapabilities:[[
gpu
干饭喵
·
2025-06-03 00:05
Linux
centos
linux
centos
docker
对比传统
GPU
服务器,为什么建议选择IEC企业私有云存储言案 ?
Infortrend企业云(IEC)—是一个强大的私有云平台,集成了计算、存储和Kubernetes管理功能于一体。专为企业量身定制,凭借高扩展、高性能和高可靠的产品特性,打造企业IT基础建设新篇章。
smart1998
·
2025-06-02 14:52
存储
磁盘阵列
IT
kubernetes
云计算
在选购高性能显卡(
GPU
)时,两个风扇与三个风扇:
GPU
风扇越多越好吗?
在选购高性能显卡(
GPU
)时,消费者常常会被各种规格参数和设计选择所困扰,其中一个常见的问题是:风扇数量对
GPU
性能和散热效果到底有多大影响?
wljslmz
·
2025-06-02 13:16
Linux技术
GPU
window 显示驱动开发-支持多个处理器
驱动自主优化UMD需硬件特定优化(如
GPU
引擎绑定、NUMA感知内存分配)。2.运行时自动优化的特
程序员王马
·
2025-06-02 12:07
驱动开发
Ubuntu20.04CUDA及cuDNN安装教程
以下是针对Ubuntu20.04安装CUDA和cuDNN的详细教程,包含版本选择、步骤解释、验证方法及常见问题解决方案:一、安装前的准备1.硬件与系统要求
GPU
支持:确保你的NVIDIA
GPU
支持CUDA
吃旺旺雪饼的小男孩
·
2025-06-02 10:26
linux
ubuntu
深度学习
pytorch
tensorflow
linux
ARM + FPGA运动控制卡设计方案
系统融合了ARM单片机的强大处理能力和FPGA的高速
并行处理
特性,确保了控制系统的高效稳定运行项目地址:https://gitcode.com/open-source-
奚畏财
·
2025-06-02 10:54
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他