E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA
在UBUNTU内使用DOCKER配置PYTHON项目环境
创建requirements.txttorch>=1.4.0torchvision>=0.5.0dominate>=2.4.0visdom>=0.1.8.8wandb二、创建DockerfileFROM
nvidia
2301_79655576
·
2025-04-26 22:46
程序员
ubuntu
docker
python
vLLM 部署 DeepSeek 大模型避坑指南
一、环境准备:驱动与硬件兼容性1.
NVIDIA
驱动与CUDA版本对齐确保
NVIDIA
驱动和CUDA版本相互匹配是关键。例如,CUDA12.x需要至少525.60+的驱动版本。
来自于狂人
·
2025-04-26 12:09
人工智能
python
pytorch
语言模型
Linux系统安装多个CUDA版本与切换,正常AI模型训练
一.结论:一个带显卡的环境系统能安装多个CUDA版本,但不能安装多个
NVIDIA
驱动版本,多个驱动版本会导致冲突,
NVIDIA
驱动能向下兼容CUDA版本,但不能向上兼容CUDA版本。
BB_CC_DD
·
2025-04-26 11:05
人工智能
深度学习
Linux服务器部署vLLM环境实战教程
一、vLLM环境配置在开始之前,请确保您已准备好以下物品:基于Linux的操作系统(推荐Ubuntu20.04+)已安装-Python:3.9–3.12
NVIDIA
驱动程序525+、CUDA11.8+(
伪_装
·
2025-04-26 08:46
计算机视觉
环境部署
LLM
服务器
linux
vLLM
HuggingFace
Nintendo Switch:NintendoSwitch游戏的艺术与设计_2024-07-19_16-02-19.Tex
其硬件包括:主处理器:基于
NVIDIA
的定制Tegra处理器,支持ARM架构。图形处理单元:NVIDI
chenjj4003
·
2025-04-26 00:51
游戏开发
游戏
microsoft
java
服务器
linux
解决安装Ubuntu后,启动出现屏幕空白(全黑,无内容)
第一帖:http://epheien.blogbus.com/logs/87731527.html一、显卡(
NVIDIA
GeForce310M)启动时,在grub里加上nomodeset参数禁用kms,
weixin_34391445
·
2025-04-25 23:40
看看Grok3怎么回答-沐曦C500计算卡是什么样的水平?
直接回答研究显示,沐曦C500计算卡是高性能GPU,接近
NVIDIA
A100水平,适合AI训练。PCIe版本性能约为A100的77%,OAM版本约92%,内存64GB,功耗350-450W。
释迦呼呼
·
2025-04-25 22:33
AI一千问
人工智能
深度学习
机器学习
算法
python爬虫学习 - 查看显卡价格
python版本:3.6.8pip版本:18.1(不想用21版本的,装一个库弹一个错误简直要命)我的主要目的是要每日爬取
NVIDIA
显卡的均价和极
不惧神风
·
2025-04-23 20:24
学习笔记
triton环境安装
一安装
nvidia
驱动基于centos7安装,曾经尝试了ubuntu16.04安装
nvidia
的驱动,发现非常麻烦,不推荐,推荐centos7安装,直接命令行就可以安装,相关教程可参考之间发布的博客二安装
youzjuer
·
2025-04-23 15:51
ubuntu
linux
运维
linux英伟达显卡驱动390下载,
nvidia
英伟达驱动|
NVIDIA
英伟达显卡驱动程序更新下载(32/64位) v384.90 Linux版 - 飞极下载站...
NVIDIA
英伟达显卡驱动程序,支持32/64位Linux系统。
创作者小助手
·
2025-04-23 02:00
英伟达驱动重装教程
离线安装
NVIDIA
驱动程序通常涉及下载驱动程序安装包并手动执行安装步骤。以下是详细步骤:1.下载
NVIDIA
驱动程序首先,你需要在有网络连接的计算机上下载适合你系统的
NVIDIA
驱动程序安装包。
AI拉呱
·
2025-04-22 18:12
linux实战从入门到精通
安全
CUDA Tools 常用命令总结与记录 (需要细化)
以下是对CUDAToolkit中常用工具和命令的详细总结,涵盖编译器、调试器、性能分析工具、GPU管理工具等核心组件:一、编译器工具:nvccnvcc是
NVIDIA
CUDA编译器,用于编译.cu文件生成可执行文件或中间代码
ZhiqianXia
·
2025-04-22 10:16
CUDA
技术笔记
cuda
主流物理仿真引擎和机器人/强化学习仿真平台对比
以下是当前主流的物理仿真引擎和机器人/强化学习仿真平台的特点和适用场景,方便根据需求选择:
NVIDIA
系列✅IsaacLabv1.4/v2特点:基于Omniverse+IsaacSim,属于高端视觉+机器人仿真框架
喵先生!
·
2025-04-21 18:45
机器人
colab安装ubuntu1804,cuda11,miniconda,torch1.8的保姆级教程。
wgethttps://developer.download.
nvidia
.com/compute/cuda/11.
小豆子爱学习
·
2025-04-21 16:33
AI研究实验记录
人工智能
python
cuda
Nvidia
Xavier Nx平台修改CAN时钟调试记录
1.前言JETSONNX开发板上配置CAN-bus与一个CAN收发器SN65HVD230。要求是改变设备树中的CAN时钟速率,让CAN时钟修改为40MHZ2.如何设置准确的40MHz要实现40MHz,首先需要设置CAN父时钟为pllaon。适用于:JetsonXavierNX和JetsonAGXXavier默认情况下,PLLAON在T194L4T平台上禁用以节省电力。在CAN和PWM等特定用例中,
free-xx
·
2025-04-20 18:56
Nvidia
Jetson平台驱动和系统开发
nvidia
CAN
使用AutoDL安装Mamba官方代码
安装Mamba租界的云服务器使用环境ubuntu22.04,cuda11.8,cudnn8.9python=3.10torch=2.10远程连接验证安装条件使用Pycharm连接远程的云GPU服务器使用
nvidia
-smi
月亮已死热爱可抵万难
·
2025-04-20 05:00
linux
NVIDIA
DeepStream全面开发指南
本指南全面介绍了
NVIDIA
DeepStreamSDK,包括其架构、功能、应用开发、部署以及高级特性。
我就是全世界
·
2025-04-20 05:28
deepstream
云服务器上配置Mamba环境
的要求论文链接:Mamba:Linear-TimeSequenceModelingwithSelectiveStateSpacesGitHub地址:MambaGitHub要求:操作系统:LinuxGPU:
NVIDIA
GPU
Ambition_LAO
·
2025-04-20 05:55
深度学习
机器学习
在企业级部署中如何优化
NVIDIA
GPU和容器环境配置:最佳实践与常见误区20250414
在企业级部署中如何优化
NVIDIA
GPU和容器环境配置:最佳实践与常见误区引言随着AI和深度学习技术的迅速发展,企业对GPU加速计算的需求愈加迫切。
Narutolxy
·
2025-04-19 14:18
技术干货分享
智浪初航
docker
AIGC
yolov8复现
Yolov8的复现流程主要包含环境配置、下载源码和验证环境三大步骤:环境配置查看电脑状况:通过任务管理器查看电脑是否有独立显卡(
NVIDIA
卡)。
吹风看太阳
·
2025-04-19 10:22
YOLO
YOLOV4在RTX 4090 Ubuntu 24.04 LTS 下的实践总结
lsb_release-aNoLSBmodulesareavailable.DistributorID:UbuntuDescription:Ubuntu24.04LTSRelease:24.04Codename:nobleroot@g4090-2:~#
nvidia
-smiTh
sikoutang
·
2025-04-19 08:08
YOLO
ubuntu
linux
slam系统安装
逻辑分区/home260G左右ext4逻辑分区2.ubuntu基本配置//换成国内源sudoapt-getupdatesudoapt-getinstallgitsudoapt-getinstallcmake
nvidia
driver
500年前的死猴子
·
2025-04-19 01:54
软件安装
系统安装
ubuntu
slam
ubuntu 20.04上docker 使用gpu
要在Docker容器中使用GPU,你需要确保系统上已经安装了正确的
NVIDIA
驱动程序,并且安装了
NVIDIA
ContainerToolkit。
AI拉呱
·
2025-04-18 23:07
linux实战从入门到精通
ubuntu
docker
linux
开源:
NVIDIA
Isaac GR00T N1 一个机器人多模态行为推理基础模型
研究背景与目的:通用机器人需要兼具多样的身体和智能的大脑。尽管人形机器人硬件平台已取得进展,但要实现通用自主性,还需一个在大规模多样化数据上训练的机器人基础模型,使机器人能够推理新情况、稳健处理现实世界的变化并快速学习新任务。 方法与创新点:介绍GR00TN1,一个面向通用人形机器人的开放基础模型。它是一个视觉-语言-行动(VLA)模型,采用双系统架构。视觉-语言模块(系统2)通过视觉和语言
Panesle
·
2025-04-18 22:34
前沿
机器人
人工智能
多模态
查看 GPU 与 NUMA 节点的绑定关系
目录一、通过
nvidia
-smi直接查看(
NVIDIA
专属)1.命令与输出解读2.原理二、通过PCIe设备路径关联NUMA节点(通用方法)1.步骤1:找到GPU的PCIe地址2.步骤2:读取PCIe设备的
清风 001
·
2025-04-18 16:56
AI大模型底层建设
前端
linux
人工智能
NVIDIA
Isaac GR00T N1 入门教程(一) 人形机器人多模态大语言模型
系列文章目录目录系列文章目录前言一、目标受众二、前提条件三、安装指南四、开始使用本软件仓库4.1数据格式与加载4.2推理4.3微调4.4评估五、常见问题5.1我有自己的数据,下一步该如何微调?5.2什么是模态配置?EmbodimentTag?5.3Gr00tPolicy的推理速度如何?前言英伟达™IsaacGR00TN1是世界上首个用于通用仿人机器人推理和技能的开放式基础模型。该跨体模型采用多模态
强化学习与机器人控制仿真
·
2025-04-18 13:05
Isaac
Sim
仿真与控制教程
机器人
人工智能
深度学习
开发语言
自动驾驶
单片机
stm32
深入浅出谈cuda
CUDA深入浅出谈“CUDA是
NVIDIA
的GPGPU模型,它使用C语言为基础,可以直接以大多数人熟悉的C语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。”
向前一一步走
·
2025-04-18 11:49
cuda
cuda
gpu
笔记本实体机安装FreeBSD操作系统(KDE-Plasma5桌面环境+
NVIDIA
显卡驱动)
笔记本实体机安装FreeBSD操作系统1.绪论2.安装过程2.1刻录FreeBSD启动U盘2.2安装xorg服务以及
nvidia
显卡驱动程序2.3安装sddm管理器以及KDE-plasma5桌面环境3.
Mobtgzhang
·
2025-04-18 09:11
系统安装教程
freebsd
nvidia
AIGC持续火爆大模型争相推出,庞大市场造就算力供应模式演变
本图由AI生成AIGC持续火爆大模型争相推出,庞大市场造就算力供应模式演变黄仁勋说的AI发展迎来iPhone时刻,对
NVIDIA
有什么影响?文/王吉伟近期的AIGC领域仍旧火爆异常。
·
2025-04-17 21:06
神经光子渲染:物理级真实感图像生成——从麦克斯韦方程到深度学习
该技术突破性地将电磁波传播建模误差控制在λ/2000(λ=550nm),在
NVIDIA
RTX6090上实现了2048×2048分辨率图像的实时生成(平均耗时23.4ms
好看资源分享
·
2025-04-17 07:21
深度学习
人工智能
PyTorch 模型转换为 TensorRT 引擎的通用方法
1.使用torch2trt工具进行转换torch2trt是
NVIDIA
提供的一个轻量级工具,可将PyTorch模型直接转换
视觉AI
·
2025-04-16 10:04
模型部署
pytorch
人工智能
python
长上下文时代:RAG的块大小为何仍需克制?
然而,
Nvidia
的OP-RAG研究揭示了本质矛盾:长上下文LLM的注意力机制在处理海量信息时,反而会因"信息过载"导致精度下降。
TGITCIC
·
2025-04-16 03:16
AI-大模型的落地之道
RAG
RAG增强检索
MCP大全
YOLO
大模型开发
AI
AGENT
AI编程
AMGCL库的Backends及使用示例
AMGCL支持的主要Backends内置Backends:builtin-默认的纯C++实现block-支持块状矩阵并行计算Backends:openmp-基于OpenMP的并行实现cuda-
NVIDIA
CUDA
东北豆子哥
·
2025-04-15 08:15
HPC/MPI
HPC
【李宏毅深度学习——回归模型的PyTorch架构】Homework 1:COVID-19 Cases Prediction (Regression)
目录1、显示
NVIDIA
GPU的状态信息2、数据集的两种不同的下载方式3、导入相关库4、三个工具函数5、定义自己的数据集类6、定义神经网络模型7、定义选择特征的函数8、训练过程9、超参数字典config10
AI的Learner
·
2025-04-14 22:35
深度学习
深度学习
人工智能
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载cuda驱动https://developer.
nvidia
.com/cuda-downloadsOllamaOllama官方版:https
小陈运维
·
2025-04-14 20:19
CUDA 安装教程
安装教程主要针对Linux(Ubuntu20.04)一、使用Docker镜像(推荐)打包好的cuda镜像https://hub.docker.com/r/
nvidia
/cudahttps://catalog.ngc.
nvidia
.com
知行学思
·
2025-04-14 12:01
深度学习
NVIDIA
Jetson AGX Xavier DeepSort tensorRT部署和加速 C++版
前言在实现
NVIDIA
JetsonAGXXavier部署Deepsort+Python版本的深度学习环境,然后能正常推理、检测和跟踪后;发现模型速度不够快,于是使用tensorRT部署,加速模型,本文介绍
一颗小树x
·
2025-04-14 07:59
人工智能
YOLO目标检测
实践应用
c++
Jetson
Xavier
DeepSort
tensorRT
部署和加速
千户级2080Ti GPU局域网集群实现每户家庭虚拟本地部署DeepSeek-R1 671B详细
---##一、项目背景与目标###1.1项目背景-**社区资源整合**:利用1000户家庭闲置的
NVIDIA
GeForceRTX2080Ti显卡(11GB显存)构建分布式计算集群-**服务需求**:为每户家庭提供本地化虚拟部署的
icbcnetone
·
2025-04-14 01:18
网络
ubuntu20.04系统安装apollo10.0系统
文章目录前言一、安装基础软件1、更新相关软件2安装DockerEngine二、获取GPU支持1、安装显卡驱动2、安装
Nvidia
containertoolkit三、安装Apollo环境管理工具1、安装依赖软件
知识搬运工阿杰
·
2025-04-13 20:14
百度apollo
自动驾驶
DeepSpeed多卡训练问题梳理
环境背景内网centos8.3_x86_64环境gcc版本8.3.1python版本3.8
nvidia
驱动对应cuda版本为11.6(通过nvida-smi可以获取)cudatoolkit版本为11.3
1lI
·
2025-04-13 11:51
人工智能
深度学习
人工智能
Geforce game ready提示无法继续安装出现一个错误
点击重试仍然提示出现一个错误,这时点击关闭,并退出
NVIDIA
GeforceExperience。
枫林听雨°
·
2025-04-12 17:54
经验分享
nvidia
drive agx orin平台driveos 单独编译kernel
本文基于driveagxorin平台,DriveOS0.6.4.0目录:1.kenrel路径2.依赖3.Linuxrtpatch4.编译5.烧录1.kenrel路径:drive-linux/kernel/source/oss_src/2.依赖:toolchains/aarch64--glibc--stable-2020.08-1/bin/aarch64-buildroot-linux-gnu-需要
科技之光666
·
2025-04-12 14:05
那些年踩过的坑
drive-agx-orin
linux
nvidia
orin
agx
orin
driveos
【Linux】Orin NX编译 linux 内核及内核模块
1、下载交叉编译工具:gcc1)下载地址:https://developer.
nvidia
.com/embedded/jetson-linux选择TOOLS中的交叉编译工具:gcc11.32)解压将gcc
郭老二
·
2025-04-12 14:01
linux驱动
linux
NVIDIA
的集合通信库(
NVIDIA
Collective Communication Library, NCCL)
NVIDIA
的集合通信库(NCCL,
NVIDIA
CollectiveCommunicationsLibrary)是一个专为多GPU和分布式计算环境设计的高效通信库。
彬彬侠
·
2025-04-12 13:00
大模型
NCCL
NVIDIA集合通信库
NVIDIA
深度学习
分布式
ubuntu 22.04配置cuda和cudnn
cuda:12.1wgethttps://developer.download.
nvidia
.com/compute/cuda/12.1.1/local_installers/cuda_12.1.1_530.30.02
m0_52111823
·
2025-04-12 05:27
ubuntu
linux
架构发展史
KelvinRankineCurieTeslaFermiMaxwellPascalVoltaTuringAmpereHopper总结前言英伟达的GPU架构发展KelvinKelvin于2001年发布,是
Nvidia
Mundaneman
·
2025-04-11 16:31
架构
cuda
Ubuntu22.04安装Ollama部署DeepSeek-R1:32B模型
一、环境准备1.硬件要求GPU:至少
NVIDIA
A30/A100(显存≥24GB)内存:≥64GBRAM存储:≥100GB可用空间(模型文件约60GB)2.软件依赖#验证
NVIDIA
驱动
nvidia
-smi
闫利朋
·
2025-04-11 01:02
DeepSeek实践之路
DeepSeek
Ollama
AI
ubuntu22.04
gpu
系统开机设备寻址全流程:从 UEFI 伪代码到内核映射
本文以AMD集成GPU(ACPI描述)和
NVIDIA
独立显卡(PCIe设备)为例,详细介绍这一过程。
不堪沉沦
·
2025-04-10 20:55
操作系统
驱动开发
Linux学习
linux
vLLM 与 Ollama 部署与应用
目录一、vLLM与FastChat的Docker部署指南1.环境准备2.安装Docker和
NVIDIA
ContainerToolkit3.拉取并运行vLLMDocker镜像️二、Ollama的本地多模型部署方案
张3蜂
·
2025-04-10 18:15
#
神经网络
#
人工智能
开源
人工智能
语言模型
python常用工具类
#获取当前机器gpu的数量defget_gpu_count():#returnlen(os.popen("
nvidia
-smi-L").read().strip().split("\n"))#num_default
jstzwjr
·
2025-04-10 16:03
python
深度学习
pytorch
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他