E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Nvidia
生成本地 微调 +强化学习 qwen3-4b 研究搭建流程步骤
一、环境准备硬件要求GPU:至少需要多块高性能GPU(如
NVIDIA
A100或V100),因为Qwen-3-4B模型参数量大,内存需求高。
行云流水AI笔记
·
2025-06-21 11:54
人工智能
解决docker下的Linux系统调用GPU失败
从以下网址下载:https://mirror.cs.uchicago.edu/
nvidia
-docker/lib
nvidia
-container/stable/#完全移除所有
nvidia
容器相关包sudoaptpurgelib
nvidia
-container
Alphapeople
·
2025-06-21 05:18
docker
容器
运维
企业内训|
Nvidia
智算中心深度技术研修-某智算厂商研发中心
课程概述此企业内训课程“
Nvidia
智算中心的深度技术研修”专为某智算厂商研发中心设计,内容涵盖了从基础设施构建到高性能计算优化的全方位技术要点。
TsingtaoAI
·
2025-06-20 22:00
Nvidia
智算集群
企业内训
智算中心
gpu算力
GPU培训
Ubuntu20.04LTS 安装 mmdetection 全记录
Ubuntu20.04LTS安装mmdetection全记录环境需求准备工作anaconda安装gcc/g++安装安装
nvidia
显卡驱动安装CUDA正式安装mmdetection创建一个conda虚拟环境安装
·
2025-06-20 20:46
探秘经典Flang:一个强大的Fortran编译器
Flang:一个强大的Fortran编译器去发现同类优质开源项目:https://gitcode.com/项目介绍Flang,又称“经典Flang”,是一款基于LLVM的外置Fortran编译器,它是PGI/
NVIDIA
杭律沛Meris
·
2025-06-20 17:02
【CUDA】认识CUDA
CUDA的作用CUDA是
NVIDIA
提供的一种并行计算平台和编程模型,它允许开发者通过编写程序利用GPU的强大算力完成复杂的科学运算任务。
Gappsong874
·
2025-06-20 10:38
网络安全
web安全
黑客
大数据
CentOS命令安装显卡驱动、修改分辨率和解决黑屏问题
盘第六步解决没有1920x1080分辨率的问题文章目录【系列】真机安装CentOSStream8问题一、下载显卡驱动二、安装驱动步骤1:准备安装环境步骤2:安装依赖步骤3:禁用默认的Nouveau驱动步骤4:安装
NVIDIA
shyuu_
·
2025-06-20 02:46
centos
linux
运维
CentOS安装
nvidia
显卡驱动的正确方法
常用的驱动安装方法有2种:手动编译和从ELRepo源安装,一般来说搜索的时候看到的都是前者,即“安装编译环境,到
nvidia
官网下载驱动文件,把nouveau加入blacklist,进入命令行模式重启安装
lantiaoxian
·
2025-06-20 02:46
centos
linux
运维
Docker+深度学习镜像(预装anaconda+ssh+pytorch+时区设置)
dockerfileFROM
nvidia
/c
qq_43288818
·
2025-06-19 20:30
深度学习
docker
【Pytorch、torchvision、CUDA 各个版本对应关系以及安装指令】
torchvision、CUDA各个版本对应关系以及安装指令更多内容,可以移步到我的小红薯哦(复旦孟博士)1、名词解释1.1CUDACUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
CL_Meng77
·
2025-06-19 18:08
安装教程
基础知识
pytorch
人工智能
linux
服务器
python
Ubuntu18.04基于Docker和Pycharm搭建Tensorflow-gpu训练环境
一、前提:安装好pycharm-professional,dockerce,
nvidia
-docker2,
nvidia
-gpu驱动。安装方法见各自链接。
城俊BLOG
·
2025-06-19 01:12
学习笔记
Linux
docker容器内运行依赖GPU的程序
我的开发环境centos7docker版本为2.10.22080ti显卡,物理机已安装cuda10和对应显卡驱动运行带GPU的docker给linux安装
nvidia
-container-toolkitdistribution
LensonYuan
·
2025-06-18 13:20
项目发布
Python工程落地
深度学习
docker
gpu
tensorflow
cuda
CUDA开发工具整理
以下是结合实用性和兼容性的推荐工具组合,涵盖开发、调试、性能优化全流程:️一、核心开发工具1.
NVIDIA
Nsight系列(官方专业工具)NsightVisualStudioEdition(Windows
·
2025-06-18 11:34
CUDA核函数优化进阶:利用Shared Memory实现矩阵计算10倍加速
在
NVIDIA
A100上优化1024×1024矩阵乘法时,共享内存策略将计算速度从3.2TFLOPS提升至31.5TFLOPS——本文将揭示如何通过内存访问优化突破GPU计算瓶颈。
AI咸鱼保护协会
·
2025-06-18 10:57
人工智能
深度学习
AI
矩阵
CUDA
使用开源
NVIDIA
cuOpt加速决策优化
使用开源
NVIDIA
cuOpt加速决策优化文章目录使用开源
NVIDIA
cuOpt加速决策优化决策优化的现实挑战供应链优化的复杂性实时决策的挑战计算复杂性的挑战
NVIDIA
cuOpt:GPU加速的决策优化解决方案
扫地的小何尚
·
2025-06-18 02:05
开源
人工智能
GPU
语言模型
自然语言处理
microsoft
win10安装wsl2(ubuntu20.04)并安装 TensorRT-8.6.1.6、cuda_11.6、cudnn
参考博客:1.CUDA】如何在windows上安装Ollama3+openwebui(docker+WSL2+ubuntu+
nvidia
-container):https://blog.csdn.net
狄龙疤
·
2025-06-16 23:03
wsl
wsl2
win10
tensorrt
cuda
cudnn
ubuntu
WordToCard,一键将Markdown内容转换为精美知识卡片(使用Qwen3)
让其帮我写一篇关于如何本地部署开源Qwen的文章内容如下为Markdown格式以下是本地部署开源Qwen3大模型的详细步骤,结合了多篇教程的核心内容,帮助你快速完成部署:一、准备工作硬件要求显卡:建议使用支持CUDA的GPU(如
NVIDIA
程序员猫爪
·
2025-06-16 22:59
word
开源
前端
云计算
人工智能
可持续AI的基石:液冷数据中心的关键技术解析与能效优化实践
一、AI算力爆发下的能效危机随着千亿级参数大模型训练成为常态,单机柜功率密度从10kW猛增至50kW+(
NVIDIA
DGXH100系统达70kW)。
梦玄海
·
2025-06-16 16:51
人工智能
量子计算
神经网络
自动化
重构
彻底删除
nvidia
驱动以及cuda
介于在一些情况下,未完全删除
nvidia
和cuda的残留可能导致再次安装失败,故写此文
nvidia
驱动如果因为一些失误操作导致
nvidia
驱动被篡改或出错可以使用1.完全卸载现有
NVIDIA
驱动sudoaptpurge
lovod
·
2025-06-15 22:51
linux
运维
服务器
caffe中Makefile.config详解
#USE_CUDNN:=1"CuDNN是
NVIDIA
专门
《一夜飘零》
·
2025-06-15 22:46
Llama 4 群:原生多模态 AI 创新新时代的开始
Llama4Scout拥有170亿个活跃参数,包含16位专家模型,是同类产品中全球最佳的多模态模型,其性能比所有前代Llama模型都更强大,并且仅需单块
NVIDIA
H100GPU即可运行。
爱分享的小明
·
2025-06-15 11:04
llama
人工智能
科技评论:Jim Keller 的“反向”战略:RISC-V 成为中国应对美国芯片封锁的关键武器
在英伟达(
NVIDIA
)主导的AI芯片市场,传奇芯片架构师JimKeller领导的Tenstorrent正采取一条截然不同的道路。
openlabx.org.cn
·
2025-06-15 03:13
科技评论
科技
risc-v
2024年3月20日_GTC 2024大会黄仁勋演讲解读
今天我们来讲GTC2024美国圣何塞3月18日13点北京19日凌晨4点,时隔5年全球顶尖的AI计算技术盛会、年度
NVIDIA
GTC大会重磅回归线下在这场大会上英伟达展现出堪称恐怖的行业号召力将AI圈的顶尖技术大牛和行业精英汇聚在一起现场盛况空前
codelyq
·
2025-06-14 07:29
#
最佳AI
人工智能
大模型多显卡多服务器并行计算方法与实践指南
二、硬件环境准备1.多机多卡环境配置组件要求建议配置GPU支持CUDA
NVIDIA
A100/H100网络高速互联Inf
非著名架构师
·
2025-06-13 13:27
大模型
知识文档
大模型集群部署
大模型多卡部署
大模型并行部署
Three.js 开发行业洞察:如何提升行业影响力?
某医疗可视化团队通过打造行业开源标准,从默默无闻到被Unity官方邀请演讲仅用18个月;而某教育公司凭借一套自定义材质系统,竟吸引
NVIDIA
主动寻求技术合作。
大树前端老司机
·
2025-06-13 09:03
信息可视化
数据分析
数据挖掘
DeepSeek满血版本地部署指南
一、硬件与操作系统准备1.硬件要求GPU(关键):最低要求:
NVIDIA
显卡(RTX3090/4090,显存≥24GB)可运行非量化版。经济方案:RTX306012GB+4-bit量化模型。
三三十二
·
2025-06-12 18:42
deepseek
安装 DeepLake
安装扩展功能(可选)1.安装GPU支持(加速数据加载和处理)如果你有
NVIDIA
GPU并希望利用GPU来加速某些操作(例如图像增
燃灯工作室
·
2025-06-11 19:27
DeepLake
深度学习
pytorch
神经网络
算法
制造
最后生还者2:重制版/美国末日2(更新:v1.4.10515.0636)
更新日志补丁1.4发布说明-v1.4.10515.0636集成
NVIDIA
DLSS4和Transformer模型,用于升级和支持GPU的多帧生成。
AABBCC103
·
2025-06-11 17:14
百度
OpenAI-o3-mini 与 DeepSeek-R1 的比较 在各种基准上比较 o3-mini 和 DeepSeek-R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
知识大胖
·
2025-06-11 15:05
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
人工智能
janus
pro
kubernetes 1.24 使用
nvidia
gpu 单机/集群
1k8s集群安装服务器配置域名设置好,端口号要开下。命令略了sudoapt-getupdate\&&sudoapt-getinstall-yapt-transport-https\ca-certificatescurlsoftware-properties-common关swapswapoff-ased-ri's/.*swap.*/#&/'/etc/fstabipv4流量转到iptables:ca
hymanSlime
·
2025-06-11 04:10
深度学习
环境安装
kubernetes
docker
linux
人工智能
K8S集群 - GPU机器驱动安装
1、GPU可以升级下内核3.10版本的小版本升级```shellyuminstallkernel```2、首先查看GPU显卡信息```shelllspci|grep-i
nvidia
```3、去官网下载GPU
卡亦克
·
2025-06-11 04:10
kubernetes
容器
云原生
pycuda
一、定义1.定义2.案例3.pycuda调用c++,并在内核中执行4.接口二、实现定义PyCUDA是一个基于
NVIDIA
CUDA的Python库,用于在GPU上进行高性能计算。
贾亚飞
·
2025-06-10 15:35
pycuda
人工智能
ubuntu20.04装机指南
由于ubuntu崩溃过后再装机真的很花费时间,这里一次性给出所有装机必备流程显卡驱动和cuda显卡驱动可以先4060显卡驱动版本525cuda版本12.0.0zhttps://developer.
nvidia
.com
·
2025-06-10 10:38
无人机避障——感知部分(Ubuntu 20.04 复现Vins Fusion跑数据集)胎教级教程
硬件环境:
NVIDIA
JestonOrinnx系统:Ubuntu20.04任务:跑通EuRoCMAVDataset数据集展示结果:编译VinsFusion创建工作空间vins_ws#创建目录结构mkdir-p
Perishell
·
2025-06-09 13:12
无人机规控算法
感知定位SLAM
无人机
建图感知
SLAM
daz3d + PBRSkin (MDL)+ SSS
它利用
NVIDIA
的材质定义语言(MDL)构建,能模拟光线与多层皮肤结构的复杂交互。##核心概念解析什么是PBR?PBR是PhysicallyBasedRendering(基于物理的
子燕若水
·
2025-06-09 10:50
UE5
daz3d
3D
3d
NVIDIA
GPU介绍:概念、序列、核心、A100、H100
概述入职一家大模型领域创业公司,恶补相关知识。概念一些概念:HPC:HighPerformanceComputing,高性能计算SoC:SystemonChip,单片系统FLOPS:FloatingPointOperationsPerSecond,每秒浮点运算次数,用于衡量硬件性能SM:StreamingMultiprocessor,流多处理器QoS:QualityofService,服务质量MI
johnny233
·
2025-06-09 03:28
gpu算力
在Linux系统上安装
NVIDIA
显卡驱动的终极指南
在Linux系统上安装
NVIDIA
显卡驱动的终极指南前言在Linux环境下安装
NVIDIA
显卡驱动是许多用户(尤其是开发者、游戏玩家和AI研究人员)的必经之路。
酷爱码
·
2025-06-08 19:33
服务器相关教程
linux
运维
服务器
Xbox:Xbox发展历史与文化_2024-07-19_19-00-40.Tex
它采用了Intel的PentiumIII处理器,
NVIDIA
的GeForce3GPU,以及8GB的硬盘,这些配置在当时是相当先
chenjj4003
·
2025-06-08 04:15
游戏开发
xbox
人工智能
游戏
vr
游戏引擎
php
开发语言
linux服务器测试
NVIDIA
显卡性能
1.测试环境一台Linux服务器电脑(可联网)
NVIDIA
显卡注意:仅仅测试浮点运算性能和内存带宽2.安装测试软件2.1检查驱动版本输入指令
nvidia
-smi,主要是判断显卡驱动有没有安装。
我是谁??
·
2025-06-07 05:39
Linux
人工智能
服务器
linux
运维
【PyTorch】CUDA基础知识
NVIDIA
CUDA显卡中包含一个GPU,它能够以高度并行化的方式实现矩阵乘法。在很长一段时间,英伟达(
NVIDIA
)的GPU市场份额一直保持领先。他们有一套成熟的软件工具,可以充分利用硬件加速。
沐兮Krystal
·
2025-06-07 05:08
NLP
pytorch
深度学习
python
Ubuntu22.04安装MinkowskiEngine
MinkowskiEngine安装官方源码链接:GitHub-
NVIDIA
/MinkowskiEngine:MinkowskiEngineisanauto-diffneuralnetworklibraryforhigh-dimensionalspa
·
2025-06-06 23:57
pytorch的cuda版本依据nvcc --version与
nvidia
-smi
命令:nvcc--version示例输出:nvcc:
NVIDIA
®Cudacompilerversion11.7.99意义:这是PyTorch实际编译时使用的CUDA版本。如果PyTorch是用
Raina Chen
·
2025-06-04 13:04
pytorch
人工智能
python
NVIDIA
英伟达AI图片视频内容描述总结软件describe-anything整合包
和大家分享一个英伟达联合其他大学开发的一款应用describe-anything,该应用可以通过AI识别分析并详细描述图片视频中指定区域物体内容,我基于最新版制作了免安装一键启动整合包,下载链接在文章末尾。describe-anything介绍DescribeAnythingModel(DAM)是由英伟达联合加州大学伯克利分校等机构开发的开源多模态大语言模型(3B参数),专注于为图像或视频中的任意
漫游者Nova
·
2025-06-04 10:44
工具分享
人工智能
图片总结
视频总结
内容描述
nvidia
-device-plugin实现gpu虚拟化
简介
NVIDIA
deviceplugin是以dameonset方式部署到k8s集群,部署后可以实现:暴露集群中n每个node节点的gpu数量跟踪gpu健康状态可以在k8s集群中运行gpu容器前置条件
NVIDIA
drivers
riverz1227
·
2025-06-04 09:34
gpu虚拟化
k8s
gpu算力
服务器断电开机后无法使用
nvidia
显卡驱动
从lsattr的输出结果看,/usr/bin/
nvidia
-smi只有a(append-only)和e(extents)属性,其中a(只允许追加写入)是导致无法修改或删除它的原因。
coding record
·
2025-06-04 07:48
服务器
linux
运维
# 使用 Micromamba 安装 vLLM 并运行最小模型(facebook/opt-125m)
️环境准备系统:UbuntuPython版本:3.10包管理器:MicromambaGPU:
NVIDIA
(CUDA支持)创建环境并安装vLLM#创建micromamba环境micromambacreate-nvllmpython
老大白菜
·
2025-06-03 22:14
机器学习
人工智能
python
python
自动混合精度(AMP)训练在低版本显卡上的使用问题
AMPtrainingon
NVIDIA
GeForceGTX1660SUPERGPUmaycauseNaNlossesorzero-mAPresults,soAMPwillbedisabledduringtraining
shangjg3
·
2025-06-03 16:57
Pytorch
人工智能
Ubuntu20.04CUDA及cuDNN安装教程
以下是针对Ubuntu20.04安装CUDA和cuDNN的详细教程,包含版本选择、步骤解释、验证方法及常见问题解决方案:一、安装前的准备1.硬件与系统要求GPU支持:确保你的
NVIDIA
GPU支持CUDA
吃旺旺雪饼的小男孩
·
2025-06-02 10:26
linux
ubuntu
深度学习
pytorch
tensorflow
linux
CUDA 工具链将全面原生支持 Python
根据
NVIDIA
在2025年GTC大会上的官宣,CUDA工具链将全面原生支持Python编程,这一重大更新旨在降低GPU编程门槛,吸引更广泛的Python开发者进入CUDA生态。
自不量力的A同学
·
2025-06-01 07:40
python
开发语言
【实战分享】TensorRT+LLM:大模型推理性能优化初探
github:https://github.com/
NVIDIA
/TensorRT-LLM/tree/main1.介绍TensorRT-LLM可以视为TensorRT和FastTransformer的结合体
fengbeely
·
2025-06-01 06:02
java
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他