E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
深入浅出谈
cuda
CUDA
深入浅出谈“
CUDA
是NVIDIA的GP
GPU
模型,它使用C语言为基础,可以直接以大多数人熟悉的C语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。”
向前一一步走
·
2025-04-18 11:49
cuda
cuda
gpu
YOLOV8 OBB 海思3516训练流程
YOLOV8OBB海思3516训练流程1、下载带
GPU
版本的torch(可选)32、安装ultralytics33、下载pycharm社区版44、安装pycharm55、新建pycharm工程56、添加
绕灵儿
·
2025-04-18 10:43
YOLO
pytorch-lightning使用笔记
(howtodownload(),tokenize,etc…)在这个方法中处理需要写入磁盘或者需要单进程完成的任务setup(howtosplit,etc…)一些dataoperations希望在每块
GPU
真炎破天
·
2025-04-18 09:09
深度学习基础知识
nlp
pytorch
深度学习
多网卡场景智能路由新思路:批量自动配置?
Linux多网卡场景的路由当传统路由设置方法在智算环境下失效,一个可行的应对方式是提前规划
GPU
服务器内的路由,借助Linux的多路由表和策略机制实现更加灵活、精细的流量控制和路由管理功能,但也伴随着一定的复杂性和潜在风险
星融元asterfusion
·
2025-04-18 06:44
网络
linux
运维
开源项目faster-whisper和whisper是啥关系
它在准确率方面表现出色,但同时其参数众多、计算资源占用较大,常常需要
GPU
才能较快运行;如果直接在CPU上使用,则运行速度较慢,并且在处理长音频时容易出现“幻听”问题(模型生成冗余或不恰当的转写)。
@程序员小袁
·
2025-04-17 21:22
开源项目
AI
大模型
whisper
用pytorch创建tensor,tensor的操作
importtorchimportnumpyasnpprint(torch.
cuda
.is_available())print(torch.
胡萝卜糊了
·
2025-04-17 20:13
pytorch
人工智能
python
英伟达
CUDA
原生Python支持革命:手把手教你用Python直接操控
GPU
加速计算
英伟达
CUDA
原生Python支持革命:手把手教你用Python直接操控
GPU
加速计算重磅消息!2025年GTC大会宣布:
CUDA
现在原生支持Python了!这意味着什么?
emmm形成中
·
2025-04-17 19:08
python应用实操
python
人工智能
开发语言
GPU
算力:驱动数字时代的核心引擎(下篇)
接上篇,
GPU
算力正以破竹之势渗透更多关键领域,成为产业升级的核心驱动力。本文将继续解析其在金融科技、智能制造等领域的深度应用,并揭秘劲速云如何构建"触手可及"的顶尖算力生态。
·
2025-04-17 12:54
GPU
算力:驱动数字时代的核心引擎(上篇)
当传统CPU面对大规模并行计算力不从心时,
GPU
算力以其独特优势,成为推动各行业突破的关键力量。本文将解析
GPU
算力本质,揭秘其核心应用。
·
2025-04-17 11:51
3DGS之渲染管线
渲染管线(RenderingPipeline)是计算机图形学中将三维场景转换为二维屏幕图像的核心流程,涉及CPU与
GPU
的分工协作。
whuzhang16
·
2025-04-17 09:02
自动驾驶
3d
手机性能全解析:从CPU到屏幕分辨率的选购指南
CPU与
GPU
:处理器背后的故事在日常接触手机时,我们常常听到诸如MTK、高通、海思等处理器品牌,以及HelioP10、骁龙820、麒麟960等处理器
2501_91510632
·
2025-04-17 07:44
https
网络安全
网络协议
tcp/ip
明明安装了pytorch,import torch时却显示error
查了,说是这几个原因:原因1:pytorch,
cuda
,python版本不兼容原因2:未正确创建虚拟环境或环境内未正确下载pytorch包原因3:pycharm内没有选择对应环境(解释器)导致找不到包(
m0_61178500
·
2025-04-17 06:41
pytorch
人工智能
python
OBS 中不同编码器的预设作用与设置方法详解
更快的预设(如ultrafast):占用更少CPU/
GPU
,速度更快,但压缩率较低、画质较差。更慢的
吃面不喝汤66
·
2025-04-17 05:33
OBS二次开发
ffmpeg
PyTorch的benchmark模块
•Timer类:精确测量代码运行时间,支持CPU/
GPU
时间统计,并自动处理
CUDA
异步执行的同步问题。fromtorch.u
小小毛桃
·
2025-04-17 01:40
实用教程
pytorch
人工智能
python
Gpu
Geek:重构AI算力基础设施,赋能产业智能升级
Gpu
Geek凭借创新的技术架构和运营模式,重新定义了AI算力服务的价值边界,为算法工程师和企业用户构建了集弹性算力、开发工具和模型生态于一体的新一代AI基础设施平台。
Newfocus!
·
2025-04-17 01:10
emacs
人工智能
python manimgl数学动画演示_微积分_线性代数原理_ubuntu安装问题[已解决]
1.背景最近调研pythonopencv,
cuda
加速矩阵/向量运算,对于矩阵的线性变换,秩,转秩,行列式变化等概概念模糊不清.大概课本依旧是天书,于是上B站搜索线性代数,看到3Blue1Brown线性变换本质视频
北极星6号
·
2025-04-16 23:52
python
ubuntu
ubuntu
python
manimgl
数学动画
opengl
云原生周刊:K8s 中的
GPU
共享
开源项目推荐A2AGoogle的Agent2Agent(A2A)协议是一个开源标准,旨在促进不同框架和供应商构建的AI代理之间的互操作性。它允许代理通过统一的协议安全地交换信息、协同执行任务,并在多种企业平台和云环境中无缝协作。A2A的设计遵循五大原则:支持代理的自然协作方式、构建于现有标准之上、默认安全、支持长时间任务以及支持多种交互方式(如文本、音频、视频)。该协议通过“AgentCard”机
KubeSphere 云原生
·
2025-04-16 21:40
云原生
kubernetes
容器
在ARM架构Mac上部署Python 3.12与Conda环境的全链路指南!!!
环境的全链路指南(M1/M2芯片实测|含性能调优+避坑手册)核心价值点•原生ARM支持:突破Rosetta转译的性能损耗•环境隔离:Conda虚拟环境管理+多版本Python共存方案•工业级优化:Metal
GPU
小丁学Java
·
2025-04-16 20:36
python
arm开发
架构
macos
大模型训练显存压缩实战:ZeRO-3 vs 梯度累积 vs 量化混合策略
一、显存瓶颈的本质与挑战大模型训练面临的核心矛盾是模型参数量指数级增长与
GPU
显存容量线性提升之间的鸿沟。
学术猿之吻
·
2025-04-16 10:02
高校
GPU
人工智能
深度学习
人工智能
架构
数据结构
ai
gpu算力
【收藏】KVM
GPU
虚拟化技术
一、基础概念与实现方式
GPU
虚拟化是指将物理
GPU
资源分配给虚拟机,以提高图形处理性能和计算能力。KVM支持多种
GPU
虚拟化方式,包括直通模式、SR-IOV和半虚拟化。
玄学魔术师
·
2025-04-16 09:27
人工智能
操作系统
gpu算力
服务器
人工智能
ai
DeepSeek-R1 私有化部署 ubuntu22.04 3060显卡
减少
GPU
依赖:DeepSeek有效降低了大规模训练对
GPU
资源的依赖,推动了AI产业链的重塑。国际
第十人i
·
2025-04-16 09:26
deepseek
deepseek
ubuntu
deepseek
私有化部署
利用多
GPU
计算探索量子无序及AI拓展
量子无序系统的领域是凝聚态物理学中一个引人入胜的前沿。与它们完全有序的对应物不同,这些材料表现出量子力学和内在随机性的复杂相互作用,导致了许多令人着迷且常常难以理解的行为。量子自旋玻璃就是一个典型的例子,在这种系统中,磁矩(自旋)随机耦合,导致了一个“受挫”的能量landscape和许多竞争的基态。理解这些系统的临界性质不仅具有基础科学意义上的重要性,而且对于新兴的量子计算领域,特别是在量子退火解
亚图跨际
·
2025-04-16 06:35
物理
数学
算法
人工智能
量子计算
性能优化实践
而现代API(如Web
GPU
)通过更底层的硬件控制和并行计算能力显著提升了性能与稳定性。以下从技术对比、优化策略和案例分析三个方面展开。技术对比:We
Eqwaak00
·
2025-04-16 06:33
分布式系统设计实战
量子计算
python
开发语言
人工智能
分布式
Xtuner微调大模型
下载模型2.3微调准备2.3.1创建微调训练配置文件2.3.2修改微调训练配置文件2.4微调训练2.5模型转换2.6模型合并Xtuner微调大模型环境背景:Ubuntu24.04系统+Python3.10+
Cuda
12.4
CodeSilence
·
2025-04-16 01:58
大模型
python
ubuntu
python
xtuner
微调大模型
ubuntu
GPU
服务器声音很响可以怎么处理
当
GPU
服务器运行时噪音过大,通常是由于高负载下散热风扇高速运转所致。
会飞的土拨鼠呀
·
2025-04-15 22:11
运维学习笔记
服务器
运维
cv::
cuda
::
Gpu
Mat 中的 flags、data、refcount、datastart、dataend 和 allocator 含义
在OpenCV的cv::
cuda
::
Gpu
Mat类中,成员变量flags、data、refcount、datastart、dataend和allocator分别承担不同的角色,以下是对它们的详细解析:1
Ring__Rain
·
2025-04-15 21:36
c++
Opencv
【架构解析】深入浅析DeepSeek-V3的技术架构_deepseek 参数
运行这个DeepSeek-V3需要的显存资源,我先去找更大的
GPU
VM去了…一、DeepSeek-V3的架构详解1.模型总体概述DeepSeek-V3是一款采用Mixture-of-Experts(MoE
程序员一粟
·
2025-04-15 21:06
架构
数据库
人工智能
ssh
运维
重构
AIGC
云原生周刊:K8s 中的
GPU
共享
开源项目推荐A2AGoogle的Agent2Agent(A2A)协议是一个开源标准,旨在促进不同框架和供应商构建的AI代理之间的互操作性。它允许代理通过统一的协议安全地交换信息、协同执行任务,并在多种企业平台和云环境中无缝协作。A2A的设计遵循五大原则:支持代理的自然协作方式、构建于现有标准之上、默认安全、支持长时间任务以及支持多种交互方式(如文本、音频、视频)。该协议通过“AgentCard”机
·
2025-04-15 17:14
云计算
云算力:重塑各行业数字化转型的核心引擎(上篇)
当摩尔定律逼近物理极限,
GPU
并行计算与云服务的融合催生算力革命。云算力以按需付费、弹性扩展的模式打破物理边界,让顶尖算力触达全行业。
·
2025-04-15 13:40
一文剖析AI大模型技术架构的全景视图:从基础实施层、云原生层、模型层、应用技术层、能力层、到应用层
一、基础设施层AI大模型技术发展离不开坚实的基础设施支持,涵盖了
GPU
、CPU、RAM、HDD、Network等关键硬件
程序猿李巡天
·
2025-04-15 11:34
人工智能
架构
云原生
设计模式
react.js
语言模型
自然语言处理
AMGCL库的Backends及使用示例
AMGCL支持的主要Backends内置Backends:builtin-默认的纯C++实现block-支持块状矩阵并行计算Backends:openmp-基于OpenMP的并行实现
cuda
-NVIDIA
CUDA
东北豆子哥
·
2025-04-15 08:15
HPC/MPI
HPC
3DGS中的光栅化渲染过程(结合代码)
使用
GPU
上的Radix排序算法对所有实例化的高斯进行排序,主要依据它们的
蓝羽飞鸟
·
2025-04-15 05:49
DeepLearning
3d
计算机视觉
人工智能
torch 计算流stream
importtorch#创建两个流stream1=torch.
cuda
.Stream()stream2=torch.
cuda
.Stream()#使用流进行操作withtorch.
cuda
.stream(
AI算法网奇
·
2025-04-15 05:19
python基础
pytorch
深度学习
python
LearnOpenGL学习(高级OpenGL - - 实例化,抗锯齿)
实例化技术本质上是减少了数据从CPU到
GPU
的传输次数。实例化这项技术能够让我们使用一个渲染调用来绘制多个物体,来节省每次绘制物体时CPU->
GPU
的通信,它只需要一次即可。
zaizai1007
·
2025-04-15 01:23
OpenGL
OpenGL
2024pytorch小土堆安装教程(
GPU
),踩坑总结
目录2024pytorch小土堆安装教程(
GPU
),踩坑总结本人小白,应老师要求自学深度学习,跟着b站up小土堆老师学习深度学习,第一节课是安装pytorch,在历经三次失败后才获得成功,于是决心写下自己的总结以供大家参考借鉴
m0_hgwxx
·
2025-04-14 22:36
pytorch
【李宏毅深度学习——回归模型的PyTorch架构】Homework 1:COVID-19 Cases Prediction (Regression)
目录1、显示NVIDIA
GPU
的状态信息2、数据集的两种不同的下载方式3、导入相关库4、三个工具函数5、定义自己的数据集类6、定义神经网络模型7、定义选择特征的函数8、训练过程9、超参数字典config10
AI的Learner
·
2025-04-14 22:35
深度学习
深度学习
人工智能
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载
cuda
驱动https://developer.nvidia.com/
cuda
-downloadsOllamaOllama官方版:https
小陈运维
·
2025-04-14 20:19
腾讯逆袭!发布混元T1正式版,实战不输DeepSeek-R1,便宜3/4|黄仁勋为什么一边笑着“认错”,一边给量子计算站台?
智能体不但是AI领域核心,更可能引发科学范式重大变革25万
GPU
,估值350亿美元冲刺IPO,财务定时炸弹,GenAI不祥之兆元宝“粘”不过豆包OpenAI语音智能体诞生,怼脸实拍语气狂到飞起,API降到每分钟
gzu_01
·
2025-04-14 20:48
量子计算
人工智能
比ollama还强大的LocalAI:解锁本地化AI模型部署教程
不需要
GPU
。它由EttoreDiGiacinto创建和维护。对话界面生成音频模型概
泰山AI
·
2025-04-14 17:59
人工智能
localAI
AI
CUDA
安装教程
安装教程主要针对Linux(Ubuntu20.04)一、使用Docker镜像(推荐)打包好的
cuda
镜像https://hub.docker.com/r/nvidia/
cuda
https://catalog.ngc.nvidia.com
知行学思
·
2025-04-14 12:01
深度学习
DeepSeek 671B碾压o3-mini,登顶王位
它比现在最新的
GPU
还要快3倍,效率更是高了5倍!也就是说,它不仅能更快地完成任务,还能更省资源,简直是一台“性能怪兽”!更牛的是,DeepS
彭铖洋
·
2025-04-14 10:47
javascript
reactjs
【创建一个YOLO免环境训练包】
核心思路:使用PyTorch预编译版本:利用PyTorch官方提供的预编译包,它包含了
CUDA
动态库,从而避免了用户单独安装
CUDA
Toolkit。
TIF星空
·
2025-04-14 08:33
AI
YOLO
经验分享
python
AI编程
视觉检测
Opencv使用
cuda
实现图像处理
__}forpythoninstalledandworking')image=cv2.imread('bus.jpg')ifimageisNone:print("无法加载图像1")print(cv2.
cuda
.get
Cuda
EnabledDeviceCount
蔡余申
·
2025-04-14 07:30
opencv
人工智能
计算机视觉
NVIDIA Jetson AGX Xavier DeepSort tensorRT部署和加速 C++版
版本介绍:tensorrtx;Jetpack4.5[L4T32.5.0]、
CUDA
:10.2.89。Deepsort的原理参考我这篇文章:【论文解读】Sort、Deep-Sort多目
一颗小树x
·
2025-04-14 07:59
人工智能
YOLO目标检测
实践应用
c++
Jetson
Xavier
DeepSort
tensorRT
部署和加速
千户级2080Ti
GPU
局域网集群实现每户家庭虚拟本地部署DeepSeek-R1 671B详细
---##一、项目背景与目标###1.1项目背景-**社区资源整合**:利用1000户家庭闲置的NVIDIAGeForceRTX2080Ti显卡(11GB显存)构建分布式计算集群-**服务需求**:为每户家庭提供本地化虚拟部署的DeepSeek-R1671B大模型推理服务(参数量6710亿)-**技术挑战**:-显存限制:单卡11GB显存支撑千亿级模型-网络延迟:10Gbps局域网下的通信效率优化
icbcnetone
·
2025-04-14 01:18
网络
NLP高频面试题(三十七)——大模型训练和推理的显存估计
在训练和推理大型语言模型时,显存(
GPU
内存)的需求是一个关键考虑因素。准确估计这些需求有助于选择合适的硬件配置,确保模型高效运行。
Chaos_Wang_
·
2025-04-13 23:06
NLP/大模型八股
自然语言处理
人工智能
ubuntu20.04系统安装apollo10.0系统
文章目录前言一、安装基础软件1、更新相关软件2安装DockerEngine二、获取
GPU
支持1、安装显卡驱动2、安装Nvidiacontainertoolkit三、安装Apollo环境管理工具1、安装依赖软件
知识搬运工阿杰
·
2025-04-13 20:14
百度apollo
自动驾驶
1.1显存
显存是显卡(
GPU
)专用的高性能内存,负责存储渲染所需的纹理、帧缓冲、几何数据等。
chxii
·
2025-04-13 13:00
java
电脑
显卡
紫光展锐5G SoC T8300:影像升级,「定格」美好世界
紫光展锐专为全球主流用户打造的畅享影音和游戏体验的5GSoC——T8300,采用6nm工艺,八核CPU及双核
GPU
架构。
紫光展锐官方
·
2025-04-13 12:59
5G
android display 笔记(十一)surfaceflinger 如何将图层传到lcd驱动的呢?
SurfaceFlinger->>HWC:提交所有图层(Layer)HWC->>DRM/KMS:硬件合成(Overlay)或
GPU
合成DRM/KMS->>LCDDriver:配置显示控制器(CRTC/Encoder
那天的烟花雨
·
2025-04-13 12:27
android
笔记
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他