E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
GPU
教程之开始在 Python 中快速使用
GPU
进行数据科学项目(教程含源码)
GPU
已被证明在加速大规模计算方面非常强大,但是,有时正确配置和设置完整的
GPU
环境可能会很棘手。幸运的是,有一些开源工具专门用于简化
GPU
的软件配置,包括驱动程序和数据科学库。
知识大胖
·
2025-04-10 02:58
先进生产力工具大全
Python源码大全
python
深度学习
开发语言
手把手教你在 Windows10 本地部署 ChatGLM
✅一、部署准备1.1硬件要求操作系统:Windows10显卡:建议使用支持
CUDA
的NVIDIA显卡(如RTX3060以
annus mirabilis
·
2025-04-09 22:59
AI实战
ChatGLM
ai
本地部署
人工智能
五分钟使用ollama部署本地大模型
ollama对于环境的要求,需要python3.8及以上的版本,如果需要使用
GPU
进行加速,还需要nNAVIDIA显卡和
CUDA
驱动。2、ollama安装本次分享基于linux系统操作,其他系统按
知其_所以然
·
2025-04-09 19:38
ollama
大模型
docker
llama
重识 APO:DeepSeek 掀起可观性领域变革 | 龙蜥生态
云观秋毫作为龙蜥社区系统运维联盟成员单位,提供了基于eBPF实现的北极星指标和故障排查工作流,龙蜥社区系统运维SIG也会基于SysOM进行ContinuesProfiling的大规模数据分析、AI火焰图分析等工作流,帮助进行CPU&
GPU
·
2025-04-09 17:40
操作系统开源
第T7周:咖啡豆识别
文为「365天深度学习训练营」内部文章参考本文所写文章,请在文章开头带上「声明」1.设置
GPU
importtensorflowastf
gpu
s=tf.config.list_physical_devices
weixin_50792991
·
2025-04-09 17:55
python
T8 咖啡豆识别
文为「365天深度学习训练营」内部文章参考本文所写文章,请在文章开头带上「声明」importtensorflowastf
gpu
s=tf.config.list_physical_devices("
GPU
weixin_50792991
·
2025-04-09 17:55
python
python3.7安装tensorflow-
gpu
_tensorflow-
gpu
安装的常见问题及解决方案
装tensorflow-
gpu
的时候经常遇到问题,自己装过几次,经常遇到相同或者类似的问题,所以打算记录一下,也希望对其他人有所帮助基本信息tensorflow-
gpu
pip安装(virtualenv等虚拟安装实质也是
weixin_39731922
·
2025-04-09 15:12
A100架构解析:超算集群效能跃迁与数据处理范式重构
内容概要NVIDIAA100
GPU
作为第三代TensorCore架构的集大成者,其创新设计正在重塑高性能计算与人工智能的基础设施逻辑。
智能计算研究中心
·
2025-04-09 14:40
其他
Python----TensorFlow(TensorFlow介绍,安装,主要模块,高级功能)
TensorFlow可以在Windows、Linux和macOS等操作系统上运行,同时也支持Android和iOS移动平台,还能在多个CPU/
GPU
构
蹦蹦跳跳真可爱589
·
2025-04-09 14:40
Python
机器学习
TensorFlow
python
机器学习
tensorflow
人工智能
适用于 NVIDIA Blackwell 架构的全新软件驱动 AI 工厂高速运行
该软件可将
GPU
利用率提高5倍,并提高各种规模的训练和推理效率。蒸汽推动了工业时代的发展,数字时代通过软件带来了转变。
NVIDIA AI技术专区
·
2025-04-09 07:27
人工智能
【探商宝】 Llama 4--技术突破与争议并存的开源多模态
例如:Llama4Scout(中杯):16位专家,17B活跃参数,总参数量109B,单张H100
GPU
可运行INT4量化版本,支持1000万上下文窗口(约2000万字)。
探熵科技
·
2025-04-09 03:59
人工智能
唤醒 AI 算力,专有云 ABC Stack 面向企业级智算平台的
GPU
提效实践
从「建好」到「用好」,企业级智算平台借助专有云ABCStack的
GPU
提效服务,应对大模型业务挑战,唤醒AI算力,加速AI原生业务的落地。
·
2025-04-08 11:22
百度
深入应用FPGA的人形机器人控制系统设计思路
深入应用FPGA的人形机器人控制系统设计思路主要包括以下几个方面:总体架构设计异构融合架构:采用CPU、
GPU
与FPGA异构融合的架构,充分发挥各硬件的优势。
程序员Thomas
·
2025-04-08 10:34
机器人
FPGA
机器人
FPGA
亚马逊多账号风控防护体系构建指南
一、复合型环境隔离技术解析1.1硬件指纹防护体系主板级防护:建议采用TPM2.0安全芯片存储设备指纹(如IntelvPro技术)显卡特征混淆:通过OpenGL指令集重定向实现
GPU
指纹动态化时钟偏移技术
跨境卫士情报站
·
2025-04-08 05:03
经验分享
FPGA 2 ,FPGA与CPU
GPU
APU DSP NPU TPU 之间的关系与区别
目录前言首先,FPGA与CPU
GPU
APUNPUTPUDSP这些不同类型的处理器,可以被统称为"处理器"或者"加速器"。
北城笑笑
·
2025-04-08 04:59
FPGA
fpga
fpga开发
Ubuntu 16.04 +
CUDA
8.0 + cuDNN v5.1 + TensorFlow(
GPU
support)安装配置详解
转载:https://www.cnblogs.com/wangduo/p/7383989.htmlUbuntu16.04+
CUDA
8.0+cuDNNv5.1+TensorFlow(
GPU
support)
caiexu
·
2025-04-08 04:55
Tensorflow
关于
CUDA
的一些名词解释
显卡
GPU
显卡是硬件设备,也就是
GPU
,主要用于图形计算和高性能并行计算任务,目前尤其指NVIDIA公司生产的
GPU
系列。
皮卡兔子屋
·
2025-04-08 01:10
深度学习
#环境配置
gpu算力
pytorch
人工智能
DeepSeek开源库DeepGEMM 性能测评
用
CUDA
编写,安装时无需编译,通过轻量级即时(JIT)模块在运行时编译所有内核。目前仅支持NVIDIAHopper张量核心,采用
CUDA
核心两级积累(提升)解决FP8张量核心积累不精确问题。
ZVAyIVqt0UFji
·
2025-04-08 00:30
Ubuntu 20.04息屏后唤醒系统死机处理方法
相关错误信息如下:journalctl-b-1|grep-i"suspend\|resume\|error\|fail"8月2809:15:26bowkernel:nvidia-modeset:ERROR:
GPU
霹雳山人
·
2025-04-07 21:14
linux系统
ubuntu
linux
运维
详解 JuiceFS 在多云架构下的数据同步与一致性
随着大模型流行,
GPU
算力资源正变得日益稀缺,传统的“算力跟着存储跑”的策略需要转变为“存储跟着算力跑”。
Juicedata
·
2025-04-07 21:10
架构
数据库
NPU 310、310P和
GPU
4090推理耗时对比
华为310、310P、
GPU
4090推理性能耗时对比:测试图像大小为:300*300推理卡名字单张推理耗时310100ms310P50ms409060msbatch推理耗时对比:310310P4090batch
JobDocLS
·
2025-04-07 20:07
人工智能
D1084:5A大电流可调低压差稳压器深度解析
产品定位D1084是我们推出的5A大电流三端稳压器,支持1.5V-5.0V固定输出或1.25V基准可调输出,典型压降仅1.4V(5A时),专为高性能CPU/
GPU
供电设计。
青牛科技-Allen
·
2025-04-07 19:34
芯谷
单片机
嵌入式硬件
筋膜枪
电动工具
吸尘器
计算机系统---性能指标(1)CPU与
GPU
一、计算机CPU的性能指标1.架构设计(Architecture)指令集架构(ISA)x86架构(CISC复杂指令集):Intel/AMD主流架构,兼容Windows生态,代表产品如Intel酷睿、AMD锐龙,支持超线程(HT)和多线程技术。ARM架构(RISC精简指令集):低功耗优势,用于移动设备(如手机、平板)及服务器(如AppleM系列、QualcommSnapdragon),通过动态指令翻
MzKyle
·
2025-04-07 17:46
计算机系统
计算机
关于funasr模型api调用
使用PYTHONAPI.PY即可启动sensevoice的API服务具体代码如下:#Setthedevicewithenvironment,defaultis
cuda
:0#exportSENSEVOICE_DEV
ddyzqddwb
·
2025-04-07 13:24
大语言模型及应用
python
windows
开发语言
显卡、显卡驱动、
cuda
、cuDNN之间关系
显卡、显卡驱动、
CUDA
和cuDNN是构成高性能计算和深度学习环境的关键组件,它们之间有着紧密的联系。
ergevv
·
2025-04-07 08:54
AI
显卡
显卡驱动
cuda
cuDNN
[machine learning] Triton Server & TensorRT
一、TritonServer1.1架构介绍Triton是一个高性能的推理软件框架,它既支持
GPU
推理,又支持CPU推理,既能部署在server上,也能部署在端侧设备上。
进阶的小蜉蝣
·
2025-04-07 05:04
machine
learning
机器学习
人工智能
Unity 性能优化方案
Unity性能优化的主要方案包括以下几个方面:一、减少DrawCallDrawCall就是CPU调用图形编程接口,是CPU向
GPU
发送的命令1.CPU和
GPU
并行工作的原理CPU和
GPU
工作有一个命令缓冲区
_乐无
·
2025-04-06 23:25
unity
性能优化
游戏引擎
llama.cpp 和 vLLM 的详细对比分析
llama.cpp和vLLM的详细对比分析,基于最新技术动态(2025年4月)整理:1.核心定位维度llama.cppvLLM设计目标轻量化边缘计算,突破硬件限制(如手机/树莓派)企业级高性能推理,优化
GPU
MC数据局
·
2025-04-06 23:53
llama
vllm
大模型
deepseek
Unity中优化绘制调用整理
DrawCall指的是CPU向
GPU
发送渲染指令的过程,在Unity中,每次渲染一个网格时,CPU都需要向
GPU
发送一系列的渲染指令,这个过程被称为一次绘制调用(DrawCall)。
浅陌sss
·
2025-04-06 23:22
游戏优化
unity
游戏引擎
GPU
上的 Reduction(归约)和 Scan(前缀和)优化:LLVM、
GPU
指令集与架构差异
在
GPU
上进行Reduction(归约)和Scan(前缀和)运算,如果想要最大化性能,不仅仅是写一个Kernel就完事了,还需要深入了解:LLVM优化机制
GPU
指令集(如shuffle、DPP、LDS、
codebat_raymond
·
2025-04-06 22:17
java
大数据
linux
芯片介绍-RK3399微处理器
支持多操作系统:二、规格参数一、产品简介一、六核64位高性能一体板AIO-3399JD4一体板采用RK3399六核64位(A72×2+A53×4)处理器,主频高达1.8GHz,集成四核Mali-T860
GPU
漂泊在海上的星星
·
2025-04-06 19:59
linux-驱动开发
污点(Taint)和容忍度(Toleration)存在的意义和需求
和容忍度(Toleration)机制被引入主要是为了满足对集群资源更精细的调度和管理需求,以下从多个方面详细阐述它们出现的原因:节点资源隔离特殊硬件资源节点:在集群里,有些节点可能配备了特殊的硬件资源,像
GPU
网络飞鸥
·
2025-04-06 18:23
Kubernetes
kubernetes
一文详解张量并行Tensor parallel的概念和原理应用
张量并行概念张量并行(TensorParallelism)是一种模型并行技术,其核心思想是将模型的张量操作(如矩阵乘法、注意力计算等)拆分成多个子任务,分配到不同设备(如
GPU
)上并行执行。
OpenAppAI
·
2025-04-06 17:15
vLLM
张量并行
Tensor
parallel
计算加速技术比较分析:
GPU
、FPGA、ASIC、TPU与NPU的技术特性、应用场景及产业生态
本文将深入剖析五类主要计算加速器——
GPU
、FPGA、AS
deephub
·
2025-04-06 15:33
人工智能
深度学习
计算加速
GPU
Jetson orin nano(4GB--CLB套件)的烧录以及部署YoloV5与Deepstream的流程,同时分享一些实用软件。
blog.csdn.net/jam12315/article/details/130264074Jetson:jetsonorinnano(4GB)Jetpack:5.1.3Deepstream:6.3
CUDA
ZJS-Dp
·
2025-04-06 14:58
YOLO
嵌入式硬件
CUDA
学习--体验
GPU
性能
学习来源:2
CUDA
Python--并行计算基础-卷积计算以及共享内存_哔哩哔哩_bilibili处理一张图片的处理速度对比importcv2fromnumbaimport
cuda
importtimeimportmath
停走的风
·
2025-04-06 13:23
李沫深度学习
学习
python
cuda
jetson orin nano学习(torch+OpenCV+yolov5+)
一:入门第一件事:跟着商家教程配置哈哈指令:nvidia-smi-h帮助命令sudojtop--查看nvidia的
gpu
状态Tip:教程下载的pytorth,
cuda
,cudnn版本不一定是你项目符合的
停走的风
·
2025-04-06 13:22
jetson学习
学习
cuda
jetson
【大模型】微调一个大模型需要多少
GPU
显存?
视频链接:微调一个模型需要多少
GPU
显存?
酒酿小圆子~
·
2025-04-06 13:50
大模型
python
算法
开发语言
OpenGL(三)着色器语言GLSL
着色器语言在
GPU
上运行的图形渲染语言,类C风格。
战术摸鱼大师
·
2025-04-06 09:53
桌面开发
着色器
七、OpenGL ES 着色器语言GLSL
一、关于着色器着色器(Shader)是在
GPU
上运行的小程序。从名称可以看出,可通过处理它们来处理顶点。此程序使用OpenGLESSL语言来编写。它是一个描述顶点或像素特性的简单程序。
mChenys
·
2025-04-06 09:53
opengl
GPU
编程实战指南04:
CUDA
编程示例,使用共享内存优化性能
在
CUDA
编程中,共享内存(SharedMemory)比全局内存(GlobalMemory)效率高的原因主要与
CUDA
的硬件架构和内存访问特性密切相关。
anda0109
·
2025-04-06 07:10
CUDA并行编程
gpu算力
AI编程
ai
深度剖析英伟达 GTC 2025:开启 AI 与计算的新纪元
一、盛会启幕,行业聚焦在科技飞速发展的当下,英伟达年度技术盛会GTC(
GPU
TechnologyConference)无疑是全球AI与计算领域的顶级盛宴。
代码世界的浪客
·
2025-04-06 06:33
技术头条热点
人工智能
大数据
使用 AMD
GPU
加速推理的投机采样
SpeedUpTextGenerationwithSpeculativeSamplingonAMD
GPU
s—ROCmBlogs随着变压器模型的规模增长,进行推理的成本也在增加,影响了延迟和吞吐量。
109702008
·
2025-04-06 06:32
#
ROCm
人工智能
从渲染原理剖析如何提高 Flutter 应用性能
本文将主要讲讨论UI线程中的性能优化,由于
GPU
线程涉及底层Skia图形引擎的调用,相较于UI线程而言更加繁琐,对其感兴趣的同学可以观看Google官方的《深入了解Flutter的高性能图形渲染》。
鹅肝手握高V五色
·
2025-04-06 05:55
http
udp
https
websocket
网络安全
网络协议
tcp/ip
pytorch1.2.0
GPU
安装
1.创建框架环境cmd窗口输入:condacreate-npytorch1.2.0python=3.6.52.激活环境condaactivatepytorch1.2.03.安装框架pipinstalltorch=1.2.0torchvision=0.4.0-fhttps://download.pytorch.org/whl/torch_stable.html
缘来也不错
·
2025-04-06 05:23
pytorch
python
深度学习
【
Cuda
编程思想】
CUDA
线程执行原理
CUDA
线程执行原理
CUDA
的线程执行原理是理解
GPU
并行计算的基础。
Mr.Lee jack
·
2025-04-06 04:51
cuda
开发语言
c++
cuda
deepseek开源周的所有项目总结报告
以下是对这五个项目的详细总结报告:1.FlashMLA(2月24日发布)FlashMLA是DeepSeek首个开源的代码库,针对NVIDIAHopper架构
GPU
(如H800)优化的高效多层注意力(MLA
LisaHusband
·
2025-04-06 03:40
开源
人工智能
笔记
deepseek
业界资讯
(本地
GPU
vs 云计算 vs 端侧 AI)
本文将详细介绍如何在本地
GPU
、云计算以及端侧AI环境中部署私有AI大模型,并给出具体实战操作指南。
晴天彩虹雨
·
2025-04-06 03:38
AI
大模型
人工智能
云计算
ai
解决:
CUDA
error: no kernel image is available for execution on the device
CUDA
kernel errors
这个错误表明
CUDA
设备(
GPU
)无法执行当前的PyTorch操作,通常是因为PyTorch版本与
CUDA
驱动不兼容,或者
GPU
计算能力不被支持。
Dawn³
·
2025-04-05 23:13
工具
python
下载 MindSpore &配置 PyTorch环境
以下是下载MindSpore并配置PyTorch环境的详细步骤,适用于常见的Linux/Windows系统(以NVIDIA
GPU
为例):一、环境准备1.硬件与软件检查
GPU
支持:确保使用NVIDIA显卡
Dawn³
·
2025-04-05 23:13
Interestes
pytorch
人工智能
python
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他