E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
如何判断IP是否被平台标记
示例命令:bashping8.8.8.8#检测延迟与丢包率traceroute8.8.8.8#定位网络瓶颈黑名单查询工具推荐:MXToolbox:检查IP是否被反垃圾邮件组织(如Spamhaus、Barra
cuda
IP管家
·
2025-05-14 20:34
网络
python
服务器
ip
tcp/ip
网络协议
玩转大模型的关键:
GPU
显存如何估算?一篇文章讲明白
基于此,我花费了一定时间,深入探究模型使用与
GPU
显卡配置之间的内在联系,并将研究所得整理记录下来。
GPU
显存容量的大小,在实际应用中起着关键作用。
大模型研究院
·
2025-05-14 08:17
职场和发展
langchain
AI大模型
AI
人工智能
大模型
GPU
当前有哪些用于深度学习的低成本的算力(
GPU
)租借平台?(适合学生党)
星海智算
GPU
算力云平台,释放您的计算潜力!在人工智能、深度学习、数据分析等高性能计算需求日益增长的今天,星海智算提供了一站式
GPU
算力云服务,助力企业和开发者轻松应对海量数据的挑战。
爱编程的小凯同学
·
2025-05-14 05:59
深度学习
人工智能
gpu算力
AI作画
stable
diffusion
chatgpt
AIGC
主流向量数据库整理总结(大语言模型必备)
支持实时搜索和批处理,兼容
GPU
加速。应用场景:图像/视频检索(如以图搜
yuanpan
·
2025-05-14 03:14
数据库
TinyML - 端侧智能革命及开源生态的深度指南
其核心技术特征包括:1.硬件适配性针对ARMCortex-M、ESP32等微控制器优化模型,突破传统AI对
GPU
/云端的依赖。例如,通过模型量化(如8位整数运算)和结构剪
星源~
·
2025-05-14 03:44
单片机
边缘计算
物联网
人工智能
【Linux】在Arm服务器源码编译onnxruntime-
gpu
的whl
服务器信息:aarch64架构ubuntu20.04nvidiaT4卡编译onnxruntime-
gpu
前置条件:已经安装合适的
cuda
已经安装合适的cudnn已经安装合适的cmake源码编译onnxruntime-
gpu
阿颖&阿伟
·
2025-05-13 20:31
【8-1】linux安装部署
服务器
linux
arm开发
Windows下的
GPU
虚拟化 -
GPU
-PV实现原理简介(1)
前言:说到
GPU
虚拟化,我们第一个可能想到就是VMware的
GPU
虚拟化技术VSGA,其本质上是一个基于指令流的
GPU
虚拟化技术,于2008年底VMware商业化Workstation6.5和Fusion2.0
NanosNanos
·
2025-05-13 15:28
windows
GPU
分区工具
GPU
P:在Windows上简化
GPU
虚拟化的教程
GPU
分区工具
GPU
P:在Windows上简化
GPU
虚拟化的教程
gpu
pAcommandtouploadphotosandmoviestoGooglePhotosLibraryusingtheofficialGooglePhotosLibraryAPI
伏崴帅
·
2025-05-13 15:55
BitNet b1.58 2B4T Technical Report
介绍了BitNetb1.582B4T,这是首个20亿参数规模的开源原生1比特大语言模型,在4万亿词元的语料库上进行训练,通过多种基准测试评估其性能,模型权重在HuggingFace上发布,并提供了针对
GPU
UnknownBody
·
2025-05-13 15:24
LLM
Daily
Technical
Report
人工智能
语言模型
微软开源1.58位大模型BitNet b1.58 2B4T:性能比肩全精度,CPU轻松跑!
它支持对1-bit/1.58-bit量化模型进行高效、低能耗的推理,兼容BitNet、Llama3-8B-1.58、Falcon3等模型,适用于在本地或边缘设备上运行大模型推理任务,无需
GPU
。
开源项目精选
·
2025-05-13 14:52
人工智能
使用阿里开源大模型通义千问Qwen进行推理
)已经安装ubutun22.04如何学习大模型技术赋能业务和垂直领域(1):安装双操作系统_大模型操作系统用windows还是linux-CSDN博客(2)Ubuntu安装英伟达Nvidia显卡驱动-
CUDA
-cuDNNUbuntu
云博士的AI课堂
·
2025-05-13 11:03
大模型技术开发与实践
大模型
开源大模型
Qwen
通义千问
Qwen2.5
Qwen2.5推理
大模型部署
shader性能优化总结
总结一下最近看到的shader性能优化策略:首先介绍下一个shader优化工具:glsl-optimizer一、计算量与计算频率相关的问题通过之前文章的学习,我们应该已经了解到
GPU
是流式处理器,其中的顶点着色单元会每顶点执行一次
沉默的舞台剧
·
2025-05-13 11:59
shader
GLSL
glsl
shader
Unity项目性能优化之Shader
当多个对象使用不同的材质时,
GPU
需要多次切换状态,这会影响性能。通过合并多个材质的
你一身傲骨怎能输
·
2025-05-13 11:59
Shader
Shader优化
llama.cpp无法使用
gpu
的问题
使用
cuda
编译llama.cpp后,仍然无法使用
gpu
。./llama-server-m../../../../..
米有哥
·
2025-05-13 05:22
llama
智能座舱车机芯片性能对比表以及参数解析(包含SA8295P)
智能座舱车机芯片的表格:芯片型号CPU(DMIPS)
GPU
(GFLOPS)NPU(TOPS)适用车型骁龙SA8295220K310030(可解锁至60)多款高端车型骁龙SA8155105K11424多款中高端车型龙鹰一号
空间机器人
·
2025-05-13 02:05
高通SA8295学习笔记专栏
人工智能
ubuntu安装k8s+docker运行英伟达
gpu
cuda
安装k8s+dockersealosresetsealosrunregistry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.7registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4registry.cn-shanghai.aliyuncs.com/labring/cilium
青年夏日科技工作者
·
2025-05-12 22:40
java
开发语言
Win7编译
GPU
版llama.cpp部署deepseek-r1等大模型记录
目标是在Windows7系统下,实现llama.cpp的CPU编译、
GPU
编译,实现大模型的单机部署。
GPU
编译运行成功,但运行时没有调用
GPU
。
mygodalien
·
2025-05-12 20:25
语言模型
llama
人工智能
chatgpt
机器学习
数字人+LLM 开发过程记录
系统环境:CPU:i91490016GB
GPU
:GTX40608GBSYS:Windows11WSL:Ubuntu22.04本文章使用到的技术内容:数字人框架:LiveTalking大模型:Llama3.1TTS
码农Q!
·
2025-05-12 20:53
人工智能
agi
ai
深度学习
测试用例
目标检测
复现MAET的环境问题(自用)
我的配置是3090,
CUDA
Version:12.4配置环境时总有冲突,解决好的环境如下如果你的配置也是
CUDA
12.4,可以把下面的配置信息保存成environment.yml文件然后执行下面的代码创建环境即可
小汪学不会
·
2025-05-12 19:52
低照度MAET
GitHub 趋势日报 (2025年05月10日)
trendforge.devlive.org/本日报中的项目描述已自动翻译为中文今日整体趋势Top10排名项目名称项目描述今日获星总星数语言1voideditor/void⭐1196⭐16385TypeScript2longbridge/
gpu
i-component
qianmoQ
·
2025-05-12 19:45
GitHub
项目趋势日报
github
08.webgl_buffergeometry_attributes_none ,three官方示例+编辑器+AI快速学习
核心技术包括:WebGL2的顶点ID特性着色器中的伪随机数生成无属性几何体渲染纯
GPU
端的几何体生成完整代码注释three.jsWebGL2-buffergeometry-attributes-
threelab
·
2025-05-12 18:42
学习
【 TVM 教程】microTVM PyTorch 教程
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-05-12 16:53
Docker使用总结
文章目录一、Docker基础命令二、Docker私有仓库三、Docker源修改四、Docker使用
GPU
总结以前使用Docker时的笔记,记录一下。提示:以下命令供参考,个别需要根据实际修改。
WellTung_666
·
2025-05-12 16:25
其他
docker
运维
Java接收xml格式参数转为json
importjavax.xml.bind.annotation.XmlElement;importjavax.xml.bind.annotation.XmlRootElement;@XmlRootElement(name="User")@Setter@ToStrin
gpu
blicclassUser
yogima
·
2025-05-12 15:24
java
xml
json
【导航理论&实战篇】嵌入式硬件系统架构
、微控制器系统1.一个系统为什么要分控制器和处理器两个模块2.微控制器背景3.微控制器系统示例四、处理器系统1.处理器分类(1)高级处理器(2)低级处理器2.处理器类型(1)CPU处理器(2)CPU+
GPU
RoboticsTechLab
·
2025-05-12 15:51
机器人实战项目
嵌入式硬件
系统架构
OpenCV
CUDA
模块中在
GPU
上对图像或矩阵进行 边界填充(padding)函数copyMakeBorder()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述cv::
cuda
::copyMakeBorder是OpenCV的
CUDA
村北头的码农
·
2025-05-12 15:49
OpenCV
opencv
人工智能
YOLOv8 深度学习目标检测实战指南
2.环境搭建2.1系统要求推荐使用Ubuntu20.04/22.04LTS或Windows10/11操作系统,确保至少具备16GBRAM和NVIDIA
GPU
(RTX30系列或更高性能)。
埃菲尔铁塔_CV算法
·
2025-05-12 12:28
YOLO
深度学习
目标检测
计算机视觉
神经网络
人工智能
干掉百度Apollo的安装!(Apollo10.0的包管理安装)
目录写在前面一、安装Ubuntu20.04二、安装DockerEngine三、获取
GPU
支持四、安装环境管理工具五、安装示例工程六、编译工程七、启动Dreamview+写在前面1、去年刚开始安装Apollo
有诗人气质的魔法师
·
2025-05-12 11:54
干掉百度Apollo的安装!
Apollo10.0安装
GPU
和TPU有什么区别
GPU
(图形处理单元)和TPU(张量处理单元)都是用于加速计算的硬件,但它们的设计目标和应用场景不同。
MonkeyKing.sun
·
2025-05-12 10:17
gpu
tpu
PyTorch 中如何针对
GPU
和 TPU 使用不同的处理方式
一个简单的矩阵乘法例子来演示在PyTorch中如何针对
GPU
和TPU使用不同的处理方式。这个例子会展示核心的区别在于如何获取和指定计算设备,以及(对于TPU)可能需要额外的库和同步操作。
frostmelody
·
2025-05-12 10:43
PyTorch小知识点
pytorch
人工智能
python
【计算机视觉】OpenCV实战项目:Long-Exposure:基于深度学习的长时间曝光合成技术
视频转长曝光2.高级模式:自定义光轨合成3.批量处理模式技术实现深度解析1.核心算法流程2.运动估计模块3.曝光合成算法常见问题与解决方案1.内存不足错误2.光轨断裂问题3.结果图像噪点多性能优化技巧1.
GPU
白熊188
·
2025-05-12 08:04
计算机视觉
计算机视觉
opencv
深度学习
在 Kubernetes 中使用 Docker 实现
GPU
支持的完整方案
目录在Kubernetes中使用Docker实现
GPU
支持的完整方案一、背景说明二、目标三、环境准备四、安装NVIDIAContainerToolkit(nvidia-docker2)五、配置Docker
gs80140
·
2025-05-12 08:33
k8s专栏
kubernetes
docker
容器
使用AMD
GPU
和ONNX Runtime高效生成图像与Stable Diffusion模型
EfficientimagegenerationwithStableDiffusionmodelsandONNXRuntimeusingAMD
GPU
s2024年2月23日撰写,作者[道格拉斯·贾(DouglasJia
109702008
·
2025-05-12 07:56
#
ROCm
stable
diffusion
人工智能
学习
如何用AMD显卡部署模型/进行推理
本文将从两方面进行介绍如何在A卡上是用pytorch如何使用C++调用模型前置知识众所周知,使用N卡进行训练或推理的话,首先要有驱动,然后要有
cuda
。那么A卡同理,驱动是什么应该不用多
别来这个网址
·
2025-05-12 07:22
杂谈
人工智能
《
GPU
高性能编程
CUDA
实战》中文版电子书
《
GPU
高性能编程
CUDA
实战》中文版电子书【下载地址】
GPU
高性能编程
CUDA
实战中文版电子书探索
GPU
高性能编程的奥秘,掌握
CUDA
实战技巧!
翁佳忱
·
2025-05-12 04:36
Gpu
Geek全面接入智谱GLM Z1系列推理模型!!
包括:基座模型GLM-4-32B-0414推理模型GLM-Z1-32B-0414沉思模型GLM-Z1-Rumination-32B-0414
Gpu
Geek抢先全面接入智谱GLM-Z1系列推理模型,希望让各位
GpuGeek
·
2025-05-11 20:44
AIGC
gpu算力
人工智能
一文走进
Gpu
Geek | 实例
GPU
GEEK支持用户自定义CPU、内存和操作系统等配置,支持在线配置升级。
GpuGeek
·
2025-05-11 20:14
服务器
运维
算法
gpu算力
云平台
人工智能
llamafactory-cli
cuda
显存动不动不够的一个解决办法
deepspeed--num_
gpu
s2\/mcm/LLaMA-Factory/src/train.py--deepspeed\/mcm/LLaMA-Factory/examples/deepspeed
取啥都被占用
·
2025-05-11 18:35
软件应用
llamafactory
finetuning
deepseek
音乐节奏游戏:从声波分析到动态映射的沉浸式设计
位置映射第三章判定系统设计3.1动态窗口算法3.2打击效果模拟第四章视觉呈现系统4.1波形同步粒子4.2光效频率响应第五章创新功能模块5.1用户生成内容5.2混合现实模式第六章性能优化6.1音频线程调度6.2
GPU
闲人编程
·
2025-05-11 16:18
python
音乐节奏
声波
渲染
线程调度
频谱分析
动态窗口
pygame
基于EFISH-SCB-RK3576/SAIL-RK3576的智能交互广告机技术方案(国产化替代J1900的核心技术解析)
NTSC色域对比J1900仅支持单屏1080P@30Hz,分辨率提升4倍,强光环境下可视性显著增强触控性能:原生支持10点电容触控(响应延迟98%)、手势交互(支持9种动作追踪)对比J1900需外挂
GPU
电鱼智能
·
2025-05-11 15:13
RK3576技术方案
人工智能
网络
机器人
嵌入式硬件
linux
基于EFISH-SCB-RK3576工控机/SAIL-RK3576核心板的KTV点歌主机技术方案(国产化替代J1900的全场景技术解析)
一、硬件架构设计多媒体处理模块超高清解码:RK3576NPU+
GPU
协同解码,支持
[email protected]
硬解(功耗98%),响应延迟800ms)人脸识别:双MIPI-CSI接口支持4K
电鱼智能
·
2025-05-11 15:42
RK3576技术方案
无人机
边缘计算
机器人
嵌入式硬件
linux
SAPIEN ManiSkill3 入门教程(二)
系列文章目录目录系列文章目录前言一、安装1.1系统支持1.2故障排除1.2.1VulkanUbuntuMacOS1.3卸载二、快速入门2.1接口2.2
GPU
并行化/矢量化任务2.2.1一个场景中的并行渲染
kuan_li_lyg
·
2025-05-11 12:25
python
开发语言
机器人
人工智能
stm32
AICon 2024年全球人工智能与大模型开发与应用大会(脱敏)PPT合集
面向开放域的大模型智能体.pdf企业一站式AI智能体构建平台演进实践.pdfPPIO模型平台出海实战,跨地域业务扩展中的技术优化之道.pdfLLM在BI场景的应用思路探索.pdf混合场景下大规模
GPU
集群构建与实践
安全方案
·
2025-05-11 11:15
人工智能
算力100问☞第19问:
GPU
与CPU的区别是什么?
GPU
(图形处理单元)和CPU(中央处理单元)是计算机中两种不同类型的处理器,它们在设计和用途上有一些关键的区别:1、主要区别(1)设计目的不同:CPU:设计用于处理一系列广泛的任务,包括复杂的计算、逻辑运算和控制程序流程
AI算力那些事儿
·
2025-05-11 10:39
算力经济
gpu算力
人工智能
window 显示驱动开发-微型端口程序的初始化(二)
初始化内存段的使用内存段在WindowsVista和更高版本的显示驱动程序模型的上下文中,(WDDM),描述图形处理单元(
GPU
)视频内存管理器的地址空间。内存段通用化和虚拟化视频内存资源。
程序员王马
·
2025-05-11 04:32
windows图形显示驱动开发
驱动开发
window 显示驱动开发-线性内存空间段
GPU
直接访问它;也就是说,无需通过页面映射进行重定向。它在一维地址空间中以线性方式进行管理。驱动程序将DXGK_SEGMENTDESCRIPTOR结构的Flags成员设置为0以指定线性内存空间段。
程序员王马
·
2025-05-11 04:32
windows图形显示驱动开发
驱动开发
GitHub每日最火火火项目(5.9)
1.longbridge/
gpu
i-component项目名称:
gpu
i-component项目介绍:用途:
gpu
i-component是使用Rust编写的用户界面(UI)组件集合,用于借助
GPU
UI构建出色的桌面应用程序
FutureUniant
·
2025-05-11 00:32
github日推
github
人工智能
计算机视觉
音视频
ai
报错Detected that PyTorch and torchvision were compiled with different
CUDA
major versions. PyTorch ha
完整报错:DetectedthatPyTorchandtorchvisionwerecompiledwithdifferent
CUDA
majorversions.PyTorchhas
CUDA
Version
不当菜鸡的程序媛
·
2025-05-10 23:30
学习记录
人工智能
DeepSeek R1-7B 医疗大模型微调实战全流程分析(全码版)
医疗大模型微调实战全流程指南目录环境配置与硬件优化医疗数据工程微调策略详解训练监控与评估模型部署与安全持续优化与迭代多模态扩展伦理与合规体系故障排除与调试行业应用案例进阶调优技巧版本管理与迭代法律风险规避成本控制方案文档与知识传承1.环境配置与硬件优化1.1硬件资源配置全参数微调(FullFine-Tuning)
GPU
Allen_Lyb
·
2025-05-10 06:05
数智化医院2025
医疗数智化教程
人工智能
互联网医院
健康医疗
python
算法
【强化学习】基于 Ray 的强化学习分布式训练
这时,分布式训练成为一个重要的解决方案,它能够通过多节点、多
GPU
的协作显著加速训练过程。Ray是一个开源的分布式计算框架,专为构建可扩展的分布式应用而设
浪啦里格朗
·
2025-05-09 23:23
强化学习
分布式
机器学习
人工智能
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他