E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
3090
LLM微调训练指南
格式的社区变体(如NousResearch版本)Mistral(7B):Apache2.0许可,在推理和数学任务表现突出Falcon(7B/40B):商业授权宽松,特别适合多轮对话场景硬件匹配参考:NVIDIA
3090
小小怪 @
·
2025-07-27 21:07
人工智能
自然语言处理
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
LLM大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战1.环境准备GPU设备:A10,
3090
,V100,A100均可.
汀、人工智能
·
2025-07-12 10:09
LLM技术汇总
人工智能
自然语言处理
LLM
Agent
vLLM
AI大模型
大模型部署
NVIDIA GeForce RTX
3090
显卡详细介绍
一、详细参数(一)核心参数芯片厂商:NVIDIA显卡芯片:GeForceRTX
3090
显示芯片系列:NVIDIARTX30系列制作工艺:8纳米核心代号:GA102-300核心频率:基础频率1400MHz
山顶望月川
·
2025-07-10 02:28
人工智能
The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_70.
出现如下报错:NVIDIAGeForceRTX
3090
withCUDAcapabilitysm_86isnotcompatiblewiththecurrentPyTorchinstallation.ThecurrentPyTorchinstallsupportsCUDAcapabilitiessm
weixin_66009678
·
2025-07-08 06:58
pytorch
人工智能
python
【技术派专享】并行智算云:RTX 5090 免费算力深度评测 + 实战指南▎ 为什么开发者需要关注云端算力?
在微调Llama3、训练扩散模型或跑Kaggle比赛时,本地显卡(比如RTX
3090
/4090)常面临显存不足、训练慢、散热差等问题。
山顶望月川
·
2025-07-06 20:01
人工智能
云计算
diy nas配置推荐2020_从入门到高端!2020年11月组装电脑主机配置推荐+装机行情
,从千元级到高端显卡全面紧张,包括英伟达新一代RTX30系列稀缺,从发布RTX3080开始,基本没有几个人原价到手,到手的价格基本都是溢价比较高的,现阶段一块显卡溢价达到大概近两千元,不过旗舰级RTX
3090
陈马登Morden
·
2025-07-04 12:54
diy
nas配置推荐2020
Deep Global Registration 代码环境配置(rtx
3090
+python3.8+cuda11.1+pytorch1.7+MinkowskiEngine0.5.1)
前言踩过的坑:因为rtx
3090
最低算力是8.6,似乎不支持过低版本的cuda。试过pytorch1.7.0+cuda11.0,但会报错,由于cuda11.0支持的最高算力达不到rtx最低的要求。
JPy646
·
2025-07-04 01:38
pytorch
深度学习
神经网络
本周沪铝想法
成本端方面,氧化铝现货价格在本周持续下跌,山东地区均价降至
3090
元/吨,环比下降1.3%,河南地区也跌至3100元/吨,环比下降0.3%。
落雪财神意
·
2025-07-02 20:33
人工智能
大数据
期股
LeetCode
3090
. 每个字符最多出现两次的最长子字符串
题目链接https://leetcode.cn/problems/maximum-length-substring-with-two-occurrences/题目描述给定一个字符串s,找出满足每个字符最多出现两次的最长子字符串,并返回其长度。示例输入:s="aabba"输出:5解释:子字符串"aabba"中每个字符(a和b)最多出现两次,且长度为5。输入:s="aaaa"输出:2解释:最长子字符串
·
2025-06-23 10:03
滑动窗口python
如何安装Tensorflow和GPU配置
课题组某一台服务器升级后,很多环境丢失了,4块
3090
的GPU的驱动已安装好,但没有公用的Tensorflow可使用。
神隐灬
·
2025-06-23 07:45
tensorflow学习
tensorflow
人工智能
python
NF4量化算法的PyTorch实现
以下都只是在RTX
3090
上对llama-3.1-8b上进行测试的结果,不能代表全部的设备和模型。CUDA上使用dQu
风好衣轻
·
2025-06-22 18:48
算法
pytorch
人工智能
Ubuntu18.04全命令行在
3090
显卡上安装pytorch环境
1.3090驱动安装:sudoadd-apt-repositoryppa:graphics-drivers/ppasudoaptupdatesudoaptinstallnvidia-driver-470sudoaptautoremovexserver-xorgsudoaptautoremove--purgexserver-xorgsudoapt-markholdnvidia-driver-470#
镜中隐
·
2025-06-22 18:18
深度学习
pytorch
深度学习
3090
全命令行安装
ubuntu18.04
云端算力革命:川翔云电脑如何重新定义创作自由
一、核心优势:突破物理极限的云端工作站弹性算力调度:提供RTX
3090
至48GB显存的RTX4090Plus全系列GPU配置,支持1-8卡集群并行计算。
渲染101专业云渲染
·
2025-06-18 21:46
电脑
云计算
houdini
blender
maya
DeepSeek满血版本地部署指南
一、硬件与操作系统准备1.硬件要求GPU(关键):最低要求:NVIDIA显卡(RTX
3090
/4090,显存≥24GB)可运行非量化版。经济方案:RTX306012GB+4-bit量化模型。
三三十二
·
2025-06-12 18:42
deepseek
RTX3080/RTX
3090
+ Win10 + Python + TensorFlow 安装
这是不安装Anaconda的流程,可用python自带的IDLE写代码、运行(安装好Python后,在开始菜单旁边搜索框里搜IDLE)对于3080、
3090
卡亲自测试成功,但应该30系的卡都可以各组件有一些版本对应关系要求
Kasper_2009
·
2025-05-17 21:16
工程问题
python
tensorflow
深度学习
人工智能
计算机视觉
部署deep seek需要什么样的硬件配置?
以下是不同场景下的配置建议:一、基础场景:轻量级推理(如7B-13B参数模型)适用场景:个人使用、低并发、本地测试硬件配置:GPU:至少1张显存≥24GB的显卡(如NVIDIARTX
3090
/4090、
NetTech.Top
·
2025-05-17 07:34
人工智能
自然语言处理
深度学习
AI作画
阿里巴巴Qwen3大模型深度解析
核心技术创新:推理效率与硬件适配的双重突破动态混合专家系统(MoE)Qwen3采用分层稀疏调度与动态专家激活机制,15B参数模型中仅需激活2B参数,推理效率提升42%,显存占用从28GB降至18GB,支持RTX
3090
不会啊~
·
2025-05-16 12:22
科技
人工智能
DeepSeek-V3 部署技术文档(增强版)
DeepSeek-V3部署技术文档(增强版)一、系统环境准备1.硬件配置要求组件最低配置推荐配置性能影响说明GPUNVIDIARTX
3090
(24GB)NVIDIAA100(40GB)大模型参数加载显存
搬砖ing换来金砖
·
2025-05-16 11:15
AI相关
ai
人工智能
复现MAET的环境问题(自用)
我的配置是
3090
,CUDAVersion:12.4配置环境时总有冲突,解决好的环境如下如果你的配置也是CUDA12.4,可以把下面的配置信息保存成environment.yml文件然后执行下面的代码创建环境即可
小汪学不会
·
2025-05-12 19:52
低照度MAET
CUDA编程优化:如何实现矩阵计算的100倍加速
通过系统化优化策略,我们成功将1024×1024矩阵乘法从初始的212ms优化至2.1ms,实现101倍加速(测试平台:NVIDIARTX
3090
)。二、
学术猿之吻
·
2025-05-02 12:38
GPU
高校
人工智能
矩阵
人工智能
线性代数
深度学习
量子计算
算法
gpu算力
3654: 【例11.1】鸡兔同笼
样例输入
3090
样例输出1515AC代码#includeusingnamespacestd;intmain(){intt,j;cin>>t>>j;cout<<(t*4
赵小小明
·
2025-05-02 02:29
算法
c++
开发语言
python系列&deep_study系列:Whisper OpenAI开源语音识别模型
未加速和加速后的推理速度测试表,使用GPU为GTX
3090
(24G)。经过处理的数据
坦笑&&life
·
2025-04-29 06:19
AI系列
python
whisper
语音识别
跑大模型高性能显卡参数对比,成熟商用方案整机推荐配置
产品系列:Geforce、Tesla、Tesla产品型号:RTX4090、RTX4090D、RTX4080、RTX
3090
、A800、L40、L20、A40、A30、A10、V100S、T4、RTXA6000
AI帮小忙
·
2025-04-28 05:58
机器学习
人工智能
深度学习
【2025版】普通人也能训练自己的AI大模型!从零基础到精通,精通收藏这篇就够了!
MiniMind用实力打脸:•成本3元:租用单张
3090
显卡,训练总成本不到一杯奶茶钱。•时间2小时:从数据清洗到模型训练,全流
狂野帅哥
·
2025-04-08 15:10
人工智能
ai
aigc
关于 CUDA 的一些名词解释
例如你安装了NVIDIARTX
3090
显卡后,需要安装
皮卡兔子屋
·
2025-04-08 01:10
深度学习
#环境配置
gpu算力
pytorch
人工智能
Qwen2.5-Omni 多模态旗舰模型深度解析:性能、部署与个人玩家上手指南
(1)免费体验(无需部署)(2)本地部署(RTX
3090
/4090)(3)进阶玩法
张3蜂
·
2025-03-30 23:54
#
神经网络
开源
#
设计模式
人工智能
语言模型
开源协议
7B参数模型
一、训练/微调场景1.最低配置(能跑,但速度慢)GPU:NVIDIARTX
3090
/4090(24GB显存)CPU:Inteli7/i9或AMDRyzen7/9(8核以上)内存:64GBDDR4(建议3200MHz
云端源想
·
2025-03-28 16:34
人工智能
硬件架构
chatgpt
DeepSeek 本地部署详细教程
一、环境准备1.1硬件要求GPU:推荐NVIDIA显卡(RTX
3090
/4090或更高)显存:至少16GB(根据模型版本调整)内存:32GB及以上存储:50GB可用空间1.2软件依赖操作系统:Linux
文or野
·
2025-03-27 04:07
deep
seek
算法
数据库
deep
seek
k8s集群添加一个新GPU节点
前提现在是已经搭建好一个GPU集群,需要添加一个新的节点(
3090
卡),用来分担工作,大致可以分为以下几个部分:1,安装GPU驱动2,安装docker3,安装cri-dockerd4,离线安装Nvidia-container-toolkit5
thinkerCoder
·
2025-03-26 13:49
kubernetes
容器
云原生
gpu算力
3090
显卡Ktransformer本地部署deepseek R1:70B
这里写自定义目录标题效果完成视频:配置参考依赖安装安装cuda配置环境下载deepseekR170B下载ktransoformer开始安装运行Web启动常见问题runtimeerrordon'tmatch更新cudaERROR:Failedtobuildinstallablewheelsforsomepyproject.tomlbasedprojects(ktransformers)效果完成视频:
SIATdog
·
2025-03-21 20:59
ai
unitree
Unitreeubuntu18.04首先要安装好ubuntu18.04系统,然后开始安装显卡驱动和cuda以及cudnn,这里要注意版本对应,我是
3090
的显卡,安装的显卡版本是520,然后cuda的版本是
Matrixart
·
2025-03-18 00:41
ubuntu
SD教程 : Stable Diffusion WebUI 云端部署
部署要求的朋友们,不用担心,我们可以租用GPU进行部署,在对比使用了多个云平台(矩池云/AutoDL/青椒云)之后,我强烈推荐揽睿星舟云平台,原因如下:•新用户注册即送无门槛3.8元优惠券,可免费白嫖2小时
3090
AI想象家
·
2025-03-16 19:31
stable
diffusion
gpt
AI作画
AIGC
人工智能
使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
以下是推荐的硬件配置:GPU:建议使用至少NVIDIARTX
3090
或更高配置的GPU。如果条件允许,使用多卡GPU(如RTX4090或A100)可以显著加快训练速度。
软件职业规划
·
2025-03-15 15:08
llama
【大模型】DeepSeek-R1-Distill-Qwen部署及API调用
当前模型开源后,我们可以将其部署,使用API方式进行本地调用1.部署环境本文中的部署基础环境如下所示:PyTorch2.5.1Python3.12(ubuntu22.04)Cuda12.4GPURTX
3090
油泼辣子多加
·
2025-03-10 17:29
大模型实战
算法
gpt
langchain
人工智能
DeepSeek本地部署必要性分析及云端替代方案推荐
一、本地部署适用场景分析硬件要求完整版模型需≥32GB显存(推荐NVIDIAA100/A800)基础版也需RTX
3090
级别显卡(约150W功耗)适用人群建议✔️企业用户:需私有化部署处理敏感数据✔️研究人员
Asher_Yao
·
2025-02-28 01:08
人工智能
RTX
3090
图形处理巅峰性能解析
内容概要作为NVIDIA面向专业创作者与发烧级玩家的旗舰产品,RTX
3090
重新定义了图形处理的性能边界。
智能计算研究中心
·
2025-02-25 03:26
其他
国内支持 Maya 渲染的云渲染平台汇总
以下为大家介绍一些国内支持Maya渲染的云渲染平台:渲染101价格优势:该平台在价格方面表现出色,CPU渲染最低仅0.6元/小时,GPU
3090
起步价为4元/小时。
渲染101专业云渲染
·
2025-02-19 13:49
maya
houdini
云计算
动画
3dsmax
显卡性能对比:P100、RTX
3090
、A40、A100、A800、H100
TeslaP100-PCIE-16GBRTX4090RTX
3090
V100-SXM2-32GBRTX3080RTX2080TiRTXA4000RTXA5000A100-SXM4-80GBA100-PCIE
u013250861
·
2025-02-17 03:27
LLM
显卡
自学人工智能大模型,满足7B模型的训练和微调以及推理,预算3万,如何选购电脑
在这个预算范围内,以下是推荐的配置:1.关键硬件配置(1)GPU(显卡)推荐显卡:NVIDIARTX4090(24GBVRAM)或者RTX
3090
(24GBVRAM)理由:7B模型推理:24GB显存足够跑
岁月的眸
·
2025-02-13 23:03
人工智能
用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError: CUDA out of memory的解决办法
:在Ubuntu上用LlamaFactory命令行微调Qwen2.5的简单过程_llamafactory微调qwen2.5-CSDN博客如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个
3090
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
Deep Seek大模型部署到本地 详细教程
以下是将DeepSeek大模型部署到本地开发环境的详细教程,分为多个步骤,包含技术细节和注意事项:步骤1:环境准备硬件要求GPU:推荐NVIDIAGPU(至少16GB显存,如RTX
3090
/4090或A100
Katie。
·
2025-02-12 11:40
人工智能
AI编程
ai
川翔云电脑是什么?租电脑?
它配备性能不错的RTX
3090
,还有48G显存的RTX4090plus,支持1-8卡机配置。多卡模式下,RTX4090plus并行计算能力大幅提升,能处理高显存需求的复杂任务。
渲染101专业云渲染
·
2025-02-11 11:55
电脑
服务器
运维
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:NVIDIAGPU(RTX
3090
或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署DeepSeek大模型完整指南
环境准备1.硬件要求最低配置:16GB内存+100GB存储空间(仅运行7B模型)推荐配置:24GB以上显存的NVIDIA显卡(如RTX
3090
/4090)2.软件依赖#创建Python虚拟环境condacreate-nde
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
LeetCode
3090
.每个字符最多出现两次的最长子字符串
题目:给你一个字符串s,请找出满足每个字符最多出现两次的最长子字符串,并返回该子字符串的最大长度。思路:用一个数组代替hashset记录字符出现次数代码:classSolution{publicintmaximumLengthSubstring(Strings){char[]ch=s.toCharArray();intans=0;int[]record=newint[26];intleft=0;f
爱笑的coder
·
2025-01-25 16:53
算法刷题-滑动窗口
leetcode
算法
职场和发展
leetcode
3090
. 每个字符最多出现两次的最长子字符串
题目如下数据范围观察数据范围发现s最长也就100也就是说O(n^2)的暴力法的时间复杂度也是可以接受的。不过本题使用不定长滑动窗口可以优化至O(n)是本人比较推荐的。那么滑动窗口是如何把时间复杂度优化成O(n)的呢?暴力法如下for(inti=0;imap;intn=s.size();if(n==0)return0;intmax1=1;intj=0;for(inti=0;i
萌の鱼
·
2025-01-25 15:18
leetcode
算法
c++
数据结构
坚强的信念能赢得强者的心,并使他们变得更坚强。 ——白哲特(三重门)
经典诵读:✨《六项精进》2遍,共
3090
遍✨《六项精进—通篇》0遍,共15遍✨《大学》2遍,共
3090
遍✨《六项精进》书籍3遍,共447页✨《经营十二条》书籍2遍,共268页✨《活法》书籍1遍,共224
颖嘉_TYJ
·
2024-08-31 11:58
[Datawhale#1] cv task1 - Datawhale AI夏令营
from=Datawhale可以用
3090
,速度很快!
cinboxer
·
2024-08-30 15:29
cv
python
numpy
pandas
matplotlib
stable diffusion官方版本复现
踩了一些坑,来记录下环境CentOSLinuxrelease7.5.1804(Core)服务器RTX
3090
复现流程按照StableDiffusion的readme下载模型权重、我下载的是stable-diffusion-v1
Zhuanshan_
·
2024-02-20 13:18
stable
diffusion
autoDL云部署stable diffusion教程
autoDL官网没注册的先注册,注册后点击登录充值第一次玩的话,可以先充几块钱试一下,选择其它金额,输入充值金额,选择付款方式,点击充值购买服务器最上面一排点击算力市场,建议选择内蒙A区RTXA5000、RTX
3090
weixin_45597589
·
2024-02-14 22:03
#
stable
diffusion部署专题
stable
diffusion专题
stable
diffusion
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他