E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
Databricks 开源 LLM,训练只需三个小时
像ChatGPT和Bard这样的生成式AI,它们使用的数据通常来自于在成千上万不同网站,使用的数据量十分惊人,而且想要使用这些数据训练AI还需要数以千计的强大
GPU
在背后提供支持。
唐 城
·
2025-02-04 07:15
AI-毕业设计全套
spring
log4j
postgresql
数据库
java
PyTorch 训练一个分类器
文章目录0前言1加载和规范化CIFAR102定义一个卷积网络3定义损失函数和优化器4训练网络5测试网络6在
GPU
上训练模型参考资料0前言 TRAINGINGACLASSIFIER这篇教程很清楚的描述了如何使用
亚里
·
2025-02-04 05:59
平台工具类
pytorch训练网络
【Rust日报】2021-12-21 Embark Studio 使用 Rust 进行本地渲染
EmbarkStudio使用Rust进行本地渲染作为Rust的忠实拥护者,EmbarkStudio的工程师们正在使用Rust开发渲染引擎和游戏,并且贡献了rust-
gpu
这个项目。
Rust语言中文社区
·
2025-02-03 23:36
游戏
java
python
编程语言
人工智能
Ubuntu16.04环境下安装
cuda
10+pytorch1.2
1、背景环境:Ubuntu16.04&titanx作为新一代的人工智能训练平台的PYTORCH,有其独特的优势,为此,完整的安装这一平台,是开展所有工作的首要条件,一开始,笔者认为应该轻松的完成,但是发现实际上要从零完成这一工作,尤其是在NVIDIATITANX下,是需要3~4天的摸索的,为了便于后续的工作,也为了后面使用的童鞋,写下这篇文章,闲话少说,先上最终完成shell输出。xxx@xxxU
小楼昨夜,东风
·
2025-02-03 19:11
pytorch
深度学习
神经网络
LWN:让
GPU
的工作也依赖进程优先级!
关注了就能看到更多这么棒的文章哦~Synchronized
GPU
priorityschedulingByJonathanCorbetOctober22,2021DeepLassistedtranslationhttps
LinuxNews搬运工
·
2025-02-03 15:31
java
python
人工智能
大数据
linux
线性回归基础学习
线性回归基础学习目录:理论知识样例代码测试参考文献一、理论知识线性回归思维导图NDArray:MXNet中存储和变换数据的主要工具,提供
GPU
计算和自动求梯度等功能线性回归可以用神经网络图表示,也可以用矢量计算表示在
Remoa
·
2025-02-03 14:53
人工智能
线性回归
优化
gluon
mxnet
loss
GPU
硬件架构分析
GPU
和CPU的差异CPU与
GPU
的设计对比核心数量与计算单元:CPU:通常核心数量较少(如4到16个核心),每个核心都有独立的控制单元。
你一身傲骨怎能输
·
2025-02-03 13:49
渲染管线
硬件架构
【安装记录】lift:learned invariant feature points
我自己的电脑的
cuda
是9.0.该代码安装要求太多了,加上我习惯了docker。
你好joy
·
2025-02-03 03:56
安装记录
nvidia-smi命令视图含义
--------------------------------------------------------+|NVIDIA-SMI555.42.06DriverVersion:555.42.06
CUDA
Version
董林夕
·
2025-02-02 19:56
nvidia
最全NVIDIA Jetson开发板参数配置和购买指南
NVIDIA开发的
GPU
不仅在电脑显卡领域占据大量份额,在嵌入式NVIDIA的Jeston系列开发板也近乎是领先的存在,特别是NVIDIAJeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
legged gym(包含isaac gym)丝滑安装教程
LeggedGym(包含IsaacGym)安装教程——Ubuntu22.04安装IsaacGym安装leggedgym2.1.安装pytorch和
cuda
:2.2.安装rsl_r2.3.安装legged_gym
littlewells
·
2025-02-02 18:49
机器学习
深度学习
ubuntu
python
全平台制霸!零门槛在本地解锁DeepSeek R1:Ollama+OpenWebUI终极部署手册
纯干货教程,无需
GPU
也能玩转大模型!
程序员辣条
·
2025-02-02 18:17
人工智能
大模型
LLama
AI产品经理
大模型学习
DeepSeek
大模型教程
【pytorch(
cuda
)】基于DQN算法的无人机三维城市空间航线规划(Python代码实现)
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、DQN算法概述三、基于DQN的无人机三维航线规划方法1.环境建模2.状态与动作定义3.奖励函数设计4.深度神经网络训练5.航线规划四、研究挑战与展望2运行结果3参考文献4Python代码实现⛳️赠与读者做科研,涉及到一个深在的
科研_G.E.M.
·
2025-02-02 16:36
python
pytorch
算法
GPU
驱动及
CUDA
安装流程介绍
GPU
驱动及
CUDA
安装流程介绍1.安装前准备工作1.1.确认
GPU
型号和操作系统版本1.2.准备
gpu
驱动和
CUDA
软件包1.3.检查服务器
GPU
识别情况1.4.老版本软件包卸载1.5.安装依赖包CentOS
醉心编码
·
2025-02-02 16:35
通信软件
技术类
c/c++
GPU
Nvidia
GPU驱动
显卡驱动
【llm对话系统】大模型 Llama 源码分析之并行训练方案
为了高效地训练这些模型,我们需要采用各种并行策略,将计算和数据分布到多个
GPU
或设备上。Llama作为当前最流行的开源大模型之一,其训练代码中采用了多种并行技术。
kakaZhui
·
2025-02-02 13:14
llama
人工智能
AIGC
chatgpt
电脑要使用
cuda
需要进行什么配置
在电脑上使用
CUDA
(NVIDIA的并行计算平台和API),需要进行以下配置和准备:1.检查NVIDIA显卡支持确保你的电脑拥有支持
CUDA
的NVIDIA显卡。
Channing Lewis
·
2025-02-02 06:19
计算机科学
AI
电脑
cuda
如何安装
CUDA
Toolkits
安装
CUDA
Toolkit的步骤如下,具体步骤根据你的操作系统(Windows/Linux/Mac)有所不同。
Channing Lewis
·
2025-02-02 06:19
AI
cuda
GPU
架构(1.2)--
GPU
SoC 中的 CPU 架构
目录详细介绍
GPU
SoC中的CPU架构1.CPU核心概述ARMCortex-A72ARMCortex-A762.多线程处理多核架构多线程支持3.任务调度任务调度器动态调度4.内存管理内存层次结构内存管理技术
小蘑菇二号
·
2025-02-02 02:58
手把手教你学
GPU
SoC
芯片
智能电视
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:NVIDIA
GPU
(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署 DeepSeek 模型并使用 WebUI 调用
环境准备在开始之前,请确保你的系统满足以下要求:Python3.11或更高版本pip包管理工具DeepSeek模型的本地部署文件
GPU
支持(可选,用于加速模型推理)步骤1:本地部署Deep
我喜欢就喜欢
·
2025-02-01 17:22
技术文档
策略模式
本地部署DeepSeek大模型完整指南
本文将手把手教你如何在本地计算机部署DeepSeek模型并实现对话交互,支持CPU/
GPU
双模式运行。
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
GNU编译优化级别-O -O1 -O2 -O3
最近做一个算法的
GPU
加速,发现实际上使用gcc的-O3(最高级编译优化)选项,可以获得很高的加速比,我的程序里达到了3倍的样子,有时效果甚至比
GPU
加速好。因此小小学习了下GNU的编译优化。
hemmingway
·
2025-02-01 06:53
C++
Linux
【Unity 渲染插件】
GPU
Instancer 基于
GPU
实例化技术,旨在解决 Unity 中大量重复对象的渲染瓶颈问题,显著提升游戏性能
GPU
Instancer是一款专注于高性能渲染的Unity插件,基于
GPU
实例化技术,旨在解决Unity中大量重复对象的渲染瓶颈问题,显著提升游戏性能。
Unity游戏资源学习屋
·
2025-02-01 05:14
Unity插件
RuntimeError:
CUDA
is required but not available for bitsandbytes.
今天想配置大模型的环境,需要用到bitsandbytes这个包,但是遇到报错:RuntimeError:
CUDA
isrequiredbutnotavailableforbitsandbytes.Pleaseconsiderinstallingthemulti-platformenabledversionofbitsandbytes
九思Atopos
·
2025-02-01 01:42
python
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
HyperAI超神经
·
2025-01-31 22:43
TVM
人工智能
机器学习
TVM
编程
编译器
GPU
CPU
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载
cuda
驱动https://developer.nvidia.com/
cuda
-downloadsOllamaOllama官方版:https
·
2025-01-31 21:04
Paddle和pytorch不可以同时引用
importpaddleprint(paddle.utils.run_check())importtorchprint(torch.version.
cuda
)print(torch.backends.cudnn.version
饮马长城窟
·
2025-01-31 21:03
paddle
pytorch
人工智能
YOLO系列之训练环境(
GPU
)搭建篇
YOLOv8专栏导航:点击此处跳转Pytorch环境配置(Windows)Anaconda安装此处下载安装即可⭐温馨提示:安装路径
w94ghz
·
2025-01-31 17:01
YOLO改进系列
YOLOv8改进系列
YOLO
深度学习
人工智能
python
目标检测
DeepSeek极端榨取硬件性能被曝光
DeepSeek的出现是否意味着前沿LLM开发不再需要大规模
GPU
集群?简单来说:不是的。
极道Jdon
·
2025-01-31 08:13
javascript
reactjs
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求
GPU
显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用NVIDIA显卡SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
VS2019+QT4.15+openCV4.5.1+
CUDA
加速
文章目录前言一、软件安转以及注意事项二、CMake编译总结前言`最近公司有一个关于使用海康威视网络摄像头的目标检测的项目,发现使用openCV显示时,出现很大的延时,因此,只能使用
cuda
进行加速才能使显示达到实时
小小秀峰哥
·
2025-01-30 21:47
python
人工智能
深度学习
CUDA
编程(一):
GPU
计算与
CUDA
编程简介
CUDA
编程(一):
GPU
计算与
CUDA
编程简介
GPU
计算
GPU
硬件资源
GPU
软件资源
GPU
存储资源
CUDA
编程
GPU
计算NVIDIA公司发布的
CUDA
是建立在
GPU
上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
GPU
编程与
CUDA
CUDA
编程并行计算整体流程从主机端申请内存,把内存部分的内容拷贝到设备端在设备端的核函数计算从设备端拷贝到主机端,并且释放内存显存主机端:cpu设备端:
gpu
核函数:在
gpu
上运行的函数
CUDA
内存模型
Nice_cool.
·
2025-01-30 21:17
Cuda与TensorRT
c++
GPU
-
CUDA
编程学习(一)
Hello,
CUDA
最近在学习GUP编程,故此记录下学习进度。
☞北海北☜
·
2025-01-30 21:45
c++
多版本
cuda
+多版本cudnn+gcc+cmake+opencv+darknet爬坑记录
本次针对darknet框架部署—centos7.x一、
CUDA
多版本安装1、很早前安装了很多
cuda
现在忘了步骤了,这里不再安装,下次再补上,可以看其他贴安装,记清楚自己的安装目录,一般默认在/usr/
LMM_AI
·
2025-01-30 21:41
系统学习
深度学习
RTX4060+ubuntu22.04+
cuda
11.8.0+cuDNN8.6.0 & 如何根据显卡型号和系统配置
cuda
和cuDNN所需的安装环境
文章目录电脑原配置安装
cuda
和cuDNN前的环境选择cuDNN与
CUDA
tookit和nvidiadriver的对应关系
cuda
版本选择⭐查看自己的nvidiadriver版本和最大支持的
CUDA
版本
computer_vision_chen
·
2025-01-30 20:05
带你跑通人工智能项目
cuda
cuDNN
ubuntu22.04 + isaac gym环境配置流程
1.
CUDA
安装1.看系统架构:uname-m2.去官网下载适配你显卡驱动的最新
cuda
,可以通过nvidia-smi查看https://developer.nvidia.com/
cuda
-toolkit-archive3
Yakusha
·
2025-01-30 20:02
linux
bash
c++
全面解析:HTML页面的加载全过程(六)--浏览器渲染之分层 - Layer
分层原因在生成布局树之后,渲染进程会将一些复杂的3D动画、滚动条、高z-index的元素生成图层,并生成图层树交给
GPU
加速渲染。页面设计复杂,并且交互效果多。
huazi99于老师
·
2025-01-30 18:21
html
前端
Apache TVM:开源深度学习编译器栈的领跑者
ApacheTVM:开源深度学习编译器栈的领跑者tvmOpendeeplearningcompilerstackforcpu,
gpu
andspecializedaccelerators项目地址:https
计攀建Eliza
·
2025-01-30 18:51
spring mvc 创建restapi 笔记
RequestMapping("/spittles")publicclassSpittleController{//示例:使用@RequestBody接收JSON并自动转换为Spittle对象@PostMappin
gpu
blicSpittlesaveSpittle
weixin_42277889
·
2025-01-30 13:02
spring
mvc
笔记
LLM系列(0):行业大模型落地服务在全业务场景的应用与探索【大模型智能问答、NL2SQL、文档智能分析智能生成、AI智能体决策等】
行业大模型场景落地是否一定需要大量的
GPU
算力,以及需要多少的算力才能满足落地需求?
GPU
算力主要消耗在两个地方,一是大
汀、人工智能
·
2025-01-30 10:41
LLM工业级落地实践
人工智能
自然语言处理
prompt
NL2DSL
NL2SQL
大模型
智能问答
Transformer架构的
GPU
并行和之前的NLP算法并行有什么不同?
1.什么是
GPU
并行计算?
GPU
并行计算是一种利用图形处理单元(
GPU
)进行大规模并行数据处理的技术。
AI大模型学习不迷路
·
2025-01-30 07:49
transformer
自然语言处理
大模型
深度学习
NLP
LLM
大语言模型
conda创建新虚拟环境——从无到有
自己租的
GPU
最近有点鱼的记忆,base配什么环境自己都忘了,所以自己开始学习如何创建并且配置一个新环境,当然这一切建立在andonate3安装完的前提下自己的配置:Linux系统,Xshell编译器创建环境
S.T.A.R.
·
2025-01-30 05:32
深度学习
tensorflow
anaconda
cuda
线程调度
硬件描述从硬件上看,一块显卡的最小单元是
GPU
核(或者叫做StreamProcessor),所有核心平均分配在多个SM中,而多个SM共同构成整块显卡的核心。
weiwei0319
·
2025-01-30 05:31
CUDA
并发编程
Window 下Mamba 环境安装踩坑问题汇总及解决方法 (无需绕过selective_scan_
cuda
)
安装问题参看本人博客:Mamba环境安装踩坑问题汇总及解决方法(重置版)Windows下Mamba的安装参看本人博客:Window下Mamba环境安装踩坑问题汇总及解决方法(无需绕过selective_scan_
cuda
yyywxk
·
2025-01-30 03:45
#
Python模块有关问题
python
Windows
Mamba
vmamba 尝试安装记录
安装虚拟环境condacreate-nvmambapython==3.102、激活环境condaactivatevmamba3、安装附加环境pipinstall-rrequirements.txt4、确保
cuda
青雉007
·
2025-01-30 02:41
conda
python
Window Mamba 环境安装【
CUDA
】
直接安装Mamba及其依赖3.手动编译Mamba及其依赖1.安装PyTorch环境condacreate-nmambapython=3.10condaactivatemambacondainstall
cuda
toolkit
红豆布丁
·
2025-01-30 02:11
python
mamba
ssm
cuda
Mooncake:面向大语言模型服务的以 KVCache 为中心的架构
它还利用
GPU
集群未充分利用的CPU、DRAM和SSD资源来实现KVCache的分解缓存。
步子哥
·
2025-01-29 22:42
AGI通用人工智能
语言模型
架构
人工智能
判断字符串能否转json
packagecom.jlit.ms
gPu
sh.utils;importorg.apache.commons.lang.StringUtils;importorg.json.JSONArray;importorg.json.JSONException
qq_26517369
·
2025-01-29 18:37
json
C#高级:常用的扩展方法大全
1.Strin
gpu
blicstaticclassStringExtensions{//////字符串转List(中逗英逗分隔)///publicstaticListSplitCommaToList(thisstringdata
我是苏苏
·
2025-01-29 18:07
C#高级
c#
windows
java
上一页
36
37
38
39
40
41
42
43
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他