E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
qlora微调
基于 Python 的自然语言处理系列(87):RRHF 原理与实战
✨本文介绍一种新型的人类反馈
微调
策略——RRHF(RankResponseswithHumanFeedback),它比传统的RLHF更简单、更稳定,在开源社区如AlpacaFarm、UltraFeedback
会飞的Anthony
·
2025-05-19 18:18
人工智能
信息系统
自然语言处理
python
自然语言处理
开发语言
大模型的
微调
步骤与技术栈
大模型的
微调
步骤与技术栈一、技术栈分层体系(一)理论基础层核心知识神经网络:神经元工作机制、网络层(输入层、隐藏层、输出层)作用。
上有晨光
·
2025-05-19 08:45
微调课程笔记
人工智能
深度学习
大模型
微调
步骤整理
在对深度学习模型进行
微调
时,我通常会遵循以下几个通用步骤。第一步是选择一个合适的预训练模型。
Trank-Lw
·
2025-05-19 07:41
人工智能
【自然语言处理与大模型】大模型(LLM)基础知识①
GPT模型通过在大规模无标签文本上进行预训练,然后再特定任务上进行
微调
,具有很强的生成能力和语言理解能力。2.BERT(BidirectionalEncoderRepres
小oo呆
·
2025-05-19 03:11
【自然语言处理与大模型】
人工智能
自然语言处理
语言模型
微调
大模型如何准备数据集——常用数据集,Alpaca和ShareGPT
微调
大模型如何准备数据集——常用数据集,Alpaca和ShareGPT数据集准备常用数据集自定义数据集AlpacaShareGPT数据集准备常用数据集预训练数据集WikiDemo(en)RefinedWeb
prince_zxill
·
2025-05-19 03:41
人工智能与机器学习教程
大模型
人工智能
微调
python
github
Deepseek
Qwen
大模型学习路线
-CSDN博客数据工程(数据预处理):大模型学习路线(2)——数据工程(数据预处理)-CSDN博客知识检索增强(RAG):大模型学习路线(3)——知识检索增强(RAG)_rag进阶-CSDN博客大模型
微调
Giao00001
·
2025-05-19 00:25
AI大模型
学习
深度解析BERT:从理论到Pytorch实战
前言本文从BERT的基本概念和架构开始,详细讲解了其预训练和
微调
机制,并通过Python和PyTorch代码示例展示了如何在实际应用中使用这一模型。
代码很孬写
·
2025-05-18 22:44
bert
pytorch
人工智能
语言模型
ai
神经网络
深度学习
从零开始实现大语言模型(十六):加载开源大语言模型参数
在工业界的大语言模型应用实践中,通常会使用领域数据
微调
开源大语言模型参数,以构建领域大语言模型。本文介绍加载开源大语言模型参数以替代大语言模型GPTModel中的随机初始化参数的方法。
RuizhiHe
·
2025-05-18 21:08
从零开始实现大语言模型
人工智能
大语言模型
ChatGPT
DeepSeek
LLM
从零开始实现大语言模型
英伟达推理模型论文速读:OpenCodeReasoning-Nemotron-32B
为解决这一问题,研究者构建了一个优越的监督
微调
(SFT)数据集,实
Open-source-AI
·
2025-05-18 19:47
前沿
人工智能
算法
深度学习
大模型
Amazon SageMaker Canvas:
微调
基础模型
但是,如果您有特定的用例并希望根据自己的数据自定义响应,则可以
微调
基础模型。要
微调
基础模型,您需要提供一个由示例提示和模型响应组成的数据集。然后,根据数据训练基础模型。
大模型实战
·
2025-05-18 13:09
人工智能
深度学习
AI编程
AIGC
计算机视觉
多模态大模型综述《A Survey on Multimodal Large Language Models》
预训练、指令
微调
、对齐
微调
(RLHF)。预训练是通用能力。使得图像对齐到llm表征空间,数据来源于互联网上的图像对。指令
微调
是专业能力,提升在下游任务上的性能
yang_daxia
·
2025-05-18 06:44
语言模型
人工智能
自然语言处理
极客时间企业级 Agents 开发实战营毕业总结
继上一次大模型
微调
训练营结束后,又一个训练营学习结束了,满满的收获!!!PS,虽然最后一周在疯狂补作业,但是学的很扎实、印象很深刻!
LinQingYanga
·
2025-05-18 04:59
人工智能
大厂NLP技术全景:从BERT到GPT-5的演进与优化
深入剖析:大厂AI算法在自然语言处理中的优化实践(专题系列)专题目录大厂NLP技术全景:从BERT到GPT-5的演进与优化亚马逊云科技Bedrock平台:企业级NLP
微调
与RAG优化实战高通骁龙AI引擎
DeepFaye
·
2025-05-18 02:17
自然语言处理
bert
gpt
小白上手RPM包制作
目录rpm常用命令安装环境-Ruby安装环境-fpm关于服务器打包-打包二进制工程.fpm配置文件打包-打没有文件的包RPM包
微调
命令行参数fpm--helpRPM签名打包-制作NGINX的RPM包关于
勤不了一点
·
2025-05-18 01:44
系统
服务器
linux
运维
软件工程
Tina: Tiny Reasoning Models via LoRA
通过监督
微调
增强推理存在依赖专家演示、可能导致浅层模仿等问题;强化学习虽能让模型灵活学习,但资源消耗大。本文聚焦于如何通过高效的强化学习在语言模型中经济高效地赋予推理能力。
UnknownBody
·
2025-05-17 22:52
LLM
Daily
LLM
Training
Causal
and
Reasoning
人工智能
语言模型
部署deep seek需要什么样的硬件配置?
部署DeepSeek(或其他类似的大语言模型)的硬件配置需求取决于具体场景(如推理、
微调
、训练)、模型规模(参数量)、并发请求量以及性能要求。
NetTech.Top
·
2025-05-17 07:34
人工智能
自然语言处理
深度学习
AI作画
从原理总结chatGPT的Prompt的方法
ChatGPT是OpenAI开发的一种自然语言处理模型,它通过使用大量的无监督数据进行预训练,并使用预训练的模型作为基础,然后通过使用有监督数据进行
微调
,以生成高质量的对话。
望舒巴巴
·
2025-05-16 20:51
chatgpt
如何把DeepSeek R1模型
微调
成为某个场景的模型
将DeepSeekR1模型
微调
为适用于特定场景的模型是一个多步骤的过程,涉及环境配置、数据准备、模型加载、预处理、
微调
、强化学习和评估等步骤。
LCG元
·
2025-05-16 17:56
大模型
人工智能
DeepSeek
Xinference 分布式推理框架的部署
系列文章目录第一章Xinference分布式推理框架的部署第二章LLaMAFactory
微调
框架的部署第三章LLaMAFactory
微调
框架数据预处理加载文章目录系列文章目录前言一、Xinference
TA zhao
·
2025-05-16 15:43
模型实战
windows
语言模型
Language models are few-shot learners:语言模型是小样本学习者
摘要近期的研究表明,通过在大规模文本语料上进行预训练,再针对特定任务进行
微调
,可以在许多自然语言处理任务和基准测试中取得显著提升。
AI专题精讲
·
2025-05-16 12:50
大模型专题系列
人工智能
0基础也能听懂:从预训练到SFT,对话模型技术栈深度拆解!
简单来说,从基座模型到对话模型的转变需要经过四个步骤:预训练基础模型、任务适应
微调
(SFT)、人类反馈强化学习(RLHF),以及部署和持续优化。下面,我们就一步步拆解这个过程,看看它是怎么实现的。
AGI大模型资料分享员
·
2025-05-16 11:42
人工智能
深度学习
机器学习
产品经理
语言模型
大模型
开源
大模型从入门到精通:大模型RAG系统学习路线(附实战代码)
1.1RAG技术爆发的背景大模型的致命缺陷:知识截止、幻觉问题、领域适配差传统方案的局限:
微调
成本高、知识更新困难RAG的核心优势(数据对比):方案训练成
AI大模型-大飞
·
2025-05-15 15:50
学习
程序员
人工智能
大模型开发
大模型
RAG
大模型学习
ReTool: Reinforcement Learning for Strategic Tool Use in LLMs
先通过数据构建管道整理高质量冷启动数据集,进行监督
微调
,让模型学习调用代码解释器的基础能力;再采用工具
UnknownBody
·
2025-05-15 10:43
LLM
Daily
LLM
RL
人工智能
机器学习
深度学习
Datawhale-llm-universe 第一章 LLM介绍打卡
并融入了一些个人的理解以及思考)大型语言模型LLM理论简介LLM的定义和概念发展历程主要模型(如GPT-3、GPT-4、PaLM等)典型应用场景LLM的能力和特点检索增强生成RAG简介RAG的概念工作流程优势和应用与
微调
星野yee
·
2025-05-15 01:11
人工智能
自然语言处理
chatgpt
python
第07章—简历优化篇(下):如何美化专业技能与打造项目技术亮点
针对不同的JD该如何
微调
简历?现在就不再多说废话啦,让我们直接开始吧!一、怎样写好简历上的专业技能作为技术从业者的我们,在简
企鹅侠客
·
2025-05-14 18:26
求职指南
求职指南
产品功能更新迭代后需要重做算法备案吗?
一、无需重新备案的调整情况(1)算法迭代对算法进行
微调
优化,例如一些不影响算法核心逻辑和功能的小调整、UI调整等,可以记录在年度报告中,通常无需重新备案(2)功能更新功能更新只是对现有功能的优化、完善,
AI产品备案
·
2025-05-14 17:50
深度学习
人工智能
安全
【AI大模型实战项目】llm-action:让天下没有难学的大模型
项目大体如下所示:目录LLM训练LLM训练实战LLM参数高效
微调
技术原理综述LLM参数高效
微调
技术实战LLM分布式训练并行技术分布式AI框架分布式训练网络通信LLM推理LLM推理框架✈️LLM推理优化技术
小城哇哇
·
2025-05-14 11:11
人工智能
AI大模型
语言模型
agi
ai
llm
模型微调
【AI算法工程师必知必会】如何入门大模型
微调
?
入门大模型
微调
可遵循以下系统路径,结合核心技术原理与实战方法论逐步掌握关键能力:一、理论基础与核心概念大模型基础理解Transformer架构、注意力机制等核心原理(参考经典论文《AttentionIsAllYouNeed
AndrewHZ
·
2025-05-14 08:52
人工智能
算法
深度学习
LLM
语言模型
模型微调
LORA
ubuntu系统部署GPT-SoVITS
只有最基础的切割音频、识别文字、推理的代码,没有训练、
微调
参考视频:链接下载安装包可以直接下载windows部分的下载整合包链接,比克隆代码方便很多,不需要分别下载各种模型GPT-SoVITS指南里有写解压的注意事项
LtmkWoQjPWiWo
·
2025-05-14 05:00
python
ubuntu
Pytorch加载部分预训练模型的参数
应用场景为在K折交叉验证时,我希望从第二折开始的模型加载第一折训练模型的部分参数,并在此基础上
微调
,从而减少训练轮数。解决方法加载保存的第一折训练好的模型参数,因为我保存时是多GP
卡卡南安
·
2025-05-14 04:52
Pytorch
pytorch
人工智能
python
吊球技术(劈吊、滑板、收吊)的握拍转换和发力方式
以下是专业级的细节分解:一、基础握拍架构通用原则:采用正手基础握拍(类似握手姿势),但在触球前需根据吊球类型
微调
:拇指位置:抵在拍柄宽面侧棱(非平面)食指控制:第二关节轻压拍柄窄面后三指:松握状态,留出发力空间关键点
小句
·
2025-05-14 02:10
人工智能
ICLR2024论文解读|DP-OPT: MAKE LARGE LANGUAGE MODEL YOUR PRIVACY-PRESERVING PROMPT ENGINEER差分隐私离线提示
微调
论文标题DP-OPT:MAKELARGELANGUAGEMODELYOURPRIVACY-PRESERVINGPROMPTENGINEER差分隐私离线提示
微调
:让大型语言模型成为你的隐私保护提示工程师论文链接
paixiaoxin
·
2025-05-13 21:34
论文合集
文献阅读
知识图谱
人工智能
自然语言处理
语言模型
大型语言模型
数据隐私
大语言模型应用指南:Prompt高效
微调
大语言模型应用指南:Prompt高效
微调
关键词:大语言模型,Prompt,
微调
,参数高效,自然语言处理(NLP),对话系统,知识图谱,数据增强1.背景介绍1.1问题由来近年来,大语言模型(LargeLanguageModels
AI大模型应用实战
·
2025-05-13 16:36
java
python
javascript
kotlin
golang
架构
人工智能
大模型企业落地应用方法对比:
微调
、RAG与MCP工具调用
一、
微调
(Fine-tuning)存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
Deepseek 是否基于开源大模型构建?一文揭秘其技术底层真相
DeepSeek的技术起源DeepSeek并非简单地基于其他已有的开源模型进行
微调
或改进,而是
小焱写作
·
2025-05-13 02:35
Deepseek
人工智能
AI
绘画
DeepSeek
大模型
OpenAI
GET请求和POST请求的区别
你的总结已经很好了,我帮你稍
微调
整一下逻辑和表达,使其更清晰、完整一
芦屋花绘
·
2025-05-12 23:47
java
spring
boot
http
AI人工智能领域Llama的自适应学习机制
AI人工智能领域Llama的自适应学习机制关键词:Llama、自适应学习、大语言模型、机器学习、神经网络、
微调
、迁移学习摘要:本文深入探讨了Meta公司开发的Llama大语言模型的自适应学习机制。
AI智能探索者
·
2025-05-12 13:05
人工智能
llama
学习
ai
将lora权重合并到原模型
为什么要合并,虽然
微调
后预测时需要合并但不一定且保存,但是部分大模型评测项目都是用正常的huggingfacecheckpoint来测试,因此需要先行合并。
the_3rd_bomb
·
2025-05-12 13:04
python
transformer
语言模型
Lora原理及实现浅析
最初是为了解决大型语言模在进行任务特定
微调
时消耗大量资源的问题;随后也用在了Diffusion等领域,用于对模型进行
微调
。总而言之,Lora是一种
微调
技术。
别来这个网址
·
2025-05-12 10:17
深度学习
人工智能
BERT类模型
微调
阶段:在单文本分类任务(如情感分析)中,
背太阳的牧羊人
·
2025-05-11 23:04
人工智能
bert
人工智能
自然语言处理
GPT论文阅读:Language Models are Unsupervised Multitask Learners
LanguageModelsareUnsupervisedMultitaskLearners第一篇阅读链接abstractGPT-2是一个参数量为1.5B的transformer,在zero-shot设定下,在8个测试语言建模数据集中,有7个取得了最先进的结果最主要的贡献是在没有使用
微调
的情况下
真的没有脑袋
·
2025-05-11 22:24
GPT系列
gpt
论文阅读
语言模型
从零开始大模型开发与
微调
:词向量训练模型Word2Vec使用介绍
从零开始大模型开发与
微调
:词向量训练模型Word2Vec使用介绍关键词:词向量,Word2Vec,神经网络,深度学习,自然语言处理(NLP),预训练,
微调
,Fine-Tuning1.背景介绍1.1问题由来在深度学习蓬勃发展的今天
AI大模型应用实战
·
2025-05-11 20:43
java
python
javascript
kotlin
golang
架构
人工智能
大模型
微调
指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效
微调
文章目录一、简介二、如何安装2.1安装2.2校验三、开始使用3.1可视化界面3.2使用命令行3.2.1模型
微调
训练3.2.2模型合并3.2.3模型推理3.2.4模型评估四、高级功能4.1分布训练4.2DeepSpeed4.2.1
CodeSilence
·
2025-05-11 19:10
大模型框架
大模型
大模型
人工智能
LLaMA-Factory
微调
第5章 计算机视觉与大模型5.1 计算机视觉基础5.1.3 迁移学习与预训练模型
迁移学习是一种在已有的模型上进行
微调
的方法,它可以帮助我们更快地训练出高性能的计算机视觉模型。预训练模型则是在大量数据上进行预先训练的模型,它可以提供一
AI天才研究院
·
2025-05-11 12:00
AI大模型应用入门实战与进阶
AI大模型企业级应用开发实战
LLM大模型落地实战指南
大数据
人工智能
语言模型
AI
LLM
Java
Python
架构设计
Agent
RPA
【阿里云大模型高级工程师ACP习题集】3 总结与展望
()A.优化提示词B.使用RAGC.添加工具D.
微调
【单选题】关于多智能体系统与大模型的关系,说法正确的是()A.多智能体系统一定比大模型效率低B
Charles茶总
·
2025-05-11 11:51
学习笔记
阿里云
云计算
人工智能
大模型
ACP认证
习题集
openpi 入门教程
系列文章目录目录系列文章目录前言一、运行要求二、安装三、模型检查点3.1基础模型3.2
微调
模型四、运行预训练模型的推理五、在自己的数据上
微调
基础模型5.1.将数据转换为LeRobot数据集5.3.启动策略服务器并运行推理
强化学习与机器人控制仿真
·
2025-05-11 11:50
人工智能
深度学习
开发语言
机器人
自动驾驶
神经网络
python
大模型
微调
指南:如何获得卓越效果
大模型
微调
指南:如何获得卓越效果引言大型语言模型(LargeLanguageModels,LLMs)已经彻底改变了自然语言处理领域。通过
微调
,我们可以将这些通用模型转变为专注于特定任务的专家系统。
柳思木
·
2025-05-11 09:36
大模型训练
数据清洗
人工智能
NLP实战
LLaVA:开源多模态大语言模型深度解析
该项目通过视觉指令
微调
技术,将预训练的视觉编码器与语言模型深度融合,在多个多模态基准测试中达到SOTA水平。核心特点:支持336x336高分辨率图像处理兼容LLaMA、Vicuna、Mistr
kakaZhui
·
2025-05-11 08:30
前沿多模态大模型:论文与实战
开源
语言模型
人工智能
MLLMs
VLM
gpt-4v
SenseVoice模型
微调
| 如何提升语音识别在特定领域内识别的准确率
比如一些人工智能和云计算领域有很多新兴的名词,就比如DeepSeek-R1和通义千问等待名词,如果我们使用市面上开源的语音识别模型做测试发现,识别出来的结果完全不对,甚至我们使用商业收费的ASR也不能准确识别,那么这个时候我们就很有必要做
微调
训练
Luke Ewin
·
2025-05-11 06:43
ASR
语音识别
人工智能
ASR
语音转写
PaddleOCR检测模型
微调
实战:从数据准备到生产
一、检测模型
微调
的核心价值1.1预训练模型的局限性场景通用模型表现
微调
后提升典型案例特殊字体识别62%89%古籍文字识别小目标文本检测55%82%工业零件编号密集文本场景71%93%财务报表解析倾斜文本检测
一休哥助手
·
2025-05-10 15:38
ocr
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他