E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
tuning
大语言模型生成式AI学习笔记——2. 1.4LLM指令微调——多任务指令微调
Multi-taskinstructionfine-
tuning
(多任务指令微调)Multitaskfine-
tuning
isanextensionofsingletaskfine-
tuning
,wherethetrainingdatasetiscomprisedofexampleinputsandoutputsformultipletasks.Here
预见未来to50
·
2025-06-02 23:57
机器学习
深度学习(ML/DL)
算法
手把手教你学Simulink--单相全桥逆变器自校正控制仿真
Simulink并创建新模型2.构建单相全桥逆变器基础模型3.设计自校正控制器自校正控制原理控制器设计4.实现自校正控制逻辑5.增加示波器观察输出6.配置仿真参数7.运行仿真并分析结果自校正控制(Self-
Tuning
Control
小蘑菇二号
·
2025-06-02 21:15
手把手教你学
MATLAB
专栏
手把手教你学
Simulink
simulink
Oracle数据库的性能监控与调优工具
Oracle数据库的性能监控与调优工具关键词:Oracle数据库、性能监控、调优工具、AWR、SQL
Tuning
Advisor摘要:本文深入探讨了Oracle数据库的性能监控与调优工具。
数据库管理艺术
·
2025-06-01 09:58
数据库
oracle
ai
Prompt
Tuning
与自然语言微调对比解析
Prompt
Tuning
与输入提示词自然语言微调的区别和联系一、核心定义与区别维度Prompt
Tuning
(提示微调)输入提示词自然语言微调本质优化连续向量空间中的提示嵌入(不可直接阅读)优化离散自然语言文本
ZhangJiQun&MXP
·
2025-05-31 18:39
教学
2024大模型以及算力
2021
AI
python
prompt
人工智能
机器学习
学习
分类
BERT模型原理与Fine-
tuning
实战指南
BERT模型原理与Fine-
tuning
实战指南系统化学习人工智能网站(收藏):https://www.captainbed.cn/flu文章目录BERT模型原理与Fine-
tuning
实战指南摘要引言
layneyao
·
2025-05-31 06:44
ai
bert
人工智能
深度学习
【自然语言处理与大模型】大模型(LLM)基础知识⑤
核心是让技术防控(如Fine-
tuning
+Post-filtering)与人类监督形成交叉验证,而非依赖单一手段。
小oo呆
·
2025-05-31 01:42
【自然语言处理与大模型】
自然语言处理
人工智能
小样本分类新突破:QPT技术详解
图1:全模型微调、掩码语言模型(MLM)和提示学习范例图示内容(a)通用微调模型(fine-
tuning
)输入文本直接通过预训练模
ZhangJiQun&MXP
·
2025-05-28 21:21
教学
2024大模型以及算力
2021
AI
python
分类
数据挖掘
人工智能
自然语言处理
机器学习
算法
强化学习:第三方库【TRL - Transformer Reinforcement Learning】
OverviewTRLisacutting-edgelibrarydesignedforpost-trainingfoundationmodelsusingadvancedtechniqueslikeSupervisedFine-
Tuning
u013250861
·
2025-05-22 14:21
RL/强化学习
transformer
深度学习
人工智能
大模型企业落地应用方法对比:微调、RAG与MCP工具调用
一、微调(Fine-
tuning
)存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
从零开始大模型开发与微调:词向量训练模型Word2Vec使用介绍
从零开始大模型开发与微调:词向量训练模型Word2Vec使用介绍关键词:词向量,Word2Vec,神经网络,深度学习,自然语言处理(NLP),预训练,微调,Fine-
Tuning
1.背景介绍1.1问题由来在深度学习蓬勃发展的今天
AI大模型应用实战
·
2025-05-11 20:43
java
python
javascript
kotlin
golang
架构
人工智能
TiDB预研-分页查询、连接查询、执行计划
docs.pingcap.com/zh/tidb/stable/dev-guide-join-tables/https://cn.pingcap.com/blog/tidb-query-optimization-and-
tuning
scl、
·
2025-05-11 10:42
database
tidb
连接查询
分页查询
DeepSeek R1-7B 医疗大模型微调实战全流程分析(全码版)
医疗大模型微调实战全流程指南目录环境配置与硬件优化医疗数据工程微调策略详解训练监控与评估模型部署与安全持续优化与迭代多模态扩展伦理与合规体系故障排除与调试行业应用案例进阶调优技巧版本管理与迭代法律风险规避成本控制方案文档与知识传承1.环境配置与硬件优化1.1硬件资源配置全参数微调(FullFine-
Tuning
Allen_Lyb
·
2025-05-10 06:05
数智化医院2025
医疗数智化教程
人工智能
互联网医院
健康医疗
python
算法
DeepSeek实战--微调
微调LLM(Fine-
tuning
LargeLanguageModels)是指基于预训练好的大型语言模型(如GPT、LLaMA、PaLM等),通过特定领域或任务的数据进一步训练,使其适应具体需求的过程。
AI掘金
·
2025-05-10 06:35
ai
大模型微调
大模型
AIGC
AI应用
探索视频分类的新境界:`video-transformers`
探索视频分类的新境界:video-transformersvideo-transformersEasiestwayoffine-
tuning
HuggingFacevideoclassificationmodels
高慈鹃Faye
·
2025-05-09 20:58
[Pytorch案例实践006]基于迁移学习-ResNet18的蚂蚁&蜜蜂图像分类实战
这里采用的是迁移学习的一种常见方式:微调(Fine-
tuning
)。迁移学习是一种机器学习方法,通过在大型数据集上预训练好的模型,然后将这些模型应用于不同的但相关的任务。
Seraphina_Lily
·
2025-05-09 19:22
Pytorch案例实践学习
pytorch
迁移学习
分类
人工智能
深度学习
python
深度解析AI大模型中的模型微调技术:从基础到实践
然而,通用能力向特定任务的落地离不开关键技术——模型微调(Fine-
tuning
)。本文将从模型基础、训练原理到微调技术展开深度解析,帮助读者掌握这一核心技术。
awei0916
·
2025-05-09 10:57
AI
人工智能
【AI】基于生活案例的LLM强化学习(入门帖)
第二阶段:监督微调(SupervisedFine-
Tuning
)小孩有了阅读基础,还需要你进一步示范“正确用法”——比如什么是礼貌用语、怎么回答问题最直接。对LLM来说,就是用
碣石潇湘无限路
·
2025-05-08 11:28
人工智能
生活
强化学习
openai
经验分享
笔记
外网爆火大模型入门教程:llm-action:让天下没有难学的大模型
从6B到65B,从全量微调到高效微调(LoRA,QLoRA,P-
Tuning
v2),再到RLHF(基于人工反馈的强化学习)。
LLM.
·
2025-05-06 11:29
人工智能
llama
langchain
大语言模型
Ollama
LLM
大模型
爬虫在大模型微调中的作用(八):智能爬虫与自动化微调
然而,为了使这些模型更好地适应特定领域或任务,微调(Fine-
tuning
)是不可或缺的步骤。微调需要大量的标注数据,而爬虫技术可以高效地采集这些数据。
CarlowZJ
·
2025-05-05 13:39
爬虫
自动化
运维
一文读懂大模型RAG:检索、增强与生成的技术详解,收藏这一篇就够了!!
相对于成本昂贵的“Post-Training”或“SupervisedFine-
Tuning
”(监督微调,SFT),基于RAG的技术方案成为了一种更优选择。
AI大模型优化师
·
2025-05-04 06:14
人工智能
AI大模型
语言模型
RAG
agi
ai
LLM
ChatGLM系列解析(三)—— ChatGLM3 —— Agent
Tuning
本文作为ChatGLM系列的第三篇,主要讲到ChatGLM3做出的优化与改进;也会补充ChatGLM2和ChatGLM3与GLM1的区别(这些内容在笔者的博客中确实存在遗漏)。ChatGLM系列解析(一)——ChatGLM开篇之作_chatglmforconditiongeneration-CSDN博客ChatGLM系列解析(二)——ChatGLM2_chatglmglm2-CSDN博客个人认为C
云从天上来
·
2025-05-02 04:11
大语言模型
深度学习细节研讨
自然语言处理NLP
人工智能
自然语言处理
AIGC
特征工程四-2:使用GridSearchCV 进行超参数网格搜索(Hyperparameter
Tuning
)的用途
1.GridSearchCV的作用GridSearchCV(网格搜索交叉验证)用于:自动搜索给定参数范围内的最佳超参数组合。交叉验证评估每个参数组合的性能,避免过拟合。返回最佳模型,可直接用于预测或分析。2.代码逐行解析(1)创建GridSearchCV对象grid=GridSearchCV(model,#要优化的模型(如RandomForest、SVM等)params,#待搜索的参数网格(字典或
友莘居士
·
2025-04-30 08:28
特征工程
支持向量机
机器学习
人工智能
特征工程
【大模型解惑】大模型如何在 Supervised Fine‑
Tuning
(SFT) 之后进行 PPO 强化学习微调?
近年来主流的大模型对齐流程已趋于“三段式”:预训练→SFT(监督微调)→RLHF(强化学习阶段,常用PPO)。在SFT拿到一个可用初始策略后,再用PPO让模型最大化奖励(人类偏好或自动指标),既能维持语言流畅度,又能显著提升服从性与安全性([2203.02155]Traininglanguagemodelstofollowinstructionswithhumanfeedback,Secretso
云博士的AI课堂
·
2025-04-30 08:27
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
大模型
强化学习
SFT
PPO
预训练
监督学习
机器学习
在RISC-V64架构的CV1811C开发板上应用perf工具进行多线程程序性能分析及火焰图调试
buildroot开源工具├──freertos//freertos系统├──fsbl//fsbl启动固件,prebuilt形式存在├──install//执行一次完整编译后,各image的存放路径├──isp_
tuning
曲途光未央
·
2025-04-29 21:35
risc-v
架构
嵌入式硬件
[论文阅读] Improved Baselines with Visual Instruction
Tuning
启发:1、LLaVA-1.5和LLaVA以及其他大模型相比,做出了哪些改进?(1)使用CLIP-ViT-L-336px作为视觉编码器,使模型能处理336px的高分辨率图像,这使得模型能从图像中提取出更多细节信息。此外,还进一步探索了如何适应更高分辨率的图像,通过对图像做分割的方式成功达到448px的输入。(2)使用双层MLP来增强模型的多模态理解能力。(3)制定了更明确的响应格式提示,使用该提示对
零澪灵
·
2025-04-26 18:19
1024程序员节
Prompt-
Tuning
提示词微调
1.HardPrompt定义:Hardprompt是一种更为具体和明确的提示,要求模型按照给定的信息生成精确的结果,通常用于需要模型提供准确答案的任务.原理:Prompt
Tuning
原理如下图所示:冻结主模型全部参数
Fairy要carry
·
2025-04-23 14:15
科研学习生涯
prompt
python
开发语言
大模型面经 | 介绍一下大模型微调方法Prefix
Tuning
、Prompt
Tuning
、P-
Tuning
和P-
Tuning
v2
大家好,我是皮先生!!今天给大家分享一些关于大模型面试常见的面试题,希望对大家的面试有所帮助。往期回顾:大模型面经|春招、秋招算法面试常考八股文附答案(RAG专题一)大模型面经|春招、秋招算法面试常考八股文附答案(RAG专题二)大模型面经|春招、秋招算法面试常考八股文附答案(RAG专题三)大模型面经|春招、秋招算法面试常考八股文附答案(一)大模型面经|春招、秋招算法面试常考八股文附答案(二)一文搞
皮先生!
·
2025-04-23 06:55
大模型面经
面试
职场和发展
人工智能
深度学习
自然语言处理
算法
大模型微调
Llama模型家族之使用 Supervised Fine-
Tuning
(SFT)微调预训练Llama 3 语言模型(六)Llama 3 已训练的大模型合并LoRA权重参数
LlaMA3系列博客基于LlaMA3+LangGraph在windows本地部署大模型(一)基于LlaMA3+LangGraph在windows本地部署大模型(二)基于LlaMA3+LangGraph在windows本地部署大模型(三)基于LlaMA3+LangGraph在windows本地部署大模型(四)
段智华
·
2025-04-22 13:06
深入理解
ChatGPT
LLaMA-Factory
Llama3
大模型微调综述
大模型微调技术详解前言什么是大模型微调为什么需要大模型微调大模型技术演进全景图阶段对比速查表微调分类及特点指令微调(InstructionFine-
Tuning
,IFT)全参数微调(FullFine
Tuning
kuokay
·
2025-04-21 07:45
人工智能
大模型微调
Lora
RLHF
SFT
FT
用Prompt 技术【提示词】打造自己的大语言智能体
大型语言模型LLM-Fine
tuning
vsPrompting_llm里的prompt和instruction,context
chenchihwen
·
2025-04-19 15:56
prompt
人工智能
Amazon Bedrock 模型微调实践(二):数据准备篇
本博客内容翻译自作者于2024年9月在亚马逊云科技开发者社区发表的同名博客:“MasteringAmazonBedrockCustomModelsFine-
tuning
(Part2):DataPreparationforFine-
tuning
·
2025-04-16 15:25
AI大模型四大技术架构演进选型
大模型技术架构通过最初的简单交互,逐渐发展为可对已有模型进行能力迁移学习扩展的架构,这个过程包括了四大技术架构的演进,分别为:纯Prompt、Agent+FunctionCalling、RAG(检索增强生成)和Fine-
Tuning
AI程序猿人
·
2025-04-15 19:22
人工智能
架构
大模型
ai
语言模型
AGI
计算机技术
一起学Hugging Face Transformers(10)- 使用Transformers 库的 Trainer API 进行模型微调
然而,实际应用中,预训练模型往往需要进一步微调(Fine-
tuning
)以适应具体任务。HuggingFaceTransformers库提供了强大的TrainerAPI,使得模
做个天秤座的程序猿
·
2025-04-15 18:15
Hugging
Face
Transformers
transformer
trainer
api
模型微调
P-
tuning
、Prompt-
tuning
和Prefix-
tuning
区别是什么?
概念Prompt
Tuning
是通过在输入序列前添加额外的Token来适配下游任务的方法。这些额外的Token是可训练的,而预训练语言模型的参数保持不变。
Jacob_AI
·
2025-04-13 13:05
prompt
transformer
nlp
语言模型
如何从零开始训练一个大模型,文案解析。
✅大模型微调常见流程图(逻辑顺序)预训练(Pretraining)↓指令微调SFT(SupervisedFine-
tuning
)↓偏好数据准备(人类偏好标注或对比)↓┌─────────────┬───
要努力啊啊啊
·
2025-04-13 13:31
大模型中的技术名词解析
算法
人工智能
mysql的配置文件的各项参数意思
#Otherdefault
tuning
values#其他默认调优值#MySQLServerInstanceConfigurationFile#MySQL服务器实例配置文件#---------------
mywpython
·
2025-04-13 06:42
数据库
mysql
Checkpoint 模型与Stable Diffusion XL(SDXL)模型的区别
SDXL)模型在功能、架构和应用场景上有显著区别,以下是主要差异的总结:1.基础架构与定位Checkpoint模型是基于StableDiffusion官方基础模型(如SD1.4/1.5)通过微调(Fine-
Tuning
不确定性确定你我
·
2025-04-13 02:20
stable
diffusion
人工智能
领域专用对话大模型深度适配方案
领域专用对话大模型深度适配方案基于LLaMA-2-13B的LoRA+P
Tuning
联合优化一、LLaMA-2-13B核心特性解析1.1架构创新点特性LLaMA-1LLaMA-2-13B上下文窗口2048tokens4096tokens
Sirius Wu
·
2025-04-12 18:28
人工智能
深度学习
AI 大模型微调原理深度剖析与源码解读
为了让大模型更好地适应特定任务,微调(Fine-
Tuning
)技术应运而生。微调是指
Android 小码蜂
·
2025-04-09 13:31
AI
大模型
人工智能
神经网络
transformer
架构
机器学习
参数高效微调(PEFT)研究综述
然而,全参数微调(FullFine-
Tuning
)在计算资源、存储需求和训练成本等方面存在较大的挑战。
Ender(弹射回家版)
·
2025-04-07 00:34
ai
多模态RAG实践:如何高效对齐不同模态的Embedding空间?
常见的对齐方法与关键技术点(一)对比学习(ContrastiveLearning)(二)多模态Transformer架构(联合编码)(三)领域适配(DomainAdaptation)与微调(Fine-
Tuning
gs80140
·
2025-04-04 16:24
基础知识科谱
人工智能
RWKV state
tuning
微调教程
例如,作为RNN有固定大小的state,所以,微调RWKV的初始state,就相当于最彻底的prompt
tuning
,甚至可以用于alignment,因为迁移能力很强。
RWKV元始智能
·
2025-04-03 07:15
人工智能
语言模型
NLP高频面试题(二十七)——SFT有哪几种参数微调方法?有什么优缺点?
尤其在监督微调过程中,如何选择合适的参数高效微调(Parameter-EfficientFine-
Tuning
,PEFT)方法成为关注重点。本文将梳理SFT中常用的几种参数微调方法及各自的优缺点。
Chaos_Wang_
·
2025-04-02 05:22
NLP常见面试题
自然语言处理
人工智能
python 大模型处理的常见问答,知识蒸馏,数据增强,大模型fun
tuning
,大模型训练
一、知识蒸馏的过程知识蒸馏是指将一个复杂的模型或系统的知识压缩成一个更简单的模型或系统的过程。下面是知识蒸馏的一般步骤:1.选择源模型:选择一个复杂的源模型,通常是一个在某个任务上表现出色的模型。2.准备数据集:为蒸馏过程准备一个适当的数据集。通常情况下,这个数据集应该包含源模型的输入数据和相应的目标输出数据。3.训练源模型:使用准备好的数据集对源模型进行训练,以便获取源模型的权重和参数。4.定义
医学小达人
·
2025-03-29 23:41
人工智能
NLP
CV_深度学习
人工智能
深度学习
大模型
大模型微调方法解析
随着大模型(如DeepSeek、LLaMA、QwQ等)的广泛应用,如何高效地通过微调(Fine-
tuning
)让通用模型适配垂直领域任务,成为行业关注的核心问题。
西木风落
·
2025-03-26 15:03
AI大模型
大模型微调
LoRA微调
提示词微调
SFT和RLHF是什么意思?
环境:SFTRLHF问题描述:SFT和RLHF是什么意思解决方案:SFT(SupervisedFine-
Tuning
,监督微调)和RLHF(ReinforcementLearningfromHumanFeedback
玩人工智能的辣条哥
·
2025-03-25 00:15
人工智能
人工智能
深度学习
机器学习
大模型微调方法之Delta-
tuning
大模型微调方法之Delta-
tuning
大模型微调方法自从23年之后可谓是百花齐放,浙大有团队在8月将关于大模型微调方法的综述上传了ArXiv。论文将微调方法总结为等几个类别。
空 白II
·
2025-03-24 20:09
大语言模型
论文解读
微调方法介绍
微调方法
delta-tuning
论文解读
大语言模型
当细致剪裁遇上大语言模型:从数据匹配到卓越性能的奇幻之旅
我们将透过一篇最新的研究《TheBestInstruction-
Tuning
DataareThoseThatFit》,探索如何通过选择与目标模型分布高度契合的数据来优化监督式微调(SFT)的效果,以及这一方法如何
步子哥
·
2025-03-24 18:24
AGI通用人工智能
语言模型
人工智能
自然语言处理
一、MySQL8的my.ini文件
目录下;而MySQL8.0.11绿色免安装版本是没有my.ini配置文件,用户可以自行构建后,再通过my.ini进行数据库的相关配置一、MySQL8.0.11默认的my.ini#Otherdefault
tuning
values
零度百事
·
2025-03-23 09:15
MySQL8
MySQL
my.ini
my.cf
一文说清楚什么是预训练(Pre-Training)、微调(Fine-
Tuning
),零基础小白建议收藏!!
前言预训练和微调是现代AI模型的核心技术,通过两者的结合,机器能够在处理复杂任务时表现得更为高效和精准。预训练为模型提供了广泛的语言能力,而微调则确保了模型能够根据特定任务进行细化和优化。近年来,人工智能(AI)在各个领域的突破性进展,尤其是在自然语言处理(NLP)方面,引起了广泛关注。两项重要的技术方法——预训练和微调,成为了AI模型发展的基石。预训练通常是指在大规模数据集上进行模型训练,以帮助
小城哇哇
·
2025-03-22 20:26
人工智能
语言模型
AI大模型
大模型微调
预训练
agi
LLM
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他