E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
tuning
Monitoring Docker and The importance of monitoring英翻汉练习2024/1/24
WenowknowsomewaystooptimizeourDockerdeployments.Wealsoknowhowtoscaletoimproveperformance.Buthowdoweknowthatour
tuning
assumptionswerecorrect
DarkFlameM
·
2024-01-25 01:29
docker
容器
运维
【机器学习】机器学习8大调参技巧!
原文出处:https://analyticsindiamag.com/top-8-approaches-for-
tuning
-hype
风度78
·
2024-01-24 16:55
机器学习
人工智能
大模型参数高效微调技术原理综述
然而,随着模型规模的增大,全量微调(fullfine-
tuning
)所需的计算和存储资源也急剧增加,这使得在消费级硬件上实现全量微调变得不可行。为了解决这个问题,参数高效微调技术应运而生。
百度_开发者中心
·
2024-01-24 15:11
人工智能
自然语言处理
深度学习
Prompt
Tuning
:大模型微调实战
在Prompt
Tuning
之前,Fine
tuning
是常用的微调方法。Fine
tuning
是通过使用大模型进行下游任务重训的方法,但由于大模型参数量过大,Finetun
百度_开发者中心
·
2024-01-24 15:41
prompt
人工智能
深度学习
自然语言处理
第六课:Prompt
流程prompt设计课程ppt及代码地址2、学习心得:3、经验分享:4、课程反馈:5、使用MindSpore昇思的体验和反馈:6、未来展望:第六课:Prompt1、学习总结:Prompt介绍Fine-
tuning
Recapan
一条大蟒蛇6666
·
2024-01-24 09:08
昇思技术公开课学习笔记
prompt
ardupilot 飞机的关键参数设置(电池+电机+滤波器)
,主要参考SettingtheAircraftUpfor
Tuning
0.序言调整设置飞机的参数以下参数应根据您的飞机规格正确设置。每一个都会影响调整过程的质量。
魔城烟雨
·
2024-01-23 16:04
ardupilot学习
算法
mcu
单片机
线性代数
LLMs之Vanna:Vanna(利用自然语言查询数据库的SQL工具+底层基于RAG)的简介、安装、使用方法之详细攻略
LLMs之Vanna:Vanna(利用自然语言查询数据库的SQL工具+底层基于RAG)的简介、安装、使用方法之详细攻略目录Vanna的简介1、用户界面2、RAGvs.Fine-
Tuning
3、为什么选择
一个处女座的程序猿
·
2024-01-23 10:28
NLP/LLMs
sql
数据库
RAG
大语言模型
AI大模型开发架构设计(4)——人人需要掌握的大模型微调
文章目录人人需要掌握的大模型微调1大模型Fine-
tuning
(微调)需要具备三个方面的能力Fine-
tuning
(微调)何为Fine-
tuning
(微调)什么情况下使用微调?怎么微调?
讲文明的喜羊羊拒绝pua
·
2024-01-23 04:59
AIGC
AIGC
Prompt
Engineer
LangChain
Fine-tuning
LoRA
太通透了!大模型接入业务系统的最佳实践来了
One-Shot,Few-Shot链式思维任务分解如何在PROMPT提示语中嵌入业务知识四、通过RAG(检索增强)方式接入RAG的实现RAG的流程知识检索如何实现业务接入RAG检索的例子五、通过Fine-
tuning
机器学习社区
·
2024-01-23 01:33
大模型
数据库
大模型
模型微调
prompt
检索增强生成
掌握大模型这些优化技术,优雅地进行大模型的训练和推理!
然而,大量实验证明,在高质量的训练语料进行指令微调(Instruction-
tuning
)的前提下,超过百
机器学习社区
·
2024-01-23 01:02
大模型
自然语言
人工智能
大模型
算法工程师
LLM
AQE优化和源码
介绍AQE全称是AdaptiveQueryExecution,官网介绍如下Performance
Tuning
-Spark3.5.0DocumentationAQE做了什么AQE是SparkSQL的一种动态优化机制
这个程序猿可太秀了
·
2024-01-22 17:56
spark内核
spark
AQE
Spark源码
Spark优化
gpt-2 生成文本_对gpt 2进行了微调,以实现神奇的收集风味文本生成
gpt-2生成文本Atemplateforfine
tuning
yourownGPT-2model.用于微调您自己的GPT-2模型的模板。
weixin_26730921
·
2024-01-22 12:56
python
java
vue
nlp
ViewUI
Knowledgeable Prompt-
tuning
: Incorporating Knowledge into Prompt Verbalizer for Text Classification
1标题+作者KPT,将知识引入PromptVerbalizer处理文本分类任务,清华大学2摘要在低数据场景下,Prompt-
tuning
(PT)比fine-
tuning
(FT)效果好,PT将分类问题转为带掩码的语言模型问题
Navajo_c
·
2024-01-22 12:23
EE
机器学习
深度学习
自然语言处理
Transformer and Pretrain Language Models3-1
contenttransformerattentionmechanismtransformerstructurepretrainedlanguagemodelslanguagemodelingpre-trainedlanguemodels(PLMs)fine-
tuning
approachesPLMsafterBERTapplicationsofmaskedLMfrontiersofPLMstran
ringthebell
·
2024-01-22 10:27
大模型
transformer
语言模型
深度学习
【LLM-agent】function call功能、Agent
Tuning
微调
所以为了提高模型准确识别和调用函数的能力,如agent
tuning
就是利用多个agent任务交互轨迹,对LLM进行sft微调,文章目录note一、functioncall1.functio
山顶夕景
·
2024-01-22 08:16
LLM大模型
深度学习
agent
大模型
LLM
function
call
AI大模型中的Bert
2.预训练+微调(Pre-training+Fine-
tuning
)的策略:BERT模型先在大规模无标签文本数据上进行预训练,学习语言的一般性模式,然后在具体任务的标签数据上进行微
永远的HelloWorld
·
2024-01-22 07:10
大模型
AI大模型
人工智能
bert
自然语言处理
[学习笔记]刘知远团队大模型技术与交叉应用L4-Prompt-learning & Delta-learning
模型的趋势ModelScaling:模型越来越大Difficult
Tuning
:微调越来越难Prompt-Learning基本组成与流程介绍预训练和fine-
tuning
有一定的gap。
N刻后告诉你
·
2024-01-22 04:36
深度学习
学习
笔记
prompt
An Experimental Design Framework for Label-Efficient Supervised Fine
tuning
of Large Language Models
A:这篇论文试图解决的问题是如何在有限的标注数据下提高大型语言模型(LLMs)的监督微调(SupervisedFine
tuning
,SFT)效率。
Takoony
·
2024-01-20 07:08
语言模型
人工智能
深度学习
Bert模型的基本原理与Fine-
tuning
文章目录基本原理BERT的输入Fine-
tuning
(微调)BERT用于sequence的分类任务BERT用于问答任务BERT用于NER(实体命名识别)本文主要讲解Bert模型的基本原理与Fine-
tuning
zhong_ddbb
·
2024-01-19 14:37
深度学习
自然语言处理
推荐系统
自然语言处理
BERT
hilbert
transform
大规模语言模型高效参数微调--P-
Tuning
微调系列
P-
Tuning
该方法的提出主要是为了解决这样一个问题:大模型的Prompt构造方式严重影响下游任务的效果。
hanscalZheng
·
2024-01-19 14:05
大语言模型
机器学习
人工智能
深度学习
深度解析 P-
tuning
v2 为什么对大模型有效
理论部分论文及项目地址论文地址:https://arxiv.org/pdf/2110.07602.pdf项目地址:https://github.com/THUDM/P-
tuning
-v2技术背景P-
tuning
v2
weixin_45079449
·
2024-01-19 14:05
NLP大模型基础
人工智能
机器学习
深度学习
预训练范式提示学习方法一览(PET, Prefix-
tuning
,P-
tuning
,prompt
tuning
, PPT,SPoT, Prompt-
tuning
鲁棒性研究)
一:Pattern-ExploitingTraining(PET)它通过人工构建的模版与BERT的MLM模型结合,能够起到非常好的零样本、小样本乃至半监督学习效果,而且该思路比较优雅漂亮,因为它将预训练任务和下游任务统一起来了。然而,人工构建这样的模版有时候也是比较困难的,而且不同的模版效果差别也很大,如果能够通过少量样本来自动构建模版,也是非常有价值的。主要的思想是借助由自然语言构成的模版(英文
zhurui_xiaozhuzaizai
·
2024-01-19 14:04
自然语言处理
深度学习
人工智能
自然语言处理
P-
Tuning
v2: Prompt
Tuning
Can Be Comparable to Fine-
tuning
Universally Across Scales and Tasks
prompt-
tuning
v1当模型尺寸较小时,尤其是小于100亿个参数时,它仍然表现不佳。
Tsukinousag1
·
2024-01-19 14:04
python
机器学习
深度学习
人工智能
大数据
openai模型个性化训练Embedding和fine-
tuning
区别
现在基于自然语言和文档进行对话的背后都是使用的基于嵌入的向量搜索。OpenAI在这方面做的很好,它的Cookbook(github.com/openai/openai-cookbook)上有很多案例,最近他们对文档做了一些更新。GPT擅长回答问题,但是只能回答它以前被训练过的问题,如果是没有训练过的数据,比如一些私有数据或者最新的数据该怎么办呢?这种情况下通常有两种办法,一种是微调(fine-tu
程序员老狼
·
2024-01-19 14:03
人工智能
机器学习
还没搞懂嵌入(Embedding)、微调(Fine-
tuning
)和提示工程(Prompt Engineering)?...
theme:orange嵌入(Embedding)、微调(Fine-
tuning
)和提示工程(PromptEngineering)是AIGC模型的核心功能,合理运行这些功能,能实现一些复杂和意向不到的应用
青Cheng序员石头
·
2024-01-19 14:31
embedding
prompt
机器学习
人工智能
提示词工程: 大语言模型的Embedding(嵌入和Fine-
tuning
(微调)
本文是针对这篇文章(https://www.promptengineering.org/master-prompt-engineering-llm-embedding-and-fine-
tuning
/)
AI明说
·
2024-01-19 14:30
AIGC
语言模型
人工智能
深度学习
NLP预训练模型系列-GPT
Introduction3.RelatedWork4.Framework4.1无监督预训练4.2有监督微调4.3任务相关的输入转换5.Experiments5.1setup5.2Supervisedfine-
tuning
6
Maxi_0902
·
2024-01-19 06:05
NLP
自然语言处理
python
机器学习
大模型入门2: 指令微调
大模型评测指令微调数据部署Fine-
tuning
customizesapretrainedLLMforaspecificdomainbyupdatingmostorallofitsparameterswithadomain-specificdataset.Thisapproachisresource-intensivebutyieldshighaccuracyforspecializeduseca
YueTann
·
2024-01-19 05:07
数据库
目标检测--02(Two Stage目标检测算法1)
采用大样本下(ILSVRC)有监督预训练和小样本(PASCAL)微调(fine-
tuning
)的方法解决小样本难以训练甚至过拟合等问题。注
普通研究者
·
2024-01-19 03:51
计算机视觉面试题
深度学习
目标检测
算法
人工智能
Vision Transformer(VIT)模型介绍
计算机视觉文章目录计算机视觉VisionTransformer(VIT)PatchEmbeddingsHybridArchitectureFine-
tuning
andhigherresolutionPyTorch
工头阿乐
·
2024-01-18 18:25
计算机视觉
transformer
深度学习
人工智能
Bert详解
Bert框架基本架构Embeddingpre-trainingMLM(MaskLanguageModel)NSP(NextSentencePrediction)fine-
tuning
优缺点基本架构由Transformer
bulingg
·
2024-01-18 04:52
bert
人工智能
深度学习
ChatGLM-6B部署和微调实例
文章目录前言一、ChatGLM-6B安装1.1下载1.2环境安装二、ChatGLM-6B推理三、P-
tuning
微调3.1微调数据集3.2微调训练3.3微调评估3.4调用新的模型进行推理总结前言ChatGLM
drj御用programmer
·
2024-01-17 18:41
大模型安装
NLP
语言模型
nlp
技术动态 | 知识图谱遇上RAG行业问答:回顾知识检索增强范式、挑战及与知识图谱的结合...
1、RAGvsFine-
tuning
开放知识图谱
·
2024-01-17 11:46
知识图谱
人工智能
【提示学习论文七】Visual Prompt
Tuning
论文原理
文章目录VisualPrompt
Tuning
(VPT)文章介绍Abstract1Introduction2RelatedWork3Approach3.1准备工作3.2Visual-Prompt
Tuning
一个很菜的小猪
·
2024-01-17 06:28
提示学习
学习
prompt
【论文阅读笔记】Prompt
Tuning
for Parameter-efficient Medical Image Segmentation
FischerM,BartlerA,YangB.Prompt
tuning
forparameter-efficientmedicalimagesegmentation[J].MedicalImageAnalysis
cskywit
·
2024-01-17 01:50
医学图像分割
prompts
论文阅读
笔记
prompt
用Chromatix进行
tuning
流程
一、基本调试1、工程初始配置:这个工具就是一个图形化的参数编辑器,其实所有
tuning
中的效果参数直接改文件参数酒醒,工具的好处是:带有检查错误和模拟的功能以及一些校验工具和脚本。
eric_dma
·
2024-01-17 01:05
使用DBMS_STATS来收集统计信息
原文参见:http://www.idevelopment.info/data/Oracle/DBA_tips/
Tuning
/
TUNING
_17.shtmloverviewOracle'scost-basedoptimizer
ezbit
·
2024-01-17 01:37
Oracle
Tuning
oracle
dbms_stats
analyze
【阅读笔记】Chain of LoRA
一、论文信息1论文标题ChainofLoRA:EfficientFine-
tuning
ofLanguageModelsviaResidualLearning2发表刊物arXiv20233作者团队DepartmentofComputerScience
ZedKingCarry
·
2024-01-16 17:48
阅读笔记
大语言模型
高效微调
笔记
人工智能
算法
迈向高效LLM微调:低秩适应(LoRA)技术的原理与实践
正如我们在前一篇文章中讨论的(一文读懂大型语言模型参数高效微调:Prefix
Tuning
与LL
wwlsm_zql
·
2024-01-16 14:31
人工智能
深度学习
机器学习
提示词prompt、RAG、Agent框架、微调Fine-
tuning
在实际应用中的落地选择
LLM四大技术底座大模型应用的四大技术底座优化流程大模型技术选择时遵循的路径:首先会使用提示词来进行选底座的过程。提示词的本质相当于text的填充,提示词的knowhow能力会扩展到RAG,提示词的指令遵循能力会扩展到FT微调。RAG和微调的对比RAG框架评估RAG框架:RAG评分微调的好处提高模型在特定任务上的性能提高模型的效率减少在任务中获得良好性能所需的标记数量将大型模型的专业知识提炼到一个
lichunericli
·
2024-01-16 04:46
LLM
人工智能
语言模型
prompt
Fine-
tuning
:个性化AI的妙术
在本篇文章中,我们将深入探讨Fine-
tuning
的概念、原理以及如何在实际项目中运用它,以此为初学者提供一份入门级的指南。
千与编程
·
2024-01-16 02:07
ChatGPT全解与实战手册
人工智能
Mindspore 公开课 - prompt
prompt介绍Fine-
Tuning
toPromptLearningPre-train,Fine-tuneBERTbidirectionaltransformer,词语和句子级别的特征抽取,注重文本理解
coyote_xujie
·
2024-01-15 22:12
prompt
微调您的Embedding模型以最大限度地提高RAG管道中的相关性检索
英文原文地址:https://betterprogramming.pub/fine-
tuning
-your-embedding-model-to-maximize-relevance-retrieval-in-rag-pipeline
lichunericli
·
2024-01-15 21:51
LLM
人工智能
语言模型
embedding
【LLMs 入门实战】基于 PEFT 在私有数据集上高效微调ChatGLM2-6B
原文链接【LLMs入门实战】基于PEFT在私有数据集上高效微调ChatGLM2-6B-知乎本次微调是基于github的hiyouga/ChatGLM-Efficient-
Tuning
项目进行微调的。
baidu_huihui
·
2024-01-15 15:09
LLMs
ChatGLM
prompt
微调深度学习模型:初级指南
引言在深度学习领域,微调(Fine-
tuning
)是一种常见的实践,旨在优化预训练模型以适应特定任务或数据集。这对于那些希望利用已有模型来解决类似问题的初学者而言,是一个非常有用的技巧。
CCSBRIDGE
·
2024-01-15 08:51
深度学习
人工智能
AI大模型学习笔记二
文章目录一、PromptEngineering1)环境准备二、LangChain(一个框架名字)三、Fine-
tuning
(微调)一、PromptEngineering1)环境准备①安装OpenAI库pipinstall
谢白羽
·
2024-01-14 22:51
学习
笔记
【论文阅读】Progressive Prompts: Continual Learning for Language Models
ContinualLearningforLanguageModels发表刊物ICLR2023作者团队多大、MetaAI关键词ContinualLearing、LLMs文章结构ProgressivePromptsIntroductionBackgroundFine
tuning
Prompt
tuning
ContinualLearningMethodP
ZedKingCarry
·
2024-01-14 18:44
论文阅读
语言模型
人工智能
深度学习
python
自然语言处理
大模型微调及生态简单介绍
全球开源大模型性能评估榜单中文语言模型——ChatGLM基于ChatGLM的多模态⼤模型大模型微调LLM⼤语⾔模型⼀般训练过程为什么需要微调高效微调技术⽅法概述⾼效微调⽅法一:LoRA微调方法高效微调⽅法⼆:Prefix
Tuning
天天写点代码
·
2024-01-14 16:38
人工智能
chatgpt
自然语言处理
AIGC
NLP论文解读:无需模板且高效的语言微调模型(下)
©原创作者|苏菲论文题目:Prompt-freeandEfficientLanguageModelFine-
Tuning
论文作者:RabeehKarimiMahabadi论文地址:https://openreview.net
NLP论文解读
·
2024-01-14 15:40
用通俗易懂的方式讲解:大模型微调方法总结
大家好,今天给大家分享大模型微调方法:LoRA,Adapter,Prefix-
tuning
,P-
tuning
,Prompt-
tuning
。
机器学习社区
·
2024-01-14 03:03
大模型
自然语言
CV
大模型
多模态
Langchain
chatgpt
语言模型
模型微调
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他