YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架

1、写作动机:

最近的研究提出了基于大型语言模型的方法,以统一地建模不同的信息提取任务。然而,这些现有方法在处理英语以外的中文语言的信息提取能力方面存在不足。

2、主要贡献:

提出了YAYI-UIE,一个端到端的聊天增强指令调优框架,用于通用信息提取,支持中文和英文。

3、主要方法:

YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架_第1张图片

YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架_第2张图片

两步指令微调:

第一步:

在构建的对话语料库上对基础LLM进行微调,以获得可以聊天的LLM:

Ddialogue= instruction + input +output

第二步:

从不同领域收集了16个中文数据集,用于NER、RE和EE任务,构建了一个全面的中文指令基准,并将其与现有的英文基准IE INSTRUCTIONS相结合。

4、实验:

4.1监督实验

模型:baichuan

数据集:事件抽取方面用的是DUEE(中文)、DuEE-1.0(中文)、ACE2005等

baseline:

  • UIE是一个统一的文本到结构生成框架,通过基于模式的提示生成目标提取。
  • USM是一个统一的IE任务框架,将IE任务转换为语义匹配问题。
  • InstructUIE是一个基于多任务指令微调的统一信息提取框架。(复旦提出,基于LLM,InstructUIE只具有英文能力)
  • BERT-base(Kenton和Toutanova,2019)指的是基于预训练语言模型BERT的具有最先进结果的任务特定监督模型,已广泛应用于各种任务作为文本编码器。

结果:

YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架_第3张图片

YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架_第4张图片

4.2零样本实验

数据集:Commodity News Corpus、FewFC、CCF law 4

baseline:

  • ZETT是一个从非结构化文本中提取关系三元组的新型框架。ZETT在零样本任务中尤其高效,因为该框架将三元组提取简化为一个模板填充任务,然后基于模板生成既适用于已见数据又适用于未见数据的三元组。
  • ChatGPT
  • ChatGLM是一个开源的、中英文双语的对话语言模型,基于通用语言模型(GLM)的架构。
  • KnowLM一个开源且可扩展的知识图谱抽取工具,可以实现命名实体识别和关系抽取等任务,并支持指令遵循以及自定义类型和格式。

实验结果:

YAYI-UIE: 一个用于通用信息提取的聊天增强的指令微调框架_第5张图片

你可能感兴趣的:(NLP事件抽取,人工智能,深度学习,自然语言处理)