全网国内外总结Prompt&LLM论文,开源数据&模型,AIGC应用(持续更新,收藏查看)
目录顺序如下
Prompt是在自然语言处理(NLP)中,尤其是在使用预训练语言模型时,用来引导模型生成特定类型输出的一段文本或问题。有效的Prompt设计可以显著提高模型的表现,使其更好地适应特定任务。Prompt可以是具体的指令、问题或者示例,它们充当了模型输入的一部分,帮助模型理解所需完成的任务。
大型语言模型,如GPT-3、BERT和T5,是通过在大量文本数据上进行预训练而得到的复杂神经网络模型。这些模型能够捕捉语言的深层次结构和语义,从而在多种NLP任务中取得卓越表现,包括文本生成、翻译、摘要、问答等。LLM通常需要大量的计算资源进行训练,因此对硬件和数据集的规模有较高要求。
开源数据和模型是指那些公开可用、可以自由使用和修改的数据集和预训练模型。开源数据集,如维基百科、Common Crawl和ImageNet,为训练和测试模型提供了丰富的资源。开源模型,如Hugging Face的Transformers库,提供了预训练模型的实现,允许研究者和开发者在现有工作的基础上进行创新和应用开发。
AIGC(人工智能生成内容)指的是利用人工智能技术自动生成内容的应用。这些内容可以是文本、图像、音频或视频。AIGC应用的例子包括:
AIGC技术的发展为内容创作带来了革命性的变化,使得个人和企业能够以更低的成本和更高的效率创造新的内容。
Prompt、LLM、开源数据与模型以及AIGC应用共同推动了人工智能在内容生成领域的进步。Prompt技术提高了LLM在特定任务上的表现,开源数据与模型降低了研究和开发的门槛,而AIGC应用则展示了人工智能在创造性任务中的潜力。随着技术的不断进步,我们可以期待未来会有更多创新的AIGC应用出现,进一步改变我们与信息和媒体的互动方式。
一分钟上手系列:https://blog.csdn.net/u014374009/category_12451843.html
榜单 | 结果 |
---|---|
AlpacaEval:LLM-based automatic evaluation | 开源模型王者vicuna,openchat, wizardlm |
Huggingface Open LLM Leaderboard | MMLU只评估开源模型,Falcon夺冠,在Eleuther AI4个评估集上评估的LLM模型榜单,vicuna夺冠 |
https://opencompass.org.cn/ | 上海人工智能实验室推出的开源榜单 |
Berkley出品大模型排位赛榜有准中文榜单 | Elo评分机制,GPT4自然是稳居第一,GPT4>Claude>GPT3.5>Vicuna>others |
CMU开源聊天机器人评测应用 | ChatGPT>Vicuna>others;在对话场景中训练可能很重要 |
Z-Bench中文真格基金评测 | 国产中文模型的编程可用性还相对较低,大家水平差不太多,两版ChatGLM提升明显 |
Chain-of-thought评估 | GSM8k, MATH等复杂问题排行榜 |
InfoQ 大模型综合能力评估 | 面向中文,ChatGPT>文心一言> Claude>星火 |
ToolBench: 工具调用评估榜单 | 工具微调模型和ChatGPT进行对比,提供评测脚本 |
AgentBench: 推理决策评估榜单 | 清华联合多高校推出不同任务环境,例如购物,家居,操作系统等场景下模型推理决策能力 |
FlagEval | 智源出品主观+客观LLM评分榜单 |
Bird-Bench | 更贴合真实世界应用的超大数据库,需要领域知识的NL2SQL榜单,模型追赶人类尚有时日 |
kola | 以世界知识为核心的评价基准,包括已知的百科知识和未知的近90天网络发布内容,评价知识记忆,理解,应用和创造能力 |
CEVAL | 中文知识评估,覆盖52个学科,机器评价主要为多项选择 |
CMMLU | 67个主题中文知识和推理能力评估,多项选择机器评估 |
LLMEval3 | 复旦推出的知识问答榜单,涵盖大学作业和考题,题库尽可能来自非互联网避免模型作弊 |
QuantBench | AI驱动投资的量化榜单 |
一分钟上手系列:https://blog.csdn.net/u014374009/category_12451843.html
模型链接 | 模型描述 |
---|---|
OpenSora | 没等来OpenAI却等来了OpenSora这个梗不错哦 |
GROK | 马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放 |
Gemma | 谷歌商场开源模型2B,7B免费商用,开源第一易主了 |
Mixtral | 法国“openai”开源基于MegaBlocks训练的MOE模型8*7B 32K |
Mistral7B | 法国“openai”开源Mistral,超过llama2当前最好7B模型 |
Dolphin-2.2.1-Mistral-7B | 基于Mistral7B使用dolphin数据集微调 |
LLama2 | Open Meta带着可商用开源的羊驼2模型来了~ |
LLaMA | Meta开源指令微调LLM,规模70 亿到 650 亿不等 |
WizardLM | 微软新发布13B,登顶AlpacaEval开源模型Top3,使用ChatGPT对指令进行复杂度进化微调LLama2 |
Falcon | Falcon由阿联酋技术研究所在超高质量1万亿Token上训练得到1B,7B,40B开源,免费商用!土豪们表示钱什么的格局小了 |
Vicuna | Alpaca前成员等开源以LLama13B为基础使用ShareGPT指令微调的模型,提出了用GPT4来评测模型效果 |
OpenChat | 80k ShareGPT对话微调LLama-2 13B开源模型中的战斗机 |
Guanaco | LLama 7B基座,在alpaca52K数据上加入534K多语言指令数据微调 |
MPT | MosaicML开源的预训练+指令微调的新模型,可商用,支持84k tokens超长输入 |
RedPajama | RedPajama项目既开源预训练数据后开源3B,7B的预训练+指令微调模型 |
koala | 使用alpaca,HC3等开源指令集+ ShareGPT等ChatGPT数据微调llama,在榜单上排名较高 |
ChatLLaMA | 基于RLHF微调了LLaMA |
Alpaca | 斯坦福开源的使用52k数据在7B的LLaMA上微调得到, |
Alpaca-lora | LORA微调的LLaMA |
Dromedary | IBM self-aligned model with the LLaMA base |
ColossalChat | HPC-AI Tech开源的Llama+RLHF微调 |
MiniGPT4 | Vicuna+BLIP2 文本视觉融合 |
StackLLama | LLama使用Stackexchange数据+SFT+RL |
Cerebras | Cerebras开源了1亿到130亿的7个模型,从预训练数据到参数全开源 |
Dolly-v2 | 可商用 7b指令微调开源模型在GPT-J-6B上微调 |
OpenChatKit | openai研究员打造GPT-NoX-20B微调+6B审核模型过滤 |
MetaLM | 微软开源的大规模自监督预训练模型 |
Amazon Titan | 亚马逊在aws上增加自家大模型 |
OPT-IML | Meta复刻GPT3,up to 175B, 不过效果并不及GPT3 |
Bloom | BigScience出品,规模最大176B |
BloomZ | BigScience出品, 基于Bloom微调 |
Galacia | 和Bloom相似,更针对科研领域训练的模型 |
T0 | BigScience出品,3B~11B的在T5进行指令微调的模型 |
EXLLama | Python/C++/CUDA implementation of Llama for use with 4-bit GPTQ weight |
LongChat | llama-13b使用condensing rotary embedding technique微调的长文本模型 |
MPT-30B | MosaicML开源的在8Ktoken上训练的大模型 |
模型链接 | 模型描述 |
---|---|
Baichuan2 | 百川第二代,提供了7B/13B Base和chat的版本 |
Baichuan | 百川智能开源7B大模型可商用免费 |
ziya2 | 基于Llama2训练的ziya2它终于训练完了 |
ziya | IDEA研究院在7B/13B llama上继续预训练+SFT+RM+PPO+HFTT+COHFT+RBRS |
Qwen1.5 | 通义千问升级1.5,支持32K上文 |
Qwen1-7B+14B+70B | 阿里开源,可商用,通义千问7B,14B,70B Base和chat模型 |
InternLM2 7B+20B | 商汤的书生模型2支持200K |
Orion-14B-LongChat | 猎户星空多语言模型支持320K |
ChatGLM3 | ChatGLM3发布,支持工具调用等更多功能,不过泛化性有待评估 |
ChatGLM2 | 32K长文本,FlashAttention+Multi-Query Attenion的显存优化,更强推理能力,哈哈不过很多简单问题也硬要COT,中英平行能力似乎略有下降的ChatGLM2,但是免费商用! |
ChatGLM | 清华开源的、支持中英双语的对话语言模型,使用了代码训练,指令微调和RLHF。chatglm2支持超长文本,可免费商用啦! |
Yuan-2.0 | 浪潮发布Yuan2.0 2B,51B,102B |
YI-200K | 元一智能开源超长200K的6B,34B模型 |
YI | 元一智能开源34B,6B模型 |
XVERSE-256K | 元象发布13B免费商用大模型,虽然很长但是 |
XVERSE | 元象发布13B免费商用大模型 |
DeepSeek-MOE | 深度求索发布的DeepSeekMoE 16B Base和caht模型 |
DeepSeek | 深度求索发布的7B,67B大模型 |
LLama2-chinese | 没等太久中文预训练微调后的llama2它来了~ |
YuLan-chat2 | 高瓴人工智能基于Llama-2中英双语继续预训练+指令微调/对话微调 |
BlueLM | Vivo人工智能实验室开源大模型 |
zephyr-7B | HuggingFace 团队基于 UltraChat 和 UltraFeedback 训练了 Zephyr-7B 模型 |
XWin-LM | llama2 + SFT + RLHF |
Skywork | 昆仑万维集团·天工团队开源13B大模型可商用 |
Chinese-LLaMA-Alpaca | 哈工大中文指令微调的LLaMA |
Moss | 为复旦正名!开源了预训练,指令微调的全部数据和模型。可商用 |
InternLM | 书生浦语在过万亿 token 数据上训练的多语千亿参数基座模型 |
Aquila2 | 智源更新Aquila2模型系列包括全新34B |
Aquila | 智源开源7B大模型可商用免费 |
UltraLM系列 | 面壁智能开源UltraLM13B,奖励模型UltraRM,和批评模型UltraCM |
PandaLLM | LLAMA2上中文wiki继续预训练+COIG指令微调 |
XVERSE | 据说中文超越llama2的元象开源模型13B模型 |
BiLLa | LLama词表·扩充预训练+预训练和任务1比1混合SFT+指令样本SFT三阶段训练 |
Phoenix | 港中文开源凤凰和奇美拉LLM,Bloom基座,40+语言支持 |
Wombat-7B | 达摩院开源无需强化学习使用RRHF对齐的语言模型, alpaca基座 |
TigerBot | 虎博开源了7B 180B的模型以及预训练和微调语料 |
Luotuo | 中文指令微调的LLaMA,和ChatGLM |
OpenBuddy | Llama 多语言对话微调模型 |
Chinese Vincuna | LLama 7B基座,使用Belle+Guanaco数据训练 |
Linly | Llama 7B基座,使用belle+guanaco+pclue+firefly+CSL+newscommentary等7个指令微调数据集训练 |
Firefly | 中文2.6B模型,提升模型中文写作,古文能力,待开源全部训练代码,当前只有模型 |
Baize | 使用100k self-chat对话数据微调的LLama |
BELLE | 使用ChatGPT生成数据对开源模型进行中文优化 |
Chatyuan | chatgpt出来后最早的国内开源对话模型,T5架构是下面PromptCLUE的衍生模型 |
PromptCLUE | 多任务Prompt语言模型 |
PLUG | 阿里达摩院发布的大模型,提交申请会给下载链接 |
CPM2.0 | 智源发布CPM2.0 |
GLM | 清华发布的中英双语130B预训练模型 |
BayLing | 基于LLama7B/13B,增强的语言对齐的英语/中文大语言模型 |
一分钟上手系列:https://blog.csdn.net/u014374009/category_12451843.html
模型链接 | 模型描述 |
---|---|
PPLX-7B/70B | Perplexity.ai的Playground支持他们自家的PPLX模型和众多SOTA大模型,Gemma也支持了 |
kimi Chat | Moonshot超长文本LLM 可输入20W上文, 文档总结无敌 |
讯飞星火 | 科大讯飞 |
文心一言 | 百度 |
通义千问 | 阿里 |
百川 | 百川 |
ChatGLM | 智谱轻言 |
DeepSeek | 深度求索 |
360智脑 | 360 |
悟空 | 字节跳动 |
领域 | 模型链接 | 模型描述 |
---|---|---|
医疗 | MedGPT | 医联发布的 |
医疗 | MedPalm | Google在Faln-PaLM的基础上通过多种类型的医疗QA数据进行prompt-tuning指令微调得到,同时构建了MultiMedQA |
医疗 | ChatDoctor | 110K真实医患对话样本+5KChatGPT生成数据进行指令微调 |
医疗 | Huatuo Med-ChatGLM | 医学知识图谱和chatgpt构建中文医学指令数据集+医学文献和chatgpt构建多轮问答数据 |
医疗 | Chinese-vicuna-med | Chinese-vicuna在cMedQA2数据上微调 |
医疗 | OpenBioMed | 清华AIR开源轻量版BioMedGPT, 知识图谱&20+生物研究领域多模态预训练模型 |
医疗 | DoctorGLM | ChatDoctor+MedDialog+CMD 多轮对话+单轮指令样本微调GLM |
医疗 | MedicalGPT-zh | 自建的医学数据库ChatGPT生成QA+16个情境下SELF构建情景对话 |
医疗 | PMC-LLaMA | 医疗论文微调Llama |
医疗 | PULSE | Bloom微调+继续预训练 |
医疗 | NHS-LLM | Chatgpt生成的医疗问答,对话,微调模型 |
医疗 | 神农医疗大模型 | 以中医知识图谱的实体为中心生成的中医知识指令数据集11w+,微调LLama-7B |
医疗 | 岐黄问道大模型 | 3个子模型构成,已确诊疾病的临床治疗模型+基于症状的临床诊疗模型+中医养生条理模型,看起来是要ToB落地 |
医疗 | Zhongjing | 基于Ziya-LLama+医疗预训练+SFT+RLHF的中文医学大模型 |
医疗 | MeChat | 心理咨询领域,通过chatgpt改写多轮对话56k |
医疗 | SoulChat | 心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调 ChatGLM-6B |
医疗 | MindChat | MindChat-Baichuan-13B,Qwen-7B,MindChat-InternLM-7B使用不同基座在模型安全,共情,人类价值观对其上进行了强化 |
医疗 | DISC-MedLLM | 疾病知识图谱构建QA对+QA对转化成单论对话+真实世界数据重构+人类偏好数据筛选,SFT微调baichuan |
法律 | LawGPT-zh | 利用ChatGPT清洗CrimeKgAssitant数据集得到52k单轮问答+我们根据中华人民共和国法律手册上最核心的9k法律条文,利用ChatGPT联想生成具体的情景问答+知识问答使用ChatGPT基于文本构建QA对 |
法律 | LawGPT | 基于llama+扩充词表二次预训练+基于法律条款构建QA指令微调 |
法律 | Lawyer Llama | 法律指令微调数据集:咨询+法律考试+对话进行指令微调 |
法律 | LexiLaw | 法律指令微调数据集:问答+书籍概念解释,法条内容进行指令微调 |
法律 | ChatLaw | 北大推出的法律大模型,应用形式很新颖类似频道内流一切功能皆融合在对话形式内 |
法律 | 录问模型 | 在baichuan基础上40G二次预训练+100K指令微调,在知识库构建上采用了Emb+意图+关键词联想结合的方案 |
金融 | FinChat.io | 使用最新的财务数据,电话会议记录,季度和年度报告,投资书籍等进行训练 |
金融 | OpenGPT | 领域LLM指令样本生成+微调框架 |
金融 | 乾元BigBang金融2亿模型 | 金融领域预训练+任务微调 |
金融 | 度小满千亿金融大模型 | 在Bloom-176B的基础上进行金融+中文预训练和微调 |
金融 | bondGPT | GPT4在细分债券市场的应用开放申请中 |
金融 | IndexGPT | JPMorgan在研的生成式投资顾问 |
金融 | 恒生LightGPT | 金融领域继续预训练+插件化设计 |
金融 | 知彼阿尔法 | 企查查商查大模型 |
金融 | AlphaBox | 熵简科技发布大模型金融应用,多文档问答+会议转录+文档编辑 |
金融 | 曹植 | 达观发布金融大模型融合data2text等金融任务,赋能报告写作 |
金融 | 聚宝盆 | 基于 LLaMA 系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型 |
金融 | PIXIU | 整理了多个金融任务数据集加入了时间序列数据进行指令微调 |
金融 | ChatFund | 韭圈儿发布的第一个基金大模型,看起来是做了多任务指令微调,和APP已有的数据功能进行了全方位的打通,从选基,到持仓分析等等 |
金融 | FinGPT | 金融传统任务微调 or chatgpt生成金融工具调用 |
金融 | CFGPT | 金融预训练+指令微调+RAG等检索任务增强 |
金融 | 况客FOF智能投顾 | 基金大模型应用,基金投顾,支持nl2sql类的数据查询,和基金信息对比查询等 |
金融 | DISC-FinLLM | 复旦发布多微调模型组合金融系统,包括金融知识问答,金融NLP任务,金融计算,金融检索问答 |
金融 | InvestLM | CFA考试,SEC, StackExchange投资问题等构建的金融指令微调LLaMA-65+ |
金融 | HithinkGPT | 同花顺发布金融大模型问财,覆盖查询,分析,对比,解读,预测等多个问题领域 |
金融 | 无涯Infinity | 星环科技发布的金融大模型 |
金融 | 妙想 | 东方财富自研金融大模型开放试用 |
金融 | DeepMoney | 基于yi-34b-200k使用金融研报进行微调 |
编程 | Starcoder | 80种编程语言+Issue+Commit训练得到的编程大模型 |
编程 | ChatSQL | 基于ChatGLM实现NL2sql |
编程 | codegeex | 13B预训练+微调多语言变成大模型 |
编程 | codegeex2 | Chatglm2的基础上CodeGeeX2-6B 进一步经过了 600B 代码数据预训练 |
编程 | stabelcode | 560B token多语言预训练+ 120,000 个 Alpaca指令对齐 |
编程 | SQLCoder | 在StarCoder的基础上微调15B超越gpt3.5 |
数学 | MathGPT | 是好未来自主研发的,面向全球数学爱好者和科研机构,以解题和讲题算法为核心的大模型。 |
数学 | MammoTH | 通过COT+POT构建了MathInstruct数据集微调llama在OOD数据集上超越了WizardLM |
数学 | MetaMath | 模型逆向思维解决数学问题,构建了新的MetaMathQA微调llama2 |
交通 | TransGPT | LLama-7B+34.6万领域预训练+5.8万条领域指令对话微调(来自文档问答) |
交通 | TrafficGPT | ChatGPT+Prompt实现规划,调用交通流量领域专业TFM模型,TFM负责数据分析,任务执行,可视化等操作 |
科技 | Mozi | 红睡衣预训练+论文QA数据集 + ChatGPT扩充科研对话数据 |
天文 | StarGLM | 天文知识指令微调,项目进行中后期考虑天文二次预训练+KG |
写作 | 阅文-网文大模型介绍 | 签约作者内测中,主打的内容为打斗场景,剧情切换,环境描写,人设,世界观等辅助片段的生成 |
写作 | MediaGPT | LLama-7B扩充词表+指令微调,指令来自国内媒体专家给出的在新闻创作上的80个子任务 |
电商 | EcomGPT | 电商领域任务指令微调大模型,指令样本250万,基座模型是Bloomz |
植物科学 | PLLaMa | 基于Llama使用植物科学领域学术论文继续预训练+sft扩展的领域模型 |
评估 | Auto-J | 上交开源了价值评估对齐13B模型 |
评估 | JudgeLM | 智源开源了 JudgeLM 的裁判模型,可以高效准确地评判各类大模型 |
评估 | CritiqueLLM | 智谱AI发布评分模型CritiqueLLM,支持含参考文本/无参考文本的评估打分 |
模型链接 | 模型描述 |
---|---|
Jina-Cobert | Jian AI开源中英德,8192 Token长文本Embedding |
BGE-M3 | 智源开源多语言,稀疏+稠密表征,8192 Token长文本Embedding |
BCE | 网易开源更适配RAG任务的Embedding模型 |
工具描述 | 链接 |
---|---|
FlexFlow:模型部署推理框架 | https://github.com/flexflow/FlexFlow |
Medusa:针对采样解码的推理加速框架,可以和其他策略结合 | https://github.com/FasterDecoding/Medusa |
FlexGen: LLM推理 CPU Offload计算架构 | https://github.com/FMInference/FlexGen |
VLLM:超高速推理框架Vicuna,Arena背后的无名英雄,比HF快24倍,支持很多基座模型 | https://github.com/vllm-project/vllm |
Streamingllm: 新注意力池Attention方案,无需微调拓展模型推理长度,同时为推理提速 | https://github.com/mit-han-lab/streaming-llm |
llama2.c: llama2 纯C语言的推理框架 | https://github.com/karpathy/llama2.c |
工具描述 | 链接 |
---|---|
LoRA:Low-Rank指令微调方案 | https://github.com/tloen/alpaca-lora |
peft:parameter-efficient prompt tunnging工具集 | https://github.com/huggingface/peft |
RL4LMs:AllenAI的RL工具 | https://github.com/allenai/RL4LMs |
RLLTE:港大,大疆等联合开源RLLTE开源学习框架 | https://github.com/RLE-Foundation/rllte |
trl:基于Transformer的强化训练框架 | https://github.com/lvwerra/trl |
trlx:分布式训练trl | https://github.com/CarperAI/trlx |
北大开源河狸项目可复现RLHF,支持多数LLM,提供RLHF数据 | https://github.com/PKU-Alignment/safe-rlhf |
RL4LMs:AllenAI的RL工具 | https://github.com/allenai/RL4LMs |
LMFlow:港科大实验室开源的大模型微调框架,支持以上多数开源模型的指令微调和RLHF | https://github.com/OptimalScale/LMFlow |
hugNLP:基于Huggingface开发继承Prompt技术,预训练和是指输入等多种方案 | https://github.com/wjn1996/HugNLP |
Deepspeed:针对RL训练和推理的整合优化 | https://github.com/microsoft/DeepSpeed |
Uerpy:预训练框架支持lm,mlm,unilm等 | https://github.com/dbiir/UER-py |
TecentPretrain: Uerpy的重构版本支持llama预训练 | https://github.com/Tencent/TencentPretrain/tree/main |
lamini: 整合指令数据生成,SFT,RLHF的工具库 | https://github.com/lamini-ai/lamini/ |
Chain-of-thought-hub:模型推理能力评估平台 | https://github.com/FranxYao/chain-of-thought-hub |
EasyEdit:浙大开源支持多种模型,多种方案的模型知识精准编辑器 | https://github.com/zjunlp/EasyEdit |
OpenDelta:集成了各种增量微调方案的开源实现 | https://github.com/thunlp/OpenDelta |
Megablocks:MOE训练框架 | https://github.com/stanford-futuredata/megablocks |
Tutel:MOE训练框架 | https://github.com/microsoft/tutel |
TradingGym:参考openai gym的股票交易强化学习模拟器 | https://github.com/astrologos/tradinggym |
LongLora: 长文本微调框架 | https://github.com/dvlab-research/LongLoRA |
LlamaGym:在线RL微调框架 | https://github.com/KhoomeiK/LlamaGym |
工具描述 | 链接 |
---|---|
AutoGen:微软开源多Agent顶层框架 | https://github.com/microsoft/autogen |
CrewAI: 比chatDev流程定义更灵活的多智能体框架 | https://github.com/joaomdmoura/CrewAI |
ChatDev: 面壁智能开源多智能体协作的虚拟软件公司 | https://github.com/OpenBMB/ChatDev |
Generative Agents:斯坦福AI小镇的开源代码 | https://github.com/joonspk-research/generative_agents |
BabyAGI:自执行LLM Agent | https://github.com/yoheinakajima/babyagi |
AutoGPT:自执行LLM Agent | https://github.com/Torantulino/Auto-GPT |
AutoGPT-Plugins:提供众多Auo-GPT官方和第三方的插件 | https://github.com/Significant-Gravitas/Auto-GPT-Plugins |
XAgent: 面壁智能开源双循环AutoGPT | https://github.com/OpenBMB/XAgent |
MetaGPT: 覆盖软件公司全生命流程,例如产品经理等各个职业的AutoGPT | https://github.com/geekan/MetaGPT |
ResearchGPT: 论文写作领域的AutoGPT,融合论文拆解+网络爬虫 | https://github.com/assafelovic/gpt-researcher |
MiniAGI:自执行LLM Agent | https://github.com/muellerberndt/mini-agi |
AL Legion: 自执行LLM Agent | https://github.com/eumemic/ai-legion |
AgentVerse:多模型交互环境 | https://github.com/OpenBMB/AgentVerse |
AgentSims: 给定一个社会环境,评估LLM作为智能体的预定任务目标完成能力的沙盒环境 | https://github.com/py499372727/AgentSims/ |
GPTRPG:RPG环境 AI Agent游戏化 | https://github.com/dzoba/gptrpg |
GPTeam:多智能体交互 | https://github.com/101dotxyz/GPTeam |
GPTEngineer:自动工具构建和代码生成 | https://github.com/AntonOsika/gpt-engineer |
WorkGPT:类似AutoGPT | https://github.com/team-openpm/workgpt |
AI-Town: 虚拟世界模拟器 | https://github.com/a16z-infra/ai-town |
webarena:网络拟真环境,可用于自主智能体的测试,支持在线购物,论坛,代码仓库etc | https://github.com/web-arena-x/webarena |
MiniWoB++:100+web交互操作的拟真环境 | https://github.com/Farama-Foundation/miniwob-plusplus |
工具描述 | 链接 |
---|---|
OpenAgents: 开源版ChatGPT-Plus搭建框架 | https://github.com/xlang-ai/OpenAgents |
langchain:LLM Agent框架 | https://github.com/hwchase17/langchain |
llama index:LLM Agent框架 | https://github.com/jerryjliu/llama_index |
Langroid: LLM Agent框架 | https://github.com/langroid/langroid |
Ragas: 评估检索增强LLM效果的框架,基于大模型prompt评估事实性,召回相关性,召回内容质量,回答相关性等 | https://github.com/explodinggradients/ragas#fire-quickstart |
fastRAG:检索框架,包括多索引检索,KG构建等基础功能 | https://github.com/IntelLabs/fastRAG/tree/main |
langflow:把langchain等agent组件做成了可拖拽式的UI | https://github.com/logspace-ai/langflow |
PhiData:把工具调用抽象成function call的Agent框架 | https://github.com/phidatahq/phidata |
Haystack: LLM Agent 框架,pipeline的设计模式个人感觉比langchain更灵活更简洁 | https://github.com/deepset-ai/haystack |
EdgeChain: 通过Jsonnet配置文件实现LLM Agent | https://github.com/arakoodev/EdgeChains/tree/main |
semantic-kernel:整合大模型和编程语言的SDK | https://github.com/microsoft/semantic-kernel |
BMTTools: 清华出品多工具调用开源库,提供微调数据和评估ToolBench | https://github.com/OpenBMB/BMTools |
Jarvis: 大模型调用小模型框架,给小模型一个未来! | https://github.com/search?q=jarvis |
LLM-ToolMaker:让LLM自己制造Agent | https://github.com/ctlllll/LLM-ToolMaker |
Gorilla: LLM调用大量API | https://github.com/ShishirPatil/gorilla |
wenda:闻达小模型整合搜索用于知识融入 | https://github.com/l15y/wenda |
Alexandria: 从Arix论文开始把整个互联网变成向量索引,可以免费下载 | https://alex.macrocosm.so/download |
RapidAPI: 统一这个世界的所有API,最大API Hub,有调用成功率,latency等,是真爱! | https://rapidapi.com/hub |
Open-Interpreter:命令行聊天框架 | https://github.com/KillianLucas/open-interpreter |
AnythingLLM: langchain推出的支持本地部署开源模型的框架 | https://github.com/Mintplex-Labs/anything-llm |
PromptFlow:微软推出的大模型应用框架 | https://github.com/microsoft/promptflow |
Coze:字节跳动推出的个性化Agent定制应用支持多个大模型丰富插件集使用 | https://www.coze.com/username?redirect=/explore |
Anakin:和Coze类似的Agent定制应用,插件支持较少但workflow使用起来更简洁 | https://app.anakin.ai/discover |
TaskingAI:API-Oriented的类似langchain的大模型应用框架 | https://www.tasking.ai/ |
工具描述 | 链接 |
---|---|
Deep-KE:基于LLM对数据进行智能解析实现知识抽取 | https://github.com/zjunlp/DeepKE |
IncarnaMind:多文档RAG方案,动态chunking的方案可以借鉴 | https://github.com/junruxiong/IncarnaMind |
Vectra:平台化的LLM Agent搭建方案,从索引构建,内容召回排序,到事实检查的LLM生成 | https://vectara.com/tour-vectara/ |
Data-Copilot:时间序列等结构化数据分析领域的Agent解决方案 | https://github.com/zwq2018/Data-Copilot |
DB-GPT: 以数据库为基础的GPT实验项目,使用本地化的GPT大模型与您的数据和环境进行交互 | https://db-gpt.readthedocs.io/projects/db-gpt-docs-zh-cn/zh_CN/latest/index.html |
guardrails:降低模型幻觉的python框架,promp模板+validation+修正 | https://github.com/shreyar/guardrails |
guidance:微软新开源框架,同样是降低模型幻觉的框架,prompt+chain的升级版加入逐步生成和思维链路 | https://github.com/guidance-ai/guidance |
SolidGPT: 上传个人数据,通过命令交互创建项目PRD等 | https://github.com/AI-Citizen/SolidGPT |
HR-Agent: 类似HR和员工交互,支持多工具调用 | https://github.com/stepanogil/autonomous-hr-chatbot |
BambooAI:数据分析Agent | https://github.com/pgalko/BambooAI |
AlphaCodium:通过Flow Engineering完成代码任务 | https://github.com/Codium-ai/AlphaCodium |
数据类型 | 数据描述 | 数据链接 |
---|---|---|
指令微调 | self-instruct,GPT3自动生成&过滤得到指令集 | https://github.com/yizhongw/self-instruct |
指令微调 | Standford Alpaca:52K text-davinci-003生成的self-instruct指令数据集 | https://github.com/tatsu-lab/stanford_alpaca |
指令微调 | GPT4-for-LLM 中文+英文+对比指令 | https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM |
指令微调 | GPTTeacher更多样的通用指令,角色扮演和代码指令 | https://github.com/teknium1/GPTeacher/tree/main |
指令微调 | 中文翻译Alpaca还有一些其他指令数据集 | https://github.com/hikariming/alpaca_chinese_dataset https://github.com/carbonz0/alpaca-chinese-dataset |
指令微调 | alpaca指令GPT4生成,和以上几版对比显著质量更高,回复更长 | https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM/tree/main |
指令微调 | Guanaco数据:对Alphca指令重写后以不同语言生成总共534K,有对话和非对话类型,还有补充的QA生成样本 | https://huggingface.co/datasets/JosephusCheung/GuanacoDataset |
指令微调 | OIG中文指令包括翻译alpaca+natural+unnatural,多轮对话,考试,leetcode指令 | https://github.com/BAAI-Zlab/COIG |
指令微调 | Vicuna训练使用的样本,用API获取了sharegpt上用户和chatgpt对话历史,部分网友整理到了HF | https://github.com/domeccleston/sharegpt https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered/tree/main |
指令微调 | HC3指令数据中英文,包括金融,开放QA,百科,DBQA,医学等包含人工回复 | https://huggingface.co/datasets/Hello-SimpleAI/HC3-Chinese/tree/main |
指令微调 | MOSS开源的SFT数据包含使用plugin的对话数据 | https://huggingface.co/datasets/Hello-SimpleAI/HC3-Chinese/tree/main |
指令微调 | InstructWild数据:用四处爬取的chatgpt指令作为种子self-instruct扩充生成,中英双语 | https://github.com/XueFuzhao/InstructionWild/tree/main/data |
指令微调 | BELLE100万指令数据,参考Alpaca用ChatGPT生成,有数学,多轮对话,校色对话等等 | https://github.com/LianjiaTech/BELLE |
指令微调 | PromptCLUE多任务提示数据集:模板构建,只包含标准NLP任务 | https://github.com/CLUEbenchmark/pCLUE |
指令微调 | TK-Instruct微调用的指令数据集, 全人工标注1600+NLP任务 | https://instructions.apps.allenai.org/ |
指令微调 | T0微调用的指令数据集(P3) | https://huggingface.co/datasets/bigscience/P3 |
指令微调 | p3衍生的46种多语言数据集(xmtf) | https://github.com/bigscience-workshop/xmtf |
指令微调 | Unnatural Instruction使用GPT3生成后改写得到240k | https://github.com/orhonovich/unnatural-instructions |
指令微调 | alpaca COT对多个数据源进行了清理并统一格式放到的了HF, 重点是人工整理的COT数据 | https://github.com/PhoebusSi/Alpaca-CoT |
指令微调 | 人工编写包含23种常见的中文NLP任务的指令数据,中文写作方向 | https://github.com/yangjianxin1/Firefly |
指令微调 | Amazon COT指令样本包括各类QA,bigbench,math等 | https://github.com/amazon-science/auto-cot |
指令微调 | CSL包含 396,209 篇中文核心期刊论文元信息 (标题、摘要、关键词、学科、门类)可做预训练可构建NLP指令任务 | https://github.com/ydli-ai/CSL |
指令微调 | alpaca code 20K代码指令数据 | https://github.com/sahil280114/codealpaca#data-release |
指令微调 | GPT4Tools 71K GPT4指令样本 | https://github.com/StevenGrove/GPT4Tools |
指令微调 | GPT4指令+角色扮演+代码指令 | https://github.com/teknium1/GPTeacher |
指令微调 | Mol-Instructions 2043K 分子+蛋白质+生物分子文本指令,覆盖分子设计、蛋白质功能预测、蛋白质设计等任务 | https://github.com/zjunlp/Mol-Instructions |
数学 | 腾讯人工智能实验室发布网上爬取的数学问题APE210k | https://github.com/Chenny0808/ape210k |
数学 | 猿辅导 AI Lab开源小学应用题Math23K | https://github.com/SCNU203/Math23k/tree/main |
数学 | grade school math把OpenAI的高中数学题有改造成指令样本有2-8步推理过程 | https://huggingface.co/datasets/qwedsacf/grade-school-math-instructions |
数学 | 数学问答数据集有推理过程和多项选择 | https://huggingface.co/datasets/math_qa/viewer/default/test?row=2 |
数学 | AMC竞赛数学题 | https://huggingface.co/datasets/competition_math |
数学 | 线性代数等纯数学计算题 | https://huggingface.co/datasets/math_dataset |
代码 | APPS从不同的开放访问编码网站Codeforces、Kattis 等收集的问题 | https://opendatalab.org.cn/APPS |
代码 | Lyra代码由带有嵌入式 SQL 的 Python 代码组成,经过仔细注释的数据库操作程序,配有中文评论和英文评论。 | https://opendatalab.org.cn/Lyra |
代码 | Conala来自StackOverflow问题,手动注释3k,英文 | https://opendatalab.org.cn/CoNaLa/download |
代码 | code-alpaca ChatGPT生成20K代码指令样本 | https://github.com/sahil280114/codealpaca.git |
代码 | 32K, 四种不同类型、不同难度的代码相关中文对话数据,有大模型生成, | https://github.com/zxx000728/CodeGPT |
对话 | LAION 策划的开放指令通用数据集中手动选择的组件子集 已开源40M 3万个,100M在路上 | https://github.com/LAION-AI/Open-Instruction-Generalist |
对话 | Baize基于Chat GPT构建的self-chat数据 | https://github.com/project-baize/baize-chatbot/tree/main/data |
对话 | FaceBook开源BlenderBot训练对话数据~6K | https://huggingface.co/datasets/blended_skill_talk |
对话 | AllenAI开源38.5万个对话高质量数据集SODA | https://realtoxicityprompts.apps.allenai.org/ |
对话 | InstructDial在单一对话任务类型上进行指令微调 | https://github.com/prakharguptaz/Instructdial |
对话 | Ultra Chat 两个独立的 ChatGPT Turbo API 进行对话,从而生成多轮对话数据 | https://github.com/thunlp/UltraChat |
对话 | Awesome Open-domain Dialogue Models提供多个开放域对话数据 | https://github.com/cingtiye/Awesome-Open-domain-Dialogue-Models#%E4%B8%AD%E6%96%87%E5%BC%80%E6%94%BE%E5%9F%9F%E5%AF%B9%E8%AF%9D%E6%95%B0%E6%8D%AE%E9%9B%86 |
对话 | Salesforce开源超全DialogStudio | https://github.com/salesforce/DialogStudio |
对话 | 基于事实Reference的多轮问答中文数据,已开源5万,之后会开源更多 | https://github.com/sufengniu/RefGPT |
RLFH | 北大河狸开源RLHF数据集10K,1M需要申请 | https://huggingface.co/datasets/PKU-Alignment/PKU-SafeRLHF-10K |
RLHF | Anthropic hh-rlhf数据集 | https://huggingface.co/datasets/Anthropic/hh-rlhf |
RLHF | Stack-exchange上问题对应多个答案,每个答案有打分 | https://huggingface.co/datasets/HuggingFaceH4/stack-exchange-preferences/tree/main |
RLHF | Facebook Bot Adversarial Dialogues数据集5K | https://github.com/facebookresearch/ParlAI |
RLHF | AllenAI Real Toxicity prompts | https://github.com/facebookresearch/ParlAI |
RLHF | OpenAssistant Conversations 160K消息,13500人工生成, 英文为主 | https://huggingface.co/datasets/OpenAssistant/oasst1 |
RLHF | 知乎问答偏好数据集 | https://huggingface.co/datasets/liyucheng/zhihu_rlhf_3k |
RLHF | hh-rlhf中文翻译偏好数据 | https://huggingface.co/datasets/liswei/rm-static-zhTW |
RLHF | 面壁智能开源大规模偏好数据,基于64Kprompt使用不同模型生成4个回答使用GPT-4评估 | https://github.com/OpenBMB/UltraFeedback |
评估集 | BigBench(Beyond the Imitation Game Benchmark) | https://github.com/google/BIG-bench |
评估集 | Complex QA:用于ChatGPT的评测指令集 | https://github.com/tan92hl/Complex-Question-Answering-Evaluation-of-ChatGPT |
评估集 | Langchain开源评估数据集 | https://huggingface.co/LangChainDatasets |
评估集 | 2010-2022年全国高考卷的题目 | https://github.com/OpenLMLab/GAOKAO-Bench |
评估集 | 中文通用大模型综合性评测基准SuperCLUE | https://github.com/CLUEbenchmark/SuperCLUE |
英文预训练 | RedPajama开源的复刻llama的预训练数据集,1.21万亿Token | https://github.com/togethercomputer/RedPajama-Data |
英文预训练 | Cerebras基于RedPajama进行清洗去重后得到的高质量数据集, 6270亿Token | https://huggingface.co/datasets/cerebras/SlimPajama-627B/tree/main/train |
英文预训练 | Pile 22个高质量数据集混合的预训练数据集800G,全量开放下载 | https://pile.eleuther.ai/ |
通用预训练 | UER整理CLUECorpusSmall+News Commentary中英 | https://github.com/dbiir/UER-py/wiki/%E9%A2%84%E8%AE%AD%E7%BB%83%E6%95%B0%E6%8D%AE |
中文预训练 | 智源人工智能开源的wudao 200G预训练数据 | https://github.com/BAAI-WuDao/WuDaoMM |
中文预训练 | 里屋社区发起开源力量收集中文互联网语料集MNBVC目标是对标ChatGPT的40T | https://github.com/esbatmop/MNBVC |
中文预训练 | 复旦开源15万中文图书下载和抽取方案 | https://github.com/FudanNLPLAB/CBook-150K |
中文预训练 | 书生万卷数据集来自公开网页多模态数据集,包括文本,图文和视频,其中文本1T,图文150G | https://opendatalab.org.cn/OpenDataLab/WanJuan1_dot_0 |
中文预训练 | 昆仑天工开源3.2TB中英语料 | https://github.com/SkyworkAI/Skywork |
中文预训练 | 浪潮开源的用于Yuan1.0训练的预训练中文语料 | https://www.airyuan.cn/home |
领域预训练 | 度小满开源60G金融预训练语料 | https://github.com/Duxiaoman-DI/XuanYuan |
领域预训练 | 首个中文科学文献数据集CSL,也有多种NLP任务数据 | https://github.com/ydli-ai/CSL |
平行语料 | news-commentary中英平行语料,用于中英间知识迁移 | https://data.statmt.org/news-commentary/v15/training/ |
多源数据集整合 | opendatalab整合了预训练阶段的多个数据源 | https://opendatalab.org.cn/?industry=9821&source=JUU3JTlGJUE1JUU0JUI5JThF |
Tool-搜索增强 | webCPM开源的和搜索工具进行交互问答的数据集,包括网页抽取式摘要,多事实内容回答等人工标注数据 | https://github.com/thunlp/WebCPM |
Tool-多工具 | BmTools开源的多工具调用指令数据集 | https://github.com/OpenBMB/BMTools |
Tool-多工具 | AgentInstruct包含6项Agent任务,包括REACT式COT标注 | https://thudm.github.io/AgentTuning/ |
Tool-多工具 | MSAgent-Bench 大模型调用数据集 598k训练数据 | https://modelscope.cn/datasets/damo/MSAgent-Bench/summary |
Tool-多工具 | MOSS开源的知识搜索,文生图,计算器,解方程等4个插件的30万条多轮对话数据 | https://github.com/OpenLMLab/MOSS#%E6%95%B0%E6%8D%AE |
NL2SQL | DB-GPT-Hub梳理了多源text-to-sql数据集 | https://github.com/eosphoros-ai/DB-GPT-Hub |
长文本 | 清华开源的长文本对齐数据集LongAlign-10k | https://huggingface.co/datasets/THUDM/LongAlign-10k |
一分钟上手系列:https://blog.csdn.net/u014374009/category_12451843.html
近年来,人工智能领域的发展迅猛,特别是在自然语言处理(NLP)领域,大型语言模型(LLM)和提示工程(Prompt Engineering)已经成为研究的热点。同时,开源数据集和模型的共享,以及AI生成内容(AIGC)的应用也在不断扩展。以下是对这些领域的一个简要总结:
Prompt Engineering 是指设计和优化输入提示(prompts)以引导大型语言模型(LLM)生成特定输出的技术。这种方法利用了LLM在预训练阶段学习到的丰富知识,通过精心设计的提示来激发模型的潜能,从而在各种任务上实现零样本(zero-shot)或少样本(few-shot)学习。
关键点:
开源数据集和模型的共享对于推动AI研究和应用至关重要。开源数据集提供了丰富的、多样化的数据资源,而开源模型则允许研究者和开发者在已有的基础上进行创新和改进。
关键点:
AIGC 指的是使用人工智能技术自动生成内容,这包括文本、图像、音频和视频等。AIGC 应用的兴起,使得个性化内容的创作变得更加高效和便捷。
关键点:
Prompt Engineering、开源数据&模型以及AIGC 应用是人工智能领域相互关联的三个重要方面。Prompt Engineering 通过优化输入提示来提升LLM的性能,开源数据和模型的共享为AI研究提供了基础,而AIGC 应用则展示了AI技术在内容创作领域的潜力。随着技术的进步,这些领域将继续发展,为人类社会带来更多的创新和变革。