E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
语言模型
大型
语言模型
(LLM)的优势、劣势和风险
最近关于大型
语言模型
的奇迹()已经说了很多LLMs。这些荣誉大多是当之无愧的。让ChatGPT描述广义相对论,你会得到一个非常好(且准确)的答案。
MinIO官方账号
·
2024-02-06 08:03
程序人生
自然语言处理 | (13)kenLM统计
语言模型
构建与应用
本篇博客中我们将学习如何使用KenLM工具构建统计
语言模型
,并使用它完成一个典型的'智能纠错'文本任务。
CoreJT
·
2024-02-06 07:21
自然语言处理
自然语言处理(NLP)
kenLM工具库
统计语言模型
n-gram
智能纠错
【2024最全最细Langchain教程-10】Langchain记忆模块
【2024最全最细Lanchain教程-9】Langchain互联网查询-CSDN博客上节课我们介绍了如何利用langchain去加载互联网页面内容(中文信息)、向量化和利用大
语言模型
进行查询,这节课我们讲一下
AI小万老师
·
2024-02-06 07:34
langchain
人工智能
ai
python
LLM之RAG实战(二十二)| LlamaIndex高级检索(一)构建完整基本RAG框架(包括RAG评估)
在RAG(retrievalAugmentedGeneration,检索增强生成)系统中,检索到文本的质量对大型
语言模型
生成响应的质量是非常重要的。
wshzd
·
2024-02-06 06:40
RAG
笔记
java
人工智能
自然语言处理
LoRA:
语言模型
微调的计算资源优化策略
编者按:随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型微调的成本也变得越来越高。全参数微调需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。本文作者介绍了一种新方法LoRA,可以在保持模型性能的同时大幅减少微调的参数量和所需资源。LoRA通过引入两个低秩适配矩阵,用矩阵乘法的方法替换大部分参数。实验证明,LoRA在多项NLP任务上的表现与许多微调方法(如Adapte
Baihai IDP
·
2024-02-06 06:53
技术干货
LLM
prompt
白海科技
深度学习
人工智能
大语言模型
【LangChain-04】利用权重和偏差跟踪和检查LangChain代理的提示
除了更强大且幸运的是开放的大型
语言模型
(LLM)之外,LangChain已成为开发人工智能驱动的应用程序和代理的主要工具。Langchain是一个功能强大且功能丰富的开源框架,适用于LLM。
无水先生
·
2024-02-06 06:06
NLP高级和ChatGPT
人工智能
langchain
自然语言处理
Plus GPT API最有前途的应用领域
GPT-3API是由OpenAI开发的一种自然语言处理技术,它是当前最先进的
语言模型
之一。
橘子海_G
·
2024-02-06 05:45
人工智能
chatgpt
自然语言处理
语音识别
oneapi
深度学习系列57: 清华大模型MiniCPM上手
MiniCPM是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体
语言模型
MiniCPM-2B仅有24亿(2.4B)的非词嵌入参数量1.上手对比测试mps比cpu大概快了9倍左右。
IE06
·
2024-02-06 02:53
深度学习系列
python
今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损
引言:探索大型
语言模型
的高效压缩方法随着大型
语言模型
(LLMs)在自然语言处理领域的广泛应用,它们对计算和内存资源的巨大需求成为了一个不容忽视的问题。
夕小瑶
·
2024-02-06 01:56
自然语言处理
人工智能
chatgpt对接网络
ChatGPT是OpenAI开发的一种基于
语言模型
的对话系统,可以与用户进行自然语言交互。为了实现ChatGPT的网络对接,需要将ChatGPT与网络进行集成,使其能够通过网络接口与用户进行对话。
红匣子实力推荐
·
2024-02-06 01:47
使用LlamaIndex,Qdrant,Ollama和FastAPI构建本地RAG api
人们现在将这些大型
语言模型
(LLMs)作为主要的个人助手来进行写作、头脑风暴甚至咨询。然而,这些LLMs的问题在于,它们的表现只能和它们接受的训练数据一样好。
ericliu2017
·
2024-02-06 00:54
fastapi
LLM
RAG
GPT-4如何帮助大学生完成毕业设计与毕业论文?
GPT-4是一个由OpenAI开发的大型
语言模型
,它能够理解和生成人类般的文本。GPT-4
Blind.894
·
2024-02-05 23:51
人工智能
最全AI工具汇总一(文本生成,图画,语音,生活助手,AI翻译)
AI问答国内免费使用的Chatgpt3.5URL:https://618ai.comText:ChatGPTChatGPT:优化对话的
语言模型
URL:https://chat.openai.com/Text
稚肩
·
2024-02-05 22:44
实用工具和技巧
人工智能
生活
chatgpt
文心一言
文心一言4.0API接入指南
概述文心一言是百度打造出来的人工智能大
语言模型
,具备跨模态、跨语言的深度语义理解与生成能力,文心一言有五大能力,文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成,其在搜索问答、内容创作生成、智能办公等众多领域都有更广阔的想象空间
小小晓晓阳
·
2024-02-05 20:37
LLM
文心一言
人工智能
gpt
使用 LoRA 在 viggo 数据集上微调 Microsoft phi-2 小
语言模型
一、说明Microsoft的基于Transformer的小
语言模型
。它可以根据MIT许可在HuggingFace上使用。它在96个A100GPU上使用1.4T令牌进行了14天的训练。
无水先生
·
2024-02-05 18:54
NLP高级和ChatGPT
人工智能
microsoft
语言模型
人工智能
GPT原始论文:Improving Language Understanding by Generative Pre-Training论文翻译
我们展示了通过在多样化的未标注文本语料库上对
语言模型
进行生成式预训练,随后对每个特定任务进行区分性微调,可以实现这些任务的大幅度改进。与以往的方法不同,我们在微调过程中使用了任务感知的输入转换,
iKang_dlut
·
2024-02-05 15:15
gpt
人工智能
深度学习
MiniCPM:揭示端侧大
语言模型
的无限潜力
OpenBMB/MiniCPM➤HuggingFace地址:https://huggingface.co/openbmb/MiniCPM-2B-sft-bf161简介MiniCPM是一系列端侧语言大模型,主体
语言模型
智慧医疗探索者
·
2024-02-05 13:58
深度学习模型
语言模型
人工智能
自然语言处理
LLaMA 模型和DeepSpeed 框架联系与使用
1.LLaMA模型介绍LLaMA(LargeLanguageModel-MetaAI)是一个由MetaAI开发的大型
语言模型
。
samoyan
·
2024-02-05 13:28
LLM
面试
llama
清华系2B模型杀出,性能吊打LLaMA-13B
2月1日,面壁智能与清华大学自然语言处理实验室共同开源了系列端侧语言大模型MiniCPM,主体
语言模型
MiniCPM-2B仅有24亿(2.4B)的非词嵌入参数量。
智慧医疗探索者
·
2024-02-05 13:28
深度学习模型
llama
大模型
MiniCPM-2B
从领域外到领域内:LLM在Text-to-SQL任务中的演进之路
导语本文介绍了ODIS框架,这是一种新颖的Text-to-SQL方法,它结合了领域外示例和合成生成的领域内示例,以提升大型
语言模型
在In-contextLearning中的性能。
Q同学的nlp笔记
·
2024-02-05 11:26
sql
数据库
人工智能
自然语言处理
深度学习
nlp
论文阅读
ChatGPT高效提问—基础知识(LM、PLM以及LLM)
ChatGPT高效提问—基础知识(LM、PLM以及LLM)了解
语言模型
(languagemodel,LM)、预训练
语言模型
(pre-trainedlanguagemodel,PLM)和大型
语言模型
(largelanguagemodel
Bruce_Liuxiaowei
·
2024-02-05 08:11
笔记
总结经验
chatgpt
复旦大学NLP团队发布86页大模型Agent综述
复旦大学自然语言处理团队(FudanNLP)发布了一篇长达86页的综述论文,探讨了基于大型
语言模型
的智能代理的现状和未来。
源代码杀手
·
2024-02-05 06:57
自然语言处理笔记与知识图谱专栏
自然语言处理
人工智能
人工智能时代:AI提示工程的奥秘 —— 驾驭大
语言模型
的秘密武器
文章目录一、引言二、提示工程与大
语言模型
三、大
语言模型
的应用实践四、策略与技巧五、结语《AI提示工程实战:从零开始利用提示工程学习应用大
语言模型
》亮点内容简介作者简介目录获取方式一、引言随着人工智能技术的飞速发展
程序边界
·
2024-02-05 04:47
人工智能
语言模型
自然语言处理
太强了,AI时代不容错过的技能!
随着AI的迅速发展,2024年AI模型开始从大型
语言模型
向大型视觉模型转变。数字人技术作为其分支之一,正日益成为科技、娱乐、教育等多个行业的焦点。
luobobiji
·
2024-02-05 04:40
人工智能
chatgpt
gpt
AIGC
Q-Bench:一种用于低级别视觉通用基础模型的基准测试
1.引言多模态大
语言模型
(Multi-modalityLargeLanguageModels,后续简称多模态大模型)能够提供强大的通用级别视觉感知/理解能力,甚至可以通过自然语言与人类进行无缝对话和互动
AI算法-图哥
·
2024-02-05 01:56
--
图像质量评价
人工智能
图像质量评估
计算机视觉
图像处理
深度学习
开源支持私有化部署一分钟构建大模型机器人
一分钟构建大模型机器人Dify是一款中国开源的大
语言模型
(LLM)应用开发平台。使开发者可以快速搭建生产级的生成式AI应用。即使你是非技术人员,也能参与到AI应用的定义和数据运营过程中。
Kavaj
·
2024-02-05 01:39
python
AI
大模型
人工智能
机器人
语言模型
TypeScript实战——ChatGPT前端自适应手机端,PC端
前言「作者主页」:雪碧有白泡泡「个人网站」:雪碧的个人网站可以在线体验哦:体验地址文章目录前言引言先看效果PC端手机端实现原理解释包的架构目录引言ChatGPT是由OpenAI开发的一种基于
语言模型
的对话系统
GPT助手
·
2024-02-04 23:19
前端
typescript
chatgpt
NLP_
语言模型
的雏形N-Gram
文章目录N-Gram模型1.将给定的文本分割成连续的N个词的组合(N-Gram)2.统计每个N-Gram在文本中出现的次数,也就是词频3.为了得到一个词在给定上下文中出现的概率,我们可以利用条件概率公式计算。具体来讲,就是计算给定前N-1个词时,下一个词出现的概率。这个概率可以通过计算某个N-Gram出现的次数与前N-1个词(前缀)出现的次数之比得到4.可以使用这些概率来预测文本中下一个词出现的可
you_are_my_sunshine*
·
2024-02-04 22:52
NLP
自然语言处理
语言模型
人工智能
【LLM】提示工程技术提炼精华分享
一、提示工程概述提示工程(PromptEngineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大
语言模型
(LargeLanguageModel,LLM)用于各场景和研究领域。
液态不合群
·
2024-02-04 21:48
人工智能
LLM
信息可视化
BLIP-2:低计算视觉-语言预训练大模型
BLIP-2BLIP对比BLIP-2BLIPBLIP-2如何在视觉和
语言模型
之间实现有效的信息交互,同时降低预训练的计算成本?
Debroon
·
2024-02-04 21:47
大模型:以全人类健康长寿为已任
人工智能
加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让
语言模型
服务飞速提升2-7倍!
近年来,随着大型
语言模型
(LLM)的出现,在多样化的NLP任务上取得了令人瞩目的成果。
夕小瑶
·
2024-02-04 16:35
语言模型
人工智能
自然语言处理
加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让
语言模型
服务飞速提升2-7倍
近年来,随着大型
语言模型
(LLM)的出现,在多样化的NLP任务上取得了令人瞩目的成果。
夕小瑶
·
2024-02-04 16:04
学习
人工智能
chatgpt
自然语言处理
Meta发布抽象链,大模型工具利用精度+6%,速度+40%!
在人工智能领域,大型
语言模型
(LLMs)的发展已经取得了显著进步,特别是在理解和执行指令方面。然而,当涉及到需要调用和组合真实世界知识来生成响应时,这些模型仍然存在错误。
夕小瑶
·
2024-02-04 16:00
人工智能
深度学习
机器学习
Revisiting Zero-Shot Abstractive Summarization in the Era of Large Language Models
从位置偏差看大型
语言模型
时代零样本抽象概括摘要1引言2相关工作3提出的方法4结果5讨论6结论摘要我们通过测量位置偏差来表征和研究大型
语言模型
(LLM)中的
UnknownBody
·
2024-02-04 16:16
LLM
语言模型
人工智能
自然语言处理
From LLM to Conversational Agent: A Memory Enhanced Architecture with Fine-Tuning of LLM
本文是LLM系列文章,针对《FromLLMtoConversationalAgent:AMemoryEnhancedArchitecturewithFine从LLM到会话代理:一种对大型
语言模型
进行微调的内存增强体系结构摘要
UnknownBody
·
2024-02-04 16:16
LLM
人工智能
语言模型
ASTRAIOS: Parameter-Efficient Instruction Tuning Code Large Language Models
ASTRAIOS:参数高效指令调优代码大型
语言模型
摘要1引言2ASTRAIOS套机与基准3前言研究:交叉熵4主要结果:任务性能5更进一步分析6讨论7相关工作8结论摘要大型
语言模型
(LLM)的全参数微调(
UnknownBody
·
2024-02-04 16:46
LLM
语言模型
人工智能
自然语言处理
Large Language Models on Graphs: A Comprehensive Survey
图上的大型
语言模型
综述摘要1引言2定义和背景3分类和框架4纯图5富含文本的图6文本成对图7应用8未来方向9结论摘要大型
语言模型
(LLM),如ChatGPT和LLaMA,由于其强大的文本编码/解码能力和新发现的涌现能力
UnknownBody
·
2024-02-04 16:15
LLM
综述文章
语言模型
人工智能
自然语言处理
【文本到上下文 #10】探索地平线:GPT 和 NLP 中大型
语言模型
的未来
以我们之前对BERT和迁移学习的讨论为基础,将重点转移到更广阔的视角,包括
语言模型
的演变和未来,特别是生成式预训练转换器(GPT)及其在NLP中的重要作用。
无水先生
·
2024-02-04 09:20
NLP高级和ChatGPT
人工智能
自然语言处理
gpt
语言模型
2019.6.27日复盘(
语言模型
;一哥;两次转变)
一:一日常规1:极光单词:10分钟2:罗辑思维:我们经常都会劝人。但是如果劝了人他不听,我们就难免沮丧,觉得这是白费劲儿。但是我最近听到一个说法:这是因为我们对语言的作用,有模型上的误解。什么叫模型上的误解呢?你想,过去我们说话劝人,心里想的模型是啥?“话是开心锁”啊,是钥匙和门锁的模型。那当然,我的话劝不动你,我的钥匙打不开你的锁,这就是我的失败。但是语言真正起作用的模型,不是钥匙模型,而是种子
鲨鱼有话说
·
2024-02-04 09:56
AI大模型专题:OWASP大
语言模型
应用程序十大风险V1.0
今天分享的是AI大模型系列深度研究报告:《AI大模型专题:OWASP大
语言模型
应用程序十大风险V1.0》。
人工智能学派
·
2024-02-04 08:46
搜索引擎
论文浅尝 | 大型
语言模型
的人类对齐
笔记整理:方润楠、习泽坤,浙江大学硕士,研究方向为自然语言处理链接:https://arxiv.org/abs/2307.12966概述这份综述探讨了针对大型
语言模型
(LLMs)的人类期望进行对齐的技术
开放知识图谱
·
2024-02-04 07:04
语言模型
人工智能
自然语言处理
文心一言APP上线数字分身功能;王仲远加入智源研究院任院长;商汤科技发布新版日日新·商量大
语言模型
丨每日大事件...
大数据产业创新服务媒体——聚焦数据·改变商业企业动态Meta将于今年在数据中心部署新版本的内部定制AI芯片2月2日消息,Meta将于2024年部署新款自研的定制款芯片到旗下数据中心,以支持人工智能。Meta发言人回应称,这款定制芯片将搭配公司购买的现成GPU发挥作用。中国量子计算机“本源悟空”全球访问量突破100万2月1日消息,据“本源量子”公众号,截至今天上午11时,我国第三代自主超导量子计算
数据猿
·
2024-02-04 07:13
文心一言
科技
语言模型
量子计算
人工智能
Prompt Tuning 和 Delta Tuning 针对预训练
语言模型
进行微调
PromptTuning和DeltaTuning是两种针对预训练
语言模型
进行微调的方法,它们旨在提高微调的效率和减少所需的训练数据量。下面分别介绍这两种方法以及它们之间的区别。
人生万事须自为,跬步江山即寥廓。
·
2024-02-04 06:30
机器学习人工智能
人工智能
机器学习
深度学习
有哪些流行的中文开源
语言模型
?
支持中文的流行开源
语言模型
有很多,这些模型在自然语言处理领域的中文任务上表现出色,包括文本分类、情感分析、机器翻译、问答系统等。以下是一些支持中文的流行开源
语言模型
:1.
qq_20984273
·
2024-02-04 06:41
语言模型
人工智能
自然语言处理
AI鲜为人知的秘密:机器学习与深度学习概论
2023年,大
语言模型
及其在人工智能领域的应用已成为全
Hunter乔乔
·
2024-02-04 01:26
人工智能
人工智能
机器学习
深度学习
LLM大模型
LLM模型是一种用于自然语言处理的
语言模型
,它是基于预训练的深度学习模型。LLM代表"LanguageLearningModel",它的目标是通过大规模的文本数据来学习语言的表示和语义理解。
程序小勇
·
2024-02-03 22:05
算法
大模型ReAct提示工程详解【2023】
普林斯顿大学的教授和谷歌的研究人员最近发表了一篇论文,描述了一种新颖的提示工程方法,该方法使大型
语言模型
(例如ChatGPT)能够在模拟环境中智能地推理和行动。
新缸中之脑
·
2024-02-03 20:56
react.js
前端
前端框架
ChatGPT prompt概述
ChatGPTprompt概述2022年11月30日,由人工智能实验室OpenAI发布的对话式大型
语言模型
ChatGPT一夜爆火。
Bruce_Liuxiaowei
·
2024-02-03 18:12
总结经验
笔记
chatgpt
prompt
自然语言处理——5.2
语言模型
(参数估计)
两个重要概念:训练语料(trainingdata):用于建立模型,确定模型参数的已知语料。最大似然估计(maximumlikelihoodEvaluation,MLE):用相对频率计算概率的方法。最大似然估计求法对于n-gram,参数可由最大似然估计求得:其中,是历史串在给定语料中出现的次数,即,不管是什么。是在给定的条件下出现的相对频度,分子为与同出现的次数。举例例如,给定训练语料:“Johnr
SpareNoEfforts
·
2024-02-03 13:28
大规模
语言模型
LLM介绍
大规模
语言模型
LLM大规模
语言模型
向量数据库和数据库向量支持。LLM基础设施:编程语言Python,Java,C++,js,新秀语言Mojo。Mojo这个语言是具有python和C++,各取所长。
java牛虻
·
2024-02-03 13:04
语言模型
人工智能
自然语言处理
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他