E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Llama
LlamaIndex环境配置
之前配
Llama
-Index时出现不兼容的问题,记录一下最后配好的版本记住一定要先安装pytorch,否则LlamaIndex自动安装的可能是cpu版本,而且没有配置下载源的情况下载torch包很慢,其中
L~river
·
2025-05-22 10:55
llamaindex
环境配置
PyTorch
LLM
快速开始使用LlamaIndex: 从安装到OpenAI集成
通过Pip快速安装您可以通过以下命令快速安装LlamaIndex:shpipinstallllama-index该启动包包含以下组件:
llama
-index-corellama-index-legacy
llzwxh888
·
2025-05-22 10:53
python
最强Agent框架开源!智能体设计路在何方?
假期最后一天,上个工,今天赶上自媒体都在推广
llama
4开源,给家人们分享一下,manus爆火之后Agent的一些深度思考,本文的信息密度很高~文章的起因是,一个叫AgentS2的框架开源,由Simular.ai
大模型微调实战
·
2025-05-22 10:51
开源
人工智能
运维
语言模型
自动化
Nvidia通过自研LLM压缩技术爆炸式提升模型性能
Llama
-3.1-Nemotron-Nano-4B-v1.1是一个大型语言模型(LLM),它是nvidia/
Llama
-3.1-Minitron-4B-Width-Base的衍生版本,而后者是通过我们的
吴脑的键客
·
2025-05-22 04:46
人工智能
开源
AIGC
人工智能
从零开始:
LLaMA
-Factory 大模型微调完全指南 | 手把手教你打造专属AI助手
从零开始:
LLaMA
-Factory大模型微调完全指南|手把手教你打造专属AI助手教程摘要本教程将带领你完成从环境配置到模型部署的全流程,让你能够:在AutoDL平台上快速搭建训练环境使用
LLaMA
-Factory
柳思木
·
2025-05-21 10:38
人工智能
llama
语言模型
大模型训练
LLaMA
-Factory微调大模型Qwen2.5
1、开始ModelScope社区GPU环境训练或微调模型都是非常耗费算力的。如果电脑的配置不高,可使用一些云服务器来做这项工作。如ModelScope(魔搭)社区的GPU环境,目前提供36小时免费运算,足够微调一个大模型了。注册ModelScope(魔搭)社区账号(可能还要注册或认证阿里云账号),进入“我的NoteBook”:我的Notebook·魔搭社区启动大概需要2分钟,等GPU环境启动好以后
will.hu
·
2025-05-20 12:57
AI
linux
Python
llama
Llama
:开源的急先锋
Llama
:开源的急先锋
Llama
1:开放、高效的基础语言模型
Llama
1使用了完全开源的数据,性能媲美GPT-3,可以在社区研究开源使用,只是不能商用。
KangkangLoveNLP
·
2025-05-20 12:52
大模型
llama
神经网络
人工智能
机器学习
深度学习
算法
自然语言处理
SGLang、Ollama、vLLM和
LLaMA
.cpp推理框架的对比及选型建议
SGLang、Ollama、vLLM和
LLaMA
.cpp推理框架的对比及选型建议一、核心维度对比二、多维度对比一览表三、选型建议SGLang、Ollama、vLLM和
LLaMA
.cpp四个大模型推理框架的对比及选型建议
看今朝·
·
2025-05-20 12:21
大模型工程化研究
llama
大模型
语言模型
推理
讨论:单张4090能运行的最强开源大模型?
Gemma2用最小参数量实现了超过三倍参数的模型能力,超过
llama
370B,特别中文翻译能力,比千问70B还要强。并且Gemma29B也非常出色,可以在6G显卡运行。
斯文by累
·
2025-05-19 17:42
AIGC
llama
人工智能
语言模型
ai
LLAMA
3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统
目前,
LLAMA
3.1模型分为8B、70B、405B三个版本,其中70B和405B对于显存的要求均已超过了一般家用电脑的配置(或者换个说法,用一张4090也是带不起来的),所以运行8B即可。
AI大模型教程
·
2025-05-18 11:56
人工智能
langchain
自然语言处理
AI
大语言模型
程序员
编程
DeepSeek HuggingFace 70B
Llama
版本 (DeepSeek-R1-Distill-
Llama
-70B)
简简单单Onlinezuozuo:本心、输入输出、结果文章目录DeepSeekHuggingFace70BLlama版本(DeepSeek-R1-Distill-
Llama
-70B)前言vllm方式在本地部署
简简单单OnlineZuozuo
·
2025-05-17 14:22
m1
Python
领域
m4
杂项
llama
DeepSeek
DeepSeek
R1
DeepSeek
V3
Ollama
使用Neo4j作为向量存储来提升AI数据库查询性能
安装首先,你需要安装
llama
-index-vector-stores-neo4jvector库:pipinstalll
qq_37836323
·
2025-05-16 03:44
neo4j
人工智能
数据库
python
LLaMA
Factory 深度调参
注意,本文涵盖从基础调参到前沿研究的完整知识体系,建议结合具体业务场景灵活应用。一篇“参考文献”而非“可运行的代码”。https://github.com/zysNLP/quickllm初始指令:llamafactory-clitrain\--stagesft\--do_trainTrue\--model_name_or_path/data/quickllm/qwen3_models\--prep
NLP小讲堂
·
2025-05-15 23:47
机器学习
人工智能
llama
.cpp初识
Llama
.cpp:赋能本地大语言模型推理的核心引擎及其应用场景引言:
Llama
.cpp是什么?大型语言模型(LLM)的兴起正在深刻改变人机交互和信息处理的方式。
whoarethenext
·
2025-05-15 23:14
llama
python
人工智能杂谈(三)Dify与Coze平台对比分析
技术演进2023年初:推出首个开源版本,支持GPT系列模型接入2023年中:新增多模型兼容性(如
Llama
2、智谱AI)2024年:推出企业
技术流浪者
·
2025-05-14 04:20
AI
人工智能
手把手教您如何让小爱音响接入AI大模型,让您的小爱同学更加智能(小爱同学如何接入chatgpt/KIMI/通义千问/
Llama
3/豆包等AI大模型)
文章目录介绍演示环境小爱音响AI准备部署使用️注意事项⚓️相关链接⚓️介绍你是不是觉得自家的小爱音响有时候不够聪明?面对各种复杂问题总是回答得不尽人意。要是能让小爱同学拥有像ChatGPT、豆包等那些超厉害的AI大模型的智慧就好了,可这该怎么实现呢?别着急,今天就来给大家透露让小爱音响瞬间“智商爆表”的妙招!演示环境本文演示环境如下:操作系统:Windows11手机型号:小米小爱音响型号:小米音响
xiaoqiangclub
·
2025-05-14 02:37
随记·2025✍️
人工智能
chatgpt
ai大模型
小米音响
小爱同学
小爱音响
微软开源1.58位大模型BitNet b1.58 2B4T:性能比肩全精度,CPU轻松跑!
它支持对1-bit/1.58-bit量化模型进行高效、低能耗的推理,兼容BitNet、
Llama
3-8B-1.58、Falcon3等模型,适用于在本地或边缘设备上运行大模型推理任务,无需GPU。
开源项目精选
·
2025-05-13 14:52
人工智能
【AI提升】AI利器Tool Call/Function Call(一):langchain+ollama+
llama
3/qwen2
1、使用AI的一个常用场景就是,接收人类的语言,识别人类的意图,最终进行相关的业务处理,这就是设计ToolCall/FunctionCall的初衷。2、现在一般都说ToolCall,以前常叫FunctionCall,不要纠结。一、安装环境1.1安装ollama参考:【AI基础】大模型部署工具之ollama的安装部署-第一步:下载安装ollama1.2部署大模型参考:【AI基础】大模型部署工具之ol
旭日跑马踏云飞
·
2025-05-13 07:05
AI
langchain
ai
人工智能
llama
.cpp无法使用gpu的问题
使用cuda编译
llama
.cpp后,仍然无法使用gpu。./
llama
-server-m../../../../..
米有哥
·
2025-05-13 05:22
llama
大模型企业落地应用方法对比:微调、RAG与MCP工具调用
存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等,质量高于数量技术栈基础模型:GPT、
LLaMA
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
Win7编译GPU版
llama
.cpp部署deepseek-r1等大模型记录
目标是在Windows7系统下,实现
llama
.cpp的CPU编译、GPU编译,实现大模型的单机部署。GPU编译运行成功,但运行时没有调用GPU。
mygodalien
·
2025-05-12 20:25
语言模型
llama
人工智能
chatgpt
机器学习
数字人+LLM 开发过程记录
系统环境:CPU:i91490016GBGPU:GTX40608GBSYS:Windows11WSL:Ubuntu22.04本文章使用到的技术内容:数字人框架:LiveTalking大模型:
Llama
3.1TTS
码农Q!
·
2025-05-12 20:53
人工智能
agi
ai
深度学习
测试用例
目标检测
AI人工智能领域
Llama
的自适应学习机制
AI人工智能领域
Llama
的自适应学习机制关键词:
Llama
、自适应学习、大语言模型、机器学习、神经网络、微调、迁移学习摘要:本文深入探讨了Meta公司开发的
Llama
大语言模型的自适应学习机制。
AI智能探索者
·
2025-05-12 13:05
人工智能
llama
学习
ai
SemanticSplitterNodeParser 和 Sentence-BERT 的区别和联系是什么
SemanticSplitterNodeParser是
llama
-index提供的一种语义感知的文本切分工具。
背太阳的牧羊人
·
2025-05-12 07:58
人工智能
bert
人工智能
深度学习
大模型微调指南之
LLaMA
-Factory 篇:一键启动
LLaMA
系列模型高效微调
可视化界面3.2使用命令行3.2.1模型微调训练3.2.2模型合并3.2.3模型推理3.2.4模型评估四、高级功能4.1分布训练4.2DeepSpeed4.2.1单机多卡4.2.2多机多卡五、日志分析一、简介
LLaMA
-Factory
CodeSilence
·
2025-05-11 19:10
大模型框架
大模型
大模型
人工智能
LLaMA-Factory
微调
llamafactory-cli cuda 显存动不动不够的一个解决办法
deepspeed--num_gpus2\/mcm/
LLaMA
-Factory/src/train.py--deepspeed\/mcm/
LLaMA
-Factory/examples/deepspeed
取啥都被占用
·
2025-05-11 18:35
软件应用
llamafactory
finetuning
deepseek
LLaVA:开源多模态大语言模型深度解析
核心特点:支持336x336高分辨率图像处理兼容
LLaMA
、Vicuna、Mistr
kakaZhui
·
2025-05-11 08:30
前沿多模态大模型:论文与实战
开源
语言模型
人工智能
MLLMs
VLM
gpt-4v
大语言模型的安全与隐私风险:全面解析与应对策略
从ChatGPT到GPT-4、PaLM、
LLaMA
和DeepSeek等模型,这些技术为我们带来了革命性的体验,但同时也带来了严重的安全风险和隐私隐患。
@Rocky
·
2025-05-10 18:26
语言模型
安全
人工智能
DeepSeek实战--微调
微调LLM(Fine-tuningLargeLanguageModels)是指基于预训练好的大型语言模型(如GPT、
LLaMA
、PaLM等),通过特定领域或任务的数据进一步训练,使其适应具体需求的过程。
AI掘金
·
2025-05-10 06:35
ai
大模型微调
大模型
AIGC
AI应用
LLaMA
-Omni 2:基于 LLM 的自回归流语音合成实时口语聊天机器人
LLaMA
-Omni2是基于Qwen2.5-0.5B/1.5B/3B/7B/14B/32B-Instruct模型的一系列语音语言模型。
吴脑的键客
·
2025-05-10 04:55
人工智能
llama
开源
人工智能
AIGC
音视频
llama
factory lora 微调 qwen2.5 7B Instruct模型
要使用
LLaMA
-Factory对Qwen2.57BInstruct模型进行LoRA(Low-RankAdapters)微调,流程与之前提到的Qwen27BInstruct模型类似。
路人与大师
·
2025-05-10 04:25
llama
LLaMA
模型本地部署全攻略:从零搭建私有化AI助手
引言(2025年大模型本地化趋势)随着MetaLLaMA系列模型的持续迭代(最新版本
LLaMA
3.2支持128K上下文窗口),本地化部署已成为企业数据安全和AI应用创新的关键路径。
一休哥助手
·
2025-05-09 17:08
人工智能
llama
人工智能
深度解析AI大模型中的模型微调技术:从基础到实践
从GPT-3到
LLaMA
,从BERT到ChatGLM,这些参数规模动辄数十亿的预训练模型展现出惊人的通用能力。然而,通用能力向特定任务的落地离不开关键技术——模型微调(Fine-tuning)。
awei0916
·
2025-05-09 10:57
AI
人工智能
LLAMA
3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统
目前,
LLAMA
3.1模型分为8B、70B、405B三个版本,其中70B和405B对于显存的要求均已超过了一般家用电脑的配置(或者换个说法,用一张4090也是带不起来的),所以运行8B即可。
Llama-Turbo
·
2025-05-09 08:38
人工智能
LLM
自然语言处理
llama
程序员
知识库
AI
面向网络安全的开源 大模型-Foundation-Sec-8B
它基于
Llama
3.1-8B架构构建,并通过在一个精心策划和整理的网络安全专业语料库上进行持续预训练而得到增强。
云上笛暮
·
2025-05-09 07:05
AI
for
Security
人工智能
安全
LLama
-v2 权重下载
地址:
llama
模型官方github仓库:
llama
仓库注意点网络代理位置:美国下面的国家选择UnitedStates克隆仓库后运行bashdownload.sh输入邮箱收到的URL选择要下载的权重等待下载完成即可有问题留言
hellolxb
·
2025-05-09 04:13
AI
llama
GPT与
LLaMA
:两大语言模型架构的深度解析与对比
OpenAI的GPT系列与Meta的
LLaMA
系列作为其中的两大代表,分别以“闭源通用巨兽”和“开源效率标杆”的定位,推动了语言模型技术的发展。
一休哥助手
·
2025-05-09 03:12
人工智能
gpt
llama
语言模型
eliza开源程序是努力打造一个适合所有人操作的AI模型的自主代理
二、主要功能️功能齐全的Discord、Twitter和Telegram连接器支持所有模型(
Llama
、Grok、OpenAI、Anthropic等)多代理和房间支持轻松导入并与文档交互可检索的内存和文档存储高度可扩展
struggle2025
·
2025-05-08 15:18
人工智能
dreamweaver
开源
AI
python
Meta 推出 24k GPU AI 基础设施设计
集群是基于Meta的大提顿硬件平台,Meta目前使用一个集群来训练他们的下一代
Llama
3模型.Meta设计的集群是为了支持他们的生成式人工智能工作。这两个集群变体的网络结构有所不同。
普通的一个普通猿
·
2025-05-08 09:17
翻译
人工智能
deepseek-glm4-grpo训练
glm4模型二、实现1.grpo重新训练已经微调的glm4模型1.1指令:CUDA_VISIBLE_DEVICES=1nohuppythontest.py--model_name_or_path/home/
LLaMA
-Factory
贾亚飞
·
2025-05-07 06:55
训练
人工智能
deepseek-glm4-grpo训练
glm4模型二、实现1.grpo重新训练已经微调的glm4模型1.1指令:CUDA_VISIBLE_DEVICES=1nohuppythontest.py--model_name_or_path/home/
LLaMA
-Factory
贾亚飞
·
2025-05-07 06:55
训练
自然语言处理
【LangChain】langchain_community.llms.LlamaCpp 类的常用方法和属性
langchain_community.llms.LlamaCpp是LangChain提供的本地LLM(大型语言模型)包装器,基于
LLaMA
.cpp库,支持运行本地量化的
LLaMA
模型(GGUF格式)。
彬彬侠
·
2025-05-06 16:37
LangChain
langchain
community
llms
LlamaCpp
LLaMA
LLM
【LangChain】langchain_community.llms.LlamaCpp 的使用方式
langchain_community.llms.LlamaCpp是LangChain提供的本地LLM(大型语言模型)包装器,基于
LLaMA
.cpp库,支持运行本地量化的
LLaMA
模型(GGUF格式)。
彬彬侠
·
2025-05-06 16:37
LangChain
langchain
community
llms
LlamaCpp
LangChain+
llama
.cpp+
llama
-cpp-python工程学习笔记(一)
LangChain是一个开发由语言模型驱动的应用程序的框架,有以下特性。数据感知:将语言模型连接到其他数据源具有代理性质:允许语言模型与其环境交互pipinstalllangchain报错ERROR:Couldnotfindaversionthatsatisfiestherequirementlangchain(fromversions:none)ERROR:Nomatchingdistribut
shenghuo12582
·
2025-05-06 14:54
langchain
学习
笔记
【Python】
llama
-cpp-python 库:为
llama
.cpp 提供 Python 绑定
llama
-cpp-python是一个Python库,为
llama
.cpp提供Python绑定,允许在Python中高效运行大型语言模型(LLM)的推理任务。
彬彬侠
·
2025-05-06 10:26
Python基础
python
llama
llama.cpp
llama-cpp-pytho
LLM
Ollama Modelfile官方文档(最新)
OllamaModelFileModelfile文件的格式示例基础的`Modelfile`示例在[ollama.com/library][1]中查看`Modelfile`Modelfile中的命令语法FROM(这个是必需的)使用
llama
3.2
Chaos_Happy
·
2025-05-06 09:45
LLMs
Ollama
LLM
经验分享
AIGC
VLM 系列——MiniCPM-
Llama
3-V 2.5——论文解读
是什么是一款面向终端设备的多模态大型语言模型(MLLM),论文全称《MiniCPM-V:AGPT-4VLevelMLLMonYourPhone》,它专注于实现在手机等资源受限设备上的高级AI功能,参数8B(
llama
37B
TigerZ*
·
2025-05-06 06:25
AIGC算法
AIGC
人工智能
transformer
端侧多模态模型 MiniCPM-
Llama
3-V 2.5
MiniCPM-
Llama
3-V2.5MiniCPM是以「以小博大」著称的旗舰端侧模型,也不断推新端侧多模态能力天花板——MiniCPM-
Llama
3-V2.5实现了「以最小参数,撬动最强性能」的最佳平衡点
XCNMJZ
·
2025-05-06 05:53
python
java
人工智能
gpt
ai
AI编程
AIGC
window11 部署
llama
.cpp并运行Qwen2-0.5B-Instruct-GGUF
吾名爱妃,性好静亦好动。好编程,常沉浸于代码之世界,思维纵横,力求逻辑之严密,算法之精妙。亦爱篮球,驰骋球场,尽享挥洒汗水之乐。且喜跑步,尤钟马拉松,长途奔袭,考验耐力与毅力,每有所进,心甚喜之。吾以为,编程似布阵,算法如谋略,需精心筹谋,方可成就佳作。篮球乃团队之艺,协作共进,方显力量。跑步与马拉松,乃磨炼身心之途,愈挫愈勇,方能达至远方。愿交志同道合之友,共探此诸般妙趣。诸君,此文尚佳,望点赞
Aiffy爱妃
·
2025-05-06 03:06
llama
No module named ‘
llama
_index.readers‘
frommodelscopeimportsnapshot_download#1、下载模型##推理模型model_dir=snapshot_download(model_id="deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",cache_dir="./data")#model_dir=snapshot_download(model_id="deepseek-ai
GIS从业者
·
2025-05-04 17:56
python
llama
人工智能
deepseek
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他