E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LLaMA
Llama
3.2-11B-vision多模态大模型结构详解(精确到各个算子)——图片预处理的详细步骤
自从去年Meta发布了首个开源
Llama
3.2
Llama
3.2-11B-vision多模态大模型,然而,市面上几乎没有blog研究其结构的具体构造,让人对其原理和结构都会产生不同程度的困惑,不利于对大模型的学习
料理码王
·
2025-04-18 08:32
NLP
文本生成
llama
语言模型
自然语言处理
人工智能
nlp
RAG 作者Douwe Kiela : RAG已死? RAG万岁!
Meta公司的最新突破再次引发了这一讨论——
Llama
4Scout理论上高达1000万词元的上下文窗口,确实代表着一次真正的重大进步。
小橘子就是小橘子
·
2025-04-17 23:33
人工智能
RAG
AI
Agent
[特殊字符] LoRA微调大模型实践:从MAC到Web的全流程指南
实践步骤概览今天我们要在MAC上完成一个完整的AI项目闭环:微调一个大模型→2.导出模型并部署→3.暴露API给web后端→4.前端展示️微调模型准备核心配置框架:
LLama
-Factory算法:LoRA
AI大模型顾潇
·
2025-04-17 18:00
macos
前端
人工智能
自然语言处理
大模型开发
AI大模型
微调
llama
CPU版本安装
这里写目录标题1、环境要求
llama
-cpp-python2、安装命令3、gcc安装4、libc.musl-x86_64.so.1错误1、环境要求
llama
-cpp-pythonhttps://pypi.org
遥望盼望
·
2025-04-17 11:17
LLM
模型部署
llama
大语言模型(LLM)的训练和推理
一、大语言模型简介大语言模型(如GPT、BERT、
LLaMA
、Grok等)是基于深度神经网络(主要是Transformer架构)的模型,通过在大规模文本数据上训练,学习语言的统计规律、语义和上下文关系。
爱看烟花的码农
·
2025-04-17 01:12
AIGC
AIGC
人工智能
自然语言处理
LLMs
大语言模型
一起学习大语言模型-ollama-python使用及示例代码
文章目录安装访问
llama
3.2模型访问模型并使用function_call功能使用
llama
3.2-vision模型图像识别其他用法generate接口查看目标地址安装了多少个模型查看目标地址服务运行了多少个模型生成文本嵌入式向量安装
光亮的程序猿
·
2025-04-16 23:56
大语言模型
ollama
大语言模型
llm
Cogito v1 Preview:开源混合推理系列模型博客速读(微调自
llama
和qwen)
Cogitov1Preview文章讲解一、项目介绍Cogitov1Preview是一个关于人工智能(AI)的重要项目,旨在通过迭代改进的方法(IteratedDistillationandAmplification,简称IDA)来实现通用超级智能(generalsuperintelligence)。该项目由DeepCogito团队开发,团队位于旧金山,并得到了一些顶级风险投资公司的支持。二、背景知
Panesle
·
2025-04-16 17:15
前沿
llama
LLaMA
Factory 微调框架的部署
系列文章目录第一章Xinference分布式推理框架的部署第二章LLaMAFactory微调框架的部署第三章LLaMAFactory微调框架数据预处理加载文章目录系列文章目录前言一、LLaMAFactory是什么?二、LLaMAFactory部署1.环境说明1.1硬件要求1.2环境版本推荐2.部署2.1下载git源码2.2安装2.3启动总结前言在深度学习的浪潮中,预训练大语言模型(LargeLan
TA zhao
·
2025-04-16 17:43
模型实战
llama
语言模型
Ubuntu 服务器
Llama
Factory 搭建DeepSeek-R1微调训练环境
1.首先了解一下什么是LLM微调LLM微调指的是在已经预训练好的大型语言模型基础上,使用特定的任务数据或领域数据,通过进一步的训练来调整模型的参数,使其在特定任务或领域上能够表现得更好。简单来说,就是对一个已经具备了丰富语言知识的通用大模型进行“个性化”调整,以适应更具体的应用场景和需求。1.1.目的提高特定任务性能:对于像文本生成、机器翻译、问答系统等具体任务,通过微调可以让模型在这些任务上的准
大鱼>
·
2025-04-16 16:40
AI
大模型
llama
deepseek
大模型微调
使用
LLaMA
-Factory 对 DeepSeek R1进行微调教程
如本教程有问题,感谢大家在评论区指出。如操作过程中遇到解决不了的问题,可以在评论区提问,作者看到了会回复。微调简介模型微调通过在特定任务数据集上继续训练预训练模型来进行,使得模型能够学习到与任务相关的特定领域知识。微调步骤准备数据集,数据集格式如下:{“instructions”:“你好”,“input”:“”,“output”:“你好,我是DeepseekR1模型,很高兴为您服务!”}instr
斯晴晚
·
2025-04-16 16:08
大模型LLM
人工智能
Llama
4 到底有多牛?一文看懂 Meta
Llama
4!
Llama
4是Meta公司于2025年4月推出的最新一代开源人工智能模型,采用了混合专家架构(MoE),旨在通过多模态处理和高效推理能力推动AI技术的广泛应用。
大模型_
·
2025-04-16 03:18
llama
powerpoint
架构
人工智能
chatgpt
microsoft
大模型
LLaMA
4深夜发布:重夺开源第一!首个使用MoE架构的
LLaMA
模型
简介在人工智能领域,大模型的竞赛从未停歇,而Meta公司于2025年4月6日发布的
Llama
4模型系列无疑为这场竞赛注入了新的活力。
Sherlock Ma
·
2025-04-16 03:18
大语言模型
混合专家模型
多模态大模型
llama
深度学习
pytorch
人工智能
transformer
gpt-3
Meta
长上下文时代:RAG的块大小为何仍需克制?
例如,
Llama
3-8B在EN.QA测试中,当块大小固定为128tokens时,其在16K
TGITCIC
·
2025-04-16 03:16
AI-大模型的落地之道
RAG
RAG增强检索
MCP大全
YOLO
大模型开发
AI
AGENT
AI编程
每日AI必读 - 2025年4月15日(早报)
日,人工智能领域迎来多个重要动态:图灵奖得主LeCun提出下一代AI可能基于非生成式,OpenAI宣布GPT-4.1系列模型全面超越前代,联发科发布天玑9400+处理器加速端侧AI落地,以及Meta因
Llama
你是我的天晴
·
2025-04-15 10:55
ai资讯
人工智能
ai
AIGC
Ollama+open-webui搭建私有本地大模型详细教程
它支持多种预训练模型(如
Llama
、Vicuna、Dolly等),并且可以在本地运行,无需复杂的基础设施。
王亭_666
·
2025-04-14 09:10
算法与大模型
人工智能
大数据
ollama
openwebui
大模型
人工智能
deepseek
Meta 的
LLaMA
4 系列(1000 万上下文长度)现已推出:推动开源 AI 的发展
简介随着
LLaMA
4系列的发布,Meta再次在人工智能竞赛中迈出了重要的一步。
LLaMA
4系列是一套尖端语言模型,旨在与OpenAI的GPT-4和谷歌的Gemini等相媲美,在某些情况下甚至超越它们。
知识大胖
·
2025-04-14 09:37
NVIDIA
GPU和大语言模型开发教程
llama
开源
人工智能
常见LLM大模型概览与详解
以下是一些常见的大模型的详细介绍,包括
LLaMA
2、
LLaMA
3、BLOOM、BERT、Falcon180B、Mistral7B、OpenHermes、GPT-NeoX-20B、Pythia、OpenLLaMA
夏沫の梦
·
2025-04-14 05:41
AI技术总览
人工智能
llama
chatgpt
深度学习
【大模型面经】智谱大模型算法岗,整体面试体验真棒
更多实战和面试交流,加入我们一面自我介绍技术问题
llama
3中使用的注意力机制是什么?手写实现下分组注
大模型与自然语言处理
·
2025-04-14 04:36
算法
面试
职场和发展
大模型——
Llama
Stack快速入门 部署构建AI大模型指南
LlamaStack快速入门部署构建AI大模型指南介绍LlamaStack是一组标准化和有主见的接口,用于如何构建规范的工具链组件(微调、合成数据生成)和代理应用程序。我们希望这些接口能够在整个生态系统中得到采用,这将有助于更轻松地实现互操作性。LlamaStack定义并标准化了将生成式AI应用程序推向市场所需的构建模块。这些模块涵盖整个开发生命周期:从模型训练和微调,到产品评估,再到在生产中调用
不二人生
·
2025-04-13 20:18
大模型
llama
人工智能
大模型
目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
景宏系列:全面兼容DeepSeekR1全系列模型,覆盖从1.5B至70B参数规模的
LLaMA
及千问模型架构。2.摩尔线程MTTS80、MTTS4000显卡:可进行DeepSeek-R1蒸馏模型的推
gzgenius
·
2025-04-13 09:05
AI
DeepSeek
GPU
人工智能
llama
-factory微调qwen2.5-vl
环境配置一定注意微调环境和推理环境要隔离,避免版本冲突
Llama
-factory安装gitclone--depth1
魔障阿Q
·
2025-04-13 08:25
llama
人工智能
计算机视觉
LLaMA
-Factory双卡4090微调DeepSeek-R1-Distill-Qwen-14B医学领域
unsloth单卡4090微调DeepSeek-R1-Distill-Qwen-14B医学领域后,跑通一下多卡微调。1,准备2卡RTX40902,准备数据集医学领域pipinstall-Uhuggingface_hubexportHF_ENDPOINT=https://hf-mirror.comhuggingface-clidownload--resume-download--repo-typed
openownworld
·
2025-04-13 08:54
llama
【微调大模型】轻松微调百余种大模型:
LLaMA
-Factory
github:https://github.com/hiyouga/
LLaMA
-Factory目录项目特色性能指标模型训练方法数据集软硬件依赖使用安装LLaMAFactory数据准备快速开始LLaMABoard
Jackilina_Stone
·
2025-04-13 07:52
#
大模型
llama
大模型
微调
MindSpore大语言模型推理:解锁千亿参数模型的高效部署新范式
以
Llama
2-70B为例,传统部署方案需要8张A100GPU才能完成推理,单次交互成本高达$0.02,这严重制约了大模型的实际
kandfj
·
2025-04-13 05:37
pytorch
人工智能
python
华为
llama
科技快讯 | DeepSeek 公布模型新学习方式;Meta发布开源大模型
Llama
4;谷歌推出 Android Auto 14.0 正式版
Meta发布开源大模型
Llama
4,首次采用“混合专家架构“4月6日,Meta推出开源AI模型
Llama
4,包括Scout和Maverick两个版本,具备多模态处理能力。
最新科技快讯
·
2025-04-12 23:01
科技
【AI】LoRA技术深度解析:大模型高效微调的革命性突破
以
LLaMA
-7B模型为例,LoRA可将训练参数量从70亿压缩至百万级,显
酱学编程
·
2025-04-12 22:26
人工智能
领域专用对话大模型深度适配方案
领域专用对话大模型深度适配方案基于
LLaMA
-2-13B的LoRA+PTuning联合优化一、
LLaMA
-2-13B核心特性解析1.1架构创新点特性
LLaMA
-1
LLaMA
-2-13B上下文窗口2048tokens4096tokens
Sirius Wu
·
2025-04-12 18:28
人工智能
深度学习
谷歌开源代理开发工具包(Agent Development Kit,ADK):让多智能体应用的构建变得更简
订阅:https://rengongzhineng.io/【本周AI新闻:
Llama
4超大上下文Gooogle开源AgentSDK】https:/
新加坡内哥谈技术
·
2025-04-12 13:56
人工智能
chatgpt
自然语言处理
语言模型
[250411] Meta 发布
Llama
4 系列 AI 模型 | Rust 1.86 引入重大语言特性
目录
Llama
4家族登场:开启原生多模态AI创新新纪元Rust1.86.0版本发布亮点主要新特性与改进其他重要信息
Llama
4家族登场:开启原生多模态AI创新新纪元MetaAI近日发布了其最新、最先进的
x-cmd
·
2025-04-12 08:22
daily
blog
人工智能
llama
rust
【远程AI交互】群晖Docker本地部署Chatbot Ollama搭建智能聊天实战
运行Ollama镜像3.运行ChatbotOllama镜像4.本地访问5.群晖安装Cpolar6.配置公网地址7.公网访问8.固定公网地址前言本文主要分享如何在群晖NAS本地部署并运行一个基于大语言模型
Llama
2
kaixin_啊啊
·
2025-04-12 07:38
cpolar
商业合作
人工智能
docker
容器
相同的问题看看ChatGPT怎么说-怎么看
LlaMa
4翻车一事?
LLaMA
4翻车事件折射出当前大语言模型研发和评价过程中存在的诸多挑战和问题。
释迦呼呼
·
2025-04-11 15:57
AI一千问
chatgpt
llama
人工智能
深度学习
机器学习
算法
手机本地部署AI大模型:DeepSeek R1、
Llama
3.3、Qwen2.5、Gemma 3等! 支持iOS、安卓, 离线使用,完全免费开源!
支持模型包括:DeepSeekR1、
Llama
3.3、Qwen2.5和Gemma3等。这些模型不仅支持中文理解与生成,还能在iOS和安卓设备上流畅运行,实现真正的离线智能体验。
金风不疯
·
2025-04-10 23:18
AI
gemini
Gemma
AI
DEEPSEEK
一款神奇的本地快速部署开源大模型的工具——ollama
我们不仅可以使用
Llama
2、CodeLlama等模型,还可以使用自己自定义创建的模型。ollama支持的模型以下是ollama已经支持的开源大模型,大家可以根据需
遇码
·
2025-04-10 22:06
大模型
大模型
ollama
开源
金融大模型
FinGPTv3.1使用chatglm2-6B作为基础模型;FinGPTv3.2使用
llama
2-7
兔兔爱学习兔兔爱学习
·
2025-04-10 11:28
大模型
人工智能
python
深度学习
大模型位置编码:RoPE的优化方案
近年来,旋转位置编码(RotaryPositionalEmbedding,RoPE)因其出色的性能和对相对位置的优雅编码而成为主流选择,被
Llama
系列等众多模型采用。
kakaZhui
·
2025-04-10 06:23
AIGC
人工智能
chatgpt
位置编码
大模型系列——
Llama
4 系列登场 原生多模态 AI 创新的新起点
大模型——
Llama
4系列登场原生多模态AI创新的新起点Meta公司于2025年4月5日发布了其
Llama
大语言模型系列的最新成员——
Llama
4,标志着其在AI领域,特别是在原生多模态和模型架构方面的重大进展
猫猫姐
·
2025-04-10 05:52
大模型
llama
人工智能
大模型
2024 年最值得尝试的 8 个 AI 开源大模型
而像
Llama
这样的模型就是属于开源模型,用户可以在自己的设备
七七Seven~
·
2025-04-09 06:46
人工智能
开源
知识图谱
学习
语言模型
自然语言处理
【探商宝】
Llama
4--技术突破与争议并存的开源多模态
核心亮点混合专家架构(MoE)的全面应用
Llama
4是Meta首个全系列采用MoE架构的模型,通过稀疏激活机制显著提升效率。
探熵科技
·
2025-04-09 03:59
人工智能
我如何在笔记本运行GPT-4级别的模型
Meta的新模型
Llama
3.370B是一个真正的GPT-4级别的大型语言模型,它可以在我的笔记本电脑上运行。仅仅在20个月前,我还在为能在同一台机器上运行感觉达到GPT-3级别的模型而感到惊讶。
冻感糕人~
·
2025-04-08 11:39
人工智能
自然语言处理
大模型
程序人生
LLM
gpt
ai
一文速览
Llama
3及其微调:从如何把长度扩展到100万到如何微调
Llama
3 8B_
llama
3 微调 mysql 数据_
llama
3 代码很短
前言4.19日凌晨正准备睡觉时,突然审稿项目组的文弱同学说:Meta发布
Llama
3系列大语言模型了一查,还真是本文以大模型开发者的视角,基于Meta官方博客的介绍:IntroducingMetaLlama3
AGI的大荔枝
·
2025-04-07 18:53
llama
语言模型
人工智能
自然语言处理
深度学习
机器学习
【人工智能时代】- 大型语言模型(LLM)理论简介
目前,国外的知名LLM有GPT-3.5、GPT-4、PaLM、Claude和
LLaMA
等,国内的有文心一
xiaoli8748_软件开发
·
2025-04-07 00:35
人工智能时代
人工智能
语言模型
自然语言处理
llama
.cpp 和 vLLM 的详细对比分析
llama
.cpp和vLLM的详细对比分析,基于最新技术动态(2025年4月)整理:1.核心定位维度
llama
.cppvLLM设计目标轻量化边缘计算,突破硬件限制(如手机/树莓派)企业级高性能推理,优化
MC数据局
·
2025-04-06 23:53
llama
vllm
大模型
deepseek
如何配置在vscode的Cline插件中调用Ollama本地部署的DeepSeek R1/V3、千问2.5等大模型
Llama
系列:如
Llama
3、
Llama
2,具备强大的语言理解和
代码简单说
·
2025-04-06 18:20
2025开发必备
vscode
ide
编辑器
vscode
cline
vscode
ollama
vscode调用本地大模型
vscode调deepseek
开源且完全没有审核限制的大型语言模型的概述
包括基于
Llama
、Mixtral、Phi-2和StableLM的模型,参数范围从2.78亿到4050亿。
@BreCaspian
·
2025-04-05 12:06
NLP
开源
语言模型
人工智能
用Python微调DeepSeek R1
Python库和框架微调大语言模型需要用到以下Python库和框架:unsloth:这个库可太厉害了,它能让像
Llama
-3、Mistral、Phi-4和Gemma2这些大语言模型的微调速度提高2倍,内存使用减少
爱喝白开水a
·
2025-04-05 12:00
python
开发语言
人工智能
langchain
AI大模型
DeepSeek
R1
微调DeepSeek
AIGC8——大模型生态与开源协作:技术竞逐与普惠化浪潮
大模型发展的分水岭时刻2024年成为AI大模型发展的关键转折点:OpenAI的GPT-4o实现多模态实时交互,中国DeepSeek-MoE-16b模型以1/8成本达到同类90%性能,而开源社区如Mistral、
LLama
3
KarudoLee
·
2025-04-05 08:35
开源
开源大模型的崛起:从
LLaMA
到Mistral的技术对比与应用探索
1.开源大模型发展概述1.1开源大模型兴起背景开源大模型的崛起是人工智能领域近年来的重要趋势,其兴起背景具有多方面因素。技术开源理念的推动:开源文化在软件领域的成功经验,为开源大模型的出现奠定了基础。开源模式能够促进技术的快速传播和共享,吸引更多开发者参与改进和优化,加速模型的迭代升级。例如,开源的深度学习框架如TensorFlow和PyTorch,为研究人员和开发者提供了强大的工具,推动了人工智
学习ing1
·
2025-04-05 05:43
人工智能
声网SDK如何征服硬件碎片化?
极简接入流程:通过声网Console后台的「智能编排引擎」,开发者可完成三大关键步骤:首先是大模型选择,可视化界面支持GPT-4、DeepSeek、
Llama
2等50+模型一键接入,提供性能参数对比(如
都市速报
·
2025-04-05 02:01
人工智能
远程服务器下载
llama
模型
适用于有防火墙不能直接从HF上下载的情况然后,你可以克隆
Llama
-3.1-8B-Instruct模型:gitclonehttps://你的用户名:你的访问令牌@hf-mirror.com/meta-
llama
jianbiao1483
·
2025-04-04 04:03
服务器
运维
llama
-本地推理大模型多模型同时运行
单模型
llama
-server.exe-m"G:\AI-AI\LLM\stablediffusionv2.gguf"--port8081多模型
llama
-server.exe--config_file{
未来之窗软件服务
·
2025-04-04 04:29
llama
大模型
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他