大模型技术全景解析:从基础架构到应用生态

#aigc #大模型 #gpt


一、基础架构

· 底层架构

   · Transformer:基于自注意力机制的深度学习架构,是众多大语言模型的核心技术底座。

· 深度学习框架

   · TensorFlow:静态计算图设计,适合大规模分布式训练与工业部署;

   · PyTorch:动态图机制提升开发灵活性,研究首选,支持快速原型设计;


二、模型演进

   · LLM:大语言模型(参数量超大的通用语言模型)的广义定义;

   · GPT系列:GPT-1/GPT-2/GPT-3/GPT-4o;

        -- GPT系列的演进不仅推动了技术的进步,也为ChatGPT等应用化产品提供了强大的引擎。


三、部署优化

   · ONNX:跨框架模型交换标准,实现TensorFlow/PyTorch等模型格式统一,便于多平台迁移;

   · TensorRT:针对NVIDIA GPU的推理优化引擎,通过层融合、量化压缩提升计算效率,优化推理性能;


 四、工程化应用

   · LangChain:大模型工程化应用开发框架,python实现的开源框架,集成了模型调用能力,集成了记忆管理能力,集成了各种工具;

   · Prompt :提示工程,通过上下文示例、思维链等技巧引导模型输出;

  · RAG:检索增强生成,用户查询→向量数据库检索→相关文档注入提示词→调用模型生成增强答案,如:构建企业知识库;

   · Agent:智能体,执行模型的任务指令,使应用具备调用各种外部工具的能力,如:查天气、搜索、发邮件;

   · Workflow:流程编排,如链接多个工具,编排任务流程,完成特定的任务;

 

你可能感兴趣的:(AIGC,gpt)