1. 公开课(视频):
李宏毅机器学习
斯坦福CS336:从零开始构建语言模型
卡内基梅隆大学【多模态机器学习】
RAG From Scratch
HuggingFace NLP 课程
2. 机器学习和编程基础:
pytorch官方中文教程
[中英字幕]吴恩达机器学习
李宏毅机器学习
3. Attention机制:
论文:《Attention Is All You Need》
Transformer论文逐段精读【论文精读】- 跟李沐学AI
zhihu:动图轻松理解Self-Attention(自注意力机制)
github代码复现:jadore801120/attention-is-all-you-need-pytorch
transformers中各个模块的学习:分词和Tokenizer、词嵌入、位置编码、注意力机制、前馈网络、掩码、标准化、解码技术
4. Bert分支模型的学习和实践:
论文:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》
嵌入模型的开创工作:Sentence-Bert
现代嵌入模型:GTE、GBE
实践:HuggingFace NLP 课程 - Token 分类
实践:HuggingFace NLP 课程 - 微调掩码语言模型(masked language model)
5. GPT分支模型的学习和实践:
zhihu琦琦:一文读懂GPT家族和BERT的底层区别——自回归和自编码语言模型详解
GPT2模型结构:huggingface/transformers库代码
实践:HuggingFace NLP 课程 - 从头开始训练因果语言模型
6. 大模型预训练与微调:
大模型预训练:
zhihu赵zhijian:LLM PreTraining from scratch -- 大模型从头开始预训练指北
大模型高效微调:
zhihuYBH:大模型微调(finetune)方法总结-LoRA,Adapter,Prefix-tuning,P-tuning,Prompt-tuning
大模型微调框架:
LLaMA-Factory、Huggingface-TRL
7. 大模型强化学习:
PPO原论文:《Proximal Policy Optimization Algorithms》
PPO讲解:zhihu猛猿:图解大模型RLHF系列之:人人都能看懂的PPO原理与源码解读
RLHF原论文:《Deep Reinforcement Learning from Human Preferences》
DPO原论文:《Direct Preference Optimization: Your Language Model is Secretly a Reward Model》
Deepseek R1 的GRPO详解:zhihu博主AIQL:DeepSeek的GRPO算法是什么?
8. 近期大语言模型架构:
LLaMA:LLaMA-1、LLaMA-2、LLaMA-3(LLaMA-3.x)、LLaMA-1
Qwen:Qwen-1、Qwen-2、Qwen-3(Qwen-3-MoE)
DeepSeek:DeepSeek-V1、DeepSeek-MoE、DeepSeek-V2、DeepSeek-V3
GPT:GPT-1、GPT-2、GPT-3
9. 大模型应用搭建:
RAG:
视频课:RAG From Scratch
zhihu大模型开发者社区:深度好文!最全的大模型 RAG 技术概览
读懂RAG这一篇就够了,万字详述RAG的5步流程和12个优化策略
代码实践:ModelScope【RAG实践】基于LlamaIndex和Qwen1.5搭建基于本地知识库的问答机器人
GraphRAG:
论文:《From Local to Global: A GraphRAG Approach to Query-Focused Summarization》
Agent:
zhihu悦木Ivy:目前适合落地的agent有哪些值得推荐的框架?
实践代码集合github:asinghcsu/AgenticRAG-Survey
10. LLMInfra/训练推理优化:
zhihu紫气东来:LLM 的推理优化技术纵览
zhihu手抓饼熊:大模型训练工程优化技术
推荐论文:
Challenges and Applications of Large Language Models
Beyond Efficiency: A Systematic Survey of Resource-Efficient Large Language Models
Towards Efficient Generative Large Language Model Serving: A Survey from Algorithms to Systems
实践:
CUDA基础入门:DefTruth/CUDA-Learn-Notes、godweiyang/NN-CUDA-Example
CUDA性能分析:ifromeast/cuda_learning
GPU优化实践:Cjkkkk/CUDA_gemm
Flash Attention v1&V2:Trition中文文档Tutorials/Fused Attention
推理调度:hyuenmin-choi/Orca_reproduce.code
11. 多模态大模型:
卡内基梅隆大学【多模态机器学习】
多模态大模型发展的几个阶段以及对应模型:
不同模态进行对齐:CLIP、VLMo
大语言模型能力会更重要:Frozen、FLamingo、BLIP-2
MLP即可完成对齐:LLaVA、MiniGPT-4
视觉编码器很重要:Deepseek-VL、Qwen2.5-VL
多模态大模型研究进展:A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks
多模态技术论文列表github:BradyFU/Awesome-Multimodal-Large-Language-Models
求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。
(都打包成一块的了,不能一一展开,总共300多集)
因篇幅有限,仅展示部分资料,需要点击下方图片前往获取
这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
学会后的收获:
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集***
获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】