从入门到精通:人工智能与大语言模型的学习蓝图

想学习人工智能吗?但不知道如何开始?要熟练掌握人工智能相关的技术,光学习很多课程是不够的。

为了摆脱只是跟着教程学习,你需要亲自动手,从头开始编写算法,动手实践,并通过使用人工智能解决问题来做一些有趣的边项目。这篇文章试图创建一份免费的课程路径,希望对大家学习有帮助。(注意:有大量教程、书籍、论文和资源都是英文的,请配合 AI 翻译工具来阅读吧。)

自上而下的方法

这份课程采用自上而下的方法——先编码,后理论。

建议大家在必要时才进行学习。即,如果我需要解决某个问题或制作一个原型,我会四处寻找所需的信息,学习、理解然后进行实践。

例如,我目标是成为一个从根本上理解大型语言模型(LLM)的AI工程师,这包括从头编码变换器的技能和在GPU上微调LLM等。我现在还做不到,因为我的知识有缺口,我希望填补这些缺口。

在我给你推荐一堆链接之前,还有两个学习过程中的建议:不要闷头自学。

学无止境,尤其是在人工智能领域,每个月都有前沿的论文发布。

最大的错误是自己闷头学习。除了能完成了某些事之外,你没有任何成果可展示。这样你会错失很多机会。更重要的是你如何处理这些信息,如何将其转化为可以与公众分享的知识,以及从这些信息中产生了什么新颖的想法和解决方案。

因此,你应该在公开你的学习进展,学习经验,甚至是一些成果。

这意味着要养成创造的习惯。这可能意味着,你尝试做这些事情:

  • 写博客和教程
  • 参加黑客马拉松并与他人合作
  • 在社区中提问和回答问题
  • 做你感兴趣的项目
  • 在一些社交媒体上发表你新发现的有趣的事

现在我们开始吧。

算法学习

机器学习严重依赖三大数学支柱:线性代数、微积分、概率与统计。每个都在算法有效运行中扮演着独特的角色。

  • 线性代数:数据表示和操作的数学工具箱,矩阵和向量构成算法解释和处理信息的语言。
  • 微积分:机器学习中优化的引擎,通过理解梯度和变化率,使算法能够学习和改进。
  • 概率与统计:在不确定性下做决策的基础,允许算法通过随机性和可变性的模型预测结果并从数据中学习。

这是一套从程序员视角出发的机器学习数学系列:由Weights & Biases提供的《机器学习的数学》([github 地址]

如果你想从代码角度学习线性代数,可以学习[fast.ai创造者的《计算线性代数》])。

同时阅读[《Python应用机器学习线性代数入门》。]

如果你想要更传统的内容,可以看伦敦帝国学院的讲座——[线性代数]与[多变量微积分])。(这两个视频,在国内视频网站中没有搜到,大家可以自己跳转去看)

观看3Blue1Brown的《线性代数的本质》和《微积分的本质》。

为了学习统计学,观看StatQuest的《统计学基础》。

补充资料:

  • 书籍:[《机器学习的数学》]
  • 论文:[《深度学习所需的矩阵微积分》]

工具

Python

初学者从这里开始:[实用Python编程]。当然,B 站上也有清华北大整理的 Python 教程,也不错,大家可以自己搜索。

如果你已经熟悉Python,可以学习这个[高级Python精通课程]。

这两个课程都是由David Beazley(《Python Cookbook》的作者)提供的。

阅读《[Python设计模式]》。

补充资料

  • 书籍:《[流畅的Python,第二版]》([Github 地址])
  • 播客:[Real Python] & [Talk Python]

PyTorch

PyTorch官网是一个很好的资源。

  • [PyTorch示例]
  • 官方PyTorch教程
  • 常见问题解答页面
  • 通过一些谜题测试你的知识:srush/Tensor-Puzzles:解决谜题。提升你的PyTorch技能。

补充资料

  • 书籍:《深度学习的PyTorch编程》

机器学习

阅读《100页机器学习书》。

从头编写

在阅读时,从头开始编写算法。

查看下面的代码库:

  • eriklindernoren/ML-From-Scratch
  • JeremyNixon/oracle
  • trekhleb/homemade-machine-learning

如果你想要挑战自己,可以通过以下课程尝试从头开始编写PyTorch。

  • MiniTorch:一个关于机器学习工程的DIY课程(Github 地址)

参加比赛

将所学应用于竞赛。

  • 在 bitgrit 和 Kaggle 等平台上参加机器学习竞赛;在这篇文章中,你可以找到更多类似竞赛。
  • 查看过去参与竞赛的获胜解决方案,并学习它们

做一些小项目

例如阅读Vicki Boykis撰写的《将机器学习投入生产》。她还写了关于构建Viberary(一种图书的语义搜索)的学习经验。

获取数据集并构建模型(例如,使用earthaccess获取NASA地球数据)。你也可以尝试一些已经开源的模型,从部署、训练到微调。如果你缺少合适的 GPU 资源,还有硬件资源,你可以尝试使用 Paperspace 这样的 GPU 云来解决。(中文介绍)

部署它们

将模型投入生产环境,并跟踪你的实践成果。学习如何监控模型。亲身体验数据和模型的变化。

以下是一些优秀资源:

  • Made With ML
  • DataTalksClub/mlops-zoomcamp:免费的MLOps课程
  • chiphuyen/machine-learning-systems-design
  • Evidently AI — ML系统设计:300个案例研究
  • stas00/ml-engineering:机器学习工程在线书籍

补充资料

  • 使用PyTorch和Scikit-Learn的机器学习(Github 地址)
  • 机器学习中的模型评估、模型选择和算法选择
  • 机器学习面试入门书籍·MLIB

深度学习

如果你想从上而下开始,先从fast.ai开始。你可以浏览fast.ai (第一部分, 第二部分) ,以及 W&B学习小组。

如果你想要一个更全面、传统的课程,查看UNIGE 14x050 — François Fleuret教授的深度学习。

如果你需要在某个时候回归理论,这些书籍很棒:

  • 深入深度学习(包含PyTorch、NumPy/MXNet、JAX和TensorFlow的代码示例)
  • 《深度学习》,这本书的作者是Ian Goodfellow, Yoshua Bengio和Aaron Courville
  • 神经网络和深度学习
  • 理解深度学习

在你的神经网络收敛时阅读这些:

  • 训练神经网络的配方
  • 深度神经网络:33年前和33年后

参加更多比赛:

  • PlantTraits2024 — FGVC11 | Kaggle(计算机视觉)

一些值得推荐的论文:

  • 查看labml.ai注释的PyTorch论文实现
  • Papers with Code是一个很好的资源;这里有关于BERT的解释。

以下是深度学习内部一些专业领域的资源:

计算机视觉

  • 很多人推荐CS231n:计算机视觉的深度学习。它很有挑战性,但如果你能坚持下来,会发现很值得一读。

强化学习

对于想要了解强化学习的人来讲,这两个资源很值得看:

  • OpenAI的Spinning Up in Deep RL
  • Hugging Face的深度强化学习课程

自然语言处理(NLP)

  • 另一个很棒的斯坦福课程,CS 224N | 自然语言处理与深度学习
  • 学习Hugging Face:Hugging Face NLP课程
  • 查看这个超级NLP仓库

一些好文章和解析,其中一些插图版本的内容会更加生动易懂:

  • BERT研究 — 第1集 — 关键概念和来源Chris McCormick
  • 插图版Word2vec — Jay Alammar
  • 插图版BERT, ELMo等(NLP如何破解迁移学习)
  • 理解LSTM网络 — colah的博客
  • 从头开始的PyTorch RNN — Jake Tae

补充资料:

  • 使用变换器的自然语言处理书籍

大型语言模型

首先,观看由Andrej主讲的1小时演讲《大型语言模型入门》。接着观看由Alexander Rush — Cornell Tech主讲的《五个公式中的大型语言模型》(暂时没有在国内视频网站看到过这个资源)。

同时,还推荐观看Andrej Karpathy的《神经网络:从零到英雄》。它从解释和从头编写反向传播算法开始,最后教你从头编写GPT。Andrej Karpathy最近发布了新视频 :让我们来构建GPT的分词器(这个视频也没有在国内视频网站上搜到)。

另外,你还可以看看Jay Mody的《60行NumPy代码中的GPT》。

一些免费的LLM训练营

由Full Stack Deep Learning发布的付费LLM训练营,现已免费。它会教你提示工程、LLMOps、LLM的用户体验设计,以及如何在一小时内启动LLM应用。

如果你已经跃跃欲试想要在训练营后开始构建,那你看看这些资源,学习如何使用LLM构建应用:

  • 观看由Andrew Ng主讲的《使用大型语言模型进行应用开发》
  • 阅读Huyen Chip的《为生产环境构建LLM应用》
  • 以及Eugene Yan的《构建基于LLM的系统和产品的模式》
  • 参考OpenAI Cookbook。
  • 使用Vercel AI模板开始。

当然,还推荐你参加一些黑客马拉松,练练手。lablab.ai每周都有新的AI黑客马拉松。

如果你想深入理论并了解一切如何运作。那么可以阅读论文:

  • Sebastian Raschka撰写的《理解大型语言模型》是一篇很棒的文章,列出了你应该阅读的一些论文。
  • 他最近还发表了另一篇文章,介绍了你应该在2024年1月阅读的论文,涵盖了mistral模型。

从头编写变换器

  • 阅读Lil’Log的《变换器家族2.0》以获取概览。
  • 选择最适合你的格式,并从头开始实现。

论文

  • 需要关注的焦点
  • 用漫画讲变换器
  • Harvard的注释变换器
  • 像变换器一样思考

博客

  • 从头开始创建变换器 — 第一部分:注意力机制(第二部分)
  • Sebastian Raschka博士撰写的《从头开始理解和编码大型语言模型的自我注意机制》
  • 从头开始的变换器

看完这些,现在你可以从头开始编码变换器了。但还有更多。

一些好的博客

  • Gradient Descent into Madness — 从头构建一个LLM
  • 插图变换器 — Jay Alammar
  • 关于注意力和变换器的一些直觉 — Eugene Yan
  • 加速GPT — KV缓存 | Becoming The Unbeatable
  • 超越自我注意:一个小型语言模型如何预测下一个标记
  • 从头开始的Llama(或如何在不哭泣的情况下实现一篇论文)| Brian Kitano
  • 改进LoRA:从头开始实现权重分解的低秩适应(DoRA)

学习如何运行开源模型

  • 使用ollama:在本地启动并运行Llama 2、Mistral和其他大型语言模型。他们最近发布了Python和JavaScript库。
  • 在 H100 上运行 MosaicML 模型并进行微调

提示工程

  • 阅读Lil’Log的《提示工程》
  • 由Ise Fulford (OpenAI)和Andrew Ng撰写的ChatGPT提示工程

另外,DeepLearning.ai还提供了其他你可以免费注册的短期课程。

微调LLM

  • 阅读Hugging Face的微调指南。
  • 一本好的指南书:微调 — GenAI指南书

RAG

  • Anyscale撰写的一篇很棒的文章:为生产构建基于RAG的LLM应用
  • 由Aman Chadha提供的检索增强生成的全面概述

上手实践

千万不要忘了我们在最开始说的,一定要多动手实践,在实践过程中,你会发现自己的知识盲区,然后学习会更有动力。

如果你手上没有合适的 GPU 或电脑设备能让你去运行那些大语言模型,那么你可以考虑使用 GPU 云服务,比如 DigitalOcean 的 Paperspace 平台(这里有中文介绍),支持包括 H100、A100、V100 等多种 GPU,并预装机器学习常用的技术栈(包括语言、工具、框架等)。随时扩展,按需停止,只需按使用量付费。相比自建服务器、租赁 GPU,你会发现 GPU 云服务也是个不错的选择。

如何保持知识更新

学到这里,你要做的更多的就是保持自己能得到更多新的资讯、知识,了解当前AI 行业中又有哪些新模型、新论文。所以你可以通过结合新闻、播客,在社交平台上关注一些博主,来保证得到最新的信息。

我们已经花了足够的时间编写和组织这些内容,以至于收益递减。现在是时候学习和构建了。希望这能帮助你在AI旅程中前行!

从入门到精通:人工智能与大语言模型的学习蓝图_第1张图片

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

学会后的收获:
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】

在这里插入图片描述

你可能感兴趣的:(1024程序员节,人工智能,大模型入门,大数据,大模型教程,学习,大模型学习)