LLM-Cookbook,中文大模型,Datawhale,大模型实战,LangChain 应用,多模态集成,RAG 系统,国产模型适配,大模型微调,开源实战解析
LLM-Cookbook 是由 Datawhale 社区发起并持续维护的中文大模型应用工程实践项目,旨在系统性总结大模型在中文语境下的应用落地路径、优化方案与工程范式。该项目覆盖从 RAG、Agent、LangChain、微调训练、多模态处理到国产模型适配的多个核心技术模块,具备极强的工程可操作性和行业实战指导价值。本文基于该项目完整仓库,围绕其模块结构、关键应用路径、部署实践、工具集成、优化策略等展开深入解析,全面呈现如何高效利用 LLM-Cookbook 快速搭建企业级中文大模型应用系统,助力开发者提升工程化落地与国产模型能力接入效率。
一、项目背景与定位解析:LLM-Cookbook 在中文大模型工程体系中的作用
二、模型能力接入与国产 LLM 适配实践
三、RAG 架构构建与文本增强检索优化
四、LangChain 模块应用范式详解
五、Agent 应用模块实战路径
六、多模态能力集成路径解析
七、微调训练与中文数据指令增强实践
八、部署与服务化方案设计
九、项目运行异常与调优经验总结
十、实战应用案例与二次开发拓展建议
项目仓库地址:https://github.com/datawhalechina/llm-cookbook
在中文大模型应用快速发展的背景下,许多企业和开发者在模型落地过程中面临一系列共性工程难题,例如:
LLM-Cookbook 正是在此背景下诞生,旨在系统性总结中文语境下大模型工程落地的最佳实践路径,为开发者提供结构化、可复用、模块化的工程模板,覆盖大模型应用的核心场景与能力集成方式。其最大特点是:
通过该项目,开发者可以迅速理解主流技术栈的工程实现逻辑,并完成中文语境下的大模型应用平台搭建,极大提升落地效率与复用能力。
LLM-Cookbook 采用分目录结构,每个子目录为一个独立的工程场景或关键能力模块,结构清晰,便于按需学习与接入。以下为主目录结构:
llm-cookbook/
├── rag/ # 文本增强检索与问答(RAG 框架)
├── langchain_app/ # LangChain 模块工程化封装
├── agent/ # Agent 智能体框架与工具调度
├── multimodal/ # 多模态模块(OCR/语音/图像问答等)
├── finetune/ # 模型微调与中文指令数据构建
├── service/ # 推理部署与接口封装(FastAPI 等)
├── utils/ # 通用工具类封装(tokenizer、embedding 工具)
├── docs/ # 模块文档与操作说明
核心模块简介:
模块 | 说明 |
---|---|
rag/ |
经典 RAG 结构实现,支持 FAISS 索引、分块优化、国产模型接入 |
langchain_app/ |
LangChain 应用模板,封装 PromptTemplate、Chain、Memory 等组件 |
agent/ |
构建任务链、函数调用、Tool 调度链结构,适配大模型工具执行链 |
multimodal/ |
图文、语音、OCR 多模态接入模块,支持中文场景 |
finetune/ |
基于 LoRA 的中文模型指令微调流程,兼容 Alpaca 格式与 OpenBMB 生态 |
service/ |
推理服务部署,支持 Gradio、Streamlit、FastAPI 接口化服务封装 |
LLM-Cookbook 的模块结构具备良好的独立性与组合性,开发者可以单独部署任意子模块,也可将多个模块集成为完整的大模型应用服务系统。其整体架构非常适合企业在不同落地阶段选择性引入核心模块,逐步构建自己的中文 LLM 应用体系。
LLM-Cookbook 在模型接入设计方面考虑了多种国产大模型部署形式,包括 API 接入、LoRA 微调模型加载、本地模型加载等,兼容当前主流中文大模型。
目前已在项目中实测支持如下模型:
模型名称 | 接入方式 | 兼容平台 |
---|---|---|
通义千问 | API / 模型本地部署 | ModelScope / HuggingFace |
百川 Baichuan | 本地加载 / API | HuggingFace / 自建服务 |
智谱 ChatGLM | 本地模型加载 | THUDM / InternLM 风格 |
Moonshot / 清言 | Chat API | vLLM / FastChat 架构 |
不同模型的接入逻辑主要体现在 service/llm_api.py
模块中,通过接口统一封装:
def get_llm_response(prompt: str, model_name: str = "qwen") -> str:
if model_name == "qwen":
return call_qwen_api(prompt)
elif model_name == "baichuan":
return run_local_baichuan(prompt)
elif model_name == "glm":
return run_chatglm(prompt)
...
各模型均通过可插拔的接口函数进行调度,可支持多模型切换测试或集群式调度。
/v1/chat/completions
标准接口兼容 OpenAI 生态;vLLM
可提升响应速度,降低内存占用,支持大批量并发推理;在中文场景中,Tokenizer 和向量化模型(Embedding)的兼容性对 RAG、检索、Agent 结构等模块的效果影响显著。LLM-Cookbook 在 utils/
模块中提供了多种兼容策略与实测 embedding 模型集成方案。
功能 | 模型名称 | 接入方式 |
---|---|---|
Tokenizer | QwenTokenizer , ChatGLMTokenizer |
Transformers / 自定义 |
Embedding | text2vec-base-chinese |
HuggingFace |
Embedding | bge-large-zh , bge-m3 |
ModelScope / BGE Toolkit |
Embedding | MiniLM , GTE (通用兼容) |
HuggingFace |
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
tokens = tokenizer.tokenize("你好,请介绍一下你自己。")
在 utils/embedding.py
中封装了通用的中文嵌入计算接口:
from FlagEmbedding import BGEM3FlagModel
model = BGEM3FlagModel('BAAI/bge-m3', use_fp16=True)
embeddings = model.encode(["你好吗?", "请介绍一下自己"])
bge-m3
,具备跨问答匹配能力;text2vec
模型,自研语料也可自行微调;max_tokens
;LLM-Cookbook 在模型与 tokenizer/embedding 的适配性处理上兼顾实用性与灵活性,确保用户在不同平台下能够顺利运行全流程模块,在实际工程落地中具备良好的迁移与替换能力。
LLM-Cookbook 中 rag/
模块是一个面向中文语境构建的 Retrieval-Augmented Generation (RAG) 框架实现。整个模块具备完整的数据加载、文本分块、索引构建、召回匹配和问答生成流程,适配国产大模型 API 或本地模型接入。整体结构设计清晰,具备很强的二次开发与工程扩展能力。
rag/
├── docs/ # 示例文档(PDF/TXT/MD)
├── knowledge_base/ # 构建的知识库向量数据
├── config/ # 配置文件(模型、分块策略、检索参数)
├── retriever/ # 文档加载、分块与向量索引构建逻辑
├── qa/ # 检索+生成问答流程控制模块
├── embedding_models/ # 多种中文 embedding 模型加载接口
├── main.py # 主执行入口脚本
retriever/loaders.py
加载 PDF、Markdown、TXT 等结构化/非结构化文档;text_splitter.py
进行中文分块,支持基于句号、长度、滑窗等策略;qa/query_llm.py
中完成检索与生成问答流程,支持上下文拼接、问句增强;这种结构明确划分了数据处理、模型抽象与服务调用模块,是构建中文知识问答系统的标准工程模板。
中文场景下,RAG 系统的关键之一是文本分块策略的合理性。由于中文与英文语义单位长度差异大,若简单按字符截断,极易造成语义割裂,影响检索质量。LLM-Cookbook 针对这一点提供了多种可选策略。
模块位于 retriever/text_splitter.py
,主要包括:
示例:
from retriever.text_splitter import ChineseTextSplitter
splitter = ChineseTextSplitter(chunk_size=300, chunk_overlap=50, separator='。')
docs = splitter.split_documents(loaded_documents)
每个分块均带有上下文与原始文档路径,便于检索后进行追溯引用。
在 retriever/vectorstore.py
中定义了向量构建器与检索器接口:
from langchain.vectorstores import FAISS
from embedding_models.bge import load_bge_model
embedding_model = load_bge_model()
vector_store = FAISS.from_documents(docs, embedding_model)
vector_store.save_local("knowledge_base/")
该流程可适配任何 HuggingFace/BGE 风格的中文模型。默认使用 FAISS 构建高效本地索引,部署成本低,运行效率高。
reranker
二次排序模块(如 bge-reranker)提升 TopK 相关性;LLM-Cookbook 的 RAG 模块具备高度模块化、中文场景优化与强兼容性优势,是企业/高校搭建文档问答系统、FAQ 平台与知识库应用的高质量开源基座。
在中文语境中构建稳定的大模型应用,Prompt 的设计方式极为关键。LLM-Cookbook 在 langchain_app/prompt_template.py
中系统性封装了多种中文任务常见 Prompt 模板,配合 LangChain 的 PromptTemplate
类构建出可复用的结构体。
from langchain.prompts import PromptTemplate
prompt_template = PromptTemplate(
input_variables=["question", "context"],
template="你是一个中文问答助手,根据以下内容回答问题:\n\n{context}\n\n问题:{question}\n回答:"
)
该模板可用于 RAG 场景的生成任务,具备良好的可读性与上下文兼容性。
每个模板均支持参数化注入,结合 Chain 结构封装形成高复用逻辑模块。
LLM-Cookbook 在 langchain_app/chain_runner.py
中封装了标准化 Chain 调用方式,使得开发者在调用大模型时只需关注输入结构与输出结构,大幅简化调用逻辑。
from langchain.chains import LLMChain
llm_chain = LLMChain(llm=llm_model, prompt=prompt_template)
response = llm_chain.run({"question": query, "context": retrieved_text})
此外,支持加入以下组件:
LLMMathChain
:支持数值计算;ConversationalRetrievalChain
:支持多轮对话记忆;ToolChain
:集成函数调用与外部 API 工具执行。为避免重复调用浪费 token,可集成 LangChain 的内置缓存机制:
from langchain.cache import InMemoryCache
langchain.llm_cache = InMemoryCache()
如需跨 session 缓存,可引入 SQLite 或 Redis:
from langchain.cache import SQLiteCache
langchain.llm_cache = SQLiteCache(database_path=".langchain_cache.db")
该机制对企业级部署可显著节约调用成本,提升接口稳定性。
通过 LangChain 模块的结构化调用方式,LLM-Cookbook 实现了 prompt 封装与任务链闭环能力的工程标准化,是支撑复杂业务逻辑建模与任务调度的中枢组件。其在中文语境下的适配能力,使得 LangChain 能真正走出实验室,走进中文生产环境。
在复杂的中文大模型应用场景中,仅靠单轮 LLM 生成能力往往无法满足结构化任务、信息查找、调用外部工具等需求。LLM-Cookbook 的 agent/
模块基于 LangChain 的 Agent 架构封装了一套可扩展的多工具调度链系统,支持模型主动调用函数、选择工具并完成任务闭环执行。
agent/
├── tools/ # 自定义工具定义(如搜索、计算器等)
│ ├── search_tool.py
│ ├── math_tool.py
├── agents/ # 多 Agent 调用逻辑封装
│ ├── agent_executor.py
│ ├── agent_with_memory.py
├── examples/ # 示例任务调用(如翻译、知识问答等)
├── prompt_templates/ # Agent 专用 Prompt 模板
from langchain.agents import Tool
def search(query: str) -> str:
# 接入自定义搜索接口或 Web 数据源
return "搜索结果:..."
search_tool = Tool(
name="Search",
func=search,
description="当你需要从互联网上查找信息时调用该工具"
)
from langchain.agents import initialize_agent
agent = initialize_agent(
tools=[search_tool, calculator_tool],
llm=llm_model,
agent="zero-shot-react-description"
)
response = agent.run("请计算2023年出生的人现在多大了,并查一下当年国内出生人口")
通过多工具组合,Agent 能自动将复杂指令拆解成多个可执行动作,形成闭环任务链。
LLM-Cookbook 的 Agent 模块使中文大模型不仅具备“语言理解”能力,更具备“任务执行”能力,是向多智能体系统演进的重要桥梁。
Agent 系统不仅适用于知识问答场景,还支持代码生成、执行与回传结果的任务闭环能力。LLM-Cookbook 提供了完整的代码执行链组件,构建了可运行的 Python 执行链,用于解决中文计算、逻辑处理、自动脚本生成类任务。
query = "请写一段代码,从一个 CSV 文件中统计北京的订单总数和平均金额。"
模型自动生成 Python 代码后,调用本地沙盒执行环境运行,并将结果回传用户。
PythonREPLTool
或自定义 safe_exec_tool.py
;exec()
执行生成代码,限制变量范围;示例封装:
from langchain.tools.python.tool import PythonREPLTool
code_tool = PythonREPLTool()
agent = initialize_agent([code_tool], llm=llm_model, agent="zero-shot-react-description")
response = agent.run("请写代码实现斐波那契数列前20项")
os.system
, rm
)进行正则清洗;LLM-Cookbook 通过 Agent + Tool 架构,使模型具备了编写 + 调用 +验证的任务执行能力,是构建数据处理自动化、代码生成平台与中文指令式任务系统的基础组件,极大提升了大模型的可控性与实用性。
中文场景中,文本数据往往来自图像(如身份证、合同、菜单)、语音(如电话录音、语音问答)等非结构化源。LLM-Cookbook 的 multimodal/
模块提供了 OCR、ASR、图像问答等多模态能力封装,具备实战可运行性与开源模型兼容特性。
multimodal/
├── ocr/ # OCR 文本识别接口(支持 cnocr、paddleocr 等)
├── asr/ # 中文语音识别接口(基于 Whisper / FunASR)
├── image_qa/ # 图文问答(MiniGPT-4、BLIP2 模型调用)
├── prompt/ # 多模态模板与参数控制逻辑
from paddleocr import PaddleOCR
ocr = PaddleOCR(use_angle_cls=True, lang="ch")
img_path = "invoice.jpg"
result = ocr.ocr(img_path, cls=True)
texts = [line[1][0] for line in result[0]]
支持从合同、发票、表格、名片中提取中文内容,并可作为 LLM 输入构建结构化问答。
from faster_whisper import WhisperModel
model = WhisperModel("large-v2", device="cuda")
segments, _ = model.transcribe("meeting_audio.wav", beam_size=5)
transcribed_text = " ".join([seg.text for seg in segments])
可用于电话问答转写、会议纪要自动化处理、语音消息摘要等场景。
from models.mini_gpt4 import load_model, ask_image_question
model = load_model()
response = ask_image_question(model, "product.png", "这张图中有几个按钮?")
支持图像理解、图表分析、试卷识别等中文多模态任务落地。
DocQA、知识图谱问答等任务往往要求结合图像信息(如知识图、结构图)进行检索与问答。LLM-Cookbook 支持构建图文混合型检索增强系统(Multimodal RAG),工作流程如下:
该路径适用于企业资料库构建、图文并茂的政企报表查询、多模态教学问答等场景。
通过 LLM-Cookbook 的多模态能力集成,中文大模型在视觉与听觉信息处理方面得到进一步扩展,从而实现从“单模态语言处理”到“跨模态理解与生成”的系统性跃迁。该模块为后续构建国产图文生成系统、多模态 RAG、AI 智能导览等项目提供了工程级支撑能力。
在中文大模型工程中,微调训练是实现高适配性与领域特化的重要手段。LLM-Cookbook 的 finetune/
模块支持基于 LoRA(Low-Rank Adaptation) 的轻量微调方式,并统一采用 Alpaca 格式 组织中文指令数据,降低训练门槛,提升任务迁移效率。
LLM-Cookbook 推荐的标准数据结构如下:
{
"instruction": "请将下面的英文翻译成中文。",
"input": "The quick brown fox jumps over the lazy dog.",
"output": "敏捷的棕色狐狸跳过了懒狗。"
}
instruction
:任务说明,适用于泛化指令;input
:上下文输入,可以为空;output
:期望输出结果,作为监督信号。项目中提供了多个预置任务样例,包括:
finetune/data_convert.py
通过统一的 Alpaca 中文数据格式,LLM-Cookbook 建立了中文任务训练的范式标准,帮助开发者快速进入模型训练与任务迁移阶段。
LLM-Cookbook 默认采用基于 HuggingFace Transformers 与 PEFT 框架实现的 LoRA 微调方式,支持在消费级 GPU(如 RTX 3090/4090)上完成中文大模型轻量训练。
from peft import get_peft_model, LoraConfig
from transformers import AutoModelForCausalLM, TrainingArguments, Trainer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B")
lora_config = LoraConfig(
r=8,
lora_alpha=32,
target_modules=["c_attn", "q_proj", "v_proj"],
lora_dropout=0.1,
bias="none",
task_type="CAUSAL_LM"
)
model = get_peft_model(model, lora_config)
训练参数建议设置如下:
training_args = TrainingArguments(
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
num_train_epochs=3,
learning_rate=2e-4,
logging_steps=10,
output_dir="./output/qwen-lora",
save_strategy="epoch"
)
执行训练:
trainer = Trainer(
model=model,
args=training_args,
train_dataset=train_dataset,
tokenizer=tokenizer
)
trainer.train()
merge_and_save()
将 adapter 权重合入主模型;维度 | 推荐配置 |
---|---|
基础模型 | Qwen-1.5-7B / Baichuan-13B |
微调参数 | r=8, alpha=16~32 |
batch size | 4~8 / 每卡 |
训练数据量 | 5K~10K 条指令样本 |
训练平台 | 单机 24GB 显存即可运行 |
通过上述流程,LLM-Cookbook 构建了“数据构建 + 微调配置 + 推理部署”全流程范式,是当前中文大模型场景下低成本、高效能指令微调实践的典范路径,适合政企定制问答、教育意图理解、行业语言模型快速适配等场景的模型训练任务。
LLM-Cookbook 在部署与服务化层面提供了多种适配路径,包括本地交互界面(Gradio、Streamlit)、轻量接口服务(FastAPI),以及 OpenAI 标准协议兼容能力。其服务模块位于 service/
目录,核心目标是将前述模型能力(RAG、Agent、多模态等)以 Web API 或前端可视化界面形式对外提供。
Gradio 适用于快速原型搭建、教学演示、POC 场景测试。项目提供了基于 Gradio 的中文对话窗口与文件上传问答界面:
import gradio as gr
from service.chat import generate_answer
def user_chat(input_text):
return generate_answer(input_text)
demo = gr.Interface(fn=user_chat, inputs="text", outputs="text")
demo.launch()
特点:
FastAPI 是工程化部署首选框架,具备高性能、高并发特性,支持 RESTful API 标准接口构建与 Swagger 文档自动生成。
项目提供 service/app.py
:
from fastapi import FastAPI
from pydantic import BaseModel
from service.chat import generate_answer
app = FastAPI()
class Query(BaseModel):
prompt: str
@app.post("/chat")
def chat(query: Query):
return {"response": generate_answer(query.prompt)}
部署方式:
uvicorn app:app --host 0.0.0.0 --port 8000 --workers 2
Swagger 文档自动可用于 /docs
路径。
为支持企业已有系统无缝对接,项目构建了兼容 OpenAI /v1/chat/completions
协议的代理服务,支持调用本地模型或国产 API:
POST /v1/chat/completions
{
"model": "baichuan",
"messages": [
{"role": "user", "content": "请介绍一下你自己"}
]
}
该能力便于集成前端已有 UI 框架(如 ChatGPT Web UI)、多 Agent 调度器(如 Langflow)或模型管理平台(如 Flowise、OpenDevin)。
为满足不同场景下对模型响应速度、回答质量、推理稳定性等指标的差异化需求,LLM-Cookbook 提供了多模型协同调度能力与推理性能优化方案,具备实际工程应用可行性。
service/model_selector.py
中实现了模型路由器逻辑,可根据任务类型、用户选择或负载状态动态分发至不同模型。
调度策略包括:
示例:
def dispatch_model(prompt, task_type):
if task_type == "qa":
return run_chatglm(prompt)
elif task_type == "code":
return run_qwen(prompt)
...
优化点 | 实践策略 |
---|---|
启动加载优化 | 使用 vLLM 、ggml 加速权重加载与多线程 |
批量推理 | 使用 batch_decode 合并请求节省 Token |
显存占用控制 | 配置 torch_dtype=torch.bfloat16 |
推理引擎替换 | 替换为 TensorRT、Triton、ONNX Runtime |
多实例隔离部署 | 使用 supervisord 或 Docker 多进程运行 |
[前端 UI] —→ [FastAPI 接口服务] —→ [多模型调度器] —→ [模型服务池(vLLM / HuggingFace)]
↓
[FAISS 检索服务]
↓
[多模态工具 API 层]
该架构具备模块解耦、可横向扩展、支持模型替换与插件接入的能力,是通用型中文大模型服务系统部署推荐模板。
LLM-Cookbook 在部署与服务化层面的设计贯穿“低耦合、高适配、标准化”的理念,既满足快速验证需求,又具备向企业生产系统演进的可行性,是中文大模型落地过程中的关键支撑组件。
在多轮对话或大段文本交互过程中,大模型输出“重复”、“不连贯”或“忽略上文”等问题常常出现,背后原因大多与上下文拼接策略不合理有关。
tiktoken
或 tokenizer 工具估算 token 数量;from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
tokens = tokenizer.tokenize(full_input)
print(len(tokens))
[
{"role": "system", "content": "..."},
{"role": "user", "content": "..."},
{"role": "assistant", "content": "..."}
]
LLM-Cookbook 中 chat_history.py
提供了标准的上下文构建逻辑,推荐按角色顺序拼接,并基于 token 限制做滑窗截断。
在模型服务实战部署过程中,常见的问题还包括响应超时、接口异常、资源占用飙升等稳定性问题,LLM-Cookbook 针对此类问题提供了可复用的调优经验路径。
问题类型 | 原因分析 | 优化策略 |
---|---|---|
接口超时 | 模型推理时间过长 / 多轮请求堆积 | 设置 timeout=60 限制 + 接口限流 |
输出中断 | Prompt 模板换行符不规范 / 分词异常 | 明确格式要求,强制规范模板 |
显存飙升 | 并发处理未做锁保护,多个实例争抢显存 | 使用 asyncio.Semaphore 控制并发 |
响应不稳定 | GPU 显存残留 / WebSocket 堆栈积压 | 定期释放缓存 torch.cuda.empty_cache() |
此外,建议配合以下优化技术:
gunicorn
或 uvicorn workers
实现多进程高可用;通过系统化的异常处理与服务性能调优机制,LLM-Cookbook 已具备部署在企业内部测试环境、私有云平台或本地生产环境的稳定性基础,为实际应用部署与演进提供了实践级可复用经验模板。
LLM-Cookbook 以其模块化、中文场景适配与多模型支持的能力,为多个行业的大模型应用提供了可行的定制路径。以下是三个典型应用场景及其落地方式:
应用目标:构建面向内部政策文件、业务流程、公共服务规范的问答系统。
关键模块:rag/
+ service/
+ fastapi
+ faiss
定制内容:
应用目标:协助学生答疑、自动批改作文、生成练习题。
关键模块:langchain_app/
+ agent/
+ finetune/
定制内容:
应用目标:支持财报解析、合同问答、图表生成、金融摘要。
关键模块:multimodal/
+ rag/
+ bge-m3
+ 图文问答能力。
定制内容:
不同场景可基于 Cookbook 提供的组件灵活组合与重构,最大限度复用已有模块并快速产出。
LLM-Cookbook 的模块设计与工程抽象层,为二次开发与企业级产品孵化提供了高质量的技术底座。推荐如下迭代路径:
拓展方向 | 建议方案 |
---|---|
UI 交互增强 | 可接入 ChatHub、Next.js WebUI、Vue 前端组件 |
多租户管理 | 引入 session + 用户隔离配置系统 |
权限与角色控制 | 接入 OAuth2/JWT 与 Admin 后台管理面板 |
模型仓库管理 | 引入 OpenLLM、llm-server 等本地模型仓库平台 |
A/B 测试评估体系 | 加入 PromptBench、LangSmith 实验评估平台支持 |
LLM-Cookbook 作为中文大模型落地工程的典范开源项目,其结构成熟、组件清晰、能力完整,具备向 SaaS 系统、私有部署、行业定制等方向快速拓展的能力。通过合理的二次开发与组件解耦重构,开发者可基于该项目孵化真正可用的行业级大模型产品或服务。
个人简介
作者简介:全栈研发,具备端到端系统落地能力,专注人工智能领域。
个人主页:观熵
个人邮箱:[email protected]
座右铭:愿科技之光,不止照亮智能,也照亮人心!
观熵系列专栏导航:
AI前沿探索:从大模型进化、多模态交互、AIGC内容生成,到AI在行业中的落地应用,我们将深入剖析最前沿的AI技术,分享实用的开发经验,并探讨AI未来的发展趋势
AI开源框架实战:面向 AI 工程师的大模型框架实战指南,覆盖训练、推理、部署与评估的全链路最佳实践
计算机视觉:聚焦计算机视觉前沿技术,涵盖图像识别、目标检测、自动驾驶、医疗影像等领域的最新进展和应用案例
国产大模型部署实战:持续更新的国产开源大模型部署实战教程,覆盖从 模型选型 → 环境配置 → 本地推理 → API封装 → 高性能部署 → 多模型管理 的完整全流程
Agentic AI架构实战全流程:一站式掌握 Agentic AI 架构构建核心路径:从协议到调度,从推理到执行,完整复刻企业级多智能体系统落地方案!
云原生应用托管与大模型融合实战指南
智能数据挖掘工程实践
Kubernetes × AI工程实战
TensorFlow 全栈实战:从建模到部署:覆盖模型构建、训练优化、跨平台部署与工程交付,帮助开发者掌握从原型到上线的完整 AI 开发流程
PyTorch 全栈实战专栏: PyTorch 框架的全栈实战应用,涵盖从模型训练、优化、部署到维护的完整流程
深入理解 TensorRT:深入解析 TensorRT 的核心机制与部署实践,助力构建高性能 AI 推理系统
Megatron-LM 实战笔记:聚焦于 Megatron-LM 框架的实战应用,涵盖从预训练、微调到部署的全流程
AI Agent:系统学习并亲手构建一个完整的 AI Agent 系统,从基础理论、算法实战、框架应用,到私有部署、多端集成
DeepSeek 实战与解析:聚焦 DeepSeek 系列模型原理解析与实战应用,涵盖部署、推理、微调与多场景集成,助你高效上手国产大模型
端侧大模型:聚焦大模型在移动设备上的部署与优化,探索端侧智能的实现路径
行业大模型 · 数据全流程指南:大模型预训练数据的设计、采集、清洗与合规治理,聚焦行业场景,从需求定义到数据闭环,帮助您构建专属的智能数据基座
机器人研发全栈进阶指南:从ROS到AI智能控制:机器人系统架构、感知建图、路径规划、控制系统、AI智能决策、系统集成等核心能力模块
人工智能下的网络安全:通过实战案例和系统化方法,帮助开发者和安全工程师识别风险、构建防御机制,确保 AI 系统的稳定与安全
智能 DevOps 工厂:AI 驱动的持续交付实践:构建以 AI 为核心的智能 DevOps 平台,涵盖从 CI/CD 流水线、AIOps、MLOps 到 DevSecOps 的全流程实践。
C++学习笔记?:聚焦于现代 C++ 编程的核心概念与实践,涵盖 STL 源码剖析、内存管理、模板元编程等关键技术
AI × Quant 系统化落地实战:从数据、策略到实盘,打造全栈智能量化交易系统
大模型运营专家的Prompt修炼之路:本专栏聚焦开发 / 测试人员的实际转型路径,基于 OpenAI、DeepSeek、抖音等真实资料,拆解 从入门到专业落地的关键主题,涵盖 Prompt 编写范式、结构输出控制、模型行为评估、系统接入与 DevOps 管理。每一篇都不讲概念空话,只做实战经验沉淀,让你一步步成为真正的模型运营专家。
点个赞,给我一些反馈动力
⭐ 收藏起来,方便之后复习查阅
关注我,后续还有更多实战内容持续更新