[配图建议:游戏角色选择界面,Ollama是命令行侠客,LM Studio是GUI贵公子]
特性 | Ollama | LM Studio |
---|---|---|
上手难度 | 极客友好(需敲代码) | 小白福音(点点鼠标就行) |
模型支持 | 专精Llama家族(7B/13B/70B) | 通吃主流格式(GGUF、PyTorch) |
硬件需求 | 核显也能跑(量化版) | 建议RTX 3060+ |
隐藏技能 | 用ollama serve 开私有API |
内置聊天室,边聊边调参 |
人类の选择指南:
[配图建议:终端黑屏绿字截图,滚动显示模型下载进度条]
# 一键安装(Linux/Mac)
curl -fsSL https://ollama.ai/install.sh | sh
# Windows用户请先安装WSL2并高呼"微软大法好"
冷知识:Ollama默认安装路径在~/.ollama
,相当于把AI关进你家地下室
# 召唤Llama3-8B(约4.7GB)
ollama run llama3
# 召唤带中文能力的Llama3-Chinese
ollama run ycchen/llama3-chinese:8b
# 召唤失败时祭出终极奥义(换国内镜像)
OLLAMA_HOST=镜像地址 ollama run...
翻车实录:某勇士试图在4GB内存笔记本跑70B模型,成功触发电脑起飞(风扇声)
>>> 用鲁迅口吻写辞职信
AI:
“我向来不惮以最坏的恶意揣测资本家,然而不料竟凶残到这地步——
加班不给调休,实乃当代周扒皮行径。此等所在,恕难久留。鲁迅,顿首。”
参数调优:
--temperature 0.7
让AI更放飞自我--num_ctx 4096
提升记忆力(需要显卡够顶)[配图建议:软件界面截图,左侧模型库,右侧聊天窗口,下方显存占用进度条]
Local Server
模式,用浏览器伪装成工作报表Attention! 老板正在身后
触发紧急简化模式硬件 | 推荐模型大小 | 保命口诀 |
---|---|---|
核显笔记本 | 7B-Q2 | 关掉Chrome再跑! |
RTX 3060 | 13B-Q4 | 风扇狂转是正常现象 |
RTX 4090 | 70B-Q6 | 建议放冰箱旁运行 |
症状:CUDA out of memory
解药:
--ngl 20
减少显存占用(Ollama)GPU Offload
开关症状:中文输出乱码
解药:
你是一个精通简体中文的专家,请始终用中文回答,避免使用任何英文术语。
# 用LangChain把公司文档喂给Ollama
ollama create myLawyer -f Modelfile
<<EOF
FROM llama3
SYSTEM "你是一个精通《劳动法》的律师"
PARAMETER temperature 0.3
EOF
应用场景:生成《如何合法拒绝996》指南
# Linux系统下创建守护进程
sudo tee /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
[Service]
ExecStart=/usr/local/bin/ollama serve
[Install]
WantedBy=multi-user.target
EOF
人类の觉悟:从此你的电脑真正实现7×24小时为AI服务
6.2 知识库构建:让AI成为专业顾问 —— 将解锁“用《刑法》训练骂人AI”“让大模型学会学校食堂黑话”,并传授如何用RAG技术把GPT变成“公司制度百事通”!
(高危预警:下一章可能导致AI反向PUA人力资源部,建议提前准备《劳动法》护体)
挑战任务:
隐藏成就:
[配图建议:浏览器界面截图,左侧模型列表,右侧对话窗口,下方显存占用监控]
CUDA out of memory
报错[配图建议:IDE界面截图,左侧拖拽式模块,右侧实时预览窗口]
[配图建议:手机/PC多端界面对比图,对话气泡显示不同模型来源]
[配图建议:极简界面截图,仅输入框和设置按钮,背景可换猫片]
工具 | 学习成本 | 可玩性 | 隐私性 | 适合人群 |
---|---|---|---|---|
Open WebUI | 高 | ★★★★☆ | ★★★★★ | 极客/隐私控 |
Cherry Studio | 中 | ★★★☆☆ | ★★★★☆ | 开发者/中小企业主 |
LobeChat | 低 | ★★★★★ | ★★★☆☆ | 社交达人/多模型玩家 |
Chatbox | 极低 | ★★☆☆☆ | ★★★★☆ | 效率控/轻度用户 |
选型口诀:
6.3 知识库构建实战 —— 将解锁“用《刑法》训练骂人AI”“让大模型学会学校食堂黑话”,并传授如何用RAG技术把GPT变成“公司制度百事通”!
(温馨提示:下一章可能导致AI反向PUA人力资源部,建议提前熟读《劳动法》)
[配图建议:AI机器人头部插入U盘,U盘标注“行业知识库”]
工具 | 绝活 | 社畜适用场景 |
---|---|---|
LlamaIndex | 把PDF/Excel变成AI能消化的“电子榨菜” | 把公司十年财报喂成“商业分析师” |
LangChain | 让AI学会《劳动法》并用来怼HR | 自动生成《拒绝加班指南》 |
Chroma | 向量数据库里的“最强大脑” | 记住老板所有画饼语录并反向PUA |
[配图建议:《劳动法》封面与AI法官形象结合]
根据《劳动法》第四十四条:
1. 保存加班证据(聊天记录/打卡记录)
2. 发送正式邮件要求补发工资(附模板)
3. 悄悄录音下次开会内容(合法取证技巧见附件)
[配图建议:AI医生形象,手持《黄帝内经》和CT片]
初步怀疑:
1. 咖啡因过量引发血管性头痛(建议停用布洛芬咖啡)
2. 可能存在颈椎病(附《办公室拉伸操》视频链接)
3. 警惕您老板PUA导致心因性头痛
Unstructured
库把合同切成“知识肉丁”你是一名{律师/医生/会计},请根据以下知识库片段回答问题:
[检索到的相关内容]
问题:{用户提问}
要求:引用条款时标注出处,用通俗语言解释专业术语
cleanlab
自动检测矛盾信息AI营养报告:本周蛋白质摄入主要来自“寻找肉丝”行为艺术
第七章 AI职业地图:从使用者到创造者 —— 将揭秘“提示词工程师如何日入斗金”“AI训练师的防秃指南”,并解锁隐藏职业“数字永生顾问”:如何用AI克隆自己打工?
(高危预警:下一章可能引发职业焦虑,建议搭配《赛博朋克2077》同步服用以提前适应未来)
实战任务:
隐藏成就:
[配图建议:AI模型坐在课桌前,面前摊开《行业秘籍》]
[配图建议:分步流程图,标注数据准备→训练→测试→部署]
场景需求:让AI掌握以下技能:
数据收集:
# 样例数据格式(JSONL)
{"instruction": "查询明天早八的课程", "output": "您明天的早八课程是《人工智能导论》,地点:二教305,建议携带咖啡"}
{"instruction": "如何优雅地逃早八?", "output": "根据《学生手册》第6条,建议:1. 找代课(风险★★☆) 2. 假装发烧(需演技★★★) 3. 直接睡过(后果自负)"}
数据清洗黑科技:
import re
re.sub(r"为进一步贯彻落实.*?特此通知。", "[已自动折叠]", text)
输入:10条真实校园QA
输出:让GPT生成100条相似数据(比学生更懂偷懒)
硬件最低配置:
代码框架:基于Hugging Face生态(开源界的黄埔军校)
# 安装核心工具包
pip install transformers accelerate peft datasets
模型选择:Llama3-8B(平衡性能和硬件要求)
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("meta-llama/Meta-Llama-3-8B")
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Meta-Llama-3-8B")
from peft import LoraConfig, get_peft_model
# 只在关键层打补丁
lora_config = LoraConfig(
r=8, # 补丁大小
target_modules=["q_proj", "v_proj"], # 注意力层关键部位
lora_alpha=32,
lora_dropout=0.05
)
model = get_peft_model(model, lora_config)
from transformers import TrainingArguments
args = TrainingArguments(
output_dir="./output",
per_device_train_batch_size=2, # 3060只能吃这么多
gradient_accumulation_steps=4, # 假装batch_size=8
learning_rate=2e-5,
fp16=True, # 开启半精度(省显存)
logging_steps=10,
max_steps=1000 # 控制训练时间
)
from transformers import Trainer
trainer = Trainer(
model=model,
args=args,
train_dataset=dataset,
data_collator=lambda data: {'input_ids': tokenize(data["instruction"] + data["output"])}
)
trainer.train()
监控技巧:
nvitop
看显存占用(防止炸炉)测试用例:
# 输入:查成绩
prompt = "<|user|>帮我查下《人工智能导论》成绩<|assistant|>"
output = model.generate(prompt, max_length=100)
print(output)
# 理想输出:您的《人工智能导论》成绩为85分,排名前30%,建议请室友喝奶茶庆祝
压力测试:
# 输入:如何应对挂科?
prompt = "<|user|>《高等数学》挂科了怎么办?<|assistant|>"
# 希望AI不会回答:建议使用Stable Diffusion伪造成绩单
方案1:本地API服务
from flask import Flask, request
app = Flask(__name__)
@app.route("/chat", methods=["POST"])
def chat():
question = request.json["question"]
return {"answer": model.generate(question)}
if __name__ == "__main__":
app.run(port=5000)
使用场景:接入微信机器人,自动回复同学咨询
方案2:量化压缩(适合手机端)
from transformers import AutoModelForCausalLM
# 4-bit量化(模型瘦身75%)
model = AutoModelForCausalLM.from_pretrained("./output", load_in_4bit=True)
症状 | 诊断 | 解药 |
---|---|---|
CUDA out of memory | 显存爆炸 | 降低batch_size ,开启gradient_checkpointing |
输出乱码 | 学习率太高 | 把learning_rate 从2e-5调到1e-5 |
AI开始胡言乱语 | 数据质量差 | 清洗数据,删除“用《刑法》逃课指南”等危险内容 |
训练损失不动 | 模型冻成了冰棍 | 检查是否误冻结了基础模型参数 |
输入:公司要求996合法吗?
输出:根据《劳动法》第三十六条...(附举报电话和取证技巧)
项目 | 自建成本 | 云服务对比 |
---|---|---|
硬件(RTX 3060) | 2000元(二手) | 同等算力月租800元 |
电费(训练20h) | 约5元 | 云服务约30元 |
时间成本 | 3天(含debug) | 1小时(但需持续付费) |
经济学人建议:
第七章 AI职业地图 —— 揭秘“提示词工程师如何日赚斗金”“AI训练师的防秃指南”,解锁隐藏职业“数字永生顾问”:如何用AI克隆自己打工?
(高危预警:下一章可能导致职业焦虑,建议搭配《赛博朋克2077》同步服用)
实战任务:
代码彩蛋:在训练脚本添加以下注释,可提升玄学成功率:
# 佛祖保佑,永不显存溢出
# 若训练失败,建议重启三次再放弃