想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现

今天介绍的ChatGLM-6B 是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。关键的是结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需14GB显存,INT4 量化级别下最低只需 6GB 显存)虽然智商比不过 openAI 的 ChatGPT 模型,但是ChatGLM-6B 是个在部署后可以完全本地运行,可以自己随意调参,几乎没有任何审查限制,也几乎没有对话轮数限制的模型。那么ChatGLM-6B 模型用来调教成你自己的专属猫娘,魅魔什么的再合适不过了。

看看以下效果:

想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现_第1张图片


目录

前言

部署教程 

软硬件准备

<

你可能感兴趣的:(GPT-4,人工智能)