安装chatglm

地址

下载源代码

下载完成后解压
安装chatglm_第1张图片

安装cuda

输入nvcc -V查看是否安装cuda
安装chatglm_第2张图片
输入nvidia-smi查看支持的最高版本,最高支持12.1
安装chatglm_第3张图片
下载cudahttps://developer.nvidia.com/cuda-downloads
安装chatglm_第4张图片
安装chatglm_第5张图片
双击安装
安装chatglm_第6张图片
安装chatglm_第7张图片
安装chatglm_第8张图片
同意之后点击下一步
安装chatglm_第9张图片
选择精简模式即可
安装chatglm_第10张图片
等待下载安装包
安装chatglm_第11张图片
安装chatglm_第12张图片
安装chatglm_第13张图片
安装chatglm_第14张图片
安装chatglm_第15张图片
输入nvcc -V查看是否安装成功
安装chatglm_第16张图片
其他版本cuda下载
cuda 11.7
cuda 11.8

创建虚拟环境

conda create -p D:\CondaEnvs\chatglmstu  python=3.9
# 激活环境
conda activate D:\CondaEnvs\chatglmstu

安装pytorch

https://pytorch.org/
安装chatglm_第17张图片

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

安装chatglm_第18张图片
安装chatglm_第19张图片

下载模型文章

https://huggingface.co/THUDM/chatglm-6b/tree/main
安装chatglm_第20张图片
下载这个网页里的所有文件(一共20个),然后把这些文件放到一个新文件夹,文件夹命名为chatglm-6b,目前默认已经存在这个文件夹
安装chatglm_第21张图片
安装chatglm_第22张图片

安装其他所需要的软件包

cd D:\pythonstu\ChatGLM-6B-main
pip install -r requirements.txt

安装chatglm_第23张图片
安装chatglm_第24张图片

修改项目参数

使用Pycharm打开项目
修改web_demo.py
安装chatglm_第25张图片
THUDM/chatglm-6b修改为chatglm-6b
同理api.py和cli_demo.py也修改
如果你的gpu14G以上不用修改,如果8G选择int8如果6G选择int4
安装chatglm_第26张图片

# 4bit
model = AutoModel.from_pretrained("chatglm-6b", trust_remote_code=True).half().quantize(8).cuda()
# 8bit
model = AutoModel.from_pretrained("chatglm-6b", trust_remote_code=True).half().quantize(8).cuda()

我这里现存12G所以选择8bit
尝试启动web_demo.py
安装chatglm_第27张图片

安装chatglm_第28张图片

你可能感兴趣的:(python,python,人工智能,linux)