【LLM】基于ollama 实现模型多轮对话

基于ollama 实现模型多轮对话

ollama 下载安装

Download Ollama on Windows](https://ollama.com/download) Ollama官网

下载安装后,ollama在c盘模型安装路径也默认为c盘,如需更改可以更新环境变量

【LLM】基于ollama 实现模型多轮对话_第1张图片

在ollama安装路径下启动cmd ollama run qwen2.5:7B 即可自动下载并运行

【LLM】基于ollama 实现模型多轮对话_第2张图片

python 使用ollama

安装ollama库: pip install ollama
  • 代码实现

    • 方式一
    import ollama
    
    # 聊天式
    response = ollama.chat(model='qwen2.5:7b',
                           messages=[{
         'role': 'user', 'content': '你认识时崎狂三吗', }])
    print(response)
    print(response['message']['content'])
    # ⽣成式
    response = ollama.generate(model='qwen2.5:7b', prompt='为什么天空是蓝⾊的?')
    print(response)
    messages = []
    messages.append

你可能感兴趣的:(LLM,python,开发语言,语言模型,自然语言处理,人工智能)