使用python调用ollama中的deepseek-r1模型接口

直接上代码

# python代码
import requests
import json


def generate_text(prompt, model="deepseek-r1:7b", base_url="http://localhost:11434"):
    """
    调用Ollama接口生成文本
    :param prompt: 输入的提示文本
    :param model: 使用的模型名称,默认为deepseek-r1:7b
    :param base_url: Ollama服务的基础URL,默认为本地地址
    :param timeout: 请求超时时间(秒),默认为30秒
    :return: 生成的文本或错误信息
    """
    url = f"{base_url}/api/generate"
    headers = {"Content-Type": "application/json"}
    data = {"model": model, "prompt": prompt, "stream": False}  #  "stream": False 非流式处理返回

    print(data)

    try:
        response = requests.post(url, headers=headers, json=data)
        response.raise_for_status()  # 检查HTTP错误状态码
        result = response.json()
        return result.get("response", "")
    except requests.exceptions.RequestException as e:
        return f"请求出错: {e}"
    except json.JSONDecodeError as e:
        return f"响应解析失败: {e}"


# 示例调用
if __name__ == "__main__":
    prompt = "给我一首描述春天的诗"
    response_text = generate_text(prompt)
    print(response_text)

你可能感兴趣的:(ollama,deepseed,python,python,ollama,deepseek)