自己在开发AI应用的过程总结的 Prompt - 持续更新

自己在开发AI应用的过程总结的 Prompt - 持续更新

  • 0. 引言
  • 1. 让模型以"中文"进行回复
  • 2. 控制模型仅输出"hi"
  • 3. 让模型"提供简单、清晰而具体的回答"
  • 4. 让模型"在最后说谢谢"

0. 引言

我想,我们多半有着相似的经历,在开发AI应用的过程中,撰写Prompt几乎成了工作的重心,Prompt已经不可或缺地融入了代码之中。

面对的挑战是,有的Prompt根本难以发挥作用,而有的则是忽冷忽热,效果不一。

因此,我打算通过这篇文章,分享我在AI应用开发过程中,撰写Prompt的心得体会,以及一些实用的Prompt技巧。

随着时间的流逝和工作经验的积累,这篇文章将持续获得更新。对此感兴趣的朋友们,不妨将其收藏。

注意:因为Prompt 在不同模型上的表现不同,所以我会注明测试时使用的模型。还有一点,各个模型本身也在不断更新,随着时间的流逝模型的表现也可能会变化。

1. 让模型以"中文"进行回复

在使用一些非原生中文模型时,大预言模型默认是以"英文"进行回复的,我们可以通过下面的提示词,让模型以"中文"进行回复。

  • 测试工具:Ollama
  • 测试模型:8x7b-instruct-v0.1-fp16
  • Prompt
Please provide all responses in CHINESE.

2. 控制模型仅输出"hi"

在使用Ollama部署模型时,如果一段时间不访问,Ollama会自动卸载掉加载到显存上的模型,为了避免这个问题,我通过cron设置了定时访问Ollama的API,此时让大模型只回复"hi"即可。

  • 测试工具:Ollama
  • 测试模型:8x7b-instruct-v0.1-fp16
  • Prompt
You will ONLY respond with 'hi' and not with any explanations.
  • (参考)cron内容
*/2 * * * * curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "gpt-4", "messages": [{"role": "user", "content": "You will ONLY respond with 'hi' and not with any explanations."}]}'

3. 让模型"提供简单、清晰而具体的回答"

大模型的回答有时会非常"啰嗦",如果想让模型提供简单、清晰而具体的回答时,可以尝试一下这个Prompt。

  • 测试工具:Ollama
  • 测试模型:8x7b-instruct-v0.1-fp16
  • Prompt
Please provide all responses that are SIMPLE, CLEAR, and CONCISE.

4. 让模型"在最后说谢谢"

有时我们想让大模型在回答的最后说"谢谢"或者其他固定描述,可以尝试一下这个Prompt。

  • 测试工具:Ollama
  • 测试模型:8x7b-instruct-v0.1-fp16
  • Prompt
Please add "谢谢!" at last.

未完待续,持续更新

你可能感兴趣的:(LINUX,prompt)