deepseek从入门到精通(1)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、DeepSeek是什么
  • 二、DeepSeek可以做什么
  • 三、推理模型和通用模型
  • 四、提示语
    • (一)什么是提示语
    • (二)提示语策略差异
    • (三)提示语示例
    • (四)调教AI的秘籍
      • 1.精准定义任务,减少模糊性。
      • 2.适当分解复杂任务,降低AI认知负荷。
      • 3.引入引导性问题,提升生成内容的深度。
      • 4.控制提示语长度,确保生成的准确性。
      • 5.灵活运用开放式提示与封闭性提示。
    • (五)常见陷阱与应对(提示语设计误区)
      • 1.缺乏迭代陷阱:期待一次性完美结果
      • 2.过度指令和模糊指令陷阱:当细节淹没重点或意图不明确
      • 3.当AI只告诉你想听的
      • 4.当AI自信地胡说八道
      • 5.低估AI的伦理限制


前言

《DeepSeek:从入门到精通》(清华版)读书笔记(1)

资料分享:https://pan.baidu.com/s/1sI0ZoOtFne5Qte7ccJcgAg?pwd=mgbv


一、DeepSeek是什么

DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。
DeepSeek-R1是其开源的推理模型 ,擅长处理复杂任务且可免费商用。

二、DeepSeek可以做什么

直接面向用户或者支持开发者 ,提供智能对话 、文本生成 、语义理解 、计算推理 、代码生成补全等应用场景,支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。

三、推理模型和通用模型

推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理 、逻辑分析和决策能力的模型 。它们通常具备额外的技术,比如强化学习 、神经符号推理 、元学习等 ,来增强其推理和问题解决能力。
例如:DeepSeek-R1,GPT-o3在逻辑推理 、数学推理和实时问题解决方面表现突出。

非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成 、上下文理解和自然语言处理,而不强调深度推理能力 。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容 ,但缺乏像推理模型那样复杂的推理和决策能力 。
例如:GPT-3 、GPT-4( OpenAI),BERT( Google),主要用于语言生成 、语言理解 、文本分类 、翻译等任务。
deepseek从入门到精通(1)_第1张图片

四、提示语

(一)什么是提示语

提示语( Prompt) 是用户输入给AI系统的指令或信息,用于引导AI生成特定的输出或执行特定的任务 。简单来说 ,提示语就是我们与AI“对话” 时所使用的语言,它可以是一个简单的问题 ,一段详细的指令,也可以是一个复杂的任务描述。

(二)提示语策略差异

1.推理模型(适用数学任务,简介指令,聚焦目标,信任其内化能力,要什么直接说)
(1)提示语更简洁,只需明确任务目标和需求(因其已内化推理逻辑)
(2)无需逐步指导,模型自动生成结构化推理过程(若强行拆解步骤,反而可能限制其能力)
(3)不要对推理模型用“启发式”提示(如角色扮演),可能干扰其逻辑主线。
2.通用模型(适用创意任务,结构化,补偿性引导,缺什么补什么)
(1)需显式引导推理步骤(如通过CoT提示),否则可能跳过关键逻辑)
(2)依赖提示语补偿能力短板(如要求分布思考、提供事例)
(3)不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)
deepseek从入门到精通(1)_第2张图片

(三)提示语示例

deepseek从入门到精通(1)_第3张图片

(四)调教AI的秘籍

1.精准定义任务,减少模糊性。

明确的核心问题,具体化的生成指令,去除多余信息。

2.适当分解复杂任务,降低AI认知负荷。

分段生成,逐层深入,设置逻辑结构。

3.引入引导性问题,提升生成内容的深度。

设置多个层次的问题,促使AI对比或论证,引导思维的多样性。

4.控制提示语长度,确保生成的准确性。

避免嵌套复杂的指令,保持简洁性,使用分布提示。

5.灵活运用开放式提示与封闭性提示。

开放性提示:提出开放性问题,允许AI根据多个角度进行生成。
封闭式提示:提出具体问题或设定明确限制,要求AI给出精准回答。

(五)常见陷阱与应对(提示语设计误区)

1.缺乏迭代陷阱:期待一次性完美结果

陷阱症状:
(1)过度复杂的初始提示语;
(2)对初次输出结果不满意就放弃;
(3)缺乏对AI输出的分析和反馈
应对策略:
(1)采用增量方法:从基础提示语开始 ,逐步添加细节和要求。
(2)主动寻求反馈:要求AI对其输出进行自我评估,并提供改进建议 。
(3)准备多轮对话:设计一系列后续问题,用于澄清和改进初始输出。

2.过度指令和模糊指令陷阱:当细节淹没重点或意图不明确

陷阱症状:
(1)提示语异常冗长或过于简短
(2)AI输出与期望严重不符
(3)频繁需要澄清或重新解释需求
应对策略:
(1)平衡详细度 :提供足够的上下文 ,但避免过多限制。
(2)明确关键点:突出最重要的2-3个要求。
(3)使用结构化格式:采用清晰的结构来组织需求。
(4)提供示例:如果可能 ,给出期望输出的简短示例。

3.当AI只告诉你想听的

陷阱症状:
(1)提示语中包含明显立场或倾向
(2)获得的信息总是支持特定观点
(3)缺乏对立或不同观点的呈现
应对策略:
(1)自我审视:在设计提示语时 ,反思自己可能存在的偏见。
(2)使用中立语言 :避免在提示语中包含偏见或预设立场。
(3)要求多角度分析:明确要求AI提供不同的观点或论据。
(4)批判性思考:对AI的输出保持警惕 ,交叉验证重要信息。

4.当AI自信地胡说八道

陷阱症状:
(1)AI提供的具体数据或事实无法验证。
(2)输出中包含看似专业但实际上不存在的术语或概念。
(3)对未来或不确定事件做出过于具体的预测。
应对策略:
(1)明确不确定性:鼓励AI在不确定时明确说明。
(2)事实核查提示:要求AI区分已知事实和推测。
(3)多源验证:要求AI从多个角度或来源验证信息。
(4)要求引用:明确要求AI提供信息来源 ,便于验证。

5.低估AI的伦理限制

陷阱症状:
(1)要求AI生成有争议 、不道德或非法内容。
(2)对AI的拒绝或警告感到困惑或不满 。
(3)尝试绕过AI的安全机制。
(4)忽视AI输出可能带来的伦理影响。
应对策略:
(1)了解界限:熟悉AI系统的基本伦理准则和限制 。
(2)合法合规:确保你的请求符合法律和道德标准 。
(3)伦理指南:在提示语中明确包含伦理考虑和指导原则。
(4)影响评估:要求AI评估其建议或输出的潜在社会影响。

你可能感兴趣的:(人工智能)