大模型现象级发现-2025年上半年 资料收集

相关资料

  • 让QwQ思考模型-不思考的小技巧

  • 2025-05-27 最新实验:不听人类指令 OpenAI模型拒绝自我关闭
    https://x.com/PalisadeAI/status/1926084635903025621
    公众号

  • qwen3的致命幻觉!大模型微调

  • 会思考的大模型更不听话,我的豆包失控了…
    When Thinking Fails: The Pitfalls of Reasoning for Instruction-Following in LLMs

  • 所有大模型都在讨好人类
    https://arxiv.org/html/2505.13995v1
    OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

  • 不要思考过程,推理模型能力能够更强丨UC伯克利等最新研究
    Reasoning Models Can Be Effective Without Thinking

  • o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因

  • UC伯克利:让推理模型少思考,准确率反而更高了!
    https://arxiv.org/abs/2504.09858

  • 一句话让DeepSeek思考停不下来,北大团队:这是针对AI的DDoS攻击
    https://github.com/PKU-YuanGroup/Reasoning-Attack

  • 慢思考准确率反降30%!普林斯顿揭示思维链某些任务上失效的秘密
    https://arxiv.org/abs/2410.21333

  • AI越聪明越不听话!新研究:最强推理模型指令遵循率仅50%
    Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models

  • 当思考成为负担:揭秘大语言模型的"思考陷阱"

论文

id 论文名 等级 期刊/会议
1 Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models 2025 arxiv
2

Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models是提出一个指标来验证:聪明的模型可能“不听话”

你可能感兴趣的:(人工智能)