长输入短输出场景下,对话模型为何更胜推理模型?

1 min read

大家现在对 DeepSeek 体验良好,主要是在于推理模型 R1。但 o1/R1 这类推理模型最大的问题就在于输出太长、太慢了,每次都要先输出思维过程,然后再组织语言进行回答,内容冗余很多,所以更适合“短输入、长输出”的场景。

另外,o1/R1 这些推理模型相比于普通的对话模型来说贵好几倍,输出长 + 单价贵,二者叠加在一起就显得性价比不高。而 Qwen2.5/DeepSeek V3 这类对话模型,更适用于“长输入、短输出”的场景,比如总结一篇文章主要内容、对多个信源进行总结等,也许更适合用户在 iPhone 手机上的日常场景。

Comments

Add a comment