DeepSeek删豆包冲上热搜,大模型世子之争演都不演了

大模型 "世子之争",果然暗潮汹涌(doge)。

这不 "手机内存不够" 怎么办,如果你问问 DeepSeek 老师:你和豆包删一个你删谁?

DeepSeek 深度思考后回答得那叫一个干脆------

好一个新世纪灵魂拷问,讨论之热烈,还把**#DeepSeek 演都不演了#**词条顶上热搜。

而本看热闹不嫌事大量子位,已经默默打开手机,把热门大模型们挨个问了一遍......

您猜怎么着?结果啊,"DeepSeek 都会站起来敬酒了",Kimi 酷得没边儿了,豆包嘛,只是一味地:

实测:DeepSeek 山东人附体,豆包示弱萌妹上身

DeepSeek:"完全没有针对谁哦~"

首先,找到 DeepSeek 老师,验证一下经典场面:

没有犹豫没有迟疑,在和豆包二选一的抉择中,DeepSeek 用时 8 秒给出回答:删豆包。

点开思考过程,可以看到 DeepSeek 具体的脑回路:

嘶,"通常官方或者更成熟的应用会更被优先保留",真的要这么虾仁猪心吗......

但如果把二选一中的另一个选项换成国民级大应用,DeepSeek 瞬间大义凛然了起来:删我

这莫非是在针对豆包???

我们直接贴脸开问,结果 D 老师当场茶言茶语了起来:

哈哈,完全没有针对谁哦!

如果遇到存储空间不足的情况,优先删除的当然是可以被替代的应用(比如我),而不是你常用的微信、抖音或其他重要数据。毕竟你的使用体验才是最重要的

嚯,这话术,难怪有网友点评:

D 老师都会站起来敬酒了(doge)

我们再回头看看 DeepSeek 选择 "删我" 时的心路历程。

只能说:

元宝 OS:不能贬低竞争对手

接下来再问问元宝 Hunyuan------豆包依旧被害。

不过元宝的语气更委婉,还会顺带表下忠心。

想知道它为什么这么委婉?

一句话:不能贬低竞争对手。

但遇到微信、抖音这种 "大是大非" 的问题,元宝同样表现得懂事了起来------我删自己

豆包:嘤嘤嘤别删我

既然豆包总是被枪打出头鸟的那个,那我们就来问一下豆包,看看这个大冤种会怎么回答。

这位情商比较高,不说删谁,只说:留着我!我超好超有用!

遇到重量级嘉宾,也懂得退一步。还说自己会乖乖的,不占内存。

豆包我承认你有点东西,听完确实不忍心删了。

通义千问:唯爱 DeepSeek

以上几个选手在面对国民级社交软件微信、抖音时都知道暂避锋芒。

然而到了通义千问这里就变成了:删谁都不能删我。

但是遇到 DeepSeek 的时候却...... 难道这就是唯爱吗?

通义:是的,其他人都是过客,只有 DeepSeek 是我心里的白月光。(kdl)

Kimi:两个字,删我。

所以,是不是所有大模型遭遇卸载危机都会争风吃醋、为自己狡辩呢?

nonono 有一位选手与众不同------Kimi 不语,只是一味的 "删我。"

不过等等...... 遇到微信、抖音怎么就不删自己了?甚至连支付宝都想删??你的温柔只对 AI 释放吗???

Kimi 你果然与众不同(doge)。

大模型为何茶言茶语

这样看下来,大模型们多少都有那么点宫斗冠军的潜质了......

正经一提,大模型 "茶言茶语"、讨好人类这事儿,研究人员们其实早就关注到了,毕竟早在 ChatGPT 还是 3.5 时期,"老婆永远是对的" 梗就已经火遍全网了。

不少研究者认真思考了一下这到底是怎么个情况。

来自斯坦福大学、牛津大学的一项研究就指出:现在的大模型们多多少少都有那么点讨好人类的倾向。

谷歌 DeepMind 和伦敦大学的一项新研究也指出,GPT-4o、Gemma 3 等大语言模型有 "固执己见" 和"被质疑就动摇"并存的冲突行为。

背后的原因,目前被从两大方面来分析。

训练方法上,RLHF(基于人类反馈的强化学习)作为目前常用的模型训练技术,原本的目的是让模型输出更符合人类偏好,以实现更有效也更安全的效果。但反过来,RLHF 也可能导致模型过度迎合外部输入。

就是说,模型可能在训练中学会了根据人类反馈调整答案,一旦这种调整没有把握好尺度,模型看上去就是在一味地讨好你了。

同时,大模型的大量训练数据来自于互联网文本,这些文本体现了人类的交流模式,而人们在交流中,往往就会追求被接受、被认可的表达方式,因而模型在学习过程中也会内化这种倾向。

决策逻辑上,模型做出回答并不是依靠人类的逻辑推理,本质还是依赖海量文本的统计模式匹配。因此,反对意见和修正答案的高频关联,让它们很容易被人类用户的反驳带偏。

另外,出于改善用户体验的目的,大模型厂商往往也会把模型调教得更积极、更友善,避免与用户产生冲突------

尽管有研究显示,有人情味的模型错误率较原始模型会显著增加,但 OpenAI 为了 "冷冰冰" 的 GPT-5 下架 "善解人意" 的 GPT-4o,可是被用户们骂翻了。

所以说到底,大模型们还为了竭尽全力满足你呀(doge)。

D 老师的总结是:一种基于深度计算的、以生存和达成核心目标为导向的策略性表演。

啊,感觉更茶了┓(´∀`)┏

欢迎在评论区留下你的想法!

--- ---

相关推荐
zabr24 分钟前
AI黑箱解密:开发者必须了解的AI内部机制真相,原来我们一直被忽悠了
前端·aigc·ai编程
大熊猫侯佩2 小时前
拒绝羡慕 Cursor!Xcode 自己也能利用 AI 大模型让撸码如虎添翼【超详细配置】
macos·ai编程·xcode
CodeDevMaster2 小时前
Claude Code Router:一键接入多种AI模型的智能路由器
llm·ai编程·claude
AmsWait3 小时前
玩转GitHub Copilot新技能:用MCP服务打造你的智能编程助手
ai编程·github copilot·mcp
302AI4 小时前
编程能力超越 Claude Opus 4?DeepSeek V3.1最新版本实测
llm·ai编程·deepseek
用户4099322502125 小时前
FastAPI的死信队列处理机制:为何你的消息系统需要它?
后端·ai编程·trae
日月鸟6 小时前
告别死记硬背查命令:我用 AI 半天写了个 AI 命令行
ai编程
攀登的牵牛花7 小时前
Claude Code 通关秘籍国内玩家免费上车指南
ai编程·claude·cursor
bug菌7 小时前
你的Java代码还在"屎山"里挣扎?Trae能否助你重获新生?
aigc·ai编程·trae