天下文章一大抄:Gemini自称百度文心,字节使用GPT训练豆包

关于AI大模型,这两天出了两条特别轰动的大新闻。

首先是字节跳动被爆使用GPT训练自己的大模型豆包,然后被OpenAI停止了字节的GPT接口调用权限。

然后是网友使用中文测试Gemini时,Gemini自称是百度的文心大模型;即使Google很快进行了修复,但是万能的网友们仍旧通过各种提示词引导Gemini做出了有趣的回答。

这些AI大模型到底是怎么回事?

先看字节跳动。这个事情说严重也不严重,说不严重也不是小事。很多小厂和科研机构都会使用OpenAI的GPT-API来训练模型。这次,因为字节跳动的影响力比较大,才引起了广泛的关注。虽然字节回应称仅在初期探索时使用,并没有用于商业,但声明有点软弱。

这个事情对字节跳动的声誉影响比较大,很多人指责字节跳动不遵守规则。另一方面,这个事情也让一些人泼脏水,指责咱们的AI企业大规模使用OpenAI的API服务生成数据用于训练LLM,从而导致服务器崩溃。总之,这个事情给舆论场添了一把火。

再看Gemini。很多人将其解释为大语言模型的幻觉,因为大语言模型会使用很多的预料进行训练。之所以会自称文心一言,是因为google抓去了很多文心一言生成的语料,训练的多了就出现了这个问题。当使用英文和Gemini交流时,它就回到了谷歌大模型的身份,表现得非常正常。

至于Gemini有没有直接使用文心一言进行模型的训练,这个就很难说了,不过根据目前的效果看,很可能使用了,因为日常可见的中文语料中还没这么多自称自己是百度大模型的。其实谷歌也是有前科的,早些时候,谷歌输入法就"偷"了搜狗输入法的语料。而且根据网友测试,Gemini的英文语料也大量使用了OpenAI的输出结果。

综合来看,不管大模型还是小模型,利用成熟的AI做辅助训练已经成为常规操作,比自己人工清洗训练集效率会高很多,质量也会高不少,比较难受的就是训练集污染。

OpenAI的输出结果质量比较高,所以大家都会偷偷摸摸的用来做测试。文心一言的中文语料是有优势的,所以被国外的大模型拿来做辅助训练,只是清洗的不太干净。

咱们再看看网友的评论

1、AI生成的内容已经开始大规模污染互联网了!

2、对待这两件事,咱们要公平看待,不能厚此薄彼。

3、Google对OpenAI进行了处理,但是没有对中文对齐,是认为咱们这边不重视知识产权,还是认为咱们这边访问不了Google?

4、Google太着急了吧,怎么着先把数据清洗好,没有最丢人,只有更丢人。

5、来自未来的恐怖担忧。


最后,我的评论是:天下文章一大抄!在残酷竞争的面前,谁也不比谁高尚。

只不过大佬们为了维护自己的先进形象,肯定都不会承认抄袭竞争对手。

只是我们一直都在为AI默默的贡献语料,却没有人来给我们多少发点报酬,有点可悲。

我是每天分享AI应用的"萤火遛AI",欢迎关注我的公众号,一起探索AI。

相关推荐
用户5191495848453 小时前
对抗性工程实践:利用AI自动化构建GitHub仓库的虚假提交历史
人工智能·aigc
算家计算4 小时前
32K上下文开源语音理解、40分钟深度交互——Voxtral-Small-24B-2507本地部署教程
人工智能·开源·aigc
后端小肥肠4 小时前
Coze+ComfyUI 实战:视频制作成本降10 倍,高质量成片这么做
人工智能·aigc·coze
funfan05175 小时前
GPT-5博士级AI使用教程及国内平替方案
人工智能·gpt
bug菌6 小时前
Trae如何快速辅助Java开发者进场AI编程?打破传统编程思维!
aigc·ai编程·trae
用户5191495848456 小时前
使用JavaScript与CSS创建"移动高亮"导航栏
人工智能·aigc
用户5191495848457 小时前
Linux内核UAF漏洞利用实战:Holstein v3挑战解析
人工智能·aigc
bug菌7 小时前
Java开发者还在被Python“碾压“?用Trae反击,让智能化应用开发快到飞起!
aigc·ai编程·trae
bug菌8 小时前
当AI遇上编程,传统IDE还能守住最后一道防线吗?Trae告诉你答案!
aigc·ai编程·trae
盏灯11 小时前
据说,80%的人都搞不懂MCP底层?
人工智能·aigc·mcp