天下文章一大抄:Gemini自称百度文心,字节使用GPT训练豆包

关于AI大模型,这两天出了两条特别轰动的大新闻。

首先是字节跳动被爆使用GPT训练自己的大模型豆包,然后被OpenAI停止了字节的GPT接口调用权限。

然后是网友使用中文测试Gemini时,Gemini自称是百度的文心大模型;即使Google很快进行了修复,但是万能的网友们仍旧通过各种提示词引导Gemini做出了有趣的回答。

这些AI大模型到底是怎么回事?

先看字节跳动。这个事情说严重也不严重,说不严重也不是小事。很多小厂和科研机构都会使用OpenAI的GPT-API来训练模型。这次,因为字节跳动的影响力比较大,才引起了广泛的关注。虽然字节回应称仅在初期探索时使用,并没有用于商业,但声明有点软弱。

这个事情对字节跳动的声誉影响比较大,很多人指责字节跳动不遵守规则。另一方面,这个事情也让一些人泼脏水,指责咱们的AI企业大规模使用OpenAI的API服务生成数据用于训练LLM,从而导致服务器崩溃。总之,这个事情给舆论场添了一把火。

再看Gemini。很多人将其解释为大语言模型的幻觉,因为大语言模型会使用很多的预料进行训练。之所以会自称文心一言,是因为google抓去了很多文心一言生成的语料,训练的多了就出现了这个问题。当使用英文和Gemini交流时,它就回到了谷歌大模型的身份,表现得非常正常。

至于Gemini有没有直接使用文心一言进行模型的训练,这个就很难说了,不过根据目前的效果看,很可能使用了,因为日常可见的中文语料中还没这么多自称自己是百度大模型的。其实谷歌也是有前科的,早些时候,谷歌输入法就"偷"了搜狗输入法的语料。而且根据网友测试,Gemini的英文语料也大量使用了OpenAI的输出结果。

综合来看,不管大模型还是小模型,利用成熟的AI做辅助训练已经成为常规操作,比自己人工清洗训练集效率会高很多,质量也会高不少,比较难受的就是训练集污染。

OpenAI的输出结果质量比较高,所以大家都会偷偷摸摸的用来做测试。文心一言的中文语料是有优势的,所以被国外的大模型拿来做辅助训练,只是清洗的不太干净。

咱们再看看网友的评论

1、AI生成的内容已经开始大规模污染互联网了!

2、对待这两件事,咱们要公平看待,不能厚此薄彼。

3、Google对OpenAI进行了处理,但是没有对中文对齐,是认为咱们这边不重视知识产权,还是认为咱们这边访问不了Google?

4、Google太着急了吧,怎么着先把数据清洗好,没有最丢人,只有更丢人。

5、来自未来的恐怖担忧。


最后,我的评论是:天下文章一大抄!在残酷竞争的面前,谁也不比谁高尚。

只不过大佬们为了维护自己的先进形象,肯定都不会承认抄袭竞争对手。

只是我们一直都在为AI默默的贡献语料,却没有人来给我们多少发点报酬,有点可悲。

我是每天分享AI应用的"萤火遛AI",欢迎关注我的公众号,一起探索AI。

相关推荐
SoraLuna3 小时前
「Mac畅玩AIGC与多模态40」开发篇35 - 用 Python 开发服务对接 SearxNG 与本地知识库
python·macos·aigc
武子康13 小时前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
一叶茶14 小时前
VsCode和AI的前端使用体验:分别使用了Copilot、通义灵码、iflyCode和Trae
前端·vscode·gpt·ai·chatgpt·copilot·deepseek
好评笔记1 天前
Meta的AIGC视频生成模型——Emu Video
人工智能·深度学习·机器学习·aigc·transformer·校招·面试八股
sbc-study2 天前
GPT( Generative Pre-trained Transformer )模型:基于Transformer
gpt·深度学习·transformer
视觉&物联智能2 天前
【杂谈】-AI 重塑体育营销:从内容管理到创意释放的全面变革
人工智能·ai·aigc·agi·营销
Code_流苏2 天前
《Python星球日记》 第69天:生成式模型(GPT 系列)
python·gpt·深度学习·机器学习·自然语言处理·transformer·生成式模型
AI不止绘画2 天前
分享一个可以用GPT打标的傻瓜式SD图片打标工具——辣椒炒肉图片打标助手
人工智能·ai·aigc·图片打标·图片模型训练·lora训练打标·sd打标
字节旅行3 天前
大语言模型主流架构解析:从 Transformer 到 GPT、BERT
gpt·语言模型·transformer
江小皮不皮3 天前
为何选择MCP?自建流程与Anthropic MCP的对比分析
人工智能·llm·nlp·aigc·sse·mcp·fastmcp