AI“源神”启动!Llama 3发布,开闭源之争战局生变

在AI的世界里,开源与闭源的较量一直是科技界的热门话题。

今年年初,埃隆·马斯克在对OpenAI及其CEO萨姆·奥特曼提起诉讼时,就对OpenAI逐渐不公开其模型研究相关细节的行为大加谴责。"时至今日,OpenAI公司网站还宣称,它的宗旨是确保通用人工智能造福全人类。然而,在现实中,OpenAI已经转变为科技巨头微软事实上的闭源子公司。"这位曾经的OpenAI联合创始人如此表示。

OpenAI不够"Open",Meta却"Open"了自己最新的开源人工智能模型。

最近,Meta的一记重拳------Llama 3的发布,无疑在这场旷日持久的辩论中投下了一枚重磅炸弹。

Llama 3:开源大模型的新标杆

Meta在4月18日,也就是AI开源倡导者吴恩达的生日当天,发布了其最新版本的开源大模型Llama 3。这一举措不仅引起了开源AI社区的热烈讨论,更在资本市场上引起了波澜,Meta股价逆势收涨1.54%。次日,百度智能云千帆大模型平台开放邀约测试,提供针对Llama 3的训练推理方案,帮助开发者训练专属大模型。

更多关于Llama3的信息请查看如下文章:

开源与闭源:AI时代的路线之争

行至2024,开闭源之争日渐白热化。闭源阵营以目前最强的OpenAI为代表,开源阵营Meta的LLaMa、Mistral和Google等也在不断迭代。闭源阵营坚持对Scaling Law的信仰,押注在更强通用模型的打造上;开源阵营模型能力不断提升,并且强调以更垂直的性能、更灵活的配置来推动大模型商业化落地。

关于应该选择模型开源还是闭源讨论经久不息。

事实上,在Llama3发布之前,中文互联网刚刚经历了一轮开闭源论战。

据媒体报道,百度CEO李彦宏近日表态,认为大模型开源意义不大,闭源模型性能会不断提升。"有了文心大模型4.0,我们可以根据需要兼顾效果、响应速度、推理成本等各种考虑,裁剪出适合各种场景的更小尺寸模型,且支持精调和post pretrain。通过降维裁剪出的模型,比直接拿开源调出来的模型,同等尺寸下效果更好,同等效果下成本明显更低。"

李彦宏一直是闭源路线的忠实拥趸,理由包括但不限于认可闭源商业模式可以更好地聚集人力和财力等。而其反对者------360创始人周鸿祎言简意赅,"一句话,今天没有开源就没有 Linux,没有 Linux 就没有互联网。"

不下桌牌,各显神通

放眼AI界,两条路径上都各有"头号玩家"分布。闭源自不必说,海外有OpenAI旗下的ChatGPT,国内是百度的文心一言以及风头正劲的月之暗面Kimi。

而开源方面,除了Llama系列,目前应用较广的开源大模型还包括非营利组织LAION推出的OpenFlamingo、Databricks的Dolly,以及MosaicML的MPT等。国内则包括,阿里巴巴的通义千问,智谱的ChatGLM-4、百川智能的baichuan-7B中英文大模型、北京智源悟道3.0大模型系列和面壁智能的CPM-Bee 10B中文基座大模型等。

形成这样的分化,很多时候是受技术进步和商业模式迭代等的多重影响。

从技术角度来看,开源可以促进学术界的研究和创新,而闭源则有助于在一定时间内保持技术领先优势。

从商业角度来看,开源可以吸引开发者社区的贡献,促进技术的快速迭代和应用的广泛传播,但可能会影响到公司的盈利模式。闭源则可以保护知识产权,为公司创造直接的收入来源,但可能会限制技术的普及和生态的建设。

结语

Llama 3的发布,不仅是技术上的一次飞跃,也是开源与闭源之争中的一个关键节点。随着AI技术的不断进步,这一辩论可能会持续下去,而市场和用户的选择将最终决定哪种模式能够占据主导地位。

开源与闭源大模型之间不太可能分出绝对的输赢,因为它们各自适合不同的应用和场景。开源大模型更适合那些需要快速创新和大规模协作的项目,而闭源大模型可能更适合那些对性能和安全性有极高要求的商业应用。


相关推荐
佛州小李哥1 小时前
在亚马逊云科技上用Stable Diffusion 3.5 Large生成赛博朋克风图片(上)
人工智能·科技·ai·语言模型·stable diffusion·aws·亚马逊云科技
东锋1.31 小时前
深度解析近期爆火的 DeepSeek
人工智能·深度学习
爱研究的小牛2 小时前
讯飞智作 AI 配音技术浅析(二):深度学习与神经网络
人工智能·深度学习·神经网络·机器学习·aigc
Luzem03192 小时前
使用PyTorch实现逻辑回归:从训练到模型保存与性能评估
人工智能·pytorch·逻辑回归
灵封~2 小时前
自定义数据集 使用pytorch框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行预测,对预测结果计算精确度和召回率及F1分数
人工智能·深度学习
辞落山2 小时前
使用 Numpy 自定义数据集,使用pytorch框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行预测,对预测结果计算精确度和召回率及F1分数
人工智能·pytorch·逻辑回归
nnerddboy2 小时前
深度学习查漏补缺:2. 三个指标和注意力机制
人工智能·神经网络·cnn
新加坡内哥谈技术2 小时前
Deepseek-R1 和 OpenAI o1 这样的推理模型普遍存在“思考不足”的问题
人工智能·科技·深度学习·语言模型·机器人
goomind2 小时前
深度卷积神经网络实战无人机视角目标识别
人工智能·神经网络·yolo·cnn·无人机·pyqt5·目标识别
終不似少年遊*2 小时前
国产之光DeepSeek架构理解与应用分析
人工智能·深度学习·神经网络·架构·deepseek·分析解读