Meta 的 Llama 模型系列即将迎来第三次大更新

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

Meta 最近在他们的 Llama 模型家族上又搞大动作,准备迎来第三次大升级------Llama 3。他们的目标是让这些模型更大(高达1400亿参数),更开放,性能更棒。虽然最庞大的模型还得等上一阵,但下周我们可能就能见到些小一号的版本。

别慌,让我来细说:

Meta 的这次升级,让 Llama 3 模型家族的小弟们可能下周就跑出来见人了。这从 Llama 2 的框架上改良过来的,主打开源策略,不同大小的模型基于它们的参数量来划分。去年 Meta 就开始推这种大规模的开源语言模型,参数从70亿到700亿不等。现在,就连70亿参数的模型也被看作小巫见大巫了。

但现在市场上其他公司,比如 Mistral,也在推出同级别的强力模型,Llama 2 的70亿版本已经不是领头羊了。Meta 此举,意在通过推出 Llama 3 系列的小型版本来重夺市场。这些模型到底有多小还是个谜。是会延续 Llama 7亿和130亿的老路线,还是像微软的 Phi 和谷歌的 Gemma 那样,试水20亿参数的新级别?

为何你要关注这件事?

开源模型可以在你的设备上本地运行,不需联网。这样一来,既快速又保私隐,有时候还能省下不少成本。虽然这类模型处理长篇生成任务时表现不佳,但别误会,随着这类模型近年来的进步,它们的表现已经大大超过了 GPT-3.5。

不过,它们主要还是在特定任务上经过微调后使用,比如执行简单的 API 调用,或是提供设备助手服务(像是 Siri、Alexa 等)。

相关推荐
donecoding1 分钟前
前端AI开发:为什么选择SSE,它与分块传输编码有何不同?axios能处理SSE吗?
前端·人工智能
安徽正LU o561-6o623o73 分钟前
露-Y迷宫刺激器 AI人工智能Y迷宫
人工智能
说私域7 分钟前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的社群初期运营策略研究
人工智能·小程序
zhaodiandiandian15 分钟前
从跟跑到领跑 开源AI开启中国时间的产业变革
人工智能·开源
weixin_4640780716 分钟前
环境配置。
人工智能·深度学习
黑客思维者17 分钟前
机器学习012:监督学习【回归算法】(对比)-- AI预测世界的“瑞士军刀”
人工智能·学习·机器学习·回归·逻辑回归
*星星之火*20 分钟前
【大白话 AI 答疑】第9篇 深入浅出:sigmoid函数公式设计原理——为何是$e^{-x}$而非$e^x$
人工智能·机器学习
Java后端的Ai之路20 分钟前
【AI编程工具】-CodeBuddy设置鼠标配合快捷键放大字体
人工智能·aigc·ai编程·codebuddy