关于Llama 3 AI大模型的几点总结

Meta最近终于发布了Llama3大模型,OpenAI和CloseAI又要"开战了",以下是关于Llama3的几点总结:

1、发布时间

Llama3的发布时间是北京时间4月19号0点37分,这主要是依据 Meta的首席AI科学家 Yann LeCun 发布Twitter帖文的时间。

2、发布型号

目前Llama3发布了两款模型,分别是 Meta-Llama-3-8BMeta-Llama-3-70B

3、Llama3 VS Llama2

  • 4倍的词汇量(Llama3是128k,Llama2是32k)
  • 使用 15T token训练,是 Llama2 的7倍
  • 2倍的上下文,Llama3是8k,Llama2是4k(个人认为还是太小了,不过据说后续会发布更大的)
  • 两个模型都具备分组查询注意力(GQA) ,Llama2只有70B这个模型具备
  • 整体性能优于Llama2

4、性能测试

Llama3 在MMLU(学科知识理解)、GPQA(一般问题)、HumanEval(代码能力)、GSM-8K(数学能力)、MATH(比较难得数学)五个基准测试上,不管是Llama3-8B,还是Llama-70B,都优于目前比较优秀的大模型。

但是这个我觉得看看就行,毕竟比别人差的东西还发出来肯定会被用户吐槽,但性能肯定是不错的。

另外,为了寻求Llama3在现实场景的性能,开发人员还开发了一套新的高质量人类评估集 。该评估集包含 1,800 个提示,涵盖 12 个关键用例:寻求建议、头脑风暴、分类、封闭式问答、编码、创意写作、提取、塑造角色/角色、开放式问答、推理、重写和总结。而且为了避免模型在此评估集上过度拟合,即使是Llama3的模型开发人员也无法访问它。

这是Llama3在这些评估集的测试结果,整体是优于其他模型的

5、训练数据

  • 数量上, Llama 3 经过 15T token以上的预训练,并且官方声明这些数据全部从公开来源收集(比Llama 2使用的数据集大7倍)
  • 超过 5% 的 Llama 3 预训练数据集由涵盖 30 多种语言 的高质量非英语数据组成(但是这些语言的性能水平不会与英语相同,还是得靠其他开源大佬微调)
  • 8B的知识库时间只到2023年3月 ,70B的知识库时间只到了2023年12月(感觉是不是8B的训练时间早于70B,所以时间早了这么多)

6、如何体验

6.1 Replicate

墙裂推荐,直接访问: https://llama3.replicate.dev/就行,无需登录

6.2 使用我们之前提到过的 ollama 工具

6.3 使用 MetaAI

不太建议,锁地区,而且要Facebook账户,对国内用户不友好

7、未来规划

Meta在后续的几个月中,将发布多个具有新功能的模型,包括多模态、以多种语言交谈的能力、更长的上下文窗口。

比如目前有一个400B的模型就仍在训练中,这是它的一个简单基准测试

注: 原文链接,欢迎关注公众号AI技术巫

相关推荐
自不量力的A同学8 分钟前
字节 AI 原生 IDE Trae 发布 v1.3.0,新增 MCP 支持
人工智能
涛涛讲AI13 分钟前
当AI浏览器和AI搜索替代掉传统搜索份额时,老牌的搜索引擎市场何去何从。
人工智能·搜索引擎
engchina22 分钟前
来自B站AIGC科技官的“vLLM简介“视频截图
人工智能·vllm
说私域37 分钟前
基于开源技术体系的品牌赛道力重构:AI智能名片与S2B2C商城小程序源码驱动的品类创新机制研究
人工智能·小程序·重构·开源·零售
智驱力人工智能44 分钟前
无感通行与精准管控:AI单元楼安全方案的技术融合实践
人工智能·安全·智慧城市·智慧园区
Chrome深度玩家1 小时前
谷歌翻译安卓版拍照翻译精准度与语音识别评测【轻松交流】
android·人工智能·语音识别
机器之心1 小时前
ICLR 2025 Oral|差分注意力机制引领变革,DIFF Transformer攻克长序列建模难题
人工智能
机器之心1 小时前
字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题
人工智能
正宗咸豆花1 小时前
开源提示词管理平台PromptMinder使用体验
人工智能·开源·prompt
Lilith的AI学习日记1 小时前
AI提示词(Prompt)终极指南:从入门到精通(附实战案例)
大数据·人工智能·prompt·aigc·deepseek