Llama3新一代 Llama模型

最近,Meta 发布了 Llama3 模型,从发布的数据来看,性能已经超越了 Gemini 1.5 和 Claud 3。

Llama 官网说,他们未来是要支持多语言和多模态的,希望那天赶紧到来。

未来 Llama3还将推出一个 400B大模型,目前正在训练中,4000 亿参数,继续卷参数。Llama 3 预训练了超过 15 T Token,为了准备即将到来的多语言用例,Llama 3 的预训练数据集中超过 5% 是覆盖 30 多种语言的高质量非英语数据。然而,非英语性能不如英语好。Llam3 是在 2 个 24K GPU 集群上进行训练的,差不多5 万块 GPU,不是一般公司搞得起的。

我本地安装了 8B,能理解中文,但是回答还不是中文,可以让他翻译成中文。

也可以给他 Promote 让他用中文说,速度挺快的。

Meta 官方也有体验的网页,国内用不了,用 Ollama 下载 8b 的模型先玩玩。

相关推荐
闻道且行之1 天前
LLaMA-Factory|微调大语言模型初探索(4),64G显存微调13b模型
人工智能·语言模型·llama·qlora·fsdp
豆芽脚脚1 天前
LLaMA中的微调方法
llama·deepseek
造夢先森1 天前
Transformer & LLaMA
深度学习·transformer·llama
一颗小树x1 天前
Llama 3.1 本地电脑部署 Linux系统 【轻松简易】
linux·llama·本地部署·3.1
喝不完一杯咖啡1 天前
【AI时代】可视化训练模型工具LLaMA-Factory安装与使用
人工智能·llm·sft·llama·llama-factory
胡侃有料1 天前
【LLAMA】羊驼从LLAMA1到LLAMA3梳理
llama
神秘的土鸡2 天前
使用Open WebUI下载的模型文件(Model)默认存放在哪里?
人工智能·llama·ollama·openwebui
初窺門徑2 天前
llama-factory部署微调方法(wsl-Ubuntu & Windows)
llama·大模型微调·llama-factory
Neo很努力3 天前
【deepseek】本地部署+RAG知识库挂载+对话测试
自然语言处理·chatgpt·langchain·aigc·llama
大鱼>3 天前
Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境
llama·大模型微调·deepseek