Llama3新一代 Llama模型

最近,Meta 发布了 Llama3 模型,从发布的数据来看,性能已经超越了 Gemini 1.5 和 Claud 3。

Llama 官网说,他们未来是要支持多语言和多模态的,希望那天赶紧到来。

未来 Llama3还将推出一个 400B大模型,目前正在训练中,4000 亿参数,继续卷参数。Llama 3 预训练了超过 15 T Token,为了准备即将到来的多语言用例,Llama 3 的预训练数据集中超过 5% 是覆盖 30 多种语言的高质量非英语数据。然而,非英语性能不如英语好。Llam3 是在 2 个 24K GPU 集群上进行训练的,差不多5 万块 GPU,不是一般公司搞得起的。

我本地安装了 8B,能理解中文,但是回答还不是中文,可以让他翻译成中文。

也可以给他 Promote 让他用中文说,速度挺快的。

Meta 官方也有体验的网页,国内用不了,用 Ollama 下载 8b 的模型先玩玩。

相关推荐
GEO_JYB18 小时前
BERT家族进化史:从BERT到LLaMA,每一次飞跃都源于对“学习”的更深理解
学习·bert·llama
AI大模型1 天前
大模型开发实战:使用 LLaMA Factory 微调与量化模型并部署至 Ollama
程序员·llm·llama
relis1 天前
解密llama.cpp:从Prompt到Response的完整技术流程剖析
prompt·llama
我不是小upper2 天前
Llama v3 中的低秩自适应 (LoRA)
llama
df007df8 天前
【RAGFlow代码详解-10】文本处理和查询处理
人工智能·ocr·embedding·llama
liliangcsdn8 天前
llama.cpp reranking源码分析
llama
go&Python11 天前
检索模型与RAG
开发语言·python·llama
修一呀12 天前
[大模型微调]基于llama_factory用 LoRA 高效微调 Qwen3 医疗大模型:从原理到实现
人工智能·llama·大模型微调
liliangcsdn12 天前
基于llama.cpp的量化版reranker模型调用示例
人工智能·数据分析·embedding·llama·rerank
gptplusplus12 天前
Meta AI 剧变:汪滔挥刀重组,Llama 开源路线告急,超级智能梦碎还是重生?
人工智能·开源·llama