测试:ollama加载羊驼版本llama-3中文大模型

找了一个晚上各种模型,像极了当初找各种操作系统的镜像,雨林木风,深蓝、老毛桃......

主要是官方的默认7B版本回答好多英文,而且回复的很慢,所以我是在ollama上搜索"chinese"找到了这个羊驼版本的,

复制代码
ollama run lgkt/llama3-chinese-alpaca

等大概10分钟左右;

反应的速度还挺快的。

但是测试下来不尽人意啊:

资源地址:

https://ollama.com/lgkt/llama3-chinese-alpacaGet up and running with large language models.https://ollama.com/lgkt/llama3-chinese-alpacaGitHub - ymcui/Chinese-LLaMA-Alpaca-3: 中文羊驼大模型三期项目 (Chinese Llama-3 LLMs) developed from Meta Llama 3中文羊驼大模型三期项目 (Chinese Llama-3 LLMs) developed from Meta Llama 3 - ymcui/Chinese-LLaMA-Alpaca-3https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/tree/main

相关推荐
闲看云起1 小时前
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型
gpt·架构·llama
小草cys2 天前
在树莓派集群上部署 Distributed Llama (Qwen 3 14B) 详细指南
python·llama·树莓派·qwen
咕咚-萌西2 天前
联邦学习论文分享:Towards Building the Federated GPT:Federated Instruction Tuning
llama·联邦学习·指令微调
relis3 天前
解密llama.cpp中的batch与ubatch:深度学习推理优化的内存艺术
深度学习·batch·llama
relis3 天前
解密llama.cpp:Prompt Processing如何实现高效推理?
prompt·llama
GEO_JYB4 天前
BERT家族进化史:从BERT到LLaMA,每一次飞跃都源于对“学习”的更深理解
学习·bert·llama
AI大模型4 天前
大模型开发实战:使用 LLaMA Factory 微调与量化模型并部署至 Ollama
程序员·llm·llama
relis5 天前
解密llama.cpp:从Prompt到Response的完整技术流程剖析
prompt·llama
我不是小upper5 天前
Llama v3 中的低秩自适应 (LoRA)
llama
df007df11 天前
【RAGFlow代码详解-10】文本处理和查询处理
人工智能·ocr·embedding·llama