llama

程序员与背包客_CoderZ1 天前
c语言·开发语言·网络·c++·人工智能·语言模型·llama
C/C++版LLM推理框架Llama.cpp——入门与编码实战llama.cpp是由Georgi Gerganov创建的轻量级推理引擎,它是基于C/C++语言编码实现的LLM框架,支持大模型的训练和推理,专注于在本地硬件环境(比如个人电脑、树莓派等)上高效运行LLM模型。
java_logo3 天前
运维·docker·语言模型·容器·llama
LOBE-CHAT Docker 容器化部署指南LOBE-CHAT 是一款开源、可扩展、高性能的聊天机器人框架,专注于支持私有 ChatGPT/LLM 网页应用部署。作为基于容器化架构的中间件,它提供了灵活的功能扩展机制和优化的性能表现,适用于构建企业级私有大语言模型交互平台。通过 Docker 容器化部署,LOBE-CHAT 能够实现环境一致性、快速交付和跨平台运行,有效降低部署复杂度并提升运维效率。
AI大模型3 天前
llm·agent·llama
手把手教你用LlamaIndex搭建RAG系统,让LLM告别“幻觉”,提升回答质量!本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。大型语言模型(LLMs)如ChatGPT和Llama在回答问题方面表现出色,但它们的知识仅限于训练时所使用的数据。它们无法访问私人数据,也无法在训练截止日期之后学习新知识。那么,主要问题是……我们如何扩展它们的知识呢?
开发者导航11 天前
语言模型·开源·llama
【开发者导航】轻量可微调且开源的大语言模型家族:LLaMAHello大家好!我是助你打破信息差的 开发者导航。今天给大家分享的开源项目是【LLaMA】,一个【轻量可微调且开源的大语言模型家族工具】,希望这篇文章能够对你有所帮助。
缘友一世12 天前
llama
借助LLama_Factory工具对大模型进行lora微调微调,从参数规模来看,大体上可以分为全参数微调和高效参数微调。全参数微调通常以预训练模型的初始权重为基础,在特定数据集上继续训练,更新模型的所有参数。
illuspas13 天前
人工智能·llama
MI50运算卡使用llama.cpp的ROCm后端运行Qwen3-Coder-30B-A3B的速度测试上一篇有写到如何为MI50编译ROCm版的llama.cpp,测试下吞吐速度:使用到的模型是unsloth提供的Qwen3-Coder-30B-A3B-Instruct-UD-Q4_K_XL 量化版本。
herogus丶13 天前
python·ai编程·llama
【LLM】LLaMA-Factory 训练模型入门指南这篇文章主要带你了解如何使用 LLaMA-Factory 来微调大模型,包括如何安装、如何使用其web可视化界面训练、在线测试、导出模型等。 你可以先阅读我的这篇文章,了解 QLoRA 微调流程 一篇文章带你入门QLoRA微调。
illuspas13 天前
人工智能·gpt·llama
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试使用unsloth提供的 gpt-oss-20b-UD-Q4_K_XL 量化版本llama.cpp:b6987
谏书稀13 天前
python·transformer·llama
LLaMA Factory微调大模型本文使用的环境:linux、无网离线环境安装成功后会输出版本号LLaMA Factory有web页面,也可以命令行运行。web页面的本质是图形化设置各项训练参数,生成训练命令进行执行。
菠菠萝宝14 天前
人工智能·深度学习·大模型·llm·nlp·attention·llama
【AI应用探索】-7- LLaMA-Factory微调模型我们统一使用conda来管理我们的python环境创建python环境为3.10的conda环境并激活
wuningw15 天前
llama
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”根据官网安装CUDN执行命令nvcc -V 和 nvidia-smi 后出现下面图中表示安装OK我到这里都ok,但是还是报未检测到CUDA环境,
喜欢吃豆16 天前
人工智能·语言模型·大模型·llama·量化·llama.cpp
llama.cpp 全方位技术指南:从底层原理到实战部署在人工智能领域,大型语言模型(LLM)的兴起无疑是一场技术革命。然而,这场革命的果实最初似乎只属于拥有强大云服务器和昂贵硬件的巨头。传统的LLM,通常在PyTorch等框架中训练,对显存(VRAM)和专用硬件(如高端NVIDIA GPU)有着极高的要求,这使得在普通消费级设备上运行它们成为一项巨大的挑战 [1]。
skywalk816317 天前
llama·aistudio
在星河社区部署大模型unsloth/Llama-3.3-70B-Instruct-GGUFunsloth/Llama-3.3-70B-Instruct-GGUF在hf的网址:https://huggingface.co/unsloth/Llama-3.3-70B-Instruct-GGUF
鹿子沐17 天前
人工智能·llama
LlamaFactory微调效果与vllm部署效果不一致对话模板是定义当前这个模型在进行文本回复时是以什么方式进行回复的。如果对话模板的规则改变了,那么模型的回复一定是发生变化的。 模型私有化部署微调训练的目的:让模型具有处理特定问题的能力。 关于探讨模型得知识和能力一般理解为两种:
三千院本院18 天前
人工智能·python·深度学习·llama
LlaMA_Factory实战微调Qwen-LLM大模型1、数据集准备2、添加数据集格式 在data文件夹-dataset_info.json中添加制作好的数据集,文本训练添加参考格式如下
珊珊而川18 天前
sql·macos·llama
MAC-SQL:SQL-Llama 的具体训练流程要理解SQL-Llama的训练任务数量和具体训练方式,需结合论文中对Agent-Instruct数据集设计和多任务监督微调流程的描述,以下是分点解析:
共绩算力19 天前
人工智能·llama·共绩算力
Llama 4 Maverick Scout 多模态MoE新里程碑Meta Llama 4 Maverick和Scout模型近日在Hugging Face Hub上发布 这标志着大型语言模型发展的一个重要飞跃 两款模型均采用原生多模态MoE架构 不仅能力强大 而且在长文本处理方面展现了惊人创新
yanzhilv20 天前
llama
Ollama + Open WebUI需要关于代码层面的问答 需要账户登陆记录16c32g 200g的磁盘 centos8.5Ollama + Open WebUI ollama的模型库 https://ollama.com/library codellama模型最低就是7b
喜欢吃豆21 天前
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南llama.cpp 不仅仅是一个软件工具,它更是一个关键的开源项目,其核心使命是推动大语言模型(LLM)的普及化。该项目秉持“CPU 优先”的设计哲学,通过精湛的 C++ 实现和底层优化,使得在没有昂贵高端图形处理单元(GPU)的消费级硬件上运行强大的语言模型成为可能。这一特性极大地降低了开发者、研究人员和技术爱好者探索和应用前沿人工智能技术的门槛,从而催生了一个活跃的本地化 AI 应用生态系统。
illuspas23 天前
linux·ubuntu·llama
Ubuntu 24.04下编译支持ROCm加速的llama.cppllama.cpp官方编译发布的ubuntu版本只支持cpu和vulkan版本,如需原生ROCm加速,需要自行编译。