llama

skywalk81631 天前
llama·lfm2.5-1.2b
2026.1月llama.cpp的最新进展:在AIStudio推理Llama-3-8B-Instruct-Coder.Q6_K.gguf模型先上结论,在AIStudio上cpu推理非常慢,怎么说呢,速度回到了一年前,真不适应这么慢。所以没法在AIStudio上用。
【赫兹威客】浩哥3 天前
llama
【赫兹威客】Ollama安装教程本文档为Ollama软件的独立安装教程,详细记录从安装包获取到软件正常使用的完整流程。Ollama是一款支持本地运行大语言模型的工具,按需安装后可快速部署各类AI模型进行对话交互。
xfddlm5 天前
人工智能·llama
再探模型训练,使用LLaMA-Factory实现LLM微调今天,我们尝试使用LLaMA-Factory工具实现LLM的微调工作 首先,创建并激活conda环境然后,根据官方说明使用如下命令下载git,然后clone并从源码进行安装
蓝精灵没长耳朵6 天前
llama
llama.cpp源码解析: https://blog.csdn.net/chumingqian/article/details/134259129
沛沛老爹7 天前
java·前端·人工智能·ci/cd·架构·llama·rag
从Web到AI:Agent Skills CI/CD流水线集成实战指南图片来源网络,侵权联系删。Agent Skills调试相关文章Skills调试、测试与性能优化实战Agent Skills调试工具与方法
Lkygo8 天前
linux·开发语言·python·llama
LlamaIndex使用指南目录1. 快速入门2. 如何调用2.1 使用llm2.1.1 使用本地部署2.1.2 使用云平台2.2 使用embedding
学Linux的语莫8 天前
linux·服务器·python·langchain·llama
基于ollama、llamafile部署的大模型使用部署方式:见本地部署ollama博客内容步骤(linux环境)vim /etc/systemd/system/lamafile-qwen-1.6b-cpu.service
斯外戈的小白8 天前
架构·llama
【LLM】完整LLaMA架构的搭建搭建完整架构时、除了串联其并行化在深度学习模型的训练中至关重要,特别是当模型架构需要与 DeepSpeed 和 Hugging Face 等库的分布式训练或并行功能相结合时。为了实现这一目标,我们需要首先了解 数据并行(Data Parallelism) 和 模型并行(Model Parallelism) 这两种主要的并行方式,并明确架构中哪些关键部分与这些并行策略相关联。
沛沛老爹8 天前
java·人工智能·架构·llm·llama·rag
Web开发者进阶AI架构:Agent Skills与MCP的企业级架构权衡实战图片来源网络,侵权联系删。相关文章深入理解Agent Skills——AI助手的“专业工具箱“实战入门
斯外戈的小白8 天前
人工智能·架构·llama
【LLM】LLaMA架构(RMSNorm+ KV cache+Rotary Positional Encodings+门控FFN+MoE)《LLaMA: Open and Efficient Foundation Language Models》论文地址:https://arxiv.org/abs/2302.13971
Aaron_9459 天前
人工智能·语言模型·llama
LLaMA Factory:一站式大语言模型高效微调框架解析随着大语言模型(Large Language Models, LLMs)的快速发展,如何高效地对这些模型进行微调以适应特定任务和领域需求成为了业界关注的焦点。LLaMA Factory 作为一个开源项目,致力于解决大语言模型微调过程中的复杂性和资源消耗问题。该项目提供了一个统一的框架,支持超过100种大语言模型的高效微调,涵盖了从预训练、监督微调到强化学习等多种训练方法。本文将深入解析 LLaMA Factory 的技术架构、核心功能及其在实际应用中的价值。
小呀小萝卜儿10 天前
学习·语言模型·llama
2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct。1、 点击链接,申请访问Llama模型
I'm Salted Fish10 天前
人工智能·语言模型·llama
基于LLaMA-Factory大语言模型微调实战-训练一个属于自己的大模型运行以下指令以安装 LLaMA-Factory 及其依赖:如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决
不爱学英文的码字机器10 天前
安全·llama
数据不出域!用 Atlas 800T 激活 Llama-3,打造安全可控的 QA 生产工厂算力申请:https://ai.gitcode.com/ascend-tribe/openPangu-Ultra-MoE-718B-V1.1
大模型实验室Lab4AI11 天前
llama
LLama-Factory官方课程答疑汇总+课程内容升级(多模态实战)作为大模型微调领域的热门工具,LLaMA-Factory 凭借高效适配性成为开发者首选,但显存溢出、数据格式不兼容、训练进程异常等问题,往往成为项目推进的 “拦路虎”。
范桂飓12 天前
人工智能·llama
LLaMA-Factory 大模型微调平台微调是指在已经训练好的大型预训练模型的基础上,进一步训练该模型以适应特定任务或特定领域的数据。可以在特定任务上取得更好的性能,因为模型在微调过程中会重点学习与任务相关的特性。还可以在多种领域(如情感分析、问答系统等)上进行微调,从而快速适应不同应用场景。另外,相比从零开始训练一个模型,微调所需的数据和计算资源显著减少了。
杜子不疼.12 天前
llama
【大模型 】API 对接指南:OpenAI/Claude/LLaMA 3 调用技巧当前大语言模型(LLM)生态已形成多元化格局:OpenAI 的 GPT 系列凭借成熟的 API 生态占据商用领域主导地位,Anthropic 的 Claude 以长上下文和安全对齐见长,Meta 的 LLaMA 3 则凭借开源特性成为本地私有化部署的首选。
小Pawn爷13 天前
llm·llama·fingpt
11.大模型评估n- gram:它是一种基于概率的模型.用来预测在一个词序列(句子)中,下一个词出现的可能性BLEU 分数 = B P ⋅ exp ⁡ ( ∑ n = 1 N W n log ⁡ P n ) \text{BLEU 分数}=BP\cdot\exp(\sum_{n=1}^{N}W_{n}\log P_{n}) BLEU 分数=BP⋅exp(n=1∑NWnlogPn)
薛定谔的猫198215 天前
llama·llamaindex
LlamaIndex(一)初见LlamaIndex 是一个强大的框架,专门用于构建基于LLM的数据应用。它的主要目标是帮助开发者创建能够与私有数据交互的LLM应用。
Android小码家17 天前
android·llama
llama.cpp+Android应用定制WSL+llama+CPU本地模型部署 注意三点:我将llama.android提到llama.cpp同级目录了,这样方便定制和代码维护 当然注意三点