llama

时序之心4 小时前
人工智能·语言模型·论文·llama·时间序列
ACL 2025 Time-LlaMA 大语言模型高效适配时间序列预测将大语言模型用于时间序列分析在近年来备受关注,但其仍然面临几个关键挑战没有被很好解决:模态(modality)对齐问题:时间序列数据与语言文本是不同模态的。如何有效地把时间序列输入与自然语言提示(prompt)结合起来,让 LLM 能理解时间序列的语义或结构,而不仅仅是把时间序列当成一串数字强行塞进去?现有方法常用跨 attention 或 prompt 或 reprogramming module/tokenization,但仍未达到既高效高质量对齐的状态。
谷新龙0016 小时前
macos·llama
mac m4电脑运行 LLaMA Factory 微调之前使用的是 window直接运行的 docker镜像,直接运行,后来在mac m4电脑上运行的时候,发现docker 镜像一个是不兼容,另外一个是m4 苹果芯片不能简单实用gpu进行训练。
qzhqbb6 小时前
llama
LLaMA-Factory+Lora+modelscope(离线版)LLaMA-Factory 是一个开源的一站式大型语言模型(LLM)训练与微调平台,由国内社区开发,旨在简化大模型的开发流程,降低技术门槛。其核心目标是让开发者无需编写复杂代码即可完成模型训练、优化和部署,同时支持多模态任务和跨硬件平台运行。以下从核心功能、技术特点、应用场景等方面展开介绍:
大模型教程7 天前
程序员·llm·llama
小白学大模型:从零搭建LLaMA本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。LLaMA 的开发基于一个核心理念:在给定计算预算下,通过增加训练数据量而非单纯增加模型参数,可以达到更好的性能。这与之前普遍认为“参数越多性能越好”的观点不同,并特别强调了 推理成本 的重要性。尽管训练一个大型号的模型可能更快达到某个性能水平,但一个参数更少但训练更久的小模型在实际应用中的推理成本会更低、速度更快。
Jina AI9 天前
llama
让 llama.cpp 支持多模态向量模型几周前,我们发布了 jina-embeddings-v4 模型的 GGUF 版本,大幅降低了显存占用,提升了运行效率。不过,受限于 llama.cpp 上游版本的运行时,当时的 GGUF 模型只能当作文本向量模型使用而无法支持多模态向量的输出。
wyw00009 天前
llama
大模型微调之LLaMA-Factory实战环境要求 Python ≥3.9 PyTorch & CUDA GPU显存>24GB 安装命令浏览器输入http://10.0.0.140:7861/进入调参页
2202_756749699 天前
人工智能·深度学习·llama
LLM大模型-大模型微调(常见微调方法、LoRA原理与实战、LLaMA-Factory工具部署与训练、模型量化QLoRA)定义:在预训练模型的基础上,使用特定领域或任务的数据集进一步训练,调整模型参数,使模型更适应特定场景。
JoannaJuanCV9 天前
llama·大模型训练·llama factory
大模型训练框架:LLaMA-Factory框架随着大语言模型(LLM)的爆发式发展,越来越多开发者希望用自己的数据训练专属模型,比如:但问题来了:大模型动辄几十 GB,训练需要多卡 GPU,普通人根本玩不起?
骑士99911112 天前
llama
llama_factory 安装以及大模型微调官方中文文档:https://llamafactory.readthedocs.io/zh-cn/latest/
周小码12 天前
开发语言·python·llama
llama-stack实战:Python构建Llama应用的可组合开发框架(8k星)在快速发展的AI领域,开发和部署Llama模型应用正变得越来越复杂。2025年,随着Llama 4的发布,开发者需要更高效的工具来处理模型集成、性能优化和跨平台部署等挑战。llama-stack作为一个专为构建Llama应用设计的可组合构建块框架,正迅速成为Python Llama开发社区的首选工具。本文将深入探讨这个获得8000+星标的开源项目,展示它如何简化Llama开发流程,降低Llama部署门槛,并帮助开发者构建生产级Llama服务。
blackoon8815 天前
llama
DeepSeek R1大模型微调实战-llama-factory的模型下载与训练LLaMA Factory 是一个简单易用且高效的大型语言模型训练与微调平台。通过它,用户可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调。
johnny23315 天前
llama
大模型微调理论、实战:LLaMA-Factory、Unsloth微调,Fine-Tuning,简称FT,可理解为对LLM的定制,目的是增强专业领域知识,并优化特定任务的性能。通过在特定数据集上微调一个预训练模型,可实现:
闲看云起15 天前
gpt·架构·llama
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型🔥从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型“为什么所有大模型(LLM)都长一个样?” 因为它们都有一个共同的“基因”——Decoder-Only 架构。
小草cys17 天前
python·llama·树莓派·qwen
在树莓派集群上部署 Distributed Llama (Qwen 3 14B) 详细指南项目地址:https://github.com/b4rtaz/distributed-llama本文档将指导您如何使用一个树莓派5作为Root节点和三个树莓派4作为Worker节点,共同搭建一个4节点的分布式LLM推理集群,并运行10.9GB的Qwen 3 14B模型。 中间要用到github和huggingface的, 注意
咕咚-萌西17 天前
llama·联邦学习·指令微调
联邦学习论文分享:Towards Building the Federated GPT:Federated Instruction Tuning现有问题指令微调(instruction tuning)的 LLMs(如 ChatGPT、GPT-4)需要大量高质量、多样化的指令数据。
relis18 天前
深度学习·batch·llama
解密llama.cpp中的batch与ubatch:深度学习推理优化的内存艺术在追求极致推理性能的道路上,开发者往往面临一个关键问题:如何在大规模语言模型推理中平衡内存使用与计算效率?llama.cpp通过batch size与ubatch的精细设计给出了优雅的解决方案。
relis18 天前
prompt·llama
解密llama.cpp:Prompt Processing如何实现高效推理?当输入"你好,请介绍一下自己"时,一个70亿参数的大语言模型如何在毫秒级完成理解并生成回应?这背后的关键技术就隐藏在prompt processing的实现细节中。
GEO_JYB19 天前
学习·bert·llama
BERT家族进化史:从BERT到LLaMA,每一次飞跃都源于对“学习”的更深理解在自然语言处理(NLP)的璀璨星河中,Google于2018年发布的BERT(Bidirectional Encoder Representations from Transformers),无疑是一颗划时代的巨星。它以其“双向Transformer编码器”的架构,彻底改变了我们理解和处理文本的方式,为后续的语言模型发展奠定了坚实基础。
AI大模型19 天前
程序员·llm·llama
大模型开发实战:使用 LLaMA Factory 微调与量化模型并部署至 OllamaLLaMA Factory 是一个开源的全栈大模型微调框架,简化和加速大型语言模型的训练、微调和部署流程。它支持从预训练到指令微调、强化学习、多模态训练等全流程操作,并提供灵活的配置选项和高效的资源管理能力,适合开发者快速定制化模型以适应特定应用场景。下面通过一个简单的示例来展示如何使用 LLaMA Factory 进行模型微调并部署至 Ollama。
relis19 天前
prompt·llama
解密llama.cpp:从Prompt到Response的完整技术流程剖析当你在命令行输入一段文字,llama.cpp如何在毫秒级别内完成从理解到生成的全过程?这背后隐藏着怎样的技术奥秘?