llama

fly五行2 天前
python·ai·llama·llamaindex
大模型基础入门与 RAG 实战:从理论到 llama-index 项目搭建(有具体代码示例)大模型是指参数量达数十亿至数千亿级、基于深度学习技术构建的机器学习模型,在自然语言处理(NLP)、计算机视觉(CV)等领域展现出卓越能力。其核心特点可概括为以下 10 点:
德育处主任Pro5 天前
前端·llama
前端玩转大模型,DeepSeek-R1 蒸馏 Llama 模型的 Bedrock 部署开源基础模型(FMs)已成为生成式 AI 创新的核心支柱,使组织能够构建和定制 AI 应用,同时保持对成本和部署策略的控制。通过提供高质量、公开可用的模型,AI 社区推动了快速迭代、知识共享和成本效益解决方案的发展,惠及开发者和终端用户。专注于 AI 技术研发的研究公司 DeepSeek AIEXTERN,EN 已成为该生态系统的重要贡献者。其 DeepSeek-R1EXTERN,EN 模型系列是一系列大型语言模型(LLMs),旨在处理广泛的任务,从代码生成到通用推理,同时保持有竞争力的性能和效率。
relis6 天前
性能优化·llama
AVX-512深度实现分析:从原理到LLaMA.cpp的性能优化艺术当我在LLaMA.cpp项目中深入研究AVX-512实现时,发现了一个令人着迷的世界:这里不仅仅是简单的条件编译,而是一个精心设计的、充分利用硬件特性的高性能计算系统。本文将带你深入探索AVX-512在LLaMA.cpp中的真实实现,揭示那些让代码性能飞升的关键技术细节。
relis8 天前
算法·llama
llama.cpp RMSNorm CUDA 优化分析报告本报告基于对 llama.cpp 中 RMSNorm CUDA 实现的深入分析,识别了当前实现的性能瓶颈,并提出了多层次的优化方案。通过实施这些优化,预期可获得 3-8倍 的性能提升。
云雾J视界8 天前
meta·开源·llama·知识管理·知识整合·知识迭代·知识共享
开源革命下的研发突围:Meta Llama系列模型的知识整合实践与启示在GitHub、Hugging Face等开源平台席卷全球的今天,技术研发正面临前所未有的悖论:基础工具的民主化与核心价值的稀释并存。当优质代码、预训练模型、标注数据集均可免费获取,当GitHub Copilot能自动生成80%的基础代码,当Llama、GPT等大模型可直接调用,传统研发岗“靠技术垄断生存”的逻辑已然崩塌。
丁学文武9 天前
人工智能·gpt·语言模型·自然语言处理·大模型·llama·glm
大模型原理与实践:第三章-预训练语言模型详解_第3部分-Decoder-Only(GPT、LLama、GLM)第一章 NLP基础概念完整指南第二章 Transformer 架构原理第三章 预训练语言模型第四章 大语言模型
余衫马9 天前
c++·人工智能·llm·llama·大模型部署
llama.cpp:本地大模型推理的高性能 C++ 框架llama.cpp是由Georgi Gerganov发起的纯C/C++开源框架,专注于在本地设备(如普通PC、树莓派、嵌入式终端)上实现低资源、高性能的大语言模型(LLM)推理。其核心目标是打破云端依赖,让开发者能在消费级硬件上本地运行Meta LLaMA、Mistral、Gemma等主流开源模型,兼顾隐私保护与推理效率。
LETTER•13 天前
深度学习·语言模型·自然语言处理·llama
Llama 模型架构解析:从 Pre-RMSNorm 到 GQA 的技术演进Llama(Large Language Model Meta AI)是由 Meta AI 团队研发的一系列开源大语言模型。与许多闭源商业模型(如 GPT 系列)不同,Llama 系列在发布时提供了模型权重和训练细节(尽管早期版本有使用限制),使得研究人员、企业和个人开发者都能在其基础上进行微调、部署和创新。
拓端研究室13 天前
llama
JupyterLab+PyTorch:LoRA+4-bit量化+SFT微调Llama 4医疗推理应用|附代码数据全文链接:https://tecdat.cn/?p=44008 视频出处:拓端抖音号@拓端tecdat
之歆15 天前
人工智能·python·llama
LangGraph构建多智能体🦜🕸 LangGraph ⚡ 以图的方式构建语言代理 ⚡ 官方文档地址:https://langchain-ai.github.io/langgraph/ LangGraph 是一个用于构建有状态的多参与者应用程序的库,利用 LLM 创建代理和多代理工作流。与 其他 LLM 框架相比,它提供了以下核心优势:循环性、可控性和持久性。LangGraph 允许您定义涉及 循环的流程,这对于大多数代理架构至关重要,使其与基于 DAG 的解决方案区别开来。作为一个非常底 层的框架,它提供了对应用程序流程和状态的
胡耀超17 天前
人工智能·python·神经网络·开源·大模型·llama·deepseek
开源生态与技术民主化 - 从LLaMA到DeepSeek的开源革命(LLaMA、DeepSeek-V3、Mistral 7B)核心价值:开源大模型代表了AI技术从"精英垄断"向"技术民主化"的根本性转变,通过LLaMA、DeepSeek-V3等里程碑式成果,证明了开源路线不仅能够实现与闭源模型相匹敌的性能,更能以极低成本推动整个行业的技术进步和知识共享。 参考论文:《LLaMA: Open and Efficient Foundation Language Models》+ 《DeepSeek-V3 Technical Report》+ 《Mistral 7B》
居7然18 天前
人工智能·大模型·llama·大模型训练·vllm
如何高效微调大模型?LLama-Factory一站式解决方案全解析文较长,建议点赞收藏,以免遗失。更多AI大模型开发 学习视频/籽料/面试题 都在这>>Github<< >>Gitee<<
万事可爱^18 天前
运维·服务器·llm·sft·llama·模型微调·ai agent
如何在云服务器上使用LLaMA Factory框架微调模型LLaMA Factory是一款开源低代码大模型微调框架,集成了业界广泛使用的微调技术,支持通过Web UI界面零代码微调大模型。本文以DeepSeek-R1-Distill-Qwen-14B模型为例,介绍如何使用云平台(这里以阿里云平台为例,其他平台区别不大)及LLaMA Factory训练框架,完成模型的中文化微调和评估,以及为评估后的合并和本地模型注册ollama的方法。
max50060018 天前
人工智能·算法·机器学习·分类·数据挖掘·llama
基于Meta Llama的二语习得学习者行为预测计算模型二语习得(Second Language Acquisition, SLA)作为应用语言学的核心研究领域,长期以来致力于理解人类如何学习和掌握第二语言。随着全球化的深入发展,二语学习已成为教育体系和个人发展的重要组成部分。传统的二语习得研究主要依赖于问卷调查、实验室实验和个案观察等方法,这些方法虽然积累了丰富的理论成果,但在大规模、实时性、个性化预测方面存在局限。
谷咕咕18 天前
java·windows·语言模型·llama
windows下python3,LLaMA-Factory部署以及微调大模型,ollama运行对话,开放api,java,springboot项目调用前提得有 英伟达的显卡 本文阐述的是windows下的微调,区别于linux,还是有些坑只有windows才有,需要特别注意,也是博主踩过花了大量时间解决的。
时序之心21 天前
人工智能·语言模型·论文·llama·时间序列
ACL 2025 Time-LlaMA 大语言模型高效适配时间序列预测将大语言模型用于时间序列分析在近年来备受关注,但其仍然面临几个关键挑战没有被很好解决:模态(modality)对齐问题:时间序列数据与语言文本是不同模态的。如何有效地把时间序列输入与自然语言提示(prompt)结合起来,让 LLM 能理解时间序列的语义或结构,而不仅仅是把时间序列当成一串数字强行塞进去?现有方法常用跨 attention 或 prompt 或 reprogramming module/tokenization,但仍未达到既高效高质量对齐的状态。
谷新龙00121 天前
macos·llama
mac m4电脑运行 LLaMA Factory 微调之前使用的是 window直接运行的 docker镜像,直接运行,后来在mac m4电脑上运行的时候,发现docker 镜像一个是不兼容,另外一个是m4 苹果芯片不能简单实用gpu进行训练。
qzhqbb21 天前
llama
LLaMA-Factory+Lora+modelscope(离线版)LLaMA-Factory 是一个开源的一站式大型语言模型(LLM)训练与微调平台,由国内社区开发,旨在简化大模型的开发流程,降低技术门槛。其核心目标是让开发者无需编写复杂代码即可完成模型训练、优化和部署,同时支持多模态任务和跨硬件平台运行。以下从核心功能、技术特点、应用场景等方面展开介绍:
大模型教程1 个月前
程序员·llm·llama
小白学大模型:从零搭建LLaMA本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。LLaMA 的开发基于一个核心理念:在给定计算预算下,通过增加训练数据量而非单纯增加模型参数,可以达到更好的性能。这与之前普遍认为“参数越多性能越好”的观点不同,并特别强调了 推理成本 的重要性。尽管训练一个大型号的模型可能更快达到某个性能水平,但一个参数更少但训练更久的小模型在实际应用中的推理成本会更低、速度更快。
Jina AI1 个月前
llama
让 llama.cpp 支持多模态向量模型几周前,我们发布了 jina-embeddings-v4 模型的 GGUF 版本,大幅降低了显存占用,提升了运行效率。不过,受限于 llama.cpp 上游版本的运行时,当时的 GGUF 模型只能当作文本向量模型使用而无法支持多模态向量的输出。