llama

AI_小站17 小时前
人工智能·langchain·github·知识图谱·agent·llama·rag
6个GitHub爆火的免费大模型教程,助你快速进阶AI编程AI大模型正在以前所未有的速度重塑我们的工作与生活。作为AI内容创作者兼资深技术人,我经常收到粉丝们的提问:“有没有好的大模型学习资源推荐?”、"如何快速入门大模型开发?"今天,我精选了6个在GitHub上获得超高人气的大模型教程,从实用性、易上手性和前沿性多维度为大家进行深度解析。
Mr_sst2 天前
大数据·人工智能·ai·llama
infra-ai模块宏观设计解析:业务与模型之间的中间层核心架构在AI驱动的业务系统中,业务层与模型供应商(如OpenAI、阿里云百炼、豆包等)之间往往存在接口不统一、模型切换繁琐、故障无容错、配置耦合度高等问题。infra-ai模块作为两者之间的核心中间层,核心目标就是解决这些痛点,通过规范化的设计,实现业务与模型的解耦,提升系统的可扩展性、容错性和可维护性。
微软技术分享2 天前
windows·llama
Windows平台下CUDA安装及llama.cpp使用教程本文将详细讲解Windows平台下,如何安装与NVIDIA RTX显卡匹配的CUDA工具包,并正确配置、使用llama.cpp加载大模型,实现模型高效运行(将模型几乎全放入显卡,提升推理速度),全程结合实操截图与具体命令,新手可直接跟着操作。
小wu学cv3 天前
llama
llama.cpp调用GPU推理Qwen3.5-0.8b模型前提条件:确保你的系统已经装好了 NVIDIA 驱动和 CUDA Toolkit(可以通过 nvidia-smi 和 nvcc --version 检查)。
zhangfeng11333 天前
运维·服务器·人工智能·深度学习·llama
LLaMA-Factory 保存 checkpoint 时崩溃解决办法 OOM 内存溢出(不是显存)1 建立 Swap 有些云空间不支持 2 释放内存3 以后设置 max_shard_size 4 以后设置 dataloader_num_workers: 2或者0
老唐7774 天前
人工智能·ai·语言模型·agent·llama·智能体
30分钟手搓 Agent:LLM + Tools + Loop + Memory 跑通最小闭环Agent 的最小执行链,到底长什么样?想了想,最好的办法就是手搓一个。先不管 ReAct、MCP、Function Calling、Memory、Harness 这些词。先不讲“自主规划、自主执行、自主反思”。
高兴就好(石5 天前
macos·llama
Mac使用llama.cppvLLM 对 Python 版本有要求,建议使用 Python 3.10 或 3.12(避免使用最新的 3.13,可能会有兼容问题)。 打开终端,执行:
zhangfeng11335 天前
人工智能·语言模型·llama
No space left on device (28) llamafactory微调训练的时候 报错,需要调节 dataloader_num_workers跑到 50 个小时节点突然崩溃,这确实非常搞人心态。结合你上一条提到的 /dev/shm (Error 28: No space left on device) 报错,以及你这份长达 50 小时的训练配置文件,问题的原因已经非常清晰了:这是一个典型的 PyTorch 长周期训练下的共享内存(Shared Memory)泄漏/碎片化问题。
阿珊和她的猫5 天前
ai·agent·llama·cli·mcp
大模型在客服场景:落地路径 + 效果评估🤍 前端开发工程师、技术日更博主、已过CET6 🍨 阿珊和她的猫_CSDN博客专家、23年度博客之星前端领域TOP1 🕠 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》、《前端求职突破计划》 🍚 蓝桥云课签约作者、上架课程《Vue.js 和 Egg.js 开发企业级健康管理项目》、《带你从入门到实战全面掌握 uni-app》
谷子熟了6 天前
经验分享·docker·typescript·ai编程·llama
电商智能客服系统本地搭建在本地搭建一套完整的电商智能客服系统,减少电商客服工作量,降低个人、中小型电商企业的客服人工成本。本系统利用AI工作流+商品知识库+本地运行大模型,旨在无 token 焦虑,实现零成本Token 无限使用。可知识库,AI 及转接人工等多种回复策略。支持多店铺同时回复。降低客服投入成本,为个人或中小企业实现实打实的降本增效!
YXHPY6 天前
人工智能·开源·llama
开源 AI 工作流底座正在加速:从 llama.cpp、Ollama 到 vLLM 与 Agent 编排配图:开源 AI 工作流底座正在加速。重点不是追逐单个模型名,而是理解它如何进入自动化流程。写在前面:这不是一篇泛 AI 新闻汇总。我的视角是自动化、效率工具和一人公司:这些更新到底会不会改变我们的信息处理、内容生产、知识管理和自动化执行方式?
佳xuan7 天前
llama
llama微调后大模型测评加载微调后的模型,问答同问题复现1.微调模型2,原模型跑完自动输出:准确率、得分、各项指标ceval:中文能力测评;cmmlu:多学科综合测评
佳xuan8 天前
llama
LLama_Factory配置及模型微调实践可以考虑换国内的清华源下错了版本,卸载(上述命令默认安装的是cpu版本的torch)下载适配torch
zhangfeng11338 天前
人工智能·深度学习·llama
LLaMA-Factory 在训练模型时检查点(Checkpoint)文件说明你列出的这些文件,其实是 LLaMA-Factory 在训练模型时自动保存的一个“检查点”(Checkpoint)。这个文件夹就像一个完整的“训练快照”,能让你随时从中断的地方精准地恢复训练,而不必从头开始。
ONE_SIX_MIX9 天前
apex·llama·量化·unsloth
最先进llama.cpp量化方法PK,APEX vs UD_XL,在 Qwen3.6-35B-A3B 中爆发! 2026年4月哈哈哈😄,我承认是在抓眼球。只有两个模型的测试,没有测试其他尺寸的模型了。最近出了新的量化方法,APEX,看着似乎小了许多,并且据说性能不错。我很想知道性能有多好。
天地沧海11 天前
gpt·bert·llama
GPT、BERT、LLaMA 这些模型类别怎么区分最核心的一句:- BERT:偏“读懂” - GPT:偏“写出来” - LLaMA:本质上也是 GPT 这一路,只是是一个重要的开源/开放权重模型家族
胖少年13 天前
windows·llama
从零开始:在 Windows 上用 llama.cpp 跑本地大模型一篇给普通人的手把手教程。不需要懂 AI、不需要懂编程,跟着做就能在自己电脑上跑大模型。日常聊天完全够用,比打字快得多。
路人与大师14 天前
llama
在天垓150上部署 Llama-2-13B:一次 Iluvatar BI-V150 / CoreX 实战适配记录最近在做一个模型适配任务,需要把 CHIH-HUNG/llama-2-13b-FINETUNE5_4w-r16-gate_up_down 这类 Llama-2 13B 模型,部署到 Iluvatar BI-V150 环境,也就是常说的 天垓150 服务器上运行。
code_pgf14 天前
人工智能·知识图谱·llama
Llama 3 / Qwen / Mistral / DeepSeek 对比详解2024—2026 年开放权重基础模型的主线竞争,已经从“谁有一个可用 7B/13B 模型”演化为“谁能提供完整家族、可部署栈、许可策略、长上下文、多语言、多模态与推理后训练的系统能力”。在这一格局下:
yumgpkpm14 天前
华为·ai作画·stable diffusion·开源·ai写作·llama·gpu算力
Qwen3.6正式开源,华为昇腾910B实现高效适配Qwen3.6正式开源,华为昇腾910B实现高效适配2026年4月17日——阿里巴巴通义千问团队今日宣布,Qwen3.6系列的首款开源模型Qwen3.6-35B-A3B正式发布,并已在魔搭社区和Hugging Face平台开放下载。该模型采用混合专家(MoE)架构,以350亿总参数量、仅激活30亿参数的轻量化设计,在编程、多模态理解等核心能力上实现显著突破,同时华为昇腾910B已完成对该模型的深度适配,为国产算力生态注入新活力。