技术栈
llama
AI_小站
17 小时前
人工智能
·
langchain
·
github
·
知识图谱
·
agent
·
llama
·
rag
6个GitHub爆火的免费大模型教程,助你快速进阶AI编程
AI大模型正在以前所未有的速度重塑我们的工作与生活。作为AI内容创作者兼资深技术人,我经常收到粉丝们的提问:“有没有好的大模型学习资源推荐?”、"如何快速入门大模型开发?"今天,我精选了6个在GitHub上获得超高人气的大模型教程,从实用性、易上手性和前沿性多维度为大家进行深度解析。
Mr_sst
2 天前
大数据
·
人工智能
·
ai
·
llama
infra-ai模块宏观设计解析:业务与模型之间的中间层核心架构
在AI驱动的业务系统中,业务层与模型供应商(如OpenAI、阿里云百炼、豆包等)之间往往存在接口不统一、模型切换繁琐、故障无容错、配置耦合度高等问题。infra-ai模块作为两者之间的核心中间层,核心目标就是解决这些痛点,通过规范化的设计,实现业务与模型的解耦,提升系统的可扩展性、容错性和可维护性。
微软技术分享
2 天前
windows
·
llama
Windows平台下CUDA安装及llama.cpp使用教程
本文将详细讲解Windows平台下,如何安装与NVIDIA RTX显卡匹配的CUDA工具包,并正确配置、使用llama.cpp加载大模型,实现模型高效运行(将模型几乎全放入显卡,提升推理速度),全程结合实操截图与具体命令,新手可直接跟着操作。
小wu学cv
3 天前
llama
llama.cpp调用GPU推理Qwen3.5-0.8b模型
前提条件:确保你的系统已经装好了 NVIDIA 驱动和 CUDA Toolkit(可以通过 nvidia-smi 和 nvcc --version 检查)。
zhangfeng1133
3 天前
运维
·
服务器
·
人工智能
·
深度学习
·
llama
LLaMA-Factory 保存 checkpoint 时崩溃解决办法 OOM 内存溢出(不是显存)
1 建立 Swap 有些云空间不支持 2 释放内存3 以后设置 max_shard_size 4 以后设置 dataloader_num_workers: 2或者0
老唐777
4 天前
人工智能
·
ai
·
语言模型
·
agent
·
llama
·
智能体
30分钟手搓 Agent:LLM + Tools + Loop + Memory 跑通最小闭环
Agent 的最小执行链,到底长什么样?想了想,最好的办法就是手搓一个。先不管 ReAct、MCP、Function Calling、Memory、Harness 这些词。先不讲“自主规划、自主执行、自主反思”。
高兴就好(石
5 天前
macos
·
llama
Mac使用llama.cpp
vLLM 对 Python 版本有要求,建议使用 Python 3.10 或 3.12(避免使用最新的 3.13,可能会有兼容问题)。 打开终端,执行:
zhangfeng1133
5 天前
人工智能
·
语言模型
·
llama
No space left on device (28) llamafactory微调训练的时候 报错,需要调节 dataloader_num_workers
跑到 50 个小时节点突然崩溃,这确实非常搞人心态。结合你上一条提到的 /dev/shm (Error 28: No space left on device) 报错,以及你这份长达 50 小时的训练配置文件,问题的原因已经非常清晰了:这是一个典型的 PyTorch 长周期训练下的共享内存(Shared Memory)泄漏/碎片化问题。
阿珊和她的猫
5 天前
ai
·
agent
·
llama
·
cli
·
mcp
大模型在客服场景:落地路径 + 效果评估
🤍 前端开发工程师、技术日更博主、已过CET6 🍨 阿珊和她的猫_CSDN博客专家、23年度博客之星前端领域TOP1 🕠 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》、《前端求职突破计划》 🍚 蓝桥云课签约作者、上架课程《Vue.js 和 Egg.js 开发企业级健康管理项目》、《带你从入门到实战全面掌握 uni-app》
谷子熟了
6 天前
经验分享
·
docker
·
typescript
·
ai编程
·
llama
电商智能客服系统本地搭建
在本地搭建一套完整的电商智能客服系统,减少电商客服工作量,降低个人、中小型电商企业的客服人工成本。本系统利用AI工作流+商品知识库+本地运行大模型,旨在无 token 焦虑,实现零成本Token 无限使用。可知识库,AI 及转接人工等多种回复策略。支持多店铺同时回复。降低客服投入成本,为个人或中小企业实现实打实的降本增效!
YXHPY
6 天前
人工智能
·
开源
·
llama
开源 AI 工作流底座正在加速:从 llama.cpp、Ollama 到 vLLM 与 Agent 编排
配图:开源 AI 工作流底座正在加速。重点不是追逐单个模型名,而是理解它如何进入自动化流程。写在前面:这不是一篇泛 AI 新闻汇总。我的视角是自动化、效率工具和一人公司:这些更新到底会不会改变我们的信息处理、内容生产、知识管理和自动化执行方式?
佳xuan
7 天前
llama
llama微调后大模型测评
加载微调后的模型,问答同问题复现1.微调模型2,原模型跑完自动输出:准确率、得分、各项指标ceval:中文能力测评;cmmlu:多学科综合测评
佳xuan
8 天前
llama
LLama_Factory配置及模型微调实践
可以考虑换国内的清华源下错了版本,卸载(上述命令默认安装的是cpu版本的torch)下载适配torch
zhangfeng1133
8 天前
人工智能
·
深度学习
·
llama
LLaMA-Factory 在训练模型时检查点(Checkpoint)文件说明
你列出的这些文件,其实是 LLaMA-Factory 在训练模型时自动保存的一个“检查点”(Checkpoint)。这个文件夹就像一个完整的“训练快照”,能让你随时从中断的地方精准地恢复训练,而不必从头开始。
ONE_SIX_MIX
9 天前
apex
·
llama
·
量化
·
unsloth
最先进llama.cpp量化方法PK,APEX vs UD_XL,在 Qwen3.6-35B-A3B 中爆发! 2026年4月
哈哈哈😄,我承认是在抓眼球。只有两个模型的测试,没有测试其他尺寸的模型了。最近出了新的量化方法,APEX,看着似乎小了许多,并且据说性能不错。我很想知道性能有多好。
天地沧海
11 天前
gpt
·
bert
·
llama
GPT、BERT、LLaMA 这些模型类别怎么区分
最核心的一句:- BERT:偏“读懂” - GPT:偏“写出来” - LLaMA:本质上也是 GPT 这一路,只是是一个重要的开源/开放权重模型家族
胖少年
13 天前
windows
·
llama
从零开始:在 Windows 上用 llama.cpp 跑本地大模型
一篇给普通人的手把手教程。不需要懂 AI、不需要懂编程,跟着做就能在自己电脑上跑大模型。日常聊天完全够用,比打字快得多。
路人与大师
14 天前
llama
在天垓150上部署 Llama-2-13B:一次 Iluvatar BI-V150 / CoreX 实战适配记录
最近在做一个模型适配任务,需要把 CHIH-HUNG/llama-2-13b-FINETUNE5_4w-r16-gate_up_down 这类 Llama-2 13B 模型,部署到 Iluvatar BI-V150 环境,也就是常说的 天垓150 服务器上运行。
code_pgf
14 天前
人工智能
·
知识图谱
·
llama
Llama 3 / Qwen / Mistral / DeepSeek 对比详解
2024—2026 年开放权重基础模型的主线竞争,已经从“谁有一个可用 7B/13B 模型”演化为“谁能提供完整家族、可部署栈、许可策略、长上下文、多语言、多模态与推理后训练的系统能力”。在这一格局下:
yumgpkpm
14 天前
华为
·
ai作画
·
stable diffusion
·
开源
·
ai写作
·
llama
·
gpu算力
Qwen3.6正式开源,华为昇腾910B实现高效适配
Qwen3.6正式开源,华为昇腾910B实现高效适配2026年4月17日——阿里巴巴通义千问团队今日宣布,Qwen3.6系列的首款开源模型Qwen3.6-35B-A3B正式发布,并已在魔搭社区和Hugging Face平台开放下载。该模型采用混合专家(MoE)架构,以350亿总参数量、仅激活30亿参数的轻量化设计,在编程、多模态理解等核心能力上实现显著突破,同时华为昇腾910B已完成对该模型的深度适配,为国产算力生态注入新活力。