大模型

Flying pigs~~8 小时前
大模型·prompt·agent·rag·agent架构·人工只能
Agent 完整面试指南:原理、框架、架构模式关键词:Agent、Multi-Agent、Coze、千帆、架构模式、路由分发、双重安全Agent 是一种智能实体,能够自主感知环境、做出规划、执行行动,最终达成目标。
xixixi7777711 小时前
人工智能·5g·ai·大模型·算力·通信·信通院
三重筑基:5G-A超级上行提速千兆,电联低频共享扫平盲点,800V HVDC算电协同破局四月的最后一周,AI热潮席卷全球。当所有人都在关注GPT与Claude的跑分时,通信与算力基础设施领域同步传来一连串重磅进展,悄然为一个AI全面融合的时代铺设着更硬核、更高效、更广阔的物理底座。
Resistance丶未来12 小时前
gpt·大模型·api·claude·gemini·api key·gpt5.5
GPT-5.5 深度评测:性能边界与实战价值全解析当我们第一次接触 GPT-5.5 时,最直观的感受并非来自某个单一的爆炸性数据,而是整体交互质感的微妙变化。如果说之前的版本是在“量”上不断堆叠,那么 GPT-5.5 则明显转向了“质”的精细化打磨。从架构层面来看,这次升级并没有盲目追求参数量级的无限扩张,而是引入了更高效的混合专家模型(MoE)动态路由机制。这意味着模型在处理不同任务时,能够更智能地激活特定的神经元网络,从而在保持响应速度的同时,显著提升了逻辑处理的密度。
ACCELERATOR_LLC15 小时前
人工智能·深度学习·大模型·模型评估
【DataWhale组队学习】DIY-LLM Task6 评估与基准测试原文链接模型的评估与测试或许是一个很大的话题,但这一章不是原理章,更像是评估领域的一个大纲吧。 重点不落在某个测试怎么做,而在于现在大家主要怎么测模型、这些测试有什么用,有什么局限。
CoderJia程序员甲16 小时前
ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-29)生成于:2026-04-29共发现热门项目: 13 个榜单类型:日榜Token赞助:siliconflow
IT届小白17 小时前
人工智能·大模型
Medical-Qwen3-14B基于Ollama内网私有化部署方案项目基于Java SpringAI框架开发,需实现医疗大模型全内网离线私有化部署,杜绝患者医疗数据外网传输,满足医疗数据安全规范、合规性要求,同时兼顾部署轻量化、运维低成本、业务无缝对接。
GoAI21 小时前
人工智能·深度学习·大模型·llm·agent
《深入浅出Agent》:项目深度解析Autoresearch项目地址: https://github.com/karpathy/autoresearch 作者: Andrej Karpathy(前 Tesla AI 总监、OpenAI 创始成员、Stanford PhD) 发布时间: 2026 年 3 月 开源协议: MIT License
OpenCSG21 小时前
人工智能·开源·大模型·ai技术·kimi k2.6
Kimi K2.6:月之暗面发布的原生多模态智能体模型Kimi K2.6 采用了混合专家架构(MoE),总参数量达到1 万亿,但通过精巧的专家路由机制,每次推理仅激活320 亿参数,在保证模型容量的同时大幅降低了推理成本。模型包含 61 层网络结构,部署了 384 个专家模块,每处理一个 token 时动态选择其中 8 个最相关的专家参与计算,另有 1 个共享专家提供基础能力支持。
Fleshy数模1 天前
python·语言模型·大模型·本地部署
本地部署 Qwen2.5-1.5B-Instruct 全流程教程|Ollama + 魔搭双方案在人工智能技术飞速发展的今天,大语言模型已经从云端服务走向本地部署,轻量化大模型凭借体积小、速度快、无需联网、隐私安全等优势,成为 AI 开发者、编程爱好者入门学习的最佳选择。Qwen2.5-1.5B-Instruct 作为通义千问系列的轻量级开源模型,参数规模适中,推理性能优秀,完美适配个人电脑本地运行,既能实现智能对话,也能轻松完成文本分类、情感分析、信息提取等 NLP 任务。
CoderJia程序员甲1 天前
人工智能·ai·大模型·github·ai教程
GitHub 热榜项目 - 日榜(2026-04-28)生成于:2026-04-28共发现热门项目: 13 个榜单类型:日榜Token赞助:siliconflow
卷Java1 天前
javascript·react.js·大模型·llm·ecmascript·multi-agent
ReAct范式实战:让Agent学会边想边做说实话,我第一次看到ReAct这个论文标题的时候,内心是拒绝的。"又是个学术界造的概念吧?"我当时想。
卷Java1 天前
大模型·llm·multi-agent·agent协作
Multi-Agent系统实战:如何让多个Agent握手协作前两天折腾 Multi-Agent,三个 Agent 在那里互踢皮球,一个说"让 B 去处理",另一个说"这不归我管",场面一度非常尴尬。
Flying pigs~~1 天前
人工智能·深度学习·lora·大模型·微调·transformer
LoRA 面试完全指南:低秩分解原理 + Transformer 应用关键词:LoRA、低秩分解、参数高效微调、PEFT、TransformerLoRA(Low-Rank Adaptation)是一种参数高效微调方法,通过在预训练模型旁注入可训练的低秩分解矩阵,大幅减少需要训练的参数数量。
Flying pigs~~2 天前
人工智能·大模型·prompt
大模型Prompt-Tuning技术进阶 - 完整总结面向超大规模模型的Prompt-Tuning与PEFT参数高效微调当模型规模突破10亿参数后,传统的Fine-Tuning方式面临巨大的算力挑战。本章聚焦面向超大规模模型的Prompt-Tuning技术,以及工业界广泛使用的PEFT(参数高效微调)方法。
熊猫钓鱼>_>2 天前
人工智能·ai·架构·开源·大模型·llm·agent
大型复杂远程AI Agent应用:从架构困局到进化突围当AI Agent从本地玩具走向真实的生产环境,一个残酷的事实浮出水面:“智能”在远程、大规模、高复杂的场景下,往往会变成“智障”。 过去一年,我们在构建面向企业级的大型复杂远程AI Agent应用时,踩过无数坑,也沉淀了一些或许反直觉的经验。今天不聊空泛的概念,直接摊开讲讲:当你的Agent必须远程服务成千上万个并发任务,且每个任务都涉及多步推理、长上下文、工具调用甚至跨系统协作时,架构到底该怎么做?
xixixi777772 天前
人工智能·安全·ai·大模型·aigc·量子计算·供应链
AI安全周记:AI驱动攻击占比50%、PQC国标落地、ShinyHunters连环袭击——面对1:25的攻防成本鸿沟,防守方还能撑多久?当AI驱动网络攻击占比突破50%,当“先窃取、后解密”从理论变为现实,当影子AI将不安全代码扩散率推高300%——这已不是传统的“攻防”,而是一场成本完全不对等的降维打击。
白熊1882 天前
人工智能·大模型·llm·agent·langgraph
【大模型Agent】基于LangGraph搭建 多轮对话客户支持机器人 项目示例需收集信息意图分类问候一般咨询订单问题投诉转人工有缺失信息信息齐全有缺失信息信息齐全触发中断人工确认后继续
ACCELERATOR_LLC2 天前
人工智能·深度学习·大模型·强化学习·模型训练
【DataWhale组队学习】DIY-LLM Task5 大模型的基本训练流程原文链接这一章讲的是大模型如何从底座模型变得可用。 原文说,本章重点是 SFT(监督微调),预训练和强化学习主要是总览,强化学习细节会放到下一章,不过Datawhale的组队学习没有下一章。
山顶夕景2 天前
大模型·llm·agent·智能体·openclaw
【Agent】Openclaw架构(Gateway|subagent|工具过滤|Sandbox)1、OpenClaw会用一组工作区 Markdown 文件定义 Agent 的默认身份与协作现场:这些文件并不都是以同样的方式进入一次 run。像 AGENTS.md、SOUL.md、TOOLS.md、IDENTITY.md、USER.md、HEARTBEAT.md 这类 bootstrap 文件,通常会进入 Project Context;BOOTSTRAP.md 只在 brand-new workspace 的首次引导时出现;MEMORY.md 现在也会作为长期记忆文件注入,而 memory/ 里的日