大模型

CoderJia程序员甲12 小时前
开源·大模型·llm·github·ai教程
GitHub 热榜项目 - 日榜(2025-12-26)生成于:2025-12-26共发现热门项目: 13 个榜单类型:日榜本期GitHub热榜显示人工智能技术落地应用正全面提速,热点聚焦于提升大型语言模型的实用性与效率。以Yuxi-Know和LEANN为代表的RAG项目通过集成知识图谱与轻量化技术,显著优化了知识库的构建成本与检索精度;vllm-omni和LightX2V等项目致力于多模态模型的高效推理与视频生成,推动AI处理复杂现实任务的能力边界。同时Pathway等流式数据处理框架和claude-code-templates等开发工具的热度攀升,反映出行
KAI智习14 小时前
人工智能·大模型
大模型榜单周报(2025/12/27)本周大模型领域持续涌现创新成果,数学、编程和多模态能力均出现显著进展。字节推出数学模型Seed Prover 1.5,在国际数学奥林匹克竞赛中取得金牌线成绩,而智谱AI开源GLM-4.7在多项评测中超越GPT-5.1。MiniMax的M2.1编码模型以10B激活参数创下多语言软件工程能力新高,北航提出的代码模型Scaling Laws为最优数据配比提供理论基础。
KG_LLM图谱增强大模型14 小时前
人工智能·大模型·知识图谱·agi
[150页最新PPT]深度解析大模型与知识图谱的融合范式,通往AGI的必由之路?当大语言模型(LLM)的通用能力遇上知识图谱(KG)的结构化精度,人工智能的下一个拐点在何方?本文深度剖析LLM与KG两大技术范式的互补优势与内在缺陷,系统性阐述了“KG增强LLM”和“LLM增强KG”的双向赋能路径。通过解读前沿技术、应用场景与未来趋势,本文旨在为科研专家、产业决策者和投资者揭示这一融合技术如何克服AI幻觉、提升可解释性,并最终构筑通往通用人工智能(AGI)的关键阶梯 。
空城雀17 小时前
大模型·prompt
大模型知识之promptprompt,意为提示词。 是用户发给大模型的“指令”或“问题”,它直接决定了模型会“思考”什么以及如何“回答”。prompt写的越清晰,回答的越好。
千桐科技17 小时前
大模型·知识图谱·智能问答·知识库·rag·qknow·知识平台
qKnow 知识平台商业版 v2.1.1 正式发布:图谱问答与语义检索能力全面升级qKnow 商业版 v2.1.1 并不是一次简单的功能叠加,而是围绕“是否好用、是否稳定、是否可持续使用”进行的一次系统升级。从图谱问答能力的引入,到抽取任务状态与日志完善,再到搜索体验和界面细节优化,新版本在多个关键路径上提升了实际使用体验。
逐云者12317 小时前
人工智能·架构·大模型·数据中心·cdc·任务中心·大数据同步
构建高效任务中心:CDC 数据同步的工程实践与架构权衡在现代业务系统中,任务中心(Task Center)作为连接数据与行动的核心枢纽,其核心能力之一是从上游业务数据库中可靠、高效、低延迟地同步关键状态变更,并以此驱动任务生成、告警或自动化决策。然而,面对“百表千字段”的复杂数据模型,如何在保障实时性的同时控制资源消耗、确保一致性,并为后续的标签化、规则匹配与智能增强提供高质量输入,是工程落地的关键挑战。
程序员柒叔17 小时前
大模型·workflow·知识库·工作流·dify
Dify 工作流类型说明文档版本:1.9.2 最后更新:2025年12月Dify 平台支持三种工作流类型,每种类型针对不同的使用场景进行了优化:
哥本哈士奇(aspnetx)1 天前
大模型
使用Gradio构建AI前端 - RAG召回测试构建AI应用的前端方案有很多,这里介绍一个开源前端库---Gradio,通过它可以使用简短的代码就可以快速的实现简单的AI应用前端。这里我们选择的场景为做RAG召回测试,通过调用先前封装好的LangChain代码,来快速的搭建这个前端页面。
schinber1 天前
大模型·大模型名词
大模型领域常见的核心名词解释大语言模型: 通常指基于Transformer架构、在海量文本数据上训练、拥有数十亿甚至万亿参数的自回归语言模型。例如GPT-4、Llama、文心一言等。
程序员柒叔1 天前
大模型·llm·prompt·可观测性·llm评估
Langfuse 项目概览项目名称:Langfuse 版本:3.140.0 开源协议:MIT License 官方网站:https://langfuse.com GitHub 仓库:https://github.com/langfuse/langfuse 项目类型:开源 LLM 工程平台(Full-stack Web Application)
攻城狮7号2 天前
人工智能·大模型·skills·anthropic开源·ai技能
Anthropic开源Skills项目,打响了智能体标准化的第一枪目录前言一、告别“散装”指令:文件夹就是技能包二、解决“脑容量”焦虑:渐进式加载三、现成的“军火库”:50+技能开箱即用
南方者2 天前
大模型·irq
大模型推理中 IRQ 中断优化:从机制解析到性能调优实践在大模型推理场景中,系统性能瓶颈的排查往往需要深入到硬件与软件交互的底层细节。HostBound问题作为常见的性能障碍,其诱因复杂多样,其中IRQ中断的不合理分配是容易被忽视的关键因素。下面我将系统剖析中断机制的工作原理,详解irqbalance服务的调度策略,并通过实测数据验证中断绑核对大模型推理性能的影响,最终提供一套可落地的中断优化方案。
AI人工智能+2 天前
大模型·ocr·文本信息抽取
大模型如何革新银行流水信息抽取随着银行业务数字化程度不断加深,海量、非结构化的银行流水文本数据中蕴藏着巨大的业务价值与风险洞察。传统基于规则和浅层机器学习的抽取方法在面对流水文本格式多变、语义复杂、专业性强等挑战时,往往显得力不从心。以BERT、GPT等为代表的大规模预训练语言模型凭借其深度的语义理解与强大的泛化能力,正为银行流水关键文本信息抽取带来革命性的突破。本文将深入探讨大模型方法在该领域的技术原理、应用实践、核心优势、面临挑战及未来发展趋势。
程序员柒叔2 天前
大模型·word·workflow·工作流·dify
Dify 工作流组件开发指南本文档详细描述如何在 Dify 中开发一个新的工作流节点组件。Dify 工作流采用前后端分离架构,开发一个新的工作流节点组件需要同时在**后端(Python Flask)和前端(Next.js + React)**进行开发。
plmm烟酒僧2 天前
前端·人工智能·大模型·intel·openvino·端侧部署·deepseek
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第二章:前端交互与后端服务)基于上一章的环境准备和模型转换,本章专注于后端服务器的部署以及前端页面的启动。使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第一章:基础概念与模型转换)-CSDN博客https://blog.csdn.net/plmm__/article/details/156192071?spm=1001.2014.3001.5502
大数据追光猿2 天前
人工智能·python·langchain·大模型·agent
【Agent】高可用智能 Agent:记忆机制设计与性能优化实战在构建企业级智能 Agent 项目的过程中,如何让 Agent “记住”用户信息并高效利用记忆,是决定产品体验的核心问题。同时,效果与延迟的平衡也是工程落地的最大挑战。本文将深入剖析长短期记忆机制的设计细节,并分享效果提升与延迟优化的关键策略。
一代明君Kevin学长2 天前
人工智能·python·深度学习·ai·大模型·检索增强·rag
RAG中的上下文压缩(Contextual Compression)RAG中的上下文压缩(Contextual Compression)RAG系统的本质,就是“先检索,再生成”。你问个问题,系统先去知识库里搜一圈,把相关的内容捞出来,然后丢给大模型生成答案。
禁默2 天前
大模型·ascend·昇腾npu·atlas 800t
在昇腾 NPU上压测 Qwen1.5-MoE:AtomGit 云端部署全记录Qwen1.5-MoE-A2.7B 是一个架构非常有趣的“怪兽”:它拥有 14.3B 的庞大身躯(显存占用大),但在干活时只动用 2.7B 的脑细胞(计算速度快)。
InfraTech2 天前
大模型·vllm
vLLM V1 Scheduler的调度逻辑&优先级分析https://mp.weixin.qq.com/s/PAp5PPEUySRInqANcJRPgwvLLM的调度器(scheduler)会根据系统资源和请求情况组织每次推理需要计算的数据。调度器的处理流程随着框架的升级出现了较大改动,本文以V0.8.4版本为基础分析一下调度器处理流程。其次,当前的scheduler里面没有指定优先级调度逻辑,该如何实现?本文也会就此进行讨论。
大数据追光猿2 天前
人工智能·大模型·prompt·agent
【Prompt】Prompt Caching:原理、实现与高并发价值在大模型(LLM)应用爆发的今天,成本高、延迟大、资源消耗重成为落地的核心瓶颈。而 Prompt Caching(提示缓存) 正是解决这些问题的关键技术之一。