记忆

羞儿10 天前
知识图谱·agent·工具·规划·记忆·mcp
agent应用开发-一个实例的认识与构建Smart Scholar Agent 是一个以 「精读」研究行为为核心的科研论文解析与理解型智能体。它的目标不是替代研究者阅读论文,而是:作为一个“研究型协作者”,帮助用户更系统、更审慎地理解一篇论文的研究问题、方法假设、证据充分性与结论可靠性。假如用户已经选定一篇论文,并决定投入 30–90 分钟进行精读,希望在有限时间内形成可靠的研究判断。
M宝可梦19 天前
transformer·memory·hash·moe·记忆·deepseek·engram
Engram: DeepSeek最新工作解读1.从MLA,到NSA,DSA(lightning Indexer),DeepSeek做了很多稀疏化的工作,从计算层面更加高效,节省,试图压榨尽所有的硬件资源; 2.从transformer到MoE------谁来算 但是对于一些简单问题,稠密模型可能存在资源浪费的情况,因为需要不加区分的过一遍所有参数,这对于小模型或许可以接受,但是对于超大量参数的模型难以忍受,因此转为只对部分参数激活; 3.从MoE到Engram------一定程度解耦计算和记忆 过去的transformer只有显示的链接,计算,没有
狮子座明仔20 天前
人工智能·深度学习·语言模型·自然语言处理·架构·记忆
Engram:DeepSeek提出条件记忆模块,“查算分离“架构开启LLM稀疏性新维度一句话总结:DeepSeek联合北京大学提出Engram模块,通过现代化的哈希N-gram嵌入实现O(1)时间复杂度的知识查找,将静态记忆与动态计算解耦,在等参数、等算力条件下,Engram-27B在知识、推理、代码、数学任务上全面超越纯MoE基线。
Jackchenyj21 天前
人工智能·智能体·记忆·思维训练
【无标题】——以阿忘(A-WANG MEMORY)为例在信息爆炸的时代,如何高效管理碎片化信息、实现知识沉淀,成为技术从业者和普通用户共同面临的核心痛点。传统信息管理方式存在检索效率低、整理成本高、记忆巩固难等问题,而AI技术的发展为这一困境提供了全新解决方案。本文将以阿忘(A-WANG MEMORY,官网:https://www.shiflowai.cloud/ )为例,从技术架构、核心功能实现等维度,深度解析基于AI的碎片化信息管理系统的设计思路与技术细节。
大数据AI人工智能培训专家培训讲师叶梓2 年前
人工智能·深度学习·语言模型·transformer·上下文·长文·记忆
Transformer革新:Infini-Transformer在长文本处理中的突破在当今信息爆炸的时代,大型语言模型(LLMs)在处理长文本数据方面的需求日益增长。无论是科学研究、法律分析还是医学诊断,长文本的处理能力都显得尤为重要。然而,现有的基于Transformer的模型在处理这类数据时遇到了重大挑战。由于其注意力机制的二次方复杂度,随着输入序列的增长,所需的内存和计算资源呈指数级增加,这不仅限制了模型处理长文本的能力,也带来了巨大的经济成本。
我是有底线的