自然语言处理

大模型任我行11 小时前
人工智能·语言模型·自然语言处理·论文笔记
清华:Agent记忆框架AdaMem📖标题:AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents 🌐来源:arXiv, 2603.16496v1
Gavin_Huangw11 小时前
人工智能·自然语言处理
NLP基础06注意力机制由来,机器翻译 seq2seq架构,1encoder,2decoder,3中间语义张量c 翻译:欢迎来北京,welcome to Beijing 任务:1.编码,结果得到中间语义张量c
放下华子我只抽RuiKe512 小时前
人工智能·深度学习·学习·自然语言处理·openclaw·development
深度学习-04-NLP项目实战📖 导读: 第四天,进入项目实战阶段。Day04完成项目实战全流程。
roman_日积跬步-终至千里13 小时前
人工智能·语言模型·自然语言处理
【大语言模型基础(2)】自注意力与多头机制:QKV、缩放与因果掩码Transformer 到底是怎么做到的:在当前位置,先看完整句话,再决定自己该变成什么样?这件事主要靠两样东西:
放下华子我只抽RuiKe514 小时前
人工智能·深度学习·自然语言处理·开源·集成学习·easyui
深度学习-03-NLP强化训练📖 导读: 第三天,强化训练,掌握更多细节。Day03深入RNN系列和Transformer核心机制。
bug大湿1 天前
深度学习·自然语言处理·语音识别
语音模型流式结构修改要点对于端侧语音信号处理模型来说,核心结构都是基于CNN+RNN(LSTM/GRU),训练时一般基于非流式模型,效率高易于收敛。训练完成后在移动端部署,受实时率和延迟的要求,一般需要修改流式结构。下面主要阐述,Conv和LSTM/GRU算子修改的原理。
龙腾AI白云1 天前
人工智能·深度学习·语言模型·自然语言处理·数据分析
如何利用知识图谱实现推理和计算如何利用知识图谱实现推理和计算一、 知识图谱如何“推理”? 二、 知识图谱如何“计算”? 三、 实现推理与计算的关键支撑 四、 典型应用场景 五、 挑战与未来方向
Langchain1 天前
人工智能·python·自然语言处理·llm·agent·大模型开发·rag
2026 年 AI 最值得关注的方向:上下文工程!一句话概括,当大家还在为主模型的Token窗口受限和频繁失忆而焦虑时,这帮狠人直接把大模型降级成了没有记忆的“计算CPU”,并通过构建一个标准化读写的“代理文件系统”来统管上下文流水线,强行给黑盒AI套上了操作系统的精确性 buff。
ybdesire1 天前
人工智能·语言模型·自然语言处理
通过训练代码来理解DLLM扩散语言模型Diffusion-LLM(DLLM) 是扩散语言模型(Diffusion Large Language Model),它与LLM有什么区别呢?
放下华子我只抽RuiKe52 天前
前端·人工智能·深度学习·神经网络·自然语言处理·矩阵·easyui
深度学习 - 01 - NLP自然语言处理基础📖 导读: 这是NLP学习的第一天,掌握文本处理的基础能力。💡 代码解析:Day01主要学习了:
Gideon_k_Marx2 天前
人工智能·深度学习·机器学习·语言模型·自然语言处理
读代码3:OLMo3全详解 - layer2--Data (上)arxiv:2 OLMo 2 Furious Olmo 3github:GitHub - allenai/OLMo-core: PyTorch building blocks for the OLMo ecosystem
龙腾AI白云2 天前
自然语言处理·flask·virtualenv·pygame
基于知识图谱的故障推理方法与算法基于知识图谱的故障推理方法与算法一、 推理的基本范式 二、 知识图谱的构建要求 三、 核心算法与技术 四、 典型实施流程
老刘说AI2 天前
开发语言·数据库·人工智能·python·神经网络·自然语言处理
WorkFlow Agent案例:auto_document_agent(文件自动处理)本次聊下怎么在Coze平台内搭建一个WorkFlow Agent(带工作流的智能体) 。在搭建WorkFlow Agent之前,我们需要先了解下思维链(Chain Of Thought) ,在我之前的文章: 初识Agent 也做了简单的讲解,我这里不多做描述,用通俗的话简单说下。
Hali_Botebie2 天前
人工智能·语言模型·自然语言处理
LoRA: Low-Rank Adaptation of Large Language Models论文:https://arxiv.org/abs/2106.09685LoRA(Low-Rank Adaptation,低秩自适应)是一种参数高效微调(PEFT)技术。它的核心思想是:冻结预训练大模型的原始权重,只训练少量新增的“旁路”参数,从而以极低的成本实现模型微调。
AI纪元故事会2 天前
人工智能·语言模型·自然语言处理
【硬核】纯手搓大语言模型(LLM)从0到1全指南:技术、资源、金钱与血泪在ChatGPT爆火之后,很多人问我:“我想自己从零写一个GPT,需要看什么书?”大多数人以为我在开玩笑。但作为一个在AI领域摸爬滚打多年的老鸟,我可以负责任地告诉你:手搓一个“玩具级”的LLM,是理解Transformer精髓的最佳途径;但如果你想搓一个“能打”的(比如对标LLaMA 7B),那将是一场涉及技术、算力、金钱和心理的极限挑战。
xingyuzhisuan2 天前
人工智能·深度学习·语言模型·自然语言处理·gpu算力
大语言模型训练需要什么样的GPU配置?怎么租用最划算?随着大语言模型(LLM)技术的普及,从1B参数的轻量化模型到万亿参数的超大规模模型,算力需求呈指数级增长,GPU作为训练核心硬件,其配置选择直接决定训练效率、成本投入与项目成败。同时,2026年Q1第三方调研机构IDC数据显示,国内GPU租赁市场规模达19.7亿元,同比增长68.3%,72.1%的企业选择GPU服务器租用替代自有采购,核心诉求集中在成本可控、运维便捷、性能适配三大维度。
承渊政道3 天前
深度学习·学习·语言模型·自然语言处理·chatgpt·transformer·机器翻译
从n-grams到Transformer:一文读懂语言模型基础语言模型作为自然语言处理领域的基石,从诞生之初便承载着让机器理解、生成人类语言的核心使命.从早期基于统计规则的朴素模型,到如今驱动大语言模型爆发的Transformer架构,语言模型的演进史,本质上是一部机器不断逼近人类语言逻辑的迭代史.在很长一段时间里,n-grams凭借简洁的统计思想,成为语言建模的主流方案,它用简单的概率统计捕捉词与词之间的关联,却也在长距离依赖、数据稀疏性等问题上暴露了明显局限.随着深度学习的兴起,RNN、LSTM等序列模型试图突破传统统计模型的桎梏.却又受制于串行计算的效率瓶颈,
imbackneverdie3 天前
人工智能·ai·自然语言处理·aigc·科研·ai写作·学术研究
颠覆科研工作流:AI赋能下的科研模式新变革与MedPeer的全流程解决方案在过去的几十年中,科研模式的变化更多是依赖于工具的迭代——从纸质文献到数字数据库,从人工绘图到计算机图形,从手写论文到文字处理软件。然而,这些变革大多是工具层面的效率提升,科研人员仍需亲自承担大量重复性、低附加值的工作:查找文献、整理数据、编写报告、修订稿件、绘制图表、翻译资料…… 如今,随着人工智能(AI)技术的成熟,这一切正在发生颠覆性的改变。
㱘郳3 天前
人工智能·语言模型·自然语言处理
大语言模型开发与应用V5.0做完投满分和知识图谱项目后,顺接大语言模型开发与应用还在更新中,这段时间我先去忙脑机接口,https://jx7281bgmy0.feishu.cn/wiki/YO3TwjBP1is7wBkmh8dc1Dken6d
青松@FasterAI3 天前
人工智能·深度学习·神经网络·自然语言处理·大模型开发
【动手学大模型】机器何以学习我是一名大模型算法工程师,在学习大模型的过程中踩过很多坑。为了帮程序员少走弯路,我把自己的经验写成了一本免费电子书《动手学大语言模型》——不堆公式,直接手搓源码,从零实现RNN、Transformer、GPT等经典架构,配了数百张原创插图,代码全部可运行。