自然语言处理

时见先生1 小时前
开发语言·人工智能·python·自然语言处理·conda
Python库和conda搭建虚拟环境这是最常用且最直观的方法,无需进入 Python 代码环境即可查看。如果你想知道某个特定库(例如 numpy)安装在哪里,使用 show 命令:
TW-NLP7 小时前
自然语言处理
【开源推荐】AgentForce:当 GraphRAG 遇上 Agentic Workflow,打造下一代 AI 智能体平台摘要:传统的 RAG 系统只能“检索”片段,往往缺乏全局观。今天推荐一个基于 Python 3.12+ 和 FastAPI 构建的开源项目 AgentForce。它融合了 GraphRAG(知识图谱增强)的认知能力与 Agentic Workflow(代理工作流)的执行能力,支持动态规划、多模态知识库构建及可视化交互,是学习和构建下一代 AI 应用的绝佳范例。
123_不打狼13 小时前
人工智能·自然语言处理
自然语言处理简介让计算机具备三大能力:计算机无法直接理解文字,需将其转换为数字(向量),这是 NLP 的第一步(这里简单介绍三种方法):
KG_LLM图谱增强大模型13 小时前
人工智能·语言模型·自然语言处理
多智能体大语言模型框架赋能医学等多领域低资源命名实体识别:知识检索、消歧与反思分析的创新实践本文提出KDR-Agent,一种创新性多智能体大语言模型框架,通过知识检索、实体消歧和反思分析三大机制,有效解决多领域低资源场景下的命名实体识别难题,显著提升模型在未见领域的泛化能力,为人工智能在信息抽取领域的应用提供新范式。
老鱼说AI13 小时前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
论文精读第八期:Quiet-STaR 深度剖析:如何利用并行 Attention 与 REINFORCE 唤醒大模型的“潜意识”?以前的 CoT(思维链)像是在教模型“应试”,必须有题目、有提示才肯推理。而 Quiet-STaR 的出现,标志着大模型开始学会了“像学者一样阅读”——在海量的互联网文本中,通过预测未来的文字,自发地学会了“三思而后行”。这篇博客将剥开复杂的数学外衣,通俗解读 DeepMind/Stanford 这一开创性工作:当 AI 拥有了看不见的“内心独白”,通往 AGI 的路是否缩短了一程?
123_不打狼15 小时前
人工智能·学习·自然语言处理
自然语言处理(NLP)学习路线一、 前置基础阶段(必备)1. 编程语言与工具2. 数学基础3. 机器学习基础二、 传统 NLP 阶段(打牢方法论)
zhangfeng113316 小时前
人工智能·语言模型·自然语言处理
大语言模型训练不用bpe算法可以不可以 ,BPE 是算法,SentencePiece 是工具箱可以,但“不用 BPE”≠“什么都不做”,而是把 tokenizer 退化成 字符级(character-level) 或者 SMILES 字符级。 这样做确实能跑,但代价远远不只是“比较耗资源”那么简单,基本属于不可接受。给你个量化对比就明白了:
淬炼之火1 天前
人工智能·语言模型·自然语言处理
图文跨模态融合基础:大语言模型(LLM)1.LLM简介2.结构鸟瞰3.Transformer3.1. 词嵌入(Word Embedding)3.2. 循环神经网络(Recurrent Neural Networks,RNN)
GRITJW1 天前
自然语言处理
看一遍就懂-大模型架构及encoder-decoder详细训练和推理计算过程BERT(Encoder-only,用于理解任务):GPT(Decoder-only,用于生成任务):
来两个炸鸡腿1 天前
人工智能·学习·自然语言处理
【Datawhale组队学习202601】Base-NLP task04 参数高效微调–自 BERT 模型发布以来,“预训练-微调”(Pre-train and Fine-tune) 的范式在自然语言处理领域取得了巨大成功。 不过,当模型参数规模从 BERT 的数亿级别跃升至 GPT-3 的千亿级别时,传统的 全量微调(Full Fine-Tuning) 遇到了挑战。
余俊晖1 天前
人工智能·自然语言处理·多模态
多模态文档解析开源进展:端到端OCR模型LightOnOCR-2-1B架构、效果测试多模态OCR赛道依旧卷,继续看一下新的多模态文档解析模型-LightOnOCR-2-1B系列,按照之前的划分(文档智能解析方案总结进展更新(含ocr-pipline、layout+VLM+纯多模态端到端解析)),这是一个端到端的模型,这个模型开源了其两个用于训练的开放标注数据集:lightonai/LightOnOCR-mix-0126一个包含超过 1600w标注的文档页面,另一个lightonai/LightOnOCR-bbox-mix-0126包含近50w标注,包括图形和图像的边界框。
奥特曼_ it1 天前
数据库·python·自然语言处理
【NLP舆情分析】基于python微博舆情分析可视化系统(完整系统源码+数据库+详细部署教程)✅目录一、 项目背景项目实现的核心思路技术选型建议开发流程优化文档与协作规范测试与部署策略常见问题解决方案
余俊晖2 天前
人工智能·自然语言处理·多模态
强化学习GRPO(格式奖励)在多模态文档解析中的运用方法现有的多模态文档解析模型在对ocr(公式、表格)等进行格式化解码时,解码不是特别稳定,如下图:基于视觉语言模型(VLM)的端到端方法虽简化流程,但在处理公式、表格等格式化文本时,输出熵值(不确定性)远高于纯文本(常相差一个数量级)。
imbackneverdie2 天前
人工智能·ai·自然语言处理·aigc·国自然·国家自然科学基金
2026年国自然申请书“瘦身提质”!2026年国自然申请书“瘦身提质”的消息一出来,科研圈瞬间炸开了锅。取消固定提纲、精简为“立项依据、研究内容、研究基础”三大核心部分、篇幅限制30页内……一系列调整打破了沿用多年的写作习惯,更让不少人焦虑的是:距离申报截止只剩3个月,第一年改写成这样,到底该从何下手?
renhongxia12 天前
人工智能·深度学习·学习·语言模型·自然语言处理
TANDEM:多模态仇恨言论的时间感知神经检测社交媒体平台日益被长篇幅多模态内容主导,有害信息常通过音频、视觉与文本线索的复杂交织构建。尽管自动化系统能以高精度识别仇恨言论,但其"黑箱"特性往往无法提供人类参与审核所需的细粒度、可解释证据——如精确时间戳和攻击目标身份。
薛定e的猫咪2 天前
人工智能·语言模型·自然语言处理
【NeurIPS 2024】MDAgents:用于医疗决策的自适应大型语言模型协作项目地址:https://github.com/mitmedialab/MDAgents 参考论文:MDAgents: An Adaptive Collaboration of LLMs for Medical Decision-Making
小Pawn爷2 天前
人工智能·语言模型·自然语言处理
01.AI对话革命:探索大语言模型的历史和现状知识问答多轮对话总结摘要内容生成代码生成语言翻译
觉醒大王2 天前
论文阅读·深度学习·学习·自然语言处理·学习方法
如何让综述自然引出你的理论框架?文献综述与理论框架的衔接,是许多研究生论文写作中反复遭遇的难题。不少人耗费大量时间梳理文献,可到了构建理论框架时,却总觉得两者脱节生硬,仿佛来自两个毫不相干的研究。 这种割裂感,根源往往不在于知识储备不足,而在于思维逻辑没能完成从“学习者”到“研究者”的转换。作为过来人,我想说,解决这一的核心一的学术故事 1.文献综述的使命:不是陈列,而是设问 很多同学会把文献综述等同于读书报告,一心想着全面罗列所有相关研究。这种心态源于对“严谨”的误解——生怕遗漏任何一篇文献而遭致批评,最终写出的却是一份庞杂失焦的综述
AI-小柒2 天前
大数据·开发语言·人工智能·学习·信息可视化·语言模型·自然语言处理
从零入门大语言模型(LLM):系统学习路线与实践指南在人工智能浪潮席卷全球的今天,大语言模型(LLM)已成为技术领域的核心焦点,从智能对话到内容创作,从代码生成到行业解决方案,其应用场景不断拓展。对于想要踏入这一领域的学习者而言,一套清晰、系统的学习路线至关重要。本文整合了 LLM 学习的核心模块,从基础积累到前沿技术,再到工程化落地,为初学者搭建完整的知识框架,助力快速上手实践。