自然语言处理

a3158238063 小时前
人工智能·语言模型·自然语言处理
基于大语言模型的新闻判断技术利用https://colab.research.google.com/上的资源。需要至少V100以上的GPU。
DisonTangor8 小时前
人工智能·语言模型·自然语言处理
【DeepSeek拥抱开源】通过可扩展查找实现的条件记忆:大型语言模型稀疏性的新维度本代码库包含论文《通过可扩展查找实现条件记忆:大语言模型稀疏性的新维度》的官方实现。摘要: 虽然专家混合模型(MoE)通过条件计算扩展容量,但Transformer架构缺乏原生知识查找机制。为此,我们探索将条件记忆作为补充性稀疏维度,通过Engram模块实现——该模块将经典 N N N-gram嵌入现代化改造为支持 O ( 1 ) \mathcal{O}(1) O(1)复杂度查找。
独自破碎E8 小时前
人工智能·自然语言处理
怎么优化RAG的检索效果?主要可以从以下几个方面考虑:1.保证知识库中的原始文档内容准确、结构清晰、格式规范,尽量减少水印、不相关图片等噪音。
Niuguangshuo10 小时前
人工智能·自然语言处理
深入浅出解析自然语言处理的核心——分词器想象一下,你要教一个刚来地球的外星人学中文。你直接扔给他一整本《红楼梦》,他肯定会崩溃。更合理的方法是,先教他认识单个的汉字、词语,再理解句子。
音视频开发_AIZ10 小时前
人工智能·语言模型·自然语言处理·实时互动·语音识别·实时音视频
比OpenAI语音模型落地更快!基于RTC SDK搭建语音实时互动智能体教程OpenAI近日宣布即将在2026年Q1推出新一代语音AI模型,这将是继 Whisper 和当前 ChatGPT 4语音功能后的重大突破。OpenAI 已整合工程、产品和研究团队,针对语音识别准确率与响应速度进行深度优化,语音交互技术正迎来新一轮爆发。
TAICHIFEI11 小时前
人工智能·深度学习·学习·自然语言处理
Hugging Face 的 Transformers库Transformers(常被简称为 🤗 Transformers)是 Hugging Face 开源的业界标杆级深度学习库,核心定位是:封装了海量基于 Transformer 架构的预训练模型,让开发者无需从零实现 Transformer 底层逻辑,就能快速调用、微调各类大模型,完成 NLP、多模态(图文/语音)等任务。
悟道心12 小时前
人工智能·自然语言处理
9. 自然语言处理NLP - T5想象一下: 你有一个万能翻译机,它不仅能翻译英文→中文,还能写邮件、摘要文章、回答问题、甚至生成代码…… 而这一切,它都用同一个方式完成: 👉 把输入当作“一段文字”,输出也是一段文字。 这就是 T5 的核心思想: 一切 NLP 任务,都可以被转化为“文本到文本”的形式。 比如:
Allen_LVyingbo13 小时前
算法·自然语言处理·性能优化·知识图谱·健康医疗·柔性数组
面向“病历生成 + CDI/ICD”多智能体系统的选型策略与落地实践(三)需求分析流程:开发迭代流程:是否迭代规划开发实现单元测试集成测试质量门禁门禁通过?临床验证修复缺陷发布审批
Hcoco_me1 天前
人工智能·深度学习·自然语言处理·transformer·vllm
大模型面试题61:Flash Attention中online softmax(在线softmax)的实现方式在讲online softmax之前,先明确一个核心问题:传统Attention的softmax到底卡在哪里?
P-ShineBeam1 天前
人工智能·语言模型·自然语言处理·知识图谱
引导式问答-对话式商品搜索-TRACER论文:Wizard of Shopping: Target-Oriented E-commerce Dialogue Generation with Decision Tree Branching 会议:ACL 2025 long 作者:Xiangci Li et al. (AWS AI Labs, Amazon)
ldccorpora1 天前
人工智能·深度学习·自然语言处理·动态规划·语音识别
Multiple-Translation Arabic (MTA) Part 2数据集介绍,官网编号LDC2005T05Multiple-Translation Arabic (MTA) Part 2(LDC2005T05)是 LDC 于 2005 年发布的现代标准阿拉伯语(MSA)多译文平行语料库,核心为法新社(AFP)阿拉伯语新闻文本 + 3 组独立人工英译,适配机器翻译评估、翻译质量自动度量与模型优化,是阿拉伯语 - 英语翻译评测的经典基准资源LDC。以下从核心信息、数据构成、标注与质控、应用与获取等方面展开:
aopstudio1 天前
自然语言处理·llm·jinja
Jinja 是什么?为什么大模型的聊天模板使用它?在HuggingFace的模型页面,点击Chat template选项: 会看到下图这样的内容:我第一次看到这样的写法时,完全不知道这是什么语言——既不像 Python,也不像 HTML。
狮子座明仔1 天前
人工智能·深度学习·语言模型·自然语言处理
DocDancer:北大联合腾讯提出端到端训练的文档问答Agent,将DocQA形式化为信息寻求过程一句话总结:北京大学联合腾讯AI Lab提出DocDancer,首个端到端训练的开源文档问答Agent,通过"搜索+阅读"双工具设计和"探索-综合"数据合成框架,在MMLongBench-Doc和DocBench两大基准上超越现有方法,甚至接近人类水平。
丝斯20111 天前
人工智能·学习·自然语言处理
AI学习笔记整理(43)——NLP之大规模预训练模型BERT预训练模型BERT BERT(Bidirectional Encoder Representations from Transformers)是Google在2018年提出的一种预训练语言模型,它在自然语言处理(NLP)领域引起了广泛的关注和应用。BERT的核心思想是通过双向Transformer编码器(双向的编码器部分)来捕捉文本中的上下文信息,从而生成更丰富的语言表示。
拌面jiang1 天前
人工智能·自然语言处理·word2vec
Word2Vec词嵌入模型1.什么是词嵌入? 词嵌入是将文本中的词语,映射为计算机能够理解的,固定长度的实数向量的过程。为什么要这么做?
Study9961 天前
人工智能·ai·语言模型·自然语言处理·大模型·llm·agent
大语言模型的详解与训练随着2022年底 ChatGPT 再一次刷新 NLP 的能力上限,大语言模型(Large Language Model,LLM)开始接替传统的预训练语言模型(Pre-trained Language Model,PLM) 成为 NLP 的主流方向,基于 LLM 的全新研究范式也正在刷新被 BERT 发扬光大的预训练-微调范式,NLP 由此迎来又一次翻天覆地的变化。从2022年底至今,LLM 能力上限不断刷新,通用基座大模型数量指数级上升,基于 LLM 的概念、应用也是日新月异,预示着大模型时代的到来。
lkbhua莱克瓦241 天前
人工智能·语言模型·自然语言处理
大语言模型的非技术漫游指南当你在深夜向某个聊天框输入一个问题,并在一秒后得到一段流畅、准确、仿佛带着思考温度的文字回复时——你正站在人类文明史的一个奇点边缘。而这一切的核心,正是大语言模型。
智算菩萨1 天前
开发语言·python·自然语言处理
【Python自然语言处理】基于NLTK库的英文文本词频统计系统实现原理及应用在信息爆炸的时代,文本数据作为一种最直接、最丰富的信息载体,其价值日益凸显。无论是海量的互联网内容、学术研究文献,还是企业内部的文档资料,都蕴含着巨大的信息潜力。然而,面对庞杂的文本数据,如何从中快速、有效地提取关键信息,洞察其内在规律,成为了一个亟待解决的挑战。词频统计,作为一种基础且强大的文本分析技术,为我们提供了理解文本内容、揭示文本特征的有力工具。通过统计文本中各个词语出现的频率,我们可以了解哪些词语是文本的核心,哪些概念是作者着重强调的,甚至可以基于词频信息对文本进行分类、聚类、情感分析等更高级
Watermelo6172 天前
数据结构·人工智能·语言模型·自然语言处理·数据挖掘·数据分析·json
探究TOON的价值边界:比JSON更优的大模型友好数据格式?目录探究TOON的价值边界:比JSON更优的大模型友好数据格式?一、TOON 的适用边界1、哪些情况不适用 TOON?
光羽隹衡2 天前
机器学习·自然语言处理·tf-idf
机器学习——自然语言处理之关键词提取任务(TF-IDF)Step1:数据收集:收集研究需要的数据,建立相应的语料库Step2:数据准备:导入分词库喝停用词库Step3:模型建立:使用jieba分词,对语料库进行分词处理