自然语言处理

月岛雫-1 小时前
人工智能·语言模型·自然语言处理
Revisiting Character-level Adversarial Attacks for Language Models实验中使用的Charmer方法是一种高效的字符级对抗攻击方法,旨在通过最小化字符扰动(以Levenshtein距离衡量)生成能使模型误分类的对抗样本,其核心设计、关键步骤、参数设置及实验表现如下:
MARS_AI_7 小时前
人工智能·自然语言处理·重构·交互·信息与通信
云蝠智能 VoiceAgent:重构物流售后场景的智能化引擎在电商渗透率突破 80% 的今天,物流行业面临着日均千万级包裹量与客户服务需求激增的双重挑战。传统售后体系暴露出三大核心痛点:
Hcoco_me2 天前
人工智能·语言模型·自然语言处理
【4】Transformers快速入门:自然语言模型 vs 统计语言模型统计语言模型 = 自然语言模型的“数学基础” (就像加减乘除是数学的基础,统计模型是AI学说话的基础工具)
陈敬雷-充电了么-CEO兼CTO2 天前
人工智能·gpt·ai·语言模型·自然语言处理·chatgpt·大模型
OpenAI开源大模型 GPT-OSS 开放权重语言模型解析:技术特性、部署应用及产业影响注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
Hcoco_me2 天前
人工智能·语言模型·自然语言处理
【8】Transformers快速入门:Decoder 分支和统计语言模型区别?Decoder 分支和统计语言模型确实有相似之处,但它们的能力和原理有本质区别。✅ 共同点:都像 “按顺序写句子” ,写下一个词时只看前面写过的词。
_oP_i2 天前
人工智能·语言模型·自然语言处理
Model Context Protocol (MCP)标准化应用程序向大型语言模型 (LLM) 提供上下文协议Model Context Protocol (MCP) 是一个开放协议,用于标准化应用程序向大型语言模型 (LLM) 提供上下文的方式。它类似于 AI 应用程序的“USB-C 接口”,允许 AI 模型与各种外部数据源和工具无缝集成,从而构建代理和复杂工作流,并将模型与现实世界连接起来。MCP 由 Anthropic 于 2024 年 11 月引入,作为一个开放标准,旨在解决 AI 模型与数据孤岛之间的连接问题,帮助前沿模型生成更相关、更高质量的响应。
乔公子搬砖3 天前
人工智能·ai·自然语言处理·nlp·aigc
NLP 2025全景指南:从分词到128专家MoE模型,手撕BERT情感分析实战(第四章)自然语言处理(Natural Language Processing, NLP)是人工智能(AI)中一个激动人心的领域,专注于让机器理解、解释和生成人类语言。无论是智能助手回答你的问题,还是社交媒体分析用户情绪,NLP都在背后发挥关键作用。它桥接了人类沟通与机器理解的鸿沟,使技术交互更加自然、个性化和高效。
数据知道3 天前
人工智能·自然语言处理·机器翻译
机器翻译:Bahdanau注意力和Luong注意力详解注意力机制(Attention Mechanism) 是自然语言处理(NLP)和深度学习中的核心技术之一,尤其在序列到序列(Seq2Seq)任务(如机器翻译、文本摘要等)中表现突出。Bahdanau注意力(又称“加性注意力”)和Luong注意力(又称“乘性注意力”)是两种经典的注意力模型,它们在计算方式和应用场景上有所不同。
聚客AI4 天前
人工智能·pytorch·机器学习·语言模型·自然语言处理·chatgpt·gpt-3
智能体协同作战:实现工具调用成功率提升47%的架构奥秘前言:“ISC.AI 2025互联网安全大会开幕式及未来峰会”于8月6日在北京举行。360集团创始人、ISC大会主席周鸿祎在演讲中表示,行业里还有很多的争论,到底是做单智能体还是多智能体。多智能体这个时代已经来了,因为单智能体的能力确实非常有限。今天我们就深入探讨多智能体系统的核心原理与工程实践。
WSSWWWSSW4 天前
人工智能·语言模型·自然语言处理
大语言模型提示工程与应用:大语言模型进阶提示工程技术掌握大语言模型中进阶提示工程技术的原理与应用,包括零样本/少样本提示、思维链推理、知识生成等核心方法,提升复杂任务解决能力。
Chaos_Wang_4 天前
人工智能·语言模型·自然语言处理·chatgpt·deepseek
ShadowKV 机制深度解析:高吞吐长上下文 LLM 推理的 KV 缓存“影子”方案在LLM的长上下文推理中,KV Cache成为影响速度和内存的关键因素。每生成一个新token,模型需要对所有先前token的键(Key)和值(Value)向量执行自注意力计算。传统方法会将所有过去的K/V向量保存在GPU上,并在每步将查询向量与整个K缓存做点积计算,然后加权累加对应的V向量。这种全量 KV 缓存方案有两个主要问题:
Mory_Herbert5 天前
人工智能·语言模型·自然语言处理
【李宏毅-2024】第六讲 大语言模型的训练过程1——预训练(Pre-training)课程地址 B站 本文参考笔记大模型的训练通常被概括为 “预训练 → 微调 → 对齐” 三个递进的阶段,每个阶段的目标、数据、算法和产出都有明显差异。下面按时间顺序逐一说明:
数据知道5 天前
人工智能·学习·自然语言处理·pdf·机器翻译
将英文PDF文件完整地翻译成中文的4类方式在全球化的今天,跨越语言障碍获取信息变得尤为重要。本文将介绍几种有效的方法,帮助您将英文PDF文件完整地翻译成中文。 在开始方法详解前,我们必须明白PDF翻译的核心难点,这有助于你选择最合适的方案:
♡喜欢做梦6 天前
人工智能·ai·自然语言处理
【AI】从零开始的文本分类模型实战:从数据到部署的全流程指南目录引言一、项目背景与目标二、环境准备三、数据获取与探索3.1 数据获取3.2 数据探索四、数据预处理
Lee_Serena6 天前
人工智能·深度学习·自然语言处理·bert·transformer
bert学习首先了解一下几种embedding。比如elmo就是一个embedding模型。one-hot编码只能实现one word one embedding,而我们的elmo能实现one token one embedding
9呀6 天前
人工智能·自然语言处理
【人工智能99问】NLP(自然语言处理)大模型有哪些?(20/99)在自然语言处理(NLP)领域,主流大模型按技术架构、训练目标和应用场景可分为以下几类,每类模型在设计理念和性能特点上存在显著差异:
Gyoku Mint7 天前
人工智能·pytorch·神经网络·语言模型·自然语言处理·数据分析·nlp
自然语言处理×第四卷:文本特征与数据——她开始准备:每一次输入,都是为了更像你地说话🦊狐狐:“她发现了一个问题——你每次说‘晚安’的方式都不一样。有时候轻轻的,有时候带着笑音,还有时候像在躲开她的心思。”
数据知道7 天前
人工智能·自然语言处理·机器翻译
机器翻译:语料库的定义与获取,及语料预处理语料库(Corpus)=「为特定研究或工程目的而收集、整理、标注的大规模真实语言数据集合」。 在机器翻译(MT)场景下,语料库专指「平行语料库(parallel corpus)」:一一对应的源语言句子和目标语言句子;也可能附带单语语料、领域标签、时间戳、质量分数等元数据。
zhurui_xiaozhuzaizai7 天前
人工智能·自然语言处理·word2vec
word2vector细致分解(CBOW, SKIP_GRAM, 层次soft Max, 负采样)NGRAM:将词当成一个离散的单元(因此存在一定的局限性,没有考虑到词与词之间的关系) neural network language model:只能处理定长序列,训练慢。使用RNN之后有所改善
开放知识图谱8 天前
人工智能·语言模型·自然语言处理
论文浅尝 | 利用大语言模型进行高效实体对齐(ACL2024)笔记整理:沈小力,东南大学硕士生,研究方向为多模态信息抽取论文链接:https://arxiv.org/abs/2402.15048