自然语言处理

第七序章1 天前
c语言·c++·自然语言处理·list
【C++STL】list的详细用法和底层实现🌟个人主页:第七序章🌈专栏系列:C++目录❄️前言:🌈一:介绍🌈二:list的创建☀️基本框架
大千AI助手1 天前
人工智能·语言模型·自然语言处理·llm·模型评估·truthfulqa·事实性基准
TruthfulQA:衡量语言模型真实性的基准本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
什么都想学的阿超1 天前
人工智能·语言模型·自然语言处理
【大语言模型 58】分布式文件系统:训练数据高效存储关键词:分布式文件系统、HDFS、Lustre、GlusterFS、数据本地性、I/O优化、存储架构、大数据存储、训练数据管理、存储性能调优
金井PRATHAMA1 天前
人工智能·自然语言处理·知识图谱
认知语义学隐喻理论对人工智能自然语言处理中深层语义分析的赋能与挑战本文章旨在深入探讨认知语义学,特别是概念隐喻理论(Conceptual Metaphor Theory, CMT),对人工智能(AI)领域中自然语言处理(NLP)的深层语义分析,尤其是隐喻分析,所产生的深远影响和关键启示。报告首先阐述了认知语义学将隐喻视为核心认知机制而非单纯修辞手法的革命性观点。随后,报告梳理了当前人工智能,特别是基于深度学习的NLP模型在处理隐喻时的主流方法及其固有的“黑箱”局限性。核心部分详细论述了认知语义学理论如何从提供理论基石、指导模型设计、增强可解释性及开辟新应用路径(如隐喻生
J_Xiong01171 天前
人工智能·语言模型·自然语言处理
【VLMs篇】07:Open-Qwen2VL:在学术资源上对完全开放的多模态大语言模型进行计算高效的预训练该论文的实现流程可以分解为数据准备、模型训练和评估三个核心阶段。输入 (Input):流转逻辑和数据流程 (Processing Logic & Data Flow):
苏苏susuus1 天前
人工智能·自然语言处理·transformer
NLP:Transformer之self-attention(特别分享3)Self-Attention 的核心思想是:让序列中的每一个词(元素)都能够“关注”到序列中的所有其他词(包括它自己),并根据相关性动态地聚合所有词的信息,从而得到一个新的、融入了全局上下文信息的表示。
这张生成的图像能检测吗2 天前
人工智能·计算机视觉·语言模型·自然语言处理·视觉语言模型
(综述)视觉任务的视觉语言模型论文题目:Vision-Language Models for Vision Tasks: A Survey(视觉任务的视觉语言模型:综述)
GRITJW2 天前
自然语言处理
注意力机制:从核心原理到前沿应用如果你关注人工智能,无论是惊艳世人的GPT-4,还是精准洞察你购物偏好的推荐引擎,它们的背后都有一个共同的技术基石——注意力机制 (Attention Mechanism)。
fanstuck2 天前
人工智能·语言模型·自然语言处理·nlp·prompt
Prompt提示工程上手指南(六):AI避免“幻觉”(Hallucination)策略下的Prompt这是本系列的第六篇文章,在这篇中我们需要了解并处理语言模型最为棘手的问题,也就是AI"幻觉”(Hallucination)问题。在大型语言模型和聊天机器人的世界里,"幻觉"现象指的是这些智能系统有时会基于给定的提示,创造出并不存在的信息或事实。简而言之,就是这些先进的AI在对话过程中可能会偶尔"脱轨",提供与问题无关的回答,或者讲述一些与现实不符的内容。这种现象反映了AI在理解和生成语言时,尽管它们通常表现出色,但有时仍会犯错或产生与期望不符的输出。
亚里随笔2 天前
人工智能·语言模型·自然语言处理·llm·rlhf·agentic
小型语言模型:智能体AI的未来?本文解读NVIDIA研究团队论文,颠覆“越大越好”的语言模型认知,论证小型语言模型(SLMs)在智能体AI(Agentic AI)中的性能、经济性与适配性优势,结合案例与迁移算法,为Agentic系统低成本部署提供思路,回应行业对LLM依赖的惯性挑战。
shizidushu3 天前
人工智能·学习·自然语言处理·微调·huggingface
Hugging Face NLP课程学习记录 - 3. 微调一个预训练模型安装Hugging Face的datasets模块:以下以一个批次(one batch)为例,说明了如何训练一个句子分类器(sequence classifier):
程序员ken3 天前
人工智能·语言模型·自然语言处理
深入理解大语言模型(5)-关于token到目前为止对 LLM 的描述中,我们将其描述为一次预测一个单词,但实际上还有一个更重要的技术细节。即 LLM 实际上并不是重复预测下一个单词,而是重复预测下一个 token 。对于一个句子,语言模型会
金井PRATHAMA3 天前
人工智能·自然语言处理·知识图谱
认知语义学中的象似性对人工智能自然语言处理深层语义分析的影响与启示本报告旨在系统性地探讨认知语义学中的核心概念——象似性(Iconicity),对于当前人工智能(AI)自然语言处理(NLP)领域,特别是深层语义分析的潜在影响与未来启示。象似性,即语言形式与其指代意义之间的非任意性相似关系,已被证实对人类的语言习得、认知加工和概念构建具有重要促进作用。然而,截至2025年9月,综合研究发现,尽管象似性在认知语言学界得到了广泛而深入的研究,但其在主流人工智能NLP模型(如Transformer架构)中的直接应用和实证研究仍处于一个显著的空白阶段。现有的大型语言模型(LLM)
陈敬雷-充电了么-CEO兼CTO3 天前
人工智能·自然语言处理·chatgpt·blip·clip·多模态大模型·gpt-5
突破多模态极限!InstructBLIP携指令微调革新视觉语言模型,X-InstructBLIP实现跨模态推理新高度注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
先做个垃圾出来………3 天前
人工智能·算法·机器学习·语言模型·自然语言处理
残差连接的概念与作用核心概念:残差连接是一种在深度神经网络(特别是非常深的网络)中使用的技术,它的核心思想是允许信息从较浅的层直接“跳跃”或“短路”到较深的层。它是由何恺明等人在2015年提出的ResNet(残差网络)中首次引入的,并彻底改变了深度学习的格局,使得训练成百上千层的超深网络成为可能。
金井PRATHAMA3 天前
人工智能·自然语言处理·知识图谱
认知语义学对人工智能自然语言处理的深层语义分析:理论启示与实践路径随着人工智能(AI)技术的飞速发展,自然语言处理(NLP)已成为其核心驱动力之一。然而,尽管以大型语言模型(LLMs)为代表的现代NLP系统在处理语言任务上取得了前所未有的成功,它们在实现真正意义上的“深层语义理解”方面仍面临瓶颈,尤其是在处理歧义、隐喻、常识和语境推理等复杂语言现象时。认知语义学作为一门探索人类语言、思维与经验之间关系的学科,其核心理论为突破当前NLP的语义困境提供了深刻的理论启示和全新的实践路径。本报告旨在深入剖析认知语义学的核心原则,阐述其如何为AI的深层语义分析提供理论基础,并探讨
搜搜秀4 天前
人工智能·自然语言处理·机器翻译
内存传输速率MT/s1 0 0 0 0 0 0 0 0 010 9 8 7 6 5 4 3 2 1十 亿 千 百 十 万 千 百 十 个
javastart4 天前
人工智能·自然语言处理·aigc
OpenRLHF:面向超大语言模型的高性能RLHF训练框架原文:https://blog.csdn.net/daqianai/article/details/149650048
金井PRATHAMA5 天前
人工智能·自然语言处理·知识图谱
认知语义学对人工智能自然语言处理深层语义分析的影响与启示随着大型语言模型(LLM)在自然语言处理(NLP)领域取得显著进展,人工智能(AI)的语言能力达到了前所未有的高度。然而,当前模型在深层语义理解、常识推理和世界知识方面仍面临瓶颈,常被批评为缺乏真正的“理解”。本报告旨在深入探讨认知语言学的重要分支——认知语义学(Cognitive Semantics),如何为解决AI在深层语义分析(Deep Semantic Analysis)方面的核心挑战提供理论基础、深远影响和关键启示。报告将首先阐述深层语义分析的目标与当前技术的局限,然后系统介绍认知语义学的核心理
星期天要睡觉5 天前
pytorch·深度学习·自然语言处理
深度学习——基于 PyTorch 的 CBOW 模型实现自然语言处理在自然语言处理(NLP)任务中,词向量(Word Embedding)是非常核心的概念。通过词向量,模型能够将离散的词语映射到连续的低维空间中,使得语义相近的词也能在向量空间中距离更近。本文将通过一个 基于 CBOW(Continuous Bag of Words)模型 的小示例,带领大家一步步理解词向量的构建与训练过程。