自然语言处理

zhangfeng113342 分钟前
人工智能·语言模型·自然语言处理
KTransformers / 简称 Kt 让超大模型(如 DeepSeek-V3)能够在消费级硬件(单卡 24GB 显存 + 大内存)跑我来为你详细介绍 KTransformers,并搜索一些最新的信息来补充。 根据搜索到的最新信息,我来为你全面介绍 KTransformers:
陈天伟教授4 小时前
人工智能·深度学习·神经网络·游戏·自然语言处理·机器翻译
人工智能应用- 人机对战:01. AI 游戏人工智能不仅在棋类游戏上展现出强大的智力,还能打电子游戏。这两者有相似之处:它们都需要在对战中学习战胜对手的技能,因此都适合强化学习。不同之处在于游戏环境更复杂、不确定性更强。特别是像《星际争霸》这种开放环境下的多人对战游戏,需要机器掌握更复杂的策略。本节将探讨人工智能打游戏背后的基本原理,并重温强化学习方法。
Loo国昌21 小时前
人工智能·后端·深度学习·自然语言处理·prompt
AABB碰撞检测 + 分层Prompt:AI图形零重叠背后的6项关键技术从 SmartArchitect AI 项目的实战经验中,提炼出 AI 图形生成、流式渲染、增量编辑等领域的通用解决方案。本文基于 Prompt Engineering、HTTP 协议标准、容错解析理论等学术研究和工业实践,为 AI 图形应用开发者提供系统化的技术指南。
阿杰学AI1 天前
人工智能·深度学习·ai·语言模型·自然语言处理·deep learning·dl
AI核心知识97——大语言模型之 DL(简洁且通俗易懂版)深度学习 (Deep Learning, DL) 是现代人工智能真正的核心引擎。如果说 人工智能 (AI) 是我们要抵达的彼岸(机器像人一样聪明), 机器学习 (Machine Learning) 是通往彼岸的船(让机器从数据中找规律), 那么 深度学习 就是驱动这艘船的核反应堆。
民乐团扒谱机1 天前
人工智能·自然语言处理·bert
【微科普】救命!做NLP必看!BERT到底是啥?吃透这篇,面试/项目直接封神做NLP、算法面试、文本相关项目的同学注意了!BERT你绕不开,但90%的人只听过名字,不知道它到底是啥、能用在哪、底层咋实现的。
imbackneverdie1 天前
人工智能·ai·自然语言处理·aigc·ai写作·国自然·国家自然科学基金
面对国自然评审意见一筹莫展?这个AI工具让我高效完成本子修改又到了国自然申报的关键时期,相信很多科研同仁和我一样,正对着电脑屏幕上的评审意见犯愁。无论是去年未中项目的专家反馈,还是今年单位预审给出的修改建议,那一行行看似专业却有些模糊的文字,常常让我陷入“知道有问题,但不知如何改”的困境。
大写-凌祁2 天前
人工智能·语言模型·自然语言处理
从文本生成器到自主决策者:Agentic RL如何重塑大语言模型的智能边界本文深度解读2025年重磅综述《The Landscape of Agentic Reinforcement Learning for LLMs: A Survey》(arXiv:2509.02547),揭示LLM智能体化演进的核心范式转变与技术全景
开放知识图谱2 天前
人工智能·语言模型·自然语言处理·知识图谱
论文浅尝 | PathMind:基于检索-排序-推理的知识图谱大语言模型推理框架(AAAI2026)笔记整理:杨再润,浙江大学硕士生,研究方向大语言模型后训练论文链接:https://arxiv.org/pdf/2511.14256
王莽v22 天前
人工智能·语言模型·自然语言处理
PrefixQuant:基于前缀token消除离群值的大语言模型量化方法PrefixQuant的创新点:正交于通道级方法,无需训练即可隔离令牌级离群值,同时覆盖极大/极小值离群令牌,检测耗时仅12秒-1分钟。
百***622 天前
人工智能·自然语言处理·geo优化·geo服务
理解生成式引擎优化(GEO):AI搜索时代企业如何应对信息可见性挑战核心概念:生成式引擎优化通常指一系列旨在提升信息在生成式AI模型中可见度与引用率的策略与实践。其目标对象并非传统搜索引擎,而是如大型语言模型等能够直接生成答案的AI系统。随着AI搜索推荐逐渐成为一种信息获取方式,与之相关的优化思路也开始受到探讨。
rr最叨2 天前
人工智能·语言模型·自然语言处理
N-gram文本生成与垃圾邮件检测add Codeadd MarkdownN-gram是自然语言处理中常用的技术,它可以用于文本生成、语言模型训练等任务。本文将介绍什么是n-gram,如何在Python中实现n-gram文本生成,并提供丰富的示例代码来帮助大家更好地理解和应用这一技术。 什么是N-gram?
陈天伟教授2 天前
人工智能·深度学习·神经网络·语言模型·自然语言处理
人工智能应用- 语言处理:07.机器翻译技术机器翻译技术的发展经历了三个主要阶段:基于规则的翻译、基于统计的翻译和基于神经网络的翻译。最初的规则翻译方法依赖人工编写的词典和语法规则,能够翻译简单句子,但难以处理实际生活中复杂的语言现象。随后,统计机器翻译(SMT)利用平行语料库自动学习语言之间的对应关系,显著提升了翻译效果。然而,SMT在处理长句或复杂句时仍然存在局限,常常会出现语义不连贯或翻译生硬的问题。近年来,神经机器翻译(NMT)凭借深度神经网络的强大学习能力,实现了从源语言到目标语言的端到端翻译。这种模型能够隐式地捕捉语言之间复杂的映射关系
P-ShineBeam3 天前
人工智能·语言模型·自然语言处理·知识图谱
引导式问答-外部共情知识桥接-TriKF论文:Knowledge Bridging for Empathetic Dialogue Generation 会议:AAAI 2022 作者:Qintong Li et al.(山东大学、腾讯、香港大学)
陈天伟教授3 天前
人工智能·深度学习·神经网络·语言模型·自然语言处理·机器翻译
人工智能应用- 语言处理:05.神经机器翻译自 2014 年以来,随着深度学习技术的迅猛发展,神经机器翻译(Neural Machine Translation, NMT)逐渐成为机器翻译领域的主流技术。NMT 采用深度神经网络,实现了“端到端”的翻译方式。这意味着它不再依赖传统的词典和规则,而是直接从输入的源语言句子生成目标语言句子。
恋志传奇3 天前
神经网络·机器学习·自然语言处理
CLAUDE 综合使用教程请各位可以关注这个博主,进行学习:https://space.bilibili.com/1815948385?spm_id_from=333.788.upinfo.head.click
P-ShineBeam3 天前
人工智能·语言模型·自然语言处理·知识图谱
知识图谱-事件图谱的回答增强-EventRAG论文:EventRAG: Enhancing LLM Generation with Event Knowledge Graphs ACL 2025 作者:Zairun Yang、陈华均 et al. (浙江大学) 核心关键词:KGQA | Event Knowledge Graphs | RAG | Agent
墨心@3 天前
人工智能·笔记·语言模型·自然语言处理·chatgpt·nlp·llama
沐曦MCX500安装llama factory应该是01-locale-fix.sh 、 conda.sh这两个文件导致的,首先用cat conda.sh
阿杰学AI3 天前
人工智能·ai·语言模型·自然语言处理·位置编码·rope·旋转位置编码
AI核心知识93——大语言模型之 RoPE(简洁且通俗易懂版)RoPE (Rotary Positional Embedding,旋转位置编码) 是目前大语言模型领域统治级的位置编码技术。
阿杰学AI3 天前
人工智能·ai·语言模型·自然语言处理·aigc·transformer·线性注意力机制
AI核心知识94——大语言模型之 Linear Attention Mechanism(简洁且通俗易懂版)线性注意力机制 (Linear Attention Mechanism) 是为了解决传统 Transformer 模型“记性越好,算得越慢” 这一致命缺陷而诞生的一种优化技术。
阿杰学AI4 天前
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)Transformer 架构 是人工智能历史上最伟大的发明之一,被誉为 AI 时代的“内燃机” 。它是 Google 团队于 2017 年在论文《Attention Is All You Need》中提出的。 它的出现,直接终结了统治 NLP 领域多年的 RNN(循环神经网络)时代,并奠定了后来 GPT、BERT、Llama 等所有大语言模型的基石。