自然语言处理

玄同7653 小时前
开发语言·数据库·人工智能·python·postgresql·自然语言处理·nlp
Python「焚诀」:吞噬所有语法糖的终极修炼手册「焚诀」是网络小说《斗破苍穹》中的顶级功法,核心特性是「吞噬异火进化」—— 这与 Python 语法糖的本质完美契合:Python 语法糖是在「不改变核心语法规则」的前提下,通过简化书写方式吞噬复杂代码逻辑,让开发者用更少的代码实现更强的功能。
老鱼说AI4 小时前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·boosting
论文精读第七期:告别昂贵的人工标注!Math-Shepherd:如何用“零成本”自动化过程监督,让大模型数学能力暴涨?大模型做数学题总是“一步错,步步错”?大家都知道“过程奖励模型(PRM)”效果好,但动辄几十万条的人工标注数据实在太贵了。 今天这篇博客将带你深度拆解北大与 DeepSeek 联合推出的 Math-Shepherd。它不仅提出了一种无需人类介入、基于蒙特卡洛思想的自动化数据构造方法,更在 GSM8K 和 MATH 榜单上全面碾压了传统方法。这不仅是数学推理的胜利,更是数据工程的一次教科书级示范。无论你是想复现 SOTA 效果,还是想寻找低成本提升模型逻辑能力的方案,这篇文章都不容错过。
aspxiy5 小时前
人工智能·语言模型·自然语言处理·知识图谱
知识求解器:教会大型语言模型从知识图谱中搜索领域知识【在某些特定领域场景中(如医学领域,科研领域),LLMs缺乏特定领域的知识,或者无法正确回忆事实和知识,这会导致幻觉。(幻觉指的是模型生成的文本毫无意义,或者与提供的输入不一致)从而产生不可想象的后果。(如在医学领域,无法正确对患者的症状推荐相应的药物,从而影响生命安全。)所以本文基于此,旨在教会大型语言模型从知识图谱中搜索领域知识。】
莱昂纳多迪卡普利奥10 小时前
人工智能·语言模型·自然语言处理
LLM学习指南(五)——大语言模型(LLM)涌现能力(Emergent Abilities)上下文学习(In-context Learning)指令遵循(Instruction Following)
_ziva_11 小时前
人工智能·深度学习·自然语言处理
大模型分词算法全解析:BPE、WordPiece、SentencePiece 实战对比分词(Tokenization)是大模型处理文本的第一步,相当于给模型 “拆分语言积木”—— 不同的拆分方式,直接影响模型的理解效率、显存占用和生成效果。
xixixi7777711 小时前
人工智能·ai·语言模型·自然语言处理·大模型·claude·主流模型
解析 Claude模型 —— Anthropic公司打造,以安全性和推理能力为核心竞争力的顶尖大语言模型Claude并不单纯追求规模最大或速度最快,而是围绕一个“三位一体”的核心目标构建:有用:在复杂推理、编程、写作和多模态任务上表现卓越。
2501_9481201514 小时前
人工智能·语言模型·自然语言处理
基于大语言模型的教育舆情分析系统随着互联网技术的迅猛发展,信息传播速度和广度达到了前所未有的高度。教育领域作为社会发展的基石,其舆情状况直接关系到教育事业的健康发展。以下是对研究背景及意义的详细阐述:
赋创小助手15 小时前
服务器·人工智能·深度学习·神经网络·语言模型·自然语言处理·tensorflow
NVIDIA H100与GH200选型指南:AI与HPC负载的硬件适配方案随着 AI 模型规模持续扩大、推理吞吐要求不断提高,以及数据处理流程日益复杂,算力硬件的选择早已不再只是“算力大小”的问题。显存容量、内存带宽、CPU 与 GPU 的协同效率,以及系统级架构设计,正在成为决定 AI 与 HPC 工作负载性能上限的关键因素。
yuezhilangniao15 小时前
人工智能·语言模型·自然语言处理
ai开发 名词解释-概念理解-LLMs(大语言模型)Chat Models(聊天模型)Embeddings Models(嵌入模型).市面上的模型多如牛毛,各种各样的模型不断出现,LangChain模型组件提供了与各种模型的集成,并为所有模型提供一个精简的统一接口。 LangChain目前支持三种类型的模型:LLMs(大语言模型)、Chat Models(聊天模型)、Embeddings Models(嵌入模型).
CCPC不拿奖不改名1 天前
开发语言·人工智能·python·学习·自然语言处理·面试·职场和发展
python基础面试编程题汇总+个人练习(入门+结构+函数+面向对象编程)--需要自取该Python程序包含多个功能模块,主要涵盖以下内容:基础计算功能:数字处理函数(读取数字、计算平均值)文件操作(读写、追加、定位)数学计算(圆面积、周长、闰年判断)
isAchilles2 天前
人工智能·自然语言处理
NLP入门:分词化与词表映射详解Tokenization 是 NLP 中将文本切分为最小处理单元(token)的过程,是所有语言模型的第一步。
赋创小助手2 天前
运维·服务器·人工智能·深度学习·神经网络·自然语言处理·架构
超微2U高密度服务器AS-2126HS-TN评测(双AMD EPYC 9005 Turin)最近我们拿到了超微基于AMD Turin架构的双路A+服务器AS-2126HS-TN——这款2U机型主打“超高核心数负载支持”与“灵活PCIe扩展”,瞄准企业级虚拟化、软件定义存储、AI推理、HPC等场景。今天就从设计、配置、实测性能三个维度,拆解它到底适不适合你的算力需求。
Rabbit_QL2 天前
人工智能·语言模型·自然语言处理
【LLM背景】语言模型简史:从概率统计到通用智能接口近年来,“大语言模型(Large Language Model,LLM)”成为人工智能领域中出现频率最高的关键词之一。
分享牛2 天前
人工智能·语言模型·自然语言处理
LangChain4j从入门到精通-3-聊天与语言模型本文深入解析了LangChain4j框架中与大型语言模型(LLM)交互的核心底层API——ChatModel。作为渐趋淘汰的LanguageModel的现代化替代方案,ChatModel支持更复杂的多轮对话场景,通过接受多个ChatMessage作为输入并返回AiMessage,为开发者提供了更强大的交互能力。文章系统介绍了五种核心ChatMessage类型(UserMessage、AiMessage、SystemMessage等)及其应用场景,并通过丰富Java代码示例演示了如何进行多轮对话、支持多模态
renhongxia12 天前
人工智能·信息可视化·语言模型·自然语言处理·数据分析
多模型协作定律:大型语言模型模型集成的缩放极限近年来,大语言模型(LLMs)的进展主要受单模型扩展定律的推动,该定律预测随着模型参数量和数据量的增长,性能会相应提升。然而,任何单一LLM的能力都存在内在的局限。一种解决方案源自多个LLM之间复杂的交互作用,使得它们的集体性能能够超越其中任何一个单独模型。尽管模型路由、事后集成等多模型集成技术快速涌现,但目前仍缺乏一个关于多模型协作性能扩展的统一理论框架。
SCKJAI2 天前
人工智能·机器学习·计算机视觉·自然语言处理·自动驾驶
突破边界,智联未来:赋能远程控制新体验突破边界,智联未来AIR SC6N0-C 赋能远程控制新体验在机器人巡检的道路之上,在自动驾驶的智能座舱之中,在每一次需要毫秒级响应的远程控制场景里,低延迟、高画质的实时传输,早已成为技术突破的核心命题。视程空间AIR SC6N0-C基于 Orin™ NX 平台构建而来,正是为打破这一技术瓶颈而生的硬核解决方案。
肥猪猪爸2 天前
人工智能·深度学习·神经网络·机器学习·自然语言处理·nlp
NLP中BIO标签浅析BIO 标签(BIO Tagging) 是自然语言处理(NLP)中用于 序列标注任务(Sequence Labeling) 的一种经典标注方案,主要用于 命名实体识别(NER)、词性标注(POS)、分块(Chunking) 等任务。
蓝海星梦2 天前
论文阅读·人工智能·自然语言处理·大语言模型·强化学习
【强化学习】深度解析 GSPO:解决 GRPO 中优化目标与奖励不匹配的问题强化学习(RL)在大规模语言模型的训练中逐渐成为关键技术,但随着模型规模的扩大和任务复杂度的增加,现有算法(如GRPO)常常在训练过程中出现稳定性问题,特别是在长响应生成时。这是因为GRPO依赖于token级别的奖励和重要性比率,在长序列中容易导致噪声累积,进而引发模型崩溃。
范桂飓2 天前
人工智能·深度学习·自然语言处理·transformer
Transformer 大模型架构深度解析(1)NLP 自然语言处理文本表示方法NLP(Natural Language Processing,自然语言处理)是 AI 领域的一个重要分支,旨在使计算机能够理解和处理人类语言,实现人机之间的自然交流。
范桂飓2 天前
人工智能·rnn·自然语言处理·transformer
Transformer 大模型架构深度解析(2)RNN 循环神经网络模型在 NLP 中的应用序列是数据点或事件的有序列表。与独立的图像或表格数据不同,序列数据中的元素具有内在的顺序和时间依赖性。 典型的例子包括:自然语言文本、语音、视频、股票价格、天气读数或传感器数据等。在 NLP 领域,文本翻译、语音识别等场景都离不开对序列数据的处理。