自然语言处理

NGBQ121383 天前
人工智能·自然语言处理·媒体
Imgflip社交媒体表情包数据集-202208条多模板meme数据-包含完整图片URL和文本说明-适用于NLP模型训练和社交媒体分析在社交媒体时代,表情包(Meme)已成为一种全球性的数字文化现象,不仅是人们日常交流的重要工具,也是反映社会热点、文化趋势和用户心理的重要载体。随着人工智能技术的发展,尤其是自然语言处理(NLP)和计算机视觉(CV)领域的进步,表情包数据分析已成为研究社交媒体文化、开发智能内容生成系统和理解用户行为的重要方向。
homelook3 天前
人工智能·自然语言处理·transformer
Transformer架构,这是现代自然语言处理和人工智能领域的核心技术。Transformer由Vaswani等人在2017年的论文《Attention Is All You Need》中提出,彻底改变了深度学习领域。
赋创小助手3 天前
运维·服务器·人工智能·深度学习·自然语言处理·硬件架构
服务器主板为何不再采用ATX?以超微X14DBM-AP 为例解析在很多人的印象中,主板形态基本都是ATX、EATX 这些标准规格,拥有整齐排列的 PCIe 插槽和标准 24Pin 供电接口。但在服务器领域,这套规则早就被打破了。
摘星编程3 天前
人工智能·语言模型·自然语言处理
大语言模型(Large Language Models,LLM)如何颠覆未来:深入解析应用、挑战与趋势大型语言模型(LLM)正以惊人的速度重塑技术格局。本文将从技术原理、行业应用、核心挑战和未来趋势四个维度,深度解析这场AI革命。你将了解Transformer架构的工程精妙之处,掌握LangChain等工具的实战应用,看清数据隐私与伦理问题的解决路径,并预判多模态融合的技术走向。文中包含5个可直接运行的代码案例、3个架构图解和行业应用对比表,助你在AI浪潮中建立系统认知框架。
小陈phd4 天前
人工智能·机器学习·自然语言处理
多模态大模型学习笔记(六)——多模态全景认知多模态技术的发展是人工智能从“单一信息认知”向“类人多维度协同认知”的核心演进过程,本节将从核心概念界定、模态与数据类型、关键边界厘清、技术演进脉络四个维度,系统梳理单模态到多模态的发展逻辑,形成完整的知识框架。
taoqick4 天前
人工智能·机器学习·自然语言处理
修改GRPO Advantages的一些思路(pass@k)来自https://arxiv.org/pdf/2503.19595,在VeRL直接写了下面的code,这个code本质是最高分和次高分之间有gap就有Advantage(Advantage不为0),否则就没有advantages(Advantage为0)。文章对这个最高分和次高分怎么来的做了一些解释,首先定义了leave-one-out advantages estimate: 文章接下来讨论了Average reward、pass@k、Majority voting这几种情况,对于pass@k来说,排
云器科技4 天前
大数据·人工智能·自然语言处理·数据平台·湖仓平台
云器Lakehouse新版本特性解读:MCP Server —— AI 数据工程师的深度解析与实战指南人与数据的交互方式正在经历一场深刻的重构。云器Lakehouse始终坚信在AI驱动的自动化浪潮下:AI应被赋予更核心的能力。为了顺应这一趋势,继云器Lakehouse v1.3版本奠定AI语义层与存储层全面增强Iceberg生态双向集成能力,今天,云器Lakehouse Studio(v1.9.4)正式推出MCP-Server——我们将AI可直接操作Lakhehouse的工具库扩充至45个,这意味着,我们进一步赋予AI Agent直接操作数据湖仓的“双手”,让“对话式数据工程”从概念真正走向落地。
陈天伟教授4 天前
人工智能·深度学习·机器学习·自然语言处理·bert·推荐算法
人工智能应用- 预测化学反应:06. BERT 模型简介图 : 自然语言处理领域中的 BERT 模型BERT(Bidirectional Encoder Representations from Transformers)是一种深度学习模型,最初应用于自然语言处理领域。该模型的核心思想是对输入文本进行双向编码,从而提高对上下文语义的理解能力。
Loo国昌4 天前
人工智能·python·安全·自然语言处理·中间件·prompt
【AI应用开发实战】Guardrail风险控制中间件:Agent系统的安全防线一句话摘要:通过多层中间件架构实现金融Agent系统的风险控制,包括敏感词检测、PII脱敏、SQL注入防护、预算限制和合规性检查,确保系统输出的安全性和合规性。
小龙报5 天前
人工智能·语言模型·自然语言处理·性能优化·数据分析·知识图谱·需求分析
【Coze-AI智能体平台】Coze 工作流 = 智能体的 “流程管家”?一文解锁自动化落地新玩法🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人方向学习者 ❄️个人专栏:《coze智能体开发平台》 ✨ 永远相信美好的事情即将发生
Loo国昌5 天前
大数据·人工智能·后端·python·自然语言处理·prompt
【AI应用开发实战】09_Prompt工程与模板管理:构建可演进的LLM交互层一句话摘要:本文深入解析StockPilotX中的Prompt注册表设计、三层模板架构、版本管理与A/B测试机制,展示如何将Prompt从"硬编码字符串"升级为"可追溯、可测试、可演进"的工程化资产。
Loo国昌5 天前
人工智能·后端·python·语言模型·自然语言处理·prompt
【AI应用开发实战】06_向量存储与EmbeddingProvider设计一句话摘要:深入解析RAG系统中向量存储与Embedding提供者的设计实现,涵盖FAISS内积索引原理、本地哈希向量与远程Embedding对比、维度适配与归一化处理、批处理优化等核心技术。
vm325 天前
人工智能·ai·自然语言处理·开源
01:Agent Loop 深度剖析:ReAct 循环的工程实现Agent Loop 是 CountBot 的核心引擎,实现了经典的 ReAct(Reasoning + Acting)循环模式。本文将深入分析其工程实现,探讨如何将学术概念转化为可靠的生产代码。
小雨中_5 天前
人工智能·深度学习·机器学习·自然语言处理
1.1 模型显存总体分析在训练/推理大模型时,GPU 显存并不是“全部都给模型用”。一部分显存会被 AI 框架(如 PyTorch/CUDA runtime/通信库)占用,另一部分则由 系统/驱动 保留,用于上下文、内核态缓冲、显存页管理、ECC、显示/持久化守护进程等。因此,同一张 GPU 上“理论可用显存”和“实际可用显存”常常不一致。
qq_404418955 天前
人工智能·自然语言处理
nlp基础概念NLP 核心任务是通过计算机程序来模拟人类对语言的认知和使用过程 NLP技术使得计算机能够执行各种复杂的语言处理任务,如中文分词、子词切分、词性标注、文本分类、实体识别、关系抽取、文本摘要、机器翻译、自动问答等。这些任务不仅要求计算机能够识别和处理语言的表层结构,更重要的是可以理解语言背后的深层含义,包括语义、语境、情感和文化等方面的复杂因素。
一个努力编程人6 天前
人工智能·自然语言处理
NLP领域————T5算法T5(Text-To-Text Transfer Transformer)的核心是把所有 NLP 任务统一成 “文本输入→文本输出” 的生成任务,比如:
Loo国昌6 天前
人工智能·后端·python·语言模型·自然语言处理·金融·知识图谱
【AI应用开发实战】05_GraphRAG:知识图谱增强检索实战一句话摘要:本文深入解析 GraphRAG(Graph Retrieval-Augmented Generation)技术原理,基于 StockPilotX 项目实战,讲解如何通过 Neo4j 图数据库和内存图存储实现知识图谱增强检索,构建三元组关系模型,并通过子图查询和关系推理提升金融分析的准确性和可解释性。
lisw056 天前
人工智能·语言模型·自然语言处理
双重过程理论与大型语言模型中的决策!这是一个将认知心理学的经典理论与前沿人工智能模型相结合的绝佳议题。双重过程理论为理解LLM的决策机制提供了一个极具启发性的分析框架。
一个努力编程人6 天前
人工智能·自然语言处理·bert
NLP 领域————BERT算法BERT(Bidirectional Encoder Representations from Transformers)的核心是:用双向自注意力机制,基于 “掩码语言模型(MLM)” 和 “下一句预测(NSP)” 预训练,让模型理解文本的上下文语义。关键概念拆解:
大模型任我行6 天前
人工智能·语言模型·自然语言处理·论文笔记
谷歌:预训练到微调的知识迁移规律📖标题:The Magic Correlations: Understanding Knowledge Transfer from Pretraining to Supervised Fine-Tuning 🌐来源:arXiv, 2602.11217v1