自然语言处理

aitoolhub27 分钟前
图像处理·人工智能·计算机视觉·自然语言处理·架构·视觉传达
在线设计技术实践:稿定设计核心架构与能力拆解随着数字化内容生产需求的爆发,在线设计工具已从通用化场景向行业垂直化、技术智能化方向演进。稿定设计作为聚焦商业在线设计的SaaS平台,其核心竞争力源于底层技术架构的优化与AI能力的深度落地。本文将从技术架构体系、核心技术能力拆解、开放平台与企业级实践三个维度,客观分析稿定设计在在线设计领域的技术实现逻辑,为技术开发者、产品架构师提供参考。全文基于官方公开技术文档与开放平台资料,不涉及商业营销表述。
BitaHub20241 小时前
人工智能·语言模型·自然语言处理
文献分享 | Meta CLIP 2 来了:打破多语言瓶颈的全球化视觉-语言模型自 CLIP 问世以来,它已经成为视觉-语言领域的重要基石,不仅在零样本分类与检索中表现优异,还被广泛用作多模态大模型的视觉编码器。然而,现有 CLIP 模型大多依赖英文数据训练,面对占全球网页内容 50.9% 的非英文数据(Wikipedia, 2025),却难以有效利用,即便有多语言版本(如 mSigLIP、SigLIP 2),也普遍存在一个问题——一旦引入非英语数据,英语性能反而下降,这种现象被称为 “多语言诅咒(curse of multilinguality)”。
Hcoco_me1 小时前
人工智能·深度学习·学习·自然语言处理·transformer
大模型面试题43:从小白视角递进讲解大模型训练的梯度累加策略要理解梯度累加,先明确一个核心前提:batch_size(批次大小)直接决定模型训练的稳定性。如果直接「缩小batch_size」(比如从32降到8、4),梯度会变得非常“抖”(方差大),模型训练时损失值忽高忽低,甚至根本收敛不了。这时候,梯度累加就成了大模型训练的“救星”——它能在「显存只能装下小batch」的前提下,模拟出大batch的训练效果。
狮子座明仔2 小时前
人工智能·深度学习·ai·语言模型·自然语言处理
CiteFix: 通过后处理引用校正提升RAG系统准确率检索增强生成(Retrieval-Augmented Generation, RAG)已成为大语言模型在企业级应用中的核心范式。然而,RAG系统存在一个被广泛忽视但影响深远的问题:LLM生成的响应中引用准确率严重不足。
云蝠呼叫大模型联络中心2 小时前
人工智能·深度学习·神经网络·自然语言处理·nlp·语音识别·信息与通信
BATH不再一家独大?深入测评2026大模型呼叫市场新秩序云蝠智能创始人魏佳星在介绍其VoiceAgent时,看到AI在反诈劝阻中协助避免数亿经济损失,他感慨道,“作为一个两岁孩子的父亲,我觉得我做的事情,值了”。这种由技术温度驱动的创新,正在重新定义智能外呼的本质。
Hcoco_me2 小时前
人工智能·深度学习·自然语言处理·transformer·word2vec
大模型面试题44:注意力机制的三代进化MHA/MQA/GQAMHA/MQA/GQA这三者是Transformer架构注意力机制的三代形态,核心逻辑是 「效果与效率的权衡」 ——从「追求最好效果」的MHA,到「追求极致速度」的MQA,再到「平衡效果与速度」的GQA。
P-ShineBeam3 小时前
人工智能·语言模型·自然语言处理·知识图谱
知识图谱-KGQA意图澄清-CLEAR_KGQA论文:CLEAR-KGQA: Clarification-Enhanced Ambiguity Resolution for Knowledge Graph Question Answering arXiv 2025 Apr 作者:Liqiang et al. (北京大学 Peking University) 核心关键词:KGQA | clarification | disambiguation | Agent
Watermelo6173 小时前
数据结构·人工智能·语言模型·自然语言处理·数据挖掘·数据分析·json
TOON:一种为大模型设计的JSON压缩型数据结构目录TOON:一种为大模型设计的JSON压缩型数据结构一、精准定义,什么是 TOON?1、JSON 数据格式的局限性
小陈phd1 天前
人工智能·语言模型·自然语言处理
大语言模型实战(十四)——MCP Prompts提示系统深度解析:构建智能提示模板库与LLM集成方案《MCP Prompts提示系统深度解析:构建智能提示模板库与LLM集成方案》在AI应用开发中,我们经常需要为不同的任务编写特定的提示词。但问题是:这些提示词通常是硬编码在代码里,难以复用、难以管理、难以动态调整。
思通数科x1 天前
图像处理·人工智能·深度学习·目标检测·机器学习·计算机视觉·自然语言处理
传统监控事后难追责?AI 违规识别智能系统让响应时间缩短痛点直击:2023年全国商业街区安全事件60%源于车辆违规(消防通道占停、逆行穿行),30%源于人员异常(斗殴、明火、夜间滞留)。传统监控“事后调取”,安保巡逻覆盖率<40%,响应时间平均7分钟,事故发生后“追责容易、预防难”。
小陈phd1 天前
人工智能·语言模型·自然语言处理
大语言模型实战(十三)——MCP工具系统完全指南:从零构建AI可调用的工具生态(FastMCP+LLM工具调用循环)《MCP工具系统完全指南:从零构建AI可调用的工具生态(FastMCP+LLM工具调用循环)》当前AI应用面临一个核心痛点:LLM虽然能理解用户需求,但无法直接执行复杂的业务逻辑。传统方案是硬编码工具调用逻辑,导致代码耦合度高、扩展性差。
郝学胜-神的一滴1 天前
人工智能·python·程序人生·ai·自然语言处理·scikit-learn
文海撷英,数林建模:词袋模型之奥义与中文处理实践夫人工智能之兴,浩浩汤汤;机器学习之用,郁郁苍苍。欲教机器识文断字,必先化锦绣文章为数字矩阵,此特征提取之要义也。
Francek Chen1 天前
人工智能·pytorch·深度学习·神经网络·自然语言处理
【自然语言处理】应用05:自然语言推断:使用注意力【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈PyTorch深度学习 ⌋ ⌋ ⌋ 深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现
小陈phd1 天前
人工智能·语言模型·自然语言处理
大语言模型实战(十五)——MCP Sampling采样请求完全解析:LLM参数微调与人工干预的完美融合《MCP Sampling采样请求完全解析:LLM参数微调与人工干预的完美融合》在之前的案例中,我们学到了如何定义工具、发现资源、管理提示词。但有一个更深层的问题:当我们让LLM生成内容时,如何对生成过程进行精细控制?
natide1 天前
人工智能·深度学习·机器学习·自然语言处理·nlp
图结构差异-1-邻域重叠率(Neighborhood Overlap)邻域重叠率是图论/网络分析中的核心指标,用于衡量两个节点在网络中“共享邻居”的程度,本质是量化节点间的结构相似性。
のハス1 天前
人工智能·语言模型·自然语言处理·llm·agent
Chapter 3: 大语言模型基础 Part 1:从 N-gram 到词嵌入前两章分别介绍了智能体的定义和发展历史。本章将完全聚焦于大语言模型(LLM)本身,从最基础的原理出发,解答“现代智能体是如何思考的”这一关键问题。
不错就是对2 天前
人工智能·深度学习·神经网络·自然语言处理·chatgpt·transformer·vllm
【agent-lightning】 - 2_使用 Agent-lightning 训练第一个智能体源代码仓库:agent-lightning 源代码仓库论文链接:Agent Lightning 论文个人代码仓库:agent-lightning 个人仓库
imbackneverdie2 天前
人工智能·自然语言处理·aigc·科研·ai写作·学术·国家自然科学基金
从零到一,如何用AI高效构建国自然申请书初稿?对于每一位准备申报国家自然科学基金的科研人员而言,最核心、也最耗时的挑战,莫过于从一张白纸开始,构建一份逻辑严密、论证充分、格式规范的申请书初稿。这个过程往往意味着数周甚至数月的文献海选、思路反复推敲和逐字逐句的艰难撰写。
hans汉斯2 天前
算法·机器学习·3d·自然语言处理·机器人·硬件架构·汉斯出版社
【人工智能与机器人研究】自动移液设备多轴运动控制系统设计针对生物医学实验室对低成本、高精度自动化设备的迫切需求,设计并开发了一种基于G-code (G代码)的多轴脉冲时序控制的自动移液系统。系统采用模块化架构,以MKS Monster8 V2为主控制器,搭载定制化Marlin固件,集成6个42步进电机,通过推导脉冲–位移–速度关系并以时间基准计算各轴脉冲频率。软件中计算旋转、升降、移液、XYZ轴移动等多轴的同步插补,生成G-code并下发到主控制器,主控制器解释命令并控制电机运动,从而完成生物样本冻存管的开盖/关盖及高精度移液操作。系统采用TMC2209驱动器
绒绒毛毛雨2 天前
人工智能·语言模型·自然语言处理
Advancing Table Understanding of Large Language Models via Feature Re-ordering大型语言模型(LLMs)在理解人类语言方面表现出卓越的能力。尽管它们在各种任务中取得了显著成功,但对表格数据的理解仍然是一大挑战。尤其是,表格数据的不同特征(表字段)之间缺乏内在顺序,而LLMs只能接受序列化的输入。因此,必须人为地强加一种顺序,但这种顺序对LLMs性能的影响尚未被充分研究。