自然语言处理

weixin_435208161 天前
人工智能·python·算法·自然语言处理·面试·nlp·aigc
通过 Markdown 改进 RAG 文档处理作者:Tableau原文地址:https://zhuanlan.zhihu.com/p/29139791931
Chaos_Wang_1 天前
人工智能·自然语言处理·transformer
NLP高频面试题(三十三)——Vision Transformer(ViT)模型架构介绍Transformer架构在自然语言处理领域取得了显著成功,激发了研究人员将其应用于计算机视觉任务的兴趣。Vision Transformer(ViT)应运而生,成为图像分类等视觉任务中的新兴架构。本文将介绍ViT的基本架构、工作原理,并与传统的卷积神经网络进行比较。
weixin_435208162 天前
人工智能·语言模型·自然语言处理
论文浅尝 | Interactive-KBQA:基于大语言模型的多轮交互KBQA(ACL2024)转载至:何骏昊 开放知识图谱原文地址:论文浅尝 | Interactive-KBQA:基于大语言模型的多轮交互KBQA(ACL2024)
姚瑞南2 天前
人工智能·自然语言处理·chatgpt·prompt·aigc
从模糊感知到量化评估:构建一个Prompt打分工具本文原创作者:姚瑞南 AI-agent 大模型运营专家,先后任职于美团、猎聘等中大厂AI训练专家和智能运营专家岗;多年人工智能行业智能产品运营及大模型落地经验,拥有AI外呼方向国家专利与PMP项目管理证书。(转载需经授权)
人工智能培训咨询叶梓2 天前
人工智能·语言模型·自然语言处理·性能优化·调优·大模型微调·llama factory
LLAMAFACTORY:一键优化大型语言模型微调的利器想要掌握如何将大模型的力量发挥到极致吗?叶梓老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具(限时免费)。
sauTCc2 天前
人工智能·语言模型·自然语言处理
N元语言模型的时间和空间复杂度计算对于N元语言模型,时间复杂度是O(V ^ {N-1}),空间复杂度是O(V ^ {N}),N是词汇表的大小。
鸿蒙布道师3 天前
人工智能·深度学习·神经网络·opencv·自然语言处理·openai·deepseek
OpenAI战略转向:开源推理模型背后的行业博弈与技术趋势目录导言:AI开源生态的重大转折点OpenAI开源决策的深度解读官方声明关键点梳理技术定位:开放权重的内涵与外延
pen-ai3 天前
人工智能·自然语言处理·动态规划
【NLP】15. NLP推理方法详解 --- 动态规划:序列标注,语法解析,共同指代动态规划(Dynamic Programming,简称 DP)是一种通过将问题分解为较小子问题来优化计算效率的技术。它特别适用于优化最优解问题,比如序列标注(sequence tagging)这类任务。
Chaos_Wang_3 天前
人工智能·自然语言处理
NLP高频面试题(二十九)——大模型解码常见参数解析在大语言模型的实际应用中,如何更有效地控制文本生成的质量与多样性,一直是热门研究话题。其中,模型解码(decode)策略至关重要,涉及的主要参数包括 top_k、top_p 和 temperature 等。本文将详细介绍这些常见参数,帮助读者更深入地理解并高效地应用。
Toky丶3 天前
人工智能·语言模型·自然语言处理
【文献阅读】Vision-Language Models for Vision Tasks: A Survey发表于2024年2月TPAMI大多数视觉识别研究在深度神经网络(DNN)训练中严重依赖标注数据,并且通常为每个单一视觉识别任务训练一个DNN,这导致了一种费力且耗时的视觉识别范式。为应对这两个挑战,视觉语言模型(VLM)最近受到了广泛研究,它从互联网上几乎无限可用的网络规模图像文本对中学习丰富的视觉语言相关性,并能够使用单个VLM对各种视觉识别任务进行零样本预测。本文对用于各种视觉识别任务的视觉语言模型进行了系统综述,包括:(1)介绍视觉识别范式发展的背景;(2)VLM的基础,总结广泛采用的网络架构、预训
小白狮ww3 天前
开发语言·人工智能·算法·matlab·自然语言处理·图像识别·去雾处理
Retinex 算法 + MATLAB 软件,高效率完成图像去雾处理在计算机视觉领域,图像去雾是一项重要的预处理任务,尤其是在自动驾驶、遥感图像分析以及监控系统中,去雾能够有效提升图像质量,使目标更加清晰可见。本项目采用 Retinex 算法进行图像去雾,并结合 GPU 加速以提高计算效率。 Retinex 算法原理: Retinex (Retina + Cortex) 是 Land 和 McCann 提出的图像增强算法,主要基于人眼视觉系统对亮度变化的适应性。Retinex 算法的核心思想是:
Chaos_Wang_3 天前
人工智能·自然语言处理·llama
NLP高频面试题(三十)——LLama系列模型介绍,包括LLama LLama2和LLama3本文深入介绍Meta推出的LLama系列模型,包括LLama、LLama2和LLama3,探讨了它们的技术创新、应用场景以及对大语言模型发展的重要推动作用。通过系统地回顾各代模型的进化过程,分析其核心特性与技术亮点,为读者提供全面且深入的理解。
硅谷秋水3 天前
人工智能·深度学习·机器学习·语言模型·自然语言处理
大语言模型智体的综述:方法论、应用和挑战(下)25年3月来自北京大学、UIC、广东大亚湾大学、中科院计算机网络信息中心、新加坡南阳理工、UCLA、西雅图华盛顿大学、北京外经贸大学、乔治亚理工和腾讯优图的论文“Large Language Model Agent: A Survey on Methodology, Applications and Challenges”。
新加坡内哥谈技术3 天前
人工智能·语言模型·自然语言处理
大型语言模型Claude的“思维模式”最近被公开解剖每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
啊阿狸不会拉杆3 天前
前端·python·自然语言处理
第二十二章:Python-NLTK库:自然语言处理在自然语言处理(NLP)领域,Python的NLTK库是一个非常强大的工具。无论是文本分词、词性标注,还是情感分析、文本生成,NLTK都能提供丰富的功能支持。本文将带你从零开始,掌握NLTK库的基本用法,并通过一些高级示例让你感受到NLP的魅力。
Chaos_Wang_4 天前
人工智能·机器学习·自然语言处理
NLP高频面试题(二十八)——Reward model是如何训练的,怎么训练一个比较好的Reward model在强化学习领域,**奖励模型(Reward Model)是关键组件之一,旨在通过预测特定行为或输出的奖励值,指导智能体的学习方向。特别是在基于人类反馈的强化学习(RLHF)**中,奖励模型通过整合人类的偏好信息,帮助强化学习算法更有效地优化策略,使生成的内容更符合人类的期望。
紫雾凌寒4 天前
人工智能·深度学习·自然语言处理·金融·事件抽取·金融舆情·风险预警
自然语言处理|金融舆情解析:智能事件抽取与风险预警之道在金融领域,信息是投资决策的关键因素。金融市场受宏观经济数据、政治局势、企业业绩、市场情绪等多种因素影响,呈现高度的波动性和不确定性。例如,一家上市公司的财报发布,若净利润超出预期,可能导致股价短期内上涨;若数据不及预期,则可能引发股价下跌。同样,央行调整利率政策,会迅速影响债券市场和外汇市场。
xidianjiapei0014 天前
人工智能·语言模型·自然语言处理·llm·transformer
构建大语言模型应用:句子转换器(Sentence Transformers)(第三部分)在之前的博客中,我们学习了为RAG(检索增强生成,Retrieval Augmented Generation)进行数据准备,包括数据摄取(Data Ingestion)、数据预处理(Data Preparation)和分块(Chunking)。
L_cl4 天前
人工智能·自然语言处理
【NLP 面经 3】目录一、Transformer与RNN对比多头自注意力机制工作原理相比传统 RNN 在处理长序列文本的优势