自然语言处理

Francek Chen2 小时前
人工智能·pytorch·深度学习·自然语言处理·bert
【自然语言处理】应用06:针对序列级和词元级应用微调BERT【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈PyTorch深度学习 ⌋ ⌋ ⌋ 深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现
Toky丶2 小时前
人工智能·语言模型·自然语言处理
【文献阅读】Pt2-Llm: Post-Training Ternarization For Large Language Models作者:¹ 上海交通大学、² 苏黎世联邦理工学院、³ 腾讯混元*(与ARB-LLM: Alternating Refined Binarizations for Large Language Models的作者有重叠)
weixin_438077492 小时前
人工智能·python·语言模型·自然语言处理
CS336 Assignment 4 (data): Filtering Language Modeling Data 翻译和实现版本 1.0.4 CS336 课程组 2025 年春季本次作业中,你将获得过滤网络爬虫数据以构建语言模型训练数据的实践经验。
MARS_AI_3 小时前
人工智能·自然语言处理·重构·交互·信息与通信·agi
融资加持下的云蝠智能:大模型语音Agent重构企业通信新生态在人工智能技术从概念走向规模化应用的浪潮中,语音交互作为企业与客户连接的核心场景,正经历着从"人工主导"到"智能驱动"的颠覆性变革。2025年11月,深耕大模型语音客服领域的云蝠智能完成A+轮数千万人民币融资,由金沙江创业投资领投,再次印证了语音智能赛道的商业价值与发展潜力。从2018年成立至今,这家以"蝙蝠"为品牌象征的科技企业,凭借全栈自研技术与精准的场景定位,已成长为国内大模型语音Agent领域的标杆企业,其服务的3万余家终端企业覆盖地产、金融、电商、教育等多个行业,月均AI人机通话量高达4500万
jieshenai3 小时前
人工智能·自然语言处理
如何使用 AutoModel 保存与加载自定义模型在原始BERT模型的基础上额外添加一些层,并把新架构的模型保存到本地。 然后使用 AutoModel 加载模型,这样更方便一点。我们不需要在本地一直保存这个模型的自定义的网络结构的 python文件。
悟道心3 小时前
人工智能·自然语言处理·transformer
5. 自然语言处理NLP - Transformer🌟 想象一下:你正在读一本小说,突然看到一句话:“他把钥匙插进锁孔,门开了。” 你会立刻明白“钥匙”和“锁孔”是关联的,“门开”是因为“插钥匙”。 这种“理解词与词之间的关系”的能力,就是 Transformer 要做的事儿。
c7693 小时前
人工智能·笔记·语言模型·自然语言处理·论文笔记·提示工程
【文献笔记】Mixture-of-Agents Enhances Large Language Model CapabilitiesMixture-of-Agents Enhances Large Language Model Capabilities
爱学习的张大4 小时前
人工智能·语言模型·自然语言处理
Language Models are Unsupervised Multitask Learners(翻译)问答、机器翻译、阅读理解和文本摘要等自然语言处理任务,通常是通过在特定任务数据集上进行监督学习来实现的。我们的研究表明,当语言模型在一个名为 WebText、包含数百万网页内容的新型数据集上完成训练后,无需任何显式监督,就能自主习得这类任务的处理能力。当给定一篇文档和若干问题作为输入条件时,该语言模型在 CoQA 数据集上生成的答案可达到 55 的 F1 值 —— 在未借助 12.7 万余条训练样本的情况下,其性能已持平甚至超越了 4 个基线系统中的 3 个。语言模型的容量是实现零样本任务迁移的关键所在,
数据分享者19 小时前
人工智能·语言模型·自然语言处理
对话对齐反馈数据集:12000+高质量人类-助手多轮对话用于RLHF模型训练与评估-人工智能-大语言模型对齐-人类反馈强化学习-训练符合人类期望的对话模型在人工智能领域,大语言模型的对齐问题一直是研究的核心挑战之一。为了使模型生成的内容更符合人类价值观、更安全可靠,研究者们提出了多种对齐技术,其中人类反馈强化学习(RLHF)是当前最有效的方法之一。RLHF需要高质量的人类反馈数据,包括对模型输出的比较、排序和评价。对话对齐反馈数据集正是为满足这一需求而构建的,它包含了大量经过人工标注的高质量对话样本,为RLHF模型的训练和评估提供了坚实的基础。
叫我:松哥1 天前
python·自然语言处理·flask·旅游·数据可视化·推荐算法·关联规则
基于Flask框架开发的智能旅游推荐平台,采用复合推荐算法,支持管理员、导游、普通用户三种角色本系统是一款基于Flask框架开发的智能旅游推荐平台,采用复合推荐算法为用户提供个性化旅游建议。系统支持管理员、导游、普通用户三种角色,每个角色拥有独立的功能权限。管理员负责系统整体管理和数据分析;导游负责景点信息录入、旅游路线设计及关联规则分析;普通用户可浏览景点、预定路线、收藏评论、参与论坛交流,并获取智能推荐。系统使用SQLite数据库存储数据,通过Bootstrap 5实现响应式前端界面,利用ECharts进行数据可视化展示。
肥猪猪爸1 天前
人工智能·神经网络·机器学习·自然语言处理·langchain·大模型·transformer
Langchain实现ReAct Agent多变量工具调用大语言模型(LLM)虽强,却有致命短板:传统方案是:RAG(检索增强生成)——先查知识库,再生成答案。 但 RAG 仍有局限:它只能“读”,不能“做”。
課代表1 天前
人工智能·语言模型·自然语言处理·llm·markdown·token·模型
大语言模型能够理解的11种文件格式在大语言模型广泛应用于 RAG、数据分析、自动化报告生成的今天,我们往往忽视了数据呈现格式对模型理解能力的影响。无论是 CSV、JSON、Markdown 还是 YAML,不同的结构化数据表示方式,不仅影响模型的理解准确率,还直接关系到推理成本。
gorgeous(๑>؂<๑)1 天前
人工智能·语言模型·自然语言处理
【南京大学-李文斌-arXiv25】超高分辨率遥感多模态大语言模型基准测试文章:A Benchmark for Ultra-High-Resolution Remote Sensing MLLMs
Toky丶1 天前
人工智能·语言模型·自然语言处理
【文献阅读】ARB-LLM: Alternating Refined Binarizations for Large Language Models❤️本内容仅供本人阅读、学习,如有侵权,联系即删❤️1 上海交通大学、2 苏黎世联邦理工学院、3 联想研究院
斯外戈的小白1 天前
人工智能·自然语言处理
【NLP】Hugging Face使用指南随着人工智能领域的发展,模型的体量逐渐增长、数据的体量逐渐增长、在实践中应用复杂的人工智能算法的需求日益增加,越来越多的开发者会倾向于直接使用经过预训练和封装的成熟NLP算法,而非自行构建复杂的transformers或tokernizer架构。Huggingface正是把握住了这一需求的变化,开发了封装层次极高、调用简单、节约算力、且训练流程清晰明确的Transformers库,这个库提供了一系列与人工智能相关的预训练模型,如BERT、GPT、T5等,这些模型都是建立在原始Transformer架构基础
小陈phd1 天前
服务器·人工智能·语言模型·自然语言处理
Qwen3-VL在华为昇腾 NPU 910B4 vLLM-Ascend完整部署指南本文档详细说明如何在华为昇腾 NPU (910B4) 上部署和运行 Qwen3-VL-8B-Instruct 多模态大语言模型,基于 vLLM Ascend 推理框架。
Hcoco_me1 天前
人工智能·深度学习·学习·自然语言处理·transformer
大模型面试题47:从白话到进阶讲解LoRA原理LoRA 的全称是 Low-Rank Adaptation(低秩适配),是一种轻量化大模型微调技术,核心解决的问题是:全量微调大模型显存占用高、算力成本贵,让普通人用消费级显卡(比如 RTX 4090)就能微调 7B/13B 模型。
一代明君Kevin学长2 天前
自然语言处理·大语言模型·检索增强·文本处理·rag
RAG如何解决长文档chunking的信息丢失问题?常用的解决信息丢失的方式包括:延迟切分(Late Chunking)、代理切分(Agentic Chunking)等。 在构建检索增强生成(Retrieval-Augmented Generation, RAG)系统时,文本分块(Chunking)是决定系统性能的关键步骤。
小陈phd2 天前
人工智能·语言模型·自然语言处理
大语言模型实战(十六)——MCP完整语法指南:从零掌握Model Context Protocol的所有语法和模式《MCP完整语法指南:从零掌握Model Context Protocol的所有语法和模式》MCP (Model Context Protocol) = 模型上下文协议