自然语言处理

翱翔的苍鹰13 分钟前
人工智能·深度学习·自然语言处理
当前主流的**开源大语言模型(LLM)的核心知识总结下面我用**通俗易懂、结构清晰**的方式,为你总结当前主流的**开源大语言模型(LLM)** 的核心知识,帮助你快速掌握它们的特点、区别和应用场景。
renhongxia117 分钟前
人工智能·语言模型·自然语言处理·aigc·知识图谱
知识图谱如何在制造业实际落地应用知识图谱在制造业的实际落地,已从理论走向多个高价值场景的规模化应用。其核心价值在于打通“数据孤岛”、沉淀专家经验、实现智能推理与决策支持。以下是结合行业实践的系统性落地路径与典型应用场景:
翱翔的苍鹰42 分钟前
人工智能·rnn·深度学习·自然语言处理
法律问答机器人”技术方案”的实现当然可以!以下是一套**开源、可商用、零法律风险**的“法律问答机器人”技术方案,包含:- ✅ **模型**:使用 **Baichuan2-7B/13B**(官方明确允许免费商用,仅需邮件申请) - ✅ **RAG 框架**:基于 `LangChain` + `Chroma` + `bge-reranker` - ✅ **幻觉校验模块**:法条存在性检查 + 敏感词过滤 + 置信度控制 - ✅ **数据源**:使用**国家法律法规数据库公开数据**(无版权风险) - ✅ **许可证**:所有组件均为 MI
查无此人byebye1 小时前
人工智能·pytorch·python·深度学习·机器学习·自然语言处理·音视频
从零解读CLIP核心源码:PyTorch实现版逐行解析CLIP(Contrastive Language-Image Pre-training)作为OpenAI提出的跨模态对比学习经典模型,实现了图像-文本的双向语义对齐,凭借零样本迁移能力成为计算机视觉和自然语言处理跨模态任务的基础。本文将逐行解析CLIP的PyTorch原生实现源码,从基础模块到整体架构,深入理解其视觉编码器、文本编码器和对比学习核心逻辑,同时掌握其中的经典改进技巧(如改进ResNet、注意力池化、轻量化Transformer等)。
Marry Andy1 小时前
linux·人工智能·经验分享·语言模型·自然语言处理
Atlas 300l Duo部署qwen3_32b_light博主这里服务器的显卡为华为的Atlas 300l Duo,安装的操作系统为openEuler 22.03 LTS。具体如下图。
shangjian0072 小时前
人工智能·语言模型·自然语言处理
AI-大语言模型LLM-模型文件说明为避免一学就会、一用就废,这里做下笔记以魔塔社区中Qwen2.5-VL-7B-Instruct-bnb-4bit为例,模型文件清单如下:
薛定谔的猫198212 小时前
人工智能·自然语言处理·大模型 训练 调优
二十一、基于 Hugging Face Transformers 实现中文情感分析情感分析情感分析作为自然语言处理(NLP)的核心任务之一,广泛应用于电商评论分析、影视口碑研判、舆情监控等场景。本文将基于 Hugging Face 生态的 Transformers、Datasets 库,结合哈工大中文 RoBERTa 预训练模型,从零实现中文文本情感分析模型的训练、评估全流程。
2501_9333295516 小时前
人工智能·自然语言处理
品牌公关AI化实践:Infoseek舆情系统技术架构解析数字化时代,品牌公关面临实时性、精准性和效率的三重挑战。传统人工监测模式已难以应对全网海量信息。本文将深入解析Infoseek数字公关AI中台的技术架构与实现方案。
余俊晖17 小时前
人工智能·自然语言处理·多模态
Qwen3-VL-0.6B?Reyes轻量化折腾:一个从0到1开始训练的0.6B参数量的多模态大模型标题一次,非Qwen3-VL-0.6B官方。最近手里有一台昇腾910B的服务器,顺便摸索下国产芯片的训练都有哪些坑,笔者时隔一年对Reyes《【多模态&LLM】Reyes:一个从0到1开始训练的多模态大模型(技术报告)》进行了改造,原本的Reyes由8B的参数构成(InternViT-300M-448px-V2_5+Qwen2.5-7B-Instruct),随着端侧模型的发展与手里资源的限制,最终笔者将Reyes参数量设置成0.6B,训练了一个轻量化的多模态模型,最终在MMMU-benchmark取得了3
猿小羽18 小时前
自然语言处理·知识库·向量检索·rag·ai实战·检索增强生成
RAG 入门与实践指南近几年,生成式 AI 模型的发展速度惊人。然而,生成式 AI 往往受限于其训练数据,容易产生不可靠答案。为此,业界提出了溯源、更精准的生成方案——检索增强生成(Retrieve-augmented generation),简称 RAG。本文将全面解析 RAG 的概念、原理、优势以及如何成功地实践。
玄同76519 小时前
人工智能·语言模型·自然语言处理·langchain·交互·llama·ollama
Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案【个人主页:玄同765】大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计)
玄同76519 小时前
人工智能·语言模型·自然语言处理·langchain·nlp·交互·知识图谱
LangChain v1.0+ Prompt 模板完全指南:构建精准可控的大模型交互【个人主页:玄同765】大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计)
菜青虫嘟嘟21 小时前
人工智能·语言模型·自然语言处理
Expert Iteration:一种无需人工标注即可显著提升大语言模型推理能力的简单方法核心在大语言模型的监督微调(SFT)中,一个核心痛点在于:高质量的推理轨迹数据非常稀缺且制作成本高昂。人类专家编写复杂的数学推导或代码逻辑耗时费力,这严重制约了模型推理能力的提升。
Loo国昌1 天前
人工智能·后端·深度学习·自然语言处理·架构·transformer·embedding
【垂类模型数据工程】第四阶段:高性能 Embedding 实战:从双编码器架构到 InfoNCE 损失函数详解“Good representations are the foundation of AI.” —— 优秀的表示层是人工智能的基石。本章将从零开始,深入探讨如何构建用于语义检索(Semantic Search)和 RAG 的高性能嵌入模型。
MaoziShan1 天前
人工智能·python·搜索引擎·语言模型·自然语言处理·内容运营·生成式搜索引擎
[ICLR 2026] 一文读懂 AutoGEO:生成式搜索引擎优化(GEO)的自动化解决方案分享一篇 ICLR 2026 论文《AutoGEO: What Generative Search Engines Like and How to Optimize Web Content Cooperatively》,代码、数据集、模型参数都已开源,请放心食用~
渡我白衣1 天前
数据库·人工智能·深度学习·神经网络·mysql·机器学习·自然语言处理
【MySQL基础】(2):数据库基础概念hello大家好,欢迎来到我们MySQL数据库基础部分的第二篇文章:数据库基础概念,在本篇文章中,我会给大家介绍关于数据库的一些基本知识,帮助大家建立起数据库的架构记忆,希望对大家有所帮助。
李昊哲小课1 天前
人工智能·自然语言处理·机器人
基于NLP的检索式聊天机器人本实现为轻量检索式NLP聊天机器人,核心围绕「文本标准化处理+语义向量匹配」设计,解决用户自然语言输入与预设问题的同义匹配需求。整体思路为:
2501_948120152 天前
人工智能·语言模型·自然语言处理
基于量化感知训练的大语言模型压缩方法随着信息技术的飞速发展,人工智能技术取得了显著的进步,尤其在自然语言处理(NLP)领域,大语言模型(LLMs)如BERT、GPT等展现出卓越的性能。然而,这些模型往往伴随着巨大的计算资源消耗和存储需求,限制了其在实际应用中的普及和推广。为此,本研究旨在探讨基于量化感知训练的大语言模型压缩方法,以下为具体内容:
MARS_AI_2 天前
人工智能·自然语言处理·信息与通信·agi
大模型赋能客户沟通,云蝠大模型呼叫实现问题解决全链路闭环当客户焦急询问订单物流,却在冗长的IVR菜单中反复切换;当人工坐席被重复的咨询耗尽精力,却仍难以保证每一次回复的标准化;当企业为居高不下的客服成本发愁,却始终找不到效率与体验的平衡点——这正是当下多数企业客服服务的真实困境。
名为沙丁鱼的猫7292 天前
人工智能·深度学习·神经网络·机器学习·自然语言处理·nlp
【MCP 协议层(Protocol layer)详解】:深入分析MCP Python SDK中协议层的实现机制大家好,最近在看MCP Python SDK 的源代码文件https://github.com/modelcontextprotocol/python-sdk/blob/main/src/mcp