自然语言处理

java1234_小锋7 小时前
python·自然语言处理·flask
【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts) 视频教程 - 主页-最近七天微博发布量实现大家好,我是java1234_小锋老师,最近写了一套【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts)视频教程,持续更新中,计划月底更新完,感谢支持。今天讲解主页-最近七天微博发布量实现
DO_Community17 小时前
人工智能·深度学习·百度·自然语言处理·开源
DigitalOcean 一键模型部署,新增支持百度开源大模型ERNIE 4.5 21B使用过DigitalOcean GPU Droplet 服务器的用户应该对我们的一键模型部署功能不陌生。DigitalOcean 的一键模型部署 (1-Click Models) 功能是 DO 为开发者和企业提供的一种便捷方式,用于快速部署和运行预训练的生成式 AI 模型,尤其是大型语言模型 (LLM)。这项功能是 DigitalOcean 与 Hugging Face 合作的成果,旨在简化 AI 模型的部署流程,让用户无需复杂的配置即可开始构建 AI 应用。
静心问道20 小时前
人工智能·语言模型·自然语言处理
BiLLM:突破大语言模型后训练量化的极限温馨提示: 本篇文章已同步至"AI专题精讲" BiLLM:突破大语言模型后训练量化的极限预训练的大语言模型(LLMs)展现出卓越的通用语言处理能力,但同时对内存和计算资源提出了极高要求。作为一种强大的压缩技术,二值化(binarization) 可以将模型权重极大压缩至仅1位,从而显著降低计算和内存开销。然而,现有的量化技术在超低比特宽度下难以保持LLM的性能。为应对这一挑战,我们提出了 BiLLM,一种面向预训练LLM的开创性1比特后训练量化(post-training quantization)方法。
小哲慢慢来1 天前
python·自然语言处理
Text2SQL智能问答系统开发(一)开发一个面向企业的chatBI工作流Text2SQL 的核心是理解用户意图。为此,我设计了一个问题分类机制,以便动态路由不同类型的问题到合适的处理流程中:
金井PRATHAMA1 天前
人工智能·深度学习·神经网络·自然语言处理
主要分布在背侧海马体(dHPC)CA1区域(dCA1)的位置细胞对NLP中的深层语义分析的积极影响和启示海马体背侧CA1区(dCA1)的位置细胞(place cells)通过其独特的神经编码机制(构建空间认知地图、编码序列信息以及整合多模态输入等),为自然语言处理(NLP)的深层语义分析提供了重要的神经科学启示。以下是其核心影响及技术实现路径:
是娜个二叉树!1 天前
深度学习·机器学习·自然语言处理
基础NLP | 01 机器学习 深度学习基础介绍要点:应用文本分类任务机器翻译任务图像识别任务输入: 图像 输出: 类别关系: 图中的像素排列,决定了图像的内容
艾醒(AiXing-w)1 天前
人工智能·语言模型·自然语言处理
探索大语言模型(LLM):提升 RAG 性能的全方位优化策略在大语言模型(LLM)应用日益普及的今天,检索增强生成(RAG)技术已成为连接外部知识与模型推理的核心桥梁。然而,基础版 RAG 系统往往难以满足复杂业务场景的需求,如何提升其准确性、效率和鲁棒性成为开发者关注的焦点。本文将基于 Milvus 官方技术文档,深入解析 RAG 流水线的优化策略,涵盖查询增强、索引优化、检索器升级、生成器调优及全流程增强等多个维度,助力开发者打造高性能 RAG 应用。
java1234_小锋2 天前
python·自然语言处理·flask
【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts) 视频教程 - 主页-微博点赞量Top6实现大家好,我是java1234_小锋老师,最近写了一套【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts)视频教程,持续更新中,计划月底更新完,感谢支持。今天讲解主页-微博点赞量Top6实现
静心问道2 天前
人工智能·语言模型·自然语言处理
一种集合式方法:实现高效且有效的大语言模型零样本排序温馨提示: 本篇文章已同步至"AI专题精讲" 一种集合式方法:实现高效且有效的大语言模型零样本排序我们提出了一种基于大语言模型(LLMs)的新颖零样本文档排序方法:集合式提示(Setwise prompting)方法。我们的方法补充了现有的用于LLM零样本排序的提示方法:逐点式(Pointwise)、成对式(Pairwise)和列表式(Listwise)。通过首次在一致的实验框架下进行的对比评估,并综合考虑模型大小、token消耗、延迟等因素,我们表明现有方法在效果和效率之间存在固有的权衡。我们发现,虽然
盼小辉丶2 天前
机器学习·自然语言处理·图机器学习
图机器学习(16)——图数据与自然语言处理当今时代,海量信息以自然语言的形式存在。晨间浏览的新闻、发送/阅读的推文、课业报告、往来邮件,这些通过文本文档交换的信息构成了人类最主要的间接互动形式(相较于对话、手势等直接互动方式)。无疑,这是最常见的间接互动方式,与直接互动(如谈话或手势)不同。因此,如何有效利用文本信息并从中提取重要信息,已成为至关重要的技术能力。正是文本数据的爆炸性增长,直接推动了自然语言处理 (Natural Language Processing, NLP) 领域的快速发展。 本节将系统讲解自然语言文本的处理方法,并回顾一些基
UQI-LIUWJ2 天前
人工智能·语言模型·自然语言处理
论文略读:Knowledge is a Region in Weight Space for Finetuned Language ModelsEMNLP 2023在同一个数据集上微调的,架构相同的语言模型,在权重空间中形成紧密的聚类(tight cluster);
金井PRATHAMA2 天前
人工智能·自然语言处理·知识图谱
NLP中情感分析如何结合知识图谱在跨文化领域提升观念分析和价值判断的准确性?情感分析结合知识图谱,能够显著提升观念分析和价值判断的准确性。这一融合的核心在于利用知识图谱的结构化语义网络,为情感分析提供深层语境、实体关联和领域知识支撑。以下是具体机制和应用场景的分析:
金井PRATHAMA2 天前
人工智能·神经网络·自然语言处理·知识图谱
主要分布在背侧海马体(dHPC)CA1区域(dCA1)的时间细胞对NLP中的深层语义分析的积极影响和启示时间细胞(time cells)作为海马体CA1区域中编码时间信息的神经元,其工作机制对自然语言处理(NLP)中的深层语义分析具有多方面的启示。这些神经元通过整合时空信息、动态竞争机制和序列编码能力,为解决NLP中语义连贯性、上下文依赖性和长期依赖等挑战提供了生物神经基础。以下是具体的影响和启示:
c7693 天前
人工智能·笔记·语言模型·自然语言处理·llm·论文笔记·cvrp
【文献笔记】ARS: Automatic Routing Solver with Large Language ModelsARS: Automatic Routing Solver with Large Language Models https://github.com/Ahalikai/ARS-Routbench/
Code_流苏3 天前
人工智能·自然语言处理·chatgpt·openai·agent·智能体
ChatGPT Agent深度解析:告别单纯问答,一个指令搞定复杂任务?名人说:博观而约取,厚积而薄发。——苏轼《稼说送张琥》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
金井PRATHAMA3 天前
人工智能·神经网络·自然语言处理
分布在内侧内嗅皮层(MEC)的边界细胞对NLP中的深层语义分析的积极影响和启示边界细胞(Border Cells)作为内侧内嗅皮层(MEC)层Ⅱ/Ⅲ的核心空间编码单元,通过感知物理环境边界来辅助空间导航。这种神经机制为自然语言处理(NLP)中的深层语义分析提供了深刻的启示,尤其在语义边界识别、结构化建模和上下文动态校准等方面。以下是具体影响和案例说明:
青稞社区.3 天前
人工智能·语言模型·自然语言处理
从 DeepSeek-V3 到 Kimi K2:八种现代大语言模型架构设计编译:青稞社区+Kimi 原文:https://magazine.sebastianraschka.com/p/the-big-llm-architecture-comparison 首发:https://mp.weixin.qq.com/s/lSM2jk1UxJVz1WllWYQ4aQ
c7693 天前
人工智能·笔记·数学建模·语言模型·自然语言处理·llm·论文笔记
【文献笔记】From words to routes: Applying large language models to vehicle routingFrom words to routes: Applying large language models to vehicle routing https://sites.google.com/view/words-to-routes/
xiaozhazha_3 天前
自然语言处理·架构·区块链
合同管理系统技术架构深度解析:快鹭云如何通过NLP+区块链实现纠纷率下降67%|附动态安全库存算法实现一、行业痛点与技术挑战数据佐证:最高法院案例库显示合同纠纷败诉率71.4%二、快鹭云技术架构三层解耦▍ 整体架构图
大千AI助手4 天前
人工智能·深度学习·机器学习·自然语言处理·提示词·思维链·litecot
LiteCoT:难度感知的推理链压缩与高效蒸馏框架“以智能裁剪对抗冗余,让推理效率与精度兼得”LiteCoT 是由香港科技大学(广州)联合独立研究者团队提出的创新方法,旨在解决大模型知识蒸馏中推理链过度冗长和缺乏难度适应性的核心问题。该方法通过难度感知提示(DAP) 动态生成精简的推理链,显著提升小模型推理效率与准确性。相关论文发表于arXiv预印本平台(2025年),为当前大模型轻量化部署的前沿方案。