语言模型

Peter_Monster10 小时前
人工智能·语言模型·架构
大语言模型(LLM)架构核心解析(干货篇)区分大模型开源与闭源生态的核心差异掌握LLM三大主流架构及衍生架构(MoE)的核心逻辑深入理解BERT、GPT、T5、Mixtral等代表模型的架构创新与适用场景
AI绘画哇哒哒15 小时前
人工智能·学习·ai·语言模型·程序员·产品经理·转行
【收藏必看】大模型智能体六大设计模式详解:从ReAct到Agentic RAG,构建可靠AI系统随着大模型技术的成熟,智能体正在从概念走向实际应用。与传统的单次问答系统不同,智能体能够自主规划、使用工具、反思决策,并通过多轮交互完成复杂任务。本文探讨当前业界最主流的六种智能体设计模式,这些模式已经在各大AI产品中得到验证和应用,为开发者提供了构建可靠智能体系统的技术参考。
python零基础入门小白1 天前
java·开发语言·设计模式·语言模型·架构·大模型应用开发·大模型学习
【万字长文】大模型应用开发:意图路由与查询重写设计模式(从入门到精通)在构建智能体或 RAG 系统时,我们经常面临一个核心挑战:用户的自然语言输入与系统的执行逻辑之间存在巨大的鸿沟。
重整旗鼓~1 天前
java·语言模型·langchain
3.会话功能-AiServices工具类<!-- Ai Service相关的依赖 --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>1.0.1-beta6</version> </dependency>
清云逸仙1 天前
人工智能·经验分享·ai·语言模型·prompt·ai编程
AI Prompt应用实战:评论审核系统实现作者:CSDN 博主 适用人群:AI 工程师、后端开发者、内容安全从业者、Prompt 工程学习者 关键词:Prompt Engineering、GPT-4、内容审核、AI 安全、合规过滤、大模型应用、CSDN 教程
清云逸仙1 天前
人工智能·经验分享·ai·语言模型·ai编程
使用AI(GPT-4)实现AI prompt 应用--自动审核评论系统关键词:Flask、GPT-4、自动审核、内容合规、APScheduler、SQLAlchemy、评论系统、CSDN 教程
Curvatureflight2 天前
人工智能·语言模型·架构·人机交互
GPT-4o Realtime 之后:全双工语音大模型如何改变下一代人机交互?今年以来,以 GPT-4o Realtime、Meta SeamlessM4T、Google Astra Speech 为代表的 全双工语音大模型(Full-duplex Speech LLM) 成为 AI 技术圈的核心热点。 这些模型不再仅仅做“语音识别 + 翻译 + 合成”,而是真正实现:
做cv的小昊2 天前
论文阅读·人工智能·计算机视觉·语言模型·自然语言处理·bert·transformer
VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling近年来,语言建模领域取得了令人瞩目的进展。许多大型语言模型(LLM)(如Llama或ChatGPT)如今已能解决种类繁多的任务,其应用正日益普及。这些原本主要局限于文本输入的模型,现已扩展至具备视觉输入能力。将视觉与语言相连将解锁众多应用,而这些应用正是当前基于人工智能的技术革命之关键。尽管已有若干工作将大型语言模型扩展至视觉领域,但语言与视觉的连接问题尚未得到彻底解决。例如,若无依赖额外数据标注的复杂工程辅助,大多数模型在理解空间关系或计数方面仍显吃力。许多视觉语言模型(VLM)也缺乏对属性和顺序的理解
开放知识图谱2 天前
人工智能·语言模型·自然语言处理
论文浅尝 | 利用条件语句激发和提升大语言模型的因果推理能力(CL2025)笔记整理:刘轶,天津大学硕士,研究方向为知识图谱和大模型论文链接:https://doi.org/10.1162/coli_a_00548
rgb2gray2 天前
大数据·python·机器学习·语言模型·数据挖掘·数据分析·llm
增强城市数据分析:多密度区域的自适应分区框架原文: Enhancing Urban Data Analysis: Adaptive Partitioning Framework for Multidensity Regions 欢迎引用!
人机与认知实验室2 天前
人工智能·语言模型·自然语言处理
国内主流大语言模型之比较以下是对当前国内主流大语言模型(LLM)——阿里通义千问 (Qwen )的系统性对比分析,涵盖其核心技术特点、性能表现、应用场景、生态布局及战略定位等方面的异同。本分析基于截至2025年11月的公开资料与行业共识。
AGI前沿2 天前
人工智能·算法·语言模型·aigc
AdamW的继任者?AdamHD让LLM训练提速15%,性能提升4.7%,显存再省30%在训练大语言模型(LLM)时,我们常常聚焦于模型架构、数据质量和训练规模,但一个“幕后英雄”同样至关重要——优化器。多年来,AdamW 一直是训练Transformer模型的黄金标准。但它真的完美无缺吗?
fanstuck3 天前
人工智能·语言模型·aigc·gpu算力
深入解析 PyPTO Operator:以 DeepSeek‑V3.2‑Exp 模型为例的实战指南在如今的大模型部署世界里,大家讨论得最多的往往是模型本身:参数规模、上下文长度、推理速度、吞吐表现……但只要真正踩过一次从“模型参数”到“实际落地推理服务”的坑,很快就能意识到,决定性能上限的其实并不是模型本身,而是躲在系统底层的那一层算子实现。尤其是在像 DeepSeek-V3.2-Exp 这种体量级别的模型里,任何一个算子的执行效率、调度策略、内存占用乃至调优方式,都可能在最终推理效果上被无限放大。
重整旗鼓~3 天前
java·语言模型·langchain
1.大模型使用1.自己部署云服务器部署优点:前期成本低,维护简单。缺点:数据不安全,长期使用成本高。本地部署优点:数据安全,长期成本低。
WWZZ20253 天前
人工智能·深度学习·算法·语言模型·自然语言处理·大模型·具身智能
快速上手大模型:深度学习13(文本预处理、语言模型、RNN、GRU、LSTM、seq2seq)目录1 文本预处理1.1 库1.2 读取数据集1.3 词元化1.4 词表2 语言模型2.1 定义2.2 代码
老友@3 天前
人工智能·搜索引擎·ai·语言模型·自然语言处理·rag
RAG 的诞生:为了让 AI 不再“乱编”人工智能和大语言模型(LLM)的发展,让机器能够理解和生成自然语言,像人类一样回答问题、写文章,甚至生成代码。但单靠模型内部的“记忆”,往往有几个问题:
Ma0407133 天前
人工智能·语言模型·自然语言处理
【论文阅读19】-用于PHM的大型语言模型:优化技术与应用综述题目:Large language models for PHM: a review of optimization techniques and applications
RemainderTime4 天前
人工智能·spring·ai·postgresql·语言模型
基于Ollama和Spring AI:本地大模型对话与 RAG 功能实现目录前言先知道部署部署 Ollama 平台1: 下载 ollama docker 镜像2: 如果命令拉去失败了,也可本地上传镜像包到服务器
程序员与背包客_CoderZ4 天前
c语言·开发语言·网络·c++·人工智能·语言模型·llama
C/C++版LLM推理框架Llama.cpp——入门与编码实战llama.cpp是由Georgi Gerganov创建的轻量级推理引擎,它是基于C/C++语言编码实现的LLM框架,支持大模型的训练和推理,专注于在本地硬件环境(比如个人电脑、树莓派等)上高效运行LLM模型。
智算菩萨4 天前
人工智能·语言模型·自然语言处理
走向通用智能的大语言模型:具身、符号落地、因果与记忆的统一认知视角——解读《Large language models for artificial general intelligence (AGI): A survey of foundational principles and approaches》