语言模型

算法狗29 小时前
人工智能·深度学习·机器学习·语言模型·面试题
大模型面试题:有以下哪些方式可以在 prompt 中插入指令?我整理好的1000+面试题,请看 大模型面试题总结-CSDN博客 或者https://gitee.com/lilitom/ai_interview_questions/blob/master/README.md
renhongxia111 小时前
人工智能·深度学习·学习·机器学习·语言模型·自然语言处理
大型语言模型性能预测器:学习何时在混合人机-人工智能管理系统中升级随着大语言模型日益融入人在回路的内容审核系统,核心挑战在于如何判断何时可以信赖其输出,又何时需要提请人工复审。
摸鱼仙人~16 小时前
人工智能·语言模型·自然语言处理
针对大语言模型文本审核逻辑鲁棒性与精细化规则编排的深度研究报告在大语言模型(LLM)的快速演进中,文本审核作为确保人工智能系统安全与合规的关键技术,正面临着从简单的模式识别向复杂逻辑推演的范式转移。传统的审核系统通常依赖于关键词过滤或浅层的统计分类器,但在处理具有深层语境、多步逻辑谬误或极其精细的业务规则时,这些方法表现出了显著的局限性。随着企业对内容合规性的要求日益严苛,大语言模型虽然具备强大的语义理解能力,却在处理复杂的逻辑一致性、规则冲突解决以及精细化规则的实时动态调整方面存在脆弱性 1。本报告旨在探讨提升大模型文本审核逻辑能力的技术路径,分析如何通过神经符号
狮子座明仔16 小时前
人工智能·深度学习·语言模型·自然语言处理·开源
O-Researcher:多智能体蒸馏与强化学习打造开源深度研究新标杆一句话总结:OPPO提出O-Researcher框架,通过多智能体协作自动合成高质量研究数据,结合监督微调与GRPO强化学习,让72B开源模型在深度研究任务上超越GPT-5和OpenAI O3等商业巨头。
CCPC不拿奖不改名17 小时前
人工智能·机器学习·语言模型
大语言模型基础:大语言模型核心原理(大语言模型和传统的机器学习的差异)要理解 大语言模型(LLM) 与 传统机器学习(Traditional ML) 的核心差异,我们可以从 学习方式、能力范围、技术架构 等维度用通俗的方式对比:
路多辛17 小时前
人工智能·语言模型·自然语言处理
为大语言模型而生的节省成本数据格式 TOON 详解用过 LLM API 的朋友一定深有体会:Token 就是真金白银。每次把结构化数据塞进 Prompt,看着重复的字段名、冗余的引号和括号占掉大半 Token 额度,心里都在滴血——明明核心内容没多少,却要为格式“买单”。
木头程序员17 小时前
图像处理·人工智能·深度学习·机器学习·计算机视觉·语言模型
生成式AI可靠性与可控性技术研究:从真实性到可控编辑摘要:生成式AI技术(以大语言模型LLM、图像生成模型AIGC为代表)的快速迭代,推动了内容创作、智能交互等领域的革新,但同时也面临真实性失真、版权归属模糊、价值观偏差及生成结果不可控等核心问题。本文聚焦生成式AI可靠性与可控性的四大核心方向——生成内容真实性检验、版权溯源、价值观对齐、可控编辑技术,系统剖析各技术的核心原理、主流方案与研究进展,对比大语言模型与图像生成模型的技术差异,探讨当前实践挑战与未来发展路径,为技术研发与工程落地提供参考。
万里不留行17 小时前
人工智能·python·学习·语言模型·langchain
【LangChain V1.0学习】第二课:批处理与持久化对话(通过完成情感机器人多轮对话进行学习)我们在上一节课学习了LangChain V1.0的模型调用与基础对话,今天这节课我们来学习大模型的批处理对话,我们通过制作简单的带有简易记忆机制的对话机器人,来学习并熟练掌握该用法。
大模型任我行17 小时前
人工智能·语言模型·自然语言处理·论文笔记
腾讯:动态树强化学习框架DART📖标题:Discovery and Reinforcement of Tool-Integrated Reasoning Chains via Rollout Trees 🌐来源:arXiv, 2601.08274v1
狮子座明仔19 小时前
人工智能·深度学习·语言模型·自然语言处理
AI-Researcher:让 AI 自主完成从文献调研到论文发表的全流程科研一句话总结:香港大学团队开源了 AI-Researcher——一个能够自主完成文献综述、假设生成、算法实现到论文撰写全流程的多智能体科研系统,在基准测试中展现出接近人类研究者的科研能力。
地瓜伯伯1 天前
人工智能·elasticsearch·语言模型·数据分析
elasticsearch性能调优方法原理与实战Elasticsearch性能调优对于提升系统整体效能至关重要。然而,性能调优并非一蹴而就,需要深入理解ES的内部工作机制,并结合实际业务场景进行精细化调整。本文将深入解释ES性能调优方法的原理,结合具体案例展示如何在实际应用中优化ES性能。
Aaron_9451 天前
人工智能·语言模型·langchain
LangChain:构建大语言模型应用的革命性框架深度解析LangChain 是一个开源框架,专门用于构建基于大语言模型(LLM)的智能代理和应用程序。作为当前最流行的 AI 应用开发框架之一,LangChain 通过提供标准化的接口和模块化组件,极大地简化了 LLM 应用的开发流程。该框架的核心价值在于能够将各种 AI 组件(如模型、工具、向量数据库等)有机地连接起来,形成高效的工作链,同时确保应用能够适应快速发展的 AI 技术生态。
独自破碎E1 天前
人工智能·语言模型·copilot
说说Copilot模式和Agent模式的区别Copilot模式(副驾驶协助模式)是大模型作为“助手”提供实时的建议,比如代码补全、文案的润色等等,最终的决策权保留在用户手中
清蒸鳜鱼2 天前
机器学习·语言模型·强化学习
【系列跟学之——强化学习】基础篇学习资料:https://hrl.boyuai.com强化学习用智能体(agent)这个概念来表示做决策的机器。相比于有监督学习中的“模型”,强化学习中的“智能体”强调机器不但可以感知周围的环境信息,还可以通过做决策来直接改变这个环境,而不只是给出一些预测信号。
独自破碎E2 天前
gpt·语言模型
解释一下向量数据库中的HNSW、LSH和PQHNSW、LSH和PQ是向量数据库中的3种核心索引与压缩技术,用于加速高维向量的相似性搜索。Hierarchical Navigable Small World(HNSW),在高维空间中,构建多层图结构,每一层都是一个小世界网络。
Sherry Wangs2 天前
人工智能·语言模型·自然语言处理
【ML】语言模型 & GPUs假设我们要在一台服务器上对一个采用多头注意力(MHA)的 Transformer 模型进行推理。模型参数如下:隐藏层维度 d = 4096 d=4096 d=4096,层数 L = 32 L=32 L=32,注意力头数 h = 32 h=32 h=32,采用 FP16 半精度存储(每个元素占 2 Bytes)。
道可云2 天前
人工智能·语言模型·自然语言处理
道可云人工智能每日资讯|南京农业大学发布国内首个农业开源大语言模型“司农”道可云人工智能&元宇宙每日简报(2026年1月15日)讯, 今日人工智能&元宇宙新鲜事有:工信部印发《推动工业互联网平台高质量发展行动方案(2026—2028年)》:加快培育流程自动化助手、智慧巡检数字人、具身智能装备
CCPC不拿奖不改名2 天前
人工智能·python·学习·语言模型·自然语言处理·面向对象·智能体
大语言模型的基础:大语言模型基础认知人工智能的发展经历了多个阶段,从早期的符号主义到现代的深度学习。20世纪50年代,图灵测试和逻辑推理机奠定了理论基础。80年代专家系统兴起,但受限于计算能力和数据量。90年代机器学习逐渐成熟,支持向量机等算法广泛应用。2010年后,深度学习在图像识别、自然语言处理领域取得突破,GPU算力提升和大数据加速了这一进程。
十三画者2 天前
人工智能·深度学习·语言模型·数据挖掘·数据分析
【文献分享】LyMOI一种结合深度学习和大规模语言模型的用于解读组学数据的工作流程通过对海量组学数据进行分子全景分析,可以识别细胞中的调控网络,但还需要进行机制解读和实验验证。在此,我们结合深度学习和大型语言模型推理,开发了一种用于组学解读的混合工作流程,称为 LyMOI。LyMOI 采用了 GPT-3.5 来进行生物学知识推理,并使用了一个包含图卷积网络(GCN)的大型图模型。该大型图模型整合了进化上保守的蛋白质相互作用,并通过分层微调从多组学数据中预测特定环境下的分子调节因子。然后,GPT-3.5 生成机器的推理链(CoT),以机制上解读其在生物系统中的作用。以自噬为例,LyMOI
人邮异步社区2 天前
学习·语言模型·开源
想学习大语言模型(LLM),应该从哪个开源模型开始?在 LLM 的生产环境部署中,MLOps 扮演着关键角色。MLOps 将DevOps 的原则扩展到机器 学习项目中,目标是实现整个机器学习生命周期的自动化和精简化。由于 LLM 本身具有较高的复 杂性和较大的规模,MLOps 在其中显得尤为重要,它能够有效应对多个挑战,例如大型数据集的管 理、模型版本的控制、结果的可复现性,以及模型性能的长期维护等。通过引入 MLOps 实践,LLM 项目能够在效率、可靠性和扩展性等方面获得显著提升,从而实现更为成功和更具影响力的部署。