技术栈
语言模型
Loo国昌
3 小时前
人工智能
·
后端
·
算法
·
语言模型
·
架构
·
langchain
【LangChain1.0】第八阶段:文档处理工程(LangChain篇)
版本信息:在前两篇中,我们学习了RAG的基础知识(第四篇)和高级优化技术(第五篇)。但在实际应用中,文档处理往往是RAG系统最大的痛点:
人工智能培训
5 小时前
人工智能
·
机器学习
·
语言模型
·
大模型
·
大模型幻觉
·
开源大模型
·
闭源大模型
开源与闭源大模型的竞争未来会如何?
随着深度求索DeepSeek-V3.2系列开源模型在核心推理基准测试中“逼平”甚至超越GPT-5等顶尖闭源模型,全球AI行业正式告别闭源模型绝对主导的时代,迈入开源与闭源既激烈博弈又深度融合的竞合新纪元。未来两者的竞争将不再局限于单纯的性能比拼,而是围绕生态构建、成本效率、场景深耕等多维度展开,形成“分层共存、优势互补”的新格局。
Rabbit_QL
8 小时前
人工智能
·
语言模型
·
自然语言处理
【LLM背景】语言模型简史:从概率统计到通用智能接口
近年来,“大语言模型(Large Language Model,LLM)”成为人工智能领域中出现频率最高的关键词之一。
分享牛
8 小时前
人工智能
·
语言模型
·
自然语言处理
LangChain4j从入门到精通-3-聊天与语言模型
本文深入解析了LangChain4j框架中与大型语言模型(LLM)交互的核心底层API——ChatModel。作为渐趋淘汰的LanguageModel的现代化替代方案,ChatModel支持更复杂的多轮对话场景,通过接受多个ChatMessage作为输入并返回AiMessage,为开发者提供了更强大的交互能力。文章系统介绍了五种核心ChatMessage类型(UserMessage、AiMessage、SystemMessage等)及其应用场景,并通过丰富Java代码示例演示了如何进行多轮对话、支持多模态
renhongxia1
8 小时前
人工智能
·
信息可视化
·
语言模型
·
自然语言处理
·
数据分析
多模型协作定律:大型语言模型模型集成的缩放极限
近年来,大语言模型(LLMs)的进展主要受单模型扩展定律的推动,该定律预测随着模型参数量和数据量的增长,性能会相应提升。然而,任何单一LLM的能力都存在内在的局限。一种解决方案源自多个LLM之间复杂的交互作用,使得它们的集体性能能够超越其中任何一个单独模型。尽管模型路由、事后集成等多模型集成技术快速涌现,但目前仍缺乏一个关于多模型协作性能扩展的统一理论框架。
暴风鱼划水
9 小时前
python
·
语言模型
·
大模型
·
llm
大型语言模型(入门篇)C
预训练模型是大型语言模型(LLM)完成其训练阶段后的结果。使用预训练模型的原因:预训练LLM的访问途径:
大模型任我行
10 小时前
人工智能
·
语言模型
·
自然语言处理
·
论文笔记
腾讯:RAG生成器感知的排序模型
📖标题:Rank4Gen: RAG-Preference-Aligned Document Set Selection and Ranking 🌐来源:arXiv, 2601.11273v1
狮子座明仔
1 天前
人工智能
·
深度学习
·
语言模型
·
自然语言处理
MatchTIR:用二分匹配解决LLM工具调用的“吃大锅饭“难题
一句话总结:MatchTIR 提出用二分匹配(Hungarian算法/最优传输)来给多轮工具调用中的每一步精确打分,配合双重级优势估计,让4B小模型在复杂工具使用任务上干翻一众8B大模型。
机器学习社区
1 天前
人工智能
·
语言模型
·
自然语言处理
·
面试
·
职场和发展
·
面试题
《大模型面试宝典》(2026版) 正式发布!
2025年12月11日,OpenAI发布GPT-5.2,这次升级确实挺猛的,核心亮点就是更专业、更高效、更可靠,直接瞄准了办公、开发这些实际场景。
一碗甜汤ᐝ
1 天前
语言模型
·
云计算
·
腾讯云
腾讯云部署bisheng毕昇
小白学习记录,如有错误,请大家多多指教。毕昇(Bisheng)是 DataElement 团队开发的开源大模型应用开发平台,专为企业级场景设计。 毕昇基于 Langchain、Langflow 等流行的开源技术栈构建,以中国古代活字印刷术发明人毕昇命名,寓意推动知识和智能应用的广泛传播与高效开发。它是完全开源的项目,允许企业进行二次开发和定制化,免费使用,目标是降低大模型应用的开发门槛,满足企业级需求。 项目文档:https://dataelem.feishu.cn/wiki/ZxW6wZyAJicX4W
打工的小王
1 天前
java
·
后端
·
ai
·
语言模型
Langchain4j(二)RAG知识库
当用户把问题发送给AI应用,AI应用会先根据用户的问题从知识库中检索对应的知识片段,得到知识片段后AI应用需要结合用户的问题以及知识库中检索到的知识片段组织要发送给大模型的消息,大模型接收到消息后会同时根据用户的问题、知识库检索到的知识片段以及自身的知识储备,生成对应的结果响应给AI应用,最终再返回给用户。
程序员:钧念
1 天前
开发语言
·
人工智能
·
python
·
机器学习
·
语言模型
·
自然语言处理
·
transformer
【sh脚本与Python脚本的区别】
这是一个非常经典且在实际工程中至关重要的问题。简单来说:Shell 是“指挥官”,Python 是“专家”。
程序员老周666
1 天前
人工智能
·
深度学习
·
语言模型
·
大模型
·
transformer
·
gpu算力
·
cuda
10.一文学会GPU与cuda原理,并从其原理来理解FlashAttention
cuda的每个block对应gpu中的每个sm(stream multiprocessor ), cuda的一个block可以分为多个warp,一个warp内有32个线程(在不同的数据上执行相同指令)
网络安全研发随想
1 天前
人工智能
·
机器学习
·
语言模型
主流大语言模型(LLM)的后训练技术
预训练(Pre-training)后训练(Post-training / Alignment) 这一阶段专门为“让模型变成好用、听话、安全的助手”,典型包括:
老鱼说AI
1 天前
大数据
·
人工智能
·
深度学习
·
神经网络
·
机器学习
·
语言模型
论文精读第五期:V-STAR提高复杂推理能力
这篇论文《V-STaR: Training Verifiers for Self-Taught Reasoners》发表于COLM 2024,提出了一种名为V-STaR的新方法,旨在通过更高效地利用模型自身生成的数据来提升大型语言模型在复杂推理任务(如数学解题和代码生成)中的性能。
盼小辉丶
1 天前
深度学习
·
语言模型
·
transformer
Transformer实战(34)——多语言和跨语言Transformer模型
我们已经学习了多种 Transformer 架构,从仅编码器模型到仅解码器模型,从高效 Transformer 到长上下文 Transformer,还学习了基于孪生网络 (Siamese network) 的语义文本表示方法,但这些模型都局限于单语言任务。这些模型仅能理解单一语言,无法对文本进行跨语言的通用理解。事实上,其中一些模型已经有了多语言变体,例如:多语言双向 Transformer 编码器 (multilingual bidirectional encoder representations f
Ma040713
1 天前
论文阅读
·
人工智能
·
语言模型
【论文阅读33】-FR-LLM:采用信号到文本编码和自适应优化的用于联合故障诊断和 RUL 预测的多任务大型语言模型
题目:FR-LLM: Multi-task large language model with signal-to-text encoding and adaptive optimization for joint fault diagnosis and RUL prediction
Kakaxiii
2 天前
人工智能
·
语言模型
·
自然语言处理
【2025.8 npj】图检索增强的大型语言模型用于面部表型相关的罕见遗传疾病
https://www.nature.com/articles/s41746-025-01955-x?error=cookies_not_supported&code=37605f54-d943-4353-8d5f-0f5253f44b3f#:~:text=In%20diagnostic%20tests%2C%20RAG%20LLMs,latter%20was%20unrecorded%20in%20FPKG
renhongxia1
2 天前
人工智能
·
语言模型
·
自动化
从文本到仿真:多智能体大型语言模型(LLM)自动化化学工艺设计工作流程
过程模拟是化工设计的核心基石。当前自动化化工设计方法主要集中于各类流程图的表达形式。然而,将这些图示转化为可执行的模拟流程图,仍是一项耗时费力的任务,需要在模拟软件中进行大量手动参数配置。
Kakaxiii
2 天前
人工智能
·
语言模型
·
知识图谱
【2024ACL】Mind Map :知识图谱激发大型语言模型中的思维图谱
https://aclanthology.org/2024.acl-long.558/#:~:text=challenges%2C%20we%20propose%20a%20novel,LLMs%20and%20KGs%20for%20combined