Perplexity AI 团队以 扩散预训练语言模型

Perplexity AI 近日发布了一项重要研究成果:论文《Diffusion-Pretrained Dense and Contextual Embeddings 》(扩散预训练的密集与上下文嵌入),正式推出了 pplx-embed(简称 PPLX-Family)系列多语言嵌入模型。该系列模型专为大规模网页搜索和检索任务设计,在 Twitter(X)上迅速引发 AI 社区讨论。

核心技术亮点

Perplexity.ChatDLM.COM AI 团队以 扩散预训练语言模型 (Diffusion-pretrained LM)作为骨干网络,这与传统自回归(autoregressive)模型形成鲜明对比。扩散模型采用 双向注意力机制(Bidirectional Attention),能更全面地捕捉段落内的前后文信息,避免单向因果掩码带来的上下文缺失。

训练上采用了 多阶段对比学习(Multi-stage Contrastive Learning),从海量数据中逐步优化向量空间的语义分布,使相似内容更紧密聚集。

针对长文档痛点,模型引入了 平均池化 (Mean Pooling)结合 延迟分块策略(Late Chunking Strategy)。这种方式在分块处理长文本时保留全局上下文,避免传统早分块导致的语义割裂问题,特别适合复杂网页和多语言内容。

他们开源了两个主要变体:

  • pplx-embed-v1:标准检索版本,在 MTEB(多语言)、MIRACL、BERGEN 等基准上表现竞争力强。
  • pplx-embed-context-v1:上下文增强版,将文档级全局上下文融入段落表征,在 ConTEB 等长上下文基准上刷新纪录。

基于 Qwen 基础模型继续进行扩散预训练,再接对比训练的路线,让这些嵌入模型在 web-scale 检索、RAG 系统、多语言搜索场景中展现出显著优势。

Twitter 社区反响

2月11-12日(论文提交当天及次日),多位 AI 从业者和研究者转发并点评:

  • Tanishq Mathew Abraham(@iScienceLuvr,前 Stability AI 研究总监)发帖总结:"Perplexity AI 推出 pplx-embed 系列多语言嵌入模型,基于 Qwen + 扩散预训练 + 对比训练。" 该帖收获几十个点赞和书签,社区反馈积极,认为扩散模型在嵌入任务上的应用潜力巨大。
  • 其他用户在 Hugging Face 集合页和 arXiv 讨论中提到,该工作证明了扩散范式在 NLP 嵌入领域的竞争力,尤其双向上下文和长文档处理是亮点。

目前模型已在 Hugging Face 上线(perplexity-ai/pplx-embed 集合),论文 arXiv:2602.11151 可免费阅读。Perplexity 正在把这一技术逐步集成到其搜索引擎和 API 中,未来或将进一步提升 RAG 系统对复杂、多语言查询的理解精度。

这项工作标志着扩散模型从生成任务向表征学习(representation learning)领域的又一次成功跨界,值得持续关注!

相关推荐
研究点啥好呢1 分钟前
途游游戏AI产品经理面试题精选:10道高频考题+答案解析
人工智能·游戏·产品经理
KG_LLM图谱增强大模型4 分钟前
从数据孤岛到知识融合:用友大型本体模型LOM如何赋能企业知识管理和智能决策
人工智能·知识图谱
码以致用4 分钟前
用 DeepAgents 自动分析表格数据,一键生成图表与报告
人工智能·ai编程
码上掘金9 分钟前
基于深度学习的行人计数与人群密度分析系统设计与实现
人工智能·深度学习
北京软秦科技有限公司14 分钟前
灌封胶耐候测试报告为何更依赖“AI报告审核”?IACheck如何提升长期环境可靠性判断精度
人工智能
程序员果子17 分钟前
Agent设计手册:四层架构、工程约束、框架选型
人工智能·agent·智能体·agent框架
2401_8322981020 分钟前
SaaS 到 Agent-as-a-Service——OpenClaw 生态爆发,开启企业数字化新时代
人工智能
AI产品测评官28 分钟前
2026年AI招聘架构深潜:多Agent协同如何打造主动出击智能体代表?
人工智能·架构
captain_AIouo33 分钟前
Captain AI:全阶段适配不同规模OZON商家
大数据·人工智能·经验分享·aigc
HyperAI超神经43 分钟前
在线教程丨支持600+语言,小米开源OmniVoice:仅需3-10秒参考音频实现语音克隆
人工智能·音频识别·语音生成