ai技术应用

静心问道4 天前
人工智能·模型加速·ai技术应用
Deja Vu: 利用上下文稀疏性提升大语言模型推理效率温馨提示: 本篇文章已同步至"AI专题精讲" Deja Vu: 利用上下文稀疏性提升大语言模型推理效率
静心问道6 天前
人工智能·模型加速·ai技术应用·缓存压缩与传输
CacheGen:用于快速大语言模型推理服务的 KV 缓存压缩与流式传输温馨提示: 本篇文章已同步至"AI专题精讲" CacheGen:用于快速大语言模型推理服务的 KV 缓存压缩与流式传输
静心问道7 天前
人工智能·多模态·ai技术应用
Idefics3:构建和更好地理解视觉-语言模型:洞察与未来方向温馨提示: 本篇文章已同步至"AI专题精讲" Idefics3:构建和更好地理解视觉-语言模型:洞察与未来方向
静心问道8 天前
人工智能·多模态·ai技术应用
InstructBLIP:通过指令微调迈向通用视觉-语言模型温馨提示: 本篇文章已同步至"AI专题精讲" InstructBLIP:通过指令微调迈向通用视觉-语言模型
静心问道8 天前
人工智能·语言模型·模型加速·ai技术应用
BitDistiller:通过自蒸馏释放 Sub-4-Bit 大语言模型的潜力温馨提示: 本篇文章已同步至"AI专题精讲" BitDistiller:通过自蒸馏释放 Sub-4-Bit 大语言模型的潜力
静心问道9 天前
人工智能·模型加速·ai技术应用
DeepSpeed-FastGen:通过 MII 和 DeepSpeed-Inference 实现大语言模型的高吞吐文本生成温馨提示: 本篇文章已同步至"AI专题精讲" DeepSpeed-FastGen:通过 MII 和 DeepSpeed-Inference 实现大语言模型的高吞吐文本生成
静心问道13 天前
人工智能·机器学习·强化学习·ai技术应用
OAIF:基于在线 AI 反馈的语言模型直接对齐温馨提示: 本篇文章已同步至"AI专题精讲" OAIF:基于在线 AI 反馈的语言模型直接对齐直接来自偏好(DAP)的对齐方法(如 DPO)近年来作为人类反馈强化学习(RLHF)的高效替代方案出现,这些方法无需训练单独的奖励模型。然而,DAP 方法中使用的偏好数据集通常是在训练前收集的,并且在训练过程中不会更新,因此反馈是完全离线的。此外,这些数据集中的回答往往来自于与当前被对齐模型不同的语言模型,而由于模型在训练过程中不断变化,对齐阶段不可避免地是离策略(off-policy)的。
静心问道16 天前
人工智能·强化学习·ai技术应用
CPO:对比偏好优化—突破大型语言模型在机器翻译中的性能边界温馨提示: 本篇文章已同步至"AI专题精讲" CPO:对比偏好优化—突破大型语言模型在机器翻译中的性能边界
静心问道21 天前
人工智能·多模态·ai技术应用
VISUALBERT:一个简单且高效的视觉与语言基线模型温馨提示: 本篇文章已同步至"AI专题精讲" VISUALBERT:一个简单且高效的视觉与语言基线模型