AI 大模型看手相!图片视频加持深度思考,阿里 QVQ-Max“神了神了”

阿里又发了个有意思的大模型------

QVQ-Max,第一版视觉推理模型,对任意图像或视频都可以进行深度思考。

举个有趣的例子,上传一张你的手掌,再点击 Thinking ,QVQ-Max 就可以给你看手相

若是刨去视频里的背景音,单是看内容,还是比较抽象的。

对此,QVQ-Max 给出的理解是:

从观察到推理

除了效果之外,虽然 Qwen 团队没有公布相关论文,但对于背后的技术亮点,团队还是简单的介绍了一番。

首先,团队在 MathVision 这个 benchmark(汇集各类困难多模态数学)上进行了一番测试:

结果表明,通过调整模型 thinking 的最大长度,模型在 MathVision 上的准确率也会持续提升。

除此之外,团队还总结了 QVQ-Max 的三大能力特点。

包括对图片的解析能力非常强,无论是复杂的图表还是日常生活中随手拍的照片,它都能快速识别出关键元素。比如,它可以告诉你一张照片里有哪些物品、有什么文字标识,甚至还能指出一些你可能忽略的小细节。

仅仅识别出图片里的内容还不够,QVQ-Max 还能进一步分析这些信息,并结合背景知识得出结论。

例如,在一道几何题中,它可以根据题目附带的图形推导出答案;在一段视频里,它能根据画面内容推测出接下来可能发生的情节。

除了分析和推理,QVQ-Max 还能做一些有趣的事情,比如帮你设计插画、生成短视频脚本,甚至根据你的需求创作角色扮演的内容。

如果你上传一幅草稿,它可能会帮你完善成一幅完整的作品;上传一个日常照片,它可以化身犀利的评论家,占卜师。

值得注意的是,QVQ-Max 是免费可用的哦,感兴趣的朋友快去试试吧~

体验地址:
chat.qwen.ai

参考链接:

1\][qwenlm.github.io/zh/blog/qvq...](https://link.juejin.cn?target=https%3A%2F%2Fqwenlm.github.io%2Fzh%2Fblog%2Fqvq-max-preview%2F "https://qwenlm.github.io/zh/blog/qvq-max-preview/") \[2\][x.com/Alibaba_Qwe...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2FAlibaba_Qwen%2Fstatus%2F1905342260100956210 "https://x.com/Alibaba_Qwen/status/1905342260100956210") **欢迎在评论区留下你的想法!** --- **完** ---

相关推荐
小敬爱吃饭7 分钟前
Ragflow Docker部署及问题解决方案(界面为Welcome to nginx,ragflow上传文件失败,Docker中的ragflow-cpu-1一直重启)
人工智能·python·nginx·docker·语言模型·容器·数据挖掘
宸津-代码粉碎机14 分钟前
Spring Boot 4.0虚拟线程实战调优技巧,最大化发挥并发优势
java·人工智能·spring boot·后端·python
老兵发新帖23 分钟前
Hermes:比openclaw更好用的智能体?
人工智能
俊哥V30 分钟前
每日 AI 研究简报 · 2026-04-09
人工智能·ai
MicrosoftReactor31 分钟前
技术速递|使用 Copilot SDK 构建 AI 驱动的 GitHub Issue 分类系统
人工智能·github·copilot
AI成长日志33 分钟前
【GitHub开源项目专栏】AI推理优化框架深度解析(上):vLLM架构设计与核心实现
人工智能·开源·github
数智前线34 分钟前
三次“进窄门”,MiniMax走向AGI深处
人工智能
AI视觉网奇35 分钟前
几何数据集 多模态
人工智能·深度学习
Figo_Cheung36 分钟前
Figo义商本体约束推理引擎 (CRE):基于已部署CRE本地模型的技术实践研究——迈向AGI时代的AI伦理安全框架
人工智能·安全
guslegend40 分钟前
第5节:动态切片策略与重叠机制提升RAG召回率
人工智能·大模型·rag