全面升级!GPT-4o 第一时间体验、疑问解答、福利揭秘

昨天半夜 OpenAI 开了一场发布会,时间不长,杀伤力却极大,大家一早都被刷屏了吧!相信很多小伙伴已经用上新模型了,也有不少同学遇到各种各样的问题。

魔法哥也在第一时间做了深入体验和测试,结合多个群里的常见问题,趁热跟大家分享。

这场发布会有哪些亮点?

  • 发布新款旗舰模型 GPT-4o 。这是一款原生多模态大模型,具备原生的文本、视觉、音频输入能力,以及文本、语音输出能力。ChatGPT 可以更直接更自然地睁眼看、开口说了。

  • ChatGPT 实时语音交互 。依托 GPT-4o 的原生多模态能力,ChatGPT 不再需要像以往那样外挂语音识别和语音合成模块,语音对话更加生动自然。虽然语音交互早已不是什么新鲜事儿,但现场演示的 "实时语音交互" 还是令人大受震撼。

  • ChatGPT 桌面客户端。可以读取系统剪贴板和屏幕内容,更紧密地融入到用户的工作流中。本次发布的只有 macOS 版,Windows 将在今年晚些时候发布。

  • 更多高级功能普及到免费用户。OpenAI 真的是在朝着他们的愿景往前走,让 AI 惠及更多的人。这一点我们留到文章末尾详细讲解。

我什么时候可以用上 GPT-4o?

现在就能用啦!

付费用户

如果你是 ChatGPT 付费用户(Plus 会员、Team 套餐会员),GPT-4o 已经全量推送。打开 ChatGPT 网页版,你应该可以看到如下的升级通知:

ChatGPT 界面也改版得更加简洁了。我们在左上角可以切换模型,选择 GPT-4o:

在手机端,你需要把 App 升级到最新版,然后就可以在新对话中选择 "GPT-4o" 作为模型了。

只不过 GPT-4o 不是默认模型,每次都要手动切一下,稍显不便。

免费用户

如果你是免费用户,就要看运气了,目前 GPT-4o 还在逐步灰度推送的过程中。如果你登录 ChatGPT 之后,看到升级通知,而且左上角的模型选择变成以下样子:

恭喜你,已经被灰度到了!虽然这里没有显示 GPT-4o,但不用担心,直接跟它聊就可以了,你可以在它的回复下面看到当前所用模型,默认就是 GPT-4o 了。

如果你没有看到升级通知,而且左上角的模型选择区域还是老样子:

说明还没灰度到,可以试试退出重进,说不定就有了。

(需要注意的是,虽然 ChatGPT 允许不登录使用,但目前 GPT-4o 还是需要登录之后才能使用哦。所以没有账号的同学先去注册吧!)

还没有灰度到,怎么体验 GPT-4o?

有两个变通方法:

  • 使用第三方的大模型平台 。比如 Poe 已经在第一时间接入 GPT-4o( poe.com/GPT-4o ),免费用户也可以聊几轮。

  • 使用 API 。由于 GPT-4o 的 API 已经同步上线了,接口定义也和以往的 GPT 模型完全一致,大家可以把 GPT-4o 集成到自己常用的聊天客户端中。比如魔法哥经常推荐的 NextChat( app.nextchat.dev ),可以完美兼容。

不过这两种方式和原装的 ChatGPT 相比,功能和体验还是有缺失的,只能算是临时尝个鲜吧。

GPT-4o 加持的 ChatGPT 体验如何?

GPT-4o 给人的第一感觉就是 "快"!回复速度秒杀 GPT-4,甚至不输 GPT-3.5!

此外,理论上 GPT-4o 在知识库新鲜度、模型推理能力、视觉识别等方面相比 GPT-4 也有提升,这些都有待我们在日常使用中慢慢体会了。

实时语音对话的实际体验如何?

发布会上的实时语音对话 demo 确实炸裂,很多人惊呼电影《Her》中的场景已经成为现实。魔法哥实际体验如何?

很遗憾,魔法哥尝试了很多次,现有的安卓版 ChatGPT App 始终无法激活实时语音对话效果;群友也无人成功。

魔法哥尝试切换不同线路,用英语对话,甚至在 Google Play 商店参与了 OpenAI 的内测计划。即使安装了 Beta 版的 ChatGPT App,版本号比常规渠道更高,也依然没能试出实时语音对话功能。

如何判断当前语音对话仍然是传统的 "回合制交互",而不是发布会上的 "实时交互"?魔法哥基于以下几点作出判断:

  • 延时没有明显变短。OpenAI 官方表示,GPT-4o 对音频输入的响应时间可以做到几百毫秒级别。但现在仍然有 5 秒左右的延时。

  • 无法感受语气 。传统的回合制对话需要经历 语音识别 → 模型回复 → 语音合成 这三个环节,而用户的语气在第一个环节就会丢失。同理,发布会上演示的 "大口喘气" 也无法被模型感受到。

  • 无法通过语音打断模型。语音界面的交互方式还是老样子,打断模型输出需要手动操作。而且返回对话界面可以发现,模型的回复其实已经全部生成好了,只是语音合成模块没有读完而已。

因此,魔法哥认为实时语音对话功能还没有正式上线;同样,发布会上演示的手机摄像头实时捕捉现实画面的功能也未开放,大家可以先期待一下。一旦有任何消息,魔法哥也会在群里第一时间通知。

GPT-4o API 效果如何?

上面提到,GPT-4o 的 API 已经上线了,开发者可以尝试在自己的项目中切换新到模型。

魔法哥也在第一时间做了初步测试,感受如下:

  • 推理速度极快。和 GPT-3.5 Turbo 相当。

  • "Token 利用率" 明显提升。这一点也可以佐证 GPT-4o 是一个全新的模型,并不是简单地对 GPT-4 "打补丁"。

  • 输出风格偏话痨。AI 应用开发者可能需要对提示词做更多的打磨和调试。

免费用户有哪些新福利?

OpenAI 借着 GPT-4o 的发布,给 ChatGPT 免费用户带来了一波大福利。当免费用户切换到 GPT-4o 时,可以享受以下这些原本是付费用户才能使用的高级功能:

  • 实时联网获取信息
  • 代码解释器(高级数据分析)
  • 上传图片并识别
  • 上传文件并总结、分析、处理
  • 使用 GPTs 和 GPTs 商店
  • ChatGPT 长期记忆能力

而且 OpenAI 承诺将来还会有更多高级功能向免费用户解锁,付费会员纷纷表示 "被背刺"......哈哈,其实付费用户还是有特权的,免费用户的 GPT-4o 使用频次限制很大,想敞开用还是免不了付费的。

小结

OpenAI 的这次发布会依然没有让人失望,ChatGPT 的快速迭代仿佛让我们看到了未来的无限可能。让我们一起期待下一次的技术更新,也别忘了把这篇文章分享给身边的小伙伴哦!

魔法哥对 GPT-4o API 的测试还在持续进行中,稍后会为大家带来更加深入的观察和分享。各位新朋友请点关注,下次更新不迷路。


🔥 往期推荐

AI 应用开发指南:

ChatGPT 高级技巧:

AI 资讯与评述:


© Creative Commons BY-NC-ND 4.0

相关推荐
qzhqbb6 分钟前
基于统计方法的语言模型
人工智能·语言模型·easyui
冷眼看人间恩怨31 分钟前
【话题讨论】AI大模型重塑软件开发:定义、应用、优势与挑战
人工智能·ai编程·软件开发
2401_8830410832 分钟前
新锐品牌电商代运营公司都有哪些?
大数据·人工智能
AI极客菌2 小时前
Controlnet作者新作IC-light V2:基于FLUX训练,支持处理风格化图像,细节远高于SD1.5。
人工智能·计算机视觉·ai作画·stable diffusion·aigc·flux·人工智能作画
阿_旭2 小时前
一文读懂| 自注意力与交叉注意力机制在计算机视觉中作用与基本原理
人工智能·深度学习·计算机视觉·cross-attention·self-attention
王哈哈^_^2 小时前
【数据集】【YOLO】【目标检测】交通事故识别数据集 8939 张,YOLO道路事故目标检测实战训练教程!
前端·人工智能·深度学习·yolo·目标检测·计算机视觉·pyqt
Power20246663 小时前
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型
人工智能·深度学习·机器学习·自然语言处理·nlp
数据猎手小k3 小时前
AIDOVECL数据集:包含超过15000张AI生成的车辆图像数据集,目的解决旨在解决眼水平分类和定位问题。
人工智能·分类·数据挖掘
好奇龙猫3 小时前
【学习AI-相关路程-mnist手写数字分类-win-硬件:windows-自我学习AI-实验步骤-全连接神经网络(BPnetwork)-操作流程(3) 】
人工智能·算法
沉下心来学鲁班3 小时前
复现LLM:带你从零认识语言模型
人工智能·语言模型