获得@所有GPTs的体验资格,我先分析了一波股市

写在前面

前几天有消息传出,ChatGPT要推出@其他GPTs的能力,今天上号之后就发现我也获得了测试的资格,这就必须来体验一把。

根据体验发现,当前仅仅支持@自己创建的GPTs,以及自己使用过的在侧边栏的GPTs,估计是为了控制性能网络成本,不然每次@都是检索把GPT Store里的300w+GPTs全部检索一遍,这谁扛得住?

但是这点很重要,也就意味着,我们必须得先去GPT Store找到自己想用的GPTs,使用它并让它出现在自己的侧边栏中,才可以@它。

前期准备

这里我采用了如下GPT:

  • 原生ChatGPT 4
  • Data Analyst(用于数据分析)
  • Diagram: Show Me(用于画图表)
  • 预测大师(我自己写创建的垃圾GPTs)
  • 投资大师(我自己创建的垃圾GPTs)

除了我自己的GPTs和原生GPT4,其他两个我都提前去商店中找到它们并把它们加入到侧边栏,使得可以@它们。再次强调仅仅为了演示一个场景,勿喷我的垃圾的GPTs,一定会优化的。

分析大盘

首先,让GPT4去访问互联网,获得今年的大盘收盘价。互联网访问我认为已经是ChatGPT的基础能力了,只要描述清楚,基本都能到位,个人认为最强大的功能。

接着,@Data Analyst,来处理一下数据,这可是从排行榜上找的,能力绝对到位

随后,@Digrams: Show Me 生成一个简单的趋势图,这也是排行榜的,能力就不多说了,tql

高开低走,接着让我的垃圾GPTs进行预测、分析。

到我的GPTs了,结果意料之中,一如既往的不知所云。一下子就对比突出了精心制作的GPTs和随便唠嗑出来的GPTs的差距,哈哈哈。

写在最后

本篇文章记录的仅仅是一个使用过程,展现一个多GPTs联合使用的场景。并不是真的为了分析,切勿当真。顺带说个题外话,当前的GPTs超过300w,但是很容易就发现,其实真正的优质GPTs的比重还是很少的,当然我也知道自己的GPTs比较烂,一对比就出来了,hhh,过年的时候得抽时间好好优化一波。

另外,目前该功能还是测试阶段,我也发现了一些bug,比如在修改编辑的时候,会沿用最开始的GPTs来回答,而不是当前@的GPTs。同时我觉得这个地方,也可以优化一下,建议在重新编辑的时候可以支持重新@的GPTs。

联合起来,我们会更强。------艾希

继续感叹一下,这个功能真的是太聪明了,GPTs生态矩阵,成了!我已经想到更多应用的场景了。

相关推荐
BFT白芙堂5 分钟前
睿尔曼系列机器人——以创新驱动未来,重塑智能协作新生态(上)
人工智能·机器学习·机器人·协作机器人·复合机器人·睿尔曼机器人
aneasystone本尊11 分钟前
使用 MCP 让 Claude Code 集成外部工具
人工智能
静心问道21 分钟前
SEW:无监督预训练在语音识别中的性能-效率权衡
人工智能·语音识别
xwz小王子27 分钟前
从LLM到WM:大语言模型如何进化成具身世界模型?
人工智能·语言模型·自然语言处理
我爱一条柴ya28 分钟前
【AI大模型】深入理解 Transformer 架构:自然语言处理的革命引擎
人工智能·ai·ai作画·ai编程·ai写作
静心问道29 分钟前
FLAN-T5:规模化指令微调的语言模型
人工智能·语言模型·自然语言处理
李师兄说大模型29 分钟前
KDD 2025 | 地理定位中的群体智能:一个多智能体大型视觉语言模型协同框架
人工智能·深度学习·机器学习·语言模型·自然语言处理·大模型·deepseek
静心问道30 分钟前
SqueezeBERT:计算机视觉能为自然语言处理在高效神经网络方面带来哪些启示?
人工智能·计算机视觉·自然语言处理
Sherlock Ma31 分钟前
百度开源文心一言4.5:论文解读和使用入门
人工智能·百度·自然语言处理·开源·大模型·文心一言·多模态
weisian15135 分钟前
人工智能-基础篇-18-什么是RAG(检索增强生成:知识库+向量化技术+大语言模型LLM整合的技术框架)
人工智能·语言模型·自然语言处理