通往AGI的大模型MultiAgent的RL是对的但HF有上限

OpenAI高管Mira Murati周三告诉员工,一封关于AI取得突破的信件促使董事会采取了解雇行动。一位消息人士透露,OpenAI在Q*项目上取得了进展,内部人士认为这可能是OpenAI在超级智能领域的突破。这名消息人士称,虽然Q*的数学成绩只是小学生的水平,但在测试中取得优异成绩让研究人员对它未来的成功非常乐观

有人说:奥特曼不用斯派修姆光线把解雇他的OpenAI给消灭吗?

人类终将打开AGI(Artificial General Intelligence)通用人工智能的魔盒。

  1. scaling up 是接近 AGI 的正确方向,虽然不一定是最佳方向。

  2. 架构层面上,相信肯定有比 transformer 更好架构,但现在大家已经在这个架构上做了很多工作了,也能用。

  3. 同行Meta 没有做到位,Llama 还是差的挺多的,远远没有做好, meta 没有train 好。

  4. 学术界大模型研究与工业界差距大,一个问题是 gpu 算力集群不够,学术界不能做pretrain,很难下决心 all in 某个研究方向,另一个问题是学术界研究不能在生产中验证

  5. gpt 5什么时候出来不知道。

  6. 这一年来 gpt 底层model 并没换,只不过人的错觉认为变弱了

  7. 很多开源社区都是重复的造轮子,所以 OpenAI内部 就自己做掉这部分轮子

  8. RLHF(基于人类反馈(Human Feedback)对语言模型进行强化学习(Reinforcement Learning))不一定是AGI 的必经路径,因为RLHF是hf部分决定了上限,怎么会通往 AGI?

  9. 但RL是正确的,看好 multi agent,类比阿法狗,可以左脚踩右脚把能力提上去。

  10. GPTs是为了方便开发者而零时发布的一个产品,这不是OpenAI公司的重点

相关推荐
营赢盈英4 小时前
Allow anonymous access to my Azure OpenAI chat bot
ai·openai·azure·webapps
程序员小川4 小时前
Ubuntu22.04安装paddle
ai·cuda·paddle·cudnn
数据智能老司机8 小时前
从零开始构建大型语言模型——微调用于分类
深度学习·神经网络·llm
大耳朵爱学习10 小时前
大模型预训练的降本增效之路——从信息密度出发
人工智能·深度学习·机器学习·自然语言处理·大模型·llm·大语言模型
AI极客菌11 小时前
Stable Diffusion绘画 | 生成高清多细节图片的各个要素
人工智能·ai·ai作画·stable diffusion·aigc·midjourney·人工智能作画
千寻简17 小时前
Cursor免费 GPT-4 IDE 工具的保姆级使用教程
java·运维·ide·ai
Seal软件17 小时前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
大模型·llm·aigc·gpu·genai·gpu集群
GPUStack17 小时前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
ai·大模型·aigc·gpu·genai·gpu集群
阿里云大数据AI技术18 小时前
对接开源大模型应用开发平台最佳实践
人工智能·阿里云·llm·opensearch
skywalk816318 小时前
使用PaddleNLP调用大模型ChatGLM3-6b进行信息抽取
人工智能·llm·chatglm