OpenAI Q-Star:AGI距离自我意识越来越近

最近硅谷曝出一份54页的内部文件,揭露了去年OpenAI宫斗,导致Altman(奥特曼)差点离职的神秘项目------Q-Star(神秘代号Q*)。

根据该文件显示,Q-Star多模态大模型拥有125万亿个参数,比现有GPT-4多60倍,而一般成人人脑有860-1000亿个神经元,大约100万亿个突触。也就是说,Q-Star是完全比照人类大脑设计的模型。

OpenAI计划于2027年完成训练,并以GPT-7的名义发布,而一旦成功,预计Q-Star相当于一个智商145的人类,并初步具备自我意识,也就是说,GPT-7将会成为第一个真正的AGI模型。

智商145是啥概念?一个人的认知能力和智力水平,其平均值通常设定为100。智商超过130,通常被认为是高于平均水平,而达到145或更高,则被认为是天才水平,超过了95%的人类。人类目前最聪明的爱因斯坦,智商据说约为160左右,属于几十亿人里几百年才出现一个的天才。

因此,Q-Star多模态大模型就是超级人工智能,必然会引起未来机器人超越人类、毁灭人类的担忧。个人推测,这可能是引发2023年年初,生命未来研究所突然发出《暂停大型人工智能研究》的公开信,马斯克以及许多科技界大佬都署名支持,以及OpenAI创始人Altman突然被罢免等事件的原因。这些科技大佬们都清楚人工智能的强大,但需暂停一下。因为全人类还没做好接受有这般能力AI的准备,包括伦理道德风险、AI失控的风险,先把人工智能和人类的伦理问题解决了再发展。

目前,还不清楚Q-Star的具体原理。据专家推测,可能是基于贝尔曼方程中的最优值函数,即动态规划方程:Q代表动态解,Q*为最优效率解。

去年OpenAI宫斗之前,Ilya率领技术团队做了一个内部测试:Q*可以解小学数学题,现在可以解复杂物理题,这意味着Q*很可能已经完成了小模型的训练,若将其扩展到大模型,就可以规划越来越抽象、越来越复杂的目标,最终逼近并超越人脑,而这正是OpenAI的目标,或者是Altman的目标。

最近马斯克起诉OpenAI违背初心、将AI应用商业化的事,表面上看是想给自己留出追赶时间,但也不排除马斯克可能察觉到了风险所在,希望控制下Altman,不能让其野望毁了全人类!!

相关推荐
大耳朵爱学习16 小时前
大模型预训练的降本增效之路——从信息密度出发
人工智能·深度学习·机器学习·自然语言处理·大模型·llm·大语言模型
Seal软件1 天前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
大模型·llm·aigc·gpu·genai·gpu集群
GPUStack1 天前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
ai·大模型·aigc·gpu·genai·gpu集群
真-忒修斯之船2 天前
搭配Knowledge Graph的RAG架构
人工智能·大模型·llm·知识图谱·graph·rag·knowledgegraph
字节跳动数据平台2 天前
火山引擎数智平台:高性能ChatBI的技术解读和落地实践
大数据·大模型·数据可视化·bi
乌漆嘎嘎黑2 天前
下载 llama2-7b-hf 全流程【小白踩坑记录】
大模型·llama2·大模型下载·llama-2-7b-hf
文艺倾年2 天前
【大模型专栏—进阶篇】语言模型创新大总结——“后起之秀”
人工智能·pytorch·语言模型·自然语言处理·大模型
AI大模型_学习君3 天前
3 种自然语言处理(NLP)技术:RNN、Transformers、BERT
人工智能·自然语言处理·大模型·llm·bert·大语言模型
GPT-Hub3 天前
GPT-4与ChatGPT:人工智能对话的新时代【含国内可用gpt】
人工智能·gpt·自然语言处理·chatgpt·agi
我爱学Python!4 天前
大模型教程:使用 Milvus、vLLM 和 Llama 3.1 搭建 RAG 应用
自然语言处理·大模型·llm·大语言模型·llama·milvus·rag