OpenAI新模型开始训练!GPT6?

国内可用潘多拉镜像站GPT-4o、GPT-4(更多信息请加Q群865143845):

站点:https://xgpt4.ai0.cn/

OpenAI 官网 28 日发文称,新模型已经开始训练!

一、新模型开始训练

原话:OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI

"OpenAI 最近开始训练其下一代前沿模型,我们预计这些新系统将在我们通向通用人工智能 (AGI) 的道路上实现更强的能力。"

字越少,事越大

总结起来就是: GPT-6 已经开始训练

众所周知,GPT-5 早在 2023 年中就训练好了,只是在做对齐(安全防范)。

OpenAI的路线图是在2027年前实现AGI。GPT6很可能是2026年才会发布,所以GPT6很可能就是OpenAI眼中的真AGI!

二、宣布成立了「安全保障委员会」,负责完善 OpenAI 的流程和安全措施

详细原文如下:

Today, the OpenAI Board formed a Safety and Security Committee led by directors Bret Taylor (Chair), Adam D'Angelo, Nicole Seligman, and Sam Altman (CEO). This committee will be responsible for making recommendations to the full Board on critical safety and security decisions for OpenAI projects and operations.

OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI. While we are proud to build and release models that are industry-leading on both capabilities and safety, we welcome a robust debate at this important moment.

A first task of the Safety and Security Committee will be to evaluate and further develop OpenAI's processes and safeguards over the next 90 days. At the conclusion of the 90 days, the Safety and Security Committee will share their recommendations with the full Board. Following the full Board's review, OpenAI will publicly share an update on adopted recommendations in a manner that is consistent with safety and security.

OpenAI technical and policy experts Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security), and Jakub Pachocki (Chief Scientist) will also be on the committee.

Additionally, OpenAI will retain and consult with other safety, security, and technical experts to support this work, including former cybersecurity officials, Rob Joyce, who advises OpenAI on security, and John Carlin.

翻译:

此外,OpenAI 还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员 Rob Joyce(为 OpenAI 提供安全建议)和 John Carlin。

今天,OpenAI董事会成立了一个由董事Bret Taylor(主席)、Adam D'Angelo、Nicole Seligman和首席执行官Sam Altman领导的安全和保障委员会。该委员会将负责向全体董事会就OpenAI项目和运营中的关键安全和保障决策提出建议。

OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将在通向通用人工智能(AGI)的道路上使我们的能力提升到新的水平。尽管我们很自豪能够构建和发布在能力和安全性方面均处于行业领先地位的模型,但我们也欢迎在这一重要时刻进行深入的讨论。

安全和保障委员会的首要任务是在未来90天内评估并进一步完善OpenAI的流程和安全措施。在90天结束时,安全和保障委员会将向全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和保障要求的方式公开分享采纳建议的更新。

OpenAI的技术和政策专家,包括准备工作负责人Aleksander Madry、安全系统负责人Lilian Weng、对齐科学负责人John Schulman、安全负责人Matt Knight和首席科学家Jakub Pachocki也将加入该委员会。

此外,OpenAI还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员Rob Joyce(他为OpenAI提供安全建议)和John Carlin。

相关推荐
m0_751336391 小时前
突破性进展:超短等离子体脉冲实现单电子量子干涉,为飞行量子比特奠定基础
人工智能·深度学习·量子计算·材料科学·光子器件·光子学·无线电电子
美狐美颜sdk4 小时前
跨平台直播美颜SDK集成实录:Android/iOS如何适配贴纸功能
android·人工智能·ios·架构·音视频·美颜sdk·第三方美颜sdk
DeepSeek-大模型系统教程4 小时前
推荐 7 个本周 yyds 的 GitHub 项目。
人工智能·ai·语言模型·大模型·github·ai大模型·大模型学习
郭庆汝5 小时前
pytorch、torchvision与python版本对应关系
人工智能·pytorch·python
小雷FansUnion6 小时前
深入理解MCP架构:智能服务编排、上下文管理与动态路由实战
人工智能·架构·大模型·mcp
资讯分享周7 小时前
扣子空间PPT生产力升级:AI智能生成与多模态创作新时代
人工智能·powerpoint
叶子爱分享8 小时前
计算机视觉与图像处理的关系
图像处理·人工智能·计算机视觉
鱼摆摆拜拜8 小时前
第 3 章:神经网络如何学习
人工智能·神经网络·学习
一只鹿鹿鹿8 小时前
信息化项目验收,软件工程评审和检查表单
大数据·人工智能·后端·智慧城市·软件工程
张较瘦_8 小时前
[论文阅读] 人工智能 | 深度学习系统崩溃恢复新方案:DaiFu框架的原位修复技术
论文阅读·人工智能·深度学习