OpenAI新模型开始训练!GPT6?

国内可用潘多拉镜像站GPT-4o、GPT-4(更多信息请加Q群865143845):

站点:https://xgpt4.ai0.cn/

OpenAI 官网 28 日发文称,新模型已经开始训练!

一、新模型开始训练

原话:OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI

"OpenAI 最近开始训练其下一代前沿模型,我们预计这些新系统将在我们通向通用人工智能 (AGI) 的道路上实现更强的能力。"

字越少,事越大

总结起来就是: GPT-6 已经开始训练

众所周知,GPT-5 早在 2023 年中就训练好了,只是在做对齐(安全防范)。

OpenAI的路线图是在2027年前实现AGI。GPT6很可能是2026年才会发布,所以GPT6很可能就是OpenAI眼中的真AGI!

二、宣布成立了「安全保障委员会」,负责完善 OpenAI 的流程和安全措施

详细原文如下:

Today, the OpenAI Board formed a Safety and Security Committee led by directors Bret Taylor (Chair), Adam D'Angelo, Nicole Seligman, and Sam Altman (CEO). This committee will be responsible for making recommendations to the full Board on critical safety and security decisions for OpenAI projects and operations.

OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI. While we are proud to build and release models that are industry-leading on both capabilities and safety, we welcome a robust debate at this important moment.

A first task of the Safety and Security Committee will be to evaluate and further develop OpenAI's processes and safeguards over the next 90 days. At the conclusion of the 90 days, the Safety and Security Committee will share their recommendations with the full Board. Following the full Board's review, OpenAI will publicly share an update on adopted recommendations in a manner that is consistent with safety and security.

OpenAI technical and policy experts Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security), and Jakub Pachocki (Chief Scientist) will also be on the committee.

Additionally, OpenAI will retain and consult with other safety, security, and technical experts to support this work, including former cybersecurity officials, Rob Joyce, who advises OpenAI on security, and John Carlin.

翻译:

此外,OpenAI 还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员 Rob Joyce(为 OpenAI 提供安全建议)和 John Carlin。

今天,OpenAI董事会成立了一个由董事Bret Taylor(主席)、Adam D'Angelo、Nicole Seligman和首席执行官Sam Altman领导的安全和保障委员会。该委员会将负责向全体董事会就OpenAI项目和运营中的关键安全和保障决策提出建议。

OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将在通向通用人工智能(AGI)的道路上使我们的能力提升到新的水平。尽管我们很自豪能够构建和发布在能力和安全性方面均处于行业领先地位的模型,但我们也欢迎在这一重要时刻进行深入的讨论。

安全和保障委员会的首要任务是在未来90天内评估并进一步完善OpenAI的流程和安全措施。在90天结束时,安全和保障委员会将向全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和保障要求的方式公开分享采纳建议的更新。

OpenAI的技术和政策专家,包括准备工作负责人Aleksander Madry、安全系统负责人Lilian Weng、对齐科学负责人John Schulman、安全负责人Matt Knight和首席科学家Jakub Pachocki也将加入该委员会。

此外,OpenAI还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员Rob Joyce(他为OpenAI提供安全建议)和John Carlin。

相关推荐
智驱力人工智能7 分钟前
智慧零售管理中的客流统计与属性分析
人工智能·算法·边缘计算·零售·智慧零售·聚众识别·人员计数
workflower25 分钟前
以光量子为例,详解量子获取方式
数据仓库·人工智能·软件工程·需求分析·量子计算·软件需求
壹氿29 分钟前
Supersonic 新一代AI数据分析平台
人工智能·数据挖掘·数据分析
张较瘦_36 分钟前
[论文阅读] 人工智能 | 搜索增强LLMs的用户偏好与性能分析
论文阅读·人工智能
我不是小upper1 小时前
SVM超详细原理总结
人工智能·机器学习·支持向量机
Yxh181377845541 小时前
抖去推--短视频矩阵系统源码开发
人工智能·python·矩阵
取酒鱼食--【余九】1 小时前
rl_sar实现sim2real的整体思路
人工智能·笔记·算法·rl_sar
Jamence2 小时前
多模态大语言模型arxiv论文略读(111)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
归去_来兮2 小时前
图神经网络(GNN)模型的基本原理
大数据·人工智能·深度学习·图神经网络·gnn