OpenAI新模型开始训练!GPT6?

国内可用潘多拉镜像站GPT-4o、GPT-4(更多信息请加Q群865143845):

站点:https://xgpt4.ai0.cn/

OpenAI 官网 28 日发文称,新模型已经开始训练!

一、新模型开始训练

原话:OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI

"OpenAI 最近开始训练其下一代前沿模型,我们预计这些新系统将在我们通向通用人工智能 (AGI) 的道路上实现更强的能力。"

字越少,事越大

总结起来就是: GPT-6 已经开始训练

众所周知,GPT-5 早在 2023 年中就训练好了,只是在做对齐(安全防范)。

OpenAI的路线图是在2027年前实现AGI。GPT6很可能是2026年才会发布,所以GPT6很可能就是OpenAI眼中的真AGI!

二、宣布成立了「安全保障委员会」,负责完善 OpenAI 的流程和安全措施

详细原文如下:

Today, the OpenAI Board formed a Safety and Security Committee led by directors Bret Taylor (Chair), Adam D'Angelo, Nicole Seligman, and Sam Altman (CEO). This committee will be responsible for making recommendations to the full Board on critical safety and security decisions for OpenAI projects and operations.

OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI. While we are proud to build and release models that are industry-leading on both capabilities and safety, we welcome a robust debate at this important moment.

A first task of the Safety and Security Committee will be to evaluate and further develop OpenAI's processes and safeguards over the next 90 days. At the conclusion of the 90 days, the Safety and Security Committee will share their recommendations with the full Board. Following the full Board's review, OpenAI will publicly share an update on adopted recommendations in a manner that is consistent with safety and security.

OpenAI technical and policy experts Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security), and Jakub Pachocki (Chief Scientist) will also be on the committee.

Additionally, OpenAI will retain and consult with other safety, security, and technical experts to support this work, including former cybersecurity officials, Rob Joyce, who advises OpenAI on security, and John Carlin.

翻译:

此外,OpenAI 还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员 Rob Joyce(为 OpenAI 提供安全建议)和 John Carlin。

今天,OpenAI董事会成立了一个由董事Bret Taylor(主席)、Adam D'Angelo、Nicole Seligman和首席执行官Sam Altman领导的安全和保障委员会。该委员会将负责向全体董事会就OpenAI项目和运营中的关键安全和保障决策提出建议。

OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将在通向通用人工智能(AGI)的道路上使我们的能力提升到新的水平。尽管我们很自豪能够构建和发布在能力和安全性方面均处于行业领先地位的模型,但我们也欢迎在这一重要时刻进行深入的讨论。

安全和保障委员会的首要任务是在未来90天内评估并进一步完善OpenAI的流程和安全措施。在90天结束时,安全和保障委员会将向全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和保障要求的方式公开分享采纳建议的更新。

OpenAI的技术和政策专家,包括准备工作负责人Aleksander Madry、安全系统负责人Lilian Weng、对齐科学负责人John Schulman、安全负责人Matt Knight和首席科学家Jakub Pachocki也将加入该委员会。

此外,OpenAI还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员Rob Joyce(他为OpenAI提供安全建议)和John Carlin。

相关推荐
CV缝合救星1 小时前
【Arxiv 2025 预发行论文】重磅突破!STAR-DSSA 模块横空出世:显著性+拓扑双重加持,小目标、大场景统统拿下!
人工智能·深度学习·计算机视觉·目标跟踪·即插即用模块
TDengine (老段)3 小时前
从 ETL 到 Agentic AI:工业数据管理变革与 TDengine IDMP 的治理之道
数据库·数据仓库·人工智能·物联网·时序数据库·etl·tdengine
蓝桉8024 小时前
如何进行神经网络的模型训练(视频代码中的知识点记录)
人工智能·深度学习·神经网络
星期天要睡觉4 小时前
深度学习——数据增强(Data Augmentation)
人工智能·深度学习
南山二毛5 小时前
机器人控制器开发(导航算法——导航栈关联坐标系)
人工智能·架构·机器人
大数据张老师5 小时前
【案例】AI语音识别系统的标注分区策略
人工智能·系统架构·语音识别·架构设计·后端架构
xz2024102****6 小时前
吴恩达机器学习合集
人工智能·机器学习
anneCoder6 小时前
AI大模型应用研发工程师面试知识准备目录
人工智能·深度学习·机器学习
骑驴看星星a6 小时前
没有深度学习
人工智能·深度学习
youcans_6 小时前
【医学影像 AI】YoloCurvSeg:仅需标注一个带噪骨架即可实现血管状曲线结构分割
人工智能·yolo·计算机视觉·分割·医学影像