OpenAI新模型开始训练!GPT6?

国内可用潘多拉镜像站GPT-4o、GPT-4(更多信息请加Q群865143845):

站点:https://xgpt4.ai0.cn/

OpenAI 官网 28 日发文称,新模型已经开始训练!

一、新模型开始训练

原话:OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI

"OpenAI 最近开始训练其下一代前沿模型,我们预计这些新系统将在我们通向通用人工智能 (AGI) 的道路上实现更强的能力。"

字越少,事越大

总结起来就是: GPT-6 已经开始训练

众所周知,GPT-5 早在 2023 年中就训练好了,只是在做对齐(安全防范)。

OpenAI的路线图是在2027年前实现AGI。GPT6很可能是2026年才会发布,所以GPT6很可能就是OpenAI眼中的真AGI!

二、宣布成立了「安全保障委员会」,负责完善 OpenAI 的流程和安全措施

详细原文如下:

Today, the OpenAI Board formed a Safety and Security Committee led by directors Bret Taylor (Chair), Adam D'Angelo, Nicole Seligman, and Sam Altman (CEO). This committee will be responsible for making recommendations to the full Board on critical safety and security decisions for OpenAI projects and operations.

OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI. While we are proud to build and release models that are industry-leading on both capabilities and safety, we welcome a robust debate at this important moment.

A first task of the Safety and Security Committee will be to evaluate and further develop OpenAI's processes and safeguards over the next 90 days. At the conclusion of the 90 days, the Safety and Security Committee will share their recommendations with the full Board. Following the full Board's review, OpenAI will publicly share an update on adopted recommendations in a manner that is consistent with safety and security.

OpenAI technical and policy experts Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security), and Jakub Pachocki (Chief Scientist) will also be on the committee.

Additionally, OpenAI will retain and consult with other safety, security, and technical experts to support this work, including former cybersecurity officials, Rob Joyce, who advises OpenAI on security, and John Carlin.

翻译:

此外,OpenAI 还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员 Rob Joyce(为 OpenAI 提供安全建议)和 John Carlin。

今天,OpenAI董事会成立了一个由董事Bret Taylor(主席)、Adam D'Angelo、Nicole Seligman和首席执行官Sam Altman领导的安全和保障委员会。该委员会将负责向全体董事会就OpenAI项目和运营中的关键安全和保障决策提出建议。

OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将在通向通用人工智能(AGI)的道路上使我们的能力提升到新的水平。尽管我们很自豪能够构建和发布在能力和安全性方面均处于行业领先地位的模型,但我们也欢迎在这一重要时刻进行深入的讨论。

安全和保障委员会的首要任务是在未来90天内评估并进一步完善OpenAI的流程和安全措施。在90天结束时,安全和保障委员会将向全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和保障要求的方式公开分享采纳建议的更新。

OpenAI的技术和政策专家,包括准备工作负责人Aleksander Madry、安全系统负责人Lilian Weng、对齐科学负责人John Schulman、安全负责人Matt Knight和首席科学家Jakub Pachocki也将加入该委员会。

此外,OpenAI还将保留并咨询其他安全、保障和技术专家以支持这项工作,包括前网络安全官员Rob Joyce(他为OpenAI提供安全建议)和John Carlin。

相关推荐
CSDN云计算13 分钟前
如何以开源加速AI企业落地,红帽带来新解法
人工智能·开源·openshift·红帽·instructlab
艾派森24 分钟前
大数据分析案例-基于随机森林算法的智能手机价格预测模型
人工智能·python·随机森林·机器学习·数据挖掘
hairenjing112326 分钟前
在 Android 手机上从SD 卡恢复数据的 6 个有效应用程序
android·人工智能·windows·macos·智能手机
小蜗子30 分钟前
Multi‐modal knowledge graph inference via media convergenceand logic rule
人工智能·知识图谱
SpikeKing43 分钟前
LLM - 使用 LLaMA-Factory 微调大模型 环境配置与训练推理 教程 (1)
人工智能·llm·大语言模型·llama·环境配置·llamafactory·训练框架
黄焖鸡能干四碗1 小时前
信息化运维方案,实施方案,开发方案,信息中心安全运维资料(软件资料word)
大数据·人工智能·软件需求·设计规范·规格说明书
1 小时前
开源竞争-数据驱动成长-11/05-大专生的思考
人工智能·笔记·学习·算法·机器学习
ctrey_1 小时前
2024-11-4 学习人工智能的Day21 openCV(3)
人工智能·opencv·学习
攻城狮_Dream1 小时前
“探索未来医疗:生成式人工智能在医疗领域的革命性应用“
人工智能·设计·医疗·毕业
学习前端的小z2 小时前
【AIGC】如何通过ChatGPT轻松制作个性化GPTs应用
人工智能·chatgpt·aigc