ChatGPT4
# Open AI
OpenAI 是一家 AI 研究和部署公司。我们的使命是确保通用人工智能造福全人类。
我们对AGI未来的愿景:我们的使命是确保通用人工智能——通常比人类更聪明的人工智能系统——造福全人类。
OpenAI 的职业生涯:开发安全和有益的人工智能需要来自不同学科和背景的人。
我们的结构:我们由非营利组织管理,我们独特的上限利润模式推动了我们对安全的承诺。这意味着,随着人工智能变得越来越强大,我们可以重新分配我们工作的利润,以最大限度地提高人工智能技术的社会和经济效益。
# GPT-4 介绍
- GPT-4 是 OpenAI 最先进的系统,可产生更安全、更有用的响应。
- GPT-4 由于其更广泛的一般知识和解决问题的能力,可以更准确地解决难题。
详情请点击
创造力:(creativity) GPT-4 比以往任何时候都更具创造力和协作性。它可以生成、编辑和迭代用户进行创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格。
视觉输入:(visual input) GPT-4 可以接受图像作为输入并生成标题、分类和分析。
更长的上下文:(longer context) GPT-4 能够处理超过 25,000 字的文本,允许使用长篇内容创建、扩展对话以及文档搜索和分析等用例。
- GPT-4 在其先进的推理能力方面超过了 ChatGPT。
- GPT-4 在考生中得分更高,比 ChatGPT 更好。
- 遵循 GPT、GPT-2 和 GPT-3 的研究路径,我们的深度学习方法利用更多的数据和更多的计算来创建越来越复杂和有能力的语言模型。
- 我们花了 6 个月的时间使 GPT-4 更安全、更一致。在我们的内部评估中,GPT-4 响应不允许内容请求的可能性降低了 82%,产生事实回复的可能性高出 40%。
- 安全与对齐。
详情请点击
使用人工反馈进行培训 我们纳入了更多的人工反馈,包括 ChatGPT 用户提交的反馈,以改善 GPT-4 的行为。我们还与 50 多位专家合作,在人工智能安全和安保等领域提供早期反馈。
从实际使用中持续改进 我们已将以前模型的实际使用经验应用到 GPT-4 的安全研究和监控系统中。与 ChatGPT 一样,随着越来越多的人使用它,我们将定期更新和改进 GPT-4。
GPT-4 辅助安全研究,GPT-4 的高级推理和指令遵循功能加快了我们的安全工作。我们使用 GPT-4 来帮助创建训练数据,以便在训练、评估和监控中对分类器进行微调和迭代。
- 使用 GPT-4 构建。我们与使用 GPT-4 构建创新产品的组织合作。
合作方
Material Descript Dropbox Intercom
- 更多信息。
详情请点击
研究:GPT-4是OpenAI在扩展深度学习方面的最新里程碑。
基础设施:GPT-4 在 Microsoft Azure AI 超级计算机上接受训练。Azure 的 AI 优化基础结构还使我们能够向世界各地的用户提供 GPT-4。
局限性:GPT-4 仍然存在许多我们正在努力解决的已知限制,例如社会偏见、幻觉和对抗性提示。随着社会采用这些模式,我们鼓励并促进透明度、用户教育和更广泛的人工智能素养。我们还致力于扩大人们在塑造我们的模型方面的输入途径。
可用性:我们正在 ChatGPT Plus 上提供 GPT-4,并作为开发人员构建应用程序和服务的 API。
# GPT-4 研究
我们创建了GPT-4,这是OpenAI在扩展深度学习方面的最新里程碑。GPT-4 是一个大型多模态模型(接受图像和文本输入,发出文本输出),虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上表现出人类水平的表现。例如,它通过了模拟律师考试,分数约为考生的前 10%;相比之下,GPT-3.5 的得分约为倒数 10%。我们花了 6 个月的时间迭代调整GPT-4 利用我们的对抗性测试程序和 ChatGPT 的经验教训,在真实性、可操纵性和拒绝超出护栏方面取得了我们有史以来最好的结果(尽管远非完美)。
在过去的两年里,我们重建了整个深度学习堆栈,并与 Azure 一起为我们的工作负载从头开始共同设计了一台超级计算机。一年前,我们将 GPT-3.5 作为系统的第一次“测试运行”进行了训练。我们发现并修复了一些错误,并提高了我们的理论基础。因此,我们的 GPT-4 训练运行(至少对我们来说!)前所未有的稳定,成为我们第一个能够提前准确预测其训练性能的大型模型。随着我们继续专注于可靠的扩展,我们的目标是磨练我们的方法,以帮助我们提前预测和准备未来的功能,我们认为这对安全至关重要。
我们正在通过 ChatGPT 和 API(使用候补名单).为了准备图像输入功能以实现更广泛的可用性,我们正在与单一合作伙伴开始。我们也是开源的OpenAI Evals,我们用于自动评估 AI 模型性能的框架,允许任何人报告我们模型中的缺点,以帮助指导进一步改进。
能力
在随意的谈话中,GPT-3.5 和 GPT-4 之间的区别可能很微妙。当任务的复杂性达到足够的阈值时,差异就出现了——GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。
为了了解这两种模型之间的差异,我们在各种基准测试上进行了测试,包括最初为人类设计的模拟考试。我们继续使用最新的公开测试(在奥林匹克和AP免费回答问题的情况下)或购买2022-2023版的模拟考试。我们没有为这些考试做专门的培训。模型在训练期间看到了考试中的少数问题,但我们相信结果具有代表性 - 请参阅我们的技术报告了解详情。
内部参考1 我们还在为机器学习模型设计的传统基准测试上评估了 GPT-4。GPT-4 的性能大大优于现有的大型语言模型,以及大多数最先进的 (SOTA) 模型,其中可能包括特定于基准的制作或其他训练协议:
许多现有的 ML 基准测试都是用英语编写的。为了初步了解其他语言的能力,我们使用 Azure 翻译将 MMLU 基准(一套涵盖 14 个主题的 000,57 个多项选择题)翻译成多种语言(请参阅附录).在测试的 24 种语言中的 26 种中,GPT-4 的性能优于 GPT-3.5 和其他 LLM(龙猫、PaLM)的英语性能,包括拉脱维亚语、威尔士语和斯瓦希里语等低资源语言:
我们还一直在内部使用 GPT-4,这对支持、销售、内容审核和编程等功能产生了重大影响。我们还使用它来帮助人类评估人工智能输出,开始我们的第二阶段。对齐策略。
视觉输入
GPT-4 可以接受文本和图像的提示,这与纯文本设置并行,允许用户指定任何视觉或语言任务。具体来说,它生成文本输出(自然语言、代码等),给定由穿插文本和图像组成的输入。在一系列域(包括包含文本和照片的文档、图表或屏幕截图)上,GPT-4 表现出与纯文本输入类似的功能。此外,它可以通过为纯文本语言模型开发的测试时技术进行增强,包括少数镜头和思维链促使。图像输入仍然是研究预览,不公开可用。
我们通过在一套狭窄的标准学术愿景基准上评估 GPT-4 的性能来预览它。然而,这些数字并不能完全代表其能力的范围,因为我们不断发现模型能够处理的新的和令人兴奋的任务。我们计划很快发布进一步的分析和评估数字,并对测试时间技术的效果进行彻底调查。
局限性
我们一直在研究我们帖子中概述的计划的各个方面定义 AI 的行为,包括可操纵性。开发人员(很快 ChatGPT 用户)现在可以通过在“系统”消息中描述这些方向来规定他们的 AI 风格和任务,而不是具有固定冗长、语气和风格的经典 ChatGPT 个性。系统消息允许 API 用户显著自定义其用户体验在范围内.我们将在这里不断改进(特别是知道系统消息是“越狱”当前模型的最简单方法,即遵守边界并不完美),但我们鼓励您尝试一下,让我们知道您的想法。
可操纵性
尽管具有功能,但 GPT-4 具有与早期 GPT 模型类似的限制。最重要的是,它仍然不完全可靠(它“幻觉”事实并犯推理错误)。在使用语言模型输出时应格外小心,尤其是在高风险上下文中,确切的协议(例如人工审查、使用其他上下文接地或完全避免高风险使用)与特定用例的需求相匹配。
虽然仍然是一个真正的问题,但与以前的模型相比,GPT-4 显着减少了幻觉(这些模型本身在每次迭代中都在改进)。在我们的内部对抗性事实性评估中,GPT-4 的得分比我们最新的 GPT-40.3 高 5%:
我们在TruthfulQA等外部基准测试方面取得了进展,该基准测试了模型将事实与一组敌对选择的错误陈述分开的能力。这些问题与在统计上具有吸引力的事实不正确的答案配对。
GPT-4 基本模型在此任务中仅比 GPT-3.5 略好;然而,之后RLHF训练后(应用我们使用的相同过程GPT-3.5)有很大的差距。检查下面的一些例子,GPT-4 拒绝选择常见的说法(你不能教老狗新技巧),但它仍然会错过微妙的细节(猫王不是演员的儿子)。
该模型的输出中可能存在各种偏差 - 我们已经在这些方面取得了进展,但仍有更多工作要做。根据我们的最近的博客文章,我们的目标是使我们构建的人工智能系统具有合理的默认行为,反映广泛的用户价值,允许这些系统在广泛的范围内进行定制,并获得公众对这些界限应该是什么的意见。
GPT-4 通常缺乏对其绝大多数数据切断(2021 年 <> 月)后发生的事件的了解,并且不会从其经验中学习。它有时会犯简单的推理错误,这些错误似乎与许多领域的能力不符,或者在接受用户明显的虚假陈述时过于容易上当受骗。有时,它可能会像人类一样在困难问题上失败,例如在其生成的代码中引入安全漏洞。
GPT-4 也可能自信地错误地预测,在可能出错时不注意仔细检查工作。有趣的是,基础预训练模型是高度校准的(它对答案的预测置信度通常与正确概率相匹配)。但是,通过我们当前的训练后过程,校准减少了。
风险和缓解措施
我们一直在迭代 GPT-4,使其从训练开始就更安全、更一致,努力包括选择和过滤训练前数据、评估和专家参与、模型安全改进以及监控和执行。
GPT-4 带来的风险与以前的模型类似,例如生成有害建议、错误代码或不准确的信息。但是,GPT-4 的附加功能会导致新的风险表面。为了了解这些风险的程度,我们聘请了来自人工智能调整风险、网络安全、生物风险、信任和安全以及国际安全等领域的 50 多名专家对模型进行了对抗性测试。他们的发现特别使我们能够测试需要专业知识评估的高风险领域的模型行为。这些专家的反馈和数据为我们对模型的缓解和改进提供了信息;例如,我们收集了更多数据,以提高 GPT-4 拒绝合成危险化学品请求的能力。
GPT-4 在 RLHF 训练期间包含一个额外的安全奖励信号,以减少有害输出(由我们的定义使用指南),通过训练模型拒绝对此类内容的请求。奖励由 GPT-4 零射击分类器提供,根据安全相关提示判断安全边界和完成风格。为了防止模型拒绝有效请求,我们从各种来源(例如,标记的生产数据、人工红队、模型生成的提示)收集不同的数据集,并对允许和不允许的类别应用安全奖励信号(具有正值或负值)。
与 GPT-4.3 相比,我们的缓解措施显著改善了 GPT-5 的许多安全特性。与 GPT-82.3 相比,我们将模型响应不允许的内容请求的倾向降低了 5%,GPT-4 根据我们的政策响应敏感请求(例如医疗建议和自残)的频率提高了 29%。
总体而言,我们的模型级干预增加了引发不良行为的难度,但这样做仍然是可能的。此外,仍然存在“越狱”来生成违反我们使用指南.随着人工智能系统的“每个代币风险”的增加,在这些干预措施中实现极高的可靠性将变得至关重要;目前,重要的是使用部署时安全技术(如监视滥用)来补充这些限制。
GPT-4 和后续模型有可能以有益和有害的方式对社会产生重大影响。我们正在与外部研究人员合作,以改进我们理解和评估潜在影响的方式,并对未来系统中可能出现的危险能力进行评估。我们将很快分享更多关于 GPT-4 和其他人工智能系统潜在社会和经济影响的想法。
培训过程
与之前的 GPT 模型一样,GPT-4 基础模型经过训练可以预测文档中的下一个单词,并使用公开可用的数据(例如互联网数据)以及我们许可的数据进行训练。这些数据是一个网络规模的数据语料库,包括数学问题的正确和不正确的解决方案,弱和强推理,自相矛盾和一致的陈述,并代表各种各样的意识形态和思想。
因此,当提示问题时,基本模型可以以各种方式进行响应,这些方式可能与用户的意图相去甚远。为了使其与用户在护栏内的意图保持一致,我们使用强化学习和人类反馈(RLHF).
请注意,模型的功能似乎主要来自预训练过程 - RLHF 不会提高考试成绩(如果没有积极努力,它实际上会降低考试成绩)。但是模型的指导来自训练后的过程——基本模型需要及时的工程设计,甚至知道它应该回答问题。
可预测的扩展
GPT-4 项目的一大重点是构建一个可预测的深度学习堆栈。主要原因是,对于像 GPT-4 这样的非常大的训练运行,进行广泛的特定于模型的调优是不可行的。我们开发了基础设施和优化,这些基础设施和优化在多个规模上具有非常可预测的行为。为了验证这种可扩展性,我们通过从使用相同方法训练但使用更少 4,10 倍计算的模型进行推断,提前准确地预测了 GPT-000 在我们的内部代码库(不是训练集的一部分)上的最终损失:
现在我们可以准确预测我们在训练期间优化的指标(损失),我们开始开发方法来预测更多可解释的指标。例如,我们成功地预测了人类评估数据集,从计算量减少 1,000 倍的模型推断:
有些功能仍然难以预测。例如,逆向缩放奖是一项竞赛,旨在寻找随着模型计算的增加而变得更糟的指标,并且事后诸葛亮的忽视是获胜者之一。就像另一个最近的结果GPT-4 扭转了这一趋势:
我们认为,准确预测未来的机器学习能力是安全的重要组成部分,相对于其潜在影响而言,它没有得到足够的关注(尽管我们对几个机构的努力感到鼓舞)。我们正在加大努力,开发方法,为社会提供更好的指导,让他们了解对未来系统的期望,我们希望这成为该领域的共同目标。
OpenAI Evals
我们是开源的OpenAI Evals,我们的软件框架,用于创建和运行基准以评估 GPT-4 等模型,同时逐个样本检查其性能。我们使用 Evals 来指导模型的开发(识别缺点和防止回归),我们的用户可以将其应用于跟踪模型版本(现在将定期发布)的性能和不断发展的产品集成。例如,Stripe 使用 Evals 来补充他们的人工评估,以衡量其 GPT 驱动的文档工具的准确性。
由于代码都是开源的,因此 Evals 支持编写新类来实现自定义评估逻辑.然而,根据我们自己的经验,许多基准测试遵循少数“模板”之一,所以我们也有包含模板在内部最有用(包括“模型分级评估”的模板——我们发现 GPT-4 能够惊人地检查自己的工作)。通常是最有效的方法构建新的评估将实例化这些模板之一并提供数据。我们很高兴看到其他人可以使用这些模板和更普遍的 Evals 构建什么。
我们希望Evals成为共享和众包基准的工具,代表最广泛的故障模式和困难的任务。作为要遵循的示例,我们创建了一个逻辑谜题eval 包含 GPT-4 失败的十个提示。Evals 还与实施现有基准兼容;我们包括了几个笔记本实施学术基准和一些集成变体(一小部分)辅酶质量保证举个例子。
我们邀请大家使用Evals来测试我们的模型并提交最有趣的示例。我们相信Evals将成为使用和构建我们模型的过程的一个组成部分,我们欢迎直接贡献、问题和反馈.
聊天总站
ChatGPT Plus 订阅者将在 chat.openai.com 上获得 GPT-4 访问权限,但有使用上限。我们将在实践中根据需求和系统性能调整确切的使用上限,但我们预计容量将受到严重限制(尽管我们将在未来几个月内进行扩展和优化)。
根据我们看到的流量模式,我们可能会为更高容量的 GPT-4 使用引入新的订阅级别;我们还希望在某个时候提供一定数量的免费 GPT-4 查询,以便没有订阅的人也可以尝试一下。
应用程序接口
要访问 GPT-4 API(它使用相同的聊天完成接口作为 GPT-3.5-涡轮增压),请注册我们的候补名单.我们今天将开始邀请一些开发人员,并逐步扩大规模以平衡容量与需求。如果您是研究人工智能的社会影响或人工智能对齐问题的研究人员,您也可以通过我们的研究人员访问计划.
获得访问权限后,您可以向 gpt-4 模型发出纯文本请求(图片输入仍处于有限的 alpha 版),随着时间推移,我们会在制作新版本时自动更新为推荐的稳定模型(您可以通过调用 gpt-4-0314 固定当前版本,我们将在 14 月 0 日之前支持该模型)。定价为每 03k 提示令牌 1.0 美元,每 06k 完成令牌 1.40 美元。默认速率限制为每分钟 200k 个令牌和每分钟 <> 个请求。
GPT-4 的上下文长度为 8,192 个代币。我们还提供对 32,768 上下文(约 50 页文本)版本 gpt-4-32k 的有限访问权限,该版本也将随着时间的推移自动更新(当前版本 gpt-4-32k-0314,也支持到 14 月 0 日)。定价为每 06K 提示令牌 1.0 美元,每 12k 完成令牌 1.8 美元。我们仍在提高长期上下文的模型质量,并希望获得有关它在您的用例中的表现的反馈。我们正在根据容量以不同的速率处理 32K 和 <>K 引擎的请求,因此您可能会在不同的时间获得对它们的访问权限。
结论
我们期待 GPT-4 成为通过为许多应用程序提供动力来改善人们生活的宝贵工具。还有很多工作要做,我们期待通过社区的集体努力来改进这个模型,在这个模型之上建立、探索和贡献。
欲了解更多信息:阅读论文|查看系统卡|试穿 ChatGPT Plus|加入 API 候补名单|重新观看开发人员演示直播|为 OpenAI Evals 做出贡献。
# GPT-4 贡献
预训练
核心贡献者 克里斯托弗·伯纳 超级计算主管 格雷格·布罗克曼 基础设施主管 蔡特雷弗 吞吐量主管
大卫·法希 优化团队 经理克里斯·黑塞 基础设施可用性联合负责人 尚塔努·耆那教 基础设施可用性联合负责人 凯尔·科西奇 正常运行时间和稳定性负责人
雅各布·帕乔基 总体领先,优化领先 Alex Paino 架构与数据副主管 Mikhail Pavlov 软件正确性负责人 Michael Petrov 硬件正确性负责人
Nick Ryder 架构和数据主管 Szymon Sidor 优化副主管 尼古拉斯·特扎克 执行主管
菲尔·蒂莱特 Triton 领导 Amin Tootoonchian 模型分布、系统和网络负责人 袁启明 数据集采购和处理负责人 沃伊切赫·扎伦巴 数据集团队经理
计算群集缩放 克里斯托弗·伯纳、奥列格·博伊科、安德鲁·坎恩、本·切斯、克里斯蒂安·吉布森、马特乌斯·利特温、艾米·帕帕里塔、亨利·罗塞兹、埃里克·西格勒、阿基拉·韦利欣达
数据 桑德希尼·阿加瓦尔、苏希尔·巴拉吉、莫·巴伐利亚、张澈、希拉·邓宁、高利奥、乔纳森·戈登、彼得·霍舍尔、肖恩·贾恩、山塔努·耆那教、罗杰·江、希宇君、武卡斯·凯撒、尼蒂什·谢里什·凯斯卡、金钟旭、阿里斯·康斯坦丁尼迪斯、李泽、托多尔·马尔科夫、比安卡·马丁、大卫·梅利、奥列格·穆尔克、能贤宇、龙欧阳、亚历克斯·派诺、维奇尔·庞、亚历克·拉德福德、尼克·莱德、 约翰·舒尔曼, 丹尼尔·塞尔萨姆, 切尔西·沃斯, 翁莉莲, 克莱门斯·温特, 徐涛, 袁启明, 沃伊切赫·扎伦巴
分布式培训基础架构 格雷格·布罗克曼、特雷弗·蔡、克里斯·黑塞、珊塔努·贾恩、金永吉克、凯尔·科西奇、马特乌斯·利特温、雅各布·帕乔基、米哈伊尔·巴甫洛夫、西蒙·西多尔、尼古拉斯·泰扎克、玛德琳·汤普森、阿敏·图通奇安、袁启明
硬件正确性 格雷格·布罗克曼、尚塔努·贾恩、凯尔·科西奇、迈克尔·彼得罗夫、尼古拉斯·特扎克、阿明·图通奇安、切尔西·沃斯、袁启明
优化与架构 伊戈尔·巴布施金、莫·巴伐利亚、阿德里安·埃科菲特、大卫·法希、杰西·韩、英格玛·卡尼切德、丹尼尔·利维、雅各布·帕乔基、亚历克斯·派诺、米哈伊尔·巴甫洛夫、尼克·莱德、西蒙·西多尔、唐杰、杰里·托雷克、徐涛
训练跑保姆 苏希尔·巴拉吉、莫·巴伐利亚、格雷格·布罗克曼、特雷弗·蔡、克里斯·黑塞、山塔努·贾恩、罗杰·蒋、金永吉克、凯尔·科西奇、马特乌斯·利特温、雅各布·帕乔基、亚历克斯·派诺、米哈伊尔·巴甫洛夫、迈克尔·彼得罗夫、尼克·莱德、西蒙·西多尔、尼古拉斯·泰扎克、玛德琳·汤普森、菲尔·蒂莱特、阿明·图通奇安、切尔西·沃斯、王奔、徐涛、袁启明
长上下文
核心贡献者 加布里埃尔·吴 长语域联合领导 武卡什·凯撒 长语域领导 克莱门斯·温特 长语域联合领导
长期背景研究 莫·巴伐利亚、加布里埃尔·吴、武卡什·凯撒、李泽、王奔、克莱门斯·温特
长上下文内核 菲尔·蒂莱特
视觉
核心贡献者 蔡婷婷 执行主管 马克·陈 视觉团队联合负责人,部署主管
Casey Chu 初始原型负责人 Chris Hesse 数据负载平衡和开发人员工具负责人 胡胜利 视觉安全评估负责人 金永吉 GPU 性能负责人 杰米·基罗斯 整体愿景联合负责人,部署研究和评估负责人
丹尼尔·利维整体视觉联合负责人,优化负责人 Christine McLeavey 视觉团队联合负责人 David Mély 数据负责人 Hyeonwoo Noh 整体视觉联合负责人,研究负责人 Mikhail Pavlov 扩展工程负责人 劳尔·普里 整体愿景联合负责人,工程负责人 Amin Tootoonchian 模型分发、系统和网络负责人
建筑研究 凯西·朱、杰米·基罗斯、克里斯汀·麦克利维、能贤宇、劳尔·普里、亚历克·拉德福德、阿迪亚·拉梅什
计算群集缩放 安德鲁·坎恩、罗里·卡迈克尔、克里斯蒂安·吉布森、亨利·罗塞兹、阿基拉·韦利欣达
分布式培训基础架构 蔡婷婷, 戴云星, 克里斯·黑塞, 布兰登·霍顿, 金永吉克, 武卡什·康德拉丘克, 能贤宇, 米哈伊尔·巴甫洛夫, 劳尔·普里, 尼古拉斯·特扎克, 阿明·图通奇安, 郑天浩
硬件正确性 奥列格·博伊科、特雷弗·蔡、迈克尔·彼得罗夫、阿莱西娅·鲍尔
数据 金钟旭、大卫·梅利、中野玲一郎、能贤宇、龙欧阳、劳尔·普里、普拉纳夫·夏姆、徐涛
对齐数据 欧阳龙
训练跑保姆 特雷弗·蔡、凯尔·科西奇、丹尼尔·利维、大卫·梅利、中野玲一郎、能贤宇、米哈伊尔·巴甫洛夫、劳尔·普里、阿明·图通奇安
部署和培训 后伊尔格·阿卡亚、马克·陈、杰米·基罗斯、雷切尔·林、中野玲一郎、劳尔·普里、翁佳怡
对齐
核心贡献者 格雷格·布罗克曼 核心基础设施作者 利亚姆·费杜斯 数据飞轮领导 塔伦·戈吉内尼 模型创造力 拉法·贡蒂霍-洛佩斯 合成数据 约书亚·格罗斯 数据收集工程联合负责人 约翰内斯·海德克 拒绝和模型安全联合负责人
Joost Huizinga 初始微调降低风险 泰迪·李 人类数据产品经理 Jan Leike 对齐联合负责人 Ryan Lowe对齐联合负责人 Luke Metz 基础设施负责人,ChatML 格式负责人 欧阳龙 IF 数据收集负责人 约翰舒尔曼 总体负责人 杰里·图雷克代码负责人 卡罗尔·温赖特 中频数据基础设施负责人 乔纳森·沃德 数据收集工程联合负责人
翁佳仪 RL 基础设施作者 Sarah Yoo 人类数据运营经理 Wojciech Zaremba 人类数据负责人 张冲 拒绝和模型安全联合负责人 赵胜佳 奖励模型负责人 巴雷特佐夫 整体培训负责人
数据集贡献 迪奥戈·阿尔梅达、莫·巴伐利亚、胡安·费利佩·塞隆·乌里韦、泰娜·伊洛恩杜、利亚姆·费杜斯、塔伦·戈吉内尼、拉法·贡蒂霍-洛佩斯、乔纳森·戈登、约斯特·惠辛加、肖恩·贾恩、罗杰·江、武卡什·凯撒、克里斯蒂娜·金、扬·雷克、李泽、斯蒂芬妮·林、瑞安·洛、雅各布·梅尼克、卢克·梅斯、帕梅拉·米什金、佟木、奥列格·穆克、阿什文·奈尔、龙欧阳、亚历克斯·帕索斯、迈克尔·波科尔尼、维奇尔·庞、 希巴尼·桑图尔卡、丹尼尔·塞尔萨姆、莎拉·舒克、卡罗尔·温赖特、马特·维索夫、杰夫·吴、肖凯、余凯文、马文·张、张冲、威廉·朱克、巴雷特·佐夫
数据基础架构 伊尔万·贝洛、莱尼·博格多诺夫、胡安·费利佩·塞隆·乌里韦、约书亚·格罗斯、肖恩·贾恩、金浩准、克里斯蒂娜·金、阿里斯·康斯坦丁尼迪斯、泰迪·李、大卫·麦地那、雅各布·梅尼克、卢克·梅茨、阿什文·奈尔、龙欧阳、迈克尔·波科尼、维奇尔·庞、约翰·舒尔曼、乔纳森·沃德、翁佳怡、马特·维索夫、莎拉·尤、于凯文、沃伊切赫·扎伦巴、威廉·朱克、巴雷特·佐夫
聊天ML格式 伊尔格·阿卡亚、克里斯蒂娜·金、李泽、雷切尔·林、雅各布·梅尼克、卢克·梅茨、安德烈·米申科、维奇尔·庞、约翰·舒尔曼、卡罗尔·温赖特、巴雷特·佐夫
模型安全 乔什·阿奇亚姆、史蒂文·阿德勒、胡安·费利佩·塞隆·乌里韦、钟亨元、泰娜·伊洛恩杜、拉法·贡蒂霍-洛佩斯、施祥·肖恩·顾、约翰内斯·海德克、佑斯特·惠辛加、泰迪·李、扬·雷克、斯蒂芬妮·林、瑞安·洛、托多尔·马尔科夫、卢克·梅斯、佟牧、希巴尼·桑图尔卡、约翰·舒尔曼、安德里亚·瓦隆、卡罗尔·温赖特、杰森·魏、翁莉莲、肖凯、张冲、张马文、巴雷特·佐夫
拒绝 胡安·费利佩·塞隆·乌里韦、泰娜·伊洛恩杜、约翰内斯·海德克、佑斯特·惠辛加、扬·雷克、斯蒂芬妮·林、瑞安·洛、帕梅拉·米什金、童沐、卡罗尔·温赖特、翁莉莲、肖凯、张冲、巴雷特·佐夫
基础 RLHF 和 InstructGPT 工作 迪奥戈·阿尔梅达、约斯特·惠辛加、罗杰·江、扬·雷克、斯蒂芬妮·林、瑞安·洛、帕梅拉·米什金、丹·莫辛、龙欧阳、卡塔琳娜·斯拉马、卡罗尔·温赖特、杰夫·吴、肖凯、马文·张
旗舰培训运行 格雷格·布罗克曼、利亚姆·费杜斯、约翰内斯·海德克、佑斯特·惠辛加、罗杰·江、凯尔·科西奇、卢克·梅茨、阿什文·奈尔、翁佳怡、张冲、赵胜佳、巴雷特·佐夫
代码能力 伊尔格·阿卡亚、莫·巴伐利亚、乔纳森·戈登、肖恩·贾恩、金皓准、泰迪·李、李泽、奥列格·穆克、阿什文·奈尔、维奇尔·庞、本杰明·索科洛夫斯基、杰里·托雷克、马特·维索夫、莎拉·柳、凯文·余、沃伊切赫·扎伦巴、威廉·朱克
评估与分析
核心贡献者 Sandhini Agarwal System Card 联合负责人 Lama Ahmad 专家 红队和对抗性测试计划负责人 Mo 巴伐利亚能力预测联合负责人 Tyna Eloundou 安全评估联合负责人 Andrew Kondrich OpenAI Evals 开源联合负责人 Gretchen Krueger 系统卡联合负责人
Michael Lampe 隐私和PII评估领先 Pamela Mishkin 经济影响和过度依赖评估领先 Benjamin Sokolowsky 能力预测联合负责人 Jack Rae 研究基准执行负责人 切尔西沃斯评估执行负责人 王斌 OpenAI Evals 领导 肖凯 安全评估联合负责人
张马文 OpenAI 评估开源联合负责人
OpenAI Evals 库 顾世祥, 蒋安琪, 洛根·基尔帕特里克, 安德鲁·康德里奇, 帕梅拉·米什金, 雅各布·帕乔基, 泰德·桑德斯, 杰西卡·谢, 阿尔文·王, 马文·张
模型分级评估基础结构 利亚姆·费杜斯, 拉法·贡蒂霍-洛佩斯, 施翔 顾晓恩, 安德鲁·康德里奇, 迈克尔·波科尼, 沃伊切赫·扎伦巴, 张冲, 张马文, 赵胜佳, 巴雷特·佐夫
加速度预测 艾伦·希基、丹尼尔·科科塔伊洛、卡伦·奥基夫、莎拉·舒克
聊天GPT评估 胡安·费利佩·塞隆·乌里韦、钟亨元、拉法·贡蒂霍-洛佩斯、利亚姆·费杜斯、卢克·梅茨、迈克尔·赖·波科尼、杰森·魏、赵胜佳、巴雷特·佐夫
能力评估 泰娜·伊洛恩杜、胡胜利、蒋志伟、杰米·基罗斯、泰迪·李、斯科特·梅耶·麦金尼、雅各布·帕乔基、亚历克斯·派诺、詹巴蒂斯塔·帕拉斯坎多洛、鲍里斯·鲍尔、劳尔·普里、杰克·雷、尼克·莱德、泰德·桑德斯、西蒙·西多尔、本杰明·索科洛夫斯基、切尔西·沃斯、王阿尔文、罗文·泽勒斯、庄俊堂
编码评估 伊尔格·阿卡亚、莫·巴伐利亚、乔纳森·戈登、肖恩·贾恩、李泽克、奥列格·默克、维奇尔·庞、本杰明·索科洛夫斯基、杰里·托雷克、凯文·余、沃伊切赫·扎伦巴
真实用例评估 安德鲁·康德里奇、乔·巴勒莫、鲍里斯·鲍尔、泰德·桑德斯
污染调查 阿德里安·埃科菲特、罗杰·蒋、英格玛·卡尼切德、斯科特·梅耶·麦金尼、亚历克斯·派诺、詹巴蒂斯塔·帕拉斯坎多洛、杰克·雷、袁启明
指令遵循和 API 评估 迪奥戈·阿尔梅达、卡罗尔·温赖特、马文·张
新颖的能力发现 菲利佩·德·阿维拉·贝尔布特·佩雷斯、凯文·巴顿、福蒂斯·钱齐斯、迈克·希顿、韦德·希基、胡欣、安德鲁·康德里奇、马特·奈特、安德鲁·梅恩、杰克·麦克尼尔、维尼·摩纳哥、乔·巴勒莫、乔尔·帕里什、鲍里斯·鲍尔、鲍勃·罗茨泰德、泰德·桑德斯
视力评估 顾世祥, 胡胜利, 杰米·基罗斯, 能贤宇, 劳尔·普里, 罗文·泽勒斯
经济影响评价 泰娜·伊洛恩杜、山姆·曼宁、阿洛克·梅塔、帕梅拉·米什金
防扩散、国际人道法和国家安全红队 莎拉·舒克
过度依赖分析 迈尔斯·布伦戴奇、迈克尔·兰佩、帕梅拉·米什金
隐私和 PII 评估 迈克尔·兰佩、维尼·摩纳哥、阿什利·潘图利亚诺
安全和政策评估 乔什·阿奇亚姆、桑迪尼·阿加瓦尔、喇嘛·艾哈迈德、杰夫·贝尔古姆、泰娜·伊洛恩杜、约翰内斯·海德克、胡胜利、佑斯特·惠辛加、杰米·基罗斯、格雷琴·克鲁格、迈克尔·兰佩、斯蒂芬妮·林、瑞安·洛、托多尔·马尔科夫、维尼·摩纳哥、佟沐、劳尔·普里、吉里什·萨斯特里、安德里亚·瓦隆、卡罗尔·温赖特、CJ 温曼、翁莉莲、肖凯、张冲
OpenAI 对抗测试人员 乔什·阿奇亚姆、史蒂文·阿德勒、喇嘛·艾哈迈德、希亚马尔·阿纳德卡特、雷德·阿维拉、加布里埃尔·伯纳黛特-夏皮罗、安娜-路易莎·布拉克曼、蒂姆·布鲁克斯、迈尔斯·布伦戴奇、切尔西·卡尔森、德里克·陈、钟亨元、耶利米·柯里尔、丹尼尔·科科塔伊洛、大卫·多汉、阿德里安·埃科菲特、贾斯顿·福特、维克·戈尔、瑞安·格林、约翰内斯·海德克、艾伦·希基、胡胜利、佑斯特·惠辛加、扬科、托默·卡夫坦、阿里·卡马利、尼蒂什·谢里什·凯斯卡、塔巴拉克·汗、 亨德里克·基什内尔、丹尼尔·科科塔伊洛、格雷琴·克鲁格、迈克尔·兰佩、泰迪·李、莫莉·林、瑞安·洛、托多尔·马尔科夫、杰克·麦克尼尔、帕梅拉·米什金、维尼·摩纳哥、丹尼尔·莫辛、佟沐、奥列格·默克、卡伦·奥基夫、乔·巴勒莫、詹巴蒂斯塔·帕拉斯坎多洛、乔尔·帕里什、鲍里斯·鲍尔、阿莱西娅·鲍尔、卡梅隆·雷蒙德、弗朗西斯·雷亚尔、鲍勃·罗斯特德、马里奥·索尔特雷利、山姆·沃尔里奇、泰德·桑德斯、吉里什·萨斯蒂、莎拉·舒克、 希亚马尔·阿纳德卡特、杨松、娜塔莉·施陶达彻、玛德琳·汤普森、伊丽莎白·曾、切尔西·沃斯、杰森·魏、张冲
系统卡和更广泛的影响分析 史蒂文·阿德勒、桑德希尼·阿加瓦尔、喇嘛·艾哈迈德、扬科·阿尔滕施密特、杰夫·贝尔古姆、加布里埃尔·伯纳黛特-夏皮罗、迈尔斯·布伦戴奇、德里克·陈、泰娜·伊洛恩杜、利亚姆·费杜斯、里奥·高、维克·戈尔、约翰内斯·海德克、艾伦·希基、胡胜利、佑斯特·惠辛加、丹尼尔·科科塔伊洛、格雷琴·克鲁格、迈克尔·兰佩、梁玉、斯蒂芬妮·林、瑞安·洛、金·马尔法西尼、托多尔·马尔科夫、比安卡·马丁、阿洛克·梅塔、帕梅拉·米什金、佟沐、 理查德·吴、卡伦·奥基夫、乔尔·帕里什、雷·波科尼、鲍勃·罗茨泰德、吉里什·萨斯特里、莎拉·肖克、安德里亚·瓦隆、卡罗尔·温赖特、CJ 温曼、翁莉莲、戴夫·威尔纳、肖凯、张冲
部署
核心贡献者 Steven Adler 早期项目管理负责人 Sandhini Agarwal 发布安全负责人 Derek Chen 监控和响应负责人 Atty Eleti GPT-4 API 联合负责人 Joanne Jang GPT-4 产品联合负责人 Angela Jiang GPT-4 产品联合负责人 Tomer Kaftan 推理基础设施和部署负责人 Rachel Lim GPT-4 API 联合负责人
金·马尔法奇尼 使用策略主管 比安卡·马丁 发布项目管理主管 埃文·森川 工程主管 恩里克·庞德·德·奥利维拉·平托 推理工作流主管
希瑟·施密特 GPT-4 基础设施管理 麦迪·西门斯设计主管 费利佩 这样的推理优化和可靠性主管
安德里亚·瓦隆检测和拒绝政策负责人 Lilian Weng 应用研究负责人 Dave Willner 信任与安全负责人 Michael Wu 推理研究负责人
推理研究 保罗·巴尔特斯库、斯科特·格雷、何雨辰、阿文德·尼拉坎坦、迈克尔·吴
GPT-4 API 和 ChatML 部署 格雷格·布罗克曼、布鲁克·陈、蔡斯特·赵、阿蒂·埃莱蒂、林瑞秋、安德鲁·彭、米歇尔·波克拉斯、吴宣文
GPT-4 网络体验 瓦莱丽·巴尔科姆、莱尼·博格多诺夫、杰森·陈、戴夫·卡明斯、诺亚·多伊奇、迈克·希顿、保罗·麦克米兰、拉吉夫·纳亚克、乔尔·帕里什、亚当·佩雷尔曼、埃里克·西格勒、尼克·特利、阿伦·维杰维吉亚、切尔西·沃斯
推理基础设施 布鲁克·陈, 斯科特·格雷, 克里斯·哈拉西, 肯尼·许, 托默·卡夫坦, 瑞秋·林, 恩里克·庞德·德·奥利维拉·平托, 劳尔·普里, 希瑟·施密特, 费利佩·苏
可靠性工程 鲍海明、玛德琳·博伊德、本·切斯、达米安·德维尔、郭宇飞、郭维沙尔、兰一凯、米歇尔·波克拉斯、卡尔·罗斯、大卫·施努尔、乔丹·西特金、费利佩·苏
信任与安全工程 杰夫·贝尔古姆、玛德琳·博伊德、维克·戈尔
信任和安全监控和响应 扬科·阿尔滕施密特、安娜-路易莎·布拉克曼、德里克·陈、弗洛伦西亚·莱奥尼·阿莱曼、莫莉·林、卡梅隆·雷蒙德、CJ 温曼、戴夫·威尔纳、塞缪尔·沃尔里奇
信任与安全政策 罗茜·坎贝尔、金·马尔法西尼、安德里亚·瓦隆、戴夫·威尔纳
部署计算 彼得·霍舍尔,埃文·森川
产品管理 杰夫·哈里斯、张婷婷、蒋安琪
其他捐款
山姆·奥特曼、凯蒂·梅耶、鲍勃·麦格鲁、米拉·穆拉蒂、伊利亚·苏茨基弗、彼得·韦林德
博客文章和论文内容 桑德希尼·阿加瓦尔、格雷格·布罗克曼、迈尔斯·布伦戴奇、阿德里安·埃科菲特、泰娜·伊洛恩杜、大卫·法希、约翰内斯·海德克、胡胜利、佑斯特·惠辛加、罗杰·江、格雷琴·克鲁格、扬·雷克、丹尼尔·利维、斯蒂芬妮·林、瑞安·洛、佟木、能贤宇、雅各布·帕乔基、杰克·雷、肯德拉·林巴赫、希巴尼·桑图尔卡、西蒙·西多尔、本杰明·索科洛夫斯基、唐杰、切尔西·沃斯、肖凯、罗文·泽勒斯、张冲、 张斌
通信 陈露比、科里·德卡雷、托马斯·德格里、史蒂夫·道林、尼科·菲利克斯、埃利·乔治、安娜·马坎朱、安德鲁·梅恩、阿洛克·梅塔、伊丽莎白·普罗尔、肯德拉·里姆巴赫、娜塔莉·萨默斯、贾斯汀·王杰、汉娜·黄
计算分配支持 特蕾莎·洛佩兹,伊丽莎白·曾
合同、收入、定价和财务支持 布鲁克·陈, 丹尼·金, 比莉·琼恩, 帕特里夏·卢, 凯拉·谢泼德, 劳伦·沃克曼
发布合作伙伴和产品运营 菲利佩·德·阿维拉·贝尔布特·佩雷斯、布列塔尼·凯里、西蒙·波萨达·菲什曼、伊莎贝拉·富尔福德、泰迪·李、亚尼夫·马尔科夫斯基、托利·鲍威尔、托基·谢尔巴科夫、杰西卡·谢赫、娜塔莉·施陶达彻、普雷斯顿·塔格尔
法律 杰克·伯丁、张澈、希拉·邓宁、阿什莉·潘图利亚诺
安全与隐私工程 凯文·巴顿、福蒂斯·钱齐斯、韦德·希基、胡欣、城本志乃、马特·奈特、杰克·麦克尼尔、维尼·摩纳哥、乔尔·帕里什、鲍勃·罗茨泰德
系统管理和随叫随到的支持 摩根·格拉夫斯坦、弗朗西斯·雷亚尔、马里奥·萨尔塔雷利
我们还要感谢上面没有明确提到的每一位OpenAI团队成员,包括行政助理、财务、上市、人力资源、法律、运营和招聘团队的优秀人员。从雇用公司中的每个人,到确保我们拥有令人惊叹的办公空间,再到建立使我们能够做到最好工作的行政、人力资源、法律和财务结构,OpenAI 的每个人都为 GPT-4 做出了贡献。
我们感谢 Microsoft 的合作,特别是 Microsoft Azure 在基础设施设计和管理方面支持模型训练,以及 Microsoft Bing 团队和 Microsoft 安全团队在安全部署方面的合作。
我们感谢我们的专家对抗测试人员和红队员,他们在开发的早期阶段帮助测试了我们的模型,并为我们的风险评估以及系统卡输出提供了信息。参与这个红队过程并不表示对OpenAI或OpenAI政策部署计划的认可:史蒂文·巴萨特,索菲·杜巴,塞萨尔·费里,希瑟·弗雷斯,加文·哈奈特,杰克·赫克拉,丹·亨德利克斯,何塞·埃尔南德斯-奥拉洛,爱丽丝·亨斯伯格,拉吉夫·W·贾恩,博鲁·戈洛·贾塔尼,劳伦·卡恩,丹·卡泽塔,萨拉·金斯利,诺姆·科尔特,内森·拉本斯,埃里克·利迪克, 安德鲁·洛恩、安德鲁·麦克弗森、山姆·曼宁、曼塔斯·马泽卡、安娜·米尔斯、耶尔·莫罗斯、智敏·蒙、阿维夫·奥瓦迪亚、罗亚·帕克扎德、彭一凡、齐祁、亚历克斯·罗森布拉特、保罗·罗特格、马丁·萨普、沃特·谢拉特、施格格、穆罕默德·舒克、梅兰妮·苏比亚、布莱恩·韦斯特、安德鲁·怀特、安娜·卡塔琳娜·维萨坎托、阿基拉·耶鲁科拉、周乐欣、周旭辉。