OpenAI在技术报告中介绍了GPT-4,这是一个大型多模态模型,能够接受图像和文本输入,并生成文本输出。GPT-4基于Transformer架构构建,在经过大规模预训练后能预测文档中的下一个令牌,并通过后期的强化学习从人类反馈(RLHF)进行微调。该模型在多种专业及学术基准测试上表现出了与人类相当甚至超越大多数人类测试者的水平,例如模拟律师资格考试中,GPT-4的成绩位于前10%的高分区间。
相较于GPT-3.5,GPT-4在传统自然语言处理任务、机器翻译、对话系统及文本摘要等应用领域展现了显著的进步,不仅在英语环境下的MMLU综合多选题评估中表现出色,而且在该测试集的26种语言翻译版本中,有24种语言的表现超越了对应领域的当前最优模型。
报告特别强调了GPT-4项目在开发过程中面临的重大挑战之一是构建一个可预测扩展的深度学习基础设施和优化方法,使得即使在没有对大型模型进行特定调整的情况下也能准确预测GPT-4的部分性能指标。团队通过小规模模型训练的数据来推测GPT-4的最终损失和能力指标,如HumanEval上的编程问题解决率,这些预测结果显示了良好的准确性。
尽管GPT-4具有强大的功能,但它也继承了早期GPT模型的局限性,包括不完全可靠(可能出现“幻觉”)、上下文窗口有限以及不能从经验中学习等问题,因此在依赖性较强和可靠性至关重要的应用场景中使用其输出时需要谨慎对待。
报告还包含了一份详尽的系统卡片,讨论了围绕GPT-4可能出现的风险,如偏见、误导信息、过度依赖、隐私保护、网络安全、技术扩散等方面,并描述了为了减轻部署风险而采取的各种干预措施,包括与领域专家合作进行对抗性测试以及建立辅助安全流程。
此外,考虑到GPT-4的社会影响和潜在的安全隐患,报告并未透露关于模型架构大小、硬件配置、训练计算量、数据集构造、训练方法等具体细节,但承诺将支持独立审计,并计划根据竞争和安全考量与科学透明度的价值权衡,向第三方进一步提供技术详情。
最后,GPT-4在一系列广泛的人类设计的模拟考试中进行了测试,包括法律资格考试、LSAT、SAT、GRE等多个教育领域的标准化测试,并且在大部分测试中取得了相当于或高于人类测试者前10%-99%百分位的优异成绩。然而,某些能力的提升并非线性,对于某些特定任务,随着模型规模增大性能可能会下降,但在某些情况下GPT-4逆转了这种趋势,展现出在特定任务如Hindsight Neglect上的出色表现。总的来说,GPT-4展示了强大的跨学科知识理解和应用能力,但也提醒了在实际应用中确保模型安全使用的必要性。
《GPT-4技术报告》内容要点概括如下:
-
模型介绍与能力:OpenAI开发了GPT-4,这是一种大型多模态模型,能够处理图像和文本输入,并生成文本输出。在多个专业和学术基准测试中,GPT-4展现出了与人类相媲美的性能,比如在模拟的律师资格考试中得分达到了顶级10%考生的水平。相比前代模型GPT-3.5,GPT-4在多项标准NLP任务上实现了大幅度超越,不仅在英文环境下表现优秀,而且在其他多种语言版本的MMLU测试中同样表现出色。
-
模型限制与安全性:尽管GPT-4具备高级别的语言理解与生成能力,但仍存在类似先前GPT系列模型的局限性,例如不可靠性(可能出现虚构内容)、上下文窗口受限、无法从经验中持续学习等。在涉及重要决策和高可靠性的场景下,必须谨慎对待GPT-4的输出结果。报告特别关注了GPT-4所带来的新颖且重大的安全挑战,并附带了一套详细的系统卡片,以分析潜在的风险,如偏见、虚假信息传播、过度依赖、隐私泄露、网络安全和技术扩散等。同时,报告介绍了为降低潜在危害而采取的措施,包括与领域专家合作进行对抗性测试和建立辅助安全流水线。
-
可预测扩展性:GPT-4项目的重点之一是构建一套可在不同规模上表现一致且可预测的深度学习基础设施与优化方法。通过这种方法,团队能够在仅使用较小规模模型(计算资源最多只有GPT-4的千分之一至万分之一)的训练结果基础上,精准预测GPT-4在最终损失函数值以及如HumanEval数据集上编程问题解决率等更直观的能力指标。这有助于在开始大规模模型训练前就对其性能做出合理预期。
-
能力预测与评估:GPT-4在大量多样化的基准测试上进行了验证,涵盖了模拟的人类考试、编程能力测试等多种场景,并未针对这些特定测试进行额外训练。报告展示了GPT-4在诸如统一律考、LSAT、SAT、GRE等各类学术考试中的得分情况,大多达到或超过了人类考生的前10%至99%的水平。值得注意的是,GPT-4在一些特定任务上突破了以往模型随着规模扩大而性能反而下滑的现象,例如在Hindsight Neglect任务上展示出反向提升的趋势。
-
透明度与未来方向:出于对市场竞争和大模型安全影响的考虑,报告没有公开GPT-4的具体架构参数、硬件配置、训练算力、数据集构建方法和训练策略等详细信息。然而,OpenAI致力于技术的独立审计,并发布了初步想法和措施。未来计划进一步向第三方披露技术细节,以便平衡上述因素与科学透明度的价值需求。
GPT-4作为一款强大且多模态的AI模型,在许多复杂场景中体现了卓越的语言处理能力,但同时也揭示了人工智能在广泛应用中所面临的安全性和可靠性挑战。OpenAI在研发过程中不仅提升了模型性能,还注重了预见性训练和风险管理,力求实现安全可控的大规模模型发展。