大数据文摘出品
“我们非常缺GPU”
在最近的一次访谈中,OpenAI的掌舵人Sam Altman 如此回应主持人提出关于“不满的便是API的可靠性和速度 ”。
此次访谈来源于人工智能的初创公司Humanloop 的CEO Raza Habib,他在推特上整理了这次访谈的重点。
推特地址:
https://twitter.com/dr_cintas/status/1664281914948337664
在这次访谈中,Altman还公布了最近两年的GPT计划,例如2023年的计划是降低GPT-4的成本,以及提高响应速度,其他还包括:
1.更长的上下文窗口,可能会支持100w的token;
2.微调API,帮助开发人员更好的开发;
3.支持会话状态的API,即支持会话状态的API。
2024年的计划中提到让GPT-4支持多模态,之所以推迟到2024年,就是因为太缺GPU了。
在访谈中,Altman 还提到他们一直在考虑是否开源GPT-3,毋容置疑开源是非常重要的。同时,他还表达了现在的AI模型并没有那么危险,虽然对未来的模型进行监管非常重要,但是禁止开发是一个非常大的错误观点。
Raza Habib原本将这次访谈的更多详细信息公布到了Humanloop,但文摘菌今早查看,网页已经404了。据国内微博@宝玉xp翻译,他还提到了关于大模型未来发展的缩放法则:
OpenAI的内部数据表明,模型性能的缩放法则继续有效,使模型更大将继续产生性能。OpenAI已将模型的规模扩大数百万倍,因此无法继续维持缩放速度,这种做法在未来将不可持续。这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加一倍或两倍,而不是增加许多个数量级。
缩放继续有效的事实对AGI开发的时间线有重要的影响。缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了更短的时间线。
显然,缩放法则是通往AGI的最快路径。
什么是缩放法则?
缩放法则,英文名称Scaling Laws,是一种现象描述,大意是指:语言模型的效果与参数量、数据量、计算量基本呈平滑的幂定律。
换句话说,随着模型的参数量(Parameters)、参与训练的数据量(Tokens)以及训练过程累积的计算量(FLOPS)的指数性增大, 模型在测试集上的 Loss 就线性降低,也就意味着模型的效果越好。
图注:当没有被其他两个因素限制时,实证性能与每个单独因素都呈现出幂律关系。
在2022 年,DeepMind 在 ScalingLaw 里又做了进一步分析。研究通过定量的实验验证,语言模型训练数据大小,应该和模型参数量大小等比放大。在计算总量不变的情况下,模型训练的效果在参数量和训练数据量当中有个最优平衡点,曲线下面的最低点是在参数规模和训练数据量当中有个非常好的折中点。
OpeaAI的成功和GPT-4
OpenAI最初是一个非盈利性人工智能研究实验室,2016年获得了萨姆•奥尔特曼和埃隆•马斯克10亿美元的资助。
2019年OpenAI转型为盈利性人工智能研究实验室,以吸收投资者的资金。
在实验室支持其研究的资金已所剩无几的时候,微软又宣布将在实验室投资10亿美元。
OpenAI推出的GPT系列,每一个版本都能引起业界狂欢,在微软Build 2023开发者大会上,OpenAI的创始人Andrej Karpthy做了演讲:State of GPT(GPT的现状),表示他们一直把大模型当做“人脑”来训练 。
Andrej提到,可以把当前LLM大语言模型比喻为人类思考模式的系统一(快系统),这是相对于反应慢但具有更长线推理的系统二(慢系统)而言。
“系统一是一个快速的自动过程,我认为有点对应于 LLM,只是对标记进行抽样。
系统二是大脑中较慢的、经过深思熟虑的计划部分。
而prompt工程,基本上是希望让LLM恢复一些我们大脑中具有的能力。”
Andrej Karpthy还提到,GPT-4 是一个了不起的人工制品,他非常感谢它的存在。它在很多领域都有大量的知识,它可以做数学、代码等等,所有这些功能都触手可及。
而CEO Altman 表示,在早期的时候,GPT-4 非常慢,还有bug,很多事情做得不好。但是,最早期的计算机也是这样,它们仍然指向了我们生活中将要变得非常重要的东西的道路,尽管需要几十年的时间才能发展。
如此看来,OpenAI是一家坚持梦想的机构,且想把事情做到极致的公司。
正如微软亚洲研究院前副院长、澜舟科技创始人周明在一次采访中提到的:
参考:
https://mp.weixin.qq.com/s/p42pBVyjZws8XsstDoR2Jw https://mp.weixin.qq.com/s/zmEGzm1cdXupNoqZ65h7yg https://weibo.com/1727858283/4907695679472174?wm=3333_2001&from=10D5293010&sourcetype=weixin&s_trans=6289897940_4907695679472174&s_channel=4 https://humanloop.com/blog/openai-plans?cnotallow=bd9e76a5f41a6d847de52fa275480e22
以上就是OpenAI创始人Sam Altman最新访谈:GPT-3 或开源,缩放法则加速构建AGI的详细内容,更多请关注Work网其它相关文章!