最近OpenAI创始人Sam Altman在一次访谈中讨论了OpenAI的API和他们的产品计划。Sam非常坦诚。讨论涉及到实际的开发者问题,以及与OpenAI的使命和AI的社会影响相关的更大范围的问题。以下是主要的要点:
1. OpenAI目前严重依赖GPU。
目前客户对OpenAI最大的抱怨是关于API的可靠性和速度。Sam承认他们的担忧,并解释说,大部分问题是由于GPU短缺造成的。
更长的32k上下文还不能推广给更多的人。OpenAI还没有克服技术上的障碍,所以虽然他们似乎很快就会有100k - 1M tokens的上下文窗口(今年),但任何更大的窗口都需要研究上突破。
微调(Fine-Tuning)API也目前受到GPU可用性的限制。他们还没有使用像Adapters或LoRa这样的高效微调方法,所以微调运行和管理非常计算密集。将来会有更好的微调支持。他们甚至可能会托管一个由社区贡献的模型的市场。
专用容量提供受到GPU可用性的限制。OpenAI还提供专用容量,为客户提供模型的私人副本。要使用这项服务,客户必须愿意预付$100k的费用。
2. OpenAI的近期路线图包括更便宜、更快的GPT-4,更长的上下文窗口,微调API,以及有状态的API。
Sam分享了他认为OpenAI的API的临时近期路线图。
2023年:
更便宜、更快的GPT-4 —— 这是他们的首要任务。总的来说,OpenAI的目标是尽可能降低“智能的成本”,所以他们将努力继续降低API的成本。
更长的上下文窗口 —— 在不久的将来,高达一百万 tokens 的上下文窗口是可能的。
微调(Fine-Tuning)API —— 微调API将扩展到最新的模型,但这的确切形式将由开发者表明他们真正想要的东西来塑造。
支持会话状态的API —— 现在当你调用聊天API时,你必须反复传递同样的对话历史,并反复支付同样的tokens。在未来,API将有一个记住对话历史的版本。
2024年:
多模态 —— 这在GPT-4的发布中进行了演示,但不能扩展到所有人,直到更多的GPU上线。
3. 许多开发者对通过API获取ChatGPT插件感兴趣,但可能不会很快发布。
许多开发者对通过API获取ChatGPT插件感兴趣,但Sam说他不认为它们会很快发布。插件的使用,除了浏览,表明它们还没有PMF。他建议,很多人认为他们想要他们的应用在ChatGPT内部,但他们真正想要的是在他们的应用中有ChatGPT。
4. OpenAI将避免与他们的客户竞争,除了ChatGPT。他们的目标是ChatGPT成为一个超级智能的工作助手。
相当多的开发者说,他们在使用OpenAI的API构建产品时,担心OpenAI可能最终会发布与他们竞争的产品。Sam说,OpenAI不会发布超过ChatGPT的更多产品。他说,有一个伟大的平台公司有一个杀手级应用的历史,ChatGPT将允许他们通过成为自己产品的客户来改进API。ChatGPT的愿景是成为一个超级智能的工作助手,但OpenAI不会触及许多其他的GPT用例。
5. 虽然Sam Altman呼吁对未来的模型进行监管,但他并不认为现有的模型是危险的,他认为对它们进行监管或禁止是一个大错误。他重申了他对开源的重要性,并说OpenAI正在考虑开源GPT-3。
6. OpenAI的内部数据表明,模型性能的缩放法则继续有效,使模型更大将继续产生性能。这对于人工智能的发展时间线有重要的影响。
OpenAI的内部数据表明,模型性能的缩放法则继续有效,使模型更大将继续产生性能。缩放的速度不能维持,因为OpenAI在短短几年内已经将模型扩大了数百万倍,未来这样做将不可持续。这并不意味着OpenAI不会继续尝试使模型更大,只是意味着它们可能每年只会增加一倍或两倍,而不是增加许多个数量级。
缩放继续有效的事实对AGI开发的时间线有重要的影响。缩放假设是我们可能已经有了构建AGI所需的大部分部件,剩下的大部分工作将是将现有的方法扩展到更大的模型和更大的数据集。如果缩放的时代结束了,那么我们可能应该预期AGI会更远。缩放法则继续有效强烈暗示了更短的时间线。