微信关注,获取更多

OpenAI首个开发者日:AI模型更强还更便宜了!

继今年春天发表GPT-4之后,OpenAI又创造了一个让人兴奋到睡不着的夜晚。

过去一年,ChatGPT 绝对是整个科技领域最热的词汇。 OpenAI也依靠ChatGPT取得了惊人的成绩:总结来说,OpenAI证实ChatGPT目前每周有超过1亿活跃用户,超过200万开者使用API等进行开发,与超过92%的财富500强公司合作。

作为备受期待的首届开发者大会,Sam Altman 在昨晚带来了一系列全新的 AI 模型和工具,包括如下:

  • 全新的 GPT-4 Turbo 模型
  • 更可控的输出:函式呼叫增强、JSON 模式
  • 开放新的 API:DALLE-3、GPT-4 Turbo with vision、TTS 和 Whisper V3
  • GPT-4 微调、自定义模型
  • GPTs:创建自定义版本的 ChatGPT
  • GPT Store 即将上线
  • Assistants API:更接近 AI 智能体的体验

从这些更新的展示中可以明显感觉到,OpenAI 正在努力把 ChatGPT 构建成一个自动化程度更高的 AI 智能体,这个智能体不再是「纸上谈兵」,而是越来越多地透过操纵现有应用对物理世界产生影响。 例如,在活动现场,一位OpenAI的工作人员通过语音与ChatGPT对话,为在场的每一位观众发放了500美元OpenAI代金券。

GPT-4 Turbo:128k 上下文、价格更便宜

会上首先亮相的是 GPT-4 的全新版本 GPT-4 Turbo。 我们都知道,OpenAI在今年3月发表了GPT-4初始版本,并在7月广泛提供给了所有开发者。 Sam Altman 在现场一一解析了 GPT-4 Turbo 的几大亮点。

首先,GPT-4 Turbo比 GPT-4更强大,支持128k上下文窗口,可以在单个 prompt 中处理超过 300 页的文字。 更长的上下文意味着模型输出结果更加准确。

其次,GPT-4 Turbo能够了解更近、更丰富的世界知识,外部文件和数据库的截止日期更新到了 2023 年 4 月。 与之相比,GPT-4的知识库截止日期为2021年9月。

接下来是函数呼叫更新。 函数调用允许将应用程序函数或外部 API 描绘给模型,并让模型智能选择「包含呼叫这些函数的参数」的 JSON 对象。

今天,GPT-4 Turbo 在这方面做了几项改进,例如在一条消息中能够呼叫多个函数。 用户可以在发送一条消息时请求多个操作,如「打开车窗并关闭空调」。 此外函数呼叫的准确性也得到提升,GPT-4 Turbo 更有可能返回正确的函数参数。

与此同时,指令遵循性能得到提升并支持了 JSON 模式。 其中在需要严格指令遵循的任务上,GPT-4 Turbo的表现比以往的模型更好,例如生成特定格式(始终以 XML 来回应)。

GPT-4 Turbo 支持了新的 JSON 模式,确保模型使用有效的 JSON 进行响应。 新的 API 参数 response_format 限制模型输出以生成语法正确的 JSON 对象。 该模式对开发者在聊天完成(Chat Completions)API 中生成 JSON 非常有用。

多模态能力也是大会的重点内容,为此 OpenAI 开放了全新的 API。

GPT-4 Turbo 整合了 DALL· E 3,能够接受并处理图像输入(即 GPT-4 Turbo with vision),生成标题、分析现实世界的图像、阅读带图表的文件等。

对于 GPT-4 Turbo with vision,开发者可以通过 API 中的 gpt-4-vision-preview 来访问。 OpenAI计划为主要的GPT-4 Turbo模型提供视觉支持,价格取决于输入图像的大小,例如像素1080×1080的图像需要的成本为0.00765美元。

▲ 已经有开发者上手试用,效果不错。

同样地,开发者可以通过图像 API 将 DALL・E 3 直接集成到他们的应用程序和产品中。 与之前版本的 DALL・E 类似,该 API 内建审核功能,可以帮助开发者保护自己的应用程序免遭滥用。 OpenAI提供了不同的格式和质量选项,绘制一张图像的起价为0.04美元。

在文字转换语音领域,开发者现在可通过文字到语音(text-to-speech)API,将文字转化为人类质量的语音。 全新TTS模型提供了6种预设声音和两种模型变体即 tts-1 和 tts-1-hd,其中 tts 针对实时应用案例进行优化,tts-1-hd 针对品质进行最佳化。 每输入1000字符起价为0.015美元。

有了新版本 GPT-4 Turbo,OpenAI 也没有「忘了」GPT-4。

现在,GPT-4 微调正在实验访问阶段。 OpenAI 正在创建一个用于 GPT-4 微调的实验性访问程序。 不过与GPT-3.5微调获得的实质收益相比,GPT-4微调需要更多工作才能对基础模型实现有意义的改进。

未来,随着GPT-4微调在质量和安全性方面得到提升,GPT-3.5微调的活跃用户可以选择在他们的微调控制中心应用GPT-4程序。

在微调之外,对于那些需要更多定制化功能的组织机构,OpenAI 启动了定制模型(Custom Models)计划,允许组织机构与OpenAI研究人员一起针对特定领域来训练定制化GPT-4。 这包括修改模型训练过程的每一步,从额外的领域特定预训练到运行针对特定领域的定制化 RL 训练后(post-training)过程。

组织机构对其定制化模型拥有独家存取权。 OpenAI 不会提供给其他客户或与其他客户共享,也不会用于训练其他模型。 此外提供给 OpenAI 以训练定制化模型的专有数据不会在其他上下文中重复使用。 不过,OpenAI表示,目前自订模型的功能有限且成本高昂。

最后是价格。 如你我所见,GPT-4 Turbo 性能更强了,但价格却被压下来了。 对比 GPT-4,GPT-4 Turbo 的输入 token 价格是其 1/3,为 0.01 美元 / 1000token; 输出 token 价格是其 1/2,为 0.03 美元 / 1000token。

同样地,GPT-3.5 Turbo 16K 以及 GPT-3.5 Turbo 4K、16K 微调的价格也都有一定程度的下降,具体参见下图。

目前如何使用 GPT-4 Turbo 呢?

所有付费开发者都可以通过API中的 gpt-4-1106-preview 来试用 GPT-4 Turbo。 未来几周,OpenAI将发表稳定的生产就绪(production-ready)模型。

未经允许不得转载:值得买 » OpenAI首个开发者日:AI模型更强还更便宜了!

评论

5+6=

催更~发根烟不过分吧!

微信扫一扫打赏