OpenAI 周四推出了 GPT-4o mini,这是其最新的小型 AI 模型。公司表示,GPT-4o mini 比 OpenAI 当前最先进的 AI 模型更便宜、更快,今天开始将为开发者以及通过 ChatGPT 网络和移动应用程序向消费者发布。企业用户将在下周获得访问权限。
公司称,GPT-4o mini 在涉及文本和视觉的推理任务中表现优于业界领先的小型 AI 模型。随着小型 AI 模型的改进,它们因其速度和成本效益较大模型(如 GPT-4 Omni 或 Claude 3.5 Sonnet)更受开发者欢迎。对于需要反复调用 AI 模型执行的大量简单任务,它们是一个有用的选择。
GPT-4o mini 将取代 GPT-3.5 Turbo,成为 OpenAI 提供的最小型号。公司声称其最新的 AI 模型在 MMLU 上得分为 82%,这是衡量推理能力的基准,而 Gemini 1.5 Flash 得分为 79%,Claude 3 Haiku 得分为 75%,数据来自 Artificial Analysis。在衡量数学推理能力的 MGSM 上,GPT-4o mini 的得分为 87%,而 Flash 为 78%,Haiku 为 72%。
此外,OpenAI 表示,GPT-4o mini 的运行成本显著低于其之前的前沿模型,比 GPT-3.5 Turbo 便宜 60% 以上。目前,GPT-4o mini 在 API 中支持文本和视觉功能,OpenAI 表示该模型未来将支持视频和音频功能。
“为了让世界的每个角落都能被 AI 赋能,我们需要让模型变得更加实惠,”OpenAI 产品 API 负责人 Olivier Godement 在接受 TechCrunch 采访时说。“我认为 GPT-4o mini 是朝这个方向迈出的非常重要的一步。”
对于在 OpenAI API 上开发的开发者来说,GPT-4o mini 的定价为每百万输入标记 15 美分,每百万输出标记 60 美分。该模型具有 128,000 个标记的上下文窗口,大约相当于一本书的长度,知识截止日期为 2023 年 10 月。
OpenAI 没有透露 GPT-4o mini 的具体大小,但表示它大致与其他小型 AI 模型(如 Llama 3 8b、Claude Haiku 和 Gemini 1.5 Flash)处于同一水平。然而,公司声称 GPT-4o mini 比业界领先的小型模型更快、更具成本效益且更智能,这基于在 LMSYS.org 聊天机器人领域的预发布测试。早期的独立测试似乎证实了这一点。
“相对于可比模型,GPT-4o mini 非常快,中位输出速度为每秒 202 个标记,”Artificial Analysis 联合创始人 George Cameron 在一封给 TechCrunch 的电子邮件中说。“这比 GPT-4o 和 GPT-3.5 Turbo 快 2 倍以上,对于许多消费者应用和使用 LLM 的代理方法等速度依赖型用例来说,这是一个引人注目的选择。”
OpenAI 为 ChatGPT 企业版推出的新工具
OpenAI 周四宣布为企业客户提供新工具。在一篇博客文章中,OpenAI 宣布了企业合规 API,以帮助金融、医疗保健、法律服务和政府等高度监管行业的企业遵守记录和审计要求。
公司表示,这些工具将允许管理员审计并对其 ChatGPT 企业版数据采取行动。该 API 将提供带有时间戳的交互记录,包括对话、上传的文件、工作区用户等。
OpenAI 还为管理员提供了对工作区 GPT 的更细粒度控制,这是为特定业务用例创建的 ChatGPT 定制版本。以前,管理员只能完全允许或阻止在其工作区中创建的 GPT 操作,但现在,工作区所有者可以创建 GPT 可交互的域名批准列表。