蓝点网 2024年09月20日
OpenAI面向开发者继续提高o1系列模型的调用速率 最高每分钟可调用1000次
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI推出o1系列新模型,包括预览版和迷你版,可解决复杂推理任务,但不能替代GPT-4o模型。该系列模型调用速率有所提高,部分用户的使用限制也有调整。

🌐OpenAI推出的o1系列新模型,分为o1-preview预览版和o1-mini版。o1系列模型的主要特点是能够解决更为复杂的推理任务,但存在一些局限性,如不支持图像功能、函数调用和快速响应时间。

📈OpenAI提高了Tier5开发者的o1系列模型调用速率。调整前,o1-preview模型的调用速率为每分钟100个请求,o1-mini为每分钟250个请求;调整后,o1-preview提高到每分钟500个请求,o1-mini提高到每分钟1000个请求。

👥除了面向开发者的调整,OpenAI本周还面向ChatGPT Plus和ChatGPT Team用户调整了o1-mini的速率限制,从每周50条消息提高到每天50条消息;o1-preview模型的消息限制从每周30条提高到每周50条,但服务成本较高,仍有使用限制。

早前 OpenAI 推出基于 o1 系列的新模型,分为 o1-preview 预览版和更快更便宜的 o1-mini 版,该系列模型的主要特点是可以解决更复杂推理任务。

需要强调的是 o1 模型并不能直接替代 GPT-4o 模型,原因在于 o1 模型仅提高推理能力,但不支持图像功能、函数调用和快速响应时间。

对大多数开发者而言可能需要混合使用 GPT-4o、GPT-4o-mini 和 o1 系列模型,即在不同的使用场景中搭配不同的模型以获得最佳性能。

今天 OpenAI 宣布提高 Tier 5 开发者的 o1 系列模型调用速率,鼓励更多开发者积极使用 o1 系列模型,但目前这仅适用于 5 级开发者,后续 OpenAI 会陆续扩展支持 1~4 级开发者。

此次调整前 o1-preview 模型的调用速率为每分钟 100 个请求,o1-mini 的调用速率则是每分钟 250 个请求;此次调整后 o1-preview 调用速率提高到每分钟 500 个请求,而 o1-mini 调用速率提高到每分钟 1000 个请求。

调整后开发者们可以在更大并发场景中使用 o1 系列模型解决复杂的推理任务,并在获得推理结果后再使用 GPT-4o 系列模型进行接下来的处理等。

除了面向开发者调整速率外,OpenAI 在本周还面向 ChatGPT Plus 和 ChatGPT Team 用户调整了 o1-mini 的速率限制,从每周可以发送 50 条消息提高到每天可以发送 50 条消息。

但因为 o1-preview 模型的服务成本更高,所以 OpenAI 只将该模型的消息限制从每周 30 条提高到每周 50 条,所以总体来说还是有一些使用限制的。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI o1系列模型 调用速率 使用限制
相关文章