Cnbeta 01月30日
OpenAI在GPT-4o模型更新中改进了STEM答案 并支持表情符号
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI宣布GPT-4o模型迎来更新,主要提升了信息时效性、图像分析能力和STEM领域问答水平。模型知识截止日期更新至2024年6月,使其社会文化理解更强,并能从网络搜索中加强回答。在多模态基准测试中,GPT-4o对视觉输入的理解和回答能力显著提高,能更好解释图片中的空间关系,分析复杂图表,并将其与文字内容关联。此外,模型在数学、科学和编程等STEM领域表现更佳,能解决更复杂的跨领域问题。为使回答更生动,GPT-4o还增加了表情符号的使用策略,但这些更新目前仅适用于GPT-4o模型,而非4o-mini模型。

📅 更新信息时效:GPT-4o的知识截止日期已更新至2024年6月,增强了其社会文化理解能力,并能从网络搜索结果中提取信息,提供更准确的回答。

🖼️ 提升图像分析:GPT-4o在多模态基准测试中表现出色,能更准确地理解和回应视觉输入,包括解释图片中的空间关系、分析复杂图表,并将视觉信息与书面内容联系起来。

➗ STEM领域增强:新模型在数学、科学和编程等STEM领域取得了显著进步,在GPQA和MATH等学术测试中表现更佳,能解决更复杂的跨领域问题,为用户在这些领域提供更好的帮助。

🎉 表情符号优化:GPT-4o现在更熟练地使用表情符号,为回答增添色彩,使其更具吸引力。

OpenAI 宣布其GPT-4o模型已经更新,增加了最新信息、更好的图像分析能力,并改进了与STEM领域相关的回答。 该公司表示,该模型现在还可以更熟练地使用表情符号。

虽然 OpenAI 现在已经为 ChatGPT 用户提供了网络访问权限,但底层模型本身仍有一个截止日期,这会影响它们的反应。 在最新更新中,截止日期从 2023 年 11 月提前到了 2024 年 6 月。 这将在一定程度上提高其社会和文化理解能力,它还能从网络搜索结果中加强回答。

"GPT-4o现在更善于理解和回答有关视觉输入的问题,在MMMU和MathVista等多模态基准方面有所改进,"OpenAI概述了这一更新模型的另一项改进。

更新后的模型更善于解释图片上传中的空间关系,也能分析复杂的图表,理解图表和图形,并将视觉输入与书面内容联系起来。 在空间规划和设计布局以及视觉驱动的数学或技术问题解决等领域,对图片上传的回复将包含更丰富的见解和更准确的指导。

对于那些对 STEM 相关主题感兴趣的人来说,由于在 GPQA 和 MATH 等学术测试中取得了进步,新模型在这一领域的答题能力也得到了提高。 它在 MMLU 上的表现也更好,这反映出它有能力解决更复杂的跨领域问题。 因此,如果您使用 ChatGPT 获得数学、科学或编程方面的帮助,那么您可以期待更好的结果。

最后,为了给回答增添亮点,GPT-4o 现在将使用更多策略放置表情符号,使回答更加丰富多彩和引人入胜。 所有这些变化目前似乎只适用于 GPT-4o,而不是 4o-mini 模型。 希望这种模式也能在不久的将来得到更新,因为大多数免费用户使用的都是这种模式。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

GPT-4o OpenAI 多模态 STEM AI更新
相关文章