IT之家 03月01日
OpenAI GPT-6 训练规模将创历史新高:预估 10 万张 H100 GPU,AI 训练成本达天文数字
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

科技媒体smartprix报道,OpenAI在GPT-4.5模型介绍视频中意外泄露GPT-6训练可能需要的GPU数量,暗示其规模将远超以往。视频中聊天记录出现“训练GPT-6所需的GPU数量”字样,媒体推测可能高达10万块GPU。此前GPT-3训练使用约1万块GPU。GPT-4.5在自然度和减少“幻觉”方面取得重大进展,参数量可能超过3到4万亿,训练使用了3万到5万块NVIDIA H100 GPU,成本约7.5亿到15亿美元。但“Num”的含义尚不明确,也可能是OpenAI的烟雾弹。

📈OpenAI在GPT-4.5模型介绍视频中意外泄露GPT-6训练可能需要的GPU数量,引发了对GPT-6训练规模的猜测。

💰GPT-4.5的训练使用了3万到5万块NVIDIA H100 GPU,训练成本约7.5亿到15亿美元,可见训练成本之高昂。

🤔虽然“Num”可能暗示了GPT-6训练所需的GPU数量,但也有可能只是OpenAI放出的烟雾弹,真实性有待考证。

IT之家 3 月 1 日消息,科技媒体 smartprix 昨日(2 月 28 日)发布博文,报道称 OpenAI 在介绍 GPT-4.5 模型的视频中,意外泄露了 GPT-6 训练可能需要的 GPU 数量,暗示其规模将远超以往。

IT之家注:在 GPT-4.5 模型介绍视频的 2 分 26 秒处,OpenAI 展示 GPT 4.5 功能的聊天记录中,出现了“Num GPUs for GPT 6 Training”(训练 GPT-6 所需的 GPU 数量)的字样。

虽然视频中未对此进行任何解释,但“Num”可能暗示了一个前所未有的数字,该媒体推测高达 10 万块 GPU。

此前有消息称,OpenAI 在训练 GPT-3 时使用了约 1 万块 GPU,而随着模型的不断迭代,对计算资源的需求也在不断增加。

内部代号为“Orion”的 GPT 4.5 在自然度和减少“幻觉”方面取得了重大进展,其参数量可能超过 3 到 4 万亿。据推测,GPT 4.5 的训练使用了 3 万到 5 万块 NVIDIA H100 GPU,训练成本约 7.5 亿到 15 亿美元(IT之家备注:当前约 54.69 亿到 109.37 亿元人民币)。

截图中“Num”的含义尚不明确,它可能代表“Numerous”(大量),暗示 GPT-6 的训练规模远超以往。当然,这也有可能只是 OpenAI 的一个烟雾弹,就像之前用“Strawberry”(草莓)作为 o1 系列的代号一样。 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

GPT-6 OpenAI GPU 人工智能 算力
相关文章