IT之家 16小时前
苹果发布 DiffuCode-7B-cpGRPO 编程 AI 模型:基于 Qwen2.5-7B,可不按顺序生成代码
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

苹果公司在Hugging Face上发布了开源AI模型DiffuCode-7B-cpGRPO,该模型在代码生成方面实现了创新。与传统LLM从左到右生成代码的方式不同,DiffuCode-7B-cpGRPO采用扩散模型,能够不按顺序生成代码,且性能媲美顶级开源编码模型。该模型基于阿里开源的Qwen2.5-7B模型,经过改造和训练,在主流编程跑分中表现出色,展现了扩散模型在代码生成领域的潜力,为开发者提供了新的可能性。

🍎 传统大语言模型(LLM)在生成代码时,通常采用自回归方式,按从左到右、从上到下的顺序生成token,类似于人类阅读文本的方式。

💡 DiffuCode-7B-cpGRPO采用扩散模型,这与图像模型的工作方式类似。它从模糊的噪声状态开始,通过迭代去除噪声,逐步生成代码,摆脱了严格的顺序限制。

🛠️ DiffuCode-7B-cpGRPO基于阿里开源的Qwen2.5-7B模型,并根据DiffuCoder论文进行改造,使其成为基于扩散的解码器。苹果公司还使用超过20000个精心挑选的编码示例对模型进行了训练。

📈 实验结果表明,DiffuCode-7B-cpGRPO在不依赖从左到右生成方式的情况下,在主流编程跑分中,相较于主流基于扩散的编程模型,测试得分提高了4.4%。

IT之家 7 月 5 日消息,苹果公司悄然在 Hugging Face 上发布了一款名为 DiffuCode-7B-cpGRPO 的开源 AI 模型,该模型在生成代码方面具有创新特性,能够不按顺序生成代码,且性能媲美顶级开源编码模型。

IT之家注:传统大语言模型(LLM)生成代码的方式,如同大多数人类阅读文本的方式,采用从左到右、从上到下顺序。

这主要是因为这些 LLM 采用自回归(Autoregression)方式工作,意味着当用户向它们提问后,它们会处理整个问题,预测答案的第一个 token,然后带着这个 token 重新处理整个问题,预测第二个 token,以此类推。

LLM 还有一个名为“温度”(Temperature)的设置,用于控制输出的随机性。在预测下一个 token 后,模型会为所有可能的选项分配概率。较低的温度意味着更有可能选择最可能的 token,而较高的温度则给予模型更多的自由,选择不太可能的 token。

而另一种选择就是扩散(Diffusion)模型,这种模型通常用于图像模型。简而言之,模型从一个模糊、噪声的图像开始,迭代去除噪声,同时考虑到用户的需求,逐渐将其引导至更接近用户请求的图像。

苹果公司发布的模型名为 DiffuCode-7B-cpGRPO,它基于上月发表、名为《DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation》的论文。

论文描述了一个采用扩散优先策略的代码生成模型,但有一个特别之处:当采样温度从默认的 0.2 增加到 1.2 后,DiffuCoder 在生成 token 的顺序上变得更加灵活,从而摆脱了严格的从左到右的约束。

更为有趣的是,苹果的这款模型建立在阿里的开源 Qwen2.5-7B 模型上,将这个模型按照 DiffuCoder 论文中的描述,改造成了一个基于扩散的 decoder,然后调整它以更好地遵循指示。完成这些后,他们又用超过 20000 个精心挑选的编码示例训练了它的另一个版本。

在主流编程跑分中,DiffuCode-7B-cpGRPO 保持了在生成代码时不严格依赖从左到右的生成方式情况下,相比较主流基于扩散的编程模型,测试得分提高了 4.4%。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DiffuCode-7B 代码生成 扩散模型 苹果
相关文章