Cnbeta 04月17日
微软开发出一种可在CPU上运行的超高效AI模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微软的研究人员推出了BitNet b1.58 2B4T,一款大规模的1比特人工智能模型,旨在轻量级硬件上高效运行。该模型通过将权重量化为-1、0和1,实现了更高的内存和计算效率。BitNet b1.58 2B4T在多个基准测试中表现出色,超越了Meta、Google和阿里巴巴的同类模型,且运行速度更快,内存占用更少。尽管Bitnets在资源受限设备上具有潜力,但其对特定硬件的依赖以及对GPU的支持不足,仍是其面临的挑战。

💡BitNet b1.58 2B4T是微软开发的最大规模的1比特人工智能模型,拥有20亿个参数,在MIT许可下公开可用,可在包括苹果M2在内的CPU上运行。

⚙️Bitnets通过将权重量化为-1、0和1,降低了模型表示权重所需的位数,从而提高了内存和计算效率,使其能够在内存更少的芯片上更快地运行。

🏆BitNet b1.58 2B4T在包括GSM8K和PIQA在内的基准测试中,超越了Meta的Llama 3.2 1B、Google的Gemma 3 1B和阿里巴巴的Qwen 2.5 1.5B,并且运行速度更快,内存占用更少。

⚠️虽然Bitnets在性能上有所突破,但目前需要使用微软的自定义框架bitnet.cpp,并且仅适用于特定硬件,GPU尚未被列入支持列表,这限制了其在AI基础设施领域的应用。

微软研究人员声称,他们已经开发出迄今为止规模最大的1比特人工智能模型,也称为“Bitnets”。该模型名为BitNet b1.58 2B4T,在MIT许可下公开可用,可在包括苹果M2在内的CPU上运行。

Bitnets本质上是设计用于在轻量级硬件上运行的压缩模型。在标准模型中,权重(定义模型内部结构的值)通常会被量化,以便模型在各种机器上都能表现良好。量化权重可以减少表示这些权重所需的位数(计算机能够处理的最小单位),从而使模型能够在内存更少的芯片上更快地运行。

Bitnets 将权重量化为三个值:-1、0 和 1。理论上,这使得它们比当今大多数模型具有更高的内存和计算效率。

微软研究人员表示,BitNet b1.58 2B4T 是第一个拥有 20 亿个参数的比特网络,“参数”在很大程度上与“权重”同义。研究人员声称,BitNet b1.58 2B4T 经过 4 万亿个标记(据估计相当于约 3300 万本书)的数据集训练,其性能优于类似规模的传统模型。

需要明确的是,BitNet b1.58 2B4T 并没有完全击败竞争对手的 20 亿参数模型,但它似乎也拥有自己的优势。根据研究人员的测试,该模型在包括 GSM8K(一组小学数学题)和 PIQA(测试物理常识推理能力)在内的基准测试中,超越了 Meta 的 Llama 3.2 1B、Google的 Gemma 3 1B 和阿里巴巴的 Qwen 2.5 1.5B。

或许更令人印象深刻的是,BitNet b1.58 2B4T 比其他同等大小的模型速度更快——在某些情况下速度是其两倍——同时只使用一小部分内存。

然而,这其中有一个问题。要实现这种性能,需要使用微软的自定义框架 bitnet.cpp,但目前该框架仅适用于特定硬件。GPU 尚未被列入支持的芯片列表,而 GPU 正是 AI 基础设施领域的主导者。

综上所述,Bitnets或许前景光明,尤其对于资源受限的设备而言,但兼容性仍然是一个关键问题,而且很可能仍将如此。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

BitNet 人工智能 1比特模型 微软
相关文章