AI & Big Data 前天 10:58
微軟發表首個超過20億參數的1-bit模型 同樣效能但更省電、不占記憶體
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微軟推出新型1-bit LLM家族BitNet b1.58,該模型在記憶體佔用和能源消耗方面優於傳統Transformer LLM,尤其適合在CPU或小型硬體平台上運行。BitNet b1.58基於1-bit Transformer架構,使用三元參數(-1, 0, 1),在4兆字詞的數據集上進行訓練。研究顯示,BitNet b1.58在性能上與全精度Transformer LLM相當,但在延遲性和傳輸率方面更具成本效益。微軟已在Hugging Face開源了BitNet b1.58的多個版本,但要充分發揮其優勢,需使用官方提供的C++實作版本。

🧠 微軟推出的BitNet b1.58是一個20億參數的1-bit LLM,它採用了全新的1-bit Transformer架構,這意味著模型的單一參數或權重是三元的(-1, 0, 1)。

💡 BitNet b1.58在4兆字詞的資料集上訓練而成,具有4096 token的context length,在與同樣參數量及訓練字詞的全精度(FP16)Transformer LLM模型相較,具有相同的困惑度(perplexity)及終端任務效能。

💾 相比傳統模型,BitNet b1.58在記憶體佔用和能源消耗方面有顯著優勢,例如BitNet b1.58-3B/3.9B版本占用記憶體遠小於LLaMA-3B,延遲性也更低。

💻 微軟已在Hugging Face開源了BitNet b1.58的三個版本,但若要體驗論文中提到的低功耗和高效率的推論,需要使用官方提供的 C++ 實作版本:bitnet.cpp。

微軟本周發表20億參數的1-bit模型BitNet b1.58 LLM家族,稱此新型模型比主流Transformer LLM更不占記憶體且更少耗能,適合在CPU或較小型硬體平臺上執行。

微軟研究院與中國科學院研究人員2023年發表名為《BitNet: Scaling 1-bit Transformers for Large Language Models》的論文,首度發表為大語言模型設計的1-bit Transformer架構,稱為BitNet,去年再發表BitNet b1.58 LLM變種

微軟表示,這是第一個參數20億的開源原生1-bit LLM。它是以4兆字詞的資料集訓練而成,具備4096 token的context length。

研究團隊說明,在BitNet b1.58模型中,單一參數或權重是三元( {-1, 0, 1})的。此類新模型架構引入BitLinear作為nn.Linear層的替代,能夠訓練1-bit 的權重,訓練出的LLM和同樣參數量及訓練字詞的全精度(FP16)Transformer LLM模型相較,具有相同的困惑度(perplexity)及終端任務效能,但卻能大幅減少了記憶體占用和能源耗損,就延遲性及傳輸率表現而言也更省成本。

微軟團隊認為,最重要的是, BitNet b1.58提出了新的模型擴展法則,可用於訓練高效能及低成本的下世代LLM,而且BitNet b1.58對CPU裝置更為友善,更適合執行於邊緣和行動裝置上,顯示出效能和能力。研究人員相信1-bit LLM可催生出新的硬體和為其優化的系統。

根據研究團隊比較測試,BitNet b1.58-3B/3.9B版本占用記憶體為2.22GB及2.38GB,遠小於LLaMA-3B的7.89GB。延遲性來看,BitNet b1.58-3B/3.9B各為1.87ms及2.11ms,優於LLaMA-3B的5.07ms。二個BitNet b1.58的PPL以及零樣本訓練準確性表現,也都超越LLaMA-3B。

微軟已在Hugging Face 開源三個版本的Bitnet-b1.58模型權重,一是BitNet b1.58 2B4T,適合模型部署。二是Bitnet-b1.58-2B-4T-bf16,僅適合模型訓練或微調。BitNet-b1.58-2B-4T-gguf則包含GGUF格式的權重,相容bitnet.cpp函式庫用於CPU推論。

但微軟也警告開發人員,目前Transformers函式庫的執行方式 並沒有包含為BitNet設計、高度最佳化的計算核心,因此無法彰顯 BitNet 架構的好處。

所以,雖然開發人員可能會因這個模型使用了量化(quantized)的權重而看到節省了一點記憶體,但無法看出速度快、耗能低等效能優勢,因為transformers本身不支援BitNet所需要的底層運算加速。想要體驗論文中提到的效能(包括低功耗和高效率的推論),必須使用官方提供的 C++ 實作版本:bitnet.cpp。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

BitNet b1.58 1-bit LLM 微軟 Transformer
相关文章