IT之家 05月04日 10:48
“老当益壮”:AI 模型成功在 43 年前的 Commodore 64 电脑上运行
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Maciej Witkowiak 的“Llama2.c64”项目成功将一个简单的AI模型移植到1982年推出的Commodore 64上。该项目利用oscarm64,在配备至少2MB扩展内存的C64上运行一个260KB的tinystories模型。虽然该模型的功能有限,类似于一个孩子讲故事,但考虑到硬件的古老和AI的延续性,这对于一台43岁的电脑来说,是一项令人惊叹的成就,展示了在极低功耗硬件上运行AI模型的可能性。

💾Llama2.c64项目由Maciej Witkowiak发起,旨在将AI模型移植到Commodore 64这一古老的硬件平台上,展示了在资源受限的环境下运行AI的可能性。

🧠该项目运行的是一个260KB的tinystories模型,这是一个简化版的Llama2,能够在配备至少2MB扩展内存的Commodore 64上运行。

🧸Llama2.c64生成的故事类似于一个孩子讲故事,虽然词汇量和逻辑有限,但考虑到硬件的限制,其在故事延续性上的表现令人印象深刻。

IT之家 5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 1982 年推出的硬件上运行呢?

这正是 Maciej Witkowiak 在其新项目“Llama2.c64”中所尝试的,据IT之家了解,该项目的目标是让一个简单的 AI 在 Commodore 64 上运行。

Witkowiak 对该项目的描述如下:

Llama2.c64 是由 Maciej“YTM / Elysium”Witkowiak 使用 oscar64 移植到 Commodore 64 的,需要至少配备 2MB 扩展内存单元(REU)的 Commodore 64 才能运行。

该项目运行的是一个 260KB 的 tinystories 模型,将 Llama2 的功能带到了独特的 C64 硬件环境中。

需要注意的是,这并不是一个聊天模型。想象一下给一个 3 岁的孩子讲一个故事的开头,他们会尽其词汇量和能力把故事讲下去。

从上图中可以看到 Llama2.c64 生成的故事示例,确实像是一个孩子在讲故事时胡言乱语,但考虑到 AI 所依赖的硬件条件如此有限,以及它在故事中所展现的延续性,对于一台已经 43 岁的电脑来说,已经是非常令人惊叹的成就了。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Llama2.c64 Commodore 64 AI模型移植
相关文章