前不久,Meta前脚发布完开源大语言模子LLaMA,
随后就被网友“走漏”,直接放了一个磁力链接下载链接。
然而那些手头没有顶级显卡的朋友们,就只能看看而已了
但是 Georgi Gerganov 开源了一个项目llama.cpp
ggerganov/llama.cpp: Port of Facebook’s LLaMA model in C/C++ (github.com)
次项目的牛逼之处就是没有GPU也能跑LLaMA模子
大大降低的利用成本,本文就是时间如何在我的 mac m1 pro 上面跑起来这个模子
llama.cpp:提供了一种模子量化和在本地CPU上摆设方式