区分LLaMA、llama.cpp和Ollama

打印 上一主题 下一主题

主题 503|帖子 503|积分 1509

大模子本地部署和运行中,常常碰到这三个概念,llama,ollama,llama.cpp。 刚开始打仗时,的确有些傻傻分不清晰。这里简朴区分理解下,方便快速上手。
简朴来讲,llama 是一个Meta公司开源的预训练大型语言模子,llama.cpp用于加载和运行 LLaMA 语言模子。ollama是大模子运行框架,它利用了 llama.cpp 提供的底层功能。
LLaMa

LLama(又称为羊驼)是预训练开源语言模子,它来着Meta公司(原Facebook公司)。类似国内阿里通义千问Qwen系列大模子、智谱AI的 GLM系列模子等。LLaMA系列模子以其高质量、可扩展性和机动性,在NLP范畴取得了显著的进展。通过不断地技能创新和优化,LLaMA模子在各种任务上显现了卓越的性能,成为了大型语言模子研究和应用的重要里程碑。
2024年4月19日,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-2和Code-Llama之后的第三代模子,Llama-3在多个基准测试中实现了全面领先,性能优于业界同类最先辈的模子。

llama.cpp

llama.cpp 是一个开源的 C++ 库, 它用原始 C++ 重写了 LLaMa 的推理代码,是一种推理框架,用于加载和运行 LLaMA 语言模子。通过一些优化和量化权重,llama.cpp能让我们在各种以前无法想象的硬件上本地运行 LLaMa 模子。此中:


  • 在谷歌 Pixel5 手机上,它能以 1 token/s 的速度运行 7B 参数模子。
  • 在 M2 芯片的 Macbook Pro 上,利用 7B 参数模子的速度约为 16 token/s
  • 我们甚至于可以在 4GB RAM 的树莓派上运行 7B 模子,只管速度只有 0.1 token/s
获取代码

  1. git clone https://github.com/ggerganov/llama.cpp
  2. cd llama.cpp
复制代码
在国内访问,可以利用gitcode.com更换,命令如下:
git clone https://gitcode.com/ggerganov/llama.cpp.git  llama
(注:习惯起见,这里将下载的llama.cpp重新命名为llama)
llama.cpp提供了根本的推理功能,但缺乏一些高级功能,如上下文管理、插件系统等。

Ollama

Ollama是一个开源的大型语言模子服务工具,它资助用户快速在本地运行大模子。通过简朴的安装指令,用户可以执行一条命令就在本地运行开源大型语言模子,如Llama 2。Ollama极大地简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模子。
一句话:Ollama是一个简明易用的本地大模子运行框架,有点类似docker的概念。
Ollama下载和安装(支持windows、linux和Mac):Download Ollama on macOSGet up and running with large language models.
https://ollama.com/download
 
Ollama已经支持了很多开源大模子库,参考官方地址:libraryGet up and running with large language models.
https://ollama.com/library


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

渣渣兔

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表