f 人工智能-LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之具体攻 - Powered by qidao123.com技术社区

LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之具体攻 ...

打印 上一主题 下一主题

主题 2022|帖子 2022|积分 6066

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之具体攻略

目录
llama-coder的简介
1、特点
llama-coder的安装和使用方法
1、安装
保举硬件
当地安装
长途安装
模型
llama-coder的案例应用




llama-coder的简介

Llama Coder 是一个更好的自托管的 VS Code 插件,用来替代 Github Copilot。Llama Coder 使用 Ollama 和 codellama 提供在你硬件上运行的自动补全功能。最适合搭配 Mac M1/M2/M3 或 RTX 4090 使用。
GitHub地点:GitHub - ex3ndr/llama-coder: Replace Copilot local AI
VS Code 插件:Llama Coder - Visual Studio Marketplace

1、特点

>> 与 Copilot 一样精彩
>> 快速。在消费级 GPU 上运行良好。建议使用 Apple Silicon 或 RTX 4090 以得到最佳性能。
>> 无遥测或跟踪
>> 实用于任何编程语言或天然语言。

llama-coder的安装和使用方法

1、安装

保举硬件

>> 最低要求 RAM: 16GB 是最低要求,越多越好,由于即使是最小的模型也占用 5GB 的 RAM。
>> 最佳方式:配备 RTX 4090 的专用机器。在该机器上安装 Ollama,并在扩展设置中设置端点以卸载到该机器。
>> 次佳方式:运行在拥有足够 RAM 的 MacBook M1/M2/M3(RAM 越多越好,但额外 10GB 即可满意要求)。对于 Windows 笔记本:假如配备符合的 GPU,运行良好,但建议使用配备良好 GPU 的专用机器。假如你有一台专用的游戏 PC,结果非常好。
当地安装

在当地机器上安装 Ollama,然后在 VSCode 中启动扩展,齐备应该正常工作。

长途安装

在专用机器上安装 Ollama,并在扩展设置中设置端点。Ollama 通常使用端口 11434 并绑定到 127.0.0.1,如需更改,你必要将 OLLAMA_HOST 设置为 0.0.0.0。


模型

如今 Llama Coder 仅支持 Codellama。模型通过差异方式量化,但我们的测试显示 q4 是运行网络的最佳方式。当选择模型时,模型越大,表现越好。始终选择你机器上可以大概支持的最大尺寸和最大量化的模型。默认模型为 stable-code:3b-code-q4_0,应该在任何地方都能运行,并优于大多数其他模型。
NameRAM/VRAMNotesstable-code:3b-code-q4_03GBcodellama:7b-code-q4_K_M5GBcodellama:7b-code-q6_K6GBmcodellama:7b-code-fp1614GBgcodellama:13b-code-q4_K_M10GBcodellama:13b-code-q6_K14GBmcodellama:34b-code-q4_K_M24GBcodellama:34b-code-q6_K32GBm m - 在 MacOS 上运行缓慢
g - 在较旧的 NVidia 显卡(30 系列之前)上运行缓慢



llama-coder的案例应用

连续更新中……


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

乌市泽哥

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表