Vim设置AI Copilot提升编码效率

熊熊出没  金牌会员 | 2025-2-13 12:12:25 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 871|帖子 871|积分 2613


市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在本事更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友爱。恰恰找到了一款Vim插件,支持本地离线AI模型进行编码提效。
首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:
  1. cd ~/.vim/bundle
  2. git clone https://github.com/ggml-org/llama.vim
复制代码
设置Plugin 'llama.vim' 到 .vimrc的 vundle#begin() 区域:
  1. set rtp+=~/.vim/bundle/Vundle.vim
  2. call vundle#begin()
  3. Plugin 'VundleVim/Vundle.vim'
  4. Plugin 'ggml-org/llama.vim'
  5. call vundle#end()
复制代码
接着安装llama.cpp:
  1. brew install llama.cpp
复制代码

接下来安装离线模型,下面是建议的设置,详细取决于我们的VRAM数量:


  • 高出 16GB VRAM:
    1. llama-server \
    2.     -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
    3.     --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
    4.     --ctx-size 0 --cache-reuse 256
    复制代码
  • 小于 16GB VRAM:
    1. llama-server \
    2.     -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
    3.     --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
    4.     --ctx-size 0 --cache-reuse 256
    复制代码
  • 小于 8GB VRAM:
    1. llama-server \
    2.     -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
    3.     --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
    4.     --ctx-size 0 --cache-reuse 256
    复制代码
这里我们选择千问2.5,7B 版本:


接下来就可以快乐的使用代码天生辅助了:


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

熊熊出没

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表