Vim配置AI Copilot提升编码效率

市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在能力更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友好。正好找到了一款Vim插件,支持本地离线AI模型进行编码提效。

首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:

cd ~/.vim/bundle
git clone https://github.com/ggml-org/llama.vim

配置Plugin 'llama.vim'.vimrcvundle#begin() 区域:

set rtp+=~/.vim/bundle/Vundle.vim
call vundle#begin()
Plugin 'VundleVim/Vundle.vim'
Plugin 'ggml-org/llama.vim'
call vundle#end()

接着安装llama.cpp

brew install llama.cpp

接下来安装离线模型,下面是建议的配置,具体取决于我们的VRAM数量:

  • 超过 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 8GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256

这里我们选择千问2.5,7B 版本:

接下来就可以快乐的使用代码生成辅助了:

相关推荐
星糖曙光30 分钟前
基于HTML生成网页有什么优势
前端·经验分享·笔记·html·ai编程
灵魂尾巴.38 分钟前
vscode中的编辑器、终端、输出、调试控制台(转载)
ide·vscode·编辑器
徐小夕@趣谈前端2 小时前
Flowmix/Docx 多模态文档编辑器春节更新!日期组件 + 一键生成区块链接,效率飞升!...
编辑器
Elastic 中国社区官方博客3 小时前
Elasticsearch 开放推理 API 增加了 Azure AI Studio 支持
大数据·数据库·人工智能·microsoft·ai·全文检索·azure
WongKyunban5 小时前
Vim 多窗口编辑及文件对比
linux·编辑器·vim
davenian5 小时前
< 自用文儿 > Linux / Unix 的 VI 编辑器 快捷命令集 看到安装包叫 vim
linux·编辑器·unix·vi 编辑器
慕白Lee5 小时前
【DeepSeek】私有化本地部署图文(Win+Mac)
ai·deepseek
Qubernet7 小时前
通过Ollama本地部署DeepSeek R1以及简单使用
ai·ollama·deepseek
麻雀小妖7 小时前
如何在WPS和Word/Excel中直接使用DeepSeek功能
ai·wps·office·deepseek