Vim配置AI Copilot提升编码效率

市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在能力更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友好。正好找到了一款Vim插件,支持本地离线AI模型进行编码提效。

首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:

复制代码
cd ~/.vim/bundle
git clone https://github.com/ggml-org/llama.vim

配置Plugin 'llama.vim'.vimrcvundle#begin() 区域:

复制代码
set rtp+=~/.vim/bundle/Vundle.vim
call vundle#begin()
Plugin 'VundleVim/Vundle.vim'
Plugin 'ggml-org/llama.vim'
call vundle#end()

接着安装llama.cpp

复制代码
brew install llama.cpp

接下来安装离线模型,下面是建议的配置,具体取决于我们的VRAM数量:

  • 超过 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 8GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256

这里我们选择千问2.5,7B 版本:

接下来就可以快乐的使用代码生成辅助了:

相关推荐
大明者省3 分钟前
激活函数选型速查表(核心规则)
编辑器
geovindu1 小时前
CSharp:简单本地调用deepseek-r1:1.5b 模型 using .net9.0
llama
GitHubDaily1 小时前
Windows 欠了 30 年的那个原生编辑器,终于回来了。
编辑器
shengnan_wsn1 小时前
【一】【ai基础】【大模型和智能体初识】
ai
nimadan121 小时前
**AI仿真人剧制作工具2025推荐,解锁沉浸式内容创作新范
ai
孟健2 小时前
OpenClaw 2.6 调教实录:从崩溃 4671 次到省 50% token
aigc·openai·ai编程
蓝丶曦月2 小时前
MacM系列芯片安装 最新版本Notepad--(平替Windows系统的Notepad++)详细教程
编辑器·notepad++·mac
jun_bai3 小时前
VSCode使用
ide·vscode·编辑器
阿沐的硅基世界3 小时前
OpenClaw记忆层详解
ai
___波子 Pro Max.4 小时前
AI与AGI的区别及未来展望
ai·agi