Vim配置AI Copilot提升编码效率

市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在能力更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友好。正好找到了一款Vim插件,支持本地离线AI模型进行编码提效。

首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:

复制代码
cd ~/.vim/bundle
git clone https://github.com/ggml-org/llama.vim

配置Plugin 'llama.vim'.vimrcvundle#begin() 区域:

复制代码
set rtp+=~/.vim/bundle/Vundle.vim
call vundle#begin()
Plugin 'VundleVim/Vundle.vim'
Plugin 'ggml-org/llama.vim'
call vundle#end()

接着安装llama.cpp

复制代码
brew install llama.cpp

接下来安装离线模型,下面是建议的配置,具体取决于我们的VRAM数量:

  • 超过 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 8GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256

这里我们选择千问2.5,7B 版本:

接下来就可以快乐的使用代码生成辅助了:

相关推荐
极客密码17 分钟前
也是吃上细糠了。用上了Claude Code的无限中转API
ai编程·claude·cursor
CoderLiu2 小时前
上下文工程:从 Manus 实践看 AI 智能体的成本与性能优化
人工智能·agent·ai编程
d111111111d2 小时前
什么是内存对齐?在STM32上面如何通过编辑器指令来实现内存对齐。
笔记·stm32·单片机·嵌入式硬件·学习·编辑器
Java后端的Ai之路3 小时前
【AI编程工具】-CodeBuddy设置鼠标配合快捷键放大字体
人工智能·aigc·ai编程·codebuddy
爱笑的眼睛113 小时前
超越翻转与裁剪:面向生产级AI的数据增强深度实践与多模态演进
java·人工智能·python·ai
Imkc4 小时前
Proxfier 通过antigravity验证并使用
ai编程·googlecloud
╭⌒若隐_RowYet——大数据4 小时前
AI Agent(智能体)简介
人工智能·ai·agent
思迈特Smartbi4 小时前
思迈特软件斩获鲲鹏应用创新大赛(华南赛区) “最佳原生创新奖”
人工智能·ai·数据分析·bi·商业智能
驱动探索者4 小时前
[缩略语大全]之[ARM]篇
arm开发·ai编程
张彦峰ZYF5 小时前
借助DeepSeek思考产业落地:蒸馏、小模型微调
人工智能·ai·deepseek-v3·deepseek-r1·蒸馏-小模型微调