Vim配置AI Copilot提升编码效率

市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在能力更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友好。正好找到了一款Vim插件,支持本地离线AI模型进行编码提效。

首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:

复制代码
cd ~/.vim/bundle
git clone https://github.com/ggml-org/llama.vim

配置Plugin 'llama.vim'.vimrcvundle#begin() 区域:

复制代码
set rtp+=~/.vim/bundle/Vundle.vim
call vundle#begin()
Plugin 'VundleVim/Vundle.vim'
Plugin 'ggml-org/llama.vim'
call vundle#end()

接着安装llama.cpp

复制代码
brew install llama.cpp

接下来安装离线模型,下面是建议的配置,具体取决于我们的VRAM数量:

  • 超过 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 8GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256

这里我们选择千问2.5,7B 版本:

接下来就可以快乐的使用代码生成辅助了:

相关推荐
Johny_Zhao2 小时前
AI+自动化测试系统方案:网络设备与网络应用智能测试
linux·网络·人工智能·python·网络安全·docker·ai·信息安全·云计算·ansible·shell·cisco·huawei·系统运维·itsm·华三·deepseek
揽月凡尘6 小时前
给个人程序加上MCP翅膀
ai编程
带刺的坐椅6 小时前
Solon Ai Flow 编排开发框架发布预告(效果预览)
java·ai·solon·dify·solon-flow
KangkangLoveNLP6 小时前
Llama:开源的急先锋
人工智能·深度学习·神经网络·算法·机器学习·自然语言处理·llama
wang_yb6 小时前
你的聚类模型靠谱吗?5大外部指标彻底揭秘
ai·databook
bloglin999996 小时前
cursor/vscode启动项目connect ETIMEDOUT 127.0.0.1:xx
ide·vscode·编辑器·nodejs·cursor
人猿泰飞7 小时前
Trae IDE和VSCode Trae插件初探
ai编程·trae
姜 萌@cnblogs7 小时前
【实战】深入浅出 Rust 并发:RwLock 与 Mutex 在 Tauri 项目中的实践
前端·ai·rust·tauri
小技工丨11 小时前
LLaMA-Factory:环境准备
机器学习·大模型·llama·llama-factory
聚客AI12 小时前
ChatGPT到Claude全适配:跨模型Prompt高级设计规范与迁移技巧
人工智能·机器学习·语言模型·自然语言处理·langchain·transformer·llama