Vim配置AI Copilot提升编码效率

市面上已经有成熟的AI编码助手,先有Github的Copilot,后有国内各个厂家提供的助手,以及现在能力更强大的cursor等。只是目前市面的编码助手,只支持VSCode和JetBrains,对一些Vim高度依赖的开发者很不友好。正好找到了一款Vim插件,支持本地离线AI模型进行编码提效。

首先需要安装Vim插件,以Mac代码为例,下载llama.vim到bundle中:

复制代码
cd ~/.vim/bundle
git clone https://github.com/ggml-org/llama.vim

配置Plugin 'llama.vim'.vimrcvundle#begin() 区域:

复制代码
set rtp+=~/.vim/bundle/Vundle.vim
call vundle#begin()
Plugin 'VundleVim/Vundle.vim'
Plugin 'ggml-org/llama.vim'
call vundle#end()

接着安装llama.cpp

复制代码
brew install llama.cpp

接下来安装离线模型,下面是建议的配置,具体取决于我们的VRAM数量:

  • 超过 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-7B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 16GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-3B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256
  • 小于 8GB VRAM:

    shell 复制代码
    llama-server \
        -hf ggml-org/Qwen2.5-Coder-1.5B-Q8_0-GGUF \
        --port 8012 -ngl 99 -fa -ub 1024 -b 1024 \
        --ctx-size 0 --cache-reuse 256

这里我们选择千问2.5,7B 版本:

接下来就可以快乐的使用代码生成辅助了:

相关推荐
星座5281 小时前
AI+CMIP6数据分析与可视化、降尺度技术与气候变化的区域影响、极端气候分析
人工智能·ai·气候·水文·cmip6
wuningw1 小时前
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”
llama
数据智能老司机4 小时前
Spring AI 实战——提交用于生成的提示词
spring·llm·ai编程
数据智能老司机4 小时前
Spring AI 实战——评估生成结果
spring·llm·ai编程
该用户已不存在5 小时前
免费的 Vibe Coding 助手?你想要的Gemini CLI 都有
人工智能·后端·ai编程
xfmtznfl2165pv6 小时前
如何在VSCode中设置工作区特定的选项?
ide·vscode·编辑器
闲人编程6 小时前
用Python分析你的Spotify/网易云音乐听歌数据
开发语言·python·ai·数据分析·spotify·网易云·codecapsule
thorn_r6 小时前
MCP驱动的AI角色扮演游戏
人工智能·游戏·机器学习·ai·自然语言处理·agent·mcp
大刘讲IT7 小时前
赋能中小企业:基于五大开源模块的AI智能体构建方案与细化拆解
人工智能·经验分享·ai·开源·制造
一只柠檬新7 小时前
当AI开始读源码,调Bug这件事彻底变了
android·人工智能·ai编程