如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

复制代码
pip install open-interpreter

然后,执行

复制代码
interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

相关推荐
一瞬祈望12 小时前
PyTorch 图像分类完整项目模板实战
人工智能·pytorch·python·深度学习·分类
坐吃山猪12 小时前
BrowserUse12-源码-MCP模块
python·llm·playwright·browser-use
昔时扬尘处12 小时前
【Files Content Replace】文件夹文件内容批量替换自动化测试脚本
c语言·python·pytest·adi
咖啡の猫12 小时前
Python字典的查询操作
数据库·python·c#
smile_Iris13 小时前
Day 38 GPU训练及类的call方法
开发语言·python
嗷嗷哦润橘_13 小时前
AI Agent学习:MetaGPT项目之RAG
人工智能·python·学习·算法·deepseek
Smart-Space13 小时前
tkinter绘制组件(47)——导航边栏
python·tkinter·tinui
ULTRA??13 小时前
KD-Tree的查询原理
python·算法
电饭叔14 小时前
TypeError:unsupported operand type(s) for -: ‘method‘ and ‘int‘
开发语言·笔记·python
老歌老听老掉牙14 小时前
使用贝叶斯因子量化假设验证所需数据量
python·贝叶斯因子·假设