如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

复制代码
pip install open-interpreter

然后,执行

复制代码
interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

相关推荐
都叫我大帅哥35 分钟前
向量数据库Milvus:非结构化数据的救星,AI开发者的瑞士军刀
java·python
冰糖猕猴桃2 小时前
【Python】进阶 - 数据结构与算法
开发语言·数据结构·python·算法·时间复杂度、空间复杂度·树、二叉树·堆、图
天水幼麟2 小时前
python学习笔记(深度学习)
笔记·python·学习
巴里巴气2 小时前
安装GPU版本的Pytorch
人工智能·pytorch·python
wt_cs2 小时前
银行回单ocr api集成解析-图像文字识别-文字识别技术
开发语言·python
_WndProc3 小时前
【Python】Flask网页
开发语言·python·flask
互联网搬砖老肖3 小时前
Python 中如何使用 Conda 管理版本和创建 Django 项目
python·django·conda
测试者家园3 小时前
基于DeepSeek和crewAI构建测试用例脚本生成器
人工智能·python·测试用例·智能体·智能化测试·crewai
大模型真好玩3 小时前
准确率飙升!Graph RAG如何利用知识图谱提升RAG答案质量(四)——微软GraphRAG代码实战
人工智能·python·mcp
前端付豪3 小时前
11、打造自己的 CLI 工具:从命令行到桌面效率神器
后端·python