如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

pip install open-interpreter

然后,执行

interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

相关推荐
计算机编程-吉哥13 分钟前
计算机毕业设计 基于Hadoop的智慧校园数据共享平台的设计与实现 Python 数据分析 可视化大屏 附源码 文档
大数据·hadoop·python·数据分析·毕业设计·毕业论文·计算机毕业设计选题
算是难了1 小时前
Python基础
开发语言·python
凡人的AI工具箱1 小时前
15分钟学 Python 第29天 : 数据库基础
开发语言·数据库·人工智能·后端·python
西农小陈2 小时前
python-金币/打分/小理学数列3
数据结构·python·算法
luthane2 小时前
python 实现random forest classifier随机森林分类器算法
python·算法·随机森林
计算机学姐3 小时前
基于大数据的高校新生数据可视化分析系统
大数据·vue.js·python·mysql·信息可视化·django·pip
_.Switch6 小时前
边缘计算与 Python Web 应用:从理论到实践
开发语言·前端·人工智能·python·架构·log4j·边缘计算
凯子坚持 c6 小时前
【机器学习】---元强化学习
人工智能·python·机器学习
Yasen.M6 小时前
manim中实现文字换行和设置字体格式
开发语言·python·机器学习·动画·pip·pyvista