如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

pip install open-interpreter

然后,执行

interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

相关推荐
网络安全(king)6 分钟前
【Python】【持续项目】Python-安全项目搜集
开发语言·python·安全
工业甲酰苯胺7 分钟前
Python脚本消费多个Kafka topic
开发语言·python·kafka
做程序员的第一天37 分钟前
在PyTorch中,钩子(hook)是什么?在神经网络中扮演什么角色?
pytorch·python·深度学习
yyywxk1 小时前
VSCode 新建 Python 包/模块 Pylance 无法解析
ide·vscode·python
Nerinic1 小时前
PyTorch基础2
pytorch·python
搏博1 小时前
Python3.9.13与深度学习框架TensorFlow的完整详细安装教程
python·tensorflow
胜天半月子2 小时前
Python | 结合动态加载importlib模块来理解inspect模块的使用
python·importlib·inspect
Jurio.2 小时前
Conda 管理项目环境
人工智能·python·深度学习·conda·virtualenv·pip
B站计算机毕业设计超人2 小时前
计算机毕业设计SparkStreaming+Kafka新能源汽车推荐系统 汽车数据分析可视化大屏 新能源汽车推荐系统 汽车爬虫 汽车大数据 机器学习
数据仓库·爬虫·python·数据分析·kafka·数据可视化·推荐算法
Joyner20182 小时前
pytorch训练的双卡,一个显卡占有20GB,另一个卡占有8GB,怎么均衡?
人工智能·pytorch·python