如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

复制代码
pip install open-interpreter

然后,执行

复制代码
interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。

相关推荐
人工智能AI技术9 分钟前
【Agent从入门到实践】42实战:用Docker打包Agent,实现一键部署
人工智能·python
开发者小天36 分钟前
python中的class类
开发语言·python
idwangzhen1 小时前
GEO优化系统哪家更专业
python·信息可视化
diediedei1 小时前
机器学习模型部署:将模型转化为Web API
jvm·数据库·python
m0_561359671 小时前
使用Python自动收发邮件
jvm·数据库·python
naruto_lnq1 小时前
用Python批量处理Excel和CSV文件
jvm·数据库·python
b2077212 小时前
Flutter for OpenHarmony 身体健康状况记录App实战 - 提醒设置实现
python·flutter·macos·cocoa·harmonyos
2301_822365032 小时前
数据分析与科学计算
jvm·数据库·python
河北小博博2 小时前
分布式系统稳定性基石:熔断与限流的深度解析(附Python实战)
java·开发语言·python
黄连升2 小时前
Python学习第二天,系统学习基础
python·学习