技术栈

interperter

wxl781227
7 个月前
python·code·ollama·本地大模型·interperter·代码解释器
如何让ollama本地模型使用code-interpreter(代码解释器)?代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。