技术栈
interperter
wxl781227
2 个月前
python
·
code
·
ollama
·
本地大模型
·
interperter
·
代码解释器
如何让ollama本地模型使用code-interpreter(代码解释器)?
代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。