1. 在插件中点击Options
按钮

2. 在开发者模式中启动Enable Beta Testing Features

3 在General
中进行设置
## 4. 在
Expand
中设置API
的URL
5. Qwen:0.5B
网页翻译效果

6. Qwen:0.5B
PDF翻译效果

7. 参考文献
- gemma - 给沉浸式翻译插件配置本地大模型ollama服务 - 前端黑科技 - SegmentFault 思否
- 基于Ollama部署本地私有大模型--以通义千问Qwen+沉浸式翻译immersivetranslate为例 - 知乎
- n4ze3m/page-assist: Use your locally running AI models to assist you in your web browsing
- Ollama:本地大模型运行指南_如何配置本地运行大模型-CSDN博客
- ollama/docs/faq.md at main · ollama/ollama
- Setting OLLAMA_ORIGINS · Issue #2335 · ollama/ollama

bash
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"