教程篇:Groq API+沉浸式翻译插件 体验最快AI翻译

1、进入https://console.groq.com/keys

申请一个API(目前免费!抓紧白嫖)

2、安装Chrome插件:沉浸式翻译。

https://immersivetranslate.com/

3、照着抄(注意将apikey,换成自己申请的groq的api-key)

并且模型处,点击输入自定义模型名称,输入:mixtral-8x7b-32768

展开自定义选项:

将API接口地址换为:https://api.groq.com/openai/v1/chat/completions

4、演示

建议设置

  • 勾选:鼠标悬停翻译」(仅是个人偏好)
  • 取消:总是翻译该网站

不过当前的一个限制是,10min内只能25个请求。

参考资料:

  1. https://console.groq.com/docs/quickstart
相关推荐
ibrahim1 天前
Llama 3.2 900亿参数视觉多模态大模型本地部署及案例展示
ai·大模型·llama·提示词
威化饼的一隅1 天前
【多模态】swift-3框架使用
人工智能·深度学习·大模型·swift·多模态
伯牙碎琴2 天前
智能体实战(需求分析助手)二、需求分析助手第一版实现(支持需求提取、整理、痛点分析、需求分类、优先级分析、需求文档生成等功能)
ai·大模型·agent·需求分析·智能体
聆思科技AI芯片2 天前
实操给桌面机器人加上超拟人音色
人工智能·机器人·大模型·aigc·多模态·智能音箱·语音交互
zaim12 天前
计算机的错误计算(一百八十七)
人工智能·ai·大模型·llm·错误·正弦/sin·误差/error
Engineer-Yao2 天前
【win10+RAGFlow+Ollama】搭建本地大模型助手(教程+源码)
docker·大模型·win10·wsl·ollama·本地大模型·ragflow
AI程序猿人3 天前
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
人工智能·pytorch·深度学习·自然语言处理·大模型·transformer·llms
zaim13 天前
计算机的错误计算(一百八十六)
人工智能·python·ai·大模型·llm·误差·decimal
西西弗Sisyphus4 天前
使用Gradio编写大模型ollama客户端 -界面版
lora·大模型·transformer·qwen2-vl
静待缘起4 天前
【大模型】大模型项目选择 RAGvs微调?
大模型