豆包大模型接口调用

豆包大模型接口调用

一.环境描述

Python版本:Python 3.11.3(官方要求上大于2.7即可)

二.基础库的安装

python 复制代码
# 实现语音识别
pip install pyttsx3
# 加载env环境文件
pip install dotenv
# 环境SDK的安装
pip install volcengine-python-sdk

在SDK中安装出错

  1. 按下 Win+R ,输入 regedit 打开注册表编辑器。
  2. 设置 \HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem 路径下的变量 LongPathsEnabled 为 1 即可。

三.pycharm创建项目

创建一个.env文件,用于变量的读取

四.火山引擎

登录注册

点击网址后进行注册,实名认证后可以申请API接口

名称和API后面要使用(名称是VOLC_ACCESSKEY,API key是VOLC_SECRETKEY)

创建推理申请接入点

添加模型

官方赠送50万tokens,额度用完后就收费

复制上述的字符串后续使用(ENDPOINT_ID的内容)

五.程序编写

1.在.env文件中填写以下内容
复制代码
VOLC_ACCESSKEY= your Access Key
VOLC_SECRETKEY= your Secret Access Key
ENDPOINT_ID= your ENDPOINT_ID
2.把第四部分相应内容填写到文件中
python 复制代码
import os
import pyttsx3
from volcenginesdkarkruntime import Ark
import dotenv

# 加载环境变量
dotenv.load_dotenv(".env")

# 初始化 Ark 客户端
client = Ark()
client = Ark(api_key="your api-key", region="cn-beijing")

# 初始化 pyttsx3 引擎
engine = pyttsx3.init()

# 配置 TTS 的语速和音量(可选)
engine.setProperty('rate', 150)  # 语速
engine.setProperty('volume', 1)  # 音量

# 从环境变量中获取模型 ID
model_id = os.getenv("ENDPOINT_ID")

# 欢迎语
Welcome_Text = "您好,我是豆包,您的大模型对话助手,请问有什么可以帮到您?(输入 'exit' 退出对话)"
print(Welcome_Text)
# engine.say(Welcome_Text)
# engine.runAndWait()  # 等待语音播放完毕

# 进入多轮对话的循环
while True:
    # 从终端获取用户输入
    user_input = input("User:\r\n")

    # 检查用户是否想退出
    if user_input.lower() in ["exit", "quit"]:
        print("AI:感谢您的使用,再见!")
        break

    # 创建流式对话请求
    stream = client.chat.completions.create(
        model=model_id,
        messages=[
            {"role": "system", "content": "你是豆包,是由字节跳动开发的 AI 人工智能助手"},
            {"role": "user", "content": user_input},  # 使用终端输入的内容
        ],
        stream=True
    )

    print("AI:")
    # 初始化一个空字符串来存储所有文本
    full_text = ""

    # 逐块读取流式输出并将结果打印
    for chunk in stream:
        if not chunk.choices:
            continue
        # 获取文本内容
        text = chunk.choices[0].delta.content

        # 输出文本到控制台
        print(text, end="")

        # 将文本累积到 full_text
        full_text += text

    # # 当流式结果全部接收完成后,开始将累积的文本通过 TTS 朗读出来
    # if full_text:
    #     engine.say(full_text)
    #     engine.runAndWait()  # 等待语音播放完毕

    print("\r\n")

注意:因为模型指定北京,需要将代理指定北京,api key为下述,可以开启语音朗读,把代码中的注释取消即可

client = Ark(api_key="your api-key", region="cn-beijing")

3.运行结果

定北京,api key为下述,可以开启语音朗读,把代码中的注释取消即可

client = Ark(api_key="your api-key", region="cn-beijing")

外链图片转存中...(img-ZjA8DraG-1729483323133)

3.运行结果
相关推荐
多巴胺与内啡肽.11 小时前
深度学习--自然语言处理统计语言与神经语言模型
深度学习·语言模型·自然语言处理
Sherlock Ma12 小时前
PDFMathTranslate:基于LLM的PDF文档翻译及双语对照的工具【使用教程】
人工智能·pytorch·语言模型·pdf·大模型·机器翻译·deepseek
生信碱移17 小时前
大语言模型时代,单细胞注释也需要集思广益(mLLMCelltype)
人工智能·经验分享·深度学习·语言模型·自然语言处理·数据挖掘·数据可视化
硅谷秋水18 小时前
通过模仿学习实现机器人灵巧操作:综述(上)
人工智能·深度学习·机器学习·计算机视觉·语言模型·机器人
0x21119 小时前
[论文阅读]ReAct: Synergizing Reasoning and Acting in Language Models
人工智能·语言模型·自然语言处理
Jamence19 小时前
多模态大语言模型arxiv论文略读(三十六)
人工智能·语言模型·自然语言处理
SLY司赖1 天前
大模型应用开发之LLM入门
语言模型·chatgpt·llm
Gsen28191 天前
AI大模型从0到1记录学习 数据结构和算法 day20
数据结构·学习·算法·生成对抗网络·目标跟踪·语言模型·知识图谱
cmoaciopm1 天前
Obsidian和Ollama大语言模型的交互过程
人工智能·语言模型
Jamence1 天前
多模态大语言模型arxiv论文略读(三十九)
人工智能·语言模型·自然语言处理