【Flask + AI】接入CHATGLM API 实现翻译接口
最近的项目中,需要加一个翻译功能,正好chatglm4发布了,于是决定着手用它实现。
准备
首先,在chatglm开发者中心申请api key,这里不再赘述
其次,选择自己的开发框架,这里以 flask 为例
提示词
要实现翻译功能,一个优良的提示词十分重要。
经过多次测试,得到了这样一个较为稳定的提示词。
python
prompt_translation = """
zh-en translation of "input".
Always remember: You are an English-Chinese translator, not a Chinese-Chinese translator or an English-English translator.
Your output should only contains Chinese or English!
You should Always just do the translate part and do not change its meaning!
example1:
input:"write me a poem",
output:"帮我写一首诗"
example2:
input:"你好世界",
output:"hello world"
Now I will give you my input:
"""
这个Prompt 实现了中英互译,注意,这两个例子非常重要,如果没有,模型可能会永远输出英文或者中文。在调用api时,把这个提示词设置为 assistant
可以减小模型把这段话认为是指令的概率。
接口代码
python
@glm_blueprint.route('/api/glmTranslation', methods=['POST'])
def translation():
user_content = request.json.get('user-content')
if not user_content:
return jsonify({'error': 'No user-content provided'}), 400
contentPrompt = prompt_translation
completion = client.chat.completions.create(
model='glm-4',
messages=[
{"role": "system", "content": contentPrompt},
{"role": "assistant", "content": user_content}
],
max_tokens=200,
temperature=0.1,
)
# 将 ChatCompletionMessage 对象转换为可序列化的格式
response_message = completion.choices[0].message.content if completion.choices[0].message else "No response"
return jsonify({"response": response_message})
- role 设置为 assistant 或 user 效果会不同
- 模型可以自己更改,glm-4目前效果最好
- 如果要节省token,可以限制max_token