Python使用Flask结合DeepSeek开发

一、背景

我之前关于DeepSeek使用ollama部署的文章大家可以把DeepSeek大模型部署起来。那么ollama还提供了可以调用对应部署模型的API接口。我们可以基于这些接口,做自己的二次开发。使用python+flask+ollama就可以进行模型对话调用。并且前端采用SSE的技术,后端向前端推送推理结果进行展示,可以实现属于自己的大模型对话产品。

二、代码实现

1、ollama运行deepseek-r1:1.5b模型

bash 复制代码
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

docker exec -it ollama ollama run deepseek-r1:1.5b

2、python+flask代码

python 复制代码
import json

from flask import Flask, request, Response
from ollama import Client

app = Flask(__name__)

# ollama客户端
ollma_url = "http://localhost:11434"   # localhost可以换成你部署ollama主机的ip、远程ip
ollama_client = Client(host=ollma_url )
# 模型名称
model_name = "deepseek-r1:1.5b"


@app.route('/stream', methods=['POST', 'GET'])
def post_example():
    def generate():
        try:
            # 调用ollama客户端,传入模型名称、提问信息
            response_generator = ollama_client.generate(model_name, prompt=question, stream=True)
            for part in response_generator:
                response_text = part.response
                # 按照 SSE 规范格式化数据
                data = f"data: {json.dumps({'response': response_text})}\n\n"
                print(data)
                yield data
        except Exception as e:
            error_data = f"data: {json.dumps({'error': str(e)})}\n\n"
            yield error_data
    # 接收问题, 调用模型, 使用SSE推送推理结果给前端
    question = request.args.get('question')
    resp = Response(generate(), mimetype='text/event-stream')
    # 设置响应头
    resp.headers['Cache-Control'] = 'no-cache'
    resp.headers['Connection'] = 'keep-alive'
    resp.headers['Access-Control-Allow-Origin'] = '*'

    return resp


if __name__ == '__main__':
    app.run(debug=True, port=8080)

3、前端代码

html 复制代码
<!DOCTYPE html>
<html lang="en">

<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Ask Ollama via SSE</title>
</head>

<body>
    <input type="text" id="questionInput" placeholder="请输入你的问题">
    <button id="askButton">提问</button>
    <pre id="answerContainer"></p>

    <script>
        const questionInput = document.getElementById('questionInput');
        const askButton = document.getElementById('askButton');
        const answerContainer = document.getElementById('answerContainer');

        askButton.addEventListener('click', async () => {
            const question = questionInput.value;
            if (!question) {
                alert('请输入问题');
                return;
            }

            const eventSource = new EventSource(`http://localhost:8080/stream?question=${encodeURIComponent(question)}`);

            eventSource.onmessage = function (event) {
                const data = JSON.parse(event.data);
                const response = data.response;
                if (response) {
                    const p = document.createElement('span');
                    p.textContent = response;
                    answerContainer.appendChild(p);
                }
            };

            eventSource.onerror = function (error) {
                console.error('EventSource failed:', error);
                eventSource.close();
            };
        });
    </script>
</body>

</html>

4、运行结果

页面虽然不是很美观,但是一个基本原理的demo已经搞定。剩下的就是优化界面、优化链接异常等相关逻辑。

5、SSE默认不支持POST请求

SSE默认不支持POST请求,可以找前端的一些npm包有人进行了封装,可以发送POST请求。以上的实例为了方便采用了GET请求

三、总结

有了ollama就行docker服务一样,提供了API接口,部署的模型就是类似docker已经运行的容器。 通过ollama接口,可以调用运行的模型的各种能力!

相关推荐
爱宇阳14 分钟前
如何将本地 Jar 包安装到 Maven 仓库(以 Aspose 为例)
python·maven·jar
数据系的公考小白14 分钟前
2025五一杯数学建模C题代码分享
python·数学建模·pandas·五一杯
啊阿狸不会拉杆21 分钟前
人工智能数学基础(十)—— 图论
人工智能·python·数学·算法·图论
AlexandrMisko27 分钟前
从零实现基于Transformer的英译汉任务
人工智能·pytorch·python·深度学习·transformer
进来有惊喜30 分钟前
主成分分析(PCA)与逻辑回归在鸢尾花数据集上的实践与效果对比
python
鬼义II虎神34 分钟前
Django缓存框架API
python·缓存·django
执键行天涯35 分钟前
Apache Velocity代码生成简要介绍
开发语言·python·apache
患得患失94940 分钟前
【python】【UV】一篇文章学完新一代 Python 环境与包管理器使用指南
开发语言·python·uv
一个天蝎座 白勺 程序猿1 小时前
Python爬虫(19)Python爬虫破局动态页面:逆向工程与无头浏览器全链路解析(从原理到企业级实战)
开发语言·爬虫·python·websocket·ajax
小威编程1 小时前
RabbitMQ 添加新用户和配置权限
开发语言·后端·rabbitmq·ruby