在当前技术快速演进的背景下,"AI First"正逐渐成为软件开发的新范式。从自然语言生成 SQL 到智能代理自动完成日常任务,大语言模型(LLM)正在重塑我们与系统交互的方式。本文将结合一段使用 DeepSeek 大模型实现的轻量化后台管理系统的代码示例,探讨"AI First"理念如何简化传统开发流程,并对比"Mobile First"的设计哲学,展望未来人机协作的新形态。
一、传统后台管理 vs AI 驱动的后台管理
传统的后台管理系统通常依赖开发者手写 SQL 查询、构建 CRUD 接口、编写业务逻辑等。整个过程不仅繁琐,还容易出错,尤其是在处理复杂查询或跨表关联时。
而借助大语言模型的能力,我们可以将自然语言直接转化为可执行的 SQL 语句,从而大幅降低开发门槛。以下是一个使用 DeepSeek API 实现的轻量级员工信息管理系统的完整流程:
python
from openai import OpenAI
import sqlite3
# 初始化 LLM 客户端(兼容 OpenAI SDK)
client = OpenAI(
api_key='your_api_key',
base_url='https://api.deepseek.com/v1'
)
#这里导入的是openai的SDK,但是通过设置base_url,实际调用的是DeepSeek的兼容OpenAI API接口
# 连接 SQLite 数据库
conn = sqlite3.connect("test.db")
cursor = conn.cursor()
# 创建员工表
cursor.execute("""
CREATE TABLE IF NOT EXISTS employees(
id INTEGER PRIMARY KEY,
name TEXT,
department TEXT,
salary INTEGER
)
""")
# 插入示例数据
sample_data = [
(6, "黄佳", "销售", 50000),
(7, "宁宁", "工程", 75000),
(8, "谦谦", "销售", 60000),
(9, "悦悦", "工程", 80000),
(10, "黄仁勋", "市场", 55000),
(11, "曾繁花", "工程", 80000)
]
#插入sql
cursor.executemany("INSERT INTO employees VALUES (?,?,?,?)", sample_data)
conn.commit()# 确认 提交sql事务
这段代码完成了数据库初始化和基础数据填充。接下来的关键在于:如何让 LLM 理解表结构并生成正确的 SQL?
二、Schema 上下文 + 自然语言 = 可执行 SQL
为了让 LLM 准确理解数据库结构,我们需要提供 schema 信息作为上下文。通过 PRAGMA table_info 获取字段信息后,将其格式化为标准的 CREATE TABLE 语句:
ini
schema = cursor.execute("PRAGMA table_info(employees)").fetchall()
schema_str = "CREATE TABLE EMPLOYEES (\n" + "\n".join([f"{col[1]} {col[2]}" for col in schema]) + "\n)"
然后构造一个简洁明确的 Prompt,引导模型只输出纯 SQL:
ini
def ask_deepseek(query, schema):
prompt = f"""
这是一个数据库的schema:
{schema}
根据这个Schema,请输出一个SQL查询来回答以下问题。
只输出SQL查询语句本身,不要使用任何Markdown格式,
不要包含反引号、代码块标记或额外说明。
问题:{query}
"""
response = client.chat.completions.create(
model="deepseek-chat",
max_tokens=2048,
messages=[{"role": "user", "content": prompt}],
temperature=0
)
return response.choices[0].message.content
通过这种方式,我们可以用自然语言提问,例如:
ini
question = "工程部门员工的姓名和工资是多少?"
sql_query = ask_deepseek(question, schema_str)
print(sql_query) # 输出: SELECT name, salary FROM employees WHERE department = '工程';
随后直接执行该 SQL 并获取结果:
scss
results = cursor.execute(sql_query).fetchall()
print(results)
同样地,增删改操作也可以通过自然语言驱动:
ini
# 增加员工
question = "在销售部门增加一个新员工,姓名为张三,工资为45000"
sql_question = ask_deepseek(question, schema_str)
cursor.execute(sql_question)
conn.commit()
# 删除员工
question = "删除市场部门的黄仁勋"
sql_query = ask_deepseek(question, schema_str)
cursor.execute(sql_query)
conn.commit()
这种模式极大简化了后端逻辑的编写,尤其适合快速原型开发或非专业开发者使用。
三、"AI First" vs "Mobile First":两种设计哲学的融合
如果说"Mobile First"是过去十年移动互联网时代的主流设计思想------即优先为小屏设备设计体验,再适配大屏;那么"AI First"则是当前 AIGC 浪潮下的新范式。
- Mobile First 强调用户界面与交互路径的优化,核心是"适配设备";
- AI First 则强调"自然语言即接口",用户无需学习复杂的操作逻辑,只需表达意图,系统即可自动执行。
两者并非对立,而是可以融合。例如:
- 在移动端 App 中集成 LLM 能力,用户通过语音或文字指令完成操作;
- 后台管理系统采用 AI 自动生成 SQL,前端则遵循响应式设计,适配手机与 PC。
- "小程序 APP 在此基础下适配 PC 端",未来很可能是 "AI First + Mobile First"双轮驱动 的产品形态。
四、从点奶茶看 AI Agent 的未来
一个生动的例子是"点奶茶"场景:
- 传统方式:打开美团/抖音/淘宝 → 搜索奶茶 → 比价 → 选优惠券 → 下单。
- AI First 方式:对手机说:"帮我点一杯少糖热奶茶,在美团、抖音、淘宝上比价,用最便宜的那家下单。"
这背后依赖的是 AI Agent 的能力:理解意图、调用多个服务 API、执行决策、完成闭环操作。虽然目前这类全自动化代理尚未普及,但像豆包、Gemini 等智能助手已展现出初步能力。
值得注意的是,APP 不会消失,而是演变为 LLM 可调度的服务节点。未来的应用架构可能是:
用户 → LLM Agent → 多个微服务(如支付、订单、库存)→ 执行结果返回
五、开源生态助力 AI 应用落地
在国内,阿里云推出的 ModelScope(魔搭) 正在构建类似"大模型应用市场"的生态。开发者可以在其中:
- 下载开源大模型;
- 获取高质量数据集用于微调;
- 使用 Notebook 快速实验和部署。
这种低门槛的工具链,使得像本文中的"自然语言转 SQL"系统能够被更多人复现和扩展,进一步推动"AI First"理念在实际项目中的落地。
结语
"AI First"不是取代开发者,而是将重复性、模板化的编码工作交给模型,让人专注于更高价值的逻辑设计与用户体验。本文展示的轻量级后台管理系统,正是这一理念的缩影:用几行代码 + 自然语言,即可完成传统需要数十行 SQL 和接口的工作。
随着 LLM 能力的持续增强、工具链的日益成熟,我们有理由相信:未来的软件开发,将越来越"对话驱动"、"意图驱动"。而作为开发者,拥抱 AI,不是选择,而是必然。
参考提示:本文代码基于 DeepSeek API 实现,实际使用时请确保 API Key 安全,并注意生产环境中的 SQL 注入风险