课程链接:黑马程序员LangChain4j从入门到实战项目全套视频课程,涵盖LangChain4j+ollama+RAG,Java传统项目AI智能化升级_哔哩哔哩_bilibili

课程内容:

课程收获:

一、认识AI
1. AI发展史
AI,人工智能(Artificial Intelligence),使机器能够像人类一样思考、学习和解决问题的技术。
其实人工智能并不是一个新的东西,很早以前就有了,最早可以追溯到1950年的图灵测试。在图灵测试中,有两种角色,一种是被测试者,一种是测试者,其中被测试者又分为两种,一种是机器,一种是真人。测试者和被测试者通过文本进行沟通。在真实测试中,被测试者和测试者分别处在不同的房间中,这样测试者事先是无法知道被测试者是人还是机器。在沟通的过程中,测试者需要根据接收到的文本信息,判断发送该文本信息的是机器还是人。假设机器给测试者发送了一段文本,但测试者判断的答案是人,这就说明测试者无法分辨清楚机器与人。这个时候,我们就可以说机器具有了人的智能。

发展阶段:

- 符号主义:

- 连接主义:




- 神经网络:





2. AI市场分布


二、大模型使用
1. 大模型部署
|----|---------------|------------|-------------|
| | 云服务器部署 | 本地机器部署 | 他人部署 |
| 优势 | 前期成本低,维护简单 | 数据安全;长期成本低 | 无需部署 |
| 劣势 | 数据不安全,长期使用成本高 | 初期成本高,维护困难 | 数据不安全,长期成本高 |
ollama本机机器部署

Ollama是一种用于快速下载、部署、管理大模型的工具,官网地址:Ollama
①下载安装ollama

②根据自己的显存选择合适的模型 qwen3

比如我这里选了qwen3:4b
bash
ollama run qwen3:4b

如果安装模型时出现下面的问题,请安装新版本的ollama

③发送http的方式调用大模型 - Postman

云平台大模型使用 - 阿里云百炼平台
①登录阿里百炼控制台,领取免费额度

②创建API Key

③选择大模型使用:qwen-plus
https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions


2. 大模型调用
使用大模型需要传递的参数,在访问大模型时都需要在请求体中以json的形式进行传递
bash
{
"model": "qwen-plus",
"messages": [
{
"role": "system",
"content": "你是智能助手小团团"
},
{
"role": "user",
"content": "你是谁?"
},
{
"role": "assistant",
"content": "您好,有什么可以帮助您?"
}
],
"think": true
"stream": true,
"enable_search": true
}
常见参数:
- model:告诉平台,当前调用哪个模型
- messages :发送给模型的数据,模型会根据这些数据给出合适的响应
- content:消息内容
- role:消息角色(类型)
- user:用户消息
- system:系统消息
- assistant:模型响应xiao
- think :是否显示"思考过程"
- true,输出推理步骤和中间结论
- false:不输出
- stream :调用方式
- true:非阻塞调用(流式调用)
- false:阻塞式调用(所有结果生成完毕后,一次性返回),默认值
- enable_search :联网搜索,启用后,模型会将搜索结果作为参考信息
- true:开启
- false:关闭(默认)
响应数据
在与大模型交互的过程中,大模型响应的数据是json格式的数据
bash
{
"choices": [
{
"message": {
"role": "assistant",
"content": "我是通义千问,阿里巴巴..."
},
"finish_reason": "stop",
"index": 0
}
],
"object": "chat.completion",
"usage": {
"prompt_tokens": 22,
"completion_tokens": 80,
"total_tokens": 102,
},
"created": 1748068508,
"system_fingerprint": null,
"model": "qwen-plus",
"id": "chatcmpl-99f8d040-0f49-955b-943a-21c83"
}
- choices:模型生成的内容数组,可以包含一条或多条 内容
- message:本次调用模型输出的信息
- finish_reason:自然结束(stop),生成内容过长(length)
- index:当前内容在choices数组中的索引
- usage:本次对话过程中使用的token信息
- prompt_tokens:用户的输入转换成token的个数
- completion_tokens:模型生成的回复转换成token的个数
- total_tokens:用户输入和模型生成的总token个数
- created:本次会话被创建时的时间戳
- system_fingerprint:固定为null,无需关注
- model:本次会话使用的模型名称
- id:本次调用的唯一标识符
Token
在大语言模型中,Token是大模型处理文本的基本单位,可以理解为模型"看得懂"的最小文本片段。用户输入的内容都需要转换为token,才能让大模型更好的处理。
- 英文:一个token ≈ 4个字符
- 中文:一个汉字 ≈ 1 ~ 2个token