LangChain4j从入门到实战(一)

课程链接:黑马程序员LangChain4j从入门到实战项目全套视频课程,涵盖LangChain4j+ollama+RAG,Java传统项目AI智能化升级_哔哩哔哩_bilibili

课程内容:

课程收获:

一、认识AI

1. AI发展史

AI,人工智能(Artificial Intelligence),使机器能够像人类一样思考、学习和解决问题的技术。

其实人工智能并不是一个新的东西,很早以前就有了,最早可以追溯到1950年的图灵测试。在图灵测试中,有两种角色,一种是被测试者,一种是测试者,其中被测试者又分为两种,一种是机器,一种是真人。测试者和被测试者通过文本进行沟通。在真实测试中,被测试者和测试者分别处在不同的房间中,这样测试者事先是无法知道被测试者是人还是机器。在沟通的过程中,测试者需要根据接收到的文本信息,判断发送该文本信息的是机器还是人。假设机器给测试者发送了一段文本,但测试者判断的答案是人,这就说明测试者无法分辨清楚机器与人。这个时候,我们就可以说机器具有了人的智能。

发展阶段

  • 符号主义
  • 连接主义
  • 神经网络

2. AI市场分布

二、大模型使用

1. 大模型部署

|----|---------------|------------|-------------|
| | 云服务器部署 | 本地机器部署 | 他人部署 |
| 优势 | 前期成本低,维护简单 | 数据安全;长期成本低 | 无需部署 |
| 劣势 | 数据不安全,长期使用成本高 | 初期成本高,维护困难 | 数据不安全,长期成本高 |

ollama本机机器部署

Ollama是一种用于快速下载、部署、管理大模型的工具,官网地址:Ollama

①下载安装ollama

②根据自己的显存选择合适的模型 qwen3

比如我这里选了qwen3:4b

bash 复制代码
ollama run qwen3:4b

如果安装模型时出现下面的问题,请安装新版本的ollama

③发送http的方式调用大模型 - Postman

云平台大模型使用 - 阿里云百炼平台

①登录阿里百炼控制台,领取免费额度

②创建API Key

③选择大模型使用:qwen-plus

https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions

2. 大模型调用

使用大模型需要传递的参数,在访问大模型时都需要在请求体中以json的形式进行传递

bash 复制代码
{
    "model": "qwen-plus",
    "messages": [
        {
            "role": "system",
            "content": "你是智能助手小团团"
        },
        {
            "role": "user", 
            "content": "你是谁?"
        },
        {
            "role": "assistant",
            "content": "您好,有什么可以帮助您?"
        }
    ],
    "think": true
    "stream": true, 
    "enable_search": true
}

常见参数:

  • model:告诉平台,当前调用哪个模型
  • messages :发送给模型的数据,模型会根据这些数据给出合适的响应
    • content:消息内容
    • role:消息角色(类型)
      • user:用户消息
      • system:系统消息
      • assistant:模型响应xiao
  • think :是否显示"思考过程"
    • true,输出推理步骤和中间结论
    • false:不输出
  • stream :调用方式
    • true:非阻塞调用(流式调用)
    • false:阻塞式调用(所有结果生成完毕后,一次性返回),默认值
  • enable_search :联网搜索,启用后,模型会将搜索结果作为参考信息
    • true:开启
    • false:关闭(默认)

响应数据

在与大模型交互的过程中,大模型响应的数据是json格式的数据

bash 复制代码
{
    "choices": [
        {
            "message": {
                "role": "assistant",
                "content": "我是通义千问,阿里巴巴..."
            },
            "finish_reason": "stop",
            "index": 0
        }
    ],
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 22,
        "completion_tokens": 80,
        "total_tokens": 102, 
    },
    "created": 1748068508,
    "system_fingerprint": null,
    "model": "qwen-plus",
    "id": "chatcmpl-99f8d040-0f49-955b-943a-21c83"
}
  • choices:模型生成的内容数组,可以包含一条或多条 内容
    • message:本次调用模型输出的信息
    • finish_reason:自然结束(stop),生成内容过长(length)
    • index:当前内容在choices数组中的索引
  • usage:本次对话过程中使用的token信息
    • prompt_tokens:用户的输入转换成token的个数
    • completion_tokens:模型生成的回复转换成token的个数
    • total_tokens:用户输入和模型生成的总token个数
  • created:本次会话被创建时的时间戳
  • system_fingerprint:固定为null,无需关注
  • model:本次会话使用的模型名称
  • id:本次调用的唯一标识符

Token

在大语言模型中,Token是大模型处理文本的基本单位,可以理解为模型"看得懂"的最小文本片段。用户输入的内容都需要转换为token,才能让大模型更好的处理。

  • 英文:一个token ≈ 4个字符
  • 中文:一个汉字 ≈ 1 ~ 2个token
相关推荐
EasyDSS1 分钟前
智能会议管理系统/私有化视频会议平台EasyDSS私有化部署构建企业级私域视频全场景解决方案
人工智能·音视频
zhanghongbin0112 分钟前
成本追踪:AI API 成本计算与预算管理
人工智能
YBAdvanceFu16 分钟前
从零构建智能体:深入理解 ReAct Plan Solve Reflection 三大经典范式
人工智能·python·机器学习·数据挖掘·多智能体·智能体
啦啦啦在冲冲冲23 分钟前
多头注意力机制的优势是啥,遇到长文本的情况,可以从哪些情况优化呢
人工智能·深度学习
xrgs_shz25 分钟前
直方图法、最大类间方差法、迭代法和自适应阈值法的图像分割的基本原理和MATLAB实现
人工智能·计算机视觉·matlab
向上的车轮30 分钟前
如何定制大模型——工业场景下大模型定制与私有化部署选型
人工智能
让学习成为一种生活方式1 小时前
海洋类胡萝卜素生物合成的乙酰转移酶--文献精读217
人工智能
QQ676580081 小时前
服装计算机视觉数据集 连衣裙数据集 衣服类别识别 毛衣数据集 夹克衫AI识别 衬衫识别 裤子 数据集 yolo格式数据集
人工智能·yolo·计算机视觉·连衣裙·衣服类别·毛衣数据集·夹克衫ai
冰糖葫芦三剑客1 小时前
人工智能生成合成内容文件元数据隐式标识说明函要怎么填写
人工智能
CV-杨帆1 小时前
ICLR 2026 LLM安全相关论文整理
人工智能·深度学习·安全