【人工智能学习-AI入试相关题目练习-第七次】

人工智能学习-AI入试相关题目练习-第七次

  • 1-前言
  • 3-问题题目训练
  • 4-练习(日语版本)解析
    • [(1)k-means 法(k=3)收敛全过程](#(1)k-means 法(k=3)收敛全过程)
      • 给定数据
      • [🔁 Step 1:第一次分配(根据初始中心)](#🔁 Step 1:第一次分配(根据初始中心))
      • [🔁 Step 2:更新代表点(取平均)](#🔁 Step 2:更新代表点(取平均))
      • [🔁 Step 3:重新分配](#🔁 Step 3:重新分配)
      • [✅ 最终结果](#✅ 最终结果)
    • [(2)一阶逻辑公式 → Skolem 标准形](#(2)一阶逻辑公式 → Skolem 标准形)
      • 原公式
      • [Step 1:去蕴含](#Step 1:去蕴含)
      • [Step 2:否定展开](#Step 2:否定展开)
      • [Step 3:Skolem 化](#Step 3:Skolem 化)
      • [✅ Skolem 标准形(简洁形式)](#✅ Skolem 标准形(简洁形式))
    • [(3-1)ナッシュ均衡 vs 支配戦略均衡](#(3-1)ナッシュ均衡 vs 支配戦略均衡)
    • [(3-2)Gaussian Mixture Model(GMM)](#(3-2)Gaussian Mixture Model(GMM))
    • [(3-3)n-gram 模型](#(3-3)n-gram 模型)
    • (3-4)三种学习方式对比
  • 5-単語练习(日语版本)
  • 5-总结

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

4-练习(日语版本)解析

(1)k-means 法(k=3)收敛全过程

给定数据

X={(0,0),(0,1),(0,2),(3,0),(6,0),(6,1),(6,2)}

初始代表点(中心):

C\^{(0)}={(0,4),(3,0),(6,4)}

距离采用 ユークリッド距離(Euclidean distance)


🔁 Step 1:第一次分配(根据初始中心)

到 (0,4) 到 (3,0) 到 (6,4) 分配
(0,0) 4 3 √52 C₂
(0,1) 3 √10 √45 C₁
(0,2) 2 √13 √40 C₁
(3,0) 5 0 5 C₂
(6,0) √52 3 4 C₂
(6,1) √45 √10 3 C₃
(6,2) √40 √13 2 C₃
得到簇
  • Cluster 1:{(0,1),(0,2)}
  • Cluster 2:{(0,0),(3,0),(6,0)}
  • Cluster 3:{(6,1),(6,2)}

🔁 Step 2:更新代表点(取平均)

  • C₁:

    \\left(\\frac{0+0}{2},\\frac{1+2}{2}\\right)=(0,1.5)

  • C₂:

    \\left(\\frac{0+3+6}{3},\\frac{0+0+0}{3}\\right)=(3,0)

  • C₃:

    \\left(\\frac{6+6}{2},\\frac{1+2}{2}\\right)=(6,1.5)


🔁 Step 3:重新分配

再次计算后,每个点的归属 不再发生变化

👉 算法收敛


✅ 最终结果

  • Cluster 1 :{(0,1),(0,2)},中心 (0,1.5)
  • Cluster 2 :{(0,0),(3,0),(6,0)},中心 (3,0)
  • Cluster 3 :{(6,1),(6,2)},中心 (6,1.5)

(2)一阶逻辑公式 → Skolem 标准形

原公式

\\forall x \\exists y \[P(x) \\rightarrow Q(x,y)\] \\land \\neg(\\forall x\[P(x) \\land \\forall z R(z)\])


Step 1:去蕴含

P(x)\\rightarrow Q(x,y) \\equiv \\neg P(x)\\lor Q(x,y)


Step 2:否定展开

\\neg(\\forall x\[P(x)\\land \\forall zR(z)\]) \\equiv \\exists x(\\neg P(x)\\lor \\exists z \\neg R(z))


Step 3:Skolem 化

  • (y) 依赖于 (x) → Skolem 函数 (f(x))
  • (\exists x) → Skolem 常数 (a)
  • (\exists z) → Skolem 常数 (b)

✅ Skolem 标准形(简洁形式)

(\\neg P(x)\\lor Q(x,f(x))) \\land (\\neg P(a)\\lor \\neg R(b))


(3-1)ナッシュ均衡 vs 支配戦略均衡

项目 ナッシュ均衡 支配戦略均衡
定义 给定对方策略,自己无法单方面改善 不论对方怎么选都是最优
稳定性 相对稳定 更强
必然存在
关系 支配戦略均衡 ⊂ ナッシュ均衡 ---

📌 考试要点

👉 支配戦略均衡一定是纳什均衡,但反之不成立


(3-2)Gaussian Mixture Model(GMM)

定义

GMM 是一种用多个高斯分布的加权和来表示数据分布的概率模型。

p(x)=\\sum_{k=1}\^K \\pi_k \\mathcal{N}(x\|\\mu_k,\\Sigma_k)

  • (\pi_k):混合权重
  • (\mu_k,\Sigma_k):均值与协方差
  • 参数通常用 EM 算法估计

📌 考试关键词

「概率模型」「软聚类」「EM算法」


(3-3)n-gram 模型

定义

n-gram 模型假设:

一个词只依赖于前 n−1 个词

例(bigram)

P(w_3\|w_1,w_2) \\approx P(w_3\|w_2)

📌 优缺点

  • ✅ 简单、可计算
  • ❌ 长距离依赖建模能力弱

(3-4)三种学习方式对比

学习方式 教师信号 示例
教師あり学習 有正确标签 图像分类
教師なし学習 无标签 k-means
強化学習 奖励信号 游戏AI

📌 一句话记忆版(本番可写)

教師あり学習は正解付きデータ,教師なし学習は構造発見,強化学習は報酬最大化を目的とする。


5-単語练习(日语版本)

k-means 法是一种无监督学习的聚类方法,

通过反复进行"数据分配"和"中心更新",

将数据划分为 k 个簇,使簇内距离最小。

无监督学习(教師なし学習)

聚类(クラスタリング)

反复(反復)

簇内距离最小(分散最小化)

5-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
冬奇Lab7 分钟前
一天一个开源项目(第39篇):PandaWiki - AI 驱动的开源知识库搭建系统
人工智能·开源·资讯
大模型真好玩41 分钟前
LangChain DeepAgents 速通指南(三)—— 让Agent告别混乱:Tool Selector与Todo List中间件解析
人工智能·langchain·trae
孟祥_成都1 小时前
【全网最通俗!新手到AI全栈开发必读】 AI 是如何进化到大模型的
前端·人工智能·全栈
牛奶2 小时前
AI辅助开发的基础概念
前端·人工智能·ai编程
东坡肘子2 小时前
OpenClaw 不错,但我好像没有那么需要 -- 肘子的 Swift 周报 #125
人工智能·swiftui·swift
风象南9 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶10 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶10 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考13 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab13 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读