【人工智能学习-AI入试相关题目练习-第七次】

人工智能学习-AI入试相关题目练习-第七次

  • 1-前言
  • 3-问题题目训练
  • 4-练习(日语版本)解析
    • [(1)k-means 法(k=3)收敛全过程](#(1)k-means 法(k=3)收敛全过程)
      • 给定数据
      • [🔁 Step 1:第一次分配(根据初始中心)](#🔁 Step 1:第一次分配(根据初始中心))
      • [🔁 Step 2:更新代表点(取平均)](#🔁 Step 2:更新代表点(取平均))
      • [🔁 Step 3:重新分配](#🔁 Step 3:重新分配)
      • [✅ 最终结果](#✅ 最终结果)
    • [(2)一阶逻辑公式 → Skolem 标准形](#(2)一阶逻辑公式 → Skolem 标准形)
      • 原公式
      • [Step 1:去蕴含](#Step 1:去蕴含)
      • [Step 2:否定展开](#Step 2:否定展开)
      • [Step 3:Skolem 化](#Step 3:Skolem 化)
      • [✅ Skolem 标准形(简洁形式)](#✅ Skolem 标准形(简洁形式))
    • [(3-1)ナッシュ均衡 vs 支配戦略均衡](#(3-1)ナッシュ均衡 vs 支配戦略均衡)
    • [(3-2)Gaussian Mixture Model(GMM)](#(3-2)Gaussian Mixture Model(GMM))
    • [(3-3)n-gram 模型](#(3-3)n-gram 模型)
    • (3-4)三种学习方式对比
  • 5-単語练习(日语版本)
  • 5-总结

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

4-练习(日语版本)解析

(1)k-means 法(k=3)收敛全过程

给定数据

X={(0,0),(0,1),(0,2),(3,0),(6,0),(6,1),(6,2)}

初始代表点(中心):

C\^{(0)}={(0,4),(3,0),(6,4)}

距离采用 ユークリッド距離(Euclidean distance)


🔁 Step 1:第一次分配(根据初始中心)

到 (0,4) 到 (3,0) 到 (6,4) 分配
(0,0) 4 3 √52 C₂
(0,1) 3 √10 √45 C₁
(0,2) 2 √13 √40 C₁
(3,0) 5 0 5 C₂
(6,0) √52 3 4 C₂
(6,1) √45 √10 3 C₃
(6,2) √40 √13 2 C₃
得到簇
  • Cluster 1:{(0,1),(0,2)}
  • Cluster 2:{(0,0),(3,0),(6,0)}
  • Cluster 3:{(6,1),(6,2)}

🔁 Step 2:更新代表点(取平均)

  • C₁:

    \\left(\\frac{0+0}{2},\\frac{1+2}{2}\\right)=(0,1.5)

  • C₂:

    \\left(\\frac{0+3+6}{3},\\frac{0+0+0}{3}\\right)=(3,0)

  • C₃:

    \\left(\\frac{6+6}{2},\\frac{1+2}{2}\\right)=(6,1.5)


🔁 Step 3:重新分配

再次计算后,每个点的归属 不再发生变化

👉 算法收敛


✅ 最终结果

  • Cluster 1 :{(0,1),(0,2)},中心 (0,1.5)
  • Cluster 2 :{(0,0),(3,0),(6,0)},中心 (3,0)
  • Cluster 3 :{(6,1),(6,2)},中心 (6,1.5)

(2)一阶逻辑公式 → Skolem 标准形

原公式

\\forall x \\exists y \[P(x) \\rightarrow Q(x,y)\] \\land \\neg(\\forall x\[P(x) \\land \\forall z R(z)\])


Step 1:去蕴含

P(x)\\rightarrow Q(x,y) \\equiv \\neg P(x)\\lor Q(x,y)


Step 2:否定展开

\\neg(\\forall x\[P(x)\\land \\forall zR(z)\]) \\equiv \\exists x(\\neg P(x)\\lor \\exists z \\neg R(z))


Step 3:Skolem 化

  • (y) 依赖于 (x) → Skolem 函数 (f(x))
  • (\exists x) → Skolem 常数 (a)
  • (\exists z) → Skolem 常数 (b)

✅ Skolem 标准形(简洁形式)

(\\neg P(x)\\lor Q(x,f(x))) \\land (\\neg P(a)\\lor \\neg R(b))


(3-1)ナッシュ均衡 vs 支配戦略均衡

项目 ナッシュ均衡 支配戦略均衡
定义 给定对方策略,自己无法单方面改善 不论对方怎么选都是最优
稳定性 相对稳定 更强
必然存在
关系 支配戦略均衡 ⊂ ナッシュ均衡 ---

📌 考试要点

👉 支配戦略均衡一定是纳什均衡,但反之不成立


(3-2)Gaussian Mixture Model(GMM)

定义

GMM 是一种用多个高斯分布的加权和来表示数据分布的概率模型。

p(x)=\\sum_{k=1}\^K \\pi_k \\mathcal{N}(x\|\\mu_k,\\Sigma_k)

  • (\pi_k):混合权重
  • (\mu_k,\Sigma_k):均值与协方差
  • 参数通常用 EM 算法估计

📌 考试关键词

「概率模型」「软聚类」「EM算法」


(3-3)n-gram 模型

定义

n-gram 模型假设:

一个词只依赖于前 n−1 个词

例(bigram)

P(w_3\|w_1,w_2) \\approx P(w_3\|w_2)

📌 优缺点

  • ✅ 简单、可计算
  • ❌ 长距离依赖建模能力弱

(3-4)三种学习方式对比

学习方式 教师信号 示例
教師あり学習 有正确标签 图像分类
教師なし学習 无标签 k-means
強化学習 奖励信号 游戏AI

📌 一句话记忆版(本番可写)

教師あり学習は正解付きデータ,教師なし学習は構造発見,強化学習は報酬最大化を目的とする。


5-単語练习(日语版本)

k-means 法是一种无监督学习的聚类方法,

通过反复进行"数据分配"和"中心更新",

将数据划分为 k 个簇,使簇内距离最小。

无监督学习(教師なし学習)

聚类(クラスタリング)

反复(反復)

簇内距离最小(分散最小化)

5-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
Mao.O4 小时前
开源项目“AI思维圆桌”的介绍和对于当前AI编程的思考
人工智能
jake don4 小时前
AI 深度学习路线
人工智能·深度学习
jacGJ5 小时前
记录学习--文件读写
java·前端·学习
信创天地5 小时前
信创场景软件兼容性测试实战:适配国产软硬件生态,破解运行故障难题
人工智能·开源·dubbo·运维开发·risc-v
幻云20105 小时前
Python深度学习:从筑基到登仙
前端·javascript·vue.js·人工智能·python
枷锁—sha5 小时前
【PortSwigger Academy】SQL 注入绕过登录 (Login Bypass)
数据库·sql·学习·安全·网络安全
无风听海5 小时前
CBOW 模型中的输出层
人工智能·机器学习
汇智信科5 小时前
智慧矿山和工业大数据解决方案“智能设备管理系统”
大数据·人工智能·工业大数据·智能矿山·汇智信科·智能设备管理系统
静听松涛1335 小时前
跨语言低资源场景下的零样本迁移
人工智能