【人工智能学习-AI入试相关题目练习-第十五次】

人工智能学习-AI入试相关题目练习-第十五次

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

【模擬問題①】(既出近似:探索アルゴリズム)

問題1

探索問題において,評価値に基づいて探索順序を決定する手法を (a) 探索という。

この探索では,探索候補を保持する (b) と,すでに展開済みのノードを保持する © を用いる。

初期状態は (b) に追加され,© は (d) に初期化される。

各反復では,(b) から評価値が最も (e) ノードを取り出し,© に追加する。

ノードの評価値は,一般に実コスト (f) と

ヒューリスティック関数 (g) に基づいて定義され,

探索候補は評価値 (h) の (i) 順に並べ替えられる。

(a)~(i) に入る最も適切な語句を記せ。


【模擬問題②】(既出近似:教師あり学習・最適化)

問題2

教師あり学習では,入力データとそれに対応する (a) の組を用いて学習を行う。

モデルの学習は,出力と正解との差を表す (b) を最小化する問題として定式化される。

この最適化においては,誤差関数の © を計算し,

更新量を制御する (d) を用いてパラメータを更新する。

しかし,誤差関数が非凸である場合,学習は (e) に収束する可能性がある。

この問題を抑制するため,(f) を導入する手法や,

学習途中で更新を停止する (g) が用いられる。

(a)~(g) に入る語句を記せ。


【予測問題①】(新傾向:強化学習・方策の性質)

問題3

強化学習において,エージェントは状態に応じて行動を選択するための

方策 (a) を用いて行動を決定する。

常に最も価値の高い行動を選択する方策を (b) 法といい,

探索を全く行わないという特徴を持つ。

一方,確率 © でランダムに行動を選択し,

確率 (d) で (b) 法に基づく行動選択を行う手法を (e) 法という。

さらに,行動価値に基づいて確率分布を構成し,

確率的に行動を選択する手法では,(f) 分布が用いられる。

この分布は,行動価値の差を (g) に反映する特徴を持つ。

(a)~(g) に入る最も適切な語句を記せ。


【予測問題②】(新傾向:確率的推論・フィルタリング)

問題4

実世界における状態推定問題では,観測情報に (a) が含まれるため,

現在の状態を一意に決定できない場合が多い。

このような場合,状態を単一の値ではなく (b) として表現し,

観測が得られるたびにその分布を更新する手法が用いられる。

この更新は,© ステップと (d) ステップから構成され,

前者では (e) に基づいて状態分布を推定する。

後者では観測モデルを用いて (f) を計算し,

分布の総和が 1 となるように (g) を行う。

(a)~(g) に入る語句を記せ。


🔎 出题意图(你自己把握用)

  • 模擬①②

    → 探索アルゴリズム / 勾配最適化

    → 立命馆"反复出现的安全区"

  • 予測③④

    → 方策の性質(exploration vs exploitation)

    → 確率的状態推定(フィルタ構造理解)


4-练习(日语版本)解析

【最良優先探索】

  • (a) オープンリスト
  • (b) オープンリスト
  • © クローズドリスト
  • (d) 目標状態
  • (e) 小さい

【Q学習:方策】

  • (f) ε
  • (g) 1−ε
  • (h) ボルツマン

【粒子フィルタ】

  • (i) 近似
  • (j) 確率

【ベイズフィルタ】

  • (i) a_{t-1}
  • (j) 正規化

✅ 一覧(答案だけまとめ)

复制代码
(a) オープンリスト
(b) オープンリスト
(c) クローズドリスト
(d) 目標状態
(e) 小さい
(f) ε
(g) 1−ε
(h) ボルツマン
(i) 近似
(j) 確率
(i) a_{t-1}
(j) 正規化

【模擬問題①】問題1(探索アルゴリズム)

(a) 最良優先

なぜ?

题干写的是「評価値に基づいて探索順序を決定 」,

这是 最良優先探索(Best-first search) 的定义用语。

如果是幅優先或深さ優先,就不会提评价值。


(b) オープンリスト

なぜ?

「探索候補を保持する」列表在搜索算法中固定称呼 就是

オープンリスト(未展开节点集合)。


© クローズドリスト

なぜ?

「すでに展開済みのノード」

→ 已处理过、不再展开

→ 标准术语只能是 クローズドリスト。


(d)

なぜ?

初始时尚未展开任何节点,

所以「クローズドリストは空に初期化」是固定句型


(e) 小さい

なぜ?

最良優先探索的基本规则是

評価値が最も小さいノードを優先

写「大きい」会直接变成错误算法。


(f) g(s)

なぜ?

题干中明确写「実コスト

在搜索算法中,实际累计代价的标准记号是 g(s)。


(g) h(s)

なぜ?

「ヒューリスティック関数」在 AI 课程中
统一用 h(s) 表示,不可换成别的符号。


(h) f(s)

なぜ?

后文说「評価値」,

在最良优先 / A* 系算法中,

评价值统一写作 f(s)


(i) 昇順

なぜ?

评价值越小越优先,

所以列表排序方式只能是

小さい順 = 昇順」。


【模擬問題②】問題2(教師あり学習)

(a) 正解ラベル

なぜ?

教师学习的定义就是

入力データ+正解

"正解"在日文标准术语中就是 正解ラベル。


(b) 損失関数

なぜ?

题干说「出力と正解との差」

这是损失函数的教科书定义


© 勾配

なぜ?

参数更新方向由

(\partial L / \partial \theta) 决定,

这在日文中只能叫 勾配。


(d) 学習率

なぜ?

「更新量を制御する」

→ 控制一步走多远

→ 学習率 的定义。


(e) 局所最小値

なぜ?

非凸函数 → 可能停在"不是全局最优"的点,

标准表述只能是 局所最小値。


(f) 正則化

なぜ?

抑制模型复杂度、避免过拟合

→ 教科书中唯一标准术语是 正則化。


(g) 早期終了

なぜ?

"学習途中で停止"

→ 这在日文中固定叫 早期終了(Early Stopping)。


【予測問題①】問題3(強化学習・方策)

(a) 方策

なぜ?

状态 → 行动的规则

→ 在强化学习中唯一术语是 方策(policy)。


(b) グリーディ

なぜ?

"常に最も価値の高い行動"

这是 greedy policy 的定义句


© ε

なぜ?

ε-greedy 中

"随机的概率"固定用 ε 表示。


(d) 1−ε

なぜ?

随机 ε + 贪婪 1−ε

这是必成对出现的概率。


(e) ε-グリーディ

なぜ?

题干完整描述了 ε-greedy 的行为规则,

名称只能填 ε-グリーディ。


(f) ボルツマン

なぜ?

"根据价值构成概率分布"

→ 指的是 Boltzmann exploration。


(g) 確率的

なぜ?

Boltzmann 的核心特征是

"价值差 平滑地反映到概率 ",

不是确定性选择。


【予測問題②】問題4(確率的推論)

(a) ノイズ

なぜ?

观测不可靠 → 原因是噪声

→ 标准术语 ノイズ。


(b) 確率分布

なぜ?

"不是单一值,而是整体可能性"

→ 只能用 確率分布。


© 予測

なぜ?

利用前一状态 + 行动

→ Bayes filter 中第一步固定叫 予測。


(d) 観測更新

なぜ?

用观测修正预测

→ 第二步固定叫 観測更新。


(e) 状態遷移モデル

なぜ?

预测阶段"基づく模型"

→ 状态怎么变 → 状態遷移モデル。


(f) 尤度

なぜ?

观测模型计算的是

"在该状态下看到该观测的可能性"

→ 尤度。


(g) 正規化

なぜ?

概率之和必须为 1

→ 必须进行 正規化。


5-练习(日语版本)

6-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
新缸中之脑3 小时前
在OpenClaw中构建专业AI角色
大数据·人工智能
薛定谔的猫19823 小时前
十五、基于 GPT2 中文模型实现歌词自动续写
人工智能·深度学习·gpt2·大模型 训练 调优
晚霞的不甘3 小时前
Flutter for OpenHarmony全面升级「今日运势」 应用的视觉与交互革新
前端·学习·flutter·前端框架·交互
卢锡荣3 小时前
Type-c小家电性价比方案讲解LDR系列
网络·人工智能·计算机外设·电脑
EverydayJoy^v^3 小时前
RH134学习进程——十一.管理网络安全
学习·安全·web安全
ws2019073 小时前
从“面子”到“里子”的变革——AUTO TECH China 2026 广州展,引领汽车内外饰新纪元
人工智能·科技·汽车
Gain_chance3 小时前
27-学习笔记尚硅谷数仓搭建-数据仓库DWD层介绍及其事务表(行为)相关概念
大数据·数据仓库·笔记·学习
大江东去浪淘尽千古风流人物4 小时前
【LingBot-Depth】Masked Depth Modeling for Spatial Perception
人工智能·算法·机器学习·概率论
RFCEO4 小时前
学习前端编程:精准选中 HTML 元素的技巧与方法
前端·学习·css类选择器·兄弟元素选中·父子选中·关系选中·选择器选中