工智能学习-AI入试相关题目练习-第十次

人工智能学习-AI入试相关题目练习-第十次

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

【模擬問題①】(基礎・頻出)

問題1(最適探索・挖空)

以下の文章を読み、空欄 (a) ~ (f) に適切な語句を記入せよ。


最適優先探索は、ヒューリスティック関数としての (a) を用いて探索を進める手法である。

探索では、候補ノードを保持する (b) と、すでに展開済みのノードを保持する © を用いる。

アルゴリズムでは、(b) から評価値が最も (d) ノードを取り出し、© に追加する。

各ノードの評価値は、実コスト g(s) と (e) に基づいて計算され、一般に

f(s) = g(s) + (f)

として定義される。



【模擬問題②】(基礎・定番)

問題2(Q学習・挖空)

以下の文章を読み、空欄 (a) ~ (g) に適切な語句を記入せよ。


Q学習では、状態 s において行動 a を選択したときの価値を表す (a) を学習する。

この値は、即時報酬 r と (b) における最大の Q 値を用いて更新される。

Q 値の更新式では、学習率を ©、割引率を (d) とし、

将来報酬の影響を (e) で調整する。

また、探索と活用のバランスをとるため、確率 (f) でランダム行動を選択し、

確率 (g) で greedy 行動を選択する手法が用いられる。



【予測問題①】(やや難・論理構造)

問題3(ベイズフィルタ・挖空)

以下の文章を読み、空欄 (a) ~ (h) に適切な語句を記入せよ。


ベイズフィルタは、時刻 t における状態 (a) を、

過去の観測 (b) と行動 © に基づいて推定する確率的手法である。

予測ステップでは、遷移モデル (d) を用いて状態分布を更新し、

観測更新では、観測モデル (e) に基づいて尤度を計算する。

正規化後の状態分布は (f) と呼ばれ、

全状態に対する確率の (g) が 1 となるように (h) が行われる。



【予測問題②】

問題4(教師あり・教師なし・強化学習・挖空)

以下の文章を読み、空欄 (a) ~ (i) に適切な語句を記入せよ。


教師あり学習では、入力データとそれに対応する (a) が与えられ、

誤差関数を最小化するようにモデルの (b) を更新する。

一方、教師なし学習では、(a) が与えられず、

データの © や (d) を抽出することを目的とする。

強化学習では、エージェントが環境と (e) を繰り返し、

報酬 (f) を最大化する方策 (g) を学習する。

このとき、状態遷移は (h) としてモデル化され、

最適方策は (i) に基づいて定義される。


4-练习(日语版本)解析

問題1:

a:h(s)

b:g(s)

c:f(s)

b:連接のノード

d:コストが小さい

e:h(s)

f:h(s)

問題2:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

問題3:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

g:

h:

【模擬問題①】問題1(最適優先探索)

アンサー:

  • (a) ヒューリスティック関数
  • (b) オープンリスト
  • © クローズドリスト
  • (d) 小さい
  • (e) ヒューリスティック関数
  • (f) h(s)

👉 关键点:

  • f(s) = g(s) + h(s)

【模擬問題②】問題2(Q学習)

アンサー:

  • (a) Q値
  • (b) 次状態
  • © 学習率
  • (d) 割引率
  • (e) 割引率
  • (f) ε
  • (g) 1−ε

👉 ε-greedy 是必背组合


【予測問題①】問題3(ベイズフィルタ)

アンサー:

  • (a) 状態
  • (b) 観測
  • © 行動
  • (d) 状態遷移モデル
  • (e) 観測モデル
  • (f) 事後確率
  • (g)
  • (h) 正規化

👉 (f)「事後確率」是预测题最容易漏的点


【予測問題②】問題4(学習手法の比較)

アンサー:

  • (a) 正解ラベル
  • (b) パラメータ
  • © 構造
  • (d) 特徴
  • (e) 相互作用
  • (f) 報酬
  • (g) 方策
  • (h) 確率モデル
  • (i) 価値関数

✅ 最终速查版(考试前 1 分钟用)

复制代码
ヒューリスティック関数 / オープン / クローズ / 小さい
Q値 / 学習率 / 割引率 / ε-greedy
状態 / 観測 / 行動 / 正規化
正解ラベル / パラメータ / 方策 / 価値関数

5-単語练习(日语版本)

ヒューリスティック関数((heuristic function)):用于"估计离目标还有多远"的函数。还没走、但估计要花的代价:h(s) ← 这就是ヒューリスティック関数

アルゴリズム(algorithm):解决问题的"步骤流程"アルゴリズム = 计算机解决问题的规则和步骤

ランダム行動:不看好坏,随机选一个动作去做 选当前看起来 最好的动作(Q 值最大的)

ベイズフィルタ(Bayes Filter):用"过去怎么动 + 现在看到了什么",来推测"现在处于什么状态"的概率方法 把"我刚才怎么走的"和"我现在看到了什么"结合起来,不给一个确定答案,而是给出"我在哪的概率分布"。

5-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
deepxuan6 分钟前
Day1--python三大库-Pandas
人工智能·python·pandas
电子云与长程纠缠18 分钟前
Godot学习03 - 实例化、层级访问、Export
android·学习·godot
青桔柠薯片21 分钟前
51单片机(STC89C52RC)学习总结:从裸机编程到外设驱动
嵌入式硬件·学习·51单片机
阿泽·黑核22 分钟前
Easy Vibe Coding 学习心得(二):从产品原型到 AI 应用——我的第一个完整项目
人工智能·ai编程·vibe coding
qq_4523962323 分钟前
【Python × AI】多智能体协作:从 AutoGPT 到 CrewAI 的组织进化论
大数据·人工智能·python·ai
老李的森林38 分钟前
杂谈--如何与AI高效率的对话
人工智能·stm32·嵌入式硬件·机械
码农三叔1 小时前
(10-5-03)大模型时代的人形机器人感知:基于RoboBrain大模型的人形机器人通用智能感知系统(3)模型训练
人工智能·机器学习·机器人·人形机器人
陈天伟教授1 小时前
人工智能应用- 预测新冠病毒传染性:04. 中国:强力措施遏制疫情
前端·人工智能·安全·xss·csrf
双星系统1 小时前
OpenClaw本地部署完全指南:2026年让AI真正“动手干活”
人工智能
火山引擎开发者社区1 小时前
ArkClaw“虾塘”再进化,开启“无忧养虾”
人工智能