工智能学习-AI入试相关题目练习-第十次

人工智能学习-AI入试相关题目练习-第十次

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

【模擬問題①】(基礎・頻出)

問題1(最適探索・挖空)

以下の文章を読み、空欄 (a) ~ (f) に適切な語句を記入せよ。


最適優先探索は、ヒューリスティック関数としての (a) を用いて探索を進める手法である。

探索では、候補ノードを保持する (b) と、すでに展開済みのノードを保持する © を用いる。

アルゴリズムでは、(b) から評価値が最も (d) ノードを取り出し、© に追加する。

各ノードの評価値は、実コスト g(s) と (e) に基づいて計算され、一般に

f(s) = g(s) + (f)

として定義される。



【模擬問題②】(基礎・定番)

問題2(Q学習・挖空)

以下の文章を読み、空欄 (a) ~ (g) に適切な語句を記入せよ。


Q学習では、状態 s において行動 a を選択したときの価値を表す (a) を学習する。

この値は、即時報酬 r と (b) における最大の Q 値を用いて更新される。

Q 値の更新式では、学習率を ©、割引率を (d) とし、

将来報酬の影響を (e) で調整する。

また、探索と活用のバランスをとるため、確率 (f) でランダム行動を選択し、

確率 (g) で greedy 行動を選択する手法が用いられる。



【予測問題①】(やや難・論理構造)

問題3(ベイズフィルタ・挖空)

以下の文章を読み、空欄 (a) ~ (h) に適切な語句を記入せよ。


ベイズフィルタは、時刻 t における状態 (a) を、

過去の観測 (b) と行動 © に基づいて推定する確率的手法である。

予測ステップでは、遷移モデル (d) を用いて状態分布を更新し、

観測更新では、観測モデル (e) に基づいて尤度を計算する。

正規化後の状態分布は (f) と呼ばれ、

全状態に対する確率の (g) が 1 となるように (h) が行われる。



【予測問題②】

問題4(教師あり・教師なし・強化学習・挖空)

以下の文章を読み、空欄 (a) ~ (i) に適切な語句を記入せよ。


教師あり学習では、入力データとそれに対応する (a) が与えられ、

誤差関数を最小化するようにモデルの (b) を更新する。

一方、教師なし学習では、(a) が与えられず、

データの © や (d) を抽出することを目的とする。

強化学習では、エージェントが環境と (e) を繰り返し、

報酬 (f) を最大化する方策 (g) を学習する。

このとき、状態遷移は (h) としてモデル化され、

最適方策は (i) に基づいて定義される。


4-练习(日语版本)解析

問題1:

a:h(s)

b:g(s)

c:f(s)

b:連接のノード

d:コストが小さい

e:h(s)

f:h(s)

問題2:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

問題3:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

g:

h:

【模擬問題①】問題1(最適優先探索)

アンサー:

  • (a) ヒューリスティック関数
  • (b) オープンリスト
  • © クローズドリスト
  • (d) 小さい
  • (e) ヒューリスティック関数
  • (f) h(s)

👉 关键点:

  • f(s) = g(s) + h(s)

【模擬問題②】問題2(Q学習)

アンサー:

  • (a) Q値
  • (b) 次状態
  • © 学習率
  • (d) 割引率
  • (e) 割引率
  • (f) ε
  • (g) 1−ε

👉 ε-greedy 是必背组合


【予測問題①】問題3(ベイズフィルタ)

アンサー:

  • (a) 状態
  • (b) 観測
  • © 行動
  • (d) 状態遷移モデル
  • (e) 観測モデル
  • (f) 事後確率
  • (g)
  • (h) 正規化

👉 (f)「事後確率」是预测题最容易漏的点


【予測問題②】問題4(学習手法の比較)

アンサー:

  • (a) 正解ラベル
  • (b) パラメータ
  • © 構造
  • (d) 特徴
  • (e) 相互作用
  • (f) 報酬
  • (g) 方策
  • (h) 確率モデル
  • (i) 価値関数

✅ 最终速查版(考试前 1 分钟用)

复制代码
ヒューリスティック関数 / オープン / クローズ / 小さい
Q値 / 学習率 / 割引率 / ε-greedy
状態 / 観測 / 行動 / 正規化
正解ラベル / パラメータ / 方策 / 価値関数

5-単語练习(日语版本)

ヒューリスティック関数((heuristic function)):用于"估计离目标还有多远"的函数。还没走、但估计要花的代价:h(s) ← 这就是ヒューリスティック関数

アルゴリズム(algorithm):解决问题的"步骤流程"アルゴリズム = 计算机解决问题的规则和步骤

ランダム行動:不看好坏,随机选一个动作去做 选当前看起来 最好的动作(Q 值最大的)

ベイズフィルタ(Bayes Filter):用"过去怎么动 + 现在看到了什么",来推测"现在处于什么状态"的概率方法 把"我刚才怎么走的"和"我现在看到了什么"结合起来,不给一个确定答案,而是给出"我在哪的概率分布"。

5-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
来两个炸鸡腿2 小时前
【Datawhale组队学习202601】Base-NLP task05 高级微调技术
人工智能·学习·自然语言处理
EverydayJoy^v^2 小时前
RH134学习进程——九.访问网络附加存储
linux·网络·学习
GHL2842710902 小时前
coze多agent学习
学习·ai编程
组合缺一2 小时前
Claude Code Agent Skills vs. Solon AI Skills:从工具增强到框架规范的深度对齐
java·人工智能·python·开源·solon·skills
Engineer邓祥浩2 小时前
设计模式学习(20) 23-18 中介者模式
学习·设计模式·中介者模式
观音山保我别报错2 小时前
Spring Boot 项目学习内容详解(一)
spring boot·后端·学习
小龙报2 小时前
【SOLIDWORKS 练习题】草图专题:1.带座轴承
人工智能·嵌入式硬件·物联网·硬件架构·3d建模·硬件工程·精益工程
●VON2 小时前
Flutter for OpenHarmony:基于三层 Tab 架构与数据模型解耦的 TodoList 产品化演进
学习·flutter·架构·openharmony·布局·技术
人工智能AI技术2 小时前
【C#程序员入门AI】AI应用的操作系统:Semantic Kernel 2026实战
人工智能·c#