工智能学习-AI入试相关题目练习-第十次

人工智能学习-AI入试相关题目练习-第十次

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

【模擬問題①】(基礎・頻出)

問題1(最適探索・挖空)

以下の文章を読み、空欄 (a) ~ (f) に適切な語句を記入せよ。


最適優先探索は、ヒューリスティック関数としての (a) を用いて探索を進める手法である。

探索では、候補ノードを保持する (b) と、すでに展開済みのノードを保持する © を用いる。

アルゴリズムでは、(b) から評価値が最も (d) ノードを取り出し、© に追加する。

各ノードの評価値は、実コスト g(s) と (e) に基づいて計算され、一般に

f(s) = g(s) + (f)

として定義される。



【模擬問題②】(基礎・定番)

問題2(Q学習・挖空)

以下の文章を読み、空欄 (a) ~ (g) に適切な語句を記入せよ。


Q学習では、状態 s において行動 a を選択したときの価値を表す (a) を学習する。

この値は、即時報酬 r と (b) における最大の Q 値を用いて更新される。

Q 値の更新式では、学習率を ©、割引率を (d) とし、

将来報酬の影響を (e) で調整する。

また、探索と活用のバランスをとるため、確率 (f) でランダム行動を選択し、

確率 (g) で greedy 行動を選択する手法が用いられる。



【予測問題①】(やや難・論理構造)

問題3(ベイズフィルタ・挖空)

以下の文章を読み、空欄 (a) ~ (h) に適切な語句を記入せよ。


ベイズフィルタは、時刻 t における状態 (a) を、

過去の観測 (b) と行動 © に基づいて推定する確率的手法である。

予測ステップでは、遷移モデル (d) を用いて状態分布を更新し、

観測更新では、観測モデル (e) に基づいて尤度を計算する。

正規化後の状態分布は (f) と呼ばれ、

全状態に対する確率の (g) が 1 となるように (h) が行われる。



【予測問題②】

問題4(教師あり・教師なし・強化学習・挖空)

以下の文章を読み、空欄 (a) ~ (i) に適切な語句を記入せよ。


教師あり学習では、入力データとそれに対応する (a) が与えられ、

誤差関数を最小化するようにモデルの (b) を更新する。

一方、教師なし学習では、(a) が与えられず、

データの © や (d) を抽出することを目的とする。

強化学習では、エージェントが環境と (e) を繰り返し、

報酬 (f) を最大化する方策 (g) を学習する。

このとき、状態遷移は (h) としてモデル化され、

最適方策は (i) に基づいて定義される。


4-练习(日语版本)解析

問題1:

a:h(s)

b:g(s)

c:f(s)

b:連接のノード

d:コストが小さい

e:h(s)

f:h(s)

問題2:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

問題3:

a:オープンリスト

b:クロスりすと

c:e

d:pei

e:

f;1-e

g:

h:

【模擬問題①】問題1(最適優先探索)

アンサー:

  • (a) ヒューリスティック関数
  • (b) オープンリスト
  • © クローズドリスト
  • (d) 小さい
  • (e) ヒューリスティック関数
  • (f) h(s)

👉 关键点:

  • f(s) = g(s) + h(s)

【模擬問題②】問題2(Q学習)

アンサー:

  • (a) Q値
  • (b) 次状態
  • © 学習率
  • (d) 割引率
  • (e) 割引率
  • (f) ε
  • (g) 1−ε

👉 ε-greedy 是必背组合


【予測問題①】問題3(ベイズフィルタ)

アンサー:

  • (a) 状態
  • (b) 観測
  • © 行動
  • (d) 状態遷移モデル
  • (e) 観測モデル
  • (f) 事後確率
  • (g)
  • (h) 正規化

👉 (f)「事後確率」是预测题最容易漏的点


【予測問題②】問題4(学習手法の比較)

アンサー:

  • (a) 正解ラベル
  • (b) パラメータ
  • © 構造
  • (d) 特徴
  • (e) 相互作用
  • (f) 報酬
  • (g) 方策
  • (h) 確率モデル
  • (i) 価値関数

✅ 最终速查版(考试前 1 分钟用)

复制代码
ヒューリスティック関数 / オープン / クローズ / 小さい
Q値 / 学習率 / 割引率 / ε-greedy
状態 / 観測 / 行動 / 正規化
正解ラベル / パラメータ / 方策 / 価値関数

5-単語练习(日语版本)

ヒューリスティック関数((heuristic function)):用于"估计离目标还有多远"的函数。还没走、但估计要花的代价:h(s) ← 这就是ヒューリスティック関数

アルゴリズム(algorithm):解决问题的"步骤流程"アルゴリズム = 计算机解决问题的规则和步骤

ランダム行動:不看好坏,随机选一个动作去做 选当前看起来 最好的动作(Q 值最大的)

ベイズフィルタ(Bayes Filter):用"过去怎么动 + 现在看到了什么",来推测"现在处于什么状态"的概率方法 把"我刚才怎么走的"和"我现在看到了什么"结合起来,不给一个确定答案,而是给出"我在哪的概率分布"。

5-总结

知识一点点记录吧,最后应对考试,打下基础

相关推荐
island131413 小时前
CANN ops-nn 算子库深度解析:神经网络核心计算的硬件映射、Tiling 策略与算子融合机制
人工智能·深度学习·神经网络
冬奇Lab13 小时前
一天一个开源项目(第14篇):CC Workflow Studio - 可视化AI工作流编辑器,让AI自动化更简单
人工智能·开源·编辑器
是小蟹呀^13 小时前
从稀疏到自适应:人脸识别中稀疏表示的核心演进
人工智能·分类
云边有个稻草人13 小时前
CANN ops-nn:筑牢AIGC的神经网络算子算力底座
人工智能·神经网络·aigc·cann
island131413 小时前
CANN Catlass 算子模板库深度解析:高性能 GEMM 架构、模板元编程与融合算子的显存管理策略
人工智能·神经网络·架构·智能路由器
结局无敌13 小时前
从算子到生态:cann/ops-nn 如何编织一张高性能AI的协作之网
人工智能
chaser&upper13 小时前
击穿长文本极限:在 AtomGit 破译 CANN ops-nn 的注意力加速密码
人工智能·深度学习·神经网络
玄同76513 小时前
Python 后端三剑客:FastAPI/Flask/Django 对比与 LLM 开发选型指南
人工智能·python·机器学习·自然语言处理·django·flask·fastapi
慢半拍iii13 小时前
ops-nn算子库深度解析:昇腾神经网络计算的基础
人工智能·深度学习·神经网络·ai·cann
程序员猫哥_13 小时前
HTML 生成网页工具推荐:从手写代码到 AI 自动生成网页的进化路径
前端·人工智能·html