人工智能学习-AI入试相关题目练习-第三次
- 1-前言
- 2-AI入试相关题目概念解释
-
- (3)相关术语|一句话中日文对照
-
- Q学习(Q-learning)
- [贝叶斯滤波(Bayes Filter)](#贝叶斯滤波(Bayes Filter))
- [卡尔曼滤波(Kalman Filter)](#卡尔曼滤波(Kalman Filter))
- [SIR(Sampling Importance Resampling)](#SIR(Sampling Importance Resampling))
- [蒙特卡洛近似(Monte Carlo Approximation)](#蒙特卡洛近似(Monte Carlo Approximation))
- SLAM
- [玻尔兹曼选择(Boltzmann Selection)](#玻尔兹曼选择(Boltzmann Selection))
- LSTM
- (4)监督学习相关术语|一句话中日文对照
-
- [最急下降法(Gradient Descent)](#最急下降法(Gradient Descent))
- [最小二乘法(Least Squares)](#最小二乘法(Least Squares))
- 一般线性模型(GLM)
- [k-means 法](#k-means 法)
- 最大似然估计(MLE)
- BERT
- [随机森林(Random Forest)](#随机森林(Random Forest))
- [表现学习(Representation Learning)](#表现学习(Representation Learning))
- (5)自然语言处理相关术语|一句话中日文对照
-
- 最大化(Maximization)
- 最小化(Minimization)
- [Bag-of-Words 表现](#Bag-of-Words 表现)
- [n-gram 模型](#n-gram 模型)
- [意味网络(Semantic Network)](#意味网络(Semantic Network))
- [混合分布模型(Mixture Model)](#混合分布模型(Mixture Model))
- [构文树(Parse Tree)](#构文树(Parse Tree))
- [单语词格(Word Lattice)](#单语词格(Word Lattice))
- 3-概念解释-知道中文也需要知道日文什么意思
-
- [【第1問|教師あり学習 × 回帰】](#【第1問|教師あり学習 × 回帰】)
- [【第2問|強化学習 × 行動選択】](#【第2問|強化学習 × 行動選択】)
- [【第3問|自然言語処理 × 形態素解析】](#【第3問|自然言語処理 × 形態素解析】)
- [【第4問|確率モデル × 言語モデル】](#【第4問|確率モデル × 言語モデル】)
- 5-练习(日语版本)解析
- 6总结
1-前言
为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。
2-AI入试相关题目概念解释
(3)相关术语|一句话中日文对照
Q学习(Q-learning)
- 中文:一种无模型的强化学习方法,通过更新动作价值函数来学习最优策略。
- 日文:環境モデルを持たず,行動価値関数を更新することで最適方策を学習する強化学習手法。
贝叶斯滤波(Bayes Filter)
- 中文:基于贝叶斯定理,对系统状态进行递推概率估计的方法。
- 日文:ベイズの定理に基づき,状態の事後確率を逐次推定する手法。
卡尔曼滤波(Kalman Filter)
- 中文:在高斯噪声假设下,对线性动态系统状态进行最优估计的方法。
- 日文:ガウス雑音を仮定した線形動的システムに対する最適状態推定法。
SIR(Sampling Importance Resampling)
- 中文:一种粒子滤波方法,通过重采样减少粒子退化问题。
- 日文:リサンプリングにより粒子の退化を防ぐ粒子フィルタ手法。
蒙特卡洛近似(Monte Carlo Approximation)
- 中文:利用随机采样来近似计算复杂期望或积分的方法。
- 日文:乱数サンプリングによって期待値や積分を近似的に求める方法。
SLAM
- 中文:机器人在未知环境中同时进行自身定位与地图构建的问题。
- 日文:未知環境において自己位置推定と地図生成を同時に行う問題。
玻尔兹曼选择(Boltzmann Selection)
- 中文:根据动作价值的概率分布随机选择动作的策略。
- 日文:行動価値に基づく確率分布から行動を選択する手法。
LSTM
- 中文:一种能够处理长期依赖问题的循环神经网络结构。
- 日文:長期依存関係を扱うことが可能な再帰型ニューラルネットワーク。
(4)监督学习相关术语|一句话中日文对照
最急下降法(Gradient Descent)
- 中文:沿着目标函数梯度的反方向迭代更新参数的优化方法。
- 日文:目的関数の勾配の逆方向にパラメータを更新する最適化手法。
最小二乘法(Least Squares)
- 中文:通过最小化误差平方和来估计模型参数的方法。
- 日文:誤差の二乗和を最小化することでパラメータを推定する手法。
一般线性模型(GLM)
- 中文:将线性预测与非正态分布响应变量结合的统计模型。
- 日文:線形予測子と指数型分布族を結びつけた統計モデル。
k-means 法
- 中文:通过最小化类内距离将数据划分为 k 个簇的无监督学习方法。
- 日文:クラスタ内距離を最小化することでデータを k 個に分割する手法。
最大似然估计(MLE)
- 中文:通过最大化观测数据出现概率来估计参数的方法。
- 日文:観測データの尤度を最大化することでパラメータを推定する方法。
BERT
- 中文:一种基于双向 Transformer 的预训练语言表示模型。
- 日文:双方向 Transformer に基づく事前学習済み言語モデル。
随机森林(Random Forest)
- 中文:通过集成多棵决策树进行预测的集成学习方法。
- 日文:複数の決定木を組み合わせて予測を行うアンサンブル学習手法。
表现学习(Representation Learning)
- 中文:自动从数据中学习有用特征表示的机器学习方法。
- 日文:データから有用な特徴表現を自動的に学習する手法。
(5)自然语言处理相关术语|一句话中日文对照
最大化(Maximization)
- 中文:使目标函数值尽可能大的优化过程。
- 日文:目的関数の値を最大にする最適化操作。
最小化(Minimization)
- 中文:使目标函数值尽可能小的优化过程。
- 日文:目的関数の値を最小にする最適化操作。
Bag-of-Words 表现
- 中文:忽略词序,仅用词频表示文本的特征方法。
- 日文:単語の出現頻度のみを用い,語順を考慮しない表現方法。
n-gram 模型
- 中文:利用前 n−1 个词预测当前词概率的语言模型。
- 日文:直前の n−1 語に基づいて単語の生成確率を求めるモデル。
意味网络(Semantic Network)
- 中文:用图结构表示概念及其语义关系的知识表示方法。
- 日文:概念とその意味関係をグラフ構造で表す知識表現。
混合分布模型(Mixture Model)
- 中文:由多个概率分布加权组合而成的统计模型。
- 日文:複数の確率分布を重み付きで組み合わせたモデル。
构文树(Parse Tree)
- 中文:表示句子语法结构的树形结构。
- 日文:文の文法構造を木構造で表したもの。
单语词格(Word Lattice)
- 中文:以节点表示词候选、以边表示连接关系的图结构。
- 日文:単語候補をノード,接続関係を辺で表したグラフ構造。
3-概念解释-知道中文也需要知道日文什么意思
【第1問|教師あり学習 × 回帰】
教師あり学習における回帰問題では,予測誤差を表す評価関数 (E(\theta)) を最小化することが一般的である。
このとき,(E(\theta)) をパラメータ (\theta) で偏微分し,その結果を用いて反復的にパラメータを更新する最適化手法として最も適切なものはどれか。
a. 最小二乗法
b. 最大尤度推定
c. 最急降下法
d. 一般線形モデル
【第2問|強化学習 × 行動選択】
強化学習における Boltzmann 選択に関する説明として,最も適切なものはどれか。
a. 常に行動価値が最大の行動を選択する
b. 行動価値に基づく確率分布から行動を選択する
c. 探索フェーズにおいてのみランダムに行動を選択する
d. ε の値に基づいて貪欲行動とランダム行動を切り替える
【第3問|自然言語処理 × 形態素解析】
形態素解析において,単語の候補をノード,単語間の接続関係を辺として表現したグラフ構造を用い,
単語間の接続確率が低いほど高いコストを割り当てた場合,
形態素解析の結果はどのような経路を求めることで得られるか。
a. 総コストが最大となる経路
b. 総コストが最小となる経路
c. ノード数が最小となる経路
d. 辺の数が最大となる経路
【第4問|確率モデル × 言語モデル】
n-gram 言語モデルにおいて,単語の生成確率を直前の (n-1) 個の単語にのみ条件づけるという仮定を導入する主な目的として,最も適切なものはどれか。
a. 単語の意味的関係を厳密に表現するため
b. 文全体の構文構造を正確に捉えるため
c. 計算量の削減およびデータ疎性の緩和のため
d. 単語の出現頻度を均一化するため
5-练习(日语版本)解析
第1问
你的答案:a(最小二乘法)
❌ 判定:不正确
正确判定逻辑
题干关键词是:
- 「(E(\theta)) を 偏微分」
- 「反復的に パラメータを更新」
- 「最小化する 最適化手法」
👉 这明确指的是优化算法本身,而不是"误差形式"。
- 最小二乘法:是"误差函数/目标函数的设定思想"
- 最急降下法:是"利用梯度反复更新参数的优化方法"
把「损失函数形式」和「优化方法」混在一起选
第2问
你的答案:b(行動価値に基づく確率分布から行動を選択)
✅ 判定:正确
原因
Boltzmann 选择(Softmax)核心就是:
- 行动价值越高 → 被选中的概率越大
- 但 不是必选最大值
📌 与 ε-greedy 的区别是概率连续变化而非"硬切换"。
第3问
你的答案:c(ノード数が最小となる経路)
❌ 判定:不正确
正确判定逻辑
题干明确给了三个关键信息:
- 单词连接概率低 → 高コスト
- 使用图结构(单词格 / lattice)
- 要"得到形态素解析结果"
👉 标准解法一定是:
寻找「总成本最小」的路径
- 节点数多少 不重要
- 边权(cost)累加 才是核心
故意给你"节点数最少 / 边数最多"这种图论假选项
第4问
你的答案:D(単語の出現頻度を均一化するため)
❌ 判定:不正确
正确判定逻辑
n-gram 的核心假设是:
-
只看前 (n-1) 个词
-
目的:
- 降低计算复杂度
- 缓解数据稀疏问题(data sparsity)
而 "词频均一化" 是完全不存在的概念(这是个诱骗选项)。
经常放一个"看起来像统计学,但实际没定义"的假选项
6总结
知识一点点记录吧,最后应对考试,打下基础