1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

在这里插入图片描述

通过学习,也算是做笔记,让自己更理解些。

3-问题题目训练

在这里插入图片描述

4-练习(日语版本)解析

(1)k-means 法(k=3)收敛全过程

给定数据

[
X={(0,0),(0,1),(0,2),(3,0),(6,0),(6,1),(6,2)}
]

初始代表点(中心):
[
C^{(0)}={(0,4),(3,0),(6,4)}
]

距离采用 ユークリッド距離(Euclidean distance)


🔁 Step 1:第一次分配(根据初始中心)

到 (0,4) 到 (3,0) 到 (6,4) 分配
(0,0) 4 3 √52 C₂
(0,1) 3 √10 √45 C₁
(0,2) 2 √13 √40 C₁
(3,0) 5 0 5 C₂
(6,0) √52 3 4 C₂
(6,1) √45 √10 3 C₃
(6,2) √40 √13 2 C₃
得到簇
  • Cluster 1:{(0,1),(0,2)}
  • Cluster 2:{(0,0),(3,0),(6,0)}
  • Cluster 3:{(6,1),(6,2)}

🔁 Step 2:更新代表点(取平均)

  • C₁:
    [
    \left(\frac{0+0}{2},\frac{1+2}{2}\right)=(0,1.5)
    ]

  • C₂:
    [
    \left(\frac{0+3+6}{3},\frac{0+0+0}{3}\right)=(3,0)
    ]

  • C₃:
    [
    \left(\frac{6+6}{2},\frac{1+2}{2}\right)=(6,1.5)
    ]


🔁 Step 3:重新分配

再次计算后,每个点的归属 不再发生变化
👉 算法收敛


✅ 最终结果

  • Cluster 1:{(0,1),(0,2)},中心 (0,1.5)
  • Cluster 2:{(0,0),(3,0),(6,0)},中心 (3,0)
  • Cluster 3:{(6,1),(6,2)},中心 (6,1.5)

(2)一阶逻辑公式 → Skolem 标准形

原公式

[
\forall x \exists y [P(x) \rightarrow Q(x,y)] \land \neg(\forall x[P(x) \land \forall z R(z)])
]


Step 1:去蕴含

[
P(x)\rightarrow Q(x,y) \equiv \neg P(x)\lor Q(x,y)
]


Step 2:否定展开

[
\neg(\forall x[P(x)\land \forall zR(z)])
\equiv \exists x(\neg P(x)\lor \exists z \neg R(z))
]


Step 3:Skolem 化

  • (y) 依赖于 (x) → Skolem 函数 (f(x))
  • (\exists x) → Skolem 常数 (a)
  • (\exists z) → Skolem 常数 (b)

✅ Skolem 标准形(简洁形式)

[
(\neg P(x)\lor Q(x,f(x))) \land (\neg P(a)\lor \neg R(b))
]


(3-1)ナッシュ均衡 vs 支配戦略均衡

项目 ナッシュ均衡 支配戦略均衡
定义 给定对方策略,自己无法单方面改善 不论对方怎么选都是最优
稳定性 相对稳定 更强
必然存在
关系 支配戦略均衡 ⊂ ナッシュ均衡

📌 考试要点
👉 支配戦略均衡一定是纳什均衡,但反之不成立


(3-2)Gaussian Mixture Model(GMM)

定义
GMM 是一种用多个高斯分布的加权和来表示数据分布的概率模型。

[
p(x)=\sum_{k=1}^K \pi_k \mathcal{N}(x|\mu_k,\Sigma_k)
]

  • (\pi_k):混合权重
  • (\mu_k,\Sigma_k):均值与协方差
  • 参数通常用 EM 算法估计

📌 考试关键词
「概率模型」「软聚类」「EM算法」


(3-3)n-gram 模型

定义
n-gram 模型假设:

一个词只依赖于前 n−1 个词

例(bigram)
[
P(w_3|w_1,w_2) \approx P(w_3|w_2)
]

📌 优缺点

  • ✅ 简单、可计算
  • ❌ 长距离依赖建模能力弱

(3-4)三种学习方式对比

学习方式 教师信号 示例
教師あり学習 有正确标签 图像分类
教師なし学習 无标签 k-means
強化学習 奖励信号 游戏AI

📌 一句话记忆版(本番可写)

教師あり学習は正解付きデータ,教師なし学習は構造発見,強化学習は報酬最大化を目的とする。


5-単語练习(日语版本)

k-means 法是一种无监督学习的聚类方法,
通过反复进行“数据分配”和“中心更新”,
将数据划分为 k 个簇,使簇内距离最小。

无监督学习(教師なし学習)

聚类(クラスタリング)

反复(反復)

簇内距离最小(分散最小化)

5-总结

知识一点点记录吧,最后应对考试,打下基础

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐