【AI课程领学】课时2:人工智能 —— 从“会下棋的机器”到“会思考的系统”
【AI课程领学】课时2:人工智能 —— 从“会下棋的机器”到“会思考的系统”
·
课时2:人工智能 —— 从“会下棋的机器”到“会思考的系统”
课时2:人工智能 —— 从“会下棋的机器”到“会思考的系统”
欢迎铁子们点赞、关注、收藏!
祝大家逢考必过!逢投必中!上岸上岸上岸!upupup
大多数高校硕博生毕业要求需要参加学术会议,发表EI或者SCI检索的学术论文会议论文。详细信息可扫描博文下方二维码 “
学术会议小灵通”或参考学术信息专栏:https://ais.cn/u/mmmiUz
详细免费的AI课程可在这里获取→www.lab4ai.cn
2.1 人工智能的“家谱”
通常我们会用一个“套娃式”的结构来介绍:
- 人工智能(AI):任何让机器表现出“智能行为”的技术。
- 机器学习(ML):让机器通过数据学习规律的一类 AI 方法。
- 深度学习(DL):以多层神经网络为核心的机器学习方法。
可以用一句半玩笑的定义:AI 是目标,ML 是路径,DL 是这条路上当前最火的一种车。
2.2 人工智能的几大流派
1)符号主义(Symbolic AI)
- 代表:专家系统、逻辑推理、规划。
- 把知识表示成符号和规则(本质就是写程序 + 写规则)。
- 优点:可解释性强、逻辑严密。
- 缺点:不善于处理噪声、连续数值、复杂模式。
2)连接主义(Connectionism)
- 代表:神经网络(包括深度学习)。
- 模拟人脑神经元和突触的连接关系,以“权重矩阵”来存储知识。
- 能自动学习复杂表示,但早期受限于算力和数据,发展缓慢,直到 2010 年后爆发。
3)行为主义 / 强化学习(Behaviorism / RL)
- 代表:AlphaGo、机器人控制等。
- 通过“试错 + 奖惩”学习策略(policy)。
- 常与深度学习结合形成深度强化学习(DRL)。
深度学习在今天已经渗透到所有流派:
- 用神经网络表示价值函数/策略:强化学习
- 用神经网络提取特征,再交给符号系统推理:神经-符号混合系统
2.3 机器学习基本问题类型
- 在介绍深度学习之前,需要把任务类型说清楚(深度模型只是这些任务的一种实现方式):
1)监督学习(Supervised Learning)
- 输入有标签: ( x , y ) (x,y) (x,y)
- 目标:学一个函数 f ^ \hat{f} f^,让 f ^ ( x ) ≈ y \hat{f}{(x)≈y} f^(x)≈y。
- 典型任务:分类(land cover)、回归(SM、AOD)、目标检测等。
2)无监督学习(Unsupervised Learning)
- 只有输入 x x x,没有标签。
- 目标:挖掘数据内部结构(聚类、降维、密度估计等)。
- 典型任务:K-means、PCA、Autoencoder。
3)半监督 / 自监督学习
- 半监督:少量有标签 + 大量无标签。
- 自监督:从数据本身构造“伪标签”(例如遮挡一部分图像让模型预测)。
- 经常用于遥感、大气领域“标签稀缺”的情况。
4)强化学习(Reinforcement Learning)
- 有环境、有 agent,试错学习策略最大化长期奖励。
深度学习可以作为这些任务的通用函数逼近器:你可以把传统算法中的“手工特征 + 简单模型”换成“端到端神经网络”。
2.4 一个最小的机器学习例子:二分类
- 用最经典的 Logistic 回归 做二分类,看机器学习是如何使用在“AI 问题”上的。
场景示例:根据两个特征判断样本属于 A 还是 B 类
import numpy as np
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt
# 1. 造一个 2D 的模拟二分类数据
X, y = make_classification(
n_samples=300,
n_features=2,
n_informative=2,
n_redundant=0,
n_clusters_per_class=1,
random_state=42
)
# 2. 训练 Logistic 回归
clf = LogisticRegression()
clf.fit(X, y)
y_pred = clf.predict(X)
acc = accuracy_score(y, y_pred)
print("Training accuracy:", acc)
# 3. 可视化决策边界
x_min, x_max = X[:,0].min()-1, X[:,0].max()+1
y_min, y_max = X[:,1].min()-1, X[:,1].max()+1
xx, yy = np.meshgrid(
np.linspace(x_min, x_max, 200),
np.linspace(y_min, y_max, 200)
)
grid = np.c_[xx.ravel(), yy.ravel()]
probs = clf.predict_proba(grid)[:, 1].reshape(xx.shape)
plt.contourf(xx, yy, probs, levels=20, alpha=0.7)
plt.scatter(X[:,0], X[:,1], c=y, edgecolor='k')
plt.title("Logistic Regression Decision Boundary")
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.show()
这个例子说明:
- 没有用到“深度学习”,但已经是典型的机器学习。
- 它解决的是一个智能决策问题:根据特征判断类别,这就是 AI 的基本任务之一。
2.5 从“能解决任务”到“能迁移和开拓”
今天的 AI 不再满足于解决一个个孤立的任务,而是追求:
- 可迁移:在一个领域学到的知识能迁移到另一个(如 ImageNet 预训练 → 遥感、医学影像)。
- 可组合:把多个子系统组合起来解决复杂任务(感知 + 推理 + 决策)。
- 可解释 / 可可信:不仅要预测,还要知道“为什么”。
深度学习正是现在很多 AI 系统的感知核心:负责从海量原始数据中抽取“人可用、机可用”的表征(representation)。
2.6 小结
这一课你需要带走的关键词是:
- AI > ML > DL 的层级关系;
- 机器学习的几大类型;
- 深度学习在 AI 系统中更偏向于“感知和表征”这一层。
下一课我们就聚焦在“深度学习”本身:什么是神经网络?为什么要“深”?如何在 Python 里跑第一个深度模型?
更多推荐


所有评论(0)