MIT 人工智能¶
课程链接:【【麻省理工-人工智能入门课】这真的是不花钱能看的内容吗!MIT世界顶级人工智能课程分享!【机器学习、深度学习】】 https://www.bilibili.com/video/BV1dM411U7qK
date: 2023 暑假
P1¶
-
AI定义
-
测试生成法
- Rumpelstiltskin原则:名称即是力量
P2-3 推理¶
- 目标树
- and or的表示
- 规则 rule
- 安全规则
- 启发式规则
- 基于规则的专家系统 rule-based expert system
- 前向链 forward-chain 从规则到结论
- 后向链 从结论到规则
- 演绎系统
P4-6 搜索¶
搜索不是关于地图的,而是关于选择的
- 入队->扩展->排序(选取最小)
深度优先 | 广度优先 | 爬山搜索 | 束搜索 | |
---|---|---|---|---|
回溯 | √ | × | √ | × |
使用list | √ | √ | √ | √ |
启发式 | × | × | × | × |
- 爬山缺点
- 极大值
- 平地
- 山脊
- 最短路径
- 分支界限
- 扩展列表:已扩展的不再扩展
-
直线距离
-
可容许性 admissiablity:估计距离小于等于实际距离
- 一致性 consistency:估计距离之差小于等于实际距离
- A*算法
-
通过加上直线(估计)距离使搜索更接近于目标
-
分支因子 深度
-
极大化、极小化
-
alpha-beta 算法
- 逐步深入 随时算法 获得保证
- 计算d层和计算1到d-1层在同样数量级(不考虑alpha-beta 算法)
P7-9 约束¶
涂色问题¶
- 约束传播(for……for……)
- 涂色问题中,先确定约束条件多的更快
- 要确定可以涂色的最小颜色数,可以采用上下逼近
### 视觉识别
- 绕同一轴旋转的图形 相关点二维坐标线性相关
- 平移加上常数
- 用坐标旋转变化可证明
- 金凤花姑娘原则GOLDILOCKS:不要太大,不要太小
- 双眼、鼻子、嘴
- 看脸的局部特征 相关性
- 原函数与平移修正后函数相乘后积分最大值
P10-17 学习¶
P10 邻学习¶
学习分为
- 基于规律性学习(计算机)
- 最近邻学习(模式识别)
- 神经网络(仿生测试)
- boosting(理论)
- 基于约束的学习(人类)
- 一次性学习
-
基于解释的学习
-
决策边界
- 邻近
- 欧氏距离
- 角度
P11 识别树¶
-
我们需要一个尽量小的识别树
-
同质子集
-
测无序度,函数为圆拱形 $$ Q(TEST) = \Sigma D(SET) \times \frac{样本数}{总样本数} $$
-
选择无序度低的测试
P12 神经网络¶
神经元
- 存在突触
- 积累效应
-
ALL OR NOT
-
反向传播算法 通过偏导进行修正
-
问题
- 过度拟合
- 速率常数过大导致正反馈振荡
P13 遗传算法¶
-
突变 与 交叉互换
-
通过适应性计算存活率
-
\[ P_i = \frac{f_i}{\sum_{i}f_i} \]
-
排序赋值
-
选差异性和适应性最高的
-
模拟退火 先用大步长 再把步长慢慢减小
### P14 稀疏空间
-
可学习性
-
中央极限定理
-
局部性原理
P15 相近差错¶
- 要求链启发式(限制)
- 禁止链启发式(限制)
- 扩展启发式(推广)
- 丢链启发式(推广)
- 爬山启发式(推广)
- 相近差错对应限制 例子对应推广
- 妥适条件 (?