Skip to content

Introduction

神经网络

ouline

神经网络定义与概念

感知器(perceptron)

线性单元(linear unit)

训练多层网络的反向传播算法(Delta法则)

ANN的表征能力

假设空间搜索的本质特征

神经网络过度拟合问题

  • 神经网络定义

神经网络是由具有适应性的简单单元组成的广泛并行互联的网络,它的组成能够模拟生物神经系统对真实世界物体所作出的反应

  • 感知机

由两层神经元组成输入层接受外界信号传递给输出层,输出层是M-P神经元(阈值逻辑单元)

学习能力

  • 线性可分 (与或非),则一定收敛

  • 非线性可分问题 (多层感知机)

  • 多层前馈神经网络

学习:根据训练数据来调整神经元之间的"连接权",以及每个功能神经的"阈值"

表示能力: 只要包含足够多神经元的隐层,就能以任意精度逼近任意复杂度的连续函数

  • 反向传播算法

  • 缓解过拟合的策略

缓解过拟合的策略

早停: 训练过程中,若训练误差降低,验证误差增加,就停止训练

正则化: 误差目标函数增加一项描述网络复杂程度的部分,如连接权值和阈值的平方和

交叉验证方法:K-fold 较差验证。把训练样例分成k份,其中一份分别作为测试集,另外的数据作为训练集。逐次轮换,让每一份数据都成为验证集进行训练,记录每次训练在验证集上达到最佳训练效果(误差最低)的训练次数i,将k个不同的i取平均,作为 \(\overline{i}\)。最后所有的数据作为训练集,训练\(\overline{i}\)后停止

可以应用交叉验证方法确定隐层单元数

概念学习

Outline

概念学习定义

概念学习任务

归纳学习与归纳学习假设

Find-S: 寻找极大特殊假设,偏序

变形空间和候选消除算法

归纳偏置

概念学习定义

是从有关某个布尔函数的输入输出训练样例中推断出该布尔函数

概念学习的任务

寻找一个假设h, 使得对所有的h,都有h(x)=c(x)

归纳学习定义

从特殊的样例得到普遍的规律

归纳学习假设

任一假设,如果在足够大的训练样例上能够很好地逼近目标函数(与训练数据最佳拟合),它也能在未见实例中很好地逼近目标函数

Find-S

候选消除算法

输出与训练样例一致地所有假设的集合

正例-极小一般化

应用:化学质谱分析、启发式搜索的控制规则

变形空间

与训练样例一致的所有假设组成的集合,表示了目标概念的所有合理的变型

被表示为极大一般(G)和极大特殊(S)的成员

概念学习的最优查询策略:是产生实例以满足当前变型空间中大约半数的假设。这样,变型空间的大小可以在遇到每个新样例时减半

归纳偏置

归纳学习需要的预先假定

算法评估

outline

假设的评估、两个假设精度的比较、两个学习算法精度比较

样本错误率、真实错误率

交叉验证与t配对测试

贝叶斯学习

success

贝叶斯理论概念定义

极大似然假设(ML)和极大后验概率假设(MAP)

贝叶斯理论对其他学习算法的解释

贝叶斯最优分类器

Gibbs算法

朴素贝叶斯分类器

贝叶斯理论

贝叶斯理论提供了一种计算假设概率的方法,基于假设的先验概率、给定假设下观察到不同数据的概率以及观察到的数据本身