计算机视觉 15 Neural Networks
Linear Classifiers的局限性
- Linear Classifiers无法解决线性不可分的问题:
- Idea #1:将低维特征进行高维非线性的特征变换从而得到高维的线性可分
- Idea #2:HoG for Linear Classifier:
- 将图像分成8x8的区域
- 对每个区域计算梯度直方图
- 使用SVM作为分类器
HoG方法可以很好的描述图像内容并且丢弃不重要的内容,对小变化具有鲁棒性
Idea #3:线性分类器的高维特征压缩:提取多个feature图,拼在一起映射到高维空间,再用PCA降维
- 连接多个图像特征:维度越高越好
- 使用 PCA 压缩并提取 Fisher 向量以减小维度
- 使用 SGD 进行一对多 SVM 学习
Neural Networks
Single-Layer Perceptron
单层感知机SLP无法解决一些非常简单的问题(XOR),点乘完后激活从而完成分类任务
Contributed to the so-called AI winter.(不能解决异或问题)
Multiple Layer Neural Networks
MLP至少有一个隐藏层,可以近似任意精度的任何函数
MLP只是一种神经网络
2-layer Neural Networks (MLPs):𝑠 = W2𝝈 (𝑊1𝑥) , 𝑊1 ∈ ℝ𝐻×𝐷, 𝑊2 ∈ ℝ𝐶×H,其中H 是隐藏神经元的数量,σ 是非线性激活函数
激活函数𝝈必须是非线性的,且必须是可微的
MLPs可以逼近任何函数的原理:两个sigmoid加入偏置可以组成任何基函数,多层MLPs可以用多个基函数局部逼近任何函数,再拼成一个完整的逼近函数
激活函数
- 组合后可以逼近任何其他函数
Neural Networks: Visual Viewpoint
- MLPs可以为每类形成多个模板,w2可以理解为模板的线性组合
Neural Networks: Geometric Viewpoint
- MLPs提供了更复杂的决策面,提高了非线性性
Deep Neural Networks
- MLPs的局限性:MLPs前提假设必须有大量的隐藏层才能逼近其他复杂函数,从而使得深度变深,复杂性提高
Neural Networks vs Image Features
- Feature Extraction是手动提取特征然后应用线性分类器,而Deep Neutral Network是自动特征提取,实现了端对端