计算机视觉(五)

卷积神经网络与迁移学习

目录:

卷积神经网络快速回顾
  1.层级结构 2.数据处理 3.训练算法 4.优缺点
典型CNN
  1.AlexNet 2.GoogLeNet 3.VGG Net 4.ResNet
物体定位
  1.回归的思路
物体检测
  1.早期做法 2.RCNN/Fast-RCNN/Faster_RCNN 3.R-FCN
文艺绘画与Neural Style
  1.风格描述 2.主体对调与损失最小化

  

主要是以下层次:

  数据输入层/ Input layer
  □ 卷积计算层/ CONV layer
  □ ReLU激励层 / ReLU layer
  □ 池化层 / Pooling layer
  □ 全连接层 / FC layer
  □ Batch Normalization层(可能有)

  数据集输入层:

  有3种常见的图像数据处理方式
  □ 去均值
    ■ 把输入数据各个维度都中心化到0
  □ 归一化
    ■ 幅度归一化到同样的范围
  □ PCA/白化
    ■ 用PCA降维
    ■ 白化是对数据每个特征轴上的幅度归一化

  

  卷积计算层:

    参数共享机制

    假设每个神经元连接数据窗的权重是固定的

    固定每个神经元连接权重,可以看做模板

      每个神经元值关注一个特性

    需要估算的权重个数减小: AlexNet  1亿=>3.5W

    一组固定的权重和不同窗口内数据做内积:卷积

  

   激励层(ReLU)
    ■ 把卷积层输出结果做非线性映射
      □ Sigmoid
      □ Tanh(双曲正切)
      □ ReLU
      □ Leaky ReLU
      □ ELU
      □ Maxout

   

  

  全连接层 / FC layer
    ■ 两层之间所有神经元都有权重连接
    ■ 通常全连接层在卷积神经网络尾部
  □ 一般CNN结构依次为
    ■ INPUT
    ■ [[CONV -> RELU]*N -> POOL?]*M
    ■ [FC -> RELU]*K
    ■ FC

二。对卷积层的理解

  第一个卷积层

  

  优点
     ■ 共享卷积核,对高维数据处理无压力
     ■ 无需手动选取特征,训练好权重,即得特征
      ■ 分类效果好
  □ 缺点
    ■ 需要调参,需要大样本量,训练最好要GPU
    ■ 物理含义不明确

 

图像识别与定位:

 

 

 三。物体识别

  1. 随机去框,进行向右滑动,判断框内动物类别

  

  2. 边缘策略

   

  3. R-CNN

  

两个改变:

  1. 采用有效的方法将感兴趣的区域选取来

  2.后面不用SVM直接加上全连接层,进行分类和回归

  3. 相对于R-CNN关键用了一个ROI polling

 4. RFCN 速度与质量都超过Faster-RCNN

应用:

  文艺应用:NeuralSyle

  

 

  可以调整阿尔法和贝塔的值,调整风格和内容

原文地址:https://www.cnblogs.com/lvxiaoning/p/10079447.html