1000字范文,内容丰富有趣,学习的好帮手!
1000字范文 > 第1章:卷积神经网络:从欧氏空间到非欧氏空间

第1章:卷积神经网络:从欧氏空间到非欧氏空间

时间:2023-03-17 11:34:32

相关推荐

第1章:卷积神经网络:从欧氏空间到非欧氏空间

卷积神经网络:从欧氏空间到非欧氏空间

人工神经网络发展浪潮

第三次浪潮——卷积神经网络

加拿大多伦多大学教授,机器学习领域泰斗Geoffery Hinton及其学生在《科学》上发表了一篇论文,开启了深度学习在学术界和工业界的新浪潮!

卷积计算与神经网络结构

卷积定义

设f(x)f(x)f(x)和g(x)g(x)g(x)是RRR上的两个可积函数,连续形式卷积定义如下

离散空间卷积

yn=x×w=y_n = x \times w=yn​=x×w=

卷积计算与神经网络结构

基本概念——卷积

卷积核大小 (Kernel Size): 卷积操作感受野,在二维卷积中,通常设置为3,即卷积核大小为3×3步长 (Stride): 卷积核遍历图像时的步幅大小,默认值通常设置为1边界扩充 (Padding): 样本边界的处理方式输入与输出通道 (Channels): 构建卷积层时需定义输入通道数量III,和输出通道数量OOO,每个网络层的参数量为I×O×KI×O×KI×O×K(K为卷积核的参数个数)

基本概念——池化、全连接

池化层 特殊形式卷积降维、减少数据计算量,减缓过拟合,特征不变性(平移、尺度) 全连接层 模型输出层分类、回归

多层卷积神经网络示例

卷积核大小为5*5,步长为1,不扩充边界,输入通道为3,输出通道为2输出通道数为6,其余参数不变。第一层的输出通道数为3,第二层输出通道数为6。

CNN模型

AlexNet、VGGNet-卷积开创

网络更深:AlexNet一共8层,VGGNet一共16层或19层数据增广:为增强模型泛化能力,对256×256原始图像进行随机裁剪,得到尺寸为224×224图像,输入网络进行训练ReLU非线性激活函数:减少计算量,缓解梯度消失,缓解过拟合。ReLU激活函数现已成为神经网络中最通用的激活函数Dropout:全连接层神经元以一定概率失活,失活神经元不再参与训练。Dropout的引用,有效缓解了模型的过拟合Pre-Training:先训练一部分小网络,确保稳定之后,在此基础上网络逐渐加深。

GoogLeNet-深度、宽度扩展

网络更深:GoogLeNet一共22层多分辨率结构:引入Inception结构替代传统卷积+激活计算量降低:采用1×1卷积核来实现数据降维

深度、宽度再扩展——ResNet、DenseNet

网络更深:ResNet已超过一百层(ResNet-101)残差连接:特征经两条路线传递,常规路线与捷径跳跃连接:底层特征与高层特征相融合

络通用性扩展

深度可分离卷积

5×5分通道卷积1×1卷积融合各通道特征

空洞卷积(膨胀卷积)

局部输入不变感受野变大

计算范式

多维欧式空间局部空间响应卷积参数共享

卷积神经网络拓展至非欧空间

欧式空间非规则化连接—活性卷积

活性卷积 (CVPR ) --> 卷积核形状可变

如何卷积核形状可变

双线性插值:离散坐标下,可以通过插值方法计算得到连续位置的像素值可学习参数Δαk,Δβk\Delta \alpha_k,\Delta \beta_kΔαk​,Δβk​可变卷积核形状固定卷积核位置参数化双线性插值连续化传统BP算法训练

偏移示例

可变形卷积 (ICCV )3×3 可变形卷积 (N=9) ➢ 每个位置对应一个偏置偏置通过额外卷积学习每个偏置为二维向量

总结

欧式空间卷积神经网络

处理固定输入维度数据、局部输入数据必须有序语音、图像、视频(规则结构)满足以上两点要求

非欧式空间结构数据

局部输入维度可变局部输入排列无序

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。