找回密码
 立即注册
搜索
查看: 17|回复: 0

卷积神经网络在图像分析处理中的应用及神经网络模型构建难点

[复制链接]

9420

主题

0

回帖

2万

积分

管理员

积分
28470
发表于 5 天前 | 显示全部楼层 |阅读模式
卷积神经网络(CNN)的主要应用领域是图像分析和处理,例如面部识别,对象识别等。

神经网络的总体理解构建了神经网络模型,包括许多权重和偏差参数,使用数据训练模型,反向传播优化了参数,以使损耗函数最小化最佳性能模型参数

其中,构建神经网络模型是由人们决定的,有几个隐藏的层,每个隐藏的层都包含许多神经元节点。这些不是固定的。很难根据人类的经验以及反复试验找到合适的模型。也有一些机器独立构建模型的技术,但并不受欢迎。

神经元模型

示意图如下:

其中f是激活函数()

多层网络

多层进发神经网络(多层)

什么是完全:

完全连接,上一层中的每个神经元都连接到下一层的每个神经元

意义:

馈电神经网络,从输入特征向量向前,通过隐藏层获得输出

隐藏层和输出层都是具有激活功能的功能神经元。

梯度下降

对相关概念的理解

梯度下降算法如下

其中θt是T迭代时的参数值,α是学习率(速率),部分衍生化符号的一部分是梯度。

注意:



通过该公式,我们可以发现梯度下降算法首先需要计算所有训练样本的损耗函数,将损耗函数的梯度计算为参数,然后采取平均值,最后更新梯度。算法中所有训练样本损失函数的计算和梯度的解可以平行,并且可以充分利用处理器并行计算的优势。

随机梯度下降算法如下

读取算法可以发现,随机梯度下降算法一次仅选择一个训练样本,计算损耗函数,计算梯度,然后更新参数。由于一次只选择一个训练样本,因此一次更新参数,因此无法利用处理器并行计算的优势。与梯度下降算法相比,随机梯度下降算法的优势是

我们想要一种方法,不仅可以提高权重参数的性能,还可以利用并行计算的优势并减少开销时间。

迷你批次

将几个培训样本分为一组

考虑到随机梯度下降的点,梯度下降和随机梯度下降之间的折衷也可以提高训练效率

小批量随机梯度下降算法,其中k为批量。为了提高计算效率,通常将其设置为2N

反向传播(西瓜书运输)

误差逆传播(BP),BP算法基于梯度下降策略

示例网络结构如下图所示。在这里,我们仅将一个权重参数从隐藏层到输出层的示例。

理解反向传播

过度拟合

神经网络的拟合能力太强,可能会严格拟合训练集上的每个数据,但是测试集上的性能并不令人满意。



解决方案:早期停止(早期),正则化()

提早停止:在训练期间,检测模型在训练数据集和测试数据集中的性能。如果训练集上的性能很好,但是测试集的性能会降低,则可能会发生过度拟合。找到关键点并停止训练。

正则化:添加用于描述成本函数中网络复杂性的部分

为什么卷积神经网络(CNN)提出CNN

对于图像处理,如果使用了传统的完全连接的神经网络模型,则将面临的问题包括

要将图像扩展到向量中,需要一个非常大的重量矩阵(参数),例如:64 * 64 * 3的图像,该图像作为输入扩展到12288维矢量中。假设隐藏层中有100个神经元,则完整连接所需的重量矩阵为,而64 * 64 * 3只是一个相对较小的图像,仅考虑一个隐藏层。试想一下,图像为1000 * 1000 * 3,隐藏的层神经元为1000,并且有多个隐藏层...在这种情况下,传统神经网络模型所需的参数非常非常大。很难获得足够的数据以避免过度拟合神经网络。计算量和内存要求的挑战

简而言之,对于计算机视觉,由于参数太多,传统神经网络的使用是不可行的。为了解决传统神经网络在计算机视觉中的不良表现,提出了卷积神经网络。

什么是CNN

简单的理解:

直接将图片用作输入矩阵,确定卷积内核(过滤器),在图片上执行卷积操作,然后获得矩阵。该矩阵可以帮助我们提取图片的某些功能,然后从图片中获取所需的信息。卷积操作是将卷积内核用作具有特定步长的矩阵中执行产品的窗口。显然,确定卷积内核是提取图像特征的关键。卷积神经网络使用卷积内核作为参数,并通过大量数据训练卷积内核。根据图片中所需的功能信息,它实现了某个计算机视觉目标。

卷积的过程

输入图像为7 * 7 * 3,3通道RGB图像

为每个通道指定卷积内核,卷积内核的大小为3*3。对于整个图像,卷积内核为3*3*3,即滤波器(),并且滤波器在图像上应用卷积,并添加偏置以获得特征映射。

请注意此处的计算详细信息,X0 * W0 + X1 * W1 + X2 * W2 + B0 = O0

相关概念特征映射原始图片在卷积内核的动作下生成特征图。卷积内核可以具有多卷积结果计算公式。

合并

合并是为了压缩特征值并减少数据大小,同时保留图像特征。

卷积后的最大池,选择特定区域中特征图的最大值

完全连接

它等同于传统的神经网络层。首先将通过卷积合并获得的结果扩展到1*N向量,与要分类的向量相对应。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|【科创星域】 ( 京ICP备20013102号-15 )

GMT+8, 2025-5-5 00:58 , Processed in 0.211428 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表