卷积神经网络(CNN)卷积神经网络(CNN)是一种深度学习架构,广泛应用于图像处理、视觉识别等领域。它包括以下几个核心组成部分:INPUT(输入层):接收原始图像数据,如32 32 3的RGB图像。CONV(卷积层):使用卷积核提取图像特征。RELU(激活函数):引入非线性因素,提高模型的表达能力。POOL(池化层):压缩特征,降低维度。FC(全连接层):将学到的“特征”映射到样本的标记空间。卷积层(CONV)卷积层的主要作用是特征提取。主要参数包括:滑动窗口步长:控制卷积核移动的步长。卷积核尺寸:定义了卷积核的大小,如5 5 3。填充边缘(Padding):在图像边缘添加零,...
The Pooling Step(池化)空间池化(也称为子采样或下采样)减少了每个特征图的维度,但保留了最重要的信息。空间池可以有不同的类型:Max、Average、Sum 等。在最大池化的情况下,我们定义一个空间邻域(例如,2×2 窗口)并从该窗口内的校正特征图中获取最大元素。我们也可以取该窗口中所有元素的平均值(平均池化)或总和,而不是取最大的元素。在实践中,最大池化已被证明效果更好。我们将 2 x 2 窗口滑动 2 个单元格(也称为“步幅”)并获取每个区域中的最大值。如图 10所示,这减少了特征图的维数。在图 11所示的网络中 , 池化操作分别应用于每个特征图(请注意,因此,我们从...
什么是卷积神经网络以及它们为何重要?卷积神经网络(ConvNet或CNN )是神经网络的一类,已被证明在图像识别和分类等领域非常有效。除了为机器人和自动驾驶汽车的视觉提供动力之外,卷积网络还成功地识别了人脸、物体和交通标志。LeNet 架构(20 世纪 90 年代)LeNet 是最早的卷积神经网络之一,有助于推动深度学习领域的发展。Yann LeCun 的这项开创性工作 自 1988 年以来经过多次成功迭代后被命名为LeNet5 [ 3 ]。当时LeNet架构主要用于字符识别任务,例如读取邮政编码、数字等。下面,我们将直观地了解 LeNet 架构如何学习识别图像。近年来提出了几种新的架构...
正则化:约束连接权重约束连接权重:L2正则化:添加一个与连接权重的L2范数相对应的损失项L1正则化:添加一个与连接权重的L1范数相对应的损失项=> 倾向于稀疏连接权重(即更多接近0的连接权重)正则化因子:控制添加多少正则化Keras示例:(l2可以改为l1,0.01是正则化因子)model.add(keras.layers.Dense(300, activation="relu", kernel_regularizer=keras.regularizers.l2(0.01)))正则化是一种用于防止机器学习模型过拟合的技术。过拟合发生在模型对训练数据学得“太好”,...