题目
卷积神经网络中,ReLU激活函数的主要作用是:( )A. 提取图像频域特征B. 引入非线性并抑制负值响应C. 生成概率分布输出D. 实现特征降维
卷积神经网络中,ReLU激活函数的主要作用是:( ) A. 提取图像频域特征 B. 引入非线性并抑制负值响应 C. 生成概率分布输出 D. 实现特征降维
题目解答
答案
B
解析
ReLU激活函数是卷积神经网络中常用的非线性激活函数,其核心作用在于引入非线性,使模型能够学习复杂模式。此外,ReLU通过将负数输入置零,抑制负值响应,从而加速训练并缓解梯度消失问题。本题需明确区分不同激活函数的功能,避免混淆频域特征、概率输出等其他概念。
选项分析
A. 提取图像频域特征
频域特征通常与傅里叶变换或特定滤波器相关,而非ReLU本身的功能。ReLU仅负责非线性变换,不直接处理频域信息。
B. 引入非线性并抑制负值响应
正确。ReLU通过$f(x)=\max(0,x)$引入非线性(打破线性叠加),同时将负值置零,减少神经元的激活强度,加速收敛。
C. 生成概率分布输出
此功能通常由Softmax等归一化函数实现,而非ReLU。ReLU输出非负实数,不保证概率分布。
D. 实现特征降维
特征降维需通过矩阵分解(如PCA)或自编码器等方法,与激活函数无关。