高级激活层
LeakyReLU
1 | keras.layers.LeakyReLU(alpha=0.3) |
带泄漏的修正线性单元。
返回值:当神经元未激活时,它仍可以赋予其一个很小的梯度
x < 0
:alpha * x
x >= 0
:x
输入尺寸
- 可以是任意的。如果将该层作为模型的第一层,需要指定
input_shape
参数(整数元组,不包含样本数量的维度)
- 可以是任意的。如果将该层作为模型的第一层,需要指定
输出尺寸:与输入相同
参数
alpha
:float >= 0
,负斜率系数。
参考文献
PReLU
1 | keras.layers.PReLU( |
参数化的修正线性单元。
返回值
x < 0
:alpha * x
x >= 0
:x
参数
alpha_initializer
: 权重的初始化函数。alpha_regularizer
: 权重的正则化方法。alpha_constraint
: 权重的约束。shared_axes
: 激活函数共享可学习参数的轴。 如果输入特征图来自输出形状为(batch, height, width, channels)
的2D卷积层,而且你希望跨空间共享参数,以便每个滤波 器只有一组参数,可设置shared_axes=[1, 2]
参考文献
ELU
1 | keras.layers.ELU(alpha=1.0) |
指数线性单元
返回值
x < 0
:alpha * (exp(x) - 1.)
x >= 0
:x
参数
alpha
:负因子的尺度。
参考文献
ThresholdedReLU
1 | keras.layers.ThresholdedReLU(theta=1.0) |
带阈值的修正线性单元。
返回值
x > theta
:x
x <= theta
:0
参数
theta
:float >= 0
激活的阈值位。
参考文献
Softmax
1 | keras.layers.Softmax(axis=-1) |
Softmax激活函数
- 参数
axis
: 整数,应用 softmax 标准化的轴。
ReLU
1 | keras.layers.ReLU(max_value=None) |
ReLU激活函数
- 参数
max_value
:浮点数,最大的输出值。