# Sigmoid 函数

SigmoidSigmoid 函数是一种常用的激活函数,数学表达式是

σ(x)=11+ex\sigma(x)=\frac{1}{1+e^{-x}}

  • 在二分类任务中,将输出转换为概率
  • 在神经网络中,作为隐藏层或输出层的激活函数

py
1
2
def sigmoid(x):
return 1 / (1 + cp.exp(-x))

# Softmax 函数

SoftmaxSoftmax 函数是多分类问题中常用的激活函数,可以把一组实数转换成概率分布,输出在 0011 之间,数学公式是

Softmax(xi)=exijexjSoftmax(x_i)=\frac{e^{x_i}}{\sum_j{e^{x_j}}}

  • 一般用来计算结果,比如 090 \to 9 数字识别的时候,转换后可以算出每个类别的概率,进而实现预测

py
1
2
3
4
def softmax(x):
x = x - cp.max(x, axis=-1, keepdims=True)
ex = cp.exp(x)
return ex / cp.sum(ex, axis=-1, keepdims=True)

# 交叉熵损失函数

交叉熵是常用的损失函数之一(特别是在分类问题中),它用来衡量预测概率分布 yy 与真实分布 tt 之间的差异,数学公式为

L=itilog(yi)L=-\sum_i{t_i}\log{(y_i)}

  • tit_i 是真实标签的第 ii 个元素(0011
  • yiy_i 是预测结果的第 ii 个元素(由 SoftmaxSoftmax 函数输出)
更新于 阅读次数

请我喝[茶]~( ̄▽ ̄)~*

duoxichangan 微信支付

微信支付

duoxichangan 支付宝

支付宝