天天看点

sigmoid、softmax和交叉熵损失函数

这几个概念看似简单,但很多人应该还是模模糊糊,并没有十分搞清楚,主要疑惑的点应该就是下面几个问题。

  • 1.sigmoid和softmax的关系?

    参考

  • 2.二分类时,最后的输出层应该是1个神经元还是2个神经元?

    参考

  • 3.多分类包括了两种(单标签多分类,例如常见的mnist十分类,每一个样本都只可能属于0-9中的其中一个,多标签多分类,一个样本可以属于多个标签)

    参考

继续阅读