首页 文章

具有softmax激活的神经网络

提问于
浏览
2

编辑:

一个更尖锐的问题:在我的梯度下降中使用softmax的导数是什么?


这或多或少是一门课程的研究项目,我对NN的理解非常/非常有限,所以请耐心等待:)


我目前正在 Build 一个神经网络,试图检查输入数据集并输出每个分类的概率/可能性(有5种不同的分类) . 当然,所有输出节点的总和应该加起来为1 .

目前,我有两层,我设置隐藏层包含10个节点 .

我想出了两种不同类型的实现

  • 用于隐藏层激活的Logistic sigmoid,用于输出激活的softmax

  • Softmax用于隐藏层和输出激活

我使用梯度下降来找到局部最大值,以便调整隐藏节点' weights and the output nodes'权重 . 我确信我对sigmoid有正确的看法 . 我不太确定softmax(或者我是否可以使用梯度下降),经过一些研究后,我找不到答案并决定自己计算导数并获得 softmax'(x) = softmax(x) - softmax(x)^2 (这会返回一个大小为n的列向量) ) . 我还研究了MATLAB NN工具包,工具包提供的softmax的派生返回了一个大小为nxn的方阵,其中对角线与我手工计算的softmax'(x)一致;我不知道如何解释输出矩阵 .

我运行每个实现,学习率为0.001和1000次反向传播 . 但是,对于输入数据集的任何子集,我的NN为所有五个输出节点返回0.2(均匀分布) .

我的结论:

  • 我相当确定我的下降梯度不正确,但我不知道如何解决这个问题 .

  • 也许我没有使用足够的隐藏节点

  • 也许我应该增加层数

任何帮助将不胜感激!

我正在使用的数据集可在此处找到(已处理克利夫兰):http://archive.ics.uci.edu/ml/datasets/Heart+Disease

3 回答

  • 0

    您使用的渐变实际上与平方误差相同:输出 - 目标 . 这可能看起来令人惊讶,但诀窍是最小化了不同的错误函数:

    softmax error

    (- \sum^N_{n=1}\sum^K_{k=1} t_{kn} log(y_{kn}))
    

    其中log是自然对数,N表示训练样本的数量,K表示类的数量(以及输出层中的单位) . t_kn描述了第n训练示例中第k类的二进制编码(0或1) . y_kn相应的网络输出 .

    显示渐变是正确的可能是一个很好的练习,但我自己并没有这样做 .

    对于您的问题:您可以通过数值微分来检查渐变是否正确 . 假设你有一个函数f和f和f'的实现 . 那么以下应该成立:

    numerical gradient of the softmax

    (f'(x) = \frac{f(x - \epsilon) - f(x + \epsilon)}{2\epsilon} + O(\epsilon^2))
    
  • 0

    请查看sites.google.com/site/gatmkorn以获取开源Desire模拟程序 . 对于Windows版本,/ mydesire / neural文件夹有几个softmax分类器,一些具有softmax特定的梯度下降算法 .

    在示例中,这适用于简单的字符识别任务 .

    ASee也

    Korn,G.A . :高级动态系统仿真,Wiley 2007

    GAK

  • 5

    看看链接:http://www.youtube.com/watch?v=UOt3M5IuD5s softmax衍生物是:dyi / dzi = yi *(1.0 - yi);

相关问题