首页 试题详情
判断题

注意力机制的非线性激活函数常用tanh

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 判断题

    注意力机制非线性激活函数常用tanh

    答案解析

  • 判断题

    传统神经网络常用激活函数是sigmoid与tanh

    答案解析

  • 单选题

    循环神经网最常用激活函数tanh,除了tanh还可以使用:①.relu②.sigmoid③.softmax④.完全不使用激活函数

    答案解析

  • 判断题

    多层非线性映射(multi-layernonlinearprojection):表示深度学习网络隐层,DSSM使用三个全连接层,每一层神经元个数是300,然后最后一层维度是128维度,激活函数采用tanh

    答案解析

  • 单选题

    卷积神经网络经常使用激活函数有好几种:()、tanh函数、ReLu函数、LeakyReLu函数、PReLu函数等。

    答案解析

热门题库