《深度学习及其应用•复旦大学》学习笔记(5) 您所在的位置:网站首页 神经网络算法笔记 《深度学习及其应用•复旦大学》学习笔记(5)

《深度学习及其应用•复旦大学》学习笔记(5)

2023-05-10 16:13| 来源: 网络整理| 查看: 265

第五单元 循环神经网络

1.有关循环神经网络(RNN)的说法,以下哪个说法是错误的(RNN的隐层神经元的输入包括其历史各个时间点的输出)。

2.以下哪种方法不宜作为循环神经网络的词嵌入(编码)方法(字符转化为ASCII码)。

3.以下哪个应用不适合使用循环神经网络完成(从一张合影照片找到特定的人)。

4.‍当时序数据比较长时,循环神经网络(RNN)容易产生长距离依赖问题,对此以下哪个说法是错误的(可以使得网络记忆更多的训练样本信息)。

5.针对深度学习的梯度消失问题,哪种因素可能是无效的(减少输入层词嵌入向量维度)。

6.长短期记忆神经网络遗忘门的作用是以下哪项(使用Sigmoid函数控制上一时刻的状态向量对当前时刻的影响)。

7.长短期记忆网络(LSTM)中输入门的作用是以下哪项(控制当前时刻新输入信息的接受程度)。

8.在长短期记忆网络(LSTM)中,输出门的作用是以下哪项(控制状态变量的输出)。

9.比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的(GRU的性能一般远强于LSTM)。

10.有关双向循环神经网络(Bi-LSTM)的说法,下面哪个说法是错误的(Bi-LSTM是2个LSTM的简单组合)。

11.以下哪些场景可以使用循环神经网络(B.看图说话C.股票走势预测D.计算机写诗)。

12.有关循环神经网络(RNN)的理解,以下哪些说法是正确的(B.对于只有在最后一个时刻有输出的RNN,可以拟合输入的时序数据之间的关系对应的类别,例如微博用户有关某事件的情感分析C.某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系D.某个时刻t输入和输出之间的关系可以通过隐层神经元拟合)。

13.以下说法错误的有哪些(A.类似VGG、GoogLeNet等网络,AlexNet采用了卷积块的结构。B.为了获得不同尺度的特征,GoogLeNet采用了1X1,3X3,7X7等不同尺度的卷积核。C.ResNet卷积神经网络使用了批量标准化(BN)增加了网络的训练稳定性,并像VGG算法利用了skip链接减少信息的损失)。

14.循环神经网络一般可以有效处理以下哪些序列数据(A.随时间变化的数值型参数C.文本数据D.声音)。

15.循环神经网络的损失函数是所有时刻的输出误差之和(正确)。

16.长短期记忆网络(LSTM)通过遗忘门减少一般循环神经网络(RNN)的短期记忆不足,但增加算法的计算复杂度(正确)。

17.循环神经网络的深度是由RNN cell的时刻数量,或者是隐层的数量确定的,2种说法都有一定的道理(正确)。

18.循环神经网络(RNN)每一个时间步之间的迁移中使用了共享参数(权重等),与前馈神经网络比较更不容易引起梯度消失问题(错误)。

19.与卷积神经网络不同,循环神经网络因为固有的时序性,很难在GPU上做并行训练(正确)。

20.AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh(错误)。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有