2018校招笔试题-图像算法工程师(深度学习)B卷

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2018校招笔试题-图像算法工程师(深度学习)B 卷

一. 问答题

1. 测试集中1000个样本,600个是A 类,400个B 类,模型预测结果700个判断为A 类,其中正确的有500 个,300个判断为B 类,其中正确的有200个。请计算B 类的准确率(Precision)和召回率(Recall).

2. 简述:A)训练模型时,如果样本类别不均衡,有什么办法解决? B)如何判断模型是否过拟合? C)对于神经网络模型有哪些常用方法解决过拟合问题?

3. 简述:A)神经网络节点的激活函数作用是什么? B)Sigmoid, relu 和softmax 激活函数表达式是什么? C)各自的作用优缺点是什么?

4.给定多层全连接神经网络,每层均有n 个节点,输出层为第L 层,标签是y ,损失函数为均方误差。网络的第l 层( l ∈{1,2,…,L -1,L} )的第j 个节点的输入用 x j l 来表示,输出用 a j l 来表示,激励函数为f(x)。A)请写出损失函数C 的表达式;

B)请推导采用SGD 训练,学习率为η时,第L-1层第i 个节点与输出层第j 个节点的连接权重 w ji (L-1) 的更新量w ji (L-1)

A)包括不限于:1.数据增强,2. Weighted loss ,3. 采样使用部分负样本

B)训练集loss 低于验证集loss 很多;

C)包括不限于:1. 正则化项,2. Dropout , 3. Batch normalization

A)激活函数是为了增强神经网络的非线性性;

B) C)Sigmoid 函数可以增强0附近的梯度,放大信号,梯度计算方便,但对非敏感区域会饱和,造成梯度消失; Relu 函数为单侧抑制,增强

5.Design a three layer neural network whose decision boundary is show in figure, The gray region belongs to class 1, and other region belongs to class 0, Show your network structure, weights and nonlinear activation function.

6. 请计算VGG19的模型大小与计算量大小(输入RGB图片大小为224x224);并指出对其进行模型压缩的思路,模型结构如图所示:

7. 实现一个卷积层的forward 函数,输入map 的shape 为[w, h, ci],卷积核shape 为[k,k,ci,co], padding 大小为p 的zero-padding ,stride 为1,可以使用C++/Python/Matlab 语言。

相关文档
最新文档