zoukankan      html  css  js  c++  java
  • 2021年9月科大讯飞-cv方向面试题6道

    1、 常见的attention机制,说明channel attention 和 self attention 的原理

    答:

    self-attention、channel attention、spatial attention、multi-head attention、transformer

    自注意力机制是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。

    1.ce loss 的公式,说完了问BCE loss,就纯背公式

    sigmoid 和 softmax,BCE与CE loss function_阿猫的自拍的博客-CSDN博客_ce loss

    2、triplet loss的训练要注意什么

    答:

    构造类内差异大、类间差异小的数据集

    3、softmax求导

    答:

    4、KL散度,

    答:

    KL散度可以用来衡量两个概率分布之间的相似性,两个概率分布越相近,KL散度越小

    5、检测模型里为啥用smoothL1去回归bbox

    答:

    从上面的导数可以看出,L2 Loss的梯度包含 (f(x) - Y),当预测值 f(x) 与目标值 Y 相差很大时,容易产生梯度爆炸,而L1 Loss的梯度为常数,通过使用Smooth L1 Loss,在预测值与目标值相差较大时,由L2 Loss转为L1 Loss可以防止梯度爆炸。

    6、前沿的检测范式DETR,transformer等等

    答:

    与传统的计算机视觉技术不同,DETR将目标检测作为一个直接的集合预测问题来处理。它由一个基于集合的全局损失和一个Transformer encoder-decoder 结构组成,该全局损失通过二分匹配强制进行唯一预测。给定固定的学习对象查询集,则DETR会考虑对象与全局图像上下文之间的关系,以直接并行并行输出最终的预测集。由于这种并行性,DETR非常快速和高效。

    微信公众账号:七月在线实验室(会持续输出:Python、机器学习、深度学习、CV、NLP、金融风控、推荐系统实战等人工智能领域干货、面试题等,不定期免费送技术书籍及课程给大家。) 网站:http://www.julyedu.com/?utm_source=bky&utm_medium=1&utm_campaign=1&utm_content=1&utm_term=1 (随时随地刷题、免费学习人工智能课程)
  • 相关阅读:
    shell脚本修改Linux系统中所有IP样例
    关闭并卸载数据库脚本
    查询编译不通过的存储过程并重新编译
    SQL函数造数据样例(一)
    类型转换和多态
    Java学习笔记(三)
    Java学习笔记二()
    Java学习笔记(一)
    1.2.零宽断言
    1.3.匹配小括号的字符(可能有小括号在一行的,也有多行的)
  • 原文地址:https://www.cnblogs.com/julyedu/p/15331049.html
Copyright © 2011-2022 走看看