zoukankan      html  css  js  c++  java
  • NLP常见面试问题总结:Word2Vec、LSTM、BERT等

    我是集训营的学员,我大致分享一下遇到的面试题
    1. 基础的数据结构:插入排序、选择排序 (记下时间复杂度), 链表新增、删除,二叉树的遍历,其他场景算法题大多出自leetcode
    2. 逻辑回归损失是什么, 手动推导一遍
    3. 对集成学习, SVM的理解,以公式的形式写出来最好
    4. 对HMM ,CRF的理解, CRF的损失函数什么,维特比算法的过程
    5. 手写一个tfids
    6. word2vec的CBOW与SkipGram模型及两种训练方式(负采样层级softmax), 两种训练方式的区别和应用场景,
    7.word2vec和fasttext的区别, 训练word2vec的有哪些重要参数
    8. LSTM的单元结构图和6个公式要记住
    9. 有几种Attention, Attention和self-Attention是具体怎么实现的,对应什么场景
    10. BERT的模型架构,多少层,什么任务适合bert,什么任务不适合,应用在你写的项目改怎么做
    11. tensorflow手写一个卷积代码, BILSTM + CRF模型的原理,记住常用基础api(比如jieba添加默认词典api,分词api)
    12. 问项目阶段, 会问数据集怎么得到、模型的训练、怎么部署、项目人员周期,开发中出现问题怎么解决等

     

     

     

     

     

     

  • 相关阅读:
    python获取DBLP数据集
    GNUPLOT 画多组柱状图 以及 折线图 以及各种问题的解决方案
    Leetcode 1:two sum
    测试面试之如何测试一个杯子
    C++小总结
    统计‘1’的个数
    C语言小总结
    剑指offer面试题1---赋值运算符函数
    黑盒测试与白盒测试
    软件测试的原则
  • 原文地址:https://www.cnblogs.com/kpwong/p/13586343.html
Copyright © 2011-2022 走看看