task | 名称 | 链接 |
---|---|---|
task01 | 线性回归 | https://www.cnblogs.com/yu212223/p/12309586.html |
task01 | softmax和分类模型 | https://www.cnblogs.com/yu212223/p/12309730.html |
task01 | 多层感知机 | https://www.cnblogs.com/yu212223/p/12309551.html |
task02 | 文本预处理 | https://www.cnblogs.com/yu212223/p/12309780.html |
task02 | 语言模型与数据集 | https://www.cnblogs.com/yu212223/p/12309916.html |
task02 | 循环神经网络 | https://www.cnblogs.com/yu212223/p/12309964.html |
task03 | 过拟合、欠拟合及其解决方案 | https://www.cnblogs.com/yu212223/p/12327996.html |
task03 | 梯度消失、梯度爆炸 | https://www.cnblogs.com/yu212223/p/12328053.html |
task03 | 循环神经网络进阶 | https://www.cnblogs.com/yu212223/p/12328095.html |
task04 | 机器翻译及相关技术 | https://www.cnblogs.com/yu212223/p/12328172.html |
task04 | 注意力机制与Seq2seq模型 | https://www.cnblogs.com/yu212223/p/12333983.html |
task04 | Transformer | https://www.cnblogs.com/yu212223/p/12334027.html |
task05 | 卷积神经网络基础 | https://www.cnblogs.com/yu212223/p/12334064.html |
task05 | 卷积神经网络进阶 | https://www.cnblogs.com/yu212223/p/12334060.html |