zoukankan      html  css  js  c++  java
  • 從文本到視覺:各領域最前沿的論文集合

    選自GitHub

    作者:Simon Brugman

    參與:吳攀

    深度學習已經在語音識別、機器翻譯、圖像目標檢測和聊天機器人等許多領域百花齊放。近日,GitHub 用戶 Simon Brugman 發布了一個按任務分類的深度學習論文項目,其按照不同的任務類型列出了一些當前最佳的論文和對起步有用的論文。

    目錄

    1. 文本

    1.1. 代碼生成(Code Generation)

    1.2. 情感分析(Sentiment Analysis)

    1.3. 翻譯(Translation)

    1.4. 分類(Classification)

    2. 視覺

    2.1. 遊戲(Gaming)

    2.2. 風格遷移(Style Transfer)

    2.3. 跟踪(Tracking)

    2.4. 圖像分割(Image Segmentation)

    2.5. 室外的文本識別(Text (in the Wild) Recognition)

    2.6. 腦機接口(Brain Computer Interfacing)

    2.7. 自動駕駛汽車(Self-Driving Cars)

    2.8. 目標識別(Object Recognition)

    2.9. 標識識別(Logo Recognition)

    2.10. 超分辨率(Super Resolution)

    2.11. 姿態估計(Pose Estimation)

    2.12. 圖像描述(Image Captioning)

    2.13. 圖像壓縮(Image Compression)

    2.14. 圖像合成(Image Synthesis)

    2.15. 面部識別(Face Recognition)

    3. 音頻

    3.1. 音頻合成(Audio Synthesis)

    4. 其它

    4.1. 未分類

    4.2. 正則化(Regularization)

    4.3. 神經網絡壓縮(Neural Network Compression)

    4.4. 優化器(Optimizers)

    文本

    代碼生成(Code Generation)

    1.A Syntactic Neural Model for General-Purpose Code Generation

    時間:2017 年 4 月 6 日

    地址:https://arxiv.org/pdf/1704.01696

    2.RobustFill: Neural Program Learning under Noisy I/O

    時間:2017 年 3 月 21 日

    地址:https://arxiv.org/pdf/1703.07469

    解讀:《微軟RobustFill:無需編程語言,讓神經網絡自動生成程序》

    3.DeepCoder: Learning to Write Programs

    時間:2016 年 11 月 7 日

    地址:https://arxiv.org/pdf/1611.01989

    解讀:《學界 | 劍橋與微軟提交ICLR 2017論文提出DeepCoder:組合其它程序代碼生成新程序》

    4.Neuro-Symbolic Program Synthesis

    時間:2016 年 11 月 6 日

    地址:https://arxiv.org/pdf/1611.01855

    情感分析(Sentiment Analysis)

    1.Rationalizing Neural Predictions

    時間:2016 年 6 月 13 日

    地址:https://arxiv.org/pdf/1606.04155

    2.Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank

    時間:2013 年 10 月 18 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/recursive-deep-models-for-semantic-compositionality-over-a-sentiment-treebank.pdf

    翻譯(Translation)

    1.Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation

    時間:2016 年 11 月 14 日

    地址:https://arxiv.org/pdf/1611.04558

    解讀:《重磅 | 谷歌神經機器翻譯再突破:實現高質量多語言翻譯和zero-shot翻譯(附論文)》

    2.Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation

    時間:2016 年 9 月 26 日

    地址:https://arxiv.org/pdf/1609.08144

    解讀:《重磅 | 谷歌翻譯整合神經網絡:機器翻譯實現顛覆性突破(附論文)》

    分類(Classification)

    1.A Simple but Tough-to-Beat Baseline for Sentence Embeddings

    時間:2016 年 11 月 4 日

    地址:https://openreview.net/pdf?id=SyK00v5xx

    2.From Word Embeddings To Document Distances

    時間:2016 年 7 月 6 日

    地址:http://proceedings.mlr.press/v37/kusnerb15.pdf

    3.Character-level Convolutional Networks for Text Classification

    時間:2015 年 9 月 4 日

    地址:https://arxiv.org/pdf/1509.01626

    4.GloVe: Global Vectors for Word Representation

    時間:2015 年 5 月 25 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/glove-global-vectors-for-word-representation.pdf

    5.Distributed Representations of Sentences and Documents

    時間:2014 年 5 月 16 日

    地址:https://arxiv.org/pdf/1405.4053

    6.Efficient Estimation of Word Representations in Vector Space

    時間:2013 年 1 月 16 日

    地址:https://arxiv.org/pdf/1301.3781

    視覺

    遊戲(Gaming)

    1.Phase-Functioned Neural Networks for Character Control

    時間:2017 年 5 月 1 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/phase-functioned-neural-networks-for-character-control.pdf

    2.Equivalence Between Policy Gradients and Soft Q-Learning

    時間:2017 年 4 月 21 日

    地址:https://arxiv.org/pdf/1704.06440

    3.Beating Atari with Natural Language Guided Reinforcement Learning

    時間:2017 年 4 月 18 日

    地址:https://arxiv.org/pdf/1704.05539

    4.Learning from Demonstrations for Real World Reinforcement Learning

    時間:2017 年 4 月 12 日

    地址:https://arxiv.org/pdf/1704.03732

    5.FeUdal Networks for Hierarchical Reinforcement Learning

    時間:2017 年 3 月 3 日

    地址:https://arxiv.org/pdf/1703.01161

    6.Overcoming catastrophic forgetting in neural networks

    時間:2016 年 12 月 2 日

    地址:https://arxiv.org/pdf/1612.00796

    解讀:《為機器賦予記憶:DeepMind重磅研究提出彈性權重鞏固算法》

    7.DeepChess: End-to-End Deep Neural Network for Automatic Learning in Chess

    時間:2015 年 8 月 16 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/deepchess-end-to-end-deep-neural-network-for-automatic-learning-in-chess.pdf

    8.Dueling Network Architectures for Deep Reinforcement Learning

    時間:2015 年 11 月 20 日

    地址:https://arxiv.org/pdf/1511.06581

    9.Human-level control through deep reinforcement learning

    時間:2015 年 2 月 26 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/human-level-control-through-deep-reinforcement-learning.pdf

    10.Playing Atari with Deep Reinforcement Learning

    時間:2013 年 12 月 19 日

    地址:https://arxiv.org/pdf/1312.5602

    風格遷移(Style Transfer)

    1.Deep Photo Style Transfer

    時間:2017 年 3 月 22 日

    地址:https://arxiv.org/pdf/1703.07511

    解讀:《資源 | 下一代PS工具:Adobe照片級圖像風格轉換的Torch實現》

    2.Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization

    時間:2017 年 3 月 20 日

    地址:https://arxiv.org/pdf/1703.06868

    開源項目:https://github.com/xunhuang1995/AdaIN-style

    3.A Learned Representation For Artistic Style

    時間:2016 年 10 月 24 日

    地址:https://arxiv.org/pdf/1610.07629

    4.Instance Normalization: The Missing Ingredient for Fast Stylization

    時間:2016 年 7 月 27 日

    地址:https://arxiv.org/pdf/1607.08022

    5.Perceptual Losses for Real-Time Style Transfer and Super-Resolution

    時間:2016 年 3 月 27 日

    地址:https://arxiv.org/pdf/1603.08155

    開源項目:http://github.com/jcjohnson/fast-neural-style

    6.A Neural Algorithm of Artistic Style

    時間:2015 年 8 月 26 日

    地址:https://arxiv.org/pdf/1508.06576

    開源項目:https://github.com/lengstrom/fast-style-transfer/

    跟踪(Tracking)

    1.End-to-end representation learning for Correlation Filter based tracking

    時間:2017 年 4 月 20 日

    地址:https://arxiv.org/pdf/1704.06036

    開源項目:https://github.com/bertinetto/cfnet

    圖像分割(Image Segmentation)

    1.SfM-Net: Learning of Structure and Motion from Video

    時間:2017 年 4 月 25 日

    地址:https://arxiv.org/pdf/1704.07804

    2.Mask R-CNN

    時間:2017 年 3 月 20 日

    地址:https://arxiv.org/pdf/1703.06870

    解讀:《學界 | Facebook新論文提出通用目標分割框架Mask R-CNN:更簡單更靈活表現更好》和《深度 | 用於圖像分割的捲積神經網絡:從R-CNN到Mark R-CNN》

    3.Learning Features by Watching Objects Move

    時間:2016 年 12 月 19 日

    地址:https://arxiv.org/pdf/1612.06370

    4.Fully Convolutional Networks for Semantic Segmentation

    時間:2016 年 5 月 20 日

    地址:https://arxiv.org/pdf/1605.06211

    5.Instance-aware Semantic Segmentation via Multi-task Network Cascades

    時間:2015 年 12 月 14 日

    地址:https://arxiv.org/pdf/1512.04412

    6.Multi-Scale Context Aggregation by Dilated Convolutions

    時間:2015 年 11 月 23 日

    地址:https://arxiv.org/pdf/1511.07122

    7.SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation

    時間:2015 年 11 月 2 日

    地址:https://arxiv.org/pdf/1511.00561

    8.Learning Rich Features from RGB-D Images for Object Detection and Segmentation

    時間:2014 年 7 月 22 日

    地址:https://arxiv.org/pdf/1407.5736

    室外的文本識別(Text (in the Wild) Recognition)

    1.OCR Error Correction Using Character Correction and Feature-Based Word Classification

    時間:2016 年 4 月 21 日

    地址:https://arxiv.org/pdf/1604.06225

    2.Recursive Recurrent Nets with Attention Modeling for OCR in the Wild

    時間:2016 年 5 月 9 日

    地址:https://arxiv.org/pdf/1603.03101

    3.COCO-Text: Dataset and Benchmark for Text Detection and Recognition in Natural Images

    時間:2016 年 1 月 26 日

    地址:https://arxiv.org/pdf/1601.07140

    4.Efficient Scene Text Localization and Recognition with Local Character Refinement

    時間:2015 年 4 月 14 日

    地址:https://arxiv.org/pdf/1504.03522

    5.Reading Text in the Wild with Convolutional Neural Networks

    時間:2014 年 12 月 4 日

    地址:https://arxiv.org/pdf/1412.1842

    6.Synthetic Data and Artificial Neural Networks for Natural Scene Text Recognition

    時間:2014 年 6 月 9 日

    地址:https://arxiv.org/pdf/1406.2227

    腦機接口(Brain Computer Interfacing)

    1.Encoding Voxels with Deep Learning

    時間:2015 年 12 月 2 日

    地址:http://www.jneurosci.org/content/jneuro/35/48/15769.full.pdf

    2,Deep Neural Networks Reveal a Gradient in the Complexity of Neural Representations across the Ventral Stream

    時間:2015 年 7 月 8 日

    地址:http://www.jneurosci.org/content/jneuro/35/27/10005.full.pdf

    自動駕駛汽車(Self-Driving Cars)

    1.Computer Vision for Autonomous Vehicles: Problems, Datasets and State-of-the-Art

    時間:2017 年 4 月 18 日

    地址:https://arxiv.org/pdf/1704.05519

    解讀:《重磅 | 自動駕駛計算機視覺研究綜述:難題、數據集與前沿成果(附67頁論文下載)》

    2.End to End Learning for Self-Driving Cars

    時間:2016 年 4 月 25 日

    地址:https://arxiv.org/pdf/1604.07316

    目標識別(Object Recognition)

    1.Introspective Classifier Learning: Empower Generatively

    時間:2017 年 4 月 25 日

    地址:https://arxiv.org/pdf/1704.07816

    2.Learning Chained Deep Features and Classifiers for Cascade in Object Detection

    時間:2017 年 2 月 23 日

    地址:https://arxiv.org/pdf/1702.07054

    3.DSSD : Deconvolutional Single Shot Detector

    時間:2017 年 1 月 23 日

    地址:https://arxiv.org/pdf/1701.06659

    4.YOLO9000: Better, Faster, Stronger

    時間:2016 年 12 月 25 日

    地址:https://arxiv.org/pdf/1612.08242

    開源項目:https://github.com/pjreddie/darknet

    5.Feature Pyramid Networks for Object Detection

    時間:2016 年 12 月 9 日

    地址:https://arxiv.org/pdf/1612.03144

    6.Speed/accuracy trade-offs for modern convolutional object detectors

    時間:2016 年 11 月 30 日

    地址:https://arxiv.org/pdf/1611.10012

    7.Aggregated Residual Transformations for Deep Neural Networks

    時間:2016 年 11 月 16 日

    地址:https://arxiv.org/pdf/1611.10012

    8.Aggregated Residual Transformations for Deep Neural Networks

    時間:2016 年 11 月 16 日

    地址:https://arxiv.org/pdf/1611.05431

    9.Hierarchical Object Detection with Deep Reinforcement Learning

    時間:2016 年 11 月 11 日

    地址:https://arxiv.org/pdf/1611.03718

    10.Xception: Deep Learning with Depthwise Separable Convolutions

    時間:2016 年 10 月 7 日

    地址:https://arxiv.org/pdf/1610.02357

    11.Learning to Make Better Mistakes: Semantics-aware Visual Food Recognition

    時間:2016 年 10 月 1 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/learning-to-make-better-mistakes-semantics-aware-visual-food-recognition.pdf

    12.Densely Connected Convolutional Networks

    時間:2016 年 8 月 25 日

    地址:https://arxiv.org/pdf/1608.06993

    13.Residual Networks of Residual Networks: Multilevel Residual Networks

    時間:2016 年 8 月 9 日

    地址:https://arxiv.org/pdf/1608.02908

    14.Context Matters: Refining Object Detection in Video with Recurrent Neural Networks

    時間:2016 年 7 月 15 日

    地址:https://arxiv.org/pdf/1607.04648

    15.R-FCN: Object Detection via Region-based Fully Convolutional Networks

    時間:2016 年 5 月 20 日

    地址:https://arxiv.org/pdf/1605.06409

    16.Training Region-based Object Detectors with Online Hard Example Mining

    時間:2016 年 4 月 12 日

    地址:https://arxiv.org/pdf/1604.03540

    17.T-CNN: Tubelets with Convolutional Neural Networks for Object Detection from Videos

    時間:2016 年 4 月 9 日

    地址:https://arxiv.org/pdf/1604.02532

    18.Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning

    時間:2016 年 2 月 23 日

    地址:https://arxiv.org/pdf/1602.07261

    19.Deep Residual Learning for Image Recognition

    時間:2015 年 12 月 10 日

    地址:https://arxiv.org/pdf/1512.03385

    20.SSD: Single Shot MultiBox Detector

    時間:2015 年 12 月 8 日

    地址:https://arxiv.org/pdf/1512.02325

    21.ParseNet: Looking Wider to See Better

    時間:2015 年 6 月 15 日

    地址:https://arxiv.org/pdf/1506.04579

    22.You Only Look Once: Unified, Real-Time Object Detection

    時間:2015 年 6 月 8 日

    地址:https://arxiv.org/pdf/1506.02640

    23.Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

    時間:2015 年 6 月 4 日

    地址:https://arxiv.org/pdf/1506.01497

    24.Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

    時間:2015 年 2 月 6 日

    地址:https://arxiv.org/pdf/1502.01852

    25.Deep Image: Scaling up Image Recognition

    時間:2015 年 1 月 13 日

    地址:https://arxiv.org/pdf/1501.02876

    26.Rich feature hierarchies for accurate object detection and semantic segmentation

    時間:2013 年 11 月 11 日

    地址:https://arxiv.org/pdf/1311.2524

    27.Selective Search for Object Recognition

    時間:2013 年 3 月 11 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/selective-search-for-object-recognition.pdf

    28.ImageNet Classification with Deep Convolutional Neural Networks

    時間:2012 年 12 月 3 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/imagenet-classification-with-deep-convolutional-neural-networks.pdf

    標識識別(Logo Recognition)

    1.Deep Learning Logo Detection with Data Expansion by Synthesising Context

    時間:2016 年 12 月 29 日

    地址:https://arxiv.org/pdf/1612.09322

    2.Automatic Graphic Logo Detection via Fast Region-based Convolutional Networks

    時間:2016 年 4 月 20 日

    地址:https://arxiv.org/pdf/1604.06083

    3.LOGO-Net: Large-scale Deep Logo Detection and Brand Recognition with Deep Region-based Convolutional Networks

    時間:2015 年 11 月 8 日

    地址:https://arxiv.org/pdf/1511.02462

    4.DeepLogo: Hitting Logo Recognition with the Deep Neural Network Hammer

    時間:2015 年 10 月 7 日

    地址:https://arxiv.org/pdf/1510.02131

    超分辨率(Super Resolution)

    1.Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network

    時間:2016 年 9 月 16 日

    地址:https://arxiv.org/pdf/1609.05158

    2.Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

    時間:2016 年 9 月 15 日

    地址:https://arxiv.org/pdf/1609.04802

    3.RAISR: Rapid and Accurate Image Super Resolution

    時間:2016 年 6 月 3 日

    地址:https://arxiv.org/pdf/1606.01299

    4.Perceptual Losses for Real-Time Style Transfer and Super-Resolution

    時間:2016 年 3 月 27 日

    地址:https://arxiv.org/pdf/1603.08155

    開源項目:http://github.com/jcjohnson/fast-neural-style

    5.Image Super-Resolution Using Deep Convolutional Networks

    時間:2014 年 12 月 31 日

    地址:https://arxiv.org/pdf/1501.00092

    姿態估計(Pose Estimation)

    1.Forecasting Human Dynamics from Static Images

    時間:2017 年 4 月 11 日

    地址:https://arxiv.org/pdf/1704.03432

    2.Fast Single Shot Detection and Pose Estimation

    時間:2016 年 9 月 19 日

    地址:https://arxiv.org/pdf/1609.05590

    圖像描述(Image Captioning)

    1.Detecting and Recognizing Human-Object Interactions

    時間:2017 年 4 月 24 日

    地址:https://arxiv.org/pdf/1704.07333

    2.Deep Reinforcement Learning-based Image Captioning with Embedding Reward

    時間:2017 年 4 月 12 日

    地址:https://arxiv.org/pdf/1704.03899

    3.Generation and Comprehension of Unambiguous Object Deions

    時間:2015 年 11 月 7 日

    地址:https://arxiv.org/pdf/1511.02283

    4.Long-term Recurrent Convolutional Networks for Visual Recognition and Deion

    時間:2014 年 11 月 17 日

    地址:https://arxiv.org/pdf/1411.4389

    圖像壓縮(Image Compression)

    1.Full Resolution Image Compression with Recurrent Neural Networks

    時間:2016 年 8 月 18 日

    地址:https://arxiv.org/pdf/1608.05148

    解讀:《詳解谷歌神經網絡圖像壓縮技術:如何高質量地將圖像壓縮得更小》

    圖像合成(Image Synthesis)

    1.A Neural Representation of Sketch Drawings

    時間:2017 年 4 月 11 日

    地址:https://arxiv.org/pdf/1704.03477

    2.BEGAN: Boundary Equilibrium Generative Adversarial Networks

    時間:2017 年 3 月 31 日

    地址:https://arxiv.org/pdf/1703.10717

    開源項目:https://github.com/carpedm20/BEGAN-tensorflow

    3.Improved Training of Wasserstein GANs

    時間:2017 年 3 月 31 日

    地址:https://arxiv.org/pdf/1704.00028

    4.Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

    時間:2017 年 3 月 30 日

    地址:https://arxiv.org/pdf/1703.10593

    開源項目:https://github.com/junyanz/CycleGAN

    解讀:《學界 | 讓莫奈畫作變成照片:伯克利圖像到圖像翻譯新研究》

    5.RenderGAN: Generating Realistic Labeled Data

    時間:2016 年 11 月 4 日

    地址:https://arxiv.org/pdf/1611.01331

    6.Conditional Image Generation with PixelCNN Decoders

    時間:2016 年 6 月 16 日

    地址:https://arxiv.org/pdf/1606.05328

    7.Pixel Recurrent Neural Networks

    時間:2016 年 1 月 25 日

    地址:https://arxiv.org/pdf/1601.06759

    面部識別(Face Recognition)

    1.Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition

    時間:2016 年 10 月 24 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/accessorize-to-a-crime-real-and-stealthy-attacks-on-state-of-the-art- face-recognition.pdf

    2.OpenFace: A general-purpose face recognition library with mobile applications

    時間:2016 年 6 月 1 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/openface-a-general-purpose-face-recognition-library-with-mobile-applications.pdf

    3.Emotion Recognition in the Wild via Convolutional Neural Networks and Mapped Binary Patterns

    時間:2015 年 11 月 9 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/emotion-recognition-in-the-wild-via-convolutional-neural-networks-and-mapped-binary-patterns. pdf

    4.Deep Face Recognition

    時間:2015 年 9 月 11 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/deep-face-recognition.pdf

    5.Compact Convolutional Neural Network Cascade for Face Detection

    時間:2015 年 8 月 6 日

    地址:https://arxiv.org/pdf/1508.01292

    6.Learning Robust Deep Face Representation

    時間:2015 年 7 月 17 日

    地址:https://arxiv.org/pdf/1507.04844

    7.Facenet: A unified embedding for face recognition and clustering

    時間:2015 年 6 月 12 日

    地址: https://github.com/sbrugman/deep-learning-papers/blob/master/papers/facenet-a-unified-embedding-for-face-recognition-and-clustering.pdf

    8.Multi-view Face Detection Using Deep Convolutional Neural Networks

    時間:2015 年 2 月 10 日

    地址:https://arxiv.org/pdf/1502.02766

    音頻

    音頻合成(Audio Synthesis)

    1.A Neural Parametric Singing Synthesizer

    時間:2017 年 4 月 12 日

    地址:https://arxiv.org/pdf/1704.03809

    2.Neural Audio Synthesis of Musical Notes with WaveNet Autoencoders

    時間:2017 年 4 月 5 日

    地址:https://arxiv.org/pdf/1704.01279

    開源項目:https://github.com/tensorflow/magenta/tree/master/magenta/models/nsynth

    解讀:《谷歌大腦&DeepMind:NSynth神經音樂合成器,生成超逼真樂器聲音》

    3.Tacotron: Towards End-to-End Speech Synthesis

    時間:2017 年 3 月 29 日

    地址:https://arxiv.org/pdf/1703.10135

    解讀:《學界 | 谷歌全端到端語音合成系統Tacotron:直接從字符合成語音》

    4.Deep Voice: Real-time Neural Text-to-Speech

    時間:2017 年 2 月 25 日

    地址:https://arxiv.org/pdf/1702.07825

    解讀:《業界 | 百度提出 Deep Voice:實時的神經語音合成系統》

    5.WaveNet: A Generative Model for Raw Audio

    時間:2016 年 9 月 12 日

    地址:https://arxiv.org/pdf/1609.03499

    開源項目:https://github.com/ibab/tensorflow-wavenet

    解讀:《重磅 | DeepMind最新生成模型WaveNet,將機器合成語音水平與人類差距縮小50%(附論文)》

    其它

    未分類

    1.Who Said What: Modeling Individual Labelers Improves Classification

    時間:2017 年 3 月 26 日

    地址:https://arxiv.org/pdf/1703.08774

    2.Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data

    時間:2016 年 10 月 18 日

    地址:https://arxiv.org/pdf/1610.05755

    3.DeepMath - Deep Sequence Models for Premise Selection

    時間:2016 年 6 月 14 日

    地址:https://arxiv.org/pdf/1606.04442

    4.Long Short-Term Memory

    時間:1997 年 11 月 15 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/long-short-term-memory.pdf

    擴展:《乾貨 | 圖解LSTM神經網絡架構及其11種變體(附論文)》

    正則化(Regularization)

    1.Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

    時間:2015 年 6 月 6 日

    地址:https://arxiv.org/pdf/1506.02142

    2.Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

    時間:2015 年 2 月 11 日

    地址:https://arxiv.org/pdf/1502.03167

    神經網絡壓縮(Neural Network Compression)

    1.SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5MB model size

    時間:2016 年 2 月 24 日

    地址:https://arxiv.org/pdf/1602.07360

    2.Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

    時間:2015 年 10 月 1 日

    地址:https://arxiv.org/pdf/1510.00149

    優化器(Optimizers)

    1.Adam: A Method for Stochastic Optimization

    時間:2014 年 12 月 22 日

    地址:https://arxiv.org/pdf/1412.6980

    2.Deep learning with Elastic Averaging SGD

    時間:2014 年 12 月 20 日

    地址:https://arxiv.org/pdf/1412.6651

    3.ADADELTA: An Adaptive Learning Rate Method

    時間:2012 年 12 月 22 日

    地址:https://arxiv.org/pdf/1212.5701

    4.Advances in Optimizing Recurrent Networks

    時間:2012 年 12 月 4 日

    地址:https://arxiv.org/pdf/1212.0901

    5.Efficient Backprop

    時間:1998 年 7 月 1 日

    地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/efficient-backprop.pdf

    機器之心發布的其它值得關注的論文和文章列表:

    資源 | 如何開啟深度學習之旅?這三大類125篇論文為你導航(附資源下載)

    學界 | 2010-2016年被引用次數最多的深度學習論文(附下載)

    資源 | 生成對抗網絡新進展與論文全集

    資源 | 生成對抗網絡及其變體的論文匯總

    人工智能從入門到進階,機器之心高分技術文章全集

    原文鏈接:https://github.com/sbrugman/deep-learning-papers

    來源:http://www.sohu.com/a/139053245_465975

     
  • 相关阅读:
    C# STUDY
    C# 通过线程来控制进度条(转)--讲解多线程对界面的操作
    Android开发问题笔记
    win7 Android环境搭配
    Git-Flow
    Synchronizing with Remote Repositories
    smartgit document merge
    smartgit document Rebase
    手把手教你玩转Git分布式版本控制系统!
    (二)代理模式详解(包含原理详解)
  • 原文地址:https://www.cnblogs.com/adong7639/p/7492396.html
Copyright © 2011-2022 走看看