zoukankan      html  css  js  c++  java
  • Semi-supervised Segmentation of Optic Cup in Retinal Fundus Images Using Variational Autoencoder 论文笔记

    MICCAI 2017年论文

    Overview:

    视杯视盘精确分割后,就可以计算杯盘比了,杯盘比是青光眼疾病的主要manifestation。以往的方法往往采用监督学习的方法,这样需要大量的精确像素级别的标定。而这些标定非常费时间。所以本文为了解决这个问题,提出了一个半监督学习的方法,从一堆没有标签的数据中继承一些相似的特征,然后根据少量的有标签的图像训练一个分割模型。具体地,首先采用variational autoencoder从没有标签的图像中学习生成模型的参数,这样,这个训练好的生成模型提供了一个很好的feature embedding,在这个latent feature space中,观测图像就会聚成一簇一簇的。然后,将feature embedding与segmentation autoencoder相结合。这个segmentation autoencoder是在少量的标签数据集上训练得到的,可以获得视杯的分割。

    创新点:将生成学习用于半监督的分割方法中。

    基本流程:

    (image auto-encoder, Generative Variational Autoencoder, GVAE)生成模型学习:用variational autoencoder学习生成模型的参数,autoencoder包含两个部分,一个是将图像映射到因变量空间,用隐变量z表示图像,叫做encoder network。一个是用隐空间变量对图像进行重构,叫做decoder network。

    (image segmentation) segmentation variational autoencoder (SVAE)也包含两个部分:一个是segmentation encoder,学习分割模型的因变量表示V,一个是segmentation decoder,将分割模型的因变量表示x作为输入,学习分割的参数,输出segmentation mask。为了利用image auto-encoder从未标记数据中获得的信息,SVAE不仅需要对segmentation mask进行重构,还需要对从GVAE中学到的latent representation x进行重构。所以,loss function为:

    实验:

    数据:EyePACS, 12000张眼底图像。从中选600张进行了标记。600张中400张用来做训练,200张用来做测试。实验结果如下:

    第一列:训练集中使用的图像的数量,相比于Unet有一个百分点的提升。而本身所使用的segmentation autoencoder相比于Unet,使用更少的数据进行训练的时候,分割精度也比Unet高,说明本身所使用的SVAE的泛化能力要优于Unet的。

    最后,看论文Auto-Encoding Variational Bayescode

    总觉得这个论文似乎有点什么误会,^_^

  • 相关阅读:
    J2EE中常用的名词解释
    java中的构造方法
    String s = new String("xyz");创建了几个StringObject?
    MySQL 学习笔记
    《SQL 必知必会》建表语句
    《SQL 必知必会》读书笔记
    IDEA 中项目代码修改后不自动生效,需要执行 mvn clean install 才生效
    curl 使用指南
    MySQL字段添加注释,但不改变字段的类型
    《痞子衡嵌入式半月刊》 第 14 期
  • 原文地址:https://www.cnblogs.com/qingliu411/p/7593012.html
Copyright © 2011-2022 走看看