最大类间方差法是由日本学者大津于1979年提出的,是一种自适应的阈值确定的方法,又叫大津
法,简称OTSU。它是按图像的灰度特性,将图像分成背景和目标2部分。背景和目标之间的类间方差
越大,说明构成图像的2部分的差别越大,当部分目标错分为背景或部分背景错分为目标都会导致2部
分差别变小。因此,使类间方差最大的分割意味着错分概率最小。
对于图像I(x,y),前景(即目标)和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比
例记为ω0,其平均灰度μ0;背景像素点数占整幅图像的比例为ω1,其平均灰度为μ1。图像的总平均
灰度记为μ,类间方差记为g。
假设图像的背景较暗,并且图像的大小为M×N,
图像中像素的灰度值小于阈值T的像素个数记作N0,像素灰度大于阈值T的像素个数记作N1,则有:
ω0=N0/ M×N (1)
ω1=N1/ M×N (2)
N0+N1=M×N (3)
ω0+ω1=1 (4)
μ=ω0*μ0+ω1*μ1 (5)
g=ω0(μ0-μ)^2+ω1(μ1-μ)^2 (6)
将式(5)代入式(6),得到等价公式: g=ω0ω1(μ0-μ1)^2 (7)
法,简称OTSU。它是按图像的灰度特性,将图像分成背景和目标2部分。背景和目标之间的类间方差
越大,说明构成图像的2部分的差别越大,当部分目标错分为背景或部分背景错分为目标都会导致2部
分差别变小。因此,使类间方差最大的分割意味着错分概率最小。
对于图像I(x,y),前景(即目标)和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比
例记为ω0,其平均灰度μ0;背景像素点数占整幅图像的比例为ω1,其平均灰度为μ1。图像的总平均
灰度记为μ,类间方差记为g。
假设图像的背景较暗,并且图像的大小为M×N,
图像中像素的灰度值小于阈值T的像素个数记作N0,像素灰度大于阈值T的像素个数记作N1,则有:
ω0=N0/ M×N (1)
ω1=N1/ M×N (2)
N0+N1=M×N (3)
ω0+ω1=1 (4)
μ=ω0*μ0+ω1*μ1 (5)
g=ω0(μ0-μ)^2+ω1(μ1-μ)^2 (6)
将式(5)代入式(6),得到等价公式: g=ω0ω1(μ0-μ1)^2 (7)
Otsu算法步骤如下:
设图象包含L个灰度级(0,1…,L-1),灰度值为i的的象素点数为Ni ,图象总的象素点数为N=N0+N1+...+N(L-1)。灰度值为i的点的概为:
P(i) = N(i)/N.
门限t将整幅图象分为暗区c1和亮区c2两类,则类间方差σ是t的函数:
σ=a1*a2(u1-u2)^2 (2)
式中,aj 为类cj的面积与图象总面积之比,a1 = sum(P(i)) i->t, a2 = 1-a1; uj为类cj的均值,u1 = sum(i*P(i))/a1 0->t,
u2 = sum(i*P(i))/a2, t+1->L-1
该法选择最佳门限t^ 使类间方差最大,即:令Δu=u1-u2,σb = max{a1(t)*a2(t)Δu^2}
设图象包含L个灰度级(0,1…,L-1),灰度值为i的的象素点数为Ni ,图象总的象素点数为N=N0+N1+...+N(L-1)。灰度值为i的点的概为:
P(i) = N(i)/N.
门限t将整幅图象分为暗区c1和亮区c2两类,则类间方差σ是t的函数:
σ=a1*a2(u1-u2)^2 (2)
式中,aj 为类cj的面积与图象总面积之比,a1 = sum(P(i)) i->t, a2 = 1-a1; uj为类cj的均值,u1 = sum(i*P(i))/a1 0->t,
u2 = sum(i*P(i))/a2, t+1->L-1
该法选择最佳门限t^ 使类间方差最大,即:令Δu=u1-u2,σb = max{a1(t)*a2(t)Δu^2}
代码实现:
```
void CopencvDlg::threshold(IplImage *src,IplImage*temp_src){ int thresol[8];//图像分成8部分,各部分的阈值 int height=src->height; int width=src->width; int ceil_height=height/4; int ceil_width=width/2; IplImage*srcdst=cvCreateImage(cvSize(ceil_width,ceil_height),IPL_DEPTH_8U,src->nChannels); for (int i=0;i<2;i++) { for (int j=0;j<4;j++) { cvSetImageROI(src ,cvRect(i*ceil_width,j*ceil_height,ceil_width,ceil_height));//选定各个区域 cvCopy(src,srcdst,0); cvResetImageROI(src); thresol[i*4+j]=Otsu(srcdst);//otsu阈值分割,返回值为各部分的阈值 } } cvSet(temp_src,cvScalarAll(0),0); int step=src->widthStep; uchar* data_src=(uchar *)src->imageData; uchar* data_dst=(uchar *)temp_src->imageData; //根据计算的阈值对图像进行二值化 for (int t=0;t<4;t++) { for (int i=0;i<ceil_width;i++) { for (int j=0;j<ceil_height;j++) { if (data_src[j*step+t*ceil_height*step+i]>thresol[t]) { data_dst[j*step+t*ceil_height*step+i]=255; } else data_dst[j*step+t*ceil_height*step+i]=0; } } } for (int t=0;t<4;t++) { for (int i=0;i<ceil_width;i++) { for (int j=0;j<ceil_height;j++) { if (data_src[j*step+t*ceil_height*step+i+ceil_width]>thresol[t+4]) { data_dst[j*step+t*ceil_height*step+i+ceil_width]=255; } else data_dst[j*step+t*ceil_height*step+i+ceil_width]=0; } } }}int CopencvDlg::Otsu(IplImage *src){ int width=src->width; int height=src->height; int step=src->widthStep; float histogram[256]={0}; unsigned char* p=(unsigned char*)src->imageData; for(int i=0;i<height;i++) { for(int j=0;j<width;j++) { histogram[p[i*step+j]]++; } } //normalize histogram int size=height*width; for(int i=0;i<256;i++) { histogram[i]=histogram[i]/size; } //average pixel value float avgValue=0; for(int i=0;i<256;i++) { avgValue+=i*histogram[i]; } int threshold; float sum0=0, sum1=0; //存储前景的灰度总和和背景灰度总和 float cnt0= 0, cnt1=0; //前景的总个数和背景的总个数 float w0=0, w1=0; //前景和背景所占整幅图像的比例 float u0=0, u1=0; //前景和背景的平均灰度 float variance = 0; //最大类间方差 int i,j; float u=0; float maxVariance = 0; for(i =1;i<256;i++) //一次遍历每个像素 { sum0=0; sum1=0; cnt0=0; cnt1=0; w0=0; w1=0; for(j=0;j<i;j++) { cnt0+=histogram[j]; sum0+=j*histogram[j]; } u0=sum0/cnt0; //w0=cnt0/size; w0=cnt0; for(j =i;j<=255;j++) { cnt1+=histogram[j]; sum1+=j*histogram[j]; } u1=sum1/cnt1; w1=cnt1; //w1=1-w0; // (double)cnt1 / size; u=u0*w0+u1*w1; //图像的平均灰度 variance=float(w0*w1*(u0-u1)*(u0 - u1)); if(variance > maxVariance) //类间方差最大时为所求阈值 { maxVariance = variance; threshold = i; } } return threshold;}```