zoukankan      html  css  js  c++  java
  • [ios2] 关于CGBitmapContextCreate【转】

    CGContextRef CGBitmapContextCreate (
      void *data,
      size_t width,
      size_t height,
      size_t bitsPerComponent,
      size_t bytesPerRow,
      CGColorSpaceRef colorspace,
      CGBitmapInfo bitmapInfo
      );
     
     参数data指向绘图操作被渲染的内存区域,这个内存区域大小应该为(bytesPerRow*height)个字节。如果对绘制操作被渲染的内存区域并无特别的要求,那么可以传递NULL给参数date。
       参数width代表被渲染内存区域的宽度。
       参数height代表被渲染内存区域的高度。
       参数bitsPerComponent被渲染内存区域中组件在屏幕每个像素点上需要使用的bits位,举例来说,如果使用32-bit像素和RGB颜色格式,那么RGBA颜色格式中每个组件在屏幕每个像素点上需要使用的bits位就为32/4=8。
       参数bytesPerRow代表被渲染内存区域中每行所使用的bytes位数。
       参数colorspace用于被渲染内存区域的“位图上下文”。
       参数bitmapInfo指定被渲染内存区域的“视图”是否包含一个alpha(透视)通道以及每个像素相应的位置,除此之外还可以指定组件式是浮点值还是整数值。
     
     
    获取图片中单个点的颜色:
    - (UIColor*) getPixelColorAtLocation:(CGPoint)point {
       UIColor* color = nil;
       CGImageRef inImage = self.image.CGImage;
       // Create off screen bitmap context to draw the image into. Format ARGB is 4 bytes for each pixel: Alpa, Red, Green, Blue
       CGContextRef cgctx = [self createARGBBitmapContextFromImage:inImage];
       if (cgctx == NULL) { return nil;  }

       size_t w = CGImageGetWidth(inImage);
       size_t h = CGImageGetHeight(inImage);
       CGRect rect = {{0,0},{w,h}}; 

       // Draw the image to the bitmap context. Once we draw, the memory 
       // allocated for the context for rendering will then contain the 
       // raw image data in the specified color space.
       CGContextDrawImage(cgctx, rect, inImage); 

       // Now we can get a pointer to the image data associated with the bitmap
       // context.
       unsigned char* data = CGBitmapContextGetData (cgctx);
       if (data != NULL) {
           //offset locates the pixel in the data from x,y. 
           //4 for 4 bytes of data per pixel, w is width of one row of data.
           @try {
               int offset = 4*((w*round(point.y))+round(point.x));
               NSLog(@"offset: %d", offset);
               int alpha =  data[offset]; 
               int red = data[offset+1]; 
               int green = data[offset+2]; 
               int blue = data[offset+3]; 
               NSLog(@"offset: %i colors: RGB A %i %i %i  %i",offset,red,green,blue,alpha);
               color = [UIColor colorWithRed:(red/255.0f) green:(green/255.0f) blue:(blue/255.0f) alpha:(alpha/255.0f)];
           }
           @catch (NSException * e) {
               NSLog(@"%@",[e reason]);
           }
           @finally {
           }

       }
       // When finished, release the context
       CGContextRelease(cgctx); 
       // Free image data memory for the context
       if (data) { free(data); }

       return color;
    }
     
    创建取点图片工作域:
    - (CGContextRef) createARGBBitmapContextFromImage:(CGImageRef) inImage {

       CGContextRef    context = NULL;
       CGColorSpaceRef colorSpace;
       void *          bitmapData;
       int             bitmapByteCount;
       int             bitmapBytesPerRow;

       // Get image width, height. We'll use the entire image.
       size_t pixelsWide = CGImageGetWidth(inImage);
       size_t pixelsHigh = CGImageGetHeight(inImage);

       // Declare the number of bytes per row. Each pixel in the bitmap in this
       // example is represented by 4 bytes; 8 bits each of red, green, blue, and
       // alpha.
       bitmapBytesPerRow   = (pixelsWide * 4);
       bitmapByteCount     = (bitmapBytesPerRow * pixelsHigh);

       // Use the generic RGB color space.
       colorSpace = CGColorSpaceCreateDeviceRGB();

       if (colorSpace == NULL)
       {
           fprintf(stderr, "Error allocating color space ");
           return NULL;
       }

       // Allocate memory for image data. This is the destination in memory
       // where any drawing to the bitmap context will be rendered.
       bitmapData = malloc( bitmapByteCount );
       if (bitmapData == NULL) 
       {
           fprintf (stderr, "Memory not allocated!");
           CGColorSpaceRelease( colorSpace );
           return NULL;
       }

       // Create the bitmap context. We want pre-multiplied ARGB, 8-bits 
       // per component. Regardless of what the source image format is 
       // (CMYK, Grayscale, and so on) it will be converted over to the format
       // specified here by CGBitmapContextCreate.
       context = CGBitmapContextCreate (bitmapData,
                                                                        pixelsWide,
                                                                        pixelsHigh,
                                                                        8,      // bits per component
                                                                        bitmapBytesPerRow,
                                                                        colorSpace,
                                                                        kCGImageAlphaPremultipliedFirst);
       if (context == NULL)
       {
           free (bitmapData);
           fprintf (stderr, "Context not created!");
       }
       // Make sure and release colorspace before returning
       CGColorSpaceRelease( colorSpace );
       
       return context;
    }
     
     
     
    - (UIColor *) colorOfPoint:(CGPoint)point
    {
        unsigned char pixel[4] = {0};
        CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
        CGContextRef context = CGBitmapContextCreate(pixel, 1, 1, 8, 4, colorSpace, kCGImageAlphaPremultipliedLast);
    
        CGContextTranslateCTM(context, -point.x, -point.y);
    
        [self.layer renderInContext:context];
    
        CGContextRelease(context);
        CGColorSpaceRelease(colorSpace);
    
        //NSLog(@"pixel: %d %d %d %d", pixel[0], pixel[1], pixel[2], pixel[3]);
    
        UIColor *color = [UIColor colorWithRed:pixel[0]/255.0 green:pixel[1]/255.0 blue:pixel[2]/255.0 alpha:pixel[3]/255.0];
    
        return color;
    }
    

    //图片压缩

    iOS自带的提供了一个API如下

    1. NSData *UIImageJPEGRepresentation(UIImage *image, CGFloat compressionQuality);    

    在Iphone上有两种读取图片数据的简单方法: UIImageJPEGRepresentation和UIImagePNGRepresentation. UIImageJPEGRepresentation函数需要两个参数:图片的引用和压缩系数.而UIImagePNGRepresentation只需 要图片引用作为参数.通过在实际使用过程中,比较发现: UIImagePNGRepresentation(UIImage* image) 要比UIImageJPEGRepresentation(UIImage* image, 1.0) 返回的图片数据量大很多.譬如,同样是读取摄像头拍摄的同样景色的照片, UIImagePNGRepresentation()返回的数据量大小为199K ,而 UIImageJPEGRepresentation(UIImage* image, 1.0)返回的数据量大小只为140KB,比前者少了50多KB.如果对图片的清晰度要求不高,还可以通过设置 UIImageJPEGRepresentation函数的第二个参数,大幅度降低图片数据量.譬如,刚才拍摄的图片, 通过调用UIImageJPEGRepresentation(UIImage* image, 1.0)读取数据时,返回的数据大小为140KB,但更改压缩系数后,通过调用UIImageJPEGRepresentation(UIImage* image, 0.5)读取数据时,返回的数据大小只有11KB多,大大压缩了图片的数据量 ,而且从视角角度看,图片的质量并没有明显的降低.因此,在读取图片数据内容时,建议优先使用UIImageJPEGRepresentation,并可 根据自己的实际使用场景,设置压缩系数,进一步降低图片数据量大小。


    1. UIImage *imageNew = [info objectForKey:@"UIImagePickerControllerOriginalImage"];  
    2. imageNew = [self imageWithImage:imageNew scaledToSize:CGSizeMake(100, 100)];  
    3. NSData *imageData = UIImageJPEGRepresentation(imageNew, 0.0001);  
    4.   
    5. m_selectImage = [UIImage imageWithData:imageData];  

    .h具体code

     

    1. #import <Foundation/Foundation.h>  
    2.   
    3. @interface UIImage (UIImageExt)  
    4.   
    5. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size;  
    6.   
    7. - (UIImage *)imageByScalingAndCroppingForSize:(CGSize)targetSize;  
    8. @end  
    .m具体code
      1. #import "UIImageExt.h"  
      2.   
      3.   
      4. @implementation UIImage (UIImageExt)  
      5.   
      6. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size{  
      7.     // 创建一个bitmap的context  
      8.     // 并把它设置成为当前正在使用的context  
      9.     UIGraphicsBeginImageContext(size);  
      10.     // 绘制改变大小的图片  
      11.     [img drawInRect:CGRectMake(0, 0, size.width, size.height)];  
      12.     // 从当前context中创建一个改变大小后的图片  
      13.     UIImage* scaledImage = UIGraphicsGetImageFromCurrentImageContext();  
      14.     // 使当前的context出堆栈  
      15.     UIGraphicsEndImageContext();  
      16.     // 返回新的改变大小后的图片  
      17.     return scaledImage;  
      18. }  
      19.   
      20.   
      21.   
      22. - (UIImage*)imageByScalingAndCroppingForSize:(CGSize)targetSize  
      23. {  
      24.     UIImage *sourceImage = self;  
      25.     UIImage *newImage = nil;  
      26.     CGSize imageSize = sourceImage.size;  
      27.     CGFloat width = imageSize.width;  
      28.     CGFloat height = imageSize.height;  
      29.     CGFloat targetWidth = targetSize.width;  
      30.     CGFloat targetHeight = targetSize.height;  
      31.     CGFloat scaleFactor = 0.0;  
      32.     CGFloat scaledWidth = targetWidth;  
      33.     CGFloat scaledHeight = targetHeight;  
      34.     CGPoint thumbnailPoint = CGPointMake(0.0,0.0);  
      35.       
      36.     if (CGSizeEqualToSize(imageSize, targetSize) == NO)  
      37.     {  
      38.         CGFloat widthFactor = targetWidth / width;  
      39.         CGFloat heightFactor = targetHeight / height;  
      40.           
      41.         if (widthFactor > heightFactor)  
      42.             scaleFactor = widthFactor; // scale to fit height  
      43.         else  
      44.             scaleFactor = heightFactor; // scale to fit width  
      45.         scaledWidth  = width * scaleFactor;  
      46.         scaledHeight = height * scaleFactor;  
      47.           
      48.         // center the image  
      49.         if (widthFactor > heightFactor)  
      50.         {  
      51.             thumbnailPoint.y = (targetHeight - scaledHeight) * 0.5;  
      52.         }  
      53.         else  
      54.             if (widthFactor < heightFactor)  
      55.             {  
      56.                 thumbnailPoint.x = (targetWidth - scaledWidth) * 0.5;  
      57.             }  
      58.     }  
      59.       
      60.     UIGraphicsBeginImageContext(targetSize); // this will crop  
      61.       
      62.     CGRect thumbnailRect = CGRectZero;  
      63.     thumbnailRect.origin = thumbnailPoint;  
      64.     thumbnailRect.size.width  = scaledWidth;  
      65.     thumbnailRect.size.height = scaledHeight;  
      66.       
      67.     [sourceImage drawInRect:thumbnailRect];  
      68.       
      69.     newImage = UIGraphicsGetImageFromCurrentImageContext();  
      70.     if(newImage == nil)  
      71.         NSLog(@"could not scale image");  
      72.       
      73.     //pop the context to get back to the default  
      74.     UIGraphicsEndImageContext();  
      75.     return newImage;  
      76. }  
      77.   
      78. @end  
  • 相关阅读:
    IOS、java支持DES加密
    多线程——@synchronized(object)
    LSM树存储模型
    System.setProperty()
    Filter及FilterChain的使用具体解释
    Java有用经验总结--Swing篇
    POJ3342——Party at Hali-Bula
    Hadoop-2.4.1学习之Writable及事实上现
    OpenCV 编程简单介绍(矩阵/图像/视频的基本读写操作)
    Android中Context具体解释 ---- 你所不知道的Context
  • 原文地址:https://www.cnblogs.com/jinjiantong/p/3359449.html
Copyright © 2011-2022 走看看