zoukankan      html  css  js  c++  java
  • ffmpeg综合应用示例(三)——安卓手机摄像头编码

    本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了

    1、编译适用于安卓平台的ffmpeg库

    2、在java中通过JNI使用ffmpeg

    3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程

    具有较强的综合性。

    编译适用于安卓平台的ffmpeg库

    平时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils , gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。
    做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。
    首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库
    找到下面几句
    1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'    
    2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
    3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'    
    4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'    
    修改为
    1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'    
    2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
    3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'    
    4. SLIB_INSTALL_LINKS='$(SLIBNAME)'   
    之后进行常规的configure配置,make, make install步骤即可,下面给出一个常规的脚本示例
    1. make clean    
    2.     
    3. export NDK=xxxx/android-ndk-r10e  
    4. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt    
    5. export PLATFORM=$NDK/platforms/android-8/arch-arm    
    6. export PREFIX=../android_ffmpeglib  
    7.    
    8.   ./configure --target-os=linux --prefix=$PREFIX     
    9. --enable-cross-compile     
    10. --enable-runtime-cpudetect     
    11. --disable-asm     
    12. --arch=arm     
    13. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc     
    14. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi-     
    15. --disable-stripping     
    16. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm     
    17. --sysroot=$PLATFORM     
    18. --enable-gpl --enable-shared --disable-static --enable-small     
    19. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug     
    20. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"     
    21.    
    22. make    
    23. make install   
    成功编译后,可以看到如下类库

    在java中通过JNI使用ffmpeg

    JNI即java本地接口,java native interface,它是一个协议, 该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++ 代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上; 

    JNI中的一些概念 :
    -- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;
    -- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;
    -- JNI层 : Java声明Native方法的部分;
    -- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;
    -- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;

    具体流程可以参照ndk的sample目录下的hellojni项目,总结起来有如下几个步骤
    1、创建常规Android项目
    2、声明Native方法,形如public native String stringFromJNI();
    3、创建c文件
    在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如
    1. jstring  
    2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,  
    3.                                                   jobject thiz )  
    jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();
    -- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;
    -- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;
    4、编写Android.mk文件
    就好比常用的makefile,形如
    1. LOCAL_PATH := $(call my-dir)  
    2.   
    3. include $(CLEAR_VARS)  
    4.   
    5. LOCAL_MODULE    := hello-jni  
    6. LOCAL_SRC_FILES := hello-jni.c  
    7.   
    8. include $(BUILD_SHARED_LIBRARY)  
    -- LOCAL_PATH : 代表mk文件所在的目录;
    -- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;
    -- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;
    -- LOCAL_SRC_FILES: 指定编译的源文件名称;
    -- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;
    5、NDK编译生成动态库
    利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;
    6、java中加载动态库
    在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如
    1. static {  
    2.         System.loadLibrary("hello-jni");  
    3.     }  

    需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。

    参照上面的基本流程,具体到利用ffmpeg实现安卓摄像头数据的编码
    第一步:我们声明如下四个Native方法

    1. //JNI  
    2. //初始化,读取待编码数据的宽和高  
    3.     public native int initial(int width,int height);  
    4. //读取yuv数据进行编码  
    5.     public native int encode(byte[] yuvimage);  
    6. //清空缓存的帧  
    7.     public native int flush();  
    8. //清理  
    9.     public native int close();  

    第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码

    1. /** 
    2.  * 基于FFmpeg安卓摄像头编码 
    3.  * FFmpeg Android Camera Encoder 
    4.  * 
    5.  * 张晖 Hui Zhang 
    6.  * zhanghuicuc@gmail.com 
    7.  * 中国传媒大学/数字电视技术 
    8.  * Communication University of China / Digital TV Technology 
    9.  * 
    10.  * 
    11.  */  
    12.   
    13. #include <stdio.h>  
    14. #include <time.h>   
    15.   
    16. #include "libavcodec/avcodec.h"  
    17. #include "libavformat/avformat.h"  
    18. #include "libswscale/swscale.h"  
    19. #include "libavutil/log.h"  
    20.   
    21. #ifdef ANDROID  
    22. #include <jni.h>  
    23. #include <android/log.h>  
    24. #define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)  
    25. #define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)  
    26. #else  
    27. #define LOGE(format, ...)  printf("(>_<) " format " ", ##__VA_ARGS__)  
    28. #define LOGI(format, ...)  printf("(^_^) " format " ", ##__VA_ARGS__)  
    29. #endif  
    30.   
    31. AVFormatContext *ofmt_ctx;  
    32. AVStream* video_st;  
    33. AVCodecContext* pCodecCtx;  
    34. AVCodec* pCodec;  
    35. AVPacket enc_pkt;  
    36. AVFrame *pFrameYUV;  
    37.   
    38. int framecnt = 0;  
    39. int yuv_width;  
    40. int yuv_height;  
    41. int y_length;  
    42. int uv_length;  
    43. int64_t start_time;  
    44.   
    45. //Output FFmpeg's av_log()  
    46. void custom_log(void *ptr, int level, const char* fmt, va_list vl){  
    47.     FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");  
    48.     if(fp){  
    49.         vfprintf(fp,fmt,vl);  
    50.         fflush(fp);  
    51.         fclose(fp);  
    52.     }  
    53. }  
    54.   
    55. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial  
    56.   (JNIEnv *env, jobject obj,jint width,jint height)  
    57. {  
    58.     const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";  
    59.     yuv_width=width;  
    60.     yuv_height=height;  
    61.     y_length=width*height;  
    62.     uv_length=width*height/4;  
    63.   
    64.     //FFmpeg av_log() callback  
    65.     av_log_set_callback(custom_log);  
    66.   
    67.     av_register_all();  
    68.   
    69.     //output initialize  
    70.     avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);  
    71.     //output encoder initialize  
    72.     pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);  
    73.     if (!pCodec){  
    74.         LOGE("Can not find encoder! ");  
    75.         return -1;  
    76.     }  
    77.     pCodecCtx = avcodec_alloc_context3(pCodec);  
    78.     pCodecCtx->pix_fmt = PIX_FMT_YUV420P;  
    79.     pCodecCtx->width = width;  
    80.     pCodecCtx->height = height;  
    81.     pCodecCtx->time_base.num = 1;  
    82.     pCodecCtx->time_base.den = 30;  
    83.     pCodecCtx->bit_rate = 800000;  
    84.     pCodecCtx->gop_size = 300;  
    85.     /* Some formats want stream headers to be separate. */  
    86.     if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)  
    87.         pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;  
    88.   
    89.     //H264 codec param  
    90.     //pCodecCtx->me_range = 16;  
    91.     //pCodecCtx->max_qdiff = 4;  
    92.     //pCodecCtx->qcompress = 0.6;  
    93.     pCodecCtx->qmin = 10;  
    94.     pCodecCtx->qmax = 51;  
    95.     //Optional Param  
    96.     pCodecCtx->max_b_frames = 3;  
    97.     // Set H264 preset and tune  
    98.     AVDictionary *param = 0;  
    99.     av_dict_set(¶m, "preset", "ultrafast", 0);  
    100.     av_dict_set(¶m, "tune", "zerolatency", 0);  
    101.   
    102.     if (avcodec_open2(pCodecCtx, pCodec, ¶m) < 0){  
    103.         LOGE("Failed to open encoder! ");  
    104.         return -1;  
    105.     }  
    106.   
    107.     //Add a new stream to output,should be called by the user before avformat_write_header() for muxing  
    108.     video_st = avformat_new_stream(ofmt_ctx, pCodec);  
    109.     if (video_st == NULL){  
    110.         return -1;  
    111.     }  
    112.     video_st->time_base.num = 1;  
    113.     video_st->time_base.den = 30;  
    114.     video_st->codec = pCodecCtx;  
    115.   
    116.     //Open output URL,set before avformat_write_header() for muxing  
    117.     if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){  
    118.         LOGE("Failed to open output file! ");  
    119.         return -1;  
    120.     }  
    121.   
    122.     //Write File Header  
    123.     avformat_write_header(ofmt_ctx, NULL);  
    124.   
    125.     start_time = av_gettime();  
    126.     return 0;  
    127. }  
    128.   
    129.   
    130. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode  
    131.   (JNIEnv *env, jobject obj, jbyteArray yuv)  
    132. {  
    133.     int ret;  
    134.     int enc_got_frame=0;  
    135.     int i=0;  
    136.   
    137.     pFrameYUV = avcodec_alloc_frame();  
    138.     uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));  
    139.     avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);  
    140.   
    141.     //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式  
    142.     jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);  
    143.     memcpy(pFrameYUV->data[0],in,y_length);  
    144.     for(i=0;i<uv_length;i++)  
    145.     {  
    146.         *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);  
    147.         *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);  
    148.     }  
    149.   
    150.     pFrameYUV->format = AV_PIX_FMT_YUV420P;  
    151.     pFrameYUV->width = yuv_width;  
    152.     pFrameYUV->height = yuv_height;  
    153.   
    154.     enc_pkt.data = NULL;  
    155.     enc_pkt.size = 0;  
    156.     av_init_packet(&enc_pkt);  
    157.     ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);  
    158.     av_frame_free(&pFrameYUV);  
    159.   
    160.     if (enc_got_frame == 1){  
    161.         LOGI("Succeed to encode frame: %5d size:%5d ", framecnt, enc_pkt.size);  
    162.         framecnt++;  
    163.         enc_pkt.stream_index = video_st->index;  
    164.   
    165.         //Write PTS  
    166.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
    167.         AVRational r_framerate1 = {60, 2 };//{ 50, 2 };  
    168.         AVRational time_base_q = { 1, AV_TIME_BASE };  
    169.         //Duration between 2 frames (us)  
    170.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
    171.         //Parameters  
    172.         //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
    173.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
    174.         enc_pkt.dts = enc_pkt.pts;  
    175.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
    176.         enc_pkt.pos = -1;  
    177.   
    178.         //Delay  
    179.         int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);  
    180.         int64_t now_time = av_gettime() - start_time;  
    181.         if (pts_time > now_time)  
    182.             av_usleep(pts_time - now_time);  
    183.   
    184.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
    185.         av_free_packet(&enc_pkt);  
    186.     }  
    187.   
    188.     return 0;  
    189. }  
    190.   
    191. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush  
    192.   (JNIEnv *env, jobject obj)  
    193. {  
    194.     int ret;  
    195.     int got_frame;  
    196.     AVPacket enc_pkt;  
    197.     if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &  
    198.         CODEC_CAP_DELAY))  
    199.         return 0;  
    200.     while (1) {  
    201.         enc_pkt.data = NULL;  
    202.         enc_pkt.size = 0;  
    203.         av_init_packet(&enc_pkt);  
    204.         ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,  
    205.             NULL, &got_frame);  
    206.         if (ret < 0)  
    207.             break;  
    208.         if (!got_frame){  
    209.             ret = 0;  
    210.             break;  
    211.         }  
    212.         LOGI("Flush Encoder: Succeed to encode 1 frame! size:%5d ", enc_pkt.size);  
    213.   
    214.         //Write PTS  
    215.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
    216.         AVRational r_framerate1 = { 60, 2 };  
    217.         AVRational time_base_q = { 1, AV_TIME_BASE };  
    218.         //Duration between 2 frames (us)  
    219.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
    220.         //Parameters  
    221.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
    222.         enc_pkt.dts = enc_pkt.pts;  
    223.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);  
    224.   
    225.         //转换PTS/DTS(Convert PTS/DTS)  
    226.         enc_pkt.pos = -1;  
    227.         framecnt++;  
    228.         ofmt_ctx->duration = enc_pkt.duration * framecnt;  
    229.   
    230.         /* mux encoded frame */  
    231.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
    232.         if (ret < 0)  
    233.             break;  
    234.     }  
    235.         //Write file trailer  
    236.         av_write_trailer(ofmt_ctx);  
    237.         return 0;  
    238. }  
    239.   
    240. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close  
    241.   (JNIEnv *env, jobject obj)  
    242. {  
    243.     if (video_st)  
    244.         avcodec_close(video_st->codec);  
    245.     avio_close(ofmt_ctx->pb);  
    246.     avformat_free_context(ofmt_ctx);  
    247.     return 0;  
    248. }  

    第三步:编写Android.mk如下,这里要在jni目录下放入ffmpeg的头文件,就跟平时的调用方法一样
    1. LOCAL_PATH := $(call my-dir)  
    2.   
    3. # FFmpeg library  
    4. include $(CLEAR_VARS)  
    5. LOCAL_MODULE := avcodec  
    6. LOCAL_SRC_FILES := libavcodec-56.so  
    7. include $(PREBUILT_SHARED_LIBRARY)  
    8.   
    9. include $(CLEAR_VARS)  
    10. LOCAL_MODULE := avdevice  
    11. LOCAL_SRC_FILES := libavdevice-56.so  
    12. include $(PREBUILT_SHARED_LIBRARY)  
    13.   
    14. include $(CLEAR_VARS)  
    15. LOCAL_MODULE := avfilter  
    16. LOCAL_SRC_FILES := libavfilter-5.so  
    17. include $(PREBUILT_SHARED_LIBRARY)  
    18.   
    19. include $(CLEAR_VARS)  
    20. LOCAL_MODULE := avformat  
    21. LOCAL_SRC_FILES := libavformat-56.so  
    22. include $(PREBUILT_SHARED_LIBRARY)  
    23.   
    24. include $(CLEAR_VARS)  
    25. LOCAL_MODULE := avutil  
    26. LOCAL_SRC_FILES := libavutil-54.so  
    27. include $(PREBUILT_SHARED_LIBRARY)  
    28.   
    29. include $(CLEAR_VARS)  
    30. LOCAL_MODULE := postproc  
    31. LOCAL_SRC_FILES := libpostproc-53.so  
    32. include $(PREBUILT_SHARED_LIBRARY)  
    33.   
    34. include $(CLEAR_VARS)  
    35. LOCAL_MODULE := swresample  
    36. LOCAL_SRC_FILES := libswresample-1.so  
    37. include $(PREBUILT_SHARED_LIBRARY)  
    38.   
    39. include $(CLEAR_VARS)  
    40. LOCAL_MODULE := swscale  
    41. LOCAL_SRC_FILES := libswscale-3.so  
    42. include $(PREBUILT_SHARED_LIBRARY)  
    43.   
    44. # Program  
    45. include $(CLEAR_VARS)  
    46. LOCAL_MODULE := encode  
    47. LOCAL_SRC_FILES :=encode.c  
    48. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include  
    49. LOCAL_LDLIBS := -llog -lz  
    50. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale  
    51. include $(BUILD_SHARED_LIBRARY)  

    第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下


    此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下

    第五步:在java中加载动态库
    1. static{  
    2.         System.loadLibrary("avutil-54");  
    3.         System.loadLibrary("swresample-1");  
    4.         System.loadLibrary("avcodec-56");  
    5.         System.loadLibrary("avformat-56");  
    6.         System.loadLibrary("swscale-3");  
    7.         System.loadLibrary("postproc-53");  
    8.         System.loadLibrary("avfilter-5");  
    9.         System.loadLibrary("avdevice-56");  
    10.         System.loadLibrary("encode");  
    11.     }  

    至此,就可以在java中调用我们声明的四个方法了。

    java部分获取摄像头数据并编码的流程

    简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。
    这里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。
    1. package com.zhanghui.test;  
    2.   
    3.   
    4. import java.io.IOException;  
    5. import android.annotation.TargetApi;  
    6. import android.app.Activity;  
    7. import android.content.pm.PackageManager;  
    8. import android.hardware.Camera;  
    9. import android.os.AsyncTask;  
    10. import android.os.Build;  
    11. import android.os.Bundle;  
    12. import android.util.Log;  
    13. import android.view.Menu;  
    14. import android.view.MenuItem;  
    15. import android.view.SurfaceHolder;  
    16. import android.view.SurfaceView;  
    17. import android.view.View;  
    18. import android.widget.Button;  
    19. import android.widget.Toast;  
    20.   
    21. @SuppressWarnings("deprecation")  
    22. public class MainActivity extends Activity {  
    23.     private static final String TAG= "MainActivity";  
    24.     private Button mTakeButton;  
    25.     private Camera mCamera;  
    26.     private SurfaceView mSurfaceView;  
    27.     private SurfaceHolder mSurfaceHolder;  
    28.     private boolean isRecording = false;  
    29.       
    30.     private class StreamTask extends AsyncTask<Void, Void, Void>{  
    31.           
    32.         private byte[] mData;  
    33.   
    34.         //构造函数  
    35.         StreamTask(byte[] data){  
    36.             this.mData = data;  
    37.         }  
    38.           
    39.         @Override  
    40.         protected Void doInBackground(Void... params) {     
    41.             // TODO Auto-generated method stub  
    42.             if(mData!=null){  
    43.             Log.i(TAG, "fps: " + mCamera.getParameters().getPreviewFrameRate());           
    44.             encode(mData);  
    45.             }  
    46.               
    47.           return null;  
    48.         }          
    49.     }     
    50.     private StreamTask mStreamTask;  
    51.       
    52.     @Override  
    53.     protected void onCreate(Bundle savedInstanceState) {   
    54.         super.onCreate(savedInstanceState);  
    55.         setContentView(R.layout.activity_main);  
    56.           
    57.         final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {  
    58.             @Override  
    59.             public void onPreviewFrame(byte[] arg0, Camera arg1) {  
    60.                 // TODO Auto-generated method stub  
    61.                  if(null != mStreamTask){  
    62.                         switch(mStreamTask.getStatus()){  
    63.                         case RUNNING:  
    64.                             return;  
    65.                         case PENDING:                                      
    66.                             mStreamTask.cancel(false);                        
    67.                             break;                        
    68.                         }  
    69.                     }  
    70.                  mStreamTask = new StreamTask(arg0);  
    71.                  mStreamTask.execute((Void)null);  
    72.             }  
    73.         };  
    74.   
    75.           
    76.         mTakeButton=(Button)findViewById(R.id.take_button);  
    77.           
    78.         PackageManager pm=this.getPackageManager();  
    79.         boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||  
    80.                 pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||  
    81.                 Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;  
    82.         if(!hasCamera)  
    83.             mTakeButton.setEnabled(false);  
    84.           
    85.         mTakeButton.setOnClickListener(new View.OnClickListener() {   
    86.             @Override  
    87.             public void onClick(View arg0) {  
    88.                 // TODO Auto-generated method stub  
    89.                 if(mCamera!=null)  
    90.                 {  
    91.                     if (isRecording) {                        
    92.                         mTakeButton.setText("Start");                     
    93.                         mCamera.setPreviewCallback(null);      
    94.                         Toast.makeText(MainActivity.this, "encode done", Toast.LENGTH_SHORT).show();                                                                     
    95.                         isRecording = false;                 
    96.                     }else {    
    97.                         mTakeButton.setText("Stop");  
    98.                         initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);  
    99.                         mCamera.setPreviewCallback(mPreviewCallbacx);  
    100.                         isRecording = true;    
    101.                     }   
    102.                 }  
    103.             }  
    104.         });  
    105.             
    106.          
    107.         mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);  
    108.         SurfaceHolder holder=mSurfaceView.getHolder();  
    109.         holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);  
    110.           
    111.         holder.addCallback(new SurfaceHolder.Callback() {  
    112.               
    113.             @Override  
    114.             public void surfaceDestroyed(SurfaceHolder arg0) {  
    115.                 // TODO Auto-generated method stub  
    116.                 if(mCamera!=null)  
    117.                 {  
    118.                     mCamera.stopPreview();  
    119.                     mSurfaceView = null;    
    120.                     mSurfaceHolder = null;     
    121.                 }  
    122.             }  
    123.               
    124.             @Override  
    125.             public void surfaceCreated(SurfaceHolder arg0) {  
    126.                 // TODO Auto-generated method stub  
    127.                 try{  
    128.                     if(mCamera!=null){  
    129.                         mCamera.setPreviewDisplay(arg0);  
    130.                         mSurfaceHolder=arg0;  
    131.                     }  
    132.                 }catch(IOException exception){  
    133.                     Log.e(TAG, "Error setting up preview display", exception);  
    134.                 }  
    135.             }  
    136.               
    137.             @Override  
    138.             public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {  
    139.                 // TODO Auto-generated method stub  
    140.                 if(mCamera==null) return;  
    141.                 Camera.Parameters parameters=mCamera.getParameters();             
    142.                 parameters.setPreviewSize(640,480);  
    143.                 parameters.setPictureSize(640,480);  
    144.                 mCamera.setParameters(parameters);  
    145.                 try{  
    146.                     mCamera.startPreview();  
    147.                     mSurfaceHolder=arg0;  
    148.                 }catch(Exception e){  
    149.                     Log.e(TAG, "could not start preview", e);  
    150.                     mCamera.release();  
    151.                     mCamera=null;  
    152.                 }  
    153.             }  
    154.         });  
    155.           
    156.     }  
    157.       
    158.     @TargetApi(9)  
    159.     @Override  
    160.     protected void onResume(){  
    161.         super.onResume();  
    162.         if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){  
    163.             mCamera=Camera.open(0);  
    164.         }else  
    165.         {  
    166.             mCamera=Camera.open();  
    167.         }  
    168.     }  
    169.       
    170.     @Override  
    171.     protected void onPause(){  
    172.         super.onPause();  
    173.         flush();  
    174.         close();  
    175.         if(mCamera!=null){  
    176.             mCamera.release();  
    177.             mCamera=null;  
    178.         }  
    179.     }  
    180.       
    181.   
    182.     @Override  
    183.     public boolean onCreateOptionsMenu(Menu menu) {  
    184.         // Inflate the menu; this adds items to the action bar if it is present.  
    185.         getMenuInflater().inflate(R.menu.main, menu);  
    186.         return true;  
    187.     }  
    188.   
    189.     @Override  
    190.     public boolean onOptionsItemSelected(MenuItem item) {  
    191.         // Handle action bar item clicks here. The action bar will  
    192.         // automatically handle clicks on the Home/Up button, so long  
    193.         // as you specify a parent activity in AndroidManifest.xml.  
    194.         int id = item.getItemId();  
    195.         if (id == R.id.action_settings) {  
    196.             return true;  
    197.         }  
    198.         return super.onOptionsItemSelected(item);  
    199.     }  
    200.       
    201.   //JNI  
    202.     public native int initial(int width,int height);  
    203.     public native int encode(byte[] yuvimage);  
    204.     public native int flush();  
    205.     public native int close();  
    206.       
    207.       
    208.     static{  
    209.         System.loadLibrary("avutil-54");  
    210.         System.loadLibrary("swresample-1");  
    211.         System.loadLibrary("avcodec-56");  
    212.         System.loadLibrary("avformat-56");  
    213.         System.loadLibrary("swscale-3");  
    214.         System.loadLibrary("postproc-53");  
    215.         System.loadLibrary("avfilter-5");  
    216.         System.loadLibrary("avdevice-56");  
    217.         System.loadLibrary("encode");  
    218.     }  
    219. }  

    至此,就完成了全部功能的开发,程序截图如下

    转自:  http://blog.csdn.net/nonmarking/article/details/48601317

  • 相关阅读:
    PHP curl_exec函数
    PHP curl_escape函数
    PHP curl_error函数
    PHP curl_errno函数
    PHP curl_copy_handle函数
    PHP curl_close函数
    PHP 利用 curl 发送 post get del put patch 请求
    PHP cURL 函数
    PHP 实例
    PHP 实例
  • 原文地址:https://www.cnblogs.com/welhzh/p/8278639.html
Copyright © 2011-2022 走看看