zoukankan      html  css  js  c++  java
  • ijkplayer

    (1)通用参数 
    -f fmt:指定格式(音频或者视频格式)。 
    -i filename:指定输入文件名,在 Linux 下当然也能指定 :0.0(屏幕录制)或摄像头。 
    -y:覆盖已有文件。 
    -t duration:指定时长。 
    -fs limit_size:设置文件大小的上限。 
    -ss time_off:从指定的时间(单位为秒)开始,也支持 [-]hh:mm:ss[.xxx] 的格式。 
    -re :代表按照帧率发送,尤其在作为推流工具的时候一定要加入该参数,否则 
    ffmpeg 会按照最高速率向流媒体服务器不停地发送数据。 
    -map :指定输出文件的流映射关系。例如:“ -map 1:0 -map 1:1”要求将第二个输入文件的第一个流和第二个流写入输出文件。如果没有 -map 选项,则 ffmpeg 采用默认的映射关系。 
    (2)视频参数 
    -b :指定比特率(bit/s),ffmpeg 是自动使用 VBR 的,若指定了该参数则使用平均比特率。 
    -bitexact:使用标准比特率。 
    -vb:指定视频比特率(bits/s)。 
    -r rate:帧速率(fps)。 
    -s size:指定分辨率(320×240)。 
    -aspect aspect:设置视频长宽比(4:3,16:9 或 1.3333,1.7777)。 
    -croptop size:设置顶部切除尺寸(in pixels)。 
    -cropbottom size:设置底部切除尺寸(in pixels)。 
    -cropleft size:设置左切除尺寸(in pixels)。 
    -cropright size:设置右切除尺寸(in pixels)。 
    -padtop size:设置顶部补齐尺寸(in pixels)。 
    -padbottom size:底补齐(in pixels)。 
    -padleft size:左补齐(in pixels)。 
    -padright size:右补齐(in pixels)。 
    -padcolor color:补齐带颜色(000000-FFFFFF)。 
    -vn:取消视频的输出。 
    -vcodec codec:强制使用 codec 编解码方式(’copy’ 代表不进行重新编码)。 
    (3)音频参数 
    -ab:设置比特率(单位为 bit/s,老版的单位可能是 Kbit/s),对于 MP3 格式,若要听到较高品质的声音则建议设置为 160Kbit/s(单声道则设置为 80Kbit/s)以上。 
    -aq quality:设置音频质量(指定编码)。 
    -ar rate:设置音频采样率(单位为 Hz)。 
    -ac channels:设置声道数,1 就是单声道,2 就是立体声。 
    -an:取消音频轨。 
    -acodec codec:指定音频编码(’copy’ 代表不做音频转码,直接复制)。 
    -vol volume:设置录制音量大小(默认为 256)< 百分比 >。 
    以上就是日常开发中经常用到的音视频参数以及通用参数

    ffprobe

    ./ffprobe test.mp3 查看文件信息 
    ./ffprobe -print_format json -show_streams test.mp4 // 已json形式打印详细文件log 
    显示帧信息的命令如下: 
    ffprobe -show_frames sample.mp4 
    查看包信息的命令如下: 
    ffprobe -show_packets sample.mp4 
    ffplay 
    ./ffplay test.mp3 // 播放mp3 
    ./ffplay test.mp4 // 播放mp4 
    ./ffplay test.mp4 -loop 10//循环播放10次 
    ./ffplay 16djyaoyao.pcm -f s16le -channels 1 -ar 16000 // 播放pcm文件 
    ./ffplay -f rawvideo -pixel_format yuv420p -s 320*180 test_yuv420p_320.180.yuv //播放yuv文件 
    ./ffplay test.mp4 -sync audio //音频作为基准来同步 
    ./ffplay test.mp4 -sync video //视频作为基准来同步 
    ./ffplay test.mp4 -sync ext //外部时钟作为基准来同步

    ffplay 32037.mp4 -loop 10 
    上述命令代表播放视频结束之后会从头再次播放,共循环播放 10 次。还记得前文中提到过的两路流吗? ffplay 也做了这方面的适配,也就是说在 ffplay 中其实也可以指定使用哪一路音频流或者视频流,命令如下: 
    ffplay 大话西游 .mkv -ast 1 
    上述命令表示播放视频中的第一路音频流,如果参数 ast 后面跟的是 2,那么就播放第二路音频流,如果没有第二路音频流的话,就会静音,同样也可以设置参数 vst,比如: 
    ffplay 大话西游 .mkv -vst 1 
    上述命令表示播放视频中的第一路视频流,如果参数 vst 后面跟的是 2,那么就播放第二路视频流,但是如果没有第二路视频流,就会是黑屏即什么都不显示。 
    接下来介绍开发工作中常用的几个命令,这些命令在工作中 debug 的时候非常有用。首先用 ffplay 播放裸数据,无论是音频的 pcm 文件还是视频帧原始格式表示的数据 
    (YUV420P 或者 rgba)。下面先来看看音频 pcm 文件的播放命令: 
    ffplay song.pcm -f s16le -channels 2 -ar 44100 
    仅键入上述这行命令其实就可以正常播放 song.pcm 了,当然,前提是格式(-f)、声道数(-channels)、采样率(-ar)必须设置正确,如果其中任何一项参数设置不正确,都不会得到正常的播放结果。第 1 章在讲音频的基础概念时已经提到过,WAV 格式的文件称为无压缩的格式,其实就是在 PCM 的头部添加 44 个字节,用于标识这个 PCM 的采样表示格式、声道数、采样率等信息,对于 WAV 格式音频文件,ffplay 肯定可以直接播放,但是若让 ffplay 播放 PCM 裸数据的话,只要为其提供上述三个主要的信息,那么它就可以正确地播放了。

    ffplay快捷键与选项。http://blog.csdn.net/leixiaohua1020/article/details/15186441

    ffmpeg

    ./ffmpeg -h 帮助 
    ./ffmpeg -formats // 显示ffmpeg支持的所有格式 
    ./ffmpeg -i 1.mp3 查看文件信息

    //从mp4文件中抽取视频流导出为裸H264数据 
    ./ffmpeg -i test.mp4 -an -vcodec copy -bsf:v h264_mp4toannexb test.h264 
    //提取视频文件中的音频文件 
    ./ffmpeg -i test.mp4 -vn -acodec copy output.m4a 
    //使一个视频中的音频静音,即只保留视频

    ./ffmpeg -i test.mp4 -an -vcodec copy output.mp4 
    //wav 编码ogg 
    ./ffmpeg -i 2.wav -strict -2 -f ogg 4.ogg

    1)列出 ffmpeg 支持的所有格式: 
    ffmpeg -formats

    2)剪切一段媒体文件,可以是音频或者视频文件: 
    ffmpeg -i input.mp4 -ss 00:00:50.0 -codec copy -t 20 output.mp4 
    表示将文件 input.mp4 从第 50s 开始剪切 20s 的时间,输出到文件 output.mp4 中, 其中 -ss 指定偏移时间(time Offset),-t 指定的时长(duration)。

    3) 如果在手机中录制了一个时间比较长的视频无法分享到微信中,那么可以使用 
    ffmpeg 将该视频文件切割为多个文件: 
    ffmpeg -i input.mp4 -t 00:00:50 -c copy small-1.mp4 -ss 00:00:50 -codec copy small-2.mp4

    4)提取一个视频文件中的音频文件: 
    ffmpeg -i input.mp4 -vn -acodec copy output.m4a 

    5)使一个视频中的音频静音,即只保留视频: ffmpeg -i input.mp4 -an -vcodec copy output.mp4 

    6)从 MP4 文件中抽取视频流导出为裸 H264 数据: 
    ffmpeg -i output.mp4 -an -vcodec copy -bsf:v h264_mp4toannexb output.h264 
    注意,上述指令里不使用音频数据(-an),视频数据使用 mp4toannexb 这个 bitstream filter 来转换为原始的 H264 数据,在后续的 API 章节中也会频繁使用到该 bitstream filter, 在前面的章节中也曾提到过同一编码会有不同的封装格式。

    7)使用 AAC 音频数据和 H264 的视频生成 MP4 文件: 
    ffmpeg -i test.aac -i test.h264 -acodec copy -bsf:a aac_adtstoasc -vcodec copy -f mp4 output.mp4 
    上述代码中使用了一个名为 aac_adtstoasc 的 bitstream filter,AAC 格式也有两种封装格式,前面的章节中也曾提到过,而且在后续的章节中也会继续使用 API 调用该 bitstream filter。

    8)对音频文件的编码格式做转换: 
    ffmpeg -i input.wav -acodec libfdk_aac output.aac

    9)从 WAV 音频文件中导出 PCM 裸数据: 
    ffmpeg -i input.wav -acodec pcm_s16le -f s16le output.pcm 
    这样就可以导出用 16 个 bit 来表示一个 sample 的 PCM 数据了,并且每个 sample 的字节排列顺序都是小尾端表示的格式,声道数和采样率使用的都是原始 WAV 文件的声道数和采样率的 PCM 数据。

    10)重新编码视频文件,复制音频流,同时封装到 MP4 格式的文件中: 
    ffmpeg -i input.flv -vcodec libx264 -acodec copy output.mp4

    11)将一个 MP4 格式的视频转换成为 gif 格式的动图: 
    ffmpeg -i input.mp4 -vf scale=100:-1 -t 5 -r 10 image.gif 
    上述代码按照分辨比例不动宽度改为 100(使用 VideoFilter 的 scaleFilter),帧率改为 10 
    (-r),只处理前 5 秒钟(-t)的视频,生成 gif。

    12)将一个视频的画面部分生成图片,比如要分析一个视频里面的每一帧都是什么内容的时候,可能就需要用到这个命令了: 
    ffmpeg -i output.mp4 -r 0.25 frames_%04d.png 
    上述命令每 4 秒钟截取一帧视频画面生成一张图片,生成的图片从 frames_0001.png 开始一直递增下去。

    13)使用一组图片可以组成一个 gif,如果你连拍了一组照片,就可以用下面这行命令生成一个 gif: 
    ffmpeg -i frames_%04d.png -r 5 output.gif

    14)使用音量效果器,可以改变一个音频媒体文件中的音量: 
    ffmpeg -i input.wav -af ‘ volume=0.5’ output.wav 
    上述命令是将 input.wav 中的声音减小一半,输出到 output.wav 文件中,可以直接播放来听,或者放到一些音频编辑软件中直接观看波形幅度的效果。

    15)淡入效果器的使用: 
    ffmpeg -i input.wav -filter_complex afade=t=in:ss=0:d=5 output.wav 
    上述命令可以将 input.wav 文件中的前 5s 做一个淡入效果,输出到 output.wav 中,可以将处理之前和处理之后的文件拖到 Audacity 音频编辑软件中查看波形图。

    16)淡出效果器的使用: 
    ffmpeg -i input.wav -filter_complex afade=t=out:st=200:d=5 output.wav 
    上述命令可以将 input.wav 文件从 200s 开始,做 5s 的淡出效果,并放到 output.wav 文件中。

    17)将两路声音进行合并,比如要给一段声音加上背景音乐: 
    ffmpeg -i vocal.wav -i accompany.wav -filter_complex amix=inputs=2:duration=shortest output.wav 
    上述命令是将 vocal.wav 和 accompany.wav 两个文件进行 mix,按照时间长度较短的音频文件的时间长度作为最终输出的 output.wav 的时间长度。

    18)对声音进行变速但不变调效果器的使用: 
    ffmpeg -i vocal.wav -filter_complex atempo=0.5 output.wav 
    上述命令是将 vocal.wav 按照 0.5 倍的速度进行处理生成 output.wav,时间长度将会变为输入的 2 倍。但是音高是不变的,这就是大家常说的变速不变调。

    19)为视频增加水印效果: 
    ffmpeg -i input.mp4 -i changba_icon.png -filter_complex ‘[0:v][1:v]overlay=main_w-overlay_w-10:10:1[out]’ -map ‘[out]’ output.mp4 
    上述命令包含了几个内置参数,main_w 代表主视频宽度,overlay_w 代表水印宽度, 
    main_h 代表主视频高度,overlay_h 代表水印高度。

    20)视频提亮效果器的使用: 
    ffmpeg -i input.flv -c:v libx264 -b:v 800k -c:a libfdk_aac -vf eq=brightness=0.25 
    -f mp4 output.mp4 
    提亮参数是 brightness,取值范围是从 -1.0 到 1.0,默认值是 0。21)为视频增加对比度效果: 
    ffmpeg -i input.flv -c:v libx264 -b:v 800k -c:a libfdk_aac -vf eq=contrast=1.5 -f mp4 output.mp4 
    对比度参数是 contrast,取值范围是从 -2.0 到 2.0,默认值是 1.0。22)视频旋转效果器的使用: 
    ffmpeg -i input.mp4 -vf “transpose=1” -b:v 600k output.mp4

    23)视频裁剪效果器的使用: 
    ffmpeg -i input.mp4 -an -vf “crop=240:480:120:0” -vcodec libx264 -b:v 600k output.mp4

    24)将一张 RGBA 格式表示的数据转换为 JPEG 格式的图片: 
    ffmpeg -f rawvideo -pix_fmt rgba -s 480*480 -i texture.rgb -f image2 -vcodec mjpeg output.jpg

    25)将一个 YUV 格式表示的数据转换为 JPEG 格式的图片: 
    ffmpeg -f rawvideo -pix_fmt yuv420p -s 480*480 -i texture.yuv -f image2 -vcodec mjpeg output.jpg

    26)将一段视频推送到流媒体服务器上: 
    ffmpeg -re -i input.mp4 -acodec copy -vcodec copy -f flv rtmp://xxx 
    上述代码中,rtmp://xxx 代表流媒体服务器的地址,加上 -re 参数代表将实际媒体文件的播放速度作为推流速度进行推送。

    27)将流媒体服务器上的流 dump 到本地: 
    ffmpeg -i http://xxx/xxx.flv -acodec copy -vcodec copy -f flv output.flv 
    上述代码中,http://xxx/xxx.flv 代表一个可以访问的视频网络地址,可按照复制视频流格式和音频流格式的方式,将文件下载到本地的 output.flv 媒体文件中。

    28)将两个音频文件以两路流的形式封装到一个文件中,比如在 K 歌的应用场景中,原伴唱实时切换的场景下,可以使用一个文件包含两路流,一路是伴奏流,另外一路是原唱流: 
    ffmpeg -i 131.mp3 -i 134.mp3 -map 0:a -c:a:0 libfdk_aac -b:a:0 96k -map 1:a -c:a:1 libfdk_aac -b:a:1 64k -vn -f mp4 output.m4a

    eg:ios

        NSURL *url = [NSURL URLWithString:liveStreamString];
        [IJKFFMoviePlayerController checkIfFFmpegVersionMatch:YES];
        IJKFFOptions *options = [IJKFFOptions optionsByDefault];
        //设置最大fps
        [options setPlayerOptionIntValue:30  forKey:@"max-fps"];
        // 跳帧开关,如果cpu解码能力不足,可以设置成5,否则
        // 会引起音视频不同步,也可以通过设置它来跳帧达到倍速播放
        [options setPlayerOptionIntValue:5  forKey:@"framedrop"];
    
        [options setCodecOptionIntValue:IJK_AVDISCARD_DEFAULT forKey:@"skip_frame"];
        //解码参数,画面更清晰
        [options setCodecOptionIntValue:IJK_AVDISCARD_DEFAULT forKey:@"skip_loop_filter"];
        //播放前的探测时间
        [options setFormatOptionIntValue:50000 forKey:@"analyzeduration"];
        //播放前的探测Size,默认是1M, 改小一点会出画面更快
        [options setFormatOptionIntValue:1024 * 16 forKey:@"probesize"];
        //如果是rtsp协议,可以优先用tcp(默认是用udp)
    //    [options setFormatOptionValue:@"tcp" forKey:@"rtsp_transport"];
        //开启硬解码 1是硬解 0是软解
        [options setPlayerOptionIntValue:0  forKey:@"videotoolbox"];
        // 帧速率(fps) (可以改,确认非标准桢率会导致音画不同步,所以只能设定为15或者29.97)
        [options setPlayerOptionIntValue:29.97 forKey:@"r"];
    //    // -vol——设置音量大小,256为标准音量。(要设置成两倍音量时则输入512,依此类推
    //    [options setPlayerOptionIntValue:512 forKey:@"vol"];
        //静音设置
        [options setPlayerOptionValue:@"1" forKey:@"an"];
        //帧数
        [options setPlayerOptionIntValue:5  forKey:@"min-frames"];
        
        // Param for living
        [options setPlayerOptionIntValue:3000 forKey:@"max_cached_duration"];   // 最大缓存大小是3秒,可以依据自己的需求修改
        [options setPlayerOptionIntValue:1 forKey:@"infbuf"];  // 无限读
        [options setPlayerOptionIntValue:0 forKey:@"packet-buffering"];  //  关闭播放器缓冲

    觉得有用的同学点个关注,或者留言评论区,看到邮件提示消息尽快回复。

  • 相关阅读:
    HDFS小文件处理——Mapper处理
    HDFS 小文件处理——应用程序实现
    kafka的环境搭建
    Storm集群的搭建
    Pig简单入门
    HBase学习笔记
    HBase的Shell操作
    面试必备2014
    常用SQL Server分页方式
    C# DES 加密解密
  • 原文地址:https://www.cnblogs.com/baitongtong/p/12766427.html
Copyright © 2011-2022 走看看