zoukankan      html  css  js  c++  java
  • yuv rgb

    自己的过程里面,也用了ffmpeg的库,在模拟器上也跑的飞起,放到手机上,一秒要拖长到两秒来播放,这样根本不行的
    我现在是做一个雏形,所以是接受一帧 H264,然后就用ffmpeg解码为yuv。再把数据解码为rgb,在转化为UIImage,用UIimageview显示的。这个过程应该有很多改进的地方
    比如解码和显示分为两个线程。现在不是很明白到底是ffmpeg解码消耗的时间多,还是贴图消耗的时间多。如果是后者,可以用各种我现在还不会的技术改善。如果是前者,就不知道怎么办了。求指导



    一下是ffmpeg的一些东西
    iFrameExtractor不知道用的什么版本的ffmpeg 我换成了0.6.1 的,我用这样的编译选项
    ./configure --cc=/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/arm-apple-darwin10-gcc-4.2.1 --as='gas-preprocessor.pl /Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/arm-apple-darwin10-gcc-4.2.1' --sysroot=/Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS3.1.2.sdk --enable-cross-compile --target-os=darwin --arch=arm --cpu=arm1176jzf-s --disable-debug --disable-stripping --enable-neon --enable-pthreads
    后面两个是我自己看了别人的帖子加的,不过在真机上跑,也没啥用。看那给的资料,也不是很明白一些选项给出来,对解码效率有多少改善。

  • 相关阅读:
    机器学习中 margin loss 、hinge loss 和 ramp loss 的区别
    ML 论文中 用到的 temperature
    对一系列 pickle load 进行解包,只保留最后几个
    Linux 常用命令速览
    Numpy 的 dtype 和 astype 的区别
    远程配置 tensorflow 环境
    pytorch 的一些坑
    Conda 配置虚拟 pytorch 环境 和 Tensorflow 环境
    Ubuntu 远程离线配置 pytorch 运行环境
    3.Vue起步
  • 原文地址:https://www.cnblogs.com/moonvan/p/2173471.html
Copyright © 2011-2022 走看看