我正在为DJI Phantom无人机构建一个iPad应用程序 . 我想将视频从无人机摄像头传输到RTMP服务器 . 我从相机委托方法使用DJI SDK从相机获取视频流 .

-(void)camera:(DJICamera *)camera didReceiveVideoData:(uint8_t *)videoBuffer length:(size_t)size {

}

我想知道将该视频缓冲区作为RTMP数据包发送到服务器的概念 . 有没有办法从中获得TS帧 . 我已经回顾了LIVEKit sdk的RTMP流媒体,它可以从iPhone / iPad相机中传输视频和音频 . 我想将自定义视频缓冲包发送到RTMP服务器 . 我为此设置了自己的服务器 . 您可以查看DJI提供的示例应用程序https://developer.dji.com/mobile-sdk/documentation/ios-tutorials/index.html