C++使用FFmpeg进行视频推流
一、前言
项目中对摄像头的实时画面进行一些处理后,有需求将处理后的画面进行编码并推流,然后在其他设备上可以直接拉流播放,所以需要我们直接使用 C++ API 进行推流操作了。
由于我这边服务端的设备是 RK3588 的开发板,推荐是使用 MPP 库进行编码,它会直接使用 VPU 设备进行硬编码,性能会好很多。所以方案计划为:
- 使用 mpp 进行单独的硬编码,将YUV数据编码为H264数据;
- 使用 ffmpeg 把编码好的H264数据写入到服务端;
- 使用 mediamtx 作为服务端,管理写入的H264数据以及和客户端的连接等。
二、Mediamtx 下载和运行
1. 下载
官方仓库:https://github.com/bluenviron/mediamtx,里面有详细的使用文档介绍。
下载链接:https://github.com/bluenviron/mediamtx/releases
上述下载链接中有已经编译好的程序,稍微往下滑一下就可以看到下载链接了,在 Assets 标签下,直接下载解压就可以使用了,注意不要下载错就行,比如我的系统是 Linux arm64 位的系统,就应该下载 mediamtx_v1.13.1_linux_arm64.tar.gz。
2. 运行
解压后有一个 mediamtx 的可执行文件和一个 mediamtx.yml 配置文件。直接运行可执行文件即可。
./mediamtx
这个服务就保持在后台常驻运行就好。
三、FFmpeg 代码编写
1. 下载
关于 ffmpeg 的下载、编译、安装文章比较多,这里不再过多介绍了。
2. 头文件
#pragma once#include <string>
extern "C" {
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
}class FFmpegServer {public:// url是推流的目标地址FFmpegServer(const std::string& url, int width, int height, int fps);~FFmpegServer();bool initialize();// data是已经编译好的h264数据// is_key_frame标识是否是关键帧bool pushFrame(const uint8_t* data, size_t size, int frame_count, bool is_key_frame);private:std::string rtsp_url;int frame_width;int frame_height;int frame_rate;AVFormatContext* fmt_ctx = nullptr;AVStream* stream = nullptr;
};
3. 源代码
#include "FFmpegServer.hpp"#include "stdio.h"
extern "C" {
#include <libavutil/opt.h>
}FFmpegServer::FFmpegServer(const std::string& url, int width, int height, int fps): rtsp_url(url), frame_width(width), frame_height(height), frame_rate(fps) {avformat_network_init();
}FFmpegServer::~FFmpegServer() {if (fmt_ctx) {av_write_trailer(fmt_ctx);if (!(fmt_ctx->oformat->flags & AVFMT_NOFILE)) avio_closep(&fmt_ctx->pb);avformat_free_context(fmt_ctx);}avformat_network_deinit();
}bool FFmpegServer::initialize() {// 创建输出上下文avformat_alloc_output_context2(&fmt_ctx, NULL, "rtsp", rtsp_url.c_str());if (!fmt_ctx) {printf("Could not create output context\n");return false;}// 创建视频流stream = avformat_new_stream(fmt_ctx, NULL);if (!stream) {printf("Failed creating new stream\n");return false;}// 设置H264编码参数AVCodecParameters* codecpar = stream->codecpar;codecpar->codec_id = AV_CODEC_ID_H264;codecpar->codec_type = AVMEDIA_TYPE_VIDEO;codecpar->width = frame_width;codecpar->height = frame_height;codecpar->format = AV_PIX_FMT_YUV420P;// 打开输出if (!(fmt_ctx->oformat->flags & AVFMT_NOFILE)) {int ret = avio_open(&fmt_ctx->pb, fmt_ctx->filename, AVIO_FLAG_WRITE);if (ret < 0) {printf("Could not open output URL: %s, Err: %d\n", rtsp_url.c_str(), ret);return false;}}// 写文件头// 注意:如果 mediamtx 没有运行的话,这里写入就会报错了,会说连不上int ret = avformat_write_header(fmt_ctx, NULL);if (ret < 0) {printf("Error writing header: %d\n", ret);return false;}return true;
}bool FFmpegServer::pushFrame(const uint8_t* data, size_t size, int frame_count, bool is_key_frame) {AVPacket pkt;av_init_packet(&pkt);pkt.data = const_cast<uint8_t*>(data);pkt.size = size;pkt.stream_index = stream->index;int64_t pts_counter = (int64_t)frame_count * (90000 / frame_rate);pkt.pts = pts_counter;pkt.dts = pts_counter;pkt.flags = is_key_frame ? AV_PKT_FLAG_KEY : 0;// 写帧int ret = av_interleaved_write_frame(fmt_ctx, &pkt);if (ret < 0) {printf("Error writing frame: %d", ret);return false;}return true;
}
4. 调用示例
#include "FFmpegServer.hpp"int main(int argc, char* argv[]) {int width = 1920;int height = 1080;int fps = 30;// 192.168.20.200 为你的ip地址// 8554 是端口号,建议不要修改// video 字符串可以自定义为任一你喜欢的值std::string url = "rtsp://192.168.20.200:8554/video";FFmpegServer ffmpeg_server(url, width, height, fps);if (!ffmpeg_server.initialize()) {return;}int frame_count = 0;while (true) {// 模拟获取的编码数据unsigned char* h264_data = ...;size_t size = ...;bool is_key_frame = frame_count % fps == 0;ffmpeg_server.pushFrame(data, size, frame_count, is_key_frame);frame_count++;}
}
四、客户端播放
客户端的网络需要保证能连上服务端的地址,即可以 ping 通上述示例中 “192.168.20.200”。
客户端上安装任一可以播放 RTSP 流的播放器,或者安装 ffmpeg 后使用 ffplay 进行播放。
下面以 ffplay
命令播放为示例:
# 直接播放
ffplay rtsp://192.168.20.200:8554/video# 低延迟播放
ffplay -fflags nobuffer -flags low_delay -framedrop rtsp://192.168.20.200:8554/video