HarmonyOS 鸿蒙Next基于OpenGL渲染视频画面帧

发布于 1周前 作者 eggper 最后一次编辑是 5天前 来自 鸿蒙OS

HarmonyOS 鸿蒙Next基于OpenGL渲染视频画面帧

场景描述

在直播场景中,会有礼物、魔法等表情临时出现在画面,需要获取视频画面帧进行纹理更新后再渲染

通过OpenGL渲染视频画面帧。

⦁    在ArkTS侧调用createAVPlayer()创建AVPlayer实例,初始化进入idle状态。设置业务需要的监听事件,设置资源:设置属性url,AVPlayer进入initialized状态。

⦁    设置窗口:获取并设置属性SurfaceID,该surfaceId是native侧nativeImage的surfaceID,调用play方法开始播放。

⦁    添加XComponent组件,在native侧通过OH_NativeXComponent_RegisterCallback注册XComponent回调。

⦁    在napi 接口init的时候在Xcomponent的OnSurfaceCreatedCB回调中初始化渲染线程,通过OH_NativeImage_Create创建nativeImage。

⦁    通过OH_NativeImage_GetSurfaceId获取surfaceID并传递到arkts侧。

⦁    通过OH_NativeImage_SetOnFrameAvailableListener设置帧可用回调,通过NativeVsync接收系统信号,控制渲染。

⦁    通过OH_NativeImage_UpdateSurfaceImage获取最新帧更新相关联的OpenGL ES纹理,通过eglSwapBuffers将纹理渲染上屏。

核心代码

创建nativeImage,获取nativeImage的id,设置帧可用回调。

bool RenderThread::CreateNativeImage()
{
nativeImage_ = OH_NativeImage_Create(-1, GL_TEXTURE_EXTERNAL_OES);
if (nativeImage_ == nullptr) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”, “OH_NativeImage_Create failed.”);
return false;
}
int ret = 0;
{
std::lock_guard<std::mutex> lock(nativeImageSurfaceIdMutex_);
ret = OH_NativeImage_GetSurfaceId(nativeImage_, &nativeImageSurfaceId_);
}
if (ret != 0) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”,
“OH_NativeImage_GetSurfaceId failed, ret is %{public}d.”, ret);
return false;
}
nativeImageFrameAvailableListener_.context = this;
nativeImageFrameAvailableListener_.onFrameAvailable = &RenderThread::OnNativeImageFrameAvailable;
ret = OH_NativeImage_SetOnFrameAvailableListener(nativeImage_, nativeImageFrameAvailableListener_);
if (ret != 0) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”,
“OH_NativeImage_SetOnFrameAvailableListener failed, ret is %{public}d.”, ret);
return false;
}
return true;
}
void RenderThread::OnNativeImageFrameAvailable(void *data)
{
OH_LOG_Print(LOG_APP, LOG_DEBUG, LOG_PRINT_DOMAIN, “RenderThread”, “OnNativeImageFrameAvailable.”);
auto renderThread = reinterpret_cast<RenderThread *>(data);
if (renderThread == nullptr) {
return;
}
renderThread->availableFrameCnt_++;
renderThread->wakeUpCond_.notify_one();
}
NativeVsync接收系统发送的Vsync信号,控制渲染节奏。
bool RenderThread::InitNativeVsync()
{
nativeVsync_ = OH_NativeVSync_Create(DEMO_NAME, strlen(DEMO_NAME));
if (nativeVsync_ == nullptr) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”, “Create NativeVSync failed.”);
return false;
}
(void)OH_NativeVSync_RequestFrame(nativeVsync_, &RenderThread::OnVsync, this);
return true;
}
void RenderThread::OnVsync(long long timestamp, void *data)
{
OH_LOG_Print(LOG_APP, LOG_DEBUG, LOG_PRINT_DOMAIN, “RenderThread”, “OnVsync %{public}llu.”, timestamp);
auto renderThread = reinterpret_cast<RenderThread *>(data);
if (renderThread == nullptr) {
return;
}
renderThread->vSyncCnt_++;
renderThread->wakeUpCond_.notify_one();
}<button style="position: absolute; padding: 4px 8px 0px; cursor: pointer; top: 8px; right: 8px; font-size: 14px;">复制</button>

在渲染线程中更新画面帧数据到OpenGL纹理,并做对应的opengl处理后,通过SwapBuffers()方法上屏。

void RenderThread::DrawImage()
{
if(nativeImageTexId_ == 9999) {
glGenTextures(1, &nativeImageTexId_);
glBindTexture(GL_TEXTURE_EXTERNAL_OES, nativeImageTexId_);
// set the texture wrapping parameters 
glTexParameteri(GL_TEXTURE_EXTERNAL_OES, GL_TEXTURE_WRAP_S, GL_REPEAT);
glTexParameteri(GL_TEXTURE_EXTERNAL_OES, GL_TEXTURE_WRAP_T, GL_REPEAT);
// set texture filtering parameters 
glTexParameteri(GL_TEXTURE_EXTERNAL_OES, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_EXTERNAL_OES, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
}
OH_LOG_Print(LOG_APP, LOG_DEBUG, LOG_PRINT_DOMAIN, “RenderThread”, “DrawImage.”);
if (eglSurface_ == EGL_NO_SURFACE) {
OH_LOG_Print(LOG_APP, LOG_WARN, LOG_PRINT_DOMAIN, “RenderThread”, “eglSurface_ is EGL_NO_SURFACE”);
return;
}
OH_NativeImage_AttachContext(nativeImage_, nativeImageTexId_);
renderContext_->MakeCurrent(eglSurface_);
int32_t ret = OH_NativeImage_UpdateSurfaceImage(nativeImage_);
if (ret != 0) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”,
“OH_NativeImage_UpdateSurfaceImage failed, ret: %{public}d, texId: %{public}d”,
ret, nativeImageTexId_);
return;
}
OH_LOG_Print(LOG_APP, LOG_DEBUG, LOG_PRINT_DOMAIN, “RenderThread”, “OH_NativeImage_UpdateSurfaceImage succeed.”);
float matrix[16];
ret = OH_NativeImage_GetTransformMatrix(nativeImage_, matrix);
if (ret != 0) {
OH_LOG_Print(LOG_APP, LOG_ERROR, LOG_PRINT_DOMAIN, “RenderThread”,
“OH_NativeImage_GetTransformMatrix failed, ret: %{public}d”, ret);
return;
}
glClearColor(1.0f, 1.0f, 1.0f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
shaderProgram_->Use();
shaderProgram_->SetInt(“texture”, 0);
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_EXTERNAL_OES, nativeImageTexId_);
shaderProgram_->SetMatrix4v(“matTransform”, matrix, 16, false);
glBindVertexArray(vertexArrayObject_);
glEnable(GL_DEPTH_TEST);
glDrawElements(GL_TRIANGLES, 6, GL_UNSIGNED_INT, Detail::indices);
renderContext_->SwapBuffers(eglSurface_);
}

7 回复
请问有没有git链接学习一下呢?

您好,当前技术文章配套的demo工程正在外发中,后续会发布至gitee上,敬请关注!

什么时候发布啊,为什么我的工程中连定义GL_TEXTURE_EXTERNAL_OES都找不到

当前工程发布了么

还未发布,发布后我这边会第一时间同步回复的!

在HarmonyOS(鸿蒙)上基于OpenGL渲染视频画面帧,通常涉及以下几个关键步骤:

  1. 环境配置:确保你的HarmonyOS应用已正确配置OpenGL ES环境,包括必要的权限声明和OpenGL上下文(Context)的创建。

  2. 视频解码:首先,需要将视频数据解码成帧数据,如YUV或RGB格式。这通常通过MediaCodec或第三方库(如FFmpeg)来完成。

  3. 纹理创建与绑定:为每帧视频数据创建一个OpenGL纹理(Texture),并将解码后的帧数据上传到该纹理。使用glTexImage2D或类似函数将像素数据绑定到纹理上。

  4. 渲染循环:在渲染循环中,不断从视频源获取新的帧,更新纹理,并使用OpenGL的绘制命令(如glDrawArraysglDrawElements)将纹理绘制到屏幕上。

  5. 同步与性能优化:注意处理视频帧与屏幕刷新率的同步问题,以及优化渲染流程以提高性能,如减少CPU到GPU的数据传输次数,利用GPU的并行处理能力等。

如果你遇到具体实现上的问题,如纹理创建失败、渲染效果不理想等,建议检查OpenGL状态码、纹理配置参数以及视频解码流程。此外,确保你的设备支持所需的OpenGL ES版本。如果问题依旧没法解决,请联系官网客服,官网地址是:https://www.itying.com/category-93-b0.html

回到顶部