int w=1080;
int h = 2220;
int b[]=new int[w*(0+h)];
int bt[]=new int[w*h];
IntBuffer ib = IntBuffer.wrap(b);
ib.position(0);
GLES20.glReadPixels(0, 0, w, h, GLES20.GL_RGBA, GLES20.GL_UNSIGNED_BYTE, ib);
for(int i=0, k=0; i<h; i++, k++)
{//remember, that OpenGL bitmap is incompatible with Android bitmap
//and so, some correction need.
for(int j=0; j<w; j++)
{
int pix=b[i*w+j];
int pb=(pix>>16)&0xff;
int pr=(pix<<16)&0x00ff0000;
int pix1=(pix&0xff00ff00) | pr | pb;
bt[(h-k-1)*w+j]=pix1;
}
}
sb=Bitmap.createBitmap(bt, w, h, Bitmap.Config.ARGB_8888);
3 回答
也许这可以帮助你,我想以位图的形式获取相机视图 . 我在三星s8上测试过 .
目前,访问图像数据的最佳选择可能是将纹理绘制到渲染缓冲区并将glReadPixels用于持久映射像素解包缓冲区 . 使用fence同步来检测glReadPixels何时完成 .
另一种选择是使用计算着色器并直接写入持久映射的SSBO . (忽略持久映射的建议 . 我认为EXT_buffer_storage有更广泛的支持)
后者可能是更少的副本(即使你在glReadPixels之后使它无效,渲染缓冲区像素仍然可以命中DRAM),但它也是一个不常见的代码路径并导致渲染/计算转换,所以我没有直觉关于哪种方法会更有效率 .
从ARCore v1.1.0开始,有一个API可以访问当前帧的图像字节:
https://developers.google.com/ar/reference/java/com/google/ar/core/Frame.html#acquireCameraImage()