就是如果是在根文件中有一张JPG的图片 然后我要显示在屏幕上 ,这样我要如何去操作了
离线
如果只是要显示,buildroot开启fbv,板子上运行即可显示到framebuffer.
我现在是在终端将接收到的图片保存在一个文件夹内,,如果是全部接收完成 然后我就要去显示刚才接收成功的图片,现在就是不知道要去调用什么 有点模糊
离线
做个c写的应用,用libjpeg解码然后给fb即可。
或者用Python有很多image库可以解码
离线
做个c写的应用,用libjpeg解码然后给fb即可。
或者用Python有很多image库可以解码
对,解码可以直接用libjpeg里面的Demo源码,
可以把jpeg解码成rgb或者yuv.
然后再找个可以显示rgb/yuv到framebuffer的demo就好。
此人很懒,没有签名!
离线
你准备自己编程实现,还是用shell脚本?
用编程实现和用shell脚本有什么区别吗啊 那个可能效果好点 就是消耗的时间更加小哦哦
离线
晕哥 说:你准备自己编程实现,还是用shell脚本?
用编程实现和用shell脚本有什么区别吗啊 那个可能效果好点 就是消耗的时间更加小哦哦
时间更短就参考 libjpeg的解码demo代码,和fbv的显示代码.
这是 libjpeg 解码程序的demo, 把 *.jpg 文件解码成 *.bmp *.yuv 等:
https://github.com/LuaDist/libjpeg/blob/master/djpeg.c
这个是 fbv 项目的jpeg解码代码:
https://github.com/bcarmo-caio/fbv/blob/master/jpeg.c
这个是 fbv 项目的显示解码后数据到framebuffer的代码:
https://github.com/bcarmo-caio/fbv/blob/master/fb_display.c
离线
用sdl-image也很简单
离线
弄好了 :
主要是用mmap去申请一块fb显示的内存区域 通过libjpej去解码 将读取的颜色像素赋值给申请的内存区域比如*(lcd_ptr+LCD_WIDTH*y+x) = color;
就可以显示了
离线