1四、USB摄像头(V4L2接口)的图片采集

参考网站http://www.cnblogs.com/surpassal/archive/2012/12/19/zed_webcam_lab1.htmlhtml

1、一些知识linux

 一、V4L和V4L2。web

V4L是Linux环境下开发视频采集设备驱动程序的一套规范(API),它为驱动程序的编写提供统一的接口,并将全部的视频采集设备的驱动程序都归入其的管理之中。V4L不只给驱动程序编写者带来极大的方便,同时也方便了应用程序的编写和移植。V4L2是V4L的升级版,因为咱们使用的OOB是3.3的内核,再也不支持V4L,于是编程再也不考虑V4L的api和参数定义。编程

二、YUYV与RGB24api

RGB是一种颜色的表示法,计算机中通常采用24位来存储,每一个颜色占8位。YUV也是一种颜色空间,为何要出现YUV,主要有两个缘由,一个是为了让彩色信号兼容黑白电视机,另一个缘由是为了减小传输的带宽。YUV中,Y表示亮度,U和V表示色度,总之它是将RGB信号进行了一种处理,根据人对亮度更敏感些,增长亮度的信号,减小颜色的信号,以这样“欺骗”人的眼睛的手段来节省空间。YUV到RGB颜色空间转换关系是:缓存

R = Y + 1.042*(V-128);
G = Y - 0.34414*(U-128) - 0.71414*(V-128);
B = Y + 1.772*(U-128);

YUV的格式也不少,不过常见的就是42二、420等。YUYV就是422形式,简单来讲就是,两个像素点P一、P2本应该有Y一、U一、V1和Y二、U二、V2这六个份量,可是实际只保留Y一、U一、Y二、V2。ide

图1 YUYV像素函数

 

2、应用程序设计测试

先定义一些宏和结构体,方便后续编程网站

 1 #define  TRUE    1
 2 #define  FALSE    0
 3 
 4 #define FILE_VIDEO     "/dev/video0"
 5 #define BMP          "/usr/image_bmp.bmp"
 6 #define YUV            "/usr/image_yuv.yuv"
 7 
 8 #define  IMAGEWIDTH    640
 9 #define  IMAGEHEIGHT   480
10 
11 static   int fd; 12 static   struct v4l2_capability cap; 13 struct v4l2_fmtdesc fmtdesc; 14 struct v4l2_format fmt,fmtack; 15 struct v4l2_streamparm setfps; 16 struct v4l2_requestbuffers req; 17 struct v4l2_buffer buf; 18 enum v4l2_buf_type type; 19 unsigned char frame_buffer[IMAGEWIDTH*IMAGEHEIGHT*3];

其中

#define FILE_VIDEO     "/dev/video0"

是要访问的摄像头设备,默人都是/dev/video0

#define BMP          "/usr/image_bmp.bmp"
#define YUV          "/usr/image_yuv.yuv"

是采集后存储的图片,为了方便测试,这里将直接获取的yuv格式数据也保存成文件,能够经过yuvviewer等查看器查看。

static   int fd; static   struct v4l2_capability cap; struct v4l2_fmtdesc fmtdesc; struct v4l2_format fmt,fmtack; struct v4l2_streamparm setfps; struct v4l2_requestbuffers req; struct v4l2_buffer buf; enum v4l2_buf_type type;

这些结构体的定义均可以从/usr/include/linux/videodev2.h中找到定义,具体含义在后续编程会作相应解释。

#define  IMAGEWIDTH    640
#define  IMAGEHEIGHT   480

为采集图像的大小。

定义一个frame_buffer,用来缓存RGB颜色数据

unsigned char frame_buffer[IMAGEWIDTH*IMAGEHEIGHT*3]

 这些宏和定义结束后,就能够开始编程配置摄像头并采集图像了。通常来讲V4L2采集视频数据分为五个步骤:首先,打开视频设备文件,进行视频采集的参数初始化,经过V4L2接口设置视频图像的采集窗口、采集的点阵大小和格式;其次,申请若干视频采集的帧缓冲区,并将这些帧缓冲区从内核空间映射到用户空间,便于应用程序读取/处理视频数据;第三,将申请到的帧缓冲区在视频采集输入队列排队,并启动视频采集;第四,驱动开始视频数据的采集,应用程序从视频采集输出队列取出帧缓冲区,处理完后,将帧缓冲区从新放入视频采集输入队列,循环往复采集连续的视频数据;第五,中止视频采集。在本次设计中,定义了三个函数实现对摄像头的配置和采集。

int init_v4l2(void);
int v4l2_grab(void);
int close_v4l2(void);

同时因为采集到的图像数据是YUYV格式,须要进行颜色空间转换,定义了转换函数。

int yuyv_2_rgb888(void);

下面就详细介绍这几个函数的实现。

一、初始化V4l2

(1)打开视频。linux对摄像头的访问和普通设备同样,使用open函数就能够,返回值是设备的id。

1 if ((fd = open(FILE_VIDEO, O_RDWR)) == -1) 
2 {
3     printf("Error opening V4L interface\n");
4     return (FALSE);
5 }

(2)读video_capability中信息。经过调用IOCTL函数和接口命令VIDIOC_QUERYCAP查询摄像头的信息,结构体v4l2_capability中有包括驱动名称driver、card、bus_info、version以及属性capabilities。这里咱们须要检查一下是不是为视频采集设备V4L2_CAP_VIDEO_CAPTURE以及是否支持流IO操做V4L2_CAP_STREAMING。

 1 if (ioctl(fd, VIDIOC_QUERYCAP, &cap) == -1)  2 {  3     printf("Error opening device %s: unable to query device.\n",FILE_VIDEO);  4     return (FALSE);  5 }  6 else
 7 {  8      printf("driver:\t\t%s\n",cap.driver);  9      printf("card:\t\t%s\n",cap.card); 10      printf("bus_info:\t%s\n",cap.bus_info); 11      printf("version:\t%d\n",cap.version); 12      printf("capabilities:\t%x\n",cap.capabilities); 13      
14      if ((cap.capabilities & V4L2_CAP_VIDEO_CAPTURE) == V4L2_CAP_VIDEO_CAPTURE) 15  { 16         printf("Device %s: supports capture.\n",FILE_VIDEO); 17  } 18 
19     if ((cap.capabilities & V4L2_CAP_STREAMING) == V4L2_CAP_STREAMING) 20  { 21         printf("Device %s: supports streaming.\n",FILE_VIDEO); 22  } 23 }

(3)列举摄像头所支持像素格式。使用命令VIDIOC_ENUM_FMT,获取到的信息经过结构体v4l2_fmtdesc查询。这步很关键,不一样的摄像头可能支持的格式不同,V4L2能够支持的格式不少,/usr/include/linux/videodev2.h文件中能够看到。

1 fmtdesc.index=0; 2 fmtdesc.type=V4L2_BUF_TYPE_VIDEO_CAPTURE; 3 printf("Support format:\n"); 4 while(ioctl(fd,VIDIOC_ENUM_FMT,&fmtdesc)!=-1) 5 { 6     printf("\t%d.%s\n",fmtdesc.index+1,fmtdesc.description); 7     fmtdesc.index++; 8 }

(4)设置像素格式。通常的USB摄像头都会支持YUYV,有些还支持其余的格式。经过前一步对摄像头所支持像素格式查询,下面须要对格式进行设置。命令为VIDIOC_S_FMT,经过结构体v4l2_format把图像的像素格式设置为V4L2_PIX_FMT_YUYV,高度和宽度设置为IMAGEHEIGHT和IMAGEWIDTH。通常状况下一个摄像头所支持的格式是不能够随便更改的,我尝试把把一个只支持YUYV和MJPEG的摄像头格式改成RGB24或者JPEG,都没有成功。

fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; fmt.fmt.pix.height = IMAGEHEIGHT; fmt.fmt.pix.width = IMAGEWIDTH; fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; if(ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) { printf("Unable to set format\n"); return FALSE; }


为了确保设置的格式做用到摄像头上,再经过命令VIDIOC_G_FMT将摄像头设置读取回来。

 1 if(ioctl(fd, VIDIOC_G_FMT, &fmt) == -1)  2 {  3     printf("Unable to get format\n");  4     return FALSE;  5 }  6 {  7      printf("fmt.type:\t\t%d\n",fmt.type);  8      printf("pix.pixelformat:\t%c%c%c%c\n",fmt.fmt.pix.pixelformat & 0xFF, (fmt.fmt.pix.pixelformat >> 8) & 0xFF,(fmt.fmt.pix.pixelformat >> 16) & 0xFF, (fmt.fmt.pix.pixelformat >> 24) & 0xFF);  9      printf("pix.height:\t\t%d\n",fmt.fmt.pix.height); 10      printf("pix.width:\t\t%d\n",fmt.fmt.pix.width); 11      printf("pix.field:\t\t%d\n",fmt.fmt.pix.field); 12 }

完整的初始化代码以下:

 1 int init_v4l2(void)  2 {  3     int i;  4     int ret = 0;  5     
 6     //opendev
 7     if ((fd = open(FILE_VIDEO, O_RDWR)) == -1)  8  {  9         printf("Error opening V4L interface\n"); 10         return (FALSE); 11  } 12 
13     //query cap
14     if (ioctl(fd, VIDIOC_QUERYCAP, &cap) == -1) 15  { 16         printf("Error opening device %s: unable to query device.\n",FILE_VIDEO); 17         return (FALSE); 18  } 19     else
20  { 21          printf("driver:\t\t%s\n",cap.driver); 22          printf("card:\t\t%s\n",cap.card); 23          printf("bus_info:\t%s\n",cap.bus_info); 24          printf("version:\t%d\n",cap.version); 25          printf("capabilities:\t%x\n",cap.capabilities); 26          
27          if ((cap.capabilities & V4L2_CAP_VIDEO_CAPTURE) == V4L2_CAP_VIDEO_CAPTURE) 28  { 29             printf("Device %s: supports capture.\n",FILE_VIDEO); 30  } 31 
32         if ((cap.capabilities & V4L2_CAP_STREAMING) == V4L2_CAP_STREAMING) 33  { 34             printf("Device %s: supports streaming.\n",FILE_VIDEO); 35  } 36  } 37     
38     //emu all support fmt
39     fmtdesc.index=0; 40     fmtdesc.type=V4L2_BUF_TYPE_VIDEO_CAPTURE; 41     printf("Support format:\n"); 42     while(ioctl(fd,VIDIOC_ENUM_FMT,&fmtdesc)!=-1) 43  { 44         printf("\t%d.%s\n",fmtdesc.index+1,fmtdesc.description); 45         fmtdesc.index++; 46  } 47     
48     //set fmt
49     fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 50     fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; 51     fmt.fmt.pix.height = IMAGEHEIGHT; 52     fmt.fmt.pix.width = IMAGEWIDTH; 53     fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; 54     
55     if(ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) 56  { 57         printf("Unable to set format\n"); 58         return FALSE; 59  } 60     if(ioctl(fd, VIDIOC_G_FMT, &fmt) == -1) 61  { 62         printf("Unable to get format\n"); 63         return FALSE; 64  } 65  { 66          printf("fmt.type:\t\t%d\n",fmt.type); 67          printf("pix.pixelformat:\t%c%c%c%c\n",fmt.fmt.pix.pixelformat & 0xFF, (fmt.fmt.pix.pixelformat >> 8) & 0xFF,(fmt.fmt.pix.pixelformat >> 16) & 0xFF, (fmt.fmt.pix.pixelformat >> 24) & 0xFF); 68          printf("pix.height:\t\t%d\n",fmt.fmt.pix.height); 69          printf("pix.width:\t\t%d\n",fmt.fmt.pix.width); 70          printf("pix.field:\t\t%d\n",fmt.fmt.pix.field); 71  } 72     //set fps
73     setfps.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 74     setfps.parm.capture.timeperframe.numerator = 10; 75     setfps.parm.capture.timeperframe.denominator = 10; 76     
77     printf("init %s \t[OK]\n",FILE_VIDEO); 78         
79     return TRUE; 80 }

二、图像采集

(1)申请缓存区。使用参数VIDIOC_REQBUFS和结构体v4l2_requestbuffers。v4l2_requestbuffers结构中定义了缓存的数量,系统会据此申请对应数量的视频缓存。

req.count=4; req.type=V4L2_BUF_TYPE_VIDEO_CAPTURE; req.memory=V4L2_MEMORY_MMAP; if(ioctl(fd,VIDIOC_REQBUFS,&req)==-1) { printf("request for buffers error\n"); }

(2)获取每一个缓存的信息,并mmap到用户空间。定义结构体

struct buffer
{
    void * start;
    unsigned int length;
} * buffers;

来存储mmap后的地址信息。须要说明的是因为mmap函数定义时返回的地址是个void *,于是这里面的start也是个 void *。实际地址在运行的时候会自动分配。

 1 for (n_buffers = 0; n_buffers < req.count; n_buffers++)  2 {  3     buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;  4     buf.memory = V4L2_MEMORY_MMAP;  5     buf.index = n_buffers;  6     //query buffers
 7     if (ioctl (fd, VIDIOC_QUERYBUF, &buf) == -1)  8  {  9         printf("query buffer error\n"); 10         return(FALSE); 11  } 12 
13     buffers[n_buffers].length = buf.length; 14     //map
15     buffers[n_buffers].start = mmap(NULL,buf.length,PROT_READ |PROT_WRITE, MAP_SHARED, fd, buf.m.offset); 16     if (buffers[n_buffers].start == MAP_FAILED) 17  { 18         printf("buffer map error\n"); 19         return(FALSE); 20  } 21 }

(3) 以后就能够开始采集视频了。使用命令VIDIOC_STREAMON。

1 type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
2 ioctl (fd, VIDIOC_STREAMON, &type);

(4)取出缓存中已经采样的缓存。使用命令VIDIOC_DQBUF。视频数据存放的位置是buffers[n_buffers].start的地址处。

1 ioctl(fd, VIDIOC_DQBUF, &buf);

完整的采集代码:

 1 int v4l2_grab(void)  2 {  3     unsigned int n_buffers;  4     
 5     //request for 4 buffers 
 6     req.count=4;  7     req.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;  8     req.memory=V4L2_MEMORY_MMAP;  9     if(ioctl(fd,VIDIOC_REQBUFS,&req)==-1) 10  { 11         printf("request for buffers error\n"); 12  } 13 
14     //mmap for buffers
15     buffers = malloc(req.count*sizeof (*buffers)); 16     if (!buffers) 17  { 18         printf ("Out of memory\n"); 19         return(FALSE); 20  } 21     
22     for (n_buffers = 0; n_buffers < req.count; n_buffers++) 23  { 24         buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 25         buf.memory = V4L2_MEMORY_MMAP; 26         buf.index = n_buffers; 27         //query buffers
28         if (ioctl (fd, VIDIOC_QUERYBUF, &buf) == -1) 29  { 30             printf("query buffer error\n"); 31             return(FALSE); 32  } 33 
34         buffers[n_buffers].length = buf.length; 35         //map
36         buffers[n_buffers].start = mmap(NULL,buf.length,PROT_READ |PROT_WRITE, MAP_SHARED, fd, buf.m.offset); 37         if (buffers[n_buffers].start == MAP_FAILED) 38  { 39             printf("buffer map error\n"); 40             return(FALSE); 41  } 42  } 43         
44     //queue
45     for (n_buffers = 0; n_buffers < req.count; n_buffers++) 46  { 47         buf.index = n_buffers; 48         ioctl(fd, VIDIOC_QBUF, &buf); 49  } 50     
51     type = V4L2_BUF_TYPE_VIDEO_CAPTURE; 52     ioctl (fd, VIDIOC_STREAMON, &type); 53     
54     ioctl(fd, VIDIOC_DQBUF, &buf); 55 
56     printf("grab yuyv OK\n"); 57     return(TRUE); 58 }

三、YUYV转RGB24

因为摄像头采集的数据格式为YUYV,为了方便后续设计,须要转变为RGB24,并将转换完成的数据存储到frame_buffer中。值得一提的是,因为定义的时候buffers[index].start是个void *,没有办法进行+1这样的操做,须要强制转换为

char * pointer
pointer = buffers[0].start

因为后续RGB的数据要存储到BMP中,而BMP文件中颜色数据是“倒序”,即从下到上,从左到右,于是在向frame_buffer写数据时是从最后一行最左测开始写,每写满一行行数减一。

 1 int yuyv_2_rgb888(void)  2 {  3     int i,j;  4     unsigned char y1,y2,u,v;  5     int r1,g1,b1,r2,g2,b2;  6     char * pointer;  7     
 8     pointer = buffers[0].start;  9     
10     for(i=0;i<480;i++) 11  { 12         for(j=0;j<320;j++) 13  { 14             y1 = *( pointer + (i*320+j)*4); 15             u  = *( pointer + (i*320+j)*4 + 1); 16             y2 = *( pointer + (i*320+j)*4 + 2); 17             v  = *( pointer + (i*320+j)*4 + 3); 18             
19             r1 = y1 + 1.042*(v-128); 20             g1 = y1 - 0.34414*(u-128) - 0.71414*(v-128); 21             b1 = y1 + 1.772*(u-128); 22             
23             r2 = y2 + 1.042*(v-128); 24             g2 = y2 - 0.34414*(u-128) - 0.71414*(v-128); 25             b2 = y2 + 1.772*(u-128); 26             
27             if(r1>255) 28                 r1 = 255; 29             else if(r1<0) 30                 r1 = 0; 31             
32             if(b1>255) 33                 b1 = 255; 34             else if(b1<0) 35                 b1 = 0; 36             
37             if(g1>255) 38                 g1 = 255; 39             else if(g1<0) 40                 g1 = 0; 41                 
42             if(r2>255) 43                 r2 = 255; 44             else if(r2<0) 45                 r2 = 0; 46             
47             if(b2>255) 48                 b2 = 255; 49             else if(b2<0) 50                 b2 = 0; 51             
52             if(g2>255) 53                 g2 = 255; 54             else if(g2<0) 55                 g2 = 0; 56                 
57             *(frame_buffer + ((480-1-i)*320+j)*6    ) = (unsigned char)b1; 58             *(frame_buffer + ((480-1-i)*320+j)*6 + 1) = (unsigned char)g1; 59             *(frame_buffer + ((480-1-i)*320+j)*6 + 2) = (unsigned char)r1; 60             *(frame_buffer + ((480-1-i)*320+j)*6 + 3) = (unsigned char)b2; 61             *(frame_buffer + ((480-1-i)*320+j)*6 + 4) = (unsigned char)g2; 62             *(frame_buffer + ((480-1-i)*320+j)*6 + 5) = (unsigned char)r2; 63  } 64  } 65     printf("change to RGB OK \n"); 66 }

四、中止采集和关闭设备

使用命令VIDIOC_STREAMOFF中止视频采集,并关闭设备。

 1 int close_v4l2(void)  2 {  3     ioctl(fd, VIDIOC_STREAMOFF, &buf_type);  4     if(fd != -1)  5  {  6  close(fd);  7          return (TRUE);  8  }  9      return (FALSE); 10 }

五、主函数

须要把咱们采集到图像数据存储成图片,为了方便调试,先将原始的数据存储为yuv格式文件,再将转换成RGB后的数据存储为BMP。定义BMP头结构体

 1 typedef struct tagBITMAPFILEHEADER{  2      WORD    bfType;                // the flag of bmp, value is "BM"
 3      DWORD    bfSize;                // size BMP file ,unit is bytes
 4      DWORD    bfReserved;            // 0
 5      DWORD    bfOffBits;             // must be 54
 6 
 7 }BITMAPFILEHEADER;  8 
 9  
10 typedef struct tagBITMAPINFOHEADER{ 11      DWORD    biSize;                // must be 0x28
12      DWORD    biWidth;           // 13      DWORD    biHeight;          // 14      WORD        biPlanes;          // must be 1
15      WORD        biBitCount;            // 16      DWORD    biCompression;         // 17      DWORD    biSizeImage;       // 18      DWORD    biXPelsPerMeter;   // 19      DWORD    biYPelsPerMeter;   // 20      DWORD    biClrUsed;             // 21      DWORD    biClrImportant;        // 22 }BITMAPINFOHEADER;

完整的主函数

{ FILE * fp1,* fp2; BITMAPFILEHEADER bf; BITMAPINFOHEADER bi; fp1 = fopen(BMP, "wb"); if(!fp1) { printf("open "BMP"error\n"); return(FALSE); } fp2 = fopen(YUV, "wb"); if(!fp2) { printf("open "YUV"error\n"); return(FALSE); } if(init_v4l2() == FALSE) { return(FALSE); } //Set BITMAPINFOHEADER
    bi.biSize = 40; bi.biWidth = IMAGEWIDTH; bi.biHeight = IMAGEHEIGHT; bi.biPlanes = 1; bi.biBitCount = 24; bi.biCompression = 0; bi.biSizeImage = IMAGEWIDTH*IMAGEHEIGHT*3; bi.biXPelsPerMeter = 0; bi.biYPelsPerMeter = 0; bi.biClrUsed = 0; bi.biClrImportant = 0; //Set BITMAPFILEHEADER
    bf.bfType = 0x4d42; bf.bfSize = 54 + bi.biSizeImage; bf.bfReserved = 0; bf.bfOffBits = 54; v4l2_grab(); fwrite(buffers[0].start, 640*480*2, 1, fp2); printf("save "YUV"OK\n"); yuyv_2_rgb888(); fwrite(&bf, 14, 1, fp1); fwrite(&bi, 40, 1, fp1); fwrite(frame_buffer, bi.biSizeImage, 1, fp1); printf("save "BMP"OK\n"); fclose(fp1); fclose(fp2); close_v4l2(); return(TRUE); }

3、ARM板测试

PC上测试OK后,能够“挪”到ZedBoard上了。使用arm-xilinx-linux交叉编译环境对源文件进行交叉编译,将生成的可执行文件拷贝到ZedBoard上运行便可。

使用命令

arm-xilinx-linux-gnueabi-gcc v4l2grab.c -o zed-camera

对程序进行编译,编译经过后将生成的可执行文件zed-camera拷贝到到ZedBoard上,并将USB摄像头链接到ZedBoard上,经过命令

ls /dev

 查看dev目录下的是否有video0设备。若是有,能够运行可执行文件了。在运行前我比较习惯得到可执行文件的权限,使用命令

chmod +x zed-camera

参数+x的意思是这个文件对于当前用户是可执行的。也可使用

chmod 777 zed-camera

这样全部用户都有读写执行的权限。使用命令

./zed-camera

执行可执行程序,程序运行,并输出如下信息:

driver: uvcvideo
card: UVC Camera (046d:0825)
bus_info: usb-xusbps-ehci.0-1.3
version: 197376
capabilities: 4000001
Device /dev/video0: supports capture.
Device /dev/video0: supports streaming.
Support format:
1.YUV 4:2:2 (YUYV)
2.MJPEG
fmt.type: 1
pix.pixelformat: YUYV
pix.height: 480
pix.width: 640
pix.field: 1
init /dev/video0 [OK]
grab yuyv OK
save /usr/image_yuv.yuv OK
change to RGB OK
save /usr/image_bmp.bmp OK

采集到的图片默认是在/usr目录下的,将其拷贝出来
cp /usr/image* /mnt
 
完整工程和代码:https://files.cnblogs.com/files/liusiluandzhangkun/lab_v4l2_yuyv.zip
能够指定任意分辨率摄像头的代码:https://files.cnblogs.com/files/liusiluandzhangkun/v4l2grab_Anysize.rar
相关文章
相关标签/搜索