2016年,谷歌推出一个包含900万张图片的联合发布数据库:Open Images,其中标注了成千上万个对象类别。从它发布以来,谷歌的工程师一直在努力更新和重新整理数据集,以为计算机视觉研究领域提供有用的资源来开发新的模型。
【安防在线 www.anfang.cn】今天,谷歌宣布开放Open Images V4,其中包含190万张图片,共计600个类别,共标记了1540万个边界框。这个数据集成为现有的带有对象位置注释的最大数据集。这些边界框大部分是由专业的注释人员手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有几个对象的复杂场景(平均每个图像包含8个边界框)。
谷歌发起大型开放图像挑战赛
与此同时,谷歌还推出Open Image Challenge(开放图像挑战赛),这是一项新的目标检测挑战,将在2018年欧洲计算机视觉会议(ECCV 2018)上举行。Open Image Challenge遵循了PASCAL VOC、ImageNet和COCO的传统,但规模空前:
在170万张训练图片中,有1220万个有框注释,共500个类别。
比以前的检测挑战更广泛,包括诸如“fedora”和“snowman”之类的新对象。
除了对象检测这个任务之外,挑战还包括一个视觉关系检测跟踪人物,即在特定关系中检测对象的配对情况,例如“女人弹吉他”。
训练集现在已经可以使用了。一组包含10万个图像的测试集将于2018年7月1日由Kaggle发布。提交结果的截止日期是2018年9月1日。我们希望这些大型的训练集能够激发对更精密的探测模型的研究,这些模型将超过目前最先进的性能,并且500个类别将能够更精确地评估不同的探测器在哪里表现得最好。此外,有大量的图像和许多对象的注释使我们能够探索视觉关系检测,这是一个正在发展的分支领域的热门话题。
除此之外,Open Images V4还包含3010万的人工验证的图像级标签,共计19794个类别,这并不是挑战的一部分。该数据集包括550万个图像级标签,由来自世界各地的成千上万的用户在crowdsource.google.com上生成。
Open Images V4数据集
Open Images是一个由900万张图片组成的数据集,这些图像被标注为图像级标签和对象边界框。V4的训练集包含了600对象类的1460万个图像,其中共标记了174万个标记目标,这使得它成为现有的最大包含对象位置注释的数据集。这些物体的边界框大部分是由专业的注释器手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有多个对象的复杂场景(平均每个图像有8.4个标记)。此外,数据集还带有数千个类的图像级标签。
数据组织结构
数据集被分割为一个训练集(9,011,219图像),一个验证集(41620个图像)和一个测试集(125,436张图片)。这些图像被标注了图像级标签和边界框,如下所述。
表1
表1显示了数据集的所有子集中的图像级标签的概述。所有的图像都有机器生成的图像级标签,这些标签是由类似于Google Cloud Vision API的计算机视觉模型自动生成的。这些自动生成的标签有一个很大的假正率。
此外,验证和测试集,以及部分训练集都包含经过人工验证的图像级标签。大多数验证都是由Google内部的注释者完成的。更小的部分是通过图片标签软件来完成的,如Crowdsource app, g.co/imagelabeler。这个验证过程实际上消除了假阳性(但不是传统意义上的假阴性,这种方式会导致一些标签可能在图像中丢失)。由此产生的标签在很大程度上是正确的,我们建议使用这些标签来训练计算机视觉模型。使用多个计算机视觉模型来生成样本,这样做是保证在训练时不仅仅用机器生成的标签数据,这就是为什么词汇表被显著扩展的原因,如表一所示。
总的来说,有19995个不同的类和图像级标签。请注意,这个数字略高于上表中人工验证的标签的数量。原因是在机器生成的数据集中有少量的标签并没有出现在人工验证的集合中。可训练的类是那些在V4训练集中至少有100个正例的人工验证类。基于这个定义,7186个类被认为是可训练的。
边界框
表2
表2显示了数据集的所有分割中边界框注释的概述,它包含了600个对象类。这些服务提供的范围比ILSVRC和COCO探测挑战的范围更广,包括诸如“fedora”和“snowman”之类的新对象。
对于训练集,我们在174 万的图像中标注了方框,用于可用的阳性人工标记的图像级标签。我们关注最具体的标签。例如,如果一个图像包含汽车、豪华轿车、螺丝刀,我们为豪华轿车和螺丝刀提供带注释的标注方框。对于图像中的每一个标签,我们详尽地注释了图像中的对象类的每个实例。数据集共包含1460万个的边界框。平均每个图像有8.4个标记对象。
对于验证和测试集,针对所有可用的正图像级标签,我们提供了所有对象实例详尽的边界框注释。所有的边界框都是手工绘制的。我们有意地尝试在语义层次结构中尽可能详尽地标注注释框。平均来说,在验证和测试集中,每个图像标记了5个边界框。
在所有的子集中,包括训练集、验证集和测试集中,注释器还为每个边界框标记了一组属性,例如指出该对象是否被遮挡。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。