CN104995591A - 图像处理设备及程序 - Google Patents

图像处理设备及程序 Download PDF

Info

Publication number
CN104995591A
CN104995591A CN201380073275.1A CN201380073275A CN104995591A CN 104995591 A CN104995591 A CN 104995591A CN 201380073275 A CN201380073275 A CN 201380073275A CN 104995591 A CN104995591 A CN 104995591A
Authority
CN
China
Prior art keywords
information
image
area
indicating positions
partitioned area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380073275.1A
Other languages
English (en)
Other versions
CN104995591B (zh
Inventor
小堀田良子
布施透
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN104995591A publication Critical patent/CN104995591A/zh
Application granted granted Critical
Publication of CN104995591B publication Critical patent/CN104995591B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables

Abstract

本发明的目的是从例如作为要由图像处理装置进行处理的图像进行显示的图片、图形、以及符号之类的对象中选择其自身位置不与用户指定的位置重叠的对象。图像处理装置(100)获取出现了对象(201)的图像(200)中用户指定的位置;基于该对象(201)的位置对该图像(200)中要被处理的区域进行划分以产生各分区(209);基于用户指定的位置来指定分区区域(211);并且基于所指定的分区区域(211)来判定该对象(201)是否被选中。

Description

图像处理设备及程序
技术领域
本发明涉及图像处理设备及程序。
背景技术
近来,图形用户接口(下文中被称作GUI)通常广泛用于例如个人计算机、蜂窝电话以及家用游戏机之类的信息装备,当利用定点设备(例如鼠标或触摸板)选择显示器上显示的图标时,图形用户接口允许应用软件执行各种信息处理。
作为通常用于通过GUI对显示器上显示的图标进行选择的操作,例如,一种公知的方法是点击(轻敲)待选中的期望图标的位置,以对该图标进行选择。另一种公知的方法是拖曳出矩形区域以覆盖多个待选中的期望图标,从而选择所述多个图标。
这些被GUI采用的图标选择方法也可以应用于图像处理设备。因此,例如,对于要由图像处理设备进行处理的图像中示出的诸如图片、几何图形、以及符号之类的对象,可以选择自身位置与用户所指示的位置重叠的对象。
下文提及的专利文献公开了这样的装置,该装置用于产生包括了与背景颜色不同的颜色的区域(除非另外指定,否则下文中该区域被称作“有效像素区域”)。
引用列表
专利文献
专利文献1:JP-A-2005-175641
发明内容
技术问题
本发明的目的是提供一种图像处理设备和程序,其使得可以选择自身位置不与用户指示位置重叠的对象。
解决问题的方案
为了实现上述目的,根据权利要求1的发明涉及一种图像处理设备,其特征在于包括用于获取指示位置信息的指示位置信息获取装置,所述指示位置信息包括在示出了至少一个对象的图像中的至少一个用户指示位置;参考位置信息获取装置,其用于获取包括了所述对象在所述图像中的位置的参考位置信息;分区装置,其用于基于所述参考位置信息对所述图像的目标区域进行划分,以产生多个分区区域;分区区域识别装置,其用于基于所述多个分区区域和所述指示位置信息对至少一个分区区域进行识别;以及对象判定装置,其用于基于识别的分区区域来判定所述对象是否已被选中。
此外,根据权利要求2的发明涉及根据权利要求1所述的图像处理设备,其特征在于,所述对象判定单元基于所述对象的位置或所述对象的区域来判定所述对象是否已被选中。
此外,根据权利要求3的发明涉及根据权利要求1或2所述的图像处理设备,其特征在于,所述参考位置信息包括表示所述图像的目标区域的边界的至少一个位置,并且所述对象判定装置包括区域判定装置,该区域判定装置用于判定已被所述分区区域识别装置识别的所述分区区域是否与所述对象相关,如果所识别的分区区域是基于表示所述图像的目标区域的边界的位置而划分的分区区域、并且被判定为与所述对象无关,则所述对象判定装置判定所述对象未被选中。
此外,根据权利要求4的发明涉及根据权利要求1至3中的任意一项所述的图像处理设备,其特征在于,所述分区装置基于所述参考位置信息来获取所述图像中的各基点的位置,并且在基于各基点的位置而定义的Voronoi边界的基础上对所述图像的目标区域进行划分,以产生多个分区区域。
此外,根据权利要求5的发明涉及根据权利要求4所述的图像处理设备,其特征在于,所述分区装置在基于所述各基点的位置而定义的Delaunay边界以及所述Voronoi边界的基础上对所述图像的目标区域进行划分,以产生多个分区区域。
此外,根据权利要求6的发明涉及根据权利要求1至5中的任意一项所述的图像处理设备,其特征在于,所述指示位置信息包括表示用户指示线段或用户指示区域的信息,并且所述分区区域识别装置基于表示用户指示线段或用户指示区域的信息,对至少一个分区区域进行识别。
此外,根据权利要求7的发明涉及根据权利要求1至6中的任意一项所述的图像处理设备,其特征在于,所述图像是其中示出了至少一个对象和至少一个标记的图像,所述图像处理设备包括用于获取所述图像中示出的有效像素区域的有效像素区域获取装置,以及用于将所述有效像素区域辨别为所述对象和所述标记中的一个的辨别装置,并且所述指示位置信息获取装置包括标记信息获取装置,该标记信息获取装置用于基于所述图像中的标记来获取所述指示位置信息。
此外,根据权利要求8的发明涉及根据权利要求1至7中的任意一项所述的图像处理设备,其特征在于,所述图像处理设备包括用于将所述指示位置信息与指示处理信息进行关联的装置,所述指示处理信息表示关于所述对象的用户指示处理;所述分区区域识别装置包括第一指示处理信息获取装置,其用于获取如下的指示处理信息,该指示处理信息与用于对识别的分区区域进行识别的指示位置信息相关联,并且与识别的分区区域相关;所述对象判定装置包括第二指示处理信息获取装置,其用于获取如下的指示处理信息,该指示处理信息与用于对被判定为已选中的对象进行判定的识别的分区区域相关联,并且与所述对象相关;并且所述分区区域识别装置包括对象处理装置,其用于针对被判定为已选中的对象来执行由与所述对象相关的所述指示处理信息表示的处理。
此外,根据权利要求9的发明涉及一种程序,其使得计算机用作:用于获取指示位置信息的指示位置信息获取装置,所述指示位置信息包括在示出了至少一个对象的图像中的至少一个用户指示位置;参考位置信息获取装置,其用于获取包括了所述对象在所述图像中的位置的参考位置信息;分区装置,其用于基于所述参考位置信息对所述图像的目标区域进行划分,以产生多个分区区域;分区区域识别装置,其用于基于所述多个分区区域和所述指示位置信息对至少一个分区区域进行识别;以及对象判定装置,其用于基于识别的分区区域来判定所述对象是否已被选中。
发明的有益效果
根据权利要求1或权利要求9的发明,自身位置不与用户指示位置重叠的对象也可以被判定为已选中。
根据权利要求2的发明,自身位置不与用户指示位置重叠的对象也可以被判定为已选中。
根据权利要求3的发明,可以根据用户指示位置将对象判定为未被选中。
根据权利要求4的发明,自身位置不与用户指示位置重叠的对象也可以被判定为已选中。
根据权利要求5的发明,自身位置不与用户指示位置重叠的对象也可以被判定为已选中,而没有超出根据权利要求4的本发明的范围。
根据权利要求6的发明,自身位置不与用户指示线段或用户指示区域重叠的对象也可以被判定为已选中。
根据权利要求7的发明,自身位置不与图像中示出的标记重叠的对象也可以被判定为已选中。
根据权利要求8的发明,也可以对自身位置不与用户指示位置重叠的对象执行与指示位置信息相关联的处理。
附图说明
图1示出了根据本发明的实施例的图像处理设备的一个示例。
图2示出了待处理图像的示例。
图3示出了有效像素区域的一个示例。
图4示出了对象区域和标记区域的一个示例。
图5示出了利用定点装置进行指示的区域的示例。
图6示出了Voronoi边界、Delaunay边界以及由它们各自的边界线定义的分区区域的示例。
图7示出了识别的分区区域的示例。
图8示出了已选中的对象区域的一个示例。
图9是示出图像处理设备所执行的处理的流程图。
图10是示出图像处理设备所执行的处理的流程图。
图11示出了根据一个改型的选中的对象位置的一个示例。
图12示出了Voronoi边界以及根据其边界线产生的分区区域的一个示例。
图13示出了根据一个改型的识别的分区区域以及选中的对象区域的一个示例。
图14示出了根据一个改型的图像处理设备的一个示例。
图15是示出根据一个改型的图像处理设备所执行的处理的流程图。
具体实施方式
下面,将参照附图对本发明的各实施例进行具体而详细的描述。在以下附图中,将用相同的附图标记来表示具有相同功能的部件,并且本文中省略了对这些部件的任何重复性描述,除非有必要对其进行重复性描述。
[图像处理设备的配置]
图1示出了根据本发明的实施例的图像处理设备的一个示例。如图1所示,图像处理设备100包括控制器110、存储器120、操作单元130、以及显示器140。
控制器110包括CPU等。控制器110根据存储器120中存储的程序进行操作。存储器120包括RAM、ROM等。存储器120对由控制器110执行的程序进行存储。存储器120还起到控制器110的工作存储器的作用。
存储器120可预先存储图像处理设备待处理的图像数据。存储器120还可预先存储由图像处理设备使用的各种数据,例如除待处理图像之外的图像数据。
存储器120可以是任何计算机可读信息存储介质。例如,存储器120可包括硬盘等。虽然本实施例针对在存储器120中存储由控制器110执行的程序的情况,但是也可以例如通过通信网络(例如互联网)提供所述程序。可替代地,例如,可以通过存储于各种计算机可读记录介质(例如CD-ROM和DVD-ROM)的形式提供所述程序。
操作单元130是接受由用户执行的操作的输入装置。例如,可使用键盘、鼠标、操作按钮等作为操作单元130。将关于操作单元130所接受的操作的信息输出至控制器110。显示器140例如是显示器或投影仪。显示器140根据来自控制器110的命令来执行与显示器140中包括的各种已知功能对应的输出处理,例如“在屏幕上显示图像”或“将图像投影到屏幕上”。
例如,可以使用触摸板或其他各种已知输入装置作为操作单元130和显示器140。
[图像处理设备实现的功能]
接下来,将对根据本实施例的图像处理设备100所实现的功能进行描述。如图1所示,图像处理设备100包括以下功能:图像接受单元111、有效像素区域获取单元112、标记/对象辨别单元113、指示位置信息获取单元114、参考位置信息获取单元115、区域划分单元116、分区区域识别单元117、以及对象判定单元118。通过例如由控制器110执行在存储器120中存储的程序来实现这些功能。下面,将参照图2至图10详细描述以上功能。
[图像接受单元]
首先,图像接受单元111接受要由根据本发明的图像处理设备100进行处理的目标图像。例如,图像接受单元111通过接受来自用户或给定应用程序的请求,来获取在存储器120中存储的目标图像。可替代地,图像接受单元111可以从与图像处理设备100连接的给定设备(例如蜂窝电话、数码照相机或扫描仪)接受目标图像,或者可以从通过网络连接至图像处理设备100的设备下载目标图像,来接受所述目标图像。
图2示出了待处理图像的示例。例如,根据本实施例的图像200是通过对白板(记录介质)的图像进行捕获而获得的图像数据。如图2所示,图像200示出了以不同于背景颜色的颜色(在本示例中,该颜色是指在白板表面的色域之外的颜色)表示的各个对象201(例如在白板表面上绘制的字符、图片、几何图形、或符号),以及以指示各对象201为目的的标记202(例如,放置在对象201附近的便利贴)。
图像200中示出的标记202可以是具有预定图像特征(例如,可以通过图形匹配检测到的图像特征)的任意标记。除了上述便利贴外,也可以使用例如磁铁、或者特定的符号或几何图形。
图像200并不限于如上所述的通过捕获白板的图像而获得的图像。图像200可以是在背景颜色上示出对象201与标记202的任意图像,并且可以是例如由给定应用程序创建的图像。
图像200并不限于在存储器120中存储的图像数据。图像处理设备100中包括的图像产生器150所产生的图像数据可以充当待处理图像数据。例如,图像接受单元111可以接受图像产生器150所产生的图像数据作为图像200。此外,当显示器140上显示的区域被设置为要由图像处理设备100进行处理的区域(下文中被称作目标区域)之后,可以获取如上所述的所显示的图像的整个区域作为图像200。
可替代地,例如,图像接受单元111可以获取由用户利用定点装置(例如鼠标或触模板)指示的屏幕上的区域中示出的图像,作为图像200。
[有效像素区域获取单元]
有效像素区域获取单元112对图像200中示出的有效像素区域进行获取。例如,基于由图像接受单元111获取的图像,有效像素区域获取单元112根据预定的标准来获取多个有效像素区域。在这一点上,有效像素区域是指图像200中包括了与背景颜色不同的颜色的区域。即,每个有效像素区域包括对象201或标记202。
图3示出了有效像素区域的一个示例。如图3所示,有效像素区域获取单元112从图像200中示出的对象201和标记202中获取有效像素区域203。
具体地,首先,有效像素区域获取单元112获取各连续像素组,每个连续像素组由具有与背景颜色不同的颜色的连续像素组成。作为获取这种连续像素组的方法的一个示例,可使用被广泛称为标注处理(labelling process)的方法。然后,有效像素区域获取单元112定义包围了所获取的每个连续像素组的基础矩形,并对基础矩形的面积、基础矩形中背景颜色像素的密度、各基础矩形之间的距离等进行计算,以定义组合了多个基础矩形的有效像素区域203。
接下来,有效像素区域获取单元112从通过上述方式定义的有效像素区域203的每一个中获取有效像素区域信息,并将所述有效像素区域信息存储至存储器120。有效像素区域信息包括例如有效像素区域203的边界位置(每个顶点的位置),以及有效像素区域203的代表性位置(质心的位置)。这种情况下,有效像素区域获取单元112首先在图像200的目标区域中设置X坐标轴和Y坐标轴。然后,有效像素区域获取单元112获取与有效像素区域203有关的各种位置的坐标作为有效像素区域信息,并将所述有效像素区域信息存储至存储器120。
可替代地,例如,有效像素区域获取单元112还可以获取左上顶点的位置坐标、左上顶点分别与X坐标轴方向和Y坐标轴方向的距离,来作为表示有效像素区域203的边界的信息。
虽然有效像素区域203的代表性位置并不限于所述区域的质心位置,但是期望这一信息指示所述区域的中心位置。
尽管通过图3中的矩形表示有效像素区域203中的每一个,但是可以通过其他多边形或者圆形来表示有效像素区域203。此外,这种情况下的有效像素区域203的边界位置并不限于每个顶点的位置坐标,而是可以包括例如用于表示处于区域边界线上的各位置的多个位置坐标。
此外,基于每个有效像素区域中包括的图像部分的特征(例如灰度级或颜色数量),有效像素区域获取单元112还可以将一个有效像素区域203分为多个区域,或者可以将多个有效像素区域203组合为一个区域。此外,两个有效像素区域203可位于重叠的位置。
[标记/对象辨别单元]
接下来,标记/对象辨别单元113将有效像素区域203辨别为对象201或标记202。例如,标记/对象辨别单元113根据预定标准,将有效像素区域信息辨别为对象201的区域或标记202的区域。
图4示出了对象201的区域以及标记202的区域的一个示例。标记区域205是图像200中包括标记202的区域。对象区域204是图像200中包括对象201的区域。
标记/对象辨别单元113所使用的辨别各有效像素区域203的方法的一个示例是图形匹配。例如,对于有效像素区域203中示出的图像,标记/对象辨别单元113执行与先前获取并存储在存储器120中的参考图像进行的图形匹配。如果有效像素区域203中的图像与参考图像相似,则将有效像素区域203辨别为标记区域205,如果有效像素区域203中的图像与参考图像不相似,则将有效像素区域203辨别为对象区域204。
标记/对象辨别单元113所使用的辨别各有效像素区域203的方法并不限于图形匹配,而是可以为例如与用户设定的图像特征的比较。例如,标记/对象辨别单元113可以基于通过用户操作而接受的信息(例如标记的形状或颜色)来辨别每个有效像素区域203中的图像。
[指示位置信息获取单元]
指示位置信息获取单元114获取包括至少一个用户指示位置的指示位置信息。例如,指示位置信息获取单元114基于图像200中的标记202来获取指示位置信息。具体地,指示位置信息获取单元114获取标记区域205的代表性位置作为指示位置信息,并将所述指示位置信息存储至存储器120。
指示位置信息可包括表示用户指示线段或用户指示区域的信息。这种情况下,例如,表示用户指示线段的信息例如是指用于表示这样的线段的信息,该线段穿过标记区域205的代表性位置,并基于标记区域205的边界位置确定自身端点。此外,例如,表示用户指示区域的信息是指用于表示这样的区域的信息,该区域由标记区域205的边界位置确定界限,且包括边界位置本身。
在本实施例中,指示位置信息包括作为标记区域205的边界位置的每个顶点的位置坐标。即,指示位置信息包括用户指示区域。
除了表示标记区域205的有效像素区域信息外,指示位置信息获取单元114还可以基于通过操作单元130执行的用户操作来获取指示位置信息。例如,指示位置信息获取单元114可基于用户利用定点装置(例如鼠标或触模板)所指示的屏幕上的位置、线段、或区域来获取指示位置信息。例如,指示位置信息获取单元114可以根据用户用键盘等输入的值来获取指示位置信息中包括的坐标值。
可替代地,例如,如果将投影仪作为显示器140使用,则指示位置信息获取单元114可通过使用公知的技术检测人的手指等对投影仪所投影的图像进行指示的位置,来获取指示位置信息。
图5示出了利用定点装置指示的区域206的示例。在本实施例中,指示位置信息还包括通过这种方式接受的用户指示区域。
图像处理设备100可使得示出了以这种方式获取的指示位置信息的图像在被叠加至图像200上的同时显示在显示器140上,从而使得该图像对用户可见。
[参考位置信息获取单元]
参考位置信息获取单元115获取参考位置信息,该信息包括对象201在图像200中的位置。例如,参考位置信息获取单元115获取对象区域204的代表性位置(即,对象201在图像200中的位置)作为参考位置信息,并将所述参考位置信息存储在存储器120中。
参考位置信息可包括表示图像200的目标区域的边界的至少一个位置。例如,参考位置信息获取单元115可获取该区域的顶点坐标作为表示图像200的目标区域的边界的位置,并使得所述顶点坐标包括在参考位置信息中。在本实施例中,参考位置信息包括对象区域204的代表性位置,以及图像200中的目标区域的每个顶点的位置。
此外,除了参考位置信息之外,参考位置信息获取单元115还获取对象201的位置以及对象201的区域。例如,参考位置信息获取单元115获取对象区域204的代表性位置和边界位置作为对象位置信息。在本实施例中,对象位置信息包括对象区域204的代表性位置和边界位置。
[区域划分单元]
区域划分单元116基于参考位置信息对图像200的目标区域进行划分,以产生多个分区区域。
具体地,首先,区域划分单元116获取在存储器120中存储的参考位置信息,并将参考位置信息中包括的多个位置设置为各基点(site)的位置。接下来,基于各基点的位置,区域划分单元116在图像200的目标区域中定义Voronoi边界和Delaunay边界。然后,区域划分单元116根据定义的边界线所形成的多个分区区域获取分区区域信息,并将分区区域信息存储至存储器120中。
例如,Voronoi边界是指Voronoi图中的边界线,Voronoi图表示如下空间划分:根据图像200中示出的指定位置靠近哪一个基点,来将空间划分为多个区域。特征性地,这样的Voronoi边界成为各个基点之间的平分线的一部分,并且形成多边形。
此外,Delaunay边界是指这样的边界线,例如,该分界线通过将先前产生的Voronoi边界所限定的多个分区区域之中彼此相邻的分区区域中包括的各基点进行连接而形成。特征性地,除特殊情况外,通过这种方式定义的Delaunay边界形成三角形。
图6示出了Voronoi边界、Delaunay边界以及这些边界线所形成的分区区域209的示例。如图6所示,区域划分单元116将Voronoi边界207(在图6中用虚线表示)和Delaunay边界208(在图6中用点划线表示)所界定的区域中的每一个作为分区区域209来获取多个分区区域信息。本实施例中,产生出如上所述的不同于对象区域204的分区区域209,并获取了对应的分区区域信息。
图像处理设备100可使得示出了以此方式获取的每个分区区域的图像在被叠加至图像200上的同时被显示在显示器140上,从而使得该图像对用户可见。此外,通过这种方式使得该图像对用户可见之后,图像处理设备100可以等待来自指示位置信息获取单元114的用户操作,以获取指示位置信息。
[分区区域识别单元]
分区区域识别单元117基于多个分区区域209以及指示位置信息来识别至少一个分区区域。例如,分区区域识别单元117基于指示位置信息来判定是否对分区区域信息进行识别。
图7示出了已识别的分区区域211的示例。如图7所示,分区区域识别单元117在基于指示位置信息的区域(下文中被称作指示区域210)的基础上,来识别各分区区域211中的每一个。这种情况下,对包括有指示区域210A的分区区域211A进行识别。此外,对与指示区域210B的一部分重叠的多个分区区域211B进行识别。
例如,分区区域识别单元117获取存储器120中存储的多个分区区域信息和指示位置信息。然后,对于根据全部分区区域信息获得的分区区域209的每一个,判定分区区域209是否至少部分地与根据指示位置信息获得的指示区域210重叠。如果这两个区域至少部分地重叠,则分区区域识别单元117对分区区域209进行识别,将“1”指定给对应的分区区域信息的识别结果,并且将该识别结果存储至存储器120中。如果这两个区域没有重叠,则分区区域识别单元117不对分区区域209进行识别,将“0”指定给对应的分区区域信息的识别结果,并且将该识别结果存储至存储器120中。
与图7中示出的指示区域210B类似,如果一个指示区域210与多个分区区域209重叠,可替代地,例如,可以对包含了指示区域210B的最大面积的分区区域进行识别。
此外,可替代地,例如,可以对这样的分区区域209进行识别,该分区区域209至少部分地与根据指示位置信息而获得的指示线段重叠。此外,可替代地,例如,可以对这样的分区区域209进行识别,该分区区域209至少部分地与根据指示位置信息而获得的指示位置重叠。
[对象判定单元]
对象判定单元118基于已识别的分区区域211来判定对象201是否已选中。例如,基于对象位置信息和分区区域信息,对象判定单元118针对至少一个对象区域204(对象201)来判定所述对象区域204是否已选中。
图8示出了已选中的对象区域212的一个示例。如图8所示,对象判定单元118将与已识别的分区区域211A重叠的对象区域212A以及对应的对象201判定为已被选中。与此类似,对象判定单元118将与已识别的分区区域211B重叠的对象区域212B以及对应的对象201判定为已选中。
如果已识别的分区区域211是基于表示图像200的目标区域的边界的位置而划分的分区区域211,且被判定为与对象201无关,则对象判定单元118将所述对象判定为未被选中。例如,虽然未在图8中示出,但是如果基于指示位置信息而识别的分区区域211与对象区域204不重叠,则对象区域204和对象201均被判定为未被选中。
具体地,首先,对象判定单元118获取存储器120中存储的对象位置信息、指示位置信息、以及包括识别结果的分区区域信息。然后,针对基于对象位置信息的对象区域204,对象判定单元118对以下问题进行判定:对象区域204是否与从指示位置信息获得的指示区域210以及基于其中的识别结果被指定为“1”的分区区域信息的分区区域211至少部分地重叠。如果这些区域至少部分地重叠,则对象判定单元118将所述对象区域204(对应的对象201)判定为已选中。即,对象判定单元118将对应的对象选择结果设置为“1”,并将该对象选择结果存储至存储器120中。如果这些区域不重叠,则对象判定单元118将对象区域204(对应的对象201)判定为未被选中。即,对象判定单元118将对应的对象选择结果设置为“0”,并将该对象选择结果存储至存储器120中。
[图像处理设备执行的处理]
接下来,将对根据实施例的图像处理设备100所执行的处理进行描述。图9和图10是示出根据实施例的图像处理设备100所执行的处理的流程图。下面,将参照所述流程图描述图像处理设备100所执行的处理。
首先,如图8所示,图像接受单元111通过接受用户操作或来自给定应用程序的请求等,来获取图像200(S101)。接下来,基于步骤S101中获取的图像200,有效像素区域获取单元112根据预定的标准获取多个有效像素区域203(S102)。随后,标记/对象辨别单元113根据预定的标准将步骤S102中获取的多个有效像素区域203中的每一个辨别为对象区域204或标记区域205(S103)。
随后,在图9所示的流程图中,参考位置信息获取单元115根据在步骤S103中辨别的对象区域204来获取对象位置信息(S104)。此外,参考位置信息获取单元115基于对象区域204的代表性位置以及图像200的边界上的位置来获取参考位置信息(S105)。随后,区域划分单元116从参考位置信息获取多个基点的位置并基于各基点对图像200的目标区域进行划分,以产生多个分区区域209(S106)。
随后,在图10所示的流程图中,指示位置信息获取单元114基于步骤S103中辨别的标记区域205以及用户设置操作,来获取指示位置信息(S107)。随后,基于步骤S107中获取的指示位置信息,分区区域识别单元117从在步骤S106中产生的多个分区区域209中识别由指示位置信息所指示的分区区域211(S108)。
随后,对象判定单元118基于步骤107中获取的指示位置信息来判定对象201是否已选中(S109)。如果对象201被判定为已选中(S109:是),则将对象选择结果设置为“1”,并将该对象选择结果存储在存储器120中(S112)。
此外,如果对象判定单元118判定对象201未被选中(S109:否),则基于步骤S108中识别的分区区域211来进一步判定对象201是否已选中(S110)。如果对象被判定为已选中(S110:是),则将对象选择结果设置为“1”(S112),如果对象被判定为未被选中(S110:否),则将对象选择结果设置为“0”(S111),并将该对象选择结果存储在存储器120中。重复关于对象201的判定过程(S109至S112)(S113:否),直到最终关于所有对象201完成所述判定(S113:是)。
通过上述处理,图像处理设备100产生对图像200的目标区域进行划分的分区区域209,并基于用户指示位置对至少一个分区区域211进行识别。因此,也可以将所在的对象区域204与用户指示位置不重叠的对象201判定为已选中。
[改型]
本发明并不限于上述实施例。可以在不脱离本发明范围的情况下适当地修改本发明。
(1)例如,上述实施例针对这样的情况,即,对象判定单元118基于对象区域204来判定对象201是否已选中。然而,对象判定单元118可以基于对象201的位置来执行这一判定处理。
图11示出了已选中的对象位置213的一个示例。如图11所示,根据本改型的对象判定单元118将与已识别的分区区域211接触的各对象位置213中的每一个以及基于所述位置的对象201判定为已选中。
在以这种方式基于对象201的位置来判定对象201是否已选中的情况下,区域划分单元116可将参考位置信息包括在分区区域信息中,所述参考位置信息用作对分区区域209进行划分的基础。这种情况下,对象判定单元118基于被进一步指定给识别的分区区域信息的参考位置信息来获取对象位置213,并将对象位置和对象201判定为已选中。
根据改型(1),也可以将自身位置与用户指示位置不重叠的对象201判定为已选中。
(2)例如,上述实施例针对这样的情况,即,待处理图像200中示出了至少一个对象201和至少一个标记202。然而,图像200中出现至少一个对象201足矣。即,图像200中可以不出现标记202。
这种情况下,图像处理设备100可不包括参照上述实施例描述的标记/对象辨别单元113。这种情况下,在图像处理设备100中,将有效像素区域获取单元112所获取的全部有效像素区域设置为对象区域204。然后,指示位置信息获取单元114基于操作单元130所执行的用户操作来获取指示位置信息。
根据改型(2),即使在图像200中示出了至少一个对象201的情况下,也可以将自身位置与用户指示位置不重叠的对象201判定为已选中。
(3)此外,例如,当图像处理设备100的区域划分单元116对图像200的目标区域进行划分时,区域划分单元116可基于参考位置信息获取各基点的位置,并且基于这些基点的位置,根据Voronoi边界的边界线产生多个分区区域209,从而获取分区区域信息。即,区域划分单元116可在不对参照上述实施例描述的Delaunay边界进行定义的情况下产生多个分区区域209。
图12示出了Voronoi边界207(在图12中用虚线表示)以及根据所述边界线产生的分区区域209的一个示例。与图6所示的参照上述实施例描述的分区区域209(根据Voronoi边界207和Delaunay边界208的边界线产生的分区区域209)相比,图12所示的分区区域209中的每一个具有较大的面积。
此外,图13示出了根据本改型的每个均基于用户指示位置而被识别的分区区域211以及已选中的对象区域212的一个示例。与图7和图8所示的参照上述实施例的识别的分区区域相比,图13所示的识别的分区区域211同样具有较大的面积。此外,关于图7和图8中的每一个所示的对象区域212,根据本改型,将更多数量的对象区域212判定为已选中。
即,与上述实施例相比,根据本改型的对象判定单元118可以将更多数量的对象区域212(对象201)判定为已选中。
根据改型(3),与上述实施例相比,可将更多数量的对象201判定为已选中。换言之,根据上述实施例,可将一定数量的自身位置与用户指示位置不重叠的对象201判定为已选中,而没有超出根据改型(3)的数量。
(4)此外,例如,图像处理设备100可将指示位置信息与表示关于对象201的用户指示处理的指示处理信息相关联,并根据指示处理信息对被判定为已选中的对象201执行所述处理(关于对象区域204的图像处理)。
图14示出了根据本改型的图像处理设备的一个示例。如图14所示,与根据上述实施例的图像处理设备100相比,根据本改型的图像处理设备100还包括以下功能:指示处理信息关联单元301、第一指示处理信息获取单元302、第二指示处理信息获取单元303、以及对象处理单元304。与根据上述实施例的各功能类似,这些功能也是通过例如由控制器110执行存储器120中存储的程序来实现的。下面,将详细描述这些附加功能。
(指示处理信息关联单元)
指示处理信息关联单元301将指示位置信息与表示关于对象的用户指示处理的指示处理信息相关联。在这点上,所述指示处理信息为例如包括了针对图像200中的对象区域204执行的图像处理的细节(例如掩模处理、加密处理、以及分发处理)的信息。所述指示处理信息还可以包括例如表示预定处理的优先级的信息(例如对图像200进行显示时所施加的渲染处理的顺序)。
具体地,例如,指示处理信息关联单元301接受操作单元130所执行的用户操作,并将每个指示位置信息与指示处理信息相关联。这种情况下,图像处理设备100可在显示器140上显示:示出了指示位置信息的图像以及指示处理信息的细节的列表。在通过这种方式使得各种信息对用户可见之后,指示处理信息关联单元301接受对指示位置信息和指示处理信息进行选择的用户操作,并且将选中的指示位置信息与选定的指示处理信息彼此进行关联。
可替代地,例如,在图像200中示出标记202且将包括了标记202的区域识别为标记区域205的情况下,所述指示处理信息关联单元301基于参考图像或者用作辨别标记区域205的基础的图像特征,来获取预先与所述参考图像或图像特征关联的指示处理信息,并将获取到的指示处理信息与指示处理信息进行关联。
除了将指示位置信息与指示处理信息进行关联之外,例如,指示处理信息关联单元301还可以将指示位置信息与表示每一个指示处理中处理的优先级的信息(下文中被称作处理优先级信息)进行关联。
(第一指示处理信息获取单元)
第一指示处理信息获取单元302获取与用于对已识别的分区区域211进行识别的指示位置信息相关联且与识别的分区区域211相关的指示处理信息。例如,第一指示处理信息获取单元302可以获取与用作分区区域识别单元117对分区区域211进行识别的基础的指示位置信息相关联的指示处理信息,作为与分区区域211相关的指示处理信息。
在本改型中,可能出现以下情况:基于多个指示位置信息对识别的分区区域211进行识别。这种情况下,例如,第一指示处理信息获取单元302可以获取针对用作判定基础的所有指示位置信息的指示处理信息。可替代地,例如,如果关联了处理优先权信息,则可获取具有最高优先权的指示处理信息。可替代地,例如,在由各指示位置信息表示的指示区域210当中,可以基于所识别的分区区域211包含的最大面积的指示位置信息所指示的指示区域210,来判定要关联的指示处理信息。
(第二指示处理信息获取单元)
第二指示处理信息获取单元303获取这样的指示处理信息,该指示处理信息与用于将对象201判定为已选中的识别的分区区域相关联,并与所述对象相关。例如,第二指示处理信息获取单元303可获取与这样的分区区域211相关的指示处理信息来作为与对象区域212和对象201相关的指示处理信息:所述分区区域211被对象判定单元118用作将对象区域212和对象201判定为已选中的基础。
此外,第二指示处理信息获取单元303还可获取与用作上述判定的基础的指示位置信息相关联的指示处理信息,来作为与对象区域212和对象201相关的指示处理信息。
在本改型中,可能出现以下情况:基于多个指示处理信息或多个已识别的分区区域211来选择对象区域212。这种情况下,第二指示处理信息获取单元303可获取用作上述判定的基础的全部指示处理信息。可替代地,例如,如果关联了处理优先级信息,则可以获取具有最高优先级的指示处理信息。可替代地,例如,可以获取与包括了最大面积的对象区域212的区域相关联的指示处理信息。
(对象处理单元)
对象处理单元304针对被判定为已选中的对象201执行与对象201相关的指示处理信息所指示的处理。例如,基于第二指示处理信息获取单元所获取的与对象201相关的指示处理信息,对象处理单元304执行指示由该处理信息所指示的处理(关于对象区域204的图像处理)。
(改型(4)中执行的处理)
接下来,将对根据本改型的图像处理设备100所执行的处理进行描述。图8和图15是示出根据本改型的图像处理设备100所执行的处理的流程图。下面,将参照流程图描述图像处理设备100所执行的处理。本文省略了对与上述实施例中执行的处理相同的处理进行的任何重复性描述。
在图15所示的流程图中,指示处理信息关联单元301将步骤S107中获取的指示位置信息与表示关于对象201的用户指示处理的指示处理信息进行关联(S107-2)。然后,第一指示处理信息获取单元302获取与步骤S108中识别的分区区域211相关的指示处理信息(S108-2)。此外,第二指示处理信息获取单元303获取与对象201相关的指示处理信息(S112-2),所述对象201在步骤S109或步骤S110中被判定为已选中。
随后,基于与步骤S112-2中获取的对象201相关的指示处理信息,对象处理单元304执行所述指示处理信息所指示的处理(关于对象区域204的图像处理)(S114)。
通过根据改型(4)的上述处理,也可以针对自身位置与用户指定位置不重叠的对象201执行与指示位置信息相关联的处理(图像处理)。
附图标记列表
100 图像处理设备
110 控制器
111 图像接受单元
112 有效像素区域获取单元
113 对象辨别单元
114 指示位置信息获取单元
115 参考位置信息获取单元
116 区域划分单元
117 分区区域识别单元
118 对象判定单元
120 存储器
130 操作单元
140 显示器
150 图像产生器
200 目标图像
201 对象
202 标记
203 有效像素区域
204 对象区域
205 标记区域
206 利用定点设备指示的区域
207 Voronoi边界
208 Delaunay边界
209 分区区域
210,210A,210B 指示区域
211,211A,211B 识别的分区区域
212,212A,212B 选中的对象区域
213 选中的对象位置
301 指示处理信息关联单元
302 第一指示处理信息获取单元
303 第二指示处理信息获取单元
304 对象处理单元

Claims (9)

1.一种图像处理设备,其特征在于,包括:
指示位置信息获取装置,其用于获取指示位置信息,所述指示位置信息包括在示出了至少一个对象的图像中的至少一个用户指示位置;
参考位置信息获取装置,其用于获取包括了所述对象在所述图像中的位置的参考位置信息;
分区装置,其用于基于所述参考位置信息对所述图像的目标区域进行划分,以产生多个分区区域;
分区区域识别装置,其用于基于所述多个分区区域和所述指示位置信息对至少一个分区区域进行识别;以及
对象判定装置,其用于基于识别的分区区域来判定所述对象是否已被选中。
2.根据权利要求1所述的图像处理设备,其特征在于,所述对象判定单元基于所述对象的位置或所述对象的区域来判定所述对象是否已被选中。
3.根据权利要求1或2所述的图像处理设备,其特征在于,
所述参考位置信息包括表示所述图像的目标区域的边界的至少一个位置,并且
所述对象判定装置包括区域判定装置,该区域判定装置用于判定已被所述分区区域识别装置识别的所述分区区域是否与所述对象相关,当所识别的分区区域是基于表示所述图像的目标区域的边界的位置而划分的分区区域、并且被判定为与所述对象无关时,所述对象判定装置判定所述对象未被选中。
4.根据权利要求1至3中的任意一项所述的图像处理设备,其特征在于,所述分区装置基于所述参考位置信息来获取所述图像中的各基点的位置,并且在基于各基点的位置而定义的Voronoi边界的基础上对所述图像的目标区域进行划分,以产生多个分区区域。
5.根据权利要求4所述的图像处理设备,其特征在于,所述分区装置在基于所述各基点的位置而定义的Delaunay边界以及所述Voronoi边界的基础上对所述图像的目标区域进行划分,以产生多个分区区域。
6.根据权利要求1至5中的任意一项所述的图像处理设备,其特征在于,
所述指示位置信息包括表示用户指示线段或用户指示区域的信息,并且
所述分区区域识别装置基于表示用户指示线段或用户指示区域的信息,对至少一个分区区域进行识别。
7.根据权利要求1至6中的任意一项所述的图像处理设备,其特征在于,
所述图像是其中示出了至少一个对象和至少一个标记的图像,
所述图像处理设备包括
有效像素区域获取装置,其用于获取所述图像中示出的有效像素区域,以及
辨别装置,其用于将所述有效像素区域辨别为所述对象和所述标记中的一个,并且
所述指示位置信息获取装置包括标记信息获取装置,该标记信息获取装置用于基于所述图像中的标记来获取所述指示位置信息。
8.根据权利要求1至7中的任意一项所述的图像处理设备,其特征在于,包括:
用于将所述指示位置信息与指示处理信息进行关联的装置,所述指示处理信息表示关于所述对象的用户指示处理;
第一指示处理信息获取装置,其用于获取如下的指示处理信息,该指示处理信息与用于对识别的分区区域进行识别的指示位置信息相关联,并且与识别的分区区域相关;
第二指示处理信息获取装置,其用于获取如下的指示处理信息,该指示处理信息与用于对被判定为已选中的对象进行判定的识别的分区区域相关联,并且与所述对象相关;以及
对象处理装置,其用于针对被判定为已选中的对象来执行由与所述对象相关的所述指示处理信息表示的处理。
9.一种程序,其使得计算机用作:
指示位置信息获取装置,其用于获取指示位置信息,所述指示位置信息包括在示出了至少一个对象的图像中的至少一个用户指示位置;
参考位置信息获取装置,其用于获取包括了所述对象在所述图像中的位置的参考位置信息;
分区装置,其用于基于所述参考位置信息对所述图像的目标区域进行划分,以产生多个分区区域;
分区区域识别装置,其用于基于所述多个分区区域和所述指示位置信息对至少一个分区区域进行识别;以及
对象判定装置,其用于基于识别的分区区域来判定所述对象是否已被选中。
CN201380073275.1A 2013-03-21 2013-09-09 图像处理设备和图像处理方法 Active CN104995591B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013059087A JP2014186392A (ja) 2013-03-21 2013-03-21 画像処理装置及びプログラム
JP2013-059087 2013-03-21
PCT/JP2013/074195 WO2014147867A1 (ja) 2013-03-21 2013-09-09 画像処理装置及びプログラム

Publications (2)

Publication Number Publication Date
CN104995591A true CN104995591A (zh) 2015-10-21
CN104995591B CN104995591B (zh) 2019-01-04

Family

ID=51579582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380073275.1A Active CN104995591B (zh) 2013-03-21 2013-09-09 图像处理设备和图像处理方法

Country Status (6)

Country Link
US (1) US10095940B2 (zh)
JP (1) JP2014186392A (zh)
CN (1) CN104995591B (zh)
AU (1) AU2013383628B2 (zh)
SG (1) SG11201506119RA (zh)
WO (1) WO2014147867A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527912A (zh) * 2016-10-28 2017-03-22 山东大学 一种基于Voronoi树图的信息检索可视化系统及方法
CN107362535A (zh) * 2017-07-19 2017-11-21 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6261190B2 (ja) * 2013-05-31 2018-01-17 キヤノン株式会社 設定装置および設定方法
US10083218B1 (en) * 2017-06-30 2018-09-25 Konica Minolta Laboratory U.S.A., Inc. Repairing tables
CN111191730B (zh) * 2020-01-02 2023-05-12 中国航空工业集团公司西安航空计算技术研究所 一种面向嵌入式深度学习的超大尺寸图像目标检测方法及系统
CN111310624B (zh) * 2020-02-05 2023-11-21 腾讯科技(深圳)有限公司 遮挡识别方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020132665A1 (en) * 2001-03-19 2002-09-19 Namco Ltd. Image processing apparatus, image processing program, and recording medium having the program recorded thereon
JP2003233462A (ja) * 2002-02-12 2003-08-22 Seiko Epson Corp 描画補助システム、画像印刷システム、描画補助プログラム及び画像印刷プログラム、並びに描画補助方法及び画像印刷方法
WO2009084084A1 (ja) * 2007-12-27 2009-07-09 Pioneer Corporation 記録媒体再生装置、記録媒体再生方法、記録媒体再生プログラムおよび記録媒体再生プログラムを格納した記録媒体
CN102981731A (zh) * 2011-06-03 2013-03-20 索尼公司 图像处理设备、图像处理方法、记录介质和程序

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4406668C2 (de) * 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
US5689667A (en) 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
JP4217969B2 (ja) 2003-12-08 2009-02-04 富士ゼロックス株式会社 画像処理装置及びプログラム
JP5421727B2 (ja) * 2009-10-20 2014-02-19 キヤノン株式会社 画像処理装置およびその制御方法
US8502789B2 (en) * 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
CA2750093A1 (en) * 2010-08-19 2012-02-19 Daniel Reem Method for computing and storing voronoi diagrams, and uses therefor
US8493404B2 (en) * 2010-08-24 2013-07-23 Qualcomm Incorporated Pixel rendering on display
US9047686B2 (en) * 2011-02-10 2015-06-02 Qualcomm Incorporated Data storage address assignment for graphics processing
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020132665A1 (en) * 2001-03-19 2002-09-19 Namco Ltd. Image processing apparatus, image processing program, and recording medium having the program recorded thereon
JP2003233462A (ja) * 2002-02-12 2003-08-22 Seiko Epson Corp 描画補助システム、画像印刷システム、描画補助プログラム及び画像印刷プログラム、並びに描画補助方法及び画像印刷方法
WO2009084084A1 (ja) * 2007-12-27 2009-07-09 Pioneer Corporation 記録媒体再生装置、記録媒体再生方法、記録媒体再生プログラムおよび記録媒体再生プログラムを格納した記録媒体
CN102981731A (zh) * 2011-06-03 2013-03-20 索尼公司 图像处理设备、图像处理方法、记录介质和程序

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527912A (zh) * 2016-10-28 2017-03-22 山东大学 一种基于Voronoi树图的信息检索可视化系统及方法
CN106527912B (zh) * 2016-10-28 2019-10-15 山东大学 一种基于Voronoi树图的信息检索可视化系统及方法
CN107362535A (zh) * 2017-07-19 2017-11-21 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备
CN107362535B (zh) * 2017-07-19 2019-04-26 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备
US11331574B2 (en) 2017-07-19 2022-05-17 Tencent Technology (Shenzhen) Company Limited Method, apparatus, electronic device, and storage medium for locking on to target an object in game scene

Also Published As

Publication number Publication date
WO2014147867A1 (ja) 2014-09-25
US10095940B2 (en) 2018-10-09
AU2013383628A1 (en) 2015-08-20
SG11201506119RA (en) 2015-09-29
CN104995591B (zh) 2019-01-04
US20160012302A1 (en) 2016-01-14
AU2013383628B2 (en) 2017-04-06
JP2014186392A (ja) 2014-10-02

Similar Documents

Publication Publication Date Title
CN104995591A (zh) 图像处理设备及程序
CN111383345B (zh) 虚拟内容的显示方法、装置、终端设备及存储介质
CN109771941A (zh) 游戏中虚拟对象的选择方法及装置、设备和介质
CN108919955B (zh) 一种基于多体感设备的虚拟沙画交互结合方法
JP6562752B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
TW201441888A (zh) 圖樣互換方法與相關多點觸控裝置
US20150371103A1 (en) System and method for identification of printed matter in an image
CN104580883A (zh) 图像处理装置、图像处理方法
CN111766936A (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
CN114170407B (zh) 输入设备的模型映射方法、装置、设备和存储介质
CN111813214B (zh) 虚拟内容的处理方法、装置、终端设备及存储介质
WO2008004624A1 (fr) Dispositif, procédé et programme de traitement d'entrées manuscrites
US11500453B2 (en) Information processing apparatus
JP6229554B2 (ja) 検出装置および検出方法
JP7386007B2 (ja) 画像処理方法、画像処理装置及び画像処理機器
JP5991538B2 (ja) データ処理装置、データ処理システム及びプログラム
CN111913564B (zh) 虚拟内容的操控方法、装置、系统、终端设备及存储介质
CN111913639B (zh) 虚拟内容的交互方法、装置、系统、终端设备及存储介质
CN110991050B (zh) Cad叠图方法及相关产品
US20210072884A1 (en) Information processing apparatus and non-transitory computer readable medium
JP2022185872A (ja) 画像処理装置、画像処理方法、撮像装置
CN113703577A (zh) 一种绘图方法、装置、计算机设备及存储介质
US20150339322A1 (en) Construction drawing evaluation systems and methods
CN104699243A (zh) 一种基于单目视觉的无实体虚拟鼠标方法
CN114578956A (zh) 设备控制方法、装置、虚拟穿戴设备以及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Tokyo

Patentee after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo

Patentee before: Fuji Xerox Co.,Ltd.

CP01 Change in the name or title of a patent holder