DE202007018368U1 - Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert - Google Patents
Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert Download PDFInfo
- Publication number
- DE202007018368U1 DE202007018368U1 DE202007018368U DE202007018368U DE202007018368U1 DE 202007018368 U1 DE202007018368 U1 DE 202007018368U1 DE 202007018368 U DE202007018368 U DE 202007018368U DE 202007018368 U DE202007018368 U DE 202007018368U DE 202007018368 U1 DE202007018368 U1 DE 202007018368U1
- Authority
- DE
- Germany
- Prior art keywords
- touch
- media file
- display screen
- display
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000004891 communication Methods 0.000 title claims description 4
- 230000009471 action Effects 0.000 claims abstract description 65
- 230000033001 locomotion Effects 0.000 claims abstract description 52
- 238000010295 mobile communication Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 68
- 238000001514 detection method Methods 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 4
- 238000010408 sweeping Methods 0.000 abstract 1
- 210000003811 finger Anatomy 0.000 description 173
- 238000010586 diagram Methods 0.000 description 18
- 241000699666 Mus <mouse, genus> Species 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 238000003672 processing method Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000007480 spreading Effects 0.000 description 4
- 238000005096 rolling process Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000003989 dielectric material Substances 0.000 description 2
- 230000000763 evoking effect Effects 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- SKRWFPLZQAAQSU-UHFFFAOYSA-N stibanylidynetin;hydrate Chemical compound O.[Sn].[Sb] SKRWFPLZQAAQSU-UHFFFAOYSA-N 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000000976 ink Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0446—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
In
der Hand haltbare mobile Kommunikationseinrichtung mit:
einem berührungsempfindlichen Anzeigebildschirm;
Mitteln, um den Anzeigebildschirm zur Anzeige eines Abschnitts einer Mediendatei zu veranlassen, wobei die Mediendatei wenigstens ein Textobjekt oder ein Graphikobjekt umfasst;
Mitteln zur Erfassung einer Berührungseingabe für einen Durchlauf auf der Oberfläche des Anzeigebildschirms, wobei die Berührungseingabe für einen Durchlauf einen Absetzpunkt eines menschlichen Fingers auf der Oberfläche des Anzeigebildschirms umfasst, wobei der Absetzpunkt einem Ort auf dem Anzeigebildschirm entspricht, an welchem der Abschnitt der Mediendatei angezeigt wird;
Mitteln zur Erfassung einer Ziehbewegung des Absetzpunktes des menschlichen Fingers auf dem Anzeigebildschirm, wobei die Ziehbewegung sich über einen Teil des Abschnitts der angezeigten Mediendatei erstreckt und eine senkrechte und eine waagerechte Vektorkomponente umfasst;
Mitteln, um die Ziehbewegung des Fingerabsetzpunktes festzustellen, umeine Durchlaufhandlung anzuzeigen;
Mitteln, um die Mediendatei zu veranlassen, auf dem Anzeigebildschirm durchzulaufen, wobei der Durchlauf auf eine senkrechte oder waagerechte Richtung beschränkt ist;...
einem berührungsempfindlichen Anzeigebildschirm;
Mitteln, um den Anzeigebildschirm zur Anzeige eines Abschnitts einer Mediendatei zu veranlassen, wobei die Mediendatei wenigstens ein Textobjekt oder ein Graphikobjekt umfasst;
Mitteln zur Erfassung einer Berührungseingabe für einen Durchlauf auf der Oberfläche des Anzeigebildschirms, wobei die Berührungseingabe für einen Durchlauf einen Absetzpunkt eines menschlichen Fingers auf der Oberfläche des Anzeigebildschirms umfasst, wobei der Absetzpunkt einem Ort auf dem Anzeigebildschirm entspricht, an welchem der Abschnitt der Mediendatei angezeigt wird;
Mitteln zur Erfassung einer Ziehbewegung des Absetzpunktes des menschlichen Fingers auf dem Anzeigebildschirm, wobei die Ziehbewegung sich über einen Teil des Abschnitts der angezeigten Mediendatei erstreckt und eine senkrechte und eine waagerechte Vektorkomponente umfasst;
Mitteln, um die Ziehbewegung des Fingerabsetzpunktes festzustellen, umeine Durchlaufhandlung anzuzeigen;
Mitteln, um die Mediendatei zu veranlassen, auf dem Anzeigebildschirm durchzulaufen, wobei der Durchlauf auf eine senkrechte oder waagerechte Richtung beschränkt ist;...
Description
- GEBIET DER ERFINDUNG
- Dies bezieht sich auf ein System zum Verwalten, Manipulieren und Editieren von Medienobjekten, wie beispielsweise graphische Objekte auf einem Display, durch Einsatz von Handgesten auf einer berührungsempfindlichen Einrichtung.
- HINTERGRUND DER ERFINDUNG
- Es gibt heutzutage viele Arten von Eingabeeinrichtungen, um in einem Computersystem Vorgänge durchzuführen. Die Vorgänge entsprechen im Allgemeinen dem Bewegen eines Cursors und dem Vornehmen von Auswahlen auf einem Anzeigebildschirm. Die Vorgänge können auch ein Blättern, einen Bildlauf (scrolling), ein Mitführen, ein Zoomen usw. umfassen. Beispielhaft können die Eingabeeinrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln (trackballs), Berührungsfelder (touch pads), Steuerknüppel (joy sticks), Berührungsbildschirme (touch screens) und Ähnliches umfassen. Jede dieser Einrichtungen hat Vorteile und Nachteile, die beim Entwerfen eines Computersystems berücksichtigt werden.
- Knöpfe und Schalter sind im Allgemeinen von mechanischer Art und bieten eine beschränkte Kontrolle bezüglich der Bewegung des Cursors und dem Vornehmen von Auswahlen. Zum Beispiel sind sie im Allgemeinen dafür vorgesehen, den Cursor in eine bestimmte Richtung zu bewegen (z. B. Pfeiltasten) oder bestimmte Auswahlen vorzunehmen (z. B. Eingabe, Löschen, Nummer, usw.).
- Bei Verwendung eines Mausgeräts entspricht im Allgemeinen die Bewegung des Eingabezeigers auf einer Anzeige den relativen Bewegungen der Maus während der Nutzer die Maus entlang einer Oberfläche bewegt. Bei Verwendung eines Rollkugelgeräts entspricht im Allgemeinen die Bewegung des Eingabezeigers auf der Anzeige den relativen Bewegungen einer Rollkugel während der Nutzer die Kugel innerhalb eines Gehäuses bewegt. Maus- und Rollkugelgeräte umfassen typischerweise ebenso einen oder mehrere Knöpfe, um Auswahlen vorzunehmen. Ein Mausgerät kann auch Bildlaufräder (scroll wheels) umfassen, die es einen Nutzer erlauben, den angezeigten Inhalt durch Vorwärtsdrehen oder Rückwärtsdrehen des Rades zu durchlaufen.
- Bei Einrichtungen in Form eines Berührungsfeldes, z. B. Berührungsfelder auf einem persönlichen Laptopcomputer, entspricht im Allgemeinen die Bewegung des Eingabezeigers auf einer Anzeige den relativen Bewegungen des Fingers (oder Stiftes) des Nutzers, während der Finger entlang einer Fläche des Berührungsfeldes bewegt wird. Andererseits können Berührungsbildschirme (touch screens) eine Art von Anzeigebildschirm sein, der typischerweise eine berührungsempfindliche durchsichtige Tafel (oder "Haut" (skin)) umfasst, welche den Anzeigebildschirm überdeckt. Wenn er einen Berührungsbildschirm bedient, nimmt ein Nutzer typischerweise eine Auswahl auf dem Anzeigebildschirm vor, indem er direkt auf auf dem Bildschirm angezeigte Objekte (wie z. B. Objekte einer graphischen Nutzeroberfläche) zeigt (üblicherweise mit einem Stift oder Finger).
- Um eine zusätzliche Funktionalität bereitzustellen, wurden bei einigen dieser Eingabeeinrichtungen Handgesten umgesetzt. Zum Beispiel können bei Berührungsfeldern Auswahlen vorgenommen werden, wenn ein einfaches oder mehrfaches Antippen auf der Oberfläche des Berührungsfeldes erfasst werden kann. In manchen Fällen kann jeglicher Abschnitt des Berührungsfeldes angetippt werden, und in anderen Fällen kann ein vorgesehener Abschnitt des Berührungsfeldes angetippt werden. Zusätzlich zu Auswahlen kann ein Bildlauf ausgelöst werden, indem eine Fingerbewegung am Rande des Berührungsfeldes eingesetzt wird.
- Die
US Patente Nr. 5,612,719 und5,590,219 , die an Apple Computer Inc. übertragen wurden, beschreiben einige andere Verwendungen für das Gestikulieren. DasUS Patent Nr. 5,612,719 offenbart einen auf dem Bildschirm befindlichen Knopf, der auf wenigstens zwei verschiedene auf dem Bildschirm oder in der Nähe des Knopfes ausgeführte Knopfgesten reagiert. DasUS Patent Nr. 5,590,219 offenbart ein Verfahren zur Erkennung einer ellipseartigen Gesteneingabe auf einen Anzeigebildschirm eines Computersystems. - In letzter Zeit wurden fortgeschrittenere Gesten umgesetzt. Zum Beispiel kann ein Bildlauf (scrolling) dadurch ausgelöst werden, dass man vier Finger auf dem Berührungsfeld platziert, so dass die Bildlaufgeste erkannt wird, und man anschließend diese Finger auf dem Berührungsfeld bewegt, um Bildlaufereignisse auszuführen. Die Verfahren zur Umsetzung dieser fortgeschrittenen Gesten können jedoch beschränkt und in vielen Fällen der Intuition gegenläufig sein. Bei bestimmten Anwendungen, insbesondere Anwendungen, die das Verwalten oder Editieren von Mediendateien unter Verwendung eines Computersystems involvieren, können Handgesten unter Einsatz von Berührungsbildschirmen es einem Nutzer erlauben, die beabsichtigten Vorgänge effizienter und genauer zu bewirken.
- Auf der Grundlage des oben Gesagten besteht ein Bedürfnis für Verbesserungen in der Art, in welcher Gesten auf berührungsempfindlichen Einrichtungen ausgeführt werden können, insbesondere in Bezug auf das Verwalten und Editieren von Mediendateien.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Dies bezieht sich auf ein System zum Umsetzen von Gesten mit berührungsempfindlichen Einrichtungen (wie z. B. eine berührungsempfindliche Anzeige) zum Verwalten und Editieren von Mediendateien auf einem Computersystem. Genauer gesagt können gestenartige Eingaben einer menschlichen Hand über einer berührungs-/näherungsempfindlichen Einrichtung eingesetzt werden, um Dateien, wie z. B. Mediendateien umfassend, ohne Beschränkung, Photodateien und Videodateien, zu steuern, zu editieren und zu manipulieren.
- Gemäß einer Ausführungsform werden gestenartige Eingaben über einer berührungsempfindlichen Anzeige für eine Computerdesktopanwendung eingesetzt, um die herkömmlichen Maus/Rollkugel-Aktionen wie z. B. Anpeilen, Auswählen, Rechtsklick, Bildlauf, usw. zu bewirken.
- Gemäß einer anderen Ausführungsform können gestenartige Eingaben über einer berührungsempfindlichen Anzeige eingesetzt werden, um Editierbefehle zum Editieren von Bilddateien, wie z. B. Photodateien, zu bewirken. Die gestenartigen Eingaben können über ein Nutzeroberflächenelement erkannt werden, wie z. B. ein Schiebebalken (slidebar). Die gestenartigen Eingaben mittels eines Benutzeroberflächenelements können variiert werden, indem man die Anzahl von Absetzpunkten auf dem Nutzeroberflächenelement verändert.
- Gemäß einer anderen Ausführungsform rufen gestenartige Eingaben die Aktivierung eines Nutzeroberflächenelements hervor, wonach gestenartige Interaktionen mit dem aufgerufen Nutzeroberflächenelement weitere Funktionen bewirken können.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein Blockdiagramm eines Computersystems gemäß einer beispielhaften Ausführungsform dieser Erfindung. -
2 veranschaulicht ein anderes Computersystem gemäß einer anderen beispielhaften Ausführungsform dieser Erfindung. -
3 ist ein Mehrpunktverarbeitungsverfahren. -
4A und4B veranschaulichen ein erfasstes Berührungsbild gemäß einer Ausführungsform dieser Erfindung. -
5 veranschaulicht eine Merkmalsgruppe. -
6 ist ein Parameterberechnungsverfahren gemäß einer Ausführungsform dieser Erfindung. -
7A –7E und7I –7K veranschaulichen diverse Gesten zur Durchführung von Anpeil- und/oder Auswahlaufgaben gemäß einer Ausführungsform dieser Erfindung. -
7F –7H zeigen ein Diagramm eines Verfahrens zur Erkennung und Umsetzung von gestenartigen Eingaben der7A bis E. -
8A –8G veranschaulichen eine Drehgeste gemäß einer Ausführungsform dieser Erfindung. -
9 ist ein Diagramm eines berührungsbasierten Verfahrens. -
10 ist ein Diagramm eines berührungsbasierten Verfahrens. -
11 ist ein Diagramm eines berührungsbasierten Verfahrens. -
12 ist ein Diagramm eines Zoomgestenverfahrens. -
13A –13H veranschaulichen eine Zoomsequenz gemäß einer Ausführungsform dieser Erfindung. -
14 ist ein Diagramm eines Mitführverfahrens. -
15A –15D veranschaulichen eine Mitführsequenz gemäß einer Ausführungsform dieser Erfindung. -
16 ist ein Diagramm eines Drehverfahrens. -
17A –17C veranschaulichen eine Drehsequenz gemäß einer Ausführungsform dieser Erfindung. -
17D und17E veranschaulichen ein Verfahren zum Drehen eines auswählbaren Zielobjekts. -
18A und18B veranschaulichen gestenartige Eingaben zum Editieren eines Photodokuments gemäß einer Ausführungsform dieser Erfindung. -
18C ist ein Diagramm, das ein Verfahren zur Erkennung und Umsetzung der gestenartigen Eingaben der18A und18B veranschaulicht. -
18D und18E veranschaulichen gestenartige Eingaben zum Heranzoomen und Herauszoomen in und aus einer Photodatei innerhalb einer Photoanwendung gemäß einer Ausführungsform dieser Erfindung. -
19A –19D veranschaulichen gestenartige Eingaben zum Durchlaufen von sequentiell wiedergegebenen Dateien, gemäß einer Ausführungsform dieser Erfindung. -
19E und19F veranschaulichen gestenartige Eingaben zum Durchlaufen von wiedergegebenen Photodateien auf der Anzeige einer digitalen Kamera, gemäß einer Ausführungsform dieser Erfindung. -
19G veranschaulicht eine gestenartige Eingabe zum Markieren oder Löschen einer Photodatei während der Wiedergabe, gemäß einer Ausführungsform dieser Erfindung. -
19H veranschaulicht eine alternative gestenartige Eingabe zum Markieren oder Löschen einer Photodatei während der Wiedergabe, gemäß einer anderen Ausführungsform dieser Erfindung. -
20 ist ein Übersichtsdiagramm, das ein Verfahren zur Umsetzung der Verfahren der18A bis19F zeigt. -
21A –21D veranschaulichen gestenartige Eingaben zum Steuern und/oder Editieren von Video mittels einer Videoanwendung gemäß einer Ausführungsform dieser Erfindung. -
22A und22B sind Diagramme eines Verfahrens zur Umsetzung der gestenartigen Eingaben der21A bis21D . -
23 veranschaulicht gestenartige Eingaben zur Steuerung und/oder Editierung von Audio mittels einer Audioanwendung gemäß einer Ausführungsform dieser Erfindung. - AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
- In der folgenden Beschreibung von bevorzugten Ausführungsformen wird Bezug auf die angefügten Zeichnungen genommen, die hiervon einen Teil bilden, und in welchen zur Illustration bestimmte Ausführungsformen gezeigt sind, in deren Form diese Erfindung ausgeführt werden kann. Es versteht sich, dass andere Ausführungsformen verwendet werden können und strukturelle Veränderungen vorgenommen werden können, ohne den Rahmen der bevorzugten Ausführungsformen der Erfindung zu verlassen.
-
1 ist ein Blockdiagramm eines beispielhaften Computersystems50 gemäß einer Ausführungsform der Erfindung. Das Computersystem50 kann einen Personalcomputersystem, wie z. B. Tischrechnern (Desktops), Laptops, Tablets oder in der Hand gehaltenen Computer entsprechen. Das Computersystem kann auch einem Rechengerät, wie z. B. einem Mobiltelefon, einem persönlichen digitalen Assistenten (PDA), einem dedizierten Medienabspielgerät, einem Elektronikgerät für Verbraucher und Ähnlichem entsprechen. - Das beispielhafte Computersystem
50 , das in der1 gezeigt ist, kann ein Prozessor56 umfassen, der dafür konfiguriert ist, Instruktionen abzuarbeiten und Vorgänge auszuführen, die dem Computersystem50 zugeordnet sind. Zum Beispiel kann der Prozessor56 unter Verwendung von z. B. aus dem Speicher abgerufenen Instruktionen den Empfang und die Manipulierung von Eingabe- und Ausgabedaten zwischen Komponenten des Computersystems50 steuern. Der Prozessor56 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektrischen Komponenten implementiert sein. Zum Beispiel können diverse Architektu ren für den Prozessor56 verwendet werden, umfassend einen dedizierten oder eingebetteten Prozessor, einen Einzweckprozessor, Kontroller, eine anwendungsspezifische integrierte Schaltung (ASIC) usw. - In den meisten Fällen arbeitet der Prozessor
56 zusammen mit einem Betriebssystem, um Computercode abzuarbeiten und Daten zu produzieren und zu nutzen. Betriebssysteme sind allgemein wohlbekannt und werden nicht weiter im Detail beschrieben. Beispielhaft kann das Betriebssystem OS/2, DOS, Unix, Linux, Palm OS und Ähnlichem entsprechen. Das Betriebssystem kann auch ein Betriebssystem für einen speziellen Zweck sein, wie etwa solche, die für geräteartige Recheneinrichtungen mit einen beschränkten Zweck verwendet werden können. Das Betriebssystem, anderer Computercode und -daten können sich innerhalb eines Speicherblocks58 befinden, der operativ mit dem Prozessor56 gekoppelt sein kann. Der Speicherblock58 bietet allgemein Platz, um Computercode und daten zu speichern, die durch das Computersystem50 verwendet werden können. Beispielhaft kann der Speicherblock58 einen Nur-Lese-Speicher (ROM), einen Speicher mit wahlfreiem Zugriff (RAM), ein Festplattenlaufwerk und/oder Ähnliches umfassen. Die Informationen könnten sich auch auf einem entfernbaren Speichermedium befinden, und bei Bedarf auf das Computersystem50 geladen oder auf diesem installiert werden. Entfernbare Speichermedien umfassen z. B. eine CD-ROM, eine PC-CARD, eine Speicherkarte, eine Diskette, ein Magnetband und eine Netzwerkkomponente. - Das Computersystern
50 kann auch eine Anzeigeeinrichtung68 umfassen, die operativ mit dem Prozessor56 gekoppelt sein kann. Die Anzeigeeinrichtung68 kann eine Flüssigkristallanzeige (LCD, liquid crystal display) sein (z. B., aktive Matrix, passive Matrix und Ähnliches). Alternativ kann die Anzeigeeinrichtung68 ein Monitor sein, wie z. B. eine Monochromanzeige, eine color graphics adapter (CGA) Anzeige, eine enhanced graphics adapter (EGA) Anzeige, eine variable-graphics-array (VGA) Anzeige, eine Super VGA Anzeige, eine Katho denstrahlröhre und Ähnliches. Die Anzeigeeinrichtung kann auch einer Plasmaanzeige oder einer mit elektronischen Tinten implementierten Anzeige entsprechen. - Die Anzeigeeinrichtung
68 kann allgemein zur Anzeige einer graphischen Nutzeroberfläche69 konfiguriert sein, die eine einfach zu benutzende Schnittstelle zwischen einen Nutzer des Computersystems und dem Betriebssystem oder der Anwendung, das/die darauf abläuft, bereitstellt. Allgemein gesagt, stellt die graphische Nutzeroberfläche69 Programme, Dateien und Betriebsoptionen durch graphische Bilder, Objekte oder Vektordarstellungen dar. Die graphischen Bilder können Fenster, Felder, Dialogfelder, Menüs, Piktogramme (Ikons), Knöpfe, Cursor, Bildlaufbalken, usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein, oder können dynamisch erzeugt werden, um den spezifischen Aktionen zu dienen, die durch einen Nutzer vorgenommen werden. Während des Betriebs kann der Nutzer diverse graphische Bilder auswählen und/oder aktivieren, um diesen zugeordnete Funktionen und Aufgaben zu initiieren. Beispielhaft kann der Nutzer einen Knopf auswählen, der ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Piktogramm, das ein besonders Programm startet. Die graphische Nutzeroberfläche69 kann zusätzlich oder alternativ für den Nutzer Informationen, wie z. B. nicht-interaktiven Text und Graphiken, auf der Anzeigeeinrichtung68 anzeigen. - Das Computersystem
50 kann auch eine Eingabeeinrichtung70 umfassen, die operativ mit dem Prozessor56 gekoppelt sein kann. Die Eingabeeinrichtung70 kann für den Transfer von Daten von der Außenwelt in das Computersystem50 konfiguriert sein. Die Eingabeeinrichtung70 kann z. B. eingesetzt werden, um im Verhältnis zur graphischen Nutzeroberfläche69 auf dem Bildschirm68 ein Verfolgen (tracking) auszuführen und Auswahlen vorzunehmen. Die Eingabeeinrichtung70 kann auch verwendet werden, um im Computersystem50 Befehle abzugeben. Die Eingabeeinichtung70 kann eine berührungsempfindliche Einrichtung umfassen, die dazu konfiguriert ist, um durch die Berührung eines Nutzers eine Eingabe zu erhalten und diese Information an den Prozessor56 zu schicken. - Beispielhaft kann die berührungsempfindliche Einrichtung einen Berührungsfeld oder einem Berührungsbildschirm entsprechen. In vielen Fällen erkennt die berührungsempfindliche Einrichtung Berührungen, sowie die Position und die Stärke der Berührungen auf einer berührungsempfindlichen Oberfläche. Die berührungsempfindliche Einrichtung erfasst die Berührungen und berichtet sie an den Prozessor
56 , und der Prozessor56 interpretiert die Berührungen gemäß seiner Programmierung. Zum Beispiel kann der Prozessor56 gemäß einer besonderen Berührung eine Aufgabe initiieren. Ein dedizierter Prozessor kann verwendet werden, um Berührungen lokal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. - Die berührungsempfindliche Einrichtung kann auf Sensortechnologien basieren, die folgendes umfassen, aber nicht darauf beschränkt sind: kapazitive Sensorik, resistive Sensorik, Oberflächenschallwellensensorik, Drucksensorik, optische Sensorik und/oder Ähnliches. Weiterhin kann das berührungsempfindliche Mittel auf Einzelpunktsensorik oder Mehrpunktsensorik basieren. Die Einzelpunktsensorik ist nur in der Lage, eine einzige Berührung zu unterscheiden, während die Mehpunktsensorik in der Lage sein kann, mehrere Berührungen zu unterscheiden, die gleichzeitig stattfinden.
- Wie oben beschrieben, kann die Eingabeeinrichtung
70 ein Berührungsbildschirm sein, der über oder vor der Anzeige68 positioniert ist, in die Anzeigeeinrichtung68 integriert ist, oder sie kann eine getrennte Komponente wie z. B. ein Berührungsfeld sein. - Das Computersystem
50 umfasst ebenso vorzugsweise Fähigkeiten zur Kopplung mit einer oder mehreren Eingabe/Ausgabeeinrichtungen80 . Beispielhaft können die Eingabe/Ausgabeeinrichtungen80 Tastaturen, Druckern, Scannern, Kameras, Mikrophonen, Lautsprechern und/oder Ähnlichem entsprechen. Die Eingabe/Ausgabeeinrichtungen80 können in das Computersystem50 integriert sein, oder es kann sich um getrennte Komponenten (z. B. Peripheriegeräte) handeln. In manchen Fällen können die Eingabe/Ausgabeeinrichtungen80 über Kabelverbindungen (z. B. Kabel/Anschlüsse) mit dem Computersystem50 verbunden sein. In anderen Fällen können die Eingabe/Ausgabeeinrichtungen80 mit dem Computersystem80 über drahtlose Verbindungen verbunden sein. Beispielhaft kann die Datenverbindung PS/2, USB, IR, Firewire, RF, Bluetooth, oder Ähnlichem entsprechen. - Gemäß einer Ausführungsform der Erfindung ist das Computersystem
50 dafür entworfen, um Gesten85 zu erkennen, die auf die Eingabeeinrichtung70 angewandt werden, und Aspekte des Computersystems50 auf der Grundlage der Gesten85 zu steuern. In manchen Fällen kann eine Geste als eine stilisierte Interaktion mit einer Eingabeeinrichtung definiert werden, die auf einen oder mehrere spezifische Rechenvorgänge abgebildet werden kann. Die Gesten85 können mittels diverser Hand-, und insbesondere Fingerbewegungen ausgeführt werden. Alternativ oder zusätzlich können die Gesten mit einem Stift ausgeführt werden. In allen diesen Fällen empfängt die Eingabeeinrichtung70 die Gesten85 , und der Prozessor56 arbeitet Befehle ab, um Vorgänge auszuführen, die den Gesten85 zugeordnet sind. Zusätzlich kann der Speicherblock58 ein Gestenbetriebsprogramm88 umfassen, das Teil des Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm88 kann im Allgemeinen ein Satz an Befehlen umfassen, der das Auftreten von Gesten85 erkennt und einen oder mehrere Softwareagenten über die Gesten85 und/oder die in Antwort auf die Gesten85 vorzunehmende(n) Handlung(en) informiert. Zusätzliche Details bezüglich der diversen Gesten, die als Eingabebefehle genutzt werden können, werden weiter unten ausgeführt. - Wenn ein Nutzer eine oder mehrere Gesten ausführt, leitet gemäß einer bevorzugten Ausführungsform die Eingabeeinrichtung
70 die Gesteninformation an den Prozessor56 weiter. Unter Verwendung von Instruktionen aus dem Speicher58 , und insbesondere des Gestenbetriebsprogramms88 , interpretiert der Prozessor56 die Gesten85 und steuert verschiedene Komponenten des Computersystems50 , wie beispielsweise den Speicher58 , eine Anzeige68 und Eingabe/Ausgabeeinrichtungen80 , auf der Grundlage der Gesten85 . Die Gesten85 können als Befehle identifiziert werden, um in im Speicher58 gespeicherten Anwendungen Handlungen auszuführen, auf der Anzeige68 gezeigte Bildobjekte zu modifizieren, im Speicher58 gespeicherte Daten zu modifizieren, und/oder um in den Eingabe/Ausgabeeinrichtungen80 Handlungen durchzuführen. - Es wird erneut darauf hingewiesen, dass, obwohl die
1 die Eingabeeinrichtung70 und die Anzeige68 zu Veranschaulichungszwecken als zwei getrennte Kästen veranschaulicht, die zwei Kästen als eine einzige Einrichtung verwirklicht sein können. - Die
2 veranschaulicht ein beispielhaftes Rechensystem10 , das eine Mehrberührungstafel („multi-touch Panel")24 für eine Mehrfachberührung als eine Eingabeeinrichtung für Gesten verwendet; die Mehrberührungstafel24 kann gleichzeitig eine Anzeigetafel sein. Das Rechensystem10 kann einen oder mehrere Prozessoren12 für die Mehrberührungstafel umfassen, die eigens für das Mehrberührungssubsystem27 vorgesehen sind. Alternativ kann die Funktionalität eines Prozessors für die Mehrberührungstafel durch eine eigens vorgesehene Logik, wie beispielsweise eine Zustandsmaschine, umgesetzt sein. Peripherieeinrichtungen11 können Speicher mit wahlfreiem Zugriff (RAM) oder andere Arten von Speicher oder Ablagen, Überwachungszeitgeber (watchdog timers) und Ähnliches umfassen, sind aber nicht darauf beschränkt. Das Mehrberührungssubsystem27 kann einen oder mehrere Analogkanäle17 , eine Kanalscanlogik18 und eine Treiberlogik19 umfassen, ist aber nicht darauf beschränkt. Die Kanalscanlogik18 kann auf den RAM16 zugreifen, autonom Daten aus den Analogkanälen auslesen und eine Steuerung für die Analogkanäle bereitstellen. Diese Steuerung kann das Multiplexen von Spalten der Mehrberührungstafel24 zu Analogkanälen17 umfassen. Zusätzlich kann die Kanalscanlogik18 die Treiberlogik und Stimulationssignale steuern, die selektiv auf Reihen der Mehrberührungstafel24 angewandt werden. Bei manchen Ausführungsformen können das Mehrberührungssubsys tem27 , der Prozessor12 für die Mehrberührungstafel und die Peripherieeinrichtungen11 in eine einzige anwendungsspezifische integrierte Schaltung (single application specific integrated circuit, ASIC) integriert werden. - Die Treiberlogik
19 kann mehrere Ausgaben20 des Mehrberührungssubsystems bereitstellen und kann eine proprietäre Schnittstelle aufweisen, die einen Hochspannungstreiber antreibt, der vorzugsweise einen Decoder21 und eine anschließende Pegelwechsel- und Treiberstufe22 umfasst, obwohl die Pegelwechselfunktionen vor den Decoderfunktionen durchgeführt werden könnten. Der Pegelwechsler und Treiber22 kann einen Wechsel des Pegels von einem Pegel niedriger Spannung (z. B. CMOS Pegel) zu einem Pegel höherer Spannung bereitstellen, was zu Rauschverringerungszwecken ein besseres Signalrauschverhältnis liefert. Der Decoder21 kann die Treiberschnittstellensignale zu einer von N Ausgaben decodieren, wobei N die maximale Anzahl an Reihen in der Tafel sein kann. Der Decoder21 kann verwendet werden, um die Anzahl an zwischen dem Hochspannungstreiber und der Mehrberührungstafel24 benötigten Treiberleitungen zu verringern. Jede Reiheneingabe23 für die Mehrberührungstafel kann eine oder mehrere Reihen in der Mehrberührungstafel24 antreiben. Es ist anzumerken, dass der Treiber22 und der Decoder21 auch in eine einzige anwendungsspezifische integrierte Schaltung integriert sein können, in die Treiberlogik19 integriert sein können, oder in einigen Fällen überflüssig sein können. - Die Mehrberührungstafel
24 kann ein Medium mit kapazitiver Sensorik umfassen, das eine Mehrzahl von Reihenspuren oder Treiberleitungen und eine Mehrzahl von Spaltenspuren oder Sensorleitungen aufweist, obwohl auch andere Sensormedien verwendet werden können. Die Reihen- und Spaltenspuren können aus einem durchsichtigen leitenden Medium gebildet sein, wie z. B. Indiumzinnoxid (ITO) oder Antimonzinnoxid (ATO), obwohl andere durchsichtige und nichtdurchsichtige Materialien, wie z. B. Kupfer, auch verwendet werden können. Bei manchen Ausführungsformen können die Reihen- und Spaltenspuren auf entgegen gesetzten Seiten eines dielektrischen Materials ausgebildet sein, und können senk recht zueinander sein, obwohl in anderen Ausführungsformen andere nichtkartesische Ausrichtungen möglich sind. Zum Beispiel können in einen Polarkoordinatensystem die Sensorleitungen konzentrische Kreise sein, und können die Treiberleitungen sich radial erstreckende Leitungen sein (oder umgekehrt). Es versteht sich daher, dass die Begriffe "Reihe" und "Spalte", "erste Dimension" und "zweite Dimension" oder "erste Achse" und "zweite Achse", wie sie hier verwendet werden, derart beabsichtigt sind, dass sie nicht nur orthogonale Gitter umfassen, sondern die einander schneidenden Spuren anderer geometrischer Konfigurationen mit einer ersten und zweiten Dimension (z. B. die konzentrischen und radialen Leitungen einer Polarkoordinatenanordnung). Die Reihen und Spalten können auf einer einzigen Seite eines Substrats ausgebildet sein, oder können auf zwei getrennten Substraten ausgebildet sein, die durch ein dielektrisches Material getrennt sind. In manchen Fällen kann eine zusätzliche dielektrische Abdeckschicht über die Reihen- oder Spaltenspuren angeordnet werden, um die Struktur zu verstärken und den ganzen Aufbau vor Schäden zu schützen. - An den "Schnittstellen" der Spuren der Mehrberührungstafel
24 , wo die Spuren übereinander und untereinander laufen (sich kreuzen) (aber keinen direkten elektrischen Kontakt miteinander eingehen), bilden die Spuren im Wesentlichen zwei Elektroden (auch wenn ebenso mehr als zwei Spuren sich untereinander schneiden könnten). Jede Schnittstelle von Reihen- und Spaltenspuren kann einen kapazitiven Sensorknoten darstellen und kann als ein Bildelement (Pixel)26 betrachtet werden, das besonders nützlich sein kann, wenn die Mehberührungstafel24 derart gesehen wird, dass sie "ein Bild" einer Berührung einfängt. (Mit anderen Worten, nachdem das Mehrberührungssubsystem27 festgestellt hat, ob ein Berührungsereignis an jedem Berührungssensor in der Mehrberührungstafel erfasst wurde, kann das Muster der Berührungssensoren innerhalb der Mehrberührungstafel, bei welchen ein Berührungsereignis aufgetreten ist, als ein "Bild" einer Berührung angesehen werden (z. B. ein Muster von die Tafel berührenden Fingern).) Die Kapazität zwischen Reihen- und Spaltenelektroden erscheint als eine Streukapazität an allen Spalten, wenn die gegebene Reihe bei Gleichstrom gehalten wird, und als eine gegenseitige Kapazität Csig, wenn die gegebene Reihe mit eifern Wechselstromsignal stimuliert wird. Die Anwesenheit eines Fingers oder eines anderen Objekts in der Nähe oder auf der Mehrberührungstafel kann erfasst werden, indem man die Veränderungen von Csig misst. Die Spalten der Mehrberührungstafel24 können einen oder mehrere Analogkanäle17 (die hier auch als Ereigniserfassungs- und Demodulationsschaltungen bezeichnet werden) im Mehrberührungssubsystem27 antreiben. Bei manchen Umsetzungen kann jede Spalte mit einen eigens vorgesehenen analogen Kanal17 gekoppelt sein. Jedoch können bei anderen Umsetzungen die Spalten über einen analogen Schalter mit einer geringeren Anzahl an analogen Kanälen17 koppelbar sein. - Das Rechensystem
10 kann auch einen Rostprozessor14 umfassen, für den Empfang von Ausgaben vom Prozessor12 für die Mehrberührungstafel und das Durchführen von Handlungen auf der Grundlage der Ausgaben, die folgendes umfassen können, darauf aber nicht beschränkt sind: das Bewegen eines Objekts wie etwa eines Cursors oder Zeigers, einen Bildlauf oder ein Mitführen, ein Anpassen von Steuereinstellungen, das Öffnen einer Datei oder eines Dokuments, das Betrachten eines Menüs, das Vornehmen einer Auswahl, das Ausführen von Befehlen, das Betreiben einer Peripherieeinrichtung, die mit der Rosteinrichtung verbunden ist, usw. Der Rostprozessor14 , bei denn es sich um die Hauptprozessoreinheit (CPU) eines Personalcomputers handeln kann, kann auch zusätzliche Funktionen ausführen, die möglicherweise in keinem Bezug zur Verarbeitung hinsichtlich der Mehrberührungstafel stehen, und kann mit einem Programmspeicher15 gekoppelt sein, sowie mit einer Anzeigeeinrichtung13 , wie etwa einer Flüssigkristallanzeige zur Bereitstellung einer Nutzeroberfläche für einen Nutzer der Einrichtung. - Es ist anzumerken, dass, obwohl die
2 einen eigens vorgesehenen Prozessor12 für die Mehrberührungstafel veranschaulicht, das Mehrberührungssubsystem direkt durch den Rostprozessor14 gesteuert sein kann. Zusätzlich ist auch anzumerken, dass die Mehrberührungstafel24 und die Anzeigeeinrichtung13 in eine einzige Berührungsbildschirmanzeigeeinrichtung integriert sein können. Weitere Details der Mehrberührungserfassung mittels Sensoren, umfassend die Näherungserkennung durch eine Berührungstafel, sind in gemeinsam übertragenen ebenso anhängigen Amneldungen beschrieben, umfassend die Anmeldung Nr. 10/840,862, veröffentlicht als US Patentveröffentlichung Nr.US 2006/0097991 11/428,522 US 2006/0238522 - Die
3 veranschaulicht ein Mehrpunktverarbeitungsverfahren100 . Das Mehrpunktverarbeitungsverfahren100 kann z. B. in dem in den1 oder2 gezeigten System ausgeführt werden. Das Mehrpunktverarbeitungsverfahren100 beginnt allgemein beim Kasten102 , wo Bilder von einer Mehrpunkteingabeeinrichtung, und insbesondere einem Mehrpunktberührungsbildschirm, ausgelesen werden können. Obwohl der Begriff "Bild" verwendet wird, ist anzumerken, dass die Daten in anderen Formen auftreten können. In den meisten Fällen liefert das vom Berührungsbildschirm ausgelesene Bild die Größe (Z) in Abhängigkeit der Position (x und y) für jeden Sensorpunkt oder Pixel des Berührungsbildschirms. Die Größe kann z. B. der an jedem Punkt gemessenen Kapazität entsprechen. - Im Anschluss an den Kasten
102 fährt das Mehrpunktverarbeitungsverfahren100 mit dem Kasten104 fort, wo das Bild in eine Sammlung oder Liste von Merkmalen umgewandelt werden kann. Jedes Merkmal repräsentiert eine eigene Eingabe, wie z. B. eine Berührung. In den meisten Fällen kann jedes Merkmal seine eigene eindeutige Kennung (ID), x Koordinate, y Koordinate, Z Größe, Winkel θ, Fläche A und Ähnliches umfassen. Beispielhaft veranschaulichen die4A und4B ein Bild120 zu einem bestimmten Zeitpunkt. Beim Bild120 können zwei Merkmale122 vorliegen, die auf zwei getrennten Berührungen basieren. Die Berührungen können z. B. von einem Fingerpaar stammen, das den Berührungsbild schirm berührt. Wie es gezeigt ist, kann jedes Merkmal122 eine eindeutige Kennung (ID), eine x Koordinate, eine y Koordinate, eine Größe Z, ein Winkel θ und eine Fläche A umfassen. Genauer gesagt kann das erste Merkmal122A durch ID1, X1, Y1, Z1, θ1, A1 repräsentiert werden, und kann das zweite Merkmal122B durch ID2, X2, Y2, Z2, θ2, A2 repräsentiert werden. Diese Daten können z. B. unter Verwendung eines Mehrberührungsprotokolls ausgegeben werden. - Die Umwandlung von Daten oder Bildern zu Merkmalen kann unter Verwendung von Verfahren erreicht werden, die in der ebenso anhängigen US Patentanmeldung Nr. 10/840,862, veröffentlicht als US Patentveröffentlichung Nr.
US 2006/007991 - Im Anschluss an den Kasten
104 fährt das Mehrpunktverarbeitungsverfahren100 mit dem Kasten106 fort, wo eine Klassifizierung und Gruppierung der Merkmale erfolgen kann. Während der Klassifizierung kann die Identität eines jeden Merkmals bestimmt werden. Zum Beispiel können die Merkmale als ein bestimmter Finger, Daumen, Handfläche oder anderes Objekt klassifiziert werden. Sobald sie klassifiziert sind, können die Merkmale gruppiert werden. Die Art und Weise in welcher die Gruppen gebildet werden, kann stark variieren. In den meisten Fällen können die Merkmale auf der Grundlage einiger Kriterien (z. B., dass sie ein ähnliches Attribut haben) gruppiert werden. Zum Beispiel können die zwei in4A und4B gezeigten Merkmale gruppiert werden, weil jedes dieser Merkmale sich in der Nähe des anderen befinden kann, oder weil sie von derselben Hand stammen. Die Gruppierung kann einen gewissen Filtergrad umfassen, um Merkmale auszufiltern, die nicht Teil des Berührungsereignisses sind. Beim Filter kann ein oder können mehrere Merkmale verworfen werden, weil sie entweder einige vorbestimmte Kriterien erfüllen, oder weil sie einige Kriterien nicht erfüllen. Beispielhaft kann eines der Merkmale als ein Daumen klassifiziert werden, der sich am Rande eines Tablet PCs befindet. Da der Daumen gerade verwendet wird, um das Gerät zu halten, anstatt gerade verwendet zu werden, um eine Aufgabe auszuführen, wird das dadurch erzeugte Merkmal verworfen, d. h., dass es nicht als Teil des gerade bearbeiteten Berührungsereignisses betrachtet wird. - Im Anschluss an den Kasten
106 führt das Mehrpunktverarbeitungsverfahren100 mit dem Kasten108 fort, wo Schlüsselparameter für die Merkmalsgruppen berechnet werden können. Die Schlüsselparameter können den Abstand zwischen Merkmalen, x/y-Schwerpunkt aller Merkmale, die Merkmaldrehung, den Gesamtdruck der Gruppe (z. B. Druck beim Schwerpunkt) und Ähnliches umfassen. Wie es in der5 gezeigt ist, kann die Berechnung folgendes umfassen: Das Auffinden des Schwerpunkts C, das Zeichnen einer virtuellen Linie130 zu jedem Merkmal ausgehend vom Schwerpunkt C, das Definieren des Abstandes D für jede virtuelle Linie (D1 und D2) und dann das Mitteln der Abstände D1 und D2. - Sobald die Parameter berechnet sind, können die Parameterwerte berichtet werden. Die Parameterwerte werden typischerweise mit einer Gruppenkennung (GID) und der Anzahl von Merkmalen innerhalb jeder Gruppe (in diesem Fall drei) berichtet. In den meisten Fällen werden sowohl anfängliche als auch gegenwärtige Parameterwerte berichtet. Die anfänglichen Parameterwerte können auf dem Aufsetzen basieren, d. h., wenn der Nutzer seine Finger auf dem Berührungsbild schirm absetzt, und die gegenwärtigen Werte können auf jeglichem Punkt innerhalb eines Strichs basieren, der nach dem Absetzen erfolgt.
- Es ist zu berücksichtigen, dass die Kästen
102 bis108 während des Strichs eines Nutzers wiederholt ausgeführt werden können, wodurch eine Mehrzahl von sequentiell konfigurierten Signalen erzeugt wird. Die anfänglichen und gegenwärtigen Parameter können in späteren Schritten verglichen werden, um im System Handlungen durchzuführen. - Im Anschluss an den Kasten
108 fährt der Verfahrensablauf mit dem Kasten110 fort, wo die Gruppe einem Nutzeroberflächenelement zugeordnet wird oder werden kann. Nutzeroberflächenelemente können Schaltflächen, Listen, Schieber, Räder, Knöpfe, usw. sein. Jedes Nutzeroberflächenelement repräsentiert eine Komponente oder ein Kontrollelement der Nutzeroberfläche. Die Anwendung hinter dem (den) Nutzeroberflächenelement(en) kann Zugang zu den im Kasten108 berechneten Parameterdaten haben. Bei einer Umsetzung bewertet die Anwendung die Relevanz der Berührungsdaten für das diese entsprechende Nutzeroberflächenelement. Die Bewertung kann auf gewissen vorbestimmten Kriterien basieren. Die Bewertung kann das Erzeugen einer Bewertungszahl umfassen, sowie welches Nutzeroberflächenelement die höchste Bewertungszahl hat, was diesem den alleinigen Zugang zur Gruppe verschafft. Es kann sogar ebenso einen gewissen Grad an Hysterese geben (sobald eines der Nutzeroberflächenelemente die Kontrolle dieser Gruppe beansprucht, verbleibt die Gruppe bei diesem Nutzeroberflächenelement bis ein anderes Nutzeroberflächenelement eine viel höhere Bewertung hat). Beispielhaft kann die Bewertung die Bestimmung der Nähe des Schwerpunkts (oder der Merkmale) zum dem Nutzeroberflächenelement zugeordneten Bildobjekt umfassen. - Im Anschluss an den Kasten
110 fährt das Mehrpunktverarbeitungsverfahren100 mit den Kästen112 und114 fort. Die Kästen112 und114 können ungefähr zur gleichen Zeit ausgeführt werden. Aus der Sicht des Nutzers scheinen bei einer Ausführungsform die Kästen112 und114 gleichzeitig ausgeführt zu werden. Beim Kasten112 können eine oder mehrere Aktionen auf der Grundlage von Unterschieden zwischen anfänglichen und gegenwärtigen Parameterwerten ausgeführt werden, und können auch auf einen Nutzeroberflächenelement basieren, dem sie zugeordnet sind, falls existent. Beim Kasten114 kann eine Rückmeldung an den Nutzer, welche die eine oder mehrere Aktionen betrifft, die gerade ausgeführt werden, bereitgestellt werden. Beispielhaft kann die Rückmeldung an den Nutzer eine angezeigte, auditive, taktile Rückmeldung und/oder Ähnliches umfassen. -
6 ist ein Parameterberechnungsverfahren150 . Das Parameterberechnungsverfahren150 kann z. B. dem in der3 gezeigten Kasten108 entsprechen. Das Parameterberechnungsverfahren150 beginnt allgemein beim Kasten152 , wo eine Merkmalsgruppe empfangen werden kann. Im Anschluss an den Kasten152 fährt das Parameterberechnungsverfahren150 mit dem Kasten154 fort, wo eine Feststellung dahingehend erfolgen kann, ob die Anzahl an Merkmalen in der Merkmalsgruppe sich verändert hat oder nicht. Zum Beispiel kann sich die Anzahl an Merkmalen deshalb verändert haben, weil der Nutzer einen zusätzlichen Finger abhebt oder platziert. Es können verschiedene Finger nötig sein, um unterschiedliche Steuerungen (z. B. Verfolgen (Tracking), Gestikulieren) vorzunehmen. Falls sich die Anzahl an Merkmalen verändert hat, fährt das Parameterberechnungsverfahren150 mit dem Kasten156 fort, wo die anfänglichen Parameterwerte berechnet werden können. Falls die Anzahl die gleiche bleibt, fährt das Parameterberechnungsverfahren150 mit dem Kasten158 fort, wo die gegenwärtigen Parameterwerte berechnet werden können. Anschließend fährt das Parameterberechnungsverfahren150 mit dem Kasten160 fort, wo die anfänglichen und gegenwärtigen Parameterwerte berichtet werden können. Beispielhaft können die anfänglichen Parameterwerte die durchschnittliche anfängliche Distanz zwischen Punkten (oder auch Distanz (Mittel) anfänglich) enthalten, und können die gegenwärtigen Parameterwerte die durchschnittliche gegenwärtige Distanz zwischen Punkten (oder auch Distanz (Mittel) gegenwärtig) enthalten. Diese können in nachfolgen den Schritten verglichen werden, um diverse Aspekte eines Computersystems zu steuern. - Die obigen Verfahren und Techniken können eingesetzt werden, um jegliche Anzahl von Objekten einer graphischen Nutzeroberfläche und Aktionen umzusetzen. Zum Beispiel können Gesten erzeugt werden, um einen Nutzerbefehl zur Größenanpassung eines Fensters, zum Durchlaufen einer Anzeige, zum Drehen eines Objekts, zum Heranzoomen oder zum Wegzoomen einer angezeigten Ansicht, zum Löschen oder Einfügen von Text oder anderen Objekten, usw. zu erfassen und zu bewirken.
- Eine Grundkategorie von Gesten sollte es einen Nutzer erlauben, die gewöhnlichen Befehle einzugeben, die durch die Benutzung eines herkömmlichen Maus- oder Rollkugelgeräts eingegeben werden können. Die
7F zeigt ein Flussdiagramm zur Verarbeitung der Erfassung von Mausklickhandlungen. Beginnend mit dem Kasten710 kann eine Erfassung von entweder einer oder zwei Fingerberührungen erfolgen. Falls die erfasste Berührung als ein Finger erkannt werden kann,711 , dann kann eine Bestimmung712 erfolgen, ob die Berührung sich in einer vorbestimmten Nähe zu einem angezeigten Bildobjekt befindet, das einem auswählbaren Dateiobjekt zugeordnet ist, und, falls dem so ist, wird eine Auswahlhandlung ausgeführt714 . Falls ein zweifaches Antippen in Zuordnung zu einem auswählbaren Objekt erfasst wird716 , kann eine Doppelklickhandlung hervorgerufen werden718 . Ein doppeltes Antippen kann durch die Erfassung eines Fingers festgestellt werden, welcher sich vom Berührungsbildschirm entfernt und den Berührungsbildschirm sofort zum zweiten Mal erneut berührt. Gemäß einer alternativen Ausführungsform kann eine Doppelklickhandlung auch hervorgerufen werden, falls erfasst wird, dass eine Fingerberührung auf einem ausgewählten Objekt länger als eine vorbestimmte Zeitdauer fortbesteht. - Wie es in der
7G gezeigt ist, kann, falls die einzelne erfasste Fingerberührung nicht einem auswählbaren Dateiobjekt zugeordnet ist, sondern als einem Netzwerkadressenhyperlink zugeordnet erkannt wird720 , eine Einzelklickhandlung hervorgerufen werden, wodurch der Hyperlink aktiviert werden kann. Falls der Hyperlink innerhalb einer Nicht-Browserumgebung berührt wurde, würde dann auch eine Browseranwendung gestartet. - Falls eine Zweifingerberührung erfasst wird
711 , wird, falls wenigstens einer der Absetzpunkte einem auswählbaren Dateiobjekt zugeordnet ist713 , eine Auswahl715 des Objekts vorgenommen. Falls ein einfaches oder mehrfaches Antippen durch einen der Finger auf der berührungsempfindlichen Anzeige erfasst wird717 , während der Absetzpunkt beibehalten wird, kann eine Rechtsklickmaushandlung hervorgerufen werden. - Gemäß einer bevorzugten Ausführungsform kann, wie es in der
7H gezeigt ist, falls eine erfasste Berührung oder erfasste Berührungen keinerlei auswählbarem Dateiobjekt oder Hyperlinks zugeordnet sind, eine Bestimmung722 dahingehend erfolgen, ob der (die) Absetzpunkt(e) einem durchlaufbaren Bereich zugeordnet werden kann (können), wie etwa einem Fenster einer Texteditieranwendung, einem Dateiauflistungsfenster oder einer Intemetwebseite. - Ein Bildlauf (scrolling) betrifft im Allgemeinen das Bewegen von angezeigten Daten oder Bildern durch einen Sichtbereich auf einem Anzeigebildschirm, so dass ein neuer Datensatz im Ansichtsbereich in Sicht gebracht werden kann. In den meisten Fällen erscheint, sobald der Ansichtsbereich voll ist, jeder neue Datensatz am Rande des Ansichtsbereichs, und alle anderen Datensätze bewegen sich eine Position weiter. Das heißt, dass der neue Datensatz für jeden Datensatz erscheint, der sich aus dem Ansichtsbereich herausbewegt. Im Wesentlichen erlauben es diese Funktionen einem Nutzer, aufeinander folgende Datensätze zu betrachten, die gegenwärtig außerhalb des Ansichtsbereichs liegen. In den meisten Fällen ist der Nutzer in der Lage, die Durchquerung der Datensätze zu beschleunigen, indem er seinen Finger mit höherer Geschwindigkeit bewegt. Beispiele des Durchlaufens von Listen können in den
US Patentveröffentlichungen Nr. 2003/0076303 A1 2003/0076301 Al 2003/0095096A1 - Falls der (die) Absetzpunkt(e) innerhalb eines durchlaufbaren Bereichs ist/sein kann, kann dann eine Bildlaufhandlung hervorgerufen werden
723 , was dem Herunterdrücken eines Bildlaufrads auf einem herkömmlichen Mausgerät ähnelt. Falls der durchlaufbare Bereich nur in einer Richtung durchlaufen werden kann (z. B. hoch und runter), wird dann die hervorgerufene Bildlaufhandlung ein unidirektionaler Bildlauf sein. Falls der durchlaufbare Bereich in zwei Dimensionen durchlaufbar ist, dann wird die hervorgerufene Bildlaufhandlung omnidirektional sein. - Bei einer unidirektionalen Bildlauflhandlung, wo der Bildlauf auf die senkrechte Richtung (d. h., die Y Achse) beschränkt werden kann, wird nur die senkrechte Vektorkomponente der verfolgten Berührungsbewegung als eine Eingabe verwendet, um einen senkrechten Bildlauf zu bewirken. Bei einer unidirektionalen Bildlaufhandlung, wo der Bildlauf auf die waagerechte Richtung (d. h., die X Achse) beschränkt ist, wird in ähnlicher Weise nur die waagerechte Vektorkomponente der verfolgten Berührungsbewegung als Eingabe verwendet, um einen waagrechten Bildlauf zu bewirken. Falls die Bildlaufhandlung omnidirektional ist, wird dann die bewirkte Bildlaufhandlung die Bewegung der verfolgten Berührung verfolgen.
- Gemäß einer bevorzugten Ausführungsform kann, falls die erfasste Berührung eine Einfingerberühung ist, die Bildlaufhandlung bereit sein, um bei normaler oder einfacher Geschwindigkeit ausgeführt zu werden
724 . Falls und sobald der abgesetzte Finger sich auf dem Berührungsbildschirm zu bewegen beginnt, kann dann eine Bildlaufhandlung ausgeführt werden, indem die Bewegung des Absetzpunktes auf dem Berührungsbildschirm verfolgt wird. Falls die erfasste Berührung eine Zweifingerberührung ist, kann dann die Bildlaufhandlung bei doppelter oder zweifacher Geschwindigkeit ausgeführt werden725 . Zusätzliche Finger können weiterhin hinzugefügt werden, um eine noch schneller Bildlaufhandlung durchzuführen, wobei eine Erfassung einer Vierfingerberührung in "Seite hoch"- oder "Seite runter"-Befehle innerhalb eines Fensters für ein mehrseitiges Dokument übersetzt werden kann. - Gemäß einer anderen Ausführungsform bewegen sich die angezeigten Daten weiter, selbst wenn der Finger vorn Berührungsbildschirm entfernt wird. Die kontinuierliche Bewegung kann zumindest zum Teil auf der vorhergehenden Bewegung basieren. Zum Beispiel kann der Bildlauf in derselben Richtung und Geschwindigkeit fortgeführt werden. In manchen Fällen verlangsamt sich der Bildlauf mit der Zeit, d. h., dass die Durchlaufgeschwindigkeit durch die Medienobjekte immer langsamer wird, bis der Bildlauf schließlich stoppt, wodurch eine statische Liste verbleibt. Beispielhaft kann jedes neue Medienobjekt, das in den Ansichtsbereich gebracht wird, inkrernentell die Geschwindigkeit verringern.
- Alternativ oder zusätzlich beenden die angezeigten Daten ihre Bewegung, wenn der Finger wieder auf den Berührungsbildschirm gesetzt wird. Das heißt, dass das Zurücksetzen des Fingers auf den Berührungsbildschirm ein Bremsen umsetzen kann, welches die kontinuierlich wirkende Bewegung stoppt oder verlangsamt.
- Beispielhaft, um die oben besprochenen gestenartigen Handlungen zu veranschaulichen, wie es in der
7A gezeigt ist, kann unter Verwendung eines Berührungsbildschirms (wie etwa des in der2 gezeigten Mehrberührungsbildschirms24 ) ein einzelnes Fingertippen mit einem Finger501 auf einem Bildobjekt (z. B. einem Listenelement in Form einer Datei500 ) in das Äquivalent eines einzelnen Mausklicks übersetzt werden, was in diesem Fall eine Auswahl angeben kann, die typischerweise dadurch angezeigt wird, dass man das ausgewählte Datei- oder Bildobjekt hervorhebt. Ein erfasstes doppeltes Antippen auf dem Bildobjekt kann in das Äquivalent eines doppelten Mausklicks übersetzt werden, was das Starten einer Anwendung hervorrufen kann, die dem angetippten Bildobjekt zugeordnet ist. Zum Beispiel kann das doppelte Antippen eines Listenelements in Form einer Datei auf einen Bildschirm, wie etwa einer Photodatei, das Starten einer Photobetrachtungsanwendung und das Öffnen dieser Photodatei verursachen. - Eine Ziehen-und-Fallenlassen-Funktion (drag and drop) kann dadurch hervorgerufen werden, dass man mit wenigstens einem Finger das dem fallen zu lassenden Objekt zugeordnete Bild berührt und graphisch das Objekt an den gewünschten Ort des Fallenlassens zieht, indem man die Berührung beibehält, wie es in der
7B gezeigt ist, die ein Ziehen und Fallenlassen eines Listenelements500 in Form einer Datei vom Ordnerfenster502 zum Ordnerfenster503 veranschaulicht. - Bestimmte Mausfunktionalitäten können zwei Berührungen erfordern, um abgeschlossen zu werden. Zum Beispiel kann, wie es in der
7C gezeigt ist, eine "Rechtsklick" Geste durch zwei Finger hervorgerufen werden, mit einem Finger als Absetzfinger506 und einem zweiten Finger507 , welcher den Bildschirm wenigstens eimmal antippt, um eine Rechtsklickhandlung anzuzeigen. Die7D veranschaulicht, dass, nachdem eine Rechtsklickhandlung ausgeführt werden kann, ein Aktionsfenster504 aufgerufen werden kann, wonach der erste Finger sich über das aufgerufene Fenster504 bewegen kann, um mit einem einzelnen Finger506 ein Aktionsobjekt505 auszuwählen und anzutippen. Gemäß einer Ausführungsform dieser Erfindung kann eine Rechtsklickhandlung nur bewirkt werden, wenn das erfasste Antippen sich in unmittelbarer Nähe zum erfassten Absetzen befindet, und nur, wenn das erfasste Antippen sich links vorn abgesetzten Finger befindet (rechts vom abgesetzten Finger aus der Perspektive des Nutzers). - Andere Funktionen zur Dateiauswahl, die normalerweise eine Kombination von Maus- und Tastaturhandlung erfordern, können ausschließlich mit Berührungshandlung ausgeführt werden. Zum Beispiel muss in der Microsoft Windows Umgebung ein Nutzer, um mehrere Dateien innerhalb des Dateifensters
502 auszuwählen, typischerweise die Umschalttaste gedrückt halten, während er den Maus zeiger über die auszuwählenden sequentiellen Dateien zieht. Ohne das Gedrückthalten der Umschalttaste kann das Ziehen des Mauszeigers als „drag and drop" Aktion interpretiert werden. Wie es in der7E gezeigt ist, kann gemäß einer Ausführungsform der Erfindung die Erfassung von zwei eng zugeordneten Berührungszügen von Listenelementen in Form einer Datei als eine Mehrfachauswahlhandlung zum Auswählen einer Gruppe von Dateien508 gelesen werden. Um zu vermeiden, dass die Zweiberührungshandlung als ein anderer Befehl fehlinterpretiert wird, wie z. B. eine Drehhandlung, wird vorzugsweise die Funktion für die Zweiberührungsmehrfachauswahl nur hervorgerufen, wenn die zwei erfassten Berührungen in relativer starker Nähe zueinander liegen. - Mit Bezug auf die in
7H beschriebenen Bildlaufaktionen, und wie es in7I und7J gezeigt ist, kann das Absetzen eines oder zweier Finger innerhalb eines durchlaufbaren Fensters das Durchlaufen des angezeigten Inhaltes des Fensters bei unterschiedlichen Geschwindigkeiten verursachen. Genauer gesagt, sobald eine Bildlaufhandlung hervorgerufen wird723 , erfolgt der Bildlauf bei einfacher Geschwindigkeit724 , falls festgestellt wird, dass nur ein Finger (oder ein Absetzpunkt) auf der berührungsempfindlichen Anzeige erfasst wird, und bei zweifacher Geschwindigkeit, falls zwei Finger (oder zwei Absetzpunkte) erfasst werden. Gemäß einer bevorzugten Ausführungsform bewegen sich während der Bildlaufhandlung die Bildlaufleisten727 und728 in Übereinstimmung mit der Richtung der Bildläufe. - Schließlich, unter Verwendung einer Mehrberührungsanzeige, die zu einer Näherungserfassung in der Lage ist, wie etwa der Tafeln, die in den vorgenannten, durch Bezugnahme in die Offenbarung mit aufgenommenen, gemeinsam übertragenen und ebenso anhängigen Amneldungen Nr. 10/840,862 (veröffentlicht als US Patentveröffentlichung Nr.
US2006/0097991 - Beispielhaft kann mit Bezug auf die
7K die Erfassung der Nähe eines Fingers501 des Nutzers über Anwendungspiktogrammen (Ikons)731 innerhalb einer Arbeitsoberfläche (Desktop)729 als eine Schwebehandlung interpretiert werden, welche das rollende Auftauchen des geschwebten Anwendungspiktogramms730 hervorruft. Falls der Nutzer das aufgetauchte Piktogramm berührt, kann eine Doppelklickhandlung hervorgerufen werden, wodurch die Anwendung gestartet werden kann. Ähnliche Konzepte können auf anwendungsspezifische Situationen angewandt werden, wie etwa wenn Photodateien innerhalb einer Photoverwaltungssoftware in einem Bildvorschau-(thumbnail) Format angezeigt werden, und eine Erfassung der Nähe eines Fingers über einer Bildvorschau eine Schwebeaktion hervorruft, wodurch die Größe der geschwebten Photovorschau vergrößert (aber nicht ausgewählt) werden kann. - Gesten können auch eingesetzt werden, um virtuelle Steueroberflächen wie etwa Lautstärkeregler, Schalter, Schieber, Tastaturen und andere virtuelle Oberflächen aufzurufen und zu manipulieren, die erzeugt werden können, um die menschliche Interaktion mit einem Rechensystem oder einem Elektronikgegenstand für Verbraucher zu erleichtern. Beispielhaft, unter Verwendung einer Geste, um eine virtuelle Steueroberfläche aufzurufen, und mit Bezug auf die
8A bis8H , wird nun eine Drehgeste zur Steuerung eines virtuellen Lautstärkenreglers170 auf einer graphischen Nutzeroberfläche172 einer Anzeige174 eines Tablet PCs175 beschrieben. Um den Regler170 zu bedienen, platziert der Nutzer seine Finger176 auf einem Mehrpunktberührungsbildschirm178 . Der virtuelle Steuerregler kann bereits angezeigt sein, oder die besondere Anzahl, Orientierung oder das Profil der Finger beim Absetzen, oder die Bewegung der Finger direkt danach, oder eine gewisse Kombination dieser und anderer Charakteristiken der Nutzerinteraktion können ein Anzeigen des virtuellen Steuerreglers hervorrufen. In jeden Falle assoziiert das Rechensystem eine Fingergruppe mit denn virtuellen Steuer regler und stellt fest, dass der Nutzer beabsichtigt, den virtuellen Lautstärkenregler zu benutzen. - Diese Assoziierung kann auch zum Teil auf denn Modus oder dem gegenwärtigen Zustand der Recheneinrichtung zum Zeitpunkt der Eingabe basieren. Zum Beispiel kann dieselbe Geste alternativ als Lautstärkereglergeste interpretiert werden, wenn gegenwärtig ein Song auf dem Rechengerät abgespielt wird, oder als Drehbefehl, falls eine Anwendung zur Objekteditierung gerade ausgeführt wird. Dem Nutzer kann eine andere Rückmeldung geliefert werden, einschließlich z. B. einer hörbaren oder fühlbaren Rückmeldung.
- Sobald der Regler
170 angezeigt wird, wie es in der8A gezeigt ist, können die Finger176 des Nutzers um den Regler170 herum positioniert werden, in ähnlicher Weise als ob es ein tatsächlicher Regler oder Knopf wäre, und anschließend um den Regler170 gedreht werden, um das Drehen des Reglers170 zu simulieren. Erneut kann z. B. eine hörbare Rückmeldung in der Form eines Klickgeräuschs oder eine fühlbare Rückmeldung in der Form von Vibrationen geliefert werden, während der Regler170 "gedreht" werden kann. Der Nutzer kann auch seine andere Hand einsetzen, um den Tablet PC175 zu halten. - Wie es in der
8B gezeigt ist, erfasst der Mehrpunktberührungsbildschirm178 wenigstens ein Bilderpaar. Insbesondere wird beim Absetzen ein erstes Bild180 erzeugt, und wenigstens ein anderes Bild182 kann erzeugt werden, wenn die Finger176 gedreht werden. Obwohl nur zwei Bilder gezeigt sind, gäbe es in den meisten Fällen viel mehr Bilder, die inkremental zwischen diesen zwei Bildern auftreten. Jedes Bild repräsentiert ein Profil der Finger in Berührung mit dem Berührungsbildschirm zu einem bestimmten Zeitpunkt. Diese Bilder können auch als Berührungsbilder bezeichnet werden. Es versteht sich, dass der Begriff "Bild" nicht bedeutet, dass das Profil auf dem Bildschirm178 angezeigt wird (sondern stattdessen durch die berührungsempfindliche Einrichtung verbildlicht wird). Es ist auch anzumerken, dass, obwohl der Begriff "Bild" verwendet wird, die Daten in anderen Formen vorliegen können, die zu diversen Zeitpunkten für die Berührungsfläche repräsentativ sind. - Wie es in der
8C gezeigt ist, kann jedes der Bilder180 und182 in eine Ansammlung von Merkmalen184 umgewandelt werden. Jedes Merkmal184 kann einer bestimmten Berührung zugeordnet sein, wie z. B. durch die Spitzen jedes Fingers176 , welcher den Regler170 umgibt, sowie den Daumen der anderen Hand177 , der verwendet wird, um den Tablet PC175 zu halten. - Wie es in der
8D gezeigt ist, werden die Merkmale184 klassifiziert, d. h., dass jeder Finger/Daumen identifiziert wird, und für jedes der Bilder180 und182 gruppiert wird. In diesem besonderen Fall können die dem Regler170 zugeordneten Merkmale184A gruppiert werden, um die Gruppe188 zu bilden, und das dem Daumen zugeordnete Merkmal184B kann herausgefiltert werden. Bei alternativen Anordnungen kann das Daumenmerkmal184B für sich (oder in einer anderen Gruppe) als getrenntes Merkmal behandelt werden, z. B., um den Eingabe- oder Betriebsmodus des Systems zu verändern, oder eine andere Geste zu implementieren, z. B., eine Schiebergeste, die einen Schieber eines Entzerrers zugeordnet ist, der im Bereich des Daumens (oder eines anderen Fingers) auf dem Bildschirm angezeigt wird. - Wie es in der
8E gezeigt ist, können für jedes Bild180 und182 die Schlüsselparameter der Merkmalsgruppe188 berechnet werden. Die dem ersten Bild180 zugeordneten Schlüsselparameter repräsentieren den Anfangszustand, und die Schlüsselparameter des zweiten Bildes182 repräsentieren den gegenwärtigen Zustand. - Wie es ebenso in der
8E gezeigt ist, ist der Regler170 das Nutzeroberflächenelement, das wegen dessen Nähe zum Regler170 der Merkmalsgruppe188 zugeordnet ist. Wie es in der8F gezeigt ist, können anschließend die Schlüsselparameterwerte der Merkmalsgruppe188 von jedem Bild180 und182 vergli chen werden, um den Rotationsvektor zu bestimmen, d. h., das die Merkmalsgruppe sich in Uhrzeigerrichtung um fünf (5) Grad vorn Anfangs- zum gegenwärtigen Zustand gedreht hat. In der8F ist die anfängliche Merkmalsgruppe (Bild180 ) mit gestrichelten Linien gezeigt, während die gegenwärtige Merkmalsgruppe (Bild182 ) mit durchgezogenen Linien gezeigt ist. - Wie es in der
8G gezeigt ist, erhöht (oder verringert) der Lautsprecher192 des Tablet PCs175 seine Ausgabe auf der Grundlage des Rotationsvektors, gemäß dem Ausmaß der Drehung der Finger176 , d. h., dass auf der Grundlage einer Drehung von 5 Grad die Lautstärke um 5% erhöht wird. Auch kann die Anzeige174 des Tablet PCs die Drehung des Reglers170 gemäß dem Ausmaß der Drehung der Finger176 anpassen, d. h., dass die Position des Reglers170 sich um fünf (5) Grad dreht. In den meisten Fällen erfolgt die Drehung des Reglers gleichzeitig mit der Drehung der Finger, d. h., dass sich der Regler für jedes Grad an Fingerdrehung um ein Grad dreht. Im Wesentlichen folgt der virtuelle Steuerregler der Geste, die auf dem Bildschirm erfolgt. Weiterhin kann eine Audioeinheit194 des Tablet PCs für jede Dreheinheit ein Klickgeräusch liefern, z. B., auf der Grundlage einer Drehung von 5 Grad fünf Klicks liefern. Weiterhin kann eine Haptik-Einheit196 des Tablet PCs175 für jeden Klick ein gewisses Maß an Vibration oder einer andere fühlbare Rückmeldung liefern, wodurch ein tatsächlicher Regler simuliert wird. - Es ist anzumerken, dass gleichzeitig mit der Geste für den virtuellen Steuerregler zusätzliche Gesten ausgeführt werden können. Zum Beispiel kann mehr als ein virtueller Steuerregler zur gleichen Zeit gesteuert werden, indem beide Hände eingesetzt werden, d. h., eine Hand für jeden virtuellen Steuerregler. Alternativ oder zusätzlich können eine oder mehrere Schieberleisten zur gleichen Zeit wie der virtuelle Steuerregler gesteuert werden, d. h., dass eine Hand den virtuellen Steuerregler bedient, während wenigstens ein Finger und alternativ mehr als ein Finger der entgegen gesetzten Hand wenigstens einen Schieber und alternativ mehr als eine Schieberleiste, z. B. eine Schieberleiste für jeden Finger, bedient.
- Es ist auch anzumerken, dass, obwohl die Ausführungsform unter Verwendung eines virtuellen Steuerreglers beschrieben wird, bei einer anderen Ausführungsform das Nutzeroberflächenelement ein virtuelles Bildlaufrad sein kann. Beispielhaft kann das virtuelle Bildlaufrad ein tatsächliches Bildlaufrad nachahmen, wie etwa solche, die in den US Patentveröffentlichungen Nr.
US2003/0076303A1 US2003/0076301A1 US2003/0095096A1 - Die
9 ist ein Diagramm eines berührungsbasierten Verfahrens200 . Das Verfahren beginnt allgemein beim Kasten202 , wo eine Nutzereingabe, die über einer Mehrpunktsensorikeinrichtung erfolgt, erfasst werden kann. Die Nutzereingabe kann eine oder mehrere Berührungseingaben umfassen, wobei jede Berührungseingabe eine eindeutige Kennung hat. Im Anschluss an den Kasten202 fährt das berührungsbasierte Verfahren200 mit dem Kasten204 fort, wo die Nutzereingabe als eine Verfolgungs- oder Auswahleingabe klassifiziert werden kann, wenn die Nutzereingabe eine einzige eindeutige Kennung (eine Berührungseingabe) umfassen kann, oder als eine Gesteneingabe klassifiziert werden kann, wenn die Nutzereingabe wenigstens zwei eindeutige Kennungen (mehr als eine Berührungseingabe) umfassen kann. Falls die Nutzereingabe als eine Verfolgungseingabe(tracking) klassifiziert werden kann, fährt das berührungsbasierte Verfahren200 mit dem Kasten206 fort, wo eine Verfolgung (tracking) gemäß der Nutzereingabe durchgeführt werden kann. - Falls die Nutzereingabe als eine Gesteneingabe klassifiziert wird, fährt das berührungsbasierte Verfahren
200 mit dem Kasten208 fort, wo eine oder mehrere Gestensteueraktionen gemäß der Nutzereingabe durchgeführt werden können. Die Gestensteueraktionen können zumindest teilweise auf Veränderungen basieren, die mit oder zwischen den wenigstens zwei eindeutigen Kennungen stattfinden. - Die
10 ist ein Diagramm eines berührungsbasierten Verfahrens250 . Das berührungsbasierte Verfahren250 beginnt allgemein beim Kasten252 , wo ein anfängliches Bild während eines Eingabestrichs auf einer berührungsempfindlichen Oberfläche eingefangen werden kann. Im Anschluss an den Kasten252 fährt das berührungsbasierte Verfahren250 mit dem Kasten254 fort, wo der Berührungsmodus auf der Grundlage des anfänglichen Bildes bestimmt werden kann. Zum Beispiel kann, falls das anfängliche Bild eine einzige eindeutige Kennung umfasst, dann der Berührungsmodus einem Verfolgungs- oder Auswahlmodus entsprechen. Andererseits kann, falls das Bild mehr als eine eindeutige Kennung umfasst, dann der Berührungsmodus einem Gestenmodus entsprechen. - Im Anschluss an den Kasten
254 fährt das berührungsbasierte Verfahren250 mit dem Kasten256 fort, wo ein nächstes Bild während eines Eingabestrichs auf der berührungsempfindlichen Oberfläche eingefangen werden kann. Typischerweise können Bilder sequentiell während des Strichs eingefangen werden, und folglich kann es eine Mehrzahl von Bildern geben, die dem Strich zugeordnet sind. - Im Anschluss an den Kasten
256 fährt das berührungsbasierte Verfahren250 mit dem Kasten258 fort, wo eine Feststellung dahingehend erfolgen kann, ob der Berührungsmodus sich zwischen dem Einfangen des anfänglichen Bilds und dem Einfangen des nächsten Bildes verändert hat. Falls sich der Berührungsmodus verändert hat, fährt das berührungsbasierte Verfahren250 mit dem Kasten260 fort, wo das nächste Bild als das anfängliche Bild festgesetzt werden kann, und anschließend wird beim Kasten254 auf der Grundlage des neuen anfänglichen Bilds der Berührungsmodus erneut bestimmt. Falls der Berührungsmodus gleich geblieben ist, fährt das berührungsbasierte Verfahren250 mit dem Kasten262 fort, wo das anfängliche und das nächste Bild verglichen werden können, und ein oder mehrere Steuersignale auf der Grundlage des Vergleichs erzeugt werden können. - Die
11 ist ein Diagramm eines berührungsbasierten Verfahrens300 . Das berührungsbasierte Verfahren300 beginnt beim Kasten302 , wo ein Bildobjekt, bei dem es sich um ein Objekt einer graphischen Nutzeroberfläche handeln kann, ausgegeben werden kann. Zum Beispiel kann ein Prozessor eine Anzeige anweisen, ein bestimmtes Bildobjekt anzuzeigen. Im Anschluss an den Kasten302 fährt das berührungsbasierte Verfahren300 mit dem Kasten304 fort, wo eine Gesteneingabe über dem Bildobjekt empfangen wird. Zum Beispiel kann ein Nutzer seine Finger gestenartig auf der Oberfläche des Berührungsbildschirms absetzen oder bewegen und über dem angezeigten Bildobjekt verweilen. Die gestenartige Eingabe kann eine oder mehrere einzelne Gesten umfassen, die nacheinander stattfinden, oder mehrere Gesten, die gleichzeitig stattfinden. Jede dieser Gesten hat im Allgemeinen eine bestimmte zugeordnete Sequenz, Bewegung oder Orientierung. Zum Beispiel kann eine Geste folgendes umfassen: Das Auseinanderspreizen der Finger oder Schließen der Finger, das Drehen der Finger, das Verschieben der Finger und/oder Ähnliches. - Im Anschluss an den Kasten
304 fährt das berührungsbasierte Verfahren300 mit dem Kasten306 fort, wo das Bildobjekt auf der Grundlage und im Einklang mit der Gesteneingabe modifiziert werden kann. Mit Modifizieren ist gemeint, dass sich das Bildobjekt gemäß der gerade durchgeführten besonderen Geste oder Gesten verändert. Mit im Einklang ist gemeint, dass die Veränderungen ungefähr stattfinden, während die Geste oder Gesten durchgeführt werden. In den meisten Fällen besteht eine eins zu eins Beziehung zwischen der Geste (den Gesten) und den Veränderungen, die beim Bildobjekt stattfinden, und sie finden im Wesentlichen gleichzeitig statt. Im Wesentlichen folgt das Bildobjekt der Bewegung der Finger. Zum Beispiel kann ein Spreizen der Finger gleichzeitig das Objekt vergrößern, kann ein Schließen der Finger gleichzeitig das Bildobjekt verkleinern, kann das Drehen der Finger gleichzeitig das Objekt drehen, kann ein Verschieben der Finger ein gleichzeitiges Mitführen oder Durchlaufen des Bildobjekts erlauben. - Bei einer Ausführungsform kann der Kasten
306 die Bestimmung umfassen, welches Bildobjekt der gerade durchgeführten Geste zugeordnet ist, und anschließend das Fixieren des angezeigten Objekts an den über ihm angeordneten Fingern, so dass sich das Bildobjekt gemäß der gestenartigen Eingabe verändert. Indem die Finger mit dem Bildobjekt fixiert oder diesem zugeordnet werden, kann sich das Bildobjekt kontinuierlich anpassen, gemäß dem, was die Finger auf dem Berührungsbildschirm tun. Oft erfolgt die Bestimmung und das Fixieren beim Absetzen, d. h., wenn der Finger auf dem Berührungsbildschirm positioniert wird. - Die
12 ist ein Diagramm eines Zoomgestenverfahrens350 . Die Zoomgeste kann auf einem Mehrpunktberührungsbildschirm wie etwa der in der2 gezeigten Mehrberührungstafel24 durchgeführt werden. Das Zoomgestenverfahren350 beginnt allgemein beim Kasten352 , wo die Anwesenheit wenigstens eines ersten Fingers und eines zweiten Fingers zur gleichen Zeit auf einer berührungsempfindlichen Oberfläche erfasst wird. Die Anwesenheit wenigstens zweier Finger kann dahingehend konfiguriert sein, dass sie angibt, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In machen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, sei es das zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst falls sich die Anzahlen während der Geste verändern, d. h., dass zu jeglichem Zeitpunkt während der Geste nur ein Minimum von zwei Fingern benötigt wird. - Im Anschluss an den Kasten
352 führt das Zoomgestenverfahren350 mit dem Kasten354 fort, wo der Abstand zwischen wenigstens den zwei Fingern verglichen wird. Der Abstand kann von Finger zu Finger sein, oder von jedem Finger zu einem anderen Referenzpunkt, wie z. B. dem Schwerpunkt. Falls sich der Abstand zwischen den zwei Fingern vergrößert (auseinanderspreizen), kann ein Heran zoomsignal erzeugt werden, wie es im Kasten356 gezeigt ist. Falls sich der Abstand zwischen den zwei Fingern verringert (zusammenführen), kann ein Herauszoomsignal erzeugt werden, wie es in Kasten358 gezeigt ist. In den meisten Fällen wird das Absetzen der Finger die Finger mit einem bestimmten gerade angezeigten Bildobjekt assoziieren oder mit diesem fixieren. Zum Beispiel kann die berührungsempfindliche Oberfläche ein Berührungsbildschirm sein, und kann das Bildobjekt auf dem Berührungsbildschirm angezeigt werden. Dies erfolgt typischerweise, wenn wenigstens einer der Finger über dem Bildobjekt positioniert wird. Im Ergebnis kann, wem die Finger voneinander wegbewegt werden, das Heranzoomsignal eingesetzt werden, um die Größe der im Bildobjekt eingebetteten Merkmale zu vergrößern, und wenn die Finger zusammengekniffen werden, kann das Herauszoomsignal eingesetzt werden, um die Größe der im Objekt eingebetteten Merkmale zu verringern. Typischerweise erfolgt das Zoomen innerhalb einer vorbestimmten Grenze wie etwa der Peripherie der Anzeige, der Peripherie eines Fensters, des Randes des Bildobjekts und/oder Ähnlichem. Die eingebetteten Merkmale können in einer Mehrzahl von Lagen ausgebildet sein, wobei jede eine unterschiedliche Zoomstufe repräsentiert. - In den meisten Fällen variiert das Ausmaß des Zoomens gemäß dem Abstand zwischen den zwei Objekten. Weiterhin kann das Zoomen typischerweise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel zoomt das Objekt zur gleichen Zeit heran oder weg, während die Finger auseinandergespreizt oder zusammengeführt werden. Obwohl diese Methodologie auf das Zoomen gerichtet ist, ist anzumerken, dass sie auch für ein Vergrößern oder Verringern benutzt werden kann. Das Zoomgestenverfahren
350 kann in graphischen Programmen wie etwa Veröffentlichungs-, Photo- und Zeichnungsprogrammen besonders nützlich sein. Weiterhin kann ein Zoomen eingesetzt werden, um ein Peripheriegerät wie etwa eine Kamera zu steuern, d. h., dass, wenn die Finger auseinandergespreizt werden, die Kamera herauszoomt, und, wenn die Finger geschlossen werden, die Kamera heranzoomt. - Die
13A bis13H veranschaulichen eine Zoomsequenz unter Verwendung des oben beschriebenen Verfahrens. Die13A veranschaulicht eine Anzeige, die ein Bildobjekt364 in der Form einer Karte Nordamerikas präsentiert, mit eingebetteten Ebenen, die gezoomt werden können. In manchen Fällen kann, wie gezeigt, das Bildobjekt innerhalb eines Fensters positioniert werden, das eine Grenze des Bildobjekts364 bildet. Die13B veranschaulicht einen Nutzer, der seine Finger366 über einer Region Nordamerikas368 , insbesondere die Vereinigten Staaten370 und ganz besonders Kalifornien372 positioniert. Um Kalifornien372 heran zu zoomen, beginnt der Nutzer damit, seine Finger366 auseinander zu spreizen, wie es in der13C gezeigt ist. Mit dem weiteren Auseinanderspreizen der Finger366 (der erfasste Abstand vergrößert sich) zoomt die Karte Nordkalifornien374 weiter heran, dann eine bestimmte Region von Nordkalifornien374 , dann das Buchtgebiet376 , dann die Halbinsel378 (z. B. das Gebiet zwischen San Francisco und der San Jose Gegend), und dann die Stadt von San Carlos380 , die sich zwischen San Francisco und San Jose befindet, wie es in den13D bis13H veranschaulicht ist. Um aus San Carlos380 heraus und zurück nach Nordamerika368 zu zoomen, werden die Finger366 wieder gemäß der oben beschriebenen Sequenz, aber in umgekehrter Reihenfolge, geschlossen. -
14 ist ein Diagramm eines Mitfführverfahrens400 . Die Mitführgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Mitführverfahren400 beginnt allgemein beim Kasten402 , wo die Anwesenheit wenigstens eines ersten Objekts und eines zweiten Objekts auf einer berührungsempfindlichen Oberfläche gleichzeitig erfasst werden kann. Die Anwesenheit wenigstens zweier Finger kann dahingehend konfiguriert sein, dass sie angibt, dass die Berührung eine Gestenberührung ist, anstatt einer Verfolgungs-(tracking)-berührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Fin ger sich in Berührung befinden, und selbst wenn die Anzahl während der Geste wechselt, d. h., es nur ein Minimum von zwei Fingern benötigt. - Im Anschluss an den Kasten
402 fährt das Mitführverfahren400 mit dem Kasten404 fort, wo die Position der zwei Objekte, wenn die Objekte gemeinsam über den Berührungsbildschirm bewegt werden, überwacht wird. Im Anschluss an den Kasten404 fährt das Mitführverfahren400 mit dem Kasten406 fort, wo ein Mitführsignal erzeugt werden kann, wenn die Position der zwei Objekte sich im Verhältnis zu einer Anfangsposition verändert. In den meisten Fällen wird das Absetzen der Finger die Finger einen bestimmten auf dem Berührungsbildschirm angezeigten Bildobjekt zuordnen oder sie mit diesem fixieren. Typischer Weise, wenn wenigstens einer der Finger über der Position des Bildobjekts positioniert ist. Daraus ergibt sich, dass, wenn die Finger gemeinsam über den Berührungsbildschirm bewegt werden, das Mitführsignal verwendet werden kann, um das Bild in Richtung der Finger zu verschieben. In den meisten Fällen ändert sich das Ausmaß des Mitführens gemäß der Strecke, um welche sich die zwei Objekte bewegen. Weiterhin kann das Mitführen typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel, während sich die Finger bewegen, bewegt sich das Objekt zeitgleich mit den Fingern. - Die
15A bis15D veranschaulichen eine Mitführsequenz, die auf dem oben beschriebenen Mitführverfahren400 basiert. Unter Verwendung der Karte der13A veranschaulicht15A einen Nutzer, der seine Finger366 über der Karte positioniert. Beim Absetzen werden die Finger366 mit der Karte fixiert. Wie es in der15B gezeigt ist, kann, wenn die Finger366 senkrecht nach oben bewegt werden, die gesamte Karte364 nach oben bewegt werden, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte364 innerhalb des Sichtbereichs platziert werden. Wie es in der15C gezeigt ist, kann, wenn die Finger366 waagerecht zur Seite bewegt werden, die gesamte Karte364 zur Seite bewegt werden, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie es in15D gezeigt ist, kann, wenn die Finger366 diagonal bewegt werden, die gesamte Karte364 diagonal bewegt werden, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie man erkennt, folgt die Bewegung der Karte364 der Bewegung der Finger366 . Dieser Prozess ist ähnlich dem Verschieben eines Blatt Papiers entlang eines Tisches. Der durch die Finger auf das Papier ausgeübte Druck fixiert das Papier an den Fingern, und wenn die Finger über den Tisch verschoben werden, bewegt sich das Stück Papier mit ihnen. -
16 ist ein Diagramm eines Drehverfahrens450 . Die Drehgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Drehverfahren450 beginnt allgemein beim Kasten452 , wo die Anwesenheit eines ersten Objekts und eines zweiten Objekts gleichzeitig erfasst wird. Die Anwesenheit von wenigstens zwei Fingern kann dahin gehend konfiguriert sein, dass sie angibt, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In noch weiteren Fällen kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst wenn sich die Anzahl während der Geste verändert, d. h., das nur ein Minimum von zwei Finger benötigt wird. - Im Anschluss an den Kasten
452 fährt das Drehverfahren450 mit dem Kasten454 fort, wo der Winkel eines jeden Fingers festgelegt wird. Typischer Weise können die Winkel in Bezug zu einem Referenzpunkt bestimmt werden. Im Anschluss an den Kasten454 fährt das Drehverfahren450 mit dem Kasten456 fort, wo ein Drehsignal erzeugt werden kann, wenn der Winkel wenigstens eines der Objekte sich im Verhältnis zum Bezugspunkt ändert. In den meisten Fällen wird das Absetzen der Finger die Finger einem bestimmten auf dem Berührungsbildschirm angezeigten Bildobjekt zuordnen, oder sie mit diesem fixieren. Typischer Weise wird, wenn wenigstens einer der Finger über dem Bild auf dem Bildobjekt positioniert ist, das Bildobjekt den Fingern zugeordnet oder an diesen fixiert. Es ergibt sich daraus, dass, wenn die Finger gedreht werden, das Drehsignal verwendet werden kann, um das Objekt in Richtung der Fingerdrehung zu drehen (z. B. im Uhrzeigersinn oder gegen den Uhrzeigersinn). In den meisten Fällen ändert sich das Ausmaß der Drehung des Objekts gemäß dem Ausmaß der Fingerdrehung, d. h., dass, wenn die Finger sich um fünf Grad bewegen, das Objekt das gleiche tut. Weiterhin kann die Drehung typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Finger erfolgen. Zum Beispiel, während sich die Finger drehen, dreht sich das Objekt gleichzeitig mit den Fingern. - Die
17A bis17C veranschaulichen eine Drehsequenz, die auf dem oben beschriebenen Verfahren basiert. Unter Verwendung der Karte der13A veranschaulicht die17A einen Nutzer, der seine Finger366 über der Karte364 positioniert. Beim Absetzen werden die Finger366 mit der Karte364 fixiert. Wie es in der17B gezeigt ist, kann, wenn die Finger366 im Uhrzeigersinn gedreht werden, die gesamte Karte364 im Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern366 . Wie es in der17C gezeigt ist, kann, wenn die Finger366 entgegen dem Uhrzeigersinn gedreht werden, die gesamte Karte364 entgegen dem Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern366 . - Es ist anzumerken, dass, obwohl die
17A bis17C die Verwendung eines Daumens und eines Zeigefingers zeigen, um die Drehgeste hervorzurufen, die Verwendung von zwei Fingern wie etwa des Zeigefingers und eines Mittelfingers auch verwendet werden kann, um die Drehgeste hervorzurufen. - Weiterhin sind bei bestimmten spezifischen Anwendungen zwei Finger möglicherweise nicht erforderlich, um eine Drehgeste hervorzurufen. Zum Beispiel kann gemäß einer bevorzugten Ausfürungsform, und wie es in den
17D und17E gezeigt ist, eine Photovorschau mit einer einzigen Fingergeste in eine gewünschte Ausrichtung (z. B. von einer Landschaftsausrichtung zu einer Portraitausrichtung) gedreht werden. Genauer gesagt, bei Erfassung einer Berührung in Zuordnung zu einem auswählbaren Photovorschaupiktogramm741 , und wobei die Berührungseingabe insoweit gestenartig ist, als die erfasste Berührung einen Dreh- oder radialen Bogen um einen zentralen Abschnitt der Vorschau bildet, wird dann diese Eingabe als ein Befehl interpretiert, die Vorschau gemäß der Richtung des Dreh- oder radialen Bogens zu drehen. Gemäß einer bevorzugten Ausführungsform wird die Drehung des Vorschaupiktogramms ebenso eine Veränderung der Ausrichtungskonfiguration des entsprechenden Dateiobjekts verursachen. Gemäß einer anderen Ausführungsform wird eine Erfassung einer Drehgeste innerhalb der Photoverwaltungsanwendung auch einen Schnappbefehl (snap) hervorrufen, um die Photovorschau automatisch um 90 Grad in Richtung der Drehung zu drehen. - Die
18A und18B veranschaulichen ein anderes Beispiel der Verwendung einer gestenartigen Eingabe über ein Nutzeroberflächenelement, um eine Mediendatei zu editieren, wie etwa ein Photo, gemäß einer beispielhaften Ausführungsform der Erfindung, wie es vorher in10 beschrieben wurde. Genauer gesagt, wie es in18A gezeigt ist, innerhalb einer Umgebung750 eines Photoeditors, in welchem eine Photobilddatei (z. B. eine JPEG Datei)752 zum Editieren geöffnet werden kann, kann ein Nutzeroberflächenelement751 bereitgestellt werden, um Aspekte des Photos zu editieren. Das Nutzeroberflächenelement751 kann eine Pegelschieberleiste sein, um die Pegel bestimmter Aspekte des Photos anzupassen. In dem in der18A veranschaulichten Beispiel kann das Nutzeroberflächenelement751 eine Oberfläche sein, um eine Berührungsgeste zu empfangen, um den Helligkeitspegel des Photos anzupassen. Genauer gesagt, wird, während sich die verfolgte Fingerberührung auf der Leiste nach links bewegt, der Hel ligkeitspegel verringert, wohingegen sich der Helligkeitspegel erhöht, wenn sich die verfolgte Berührung auf dem Nutzeroberflächenelement nach rechts bewegt. Gemäß einer Ausführungsform ist das Nutzeroberflächenelement vorzugsweise durchscheinend, so dass Bilder des Photos hinter dem Nutzeroberflächenelement weiterhin durch den Nutzer gesehen werden können. Bei einer anderen Ausführungsform kann die Größe des angezeigten Photos auf dem Bildschirm verringert werden, um für ein getrennt angezeigtes Nutzeroberflächenelement Platz zu schaffen, das direkt unter dem angezeigten Photo platziert werden kann. - Die
18B veranschaulicht die Fähigkeit, über das Nutzeroberflächenelement751 zwischen den Modi der Gesteneingabe umzuschalten, indem selektiv ein einzelner oder mehrere Absetzpunkte verwendet werden. - Genauer gesagt, wie es in der
18B gezeigt ist, wird eine Erfassung eines zweiten Absetzpunktes auf dem Nutzeroberflächenelement751 ein Umschalten des Betriebsmodus von einer Anpassung des Helligkeitspegels zu einer Anpassung des Kontrastpegels verursachen. In diesem Fall wird die Bewegung beider Absetzpunkte nach links oder nach rechts jeweils eine Verringerung oder eine Erhöhung des Kontrastpegels des Photos verursachen. Die Erfassung zusätzlicher Absetzpunkte (z. B. drei oder vier Finger) kann auch als ein Befehl interpretiert werden, um zu anderen Betriebsmodi umzuschalten (wie etwa Zoomen, Farbtonanpassung, Gammapegel, usw.). Es ist festzuhalten, dass, obwohl die18A und18B die Anpassung der Helligkeits- und Kontrastpegel über das Nutzeroberflächenelement751 veranschaulichen, ein Nutzer das Nutzeroberflächenelement751 derart programmieren oder individualisieren kann, dass die Anzahl an Absetzpunkten derart interpretiert wird, dass sie andere Formen von Betriebsmodi bedeuten. Es ist auch anzumerken, dass das Nutzeroberflächenelement751 in Form einer Schieberleiste andere Formen haben kann, wie etwa ein virtuelles Bildlaufrad. -
18C ist ein Flussdiagramm, das einen Algorithmus in Bezug zu den spezifischen Beispielen veranschaulicht, die oben in den18A und18B ausgeführt wurden. Genauer gesagt, wie es in18C gezeigt ist, wird das Nutzeroberflächenelement751 auf dem Bildschirm ausgegeben760 . Falls eine gestenartige Eingabeberührung erfasst wird761 , können dann weitere Bestimmungen762 bis765 dahingehend erfolgen, wie viele Absetzpunkte der Berührung zugeordnet sind. In Abhängigkeit der Anzahl an erfassten Berührungspunkten können bei767 bis769 entsprechende Betriebsmodi aktiviert werden. Sobald der angemessene Betriebsmodus aktiviert ist, wird eine Verfolgung des Berührungspunkts (der Berührungspunkte) erfasst770 , um die entsprechende Anpassung gemäß dem Betriebsmodus zu bewirken771 . Es ist anzumerken, dass die Betriebsmodi zu jeglichem Zeitpunkt während des Editierprozesses insoweit wechseln können, insoweit als, falls die Anzahl an Absetzpunkten als verändert erfasst wird772 , das Verfahren in einer Schleife zu den Bestimmungen762 bis764 zurückkehrt, um den neuen Betriebmodus zu aktivieren. - Die
18D und18E veranschaulichen die Verwendung desselben oben erläuterten Nutzeroberflächenelements751 , um zusätzliche Handlungen hervorzurufen, durch Eingabe anderer gestenartiger Instruktionen. Genauer gesagt kann während der Anpassung des Helligkeitspegels des angezeigten Photos ein zweiter Finger verwendet werden, um eine Heranzoom- oder Herauszoomaktion zu bewirken. Die Heranzoom- und Herauszoomaktion kann durch Erfassung eines zweite Absetzpunktes und einer Veränderung in der Größe des Abstands zwischen den zwei Absetzpunkten hervorgerufen werden. Die Veränderung des Abstandes zwischen den zwei Absetzpunkten kann in eine Heranzoom- oder Herauszoomaktion umgesetzt werden, gemäß dem in der12 gezeigten und oben erläuterten Verfahren. Es ist anzumerken, dass gemäß einer Ausführungsform die Zoomhandlung nicht hervorgerufen würde, falls der zweite erfasste Absetzpunkt in einen konstanten Abstand zum ersten Absetzpunkt verbleibt; in solch einem Fall würde die Geste als eine Eingabe interpretiert, um den zweiten Betriebsmodus zu aktivieren (z. B. ein Wechsel von der Anpassung des Helligkeitspegels zur Anpassung des Kontrastpegels, wie es in18A und18B gezeigt ist). - Die
19A und9B veranschaulichen ein Beispiel der Verwendung einer gestenartigen Eingabe, um Mediendateien, wie etwa Photodateien, die in einem Photoeditor angezeigt werden, zu durchlaufen. Genauer gesagt, wie es in19A und19B gezeigt ist, kann ein Berührungserfassungsbereich754 für eine Bildlaufhandlung vorgesehen sein, bei welcher eine Geste in Form einer Hoch- und Runterbewegung eines Fingers auf dem angezeigten Photo752 des Berührungsbildschirms750 als eine gestenartige Eingabe interpretiert werden kann, um zum nächsten Photo753 überzugehen. Gemäß einer bevorzugten Ausführungsform ist es nicht erforderlich, ein Nutzeroberflächenelement anzuzeigen, um den Bildlaufbetriebsmodus aufzurufen; stattdessen kann eine Erfassung einer nach unten gerichteten Gleitbewegung durch einen Finger innerhalb der Berührungserfassungszone754 (z. B. eine Erfassung einer nach unten gerichteten Verfolgungsbewegung eines Absetzpuuktes) ausreichend sein, um die Bildlaufhandlung automatisch hervorzurufen. Gemäß einer alternativen Ausführungsform kann ein Nutzeroberflächenelement in der Foren einer virtuellen senkrechten Schieberleiste auf dem Bildschirm angezeigt werden, um dem Nutzer anzuzeigen, dass eine Bildlaufhandlung aktiviert wurde, sowie der Bereich der Berührungserfassungszone754 , um die Bildlaufhandlung vorzuführen. - Gemäß einer bevorzugten Ausführungsform kann dann, falls die erfasste nach unten gerichtete Verfolgungsbewegung diejenige von mehr als einen Absetzpunkt ist (z. B. eine Zweifingergleitgeste), der Bildlauf mit zweifacher Geschwindigkeit ausgeführt werden, in ähnlicher Weise wie es oben bezüglich des Hervorrufens einer Bildlaufhandlung innerhalb eines durchlaufbaren Bereichs beschrieben wurde.
- Die
19C und19D zeigen eine andere Form eines Nutzeroberflächenelements, ein virtuelles Bildlaufrad755 , zum Empfangen von gestenartigen Eingaben, um die Anzeige der Photos zu durchlaufen. Bei dieser Ausführungsform kann das virtuelle Bildlaufrad durch eine einfache Geste der Durchführung einer drehformigen Berührung auf dem Photo mit einem Finger aufgerufen werden, oder einen Absetzen von drei Fingern. Sobald das Nutzeroberflächenelement755 in Form eines virtuellen Bildlaufrads präsentiert werden kann, kann der Nutzer das virtuelle Bildlaufrad "drehen", um die Photos zu durchlaufen. Bei dieser besonderen Ausführungsform wird die Geschwindigkeit des Bildlaufs nicht dadurch gesteuert, wie viele Absetzpunkte auf dem Bildlaufrad755 erfasst werden, sondern stattdessen durch die Geschwindigkeit, mit welcher der Absetzpunkt sich um das Zentrum des virtuellen Bildlaufrades755 dreht. - Die
19E und19F veranschaulichen das Konzept der19A und19B auf einem Anzeigebildschirm781 einer Digitalkamera780 . Gemäß einer bevorzugten Ausführungsform kann der Anzeigebildschirm781 der Digitalkamera780 aus einer mehrberührungsempfindlichen Tafel bestehen, wie etwa die mehrberührungsempfindliche Tafel 2, die oben in der2 beschrieben ist. - Die
19E zeigt eine Ausführungsformen, bei der beim Wiedergabemodus der Digitalkamera780 eine Erfassung einer senkrecht nach unten gerichteten Ziehgesteneingabe wenigstens eines Fingers in einer Berührungserfassungszone782 eine Wiedergabebildlaufaktion hervorruft, wodurch ein nächstes Photo angezeigt werden kann. Gemäß einer anderen Ausführungsform kann eine nach unten gerichtete gestenartige Eingabe auf jeglichem Abschnitt der Anzeige781 automatisch die Bildlaufaktion hervorrufen. - Die
19F zeigt eine alternative Ausführungsform der19E , wo eine Erfassung zweier Berührungen von Nöten ist, um den Wiedergabebildlauf hervorzurufen. Genauer gesagt kann eine Kombination eines Absetzpunktes bei einer Absetzzone783 zusammen mit einer nach unten gerichteten Gleiteingabe bei oder in der Nähe der Absetzzone782 eine Bildlaufaktion hervorrufen, um das nächste Photo anzuzeigen. Es ist anzumerken, dass die in den19A bis19E beschrie benen Verfahren nicht formfaktorspezifisch sind, insoweit als die Verfahren auf einem PC Monitor, einem Laptop Monitor, einer Digitalkamera oder jeglicher Art von Einrichtung implementiert werden können, die einen Berührungsbildschirm aufweist. - Die
19G veranschaulicht eine zusätzliche Geste, die während der Wiedergabe von Mediendateien wie etwa Photodateien eingegeben werden kann, gemäß einer anderen Ausführungsform. Genauer gesagt, ähnlich zu den in den18A und18B veranschaulichten Ausführungsformen, kann dieselbe Bewegung durch Unterscheidung der Anzahl von Absetzpunkten auf der berührungsempfindlichen Anzeige (d. h., der Anzahl an Finger) unterschiedlich interpretiert werden. In diesem Fall kann eine senkrecht nach unten gerichtete Ziehgeste durch zwei Finger als eine Geste zum Löschen der Photodatei, zum Markieren der Photodatei (zu Zwecken wie etwa der Kompilierung eines Photoalbums) oder für jegliche andere nützliche Befehle interpretiert werden. - Die
19H veranschaulicht die Erfassung noch weiterer zusätzlicher Gesten unter Verwendung anderer vorgesehener Nutzeroberflächenzonen der berührungsernpfindlichen Anzeige. In diesem Beispiel kann die Erfassung eines Absetzpunktes bei einer anderen vorgesehenen Zone756 derart interpretiert werden, dass ein Löschen, Markieren oder ein anderer nützlicher Befehl gemeint ist. Gemäß einer Ausführungsform könnnen die mehreren Absetzzonen als durchscheinende Überzüge der Photodatei angezeigt werden. - Es ist anzumerken, dass, obwohl die
19 senkrecht nach unten gerichtete Ziehgesten veranschaulicht, auch in Betracht gezogen wird, dass ein senkrecht nach oben gerichtetes oder waagerecht ausgerichtetes Ziehen ebenso als Gesteneingabe derselben Befehle bestimmt werden kann. - Die
20 veranschaulicht einen möglichen Algorithmus zur Umsetzung der in den19A bis19F gezeigten Verfahren. Genauer gesagt wird beim ersten Schritt eines aus einer Mehrzahl von Photos auf einer berührungsempfindlichen Anzeige gezeigt790 . Falls eine Berührung auf dem Anzeigebildschirm erfasst wird791 , kann dann eine Bestimmung dahingehend erfolgen792 , ob die Berührung eine Gesteneingabe war, und,793 , der Art der empfangenen Gesteneingabe (z. B. eine nach unten gerichtete verfolgte Gleithandlung, eine kreisförmige verfolgte Drehhandlung, usw.). Gemäß der erfassten gestenartigen Eingabe kann ein Nutzeroberflächenelement (z. B. eine Schieberleiste oder ein virtuelles Bildlaufrad) bei Bedarf ausgegeben werden794 , wonach eine Handlung hervorgerufen werden kann, die dem Einsatz des Nutzeroberflächenelements oder der gestenartigen Eingabe entspricht795 . - Es ist anzumerken, dass die in
18 bis20 beschriebenen Verfahren auch innerhalb einer Videoumgebung umgesetzt werden können. Genauer gesagt kann während der Wiedergabe einer Videodatei ebenso ein Nutzeroberflächenelement wie etwa eine in18A gezeigte waagerechte Schieberleiste aufgerufen und angezeigt werden, wodurch, in Abhängigkeit der Anzahl erfasster Absetzpunkte, ein Betriebsmodus zur Veränderung bestimmter justierbarer Aspekte des Videos wie etwa der Helligkeit, des Kontrasts usw., aktiviert werden kann. Zur gleichen Zeit können die in den19A bis19F gezeigten Bildlauf- und Zoomverfahren ebenso auf ähnliche Weise bewirkt werden, obwohl es anstatt eines Bildlaufs die Zurückspul- und Vorspulhandlung wären, die durchgeführt würden. - Zusätzliche Editier/Wiedergabefunktionen von Videodateien können unter Verwendung von gestenartigen Eingaben über bestimmten pre-existierenden Steuerelementen implementiert werden. Gemäß einer bevorzugten Ausführungsform kann eine nicht-lineare zeitliche Wiedergabe einer Videodatei bewirkt werden, indem selektiv die Leiste, welche die Wiedergabezeitlinie angibt, zusammengezogen oder auseinandergestreckt wird. Genauer gesagt zeigt die
21A eine Videoanwendung790 (wie etwa eine Videowiedergabeanwendung), die eine Videowiedergabe791 zusammen mit einem Fortschrittsbalken792 anzeigt, auf wel chem eine Wiedergabelinie793 den zeitlichen Fortschritt der Videowiedergabe angibt. - Gemäß einer bevorzugten Ausführungsform kann die Wiedergabelinie
793 auf dem Fortschrittsbalken792 vorwärts und rückwärts bewegt werden, um ein Vorspulen und Zurückspulen des Videos zu bewirken. Die Linie kann auch am gleichen Platz gehalten werden, oder in anderer Weise mit einer nicht-linearen Geschwindigkeit moduliert werden, um eine Wiedergabe mit variabler Geschwindigkeit oder ein Pausieren des Videos zu bewirken. Gemäß einer bevorzugten Ausführungsform kann die Videoanwendung790 auf einer berührungsempfindlichen Anzeige angezeigt werden, und die Position der Wiedergabelinie793 kann über eine manuelle Berührung der Linie durch ein Finger der Hand501 an einem Ort manipuliert werden, wo die Linie auf dem Bildschirm angezeigt werden kann. Das heißt, dass die Wiedergabelinie793 sowohl als Fortschrittsindikator wie auch als Nutzeroberflächenelement zur Steuerung der Geschwindigkeit und zeitlichen Position der Videowiedergabe dienen kann. - Gemäß einer bevorzugten Ausführungsform kann der gesamte Fortschrittsbalken
792 als ein Nutzeroberflächenelement dienen, bei welchem ein Nutzer eine nicht-lineare Wiedergabe des Videos bewirken kann, indem er einen oder mehrere Abschnitte des Fortschrittsbalkens ausdehnt oder zusammenzieht. Genauer gesagt, wie es in der21B gezeigt ist, kann der Fortschrittsbalken792 in Form eines Nutzeroberflächenelements mittels einer Heranzoom- oder Herauszoomgeste mit zwei Fingern manipuliert werden (wie es oben in Bezug auf die12 erläutert wurde). In dem in der21B gezeigten Beispiel ruft eine Heranzoomgeste eine Ausdehnung der Wiedergabezeit zwischen der 60 Minutenmarke und der 80 Minutenmarke hervor. In dem in21B gezeigten Beispiel wird die Wiedergabegeschwindigkeit des Videos insoweit nicht linear, als die Wiedergabegeschwindigkeit des Videos während des Zeitabschnitts zwischen der 60 und der 80 Minutenmarke verlangsamt werden kann. Alternativ kann die Wiedergabegeschwindigkeit des Videos zwischen der 0 und 60 Minutenmarke und nach der 80 Minutenmarke beschleunigt werden, wohingegen die Wiedergabegeschwindigkeit zwischen der 60 und 80 Minutenmarke normal ist. - Die
21C zeigt ein zusätzliches Nutzeroberflächenelement794 , das gerade innerhalb der Videoanwendung790 angezeigt wird. Bei dieser Ausführungsform kann das Nutzeroberflächenelement794 ein virtuelles Bildlaufrad sein, mit welchem ein Nutzer zusätzlich die Wiedergabegeschwindigkeit des Videos steuern kann. Zusammen mit der Manipulierung des Fortschrittsbalkens792 kann ein Nutzer als erstes einen Abschnitt des Videos auswählen, bei welchem die Wiedergabegeschwindigkeit verlangsamt wird, und bei welchem der Nutzer das Bildlaufrad794 einsetzen kann, um die Wiedergabelinie793 weiter zu modulieren, um die Wiedergaberichtung und/oder -geschwindigkeit des Videos zu steuern. - Die
21D zeigt andere zusätzliche berührungsempfindliche Nutzeroberflächenelemente, die zu Editierzwecken der Videoanwendung790 hinzugefügt werden können. Zum Beispiel, wie es in der21D gezeigt ist, kann ein Nutzeroberflächenelement796 in Form einer Schieberleiste hinzugefügt werden, um gestenartige Eingaben zum Hervorrufen von Pegelanpassungen zu erfassen, wie etwa eine Mitführanpassung oder eine Helligkeits-, Kontrast-, Farbton-, Gamma-, und andere Arten von Anpassungen. Ähnlich zum Nutzeroberflächenelement751 , wie es mit Bezug auf die18A bis18E diskutiert wurde, kann das Nutzeroberflächenelement796 in form einer Schieberleiste verwendet werden, um verschiedene Betriebsmodi hervorzurufen, durch Veränderung der Anzahl an Absetzpunkten auf dem Nutzeroberflächenelement796 in Form einer Schieberleiste. - Das Nuteroberflächenelement
795 kann ebenso innerhalb der Videoanwendung790 angezeigt werden, um ein Klangeditieren des Videos zu bewirken. Genauer gesagt kann das Nutzeroberflächenelement795 eine Mehrzahl von Pegelanpassern zur Aufnahme oder zur Wiedergabe verschiedener Kanäle oder Klänge oder Musik, die mit dem Video gemischt werden sollen, umfassen. - Gemäß einer bevorzugten Ausführungsform kann ein Nutzer der Videoanwendung
790 darüber entscheiden, welche Nutzeroberflächenelemente angezeigt werden, und kann zusätzlich die Nutzeroberflächenelemente auf die Durchführung einer gewünschten Funktion hin programmieren. - Die
22A und22B veranschaulichen einen Beispielsalgorithmus800 zur Bewirkung des mit Bezug auf die21 bis21D beschriebenen Verfahrens. Genauer gesagt, wie es in der22A gezeigt ist, kann eine Videoanwendung790 gestartet werden, um eine Videowiedergabe und/oder -editierung bereitzustellen802 . Ein Fortschrittsbalken792 kann angezeigt werden803 . Falls eine Berührung über dem Fortschrittsbalken792 erfasst wird804 , kann dann eine Bestimmung805 dahingehend erfolgen, ob die Berührung ein Heranzoom- oder Herauszoombefehl ist. Falls die Berührung nicht als ein Heranzoom- oder Herauszoombefehl erfasst wird, kann dann die Wiedergabelinie gemäß der verfolgten Berührungseingabe manipuliert werden. Falls die Berührung als ein Zoomgeste erfasst wird, kann dann der Abschnitt des Fortschrittbalkens, bei welchen die Berührung erfasst wird, manipuliert werden, um sich gemäß der gestenartigen Eingabe auszudehnen oder zusammenzuziehen. - Bei der
22B können die Schritt808 bis810 ausgeführt werden, um optional zusätzliche Nutzeroberflächenelemente wie etwa jeweils das Bildlaufrad, den Soundmischer, und den Pegelanpasser in Form von Schieberleisten anzuzeigen. Eine Berührung (Berührungen) kann (können) bei den Schritten811 bis813 erfasst werden, wonach die geeigneten Funktionen814 bis818 aufgerufen werden können. - Die
23 veranschaulicht eine andere Ausführungsform der Erfindung zur Manipulierung der Wiedergabe und der Aufnahme von Audio- oder Musikdateien. Wie es in der23 gezeigt ist, kann eine Musikanwendung830 ein Paar virtueller Plattenteller842 und843 anzeigen, auf welchen zwei Schallplatten834 und835 abgespielt werden, wobei die Schallplatten entweder eine Single- oder Lang spielplatte sind. Die Schallplatten834 und835 können graphische Repräsentationen einer digitalen Musikdatei (z. B. Song A und Song B) sein, die über die Musikanwendung830 wiedergegeben werden. Mit anderen Worten können die Schallplatten graphische Abdrücke der Musikdateien sein, als ob die Musikdateien auf physischen Schallplatten abgelegt wären. - In gleicher Weise wie ein Paar echter Plattenteller können die Nadel
844 und die Nadel845 graphische Piktogrammangaben einer Wiedergabezeile sein, deren Position dadurch variiert werden kann, dass man die Zeile auf einem berührungsempfindlichen Anzeigebildschirm berührt und das Piktogramm an die gewünschte Stelle auf der graphischen Schallplatte zieht. Die Bewegung der Nadel würde einen Sprung beim Wiedergabepunkt des entsprechenden Songs verursachen, wie auf einem echten Plattenteller. - Ebenso in ähnlicher Weise wie ein Paar echter Plattenteller können Start/Stoppknöpfe
838 und839 durch einen oder mehrere Finger berührt werden, um zwischen dem Start oder Stopp/Pause der Songwiedergabe hin und her zu schalten. Geschwindigkeitsveränderungsleisten840 und841 können linear justiert werden, um die Wiedergabegeschwindigkeit der Songs zu steuern. Die Fenster831 und833 können die Frequenzdarstellung der wiedergegebenen Songs graphisch wiedergeben, während das Fenster832 die Frequenzdarstellung der eigentlichen Ausgabe der Musikanwendung832 anzeigen kann, wobei es sich dabei einfach um einen der Songs handeln kann, der gerade wiedergegeben wird, oder eine Mischung/Kombination der Songs. - Die Mischer/Mitführleiste
850 kann manipuliert werden, um die zwei abgespielten Songs zu modulieren oder zu demodulieren. - Während der Songwiedergabe können die Schallplatten
834 und835 ähnlich zu einer echten Schallplatte manipuliert werden. Zum Beispiel kann eine schnelle Vor- und Zurückbewegung einer Schallplatte den Klangeffekt eines Schallplat ten-"Scratching" verursachen, wie es Diskjockeys oft bei echten Plattentellern machen. - Es ist anzumerken, dass die oben beschriebenen Verfahren gleichzeitig während desselben gestenartigen Strichs umgesetzt werden können. Das heißt, dass alles, auswählen, verfolgen, zoomen, drehen und mitführen, während eines gestenartigen Strichs ausgeführt werden kann, der ein Spreizen, Drehen und Gleiten der Finger umfassen kann. Zum Beispiel kann beim Absetzen mit wenigstens zwei Finger das angezeigte Objekt (Karte) den zwei Fingern zugeordnet oder mit diesen fixiert werden. Um zu zoomen, kann der Nutzer seine Finger spreizen oder schließen. Um zu drehen, kann der Nutzer seine Finger drehen. Um mitzuführen, kann der Nutzer seine Finger gleiten lassen. Jede dieser Handlungen kann gleichzeitig in einer kontinuierlichen Bewegung erfolgen. Zum Beispiel kann der Nutzer seine Finger spreizen und schließen, während er sie über den Berührungsbildschirm dreht und gleiten lässt. Alternativ kann der Nutzer jede dieser Bewegungen segmentieren, ohne dass er den gestenartigen Strich zurücksetzen muss. Zum Beispiel kann der Nutzer als erstes seine Finger spreizen, dann seine Finger drehen, darin seine Finger schließen, dann seine Finger gleiten lassen, usw.
- Es ist auch anzumerken, dass es nicht immer erforderlich ist, einen menschlichen Finger zu benutzen, um die gestenartige Eingabe zu bewirken. Wo möglich, ist es auch ausreichend, eine Zeigeeinrichtung wie etwa einen Stift zu benutzen, um die gestenartige Eingabe zu bewirken.
- Zusätzliche Beispiele von gestenartigen Strichen, die als Eingaben zur Bewirkung von Oberflächenbefehlen benutzt werden können, einschließlich Interaktionen mit Nutzeroberflächenelementen (z. B. ein virtuelles Bildlaufrad), sind in der gerneinsam übertragenen ebenso anhängigen Anmeldung 10/903,964, veröffentlicht als US Patentveröffentlichung Nr.
US2006/0026521 US2006/026535 - Viele Veränderungen und Modifizierungen können durch den Fachmann erfolgen, ohne den Geist und Rahmen dieser Erfindung zu verlassen. Folglich versteht es sich, dass die veranschaulichten Ausführungsformen nur zu Beispielszwecken vorgebracht wurden, und dass sie nicht als Beschränkung dieser Erfindung angesehen werden sollten, wie sie durch die folgenden Ansprüche definiert ist. Zum Beispiel, obwohl viele Ausführungsformen der Erfindung hier mit Bezug auf persönliche Recheneinrichtungen beschrieben sind, versteht es sich, dass die Erfindung nicht auf Desktop oder Laptopcomputer beschränkt ist, sondern allgemein auf andere Rechenanwendungen wie etwa mobile Kommunikationseinrichtungen, eigenständige Multimediawiedergabeeinrichtungen, usw. Anwendung finden kann.
- Die in dieser Schrift verwendeten Worte, um diese Erfindung und ihre diversen Ausführungsformen zu beschreiben, sind nicht nur im Sinne ihrer üblich definierten Bedeutung zu verstehen, sondern umfassen durch besondere Definition in dieser Schrift Struktur, Material oder Handlungen jenseits des Umfangs der üblich definierten Bedeutungen. Folglich, falls im Kontext dieser Schrift ein Element so verstanden werden kann, dass es mehr als eine Bedeutung umfasst, dann muss seine Verwendung in einem Anspruch als allgemein für alle möglichen Bedeutungen verstanden werden, die durch die Schrift und das Wort selber gestützt sind.
- Die Definitionen der Wörter oder Elemente der folgenden Ansprüche sind folglich in dieser Schrift derart definiert, dass sie nicht nur die Kombination von Elementen umfassen, die wörtlich wiedergegeben sind, sondern jegliche äquivalente Struktur, Material oder Handlungen, zur Durchführung im Wesentlichen derselben Funktion auf im Wesentlichen dieselbe Weise, um im Wesentlichen das selbe Ergebnis zu erzielen. In diesem Sinne wird folglich in Betracht gezogen, dass ein äquivalenter Austausch von zwei oder mehr Elementen für jegliches der Elemente in den Ansprüchen weiter unten erfolgen kann, oder dass ein einzelnes Element zwei oder mehr Elemente in einem Anspruch ersetzen kann.
- Unwesentliche Änderungen des beanspruchten Gegenstands aus der Sicht eines Fachmanns, die nun bekannt sind oder später entwickelt werden, werden explizit als in äquivalenter Weise innerhalb des Anspruchsumfangs betrachtet. Folglich werden naheliegende Substitutionen, die dem Fachmann jetzt oder später bekannt sind, als innerhalb des Rahmens der definierten Anspruchselemente definiert.
- Folglich werden die Ansprüche derart verstanden, dass sie das umfassen, was genau oben veranschaulicht und beschrieben ist, was konzeptuell äquivalent sein kann, und was offensichtlich ausgetauscht werden kann. Zum Beispiel soll der Begriff "Computer" oder "Computersystem", wie er in den Ansprüchen wiedergegeben ist, wenigstens einen Desktopcomputer, einen Laptopcomputer oder jegliche mobile Recheneinrichtung wie etwa eine mobile Kommunikationseinrichtung (z. B. ein Mobil- oder WiFi/Skype-Telefon, E-Mail Kommunikationseinrichtungen, persönliche digitale Assistenteinrichtungen) und Multimediawiedergabeeinrichtungen (z. B. ein iPod, MP3 Abspielgeräte oder jegliche Einrichtungen zur Wiedergabe von digitalen Graphiken/Photos) umfassen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 5612719 [0007, 0007]
- - US 5590219 [0007, 0007]
- - US 2006/0097991 [0063, 0090]
- - US 11/428522 [0063]
- - US 2006/0238522 [0063]
- - US 2006/007991 [0066]
- - US 2003/0076303 A1 [0079, 0102]
- - US 2003/0076301 A1 [0079, 0102]
- - US 2003/0095096 A1 [0079, 0102]
- - US 2006/0026521 [0155]
- - US 2006/026535 [0155]
Claims (8)
- In der Hand haltbare mobile Kommunikationseinrichtung mit: einem berührungsempfindlichen Anzeigebildschirm; Mitteln, um den Anzeigebildschirm zur Anzeige eines Abschnitts einer Mediendatei zu veranlassen, wobei die Mediendatei wenigstens ein Textobjekt oder ein Graphikobjekt umfasst; Mitteln zur Erfassung einer Berührungseingabe für einen Durchlauf auf der Oberfläche des Anzeigebildschirms, wobei die Berührungseingabe für einen Durchlauf einen Absetzpunkt eines menschlichen Fingers auf der Oberfläche des Anzeigebildschirms umfasst, wobei der Absetzpunkt einem Ort auf dem Anzeigebildschirm entspricht, an welchem der Abschnitt der Mediendatei angezeigt wird; Mitteln zur Erfassung einer Ziehbewegung des Absetzpunktes des menschlichen Fingers auf dem Anzeigebildschirm, wobei die Ziehbewegung sich über einen Teil des Abschnitts der angezeigten Mediendatei erstreckt und eine senkrechte und eine waagerechte Vektorkomponente umfasst; Mitteln, um die Ziehbewegung des Fingerabsetzpunktes festzustellen, umeine Durchlaufhandlung anzuzeigen; Mitteln, um die Mediendatei zu veranlassen, auf dem Anzeigebildschirm durchzulaufen, wobei der Durchlauf auf eine senkrechte oder waagerechte Richtung beschränkt ist; and Mitteln zur Erfassung, ob die Berührungseingabe für einen Durchlauf in einer vorbestimmten Nähe der Mediendatei ist, und wenn dies der Fall ist, Vornehmen einer Auswahlhandlung für die Mediendatei.
- In der Hand haltbare Kommunikationseinrichtung nach Anspruch 1, die weiter Mittel zur Ausnutzung entweder der waagerechten oder senkrechten Vektorkomponente der Ziehbewegung als eine Eingabe zum Bewirken eines Durchlaufs in einer waagerechten beziehungsweise senkrechten Vektorrichtung aufweist.
- In der Hand haltbare mobile Kommunikationseinrichtung mit: einem berührungsempfindlichen Anzeigebildschirm; einem maschinenlesbaren Medium, wobei das maschinenlesbare Medium einen Satz an ausführbaren Instruktionen enthält, um den berührungsempfindlichen Anzeigebildschirm zu veranlassen, ein Verfahren zum Durchlaufen der Anzeige einer Mediendatei durchzuführen, wobei die Mediendatei wenigstens ein Textobjekt oder ein Graphikobjekt umfasst, wobei das Verfahren aufweist: Anzeige eines Abschnitts der Mediendatei auf dem Anzeigebildschirm; Erfassung einer Berührungseingabe für einen Durchlauf auf der Oberfläche des Anzeigebildschirms, wobei die Berührungseingabe für einen Durchlauf einen Absetzpunkt eines menschlichen Fingers auf der Oberfläche des Anzeigebildschirms umfasst, wobei der Absetzpunkt einem Ort auf dem Anzeigebildschirm entspricht, an welchem der Abschnitt der Mediendatei angezeigt wird; Erfassung einer Ziehbewegung des Absetzpunktes des menschlichen Fingers auf dem Anzeigebildschirm, wobei die Ziehbewegung sich über einen Teil des Abschnitts der angezeigten Mediendatei erstreckt und eine senkrechte und waagerechte Vektorkomponente umfasst; Feststellung der Ziehbewegung des Absetzpunktes des Fingers, um eine Durchlaufhandlung anzuzeigen; Veranlassen des Durchlaufens der Mediendatei auf dem Anzeigebildschirm, wobei der Durchlauf auf eine senkrechte oder waagerechte Richtung beschränkt ist; und Benutzung entweder der waagerechten oder senkrechten Vektorkomponente der Ziehbewegung als eine Eingabe zum Bewirken eines Durchlaufs in einer waagerechten beziehungsweise senkrechten Vektorrichtung.
- In der Hand haltbare mobile Kommunikationseinrichtung nach Anspruch 3, wobei das Verfahren weiter eine Erfassung aufweist, ob die Berührungseingabe für einen Durchlauf in einer vorbestimmten Nähe der Mediendatei ist, und wenn dies der Fall ist, Vornehmen einer Auswahlhandlung für die Mediendatei.
- In der Hand haltbare mobile Kommunikationseinrichtung mit: einem berührungsempfindlichen Anzeigebildschirm; Mitteln, um den Anzeigebildschirm zu veranlassen, einen Abschnitt einer Mediendatei anzuzeigen, wobei die Mediendatei wenigstens ein Textobjekt oder ein Graphikobjekt umfasst; Mitteln zur Erfassung einer Berührungseingabe für einen Durchlauf auf der Oberfläche des Anzeigebildschirms, wobei die Berührungseingabe für einen Durchlauf einen Absetzpunkt eines menschlichen Fingers auf der Oberfläche des Anzeigebildschirms umfasst, wobei der Absetzpunkt einem Ort auf dem Anzeigebildschirm entspricht, an welchem der Abschnitt der Mediendatei angezeigt wird; Mitteln zur Erfassung einer Ziehbewegung des Absetzpunktes des menschlichen Fingers auf dem Anzeigebildschirm, wobei die Ziehbewegung sich über einen Teil des Abschnitts der angezeigten Mediendatei erstreckt; Mitteln zur Erfassung einer Richtung der Ziehbewegung des Absetzpunktes des menschlichen Fingers, wobei die Richtung der Ziehbewegung eine senkrechte Vektorkomponente und eine waagerechte Vektorkomponente umfasst; Mitteln, um die Mediendatei zu veranlassen, auf dem Anzeigebildschirm gemäß der erfassten Richtung der Ziehbewegung durchzulaufen; und Mitteln zur Erfassung, ob die Berührungseingabe für einen Durchlauf in einer vorbestimmten Nähe der Mediendatei ist, und wenn dies der Fall ist, Vornehmen einer Auswahlhandlung für die Mediendatei.
- In der Hand haltbare Kommunikationseinrichtung nach Anspruch 5, die weiter Mittel zur Ausnutzung entweder der waagerechten oder senkrechten Vektorkomponente der Ziehbewegung als eine Eingabe zum Bewirken eines Durchlaufs in einer waagerechten beziehungsweise senkrechten Vektorrichtung aufweist.
- Maschinenlesbares Medium mit darin enthaltenem Programm, das ausführbare Anweisungen enthält, um einen Computer zu veranlassen, eine Verarbeitung von Berührungseingaben auszuführen, wobei der Computer eine berührungsempfindliche Eingabevorrichtung und eine Anzeigevorrichtung aufweist und wobei die Anweisungen den Computer veranlassen eine Mediendatei auf der Anzeigevorrichtung anzuzeigen, eine Berührungseingabe auf der berührungsempfindlichen Eingabevorrichtung zu erfassen, festzustellen, ob die Berührungseingabe eine Mediendurchlauf-Geste sein soll, und die Anzeige der Mediendatei auf der Anzeigevorrichtung durch eine Anzeige einer zweiten Mediendatei zu ersetzen.
- Maschinenlesbares Medium nach Anspruch 7, wobei die Mediendurchlauf-Geste eine vertikale oder horizontale Wischbewegung mit einem Absetzpunkt aufweist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US87875407P | 2007-01-05 | 2007-01-05 | |
US60/878,754 | 2007-01-05 | ||
US11/818,342 | 2007-06-13 | ||
US11/818,342 US7956847B2 (en) | 2007-01-05 | 2007-06-13 | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202007018368U1 true DE202007018368U1 (de) | 2008-06-19 |
Family
ID=38577384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202007018368U Expired - Lifetime DE202007018368U1 (de) | 2007-01-05 | 2007-10-05 | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert |
Country Status (8)
Country | Link |
---|---|
US (2) | US7956847B2 (de) |
EP (2) | EP1942401A1 (de) |
CN (1) | CN103631496B (de) |
AU (3) | AU2007100826C4 (de) |
DE (1) | DE202007018368U1 (de) |
HK (2) | HK1105768A2 (de) |
TW (2) | TWM341271U (de) |
WO (1) | WO2008083360A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010025354A1 (de) * | 2010-06-28 | 2011-12-29 | Audi Ag | Fahrerassistenzsystem für ein Kraftfahrzeug |
Families Citing this family (839)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US6991597B2 (en) | 2001-03-09 | 2006-01-31 | Boston Scientific Scimed, Inc. | System for implanting an implant and method thereof |
US9164654B2 (en) * | 2002-12-10 | 2015-10-20 | Neonode Inc. | User interface for mobile computer unit |
US8416217B1 (en) * | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
US7620915B2 (en) * | 2004-02-13 | 2009-11-17 | Ludwig Lester F | Electronic document editing employing multiple cursors |
US9104358B2 (en) | 2004-12-01 | 2015-08-11 | Xerox Corporation | System and method for document production visualization |
US9275052B2 (en) | 2005-01-19 | 2016-03-01 | Amazon Technologies, Inc. | Providing annotations of a digital work |
US8717423B2 (en) * | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
CN101299965B (zh) * | 2005-11-02 | 2012-08-01 | 皇家飞利浦电子股份有限公司 | 用于在介入操作期间进行轮廓绘制和图像显示的图像处理系统和方法 |
US7958456B2 (en) | 2005-12-23 | 2011-06-07 | Apple Inc. | Scrolling list with floating adjacent index symbols |
AU2006332488A1 (en) | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8490252B2 (en) * | 2006-02-03 | 2013-07-23 | Stover Equipment Co., Inc. | Technique for removing a cover from cylindrical modules |
US7774706B2 (en) * | 2006-03-21 | 2010-08-10 | Sony Corporation | System and method for mixing media content |
JP5194374B2 (ja) * | 2006-03-29 | 2013-05-08 | ヤマハ株式会社 | パラメータ編集装置及び信号処理装置 |
US8144125B2 (en) | 2006-03-30 | 2012-03-27 | Cypress Semiconductor Corporation | Apparatus and method for reducing average scan rate to detect a conductive object on a sensing device |
US8059015B2 (en) | 2006-05-25 | 2011-11-15 | Cypress Semiconductor Corporation | Capacitance sensing matrix for keyboard architecture |
US8040321B2 (en) | 2006-07-10 | 2011-10-18 | Cypress Semiconductor Corporation | Touch-sensor with shared capacitive sensors |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US9672533B1 (en) | 2006-09-29 | 2017-06-06 | Amazon Technologies, Inc. | Acquisition of an item based on a catalog presentation of items |
US8725565B1 (en) | 2006-09-29 | 2014-05-13 | Amazon Technologies, Inc. | Expedited acquisition of a digital item following a sample presentation of the item |
US8284165B2 (en) | 2006-10-13 | 2012-10-09 | Sony Corporation | Information display apparatus with proximity detection performance and information display method using the same |
US7856605B2 (en) | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US8570278B2 (en) | 2006-10-26 | 2013-10-29 | Apple Inc. | Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker |
KR100886337B1 (ko) * | 2006-11-23 | 2009-03-02 | 삼성전자주식회사 | 이미지 내 선택 영역을 일괄 저장하는 장치 및 이미지정보의 문서화 장치 |
KR101533465B1 (ko) * | 2006-12-27 | 2015-07-02 | 임머숀 코퍼레이션 | 진동 촉각 피드백을 통한 가상 디텐트 |
US7865817B2 (en) | 2006-12-29 | 2011-01-04 | Amazon Technologies, Inc. | Invariant referencing in digital works |
US20080168402A1 (en) * | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US8058937B2 (en) | 2007-01-30 | 2011-11-15 | Cypress Semiconductor Corporation | Setting a discharge rate and a charge rate of a relaxation oscillator circuit |
WO2008095139A2 (en) * | 2007-01-31 | 2008-08-07 | Perceptive Pixel, Inc. | Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques |
KR100894146B1 (ko) * | 2007-02-03 | 2009-04-22 | 엘지전자 주식회사 | 이동통신 단말기 및 그 동작 제어방법 |
KR100815523B1 (ko) * | 2007-02-08 | 2008-03-20 | 삼성전자주식회사 | 단말의 음악 재생 및 표시 방법과 이를 이용한 장치 |
US8814676B2 (en) * | 2007-02-09 | 2014-08-26 | Igt | Universal player control for casino game graphic assets |
JP5101908B2 (ja) * | 2007-03-16 | 2012-12-19 | 富士通株式会社 | 電子機器 |
US9665529B1 (en) * | 2007-03-29 | 2017-05-30 | Amazon Technologies, Inc. | Relative progress and event indicators |
US7716224B2 (en) | 2007-03-29 | 2010-05-11 | Amazon Technologies, Inc. | Search and indexing on a user device |
KR101420419B1 (ko) * | 2007-04-20 | 2014-07-30 | 엘지전자 주식회사 | 전자기기와 그 데이터 편집방법 및 이동통신단말기 |
US8144126B2 (en) | 2007-05-07 | 2012-03-27 | Cypress Semiconductor Corporation | Reducing sleep current in a capacitance sensing system |
JP5050634B2 (ja) * | 2007-05-08 | 2012-10-17 | ソニー株式会社 | 画像処理システム、画像処理方法、およびプログラム |
US7921309B1 (en) | 2007-05-21 | 2011-04-05 | Amazon Technologies | Systems and methods for determining and managing the power remaining in a handheld electronic device |
US7936341B2 (en) | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
JP4678534B2 (ja) * | 2007-06-07 | 2011-04-27 | ソニー株式会社 | ナビゲーション装置及び地図スクロール処理方法 |
US8258986B2 (en) | 2007-07-03 | 2012-09-04 | Cypress Semiconductor Corporation | Capacitive-matrix keyboard with multiple touch detection |
JP5196912B2 (ja) * | 2007-08-24 | 2013-05-15 | 京セラ株式会社 | 携帯電子機器 |
US8219936B2 (en) * | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
US20090063981A1 (en) * | 2007-09-03 | 2009-03-05 | Canon Kabushiki Kaisha | Display control apparatus and control method thereof, program, and recording medium |
WO2009032898A2 (en) | 2007-09-04 | 2009-03-12 | Apple Inc. | Compact input device |
WO2009030576A2 (en) * | 2007-09-07 | 2009-03-12 | International Business Machines Corporation | Scroll bar control |
US8098235B2 (en) | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
KR101513609B1 (ko) | 2007-10-04 | 2015-04-20 | 엘지전자 주식회사 | 휴대단말기의 음악 재생장치 및 방법 |
KR101398134B1 (ko) * | 2007-10-04 | 2014-05-20 | 엘지전자 주식회사 | 휴대 단말기의 동영상 재생장치 및 방법 |
KR101397080B1 (ko) * | 2007-10-05 | 2014-05-21 | 엘지전자 주식회사 | 멀티 기능 실행능력을 갖는 휴대 단말기 및 그 방법 |
KR20090038540A (ko) * | 2007-10-16 | 2009-04-21 | 주식회사 현대오토넷 | 화면 상의 영상위치 변경 장치 및 방법, 그리고 그를이용한 네비게이션 시스템 |
US20090125848A1 (en) * | 2007-11-14 | 2009-05-14 | Susann Marie Keohane | Touch surface-sensitive edit system |
US8416198B2 (en) | 2007-12-03 | 2013-04-09 | Apple Inc. | Multi-dimensional scroll wheel |
KR101419701B1 (ko) | 2007-12-03 | 2014-07-21 | 삼성전자주식회사 | 멀티미디어 재생장치에서 멀티 터치를 이용한 재생 제어 방법 |
US20090167507A1 (en) * | 2007-12-07 | 2009-07-02 | Nokia Corporation | User interface |
JP2009140368A (ja) * | 2007-12-07 | 2009-06-25 | Sony Corp | 入力装置、表示装置、入力方法、表示方法及びプログラム |
JP4712786B2 (ja) * | 2007-12-13 | 2011-06-29 | 京セラ株式会社 | 情報処理装置 |
US10503376B2 (en) * | 2007-12-20 | 2019-12-10 | Samsung Electronics Co., Ltd. | Method and apparatus for adjusting an image and control guides displayed on a display |
US8136041B2 (en) * | 2007-12-22 | 2012-03-13 | Bernard Minarik | Systems and methods for playing a musical composition in an audible and visual manner |
JP4364273B2 (ja) * | 2007-12-28 | 2009-11-11 | パナソニック株式会社 | 携帯端末装置及び表示制御方法並びに表示制御プログラム |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8405621B2 (en) * | 2008-01-06 | 2013-03-26 | Apple Inc. | Variable rate media playback methods for electronic devices with touch interfaces |
EP2243072A2 (de) * | 2008-01-23 | 2010-10-27 | N-Trig Ltd. | Manipulation grafischer objekte mit einem berührungsbildschirm |
US20090193361A1 (en) * | 2008-01-30 | 2009-07-30 | Research In Motion Limited | Electronic device and method of controlling same |
KR101503714B1 (ko) | 2008-02-05 | 2015-03-20 | 삼성전자주식회사 | Gui 제공방법 및 이를 적용한 멀티미디어 기기 |
US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US9454256B2 (en) | 2008-03-14 | 2016-09-27 | Apple Inc. | Sensor configurations of an input device that are switchable based on mode |
US20090237373A1 (en) * | 2008-03-19 | 2009-09-24 | Sony Ericsson Mobile Communications Ab | Two way touch-sensitive display |
US20090237374A1 (en) * | 2008-03-20 | 2009-09-24 | Motorola, Inc. | Transparent pressure sensor and method for using |
US20090237363A1 (en) * | 2008-03-20 | 2009-09-24 | Microsoft Corporation | Plural temporally overlapping drag and drop operations |
US9018030B2 (en) * | 2008-03-20 | 2015-04-28 | Symbol Technologies, Inc. | Transparent force sensor and method of fabrication |
US8723811B2 (en) | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
US9274681B2 (en) * | 2008-03-26 | 2016-03-01 | Lg Electronics Inc. | Terminal and method of controlling the same |
KR101481557B1 (ko) * | 2008-03-26 | 2015-01-13 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
KR101506488B1 (ko) * | 2008-04-04 | 2015-03-27 | 엘지전자 주식회사 | 근접센서를 이용하는 휴대 단말기 및 그 제어방법 |
DE102008017716A1 (de) * | 2008-04-07 | 2009-10-08 | Volkswagen Ag | Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug sowie Verfahren zum Betreiben einer solchen |
US8788967B2 (en) | 2008-04-10 | 2014-07-22 | Perceptive Pixel, Inc. | Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques |
US8745514B1 (en) | 2008-04-11 | 2014-06-03 | Perceptive Pixel, Inc. | Pressure-sensitive layering of displayed objects |
US20090295746A1 (en) * | 2008-04-29 | 2009-12-03 | Davidson Philip L | Event registration and dispatch system and method for multi-point controls |
DE102009019910B4 (de) | 2008-05-01 | 2021-09-16 | Solas Oled Ltd. | Gestenerkennung |
US8526767B2 (en) * | 2008-05-01 | 2013-09-03 | Atmel Corporation | Gesture recognition |
US20090282332A1 (en) * | 2008-05-12 | 2009-11-12 | Nokia Corporation | Apparatus, method and computer program product for selecting multiple items using multi-touch |
JP4650701B2 (ja) * | 2008-05-12 | 2011-03-16 | ソニー株式会社 | コンテンツ再生装置、ステータスバー表示方法及びステータスバー表示プログラム |
JP5203797B2 (ja) | 2008-05-13 | 2013-06-05 | 株式会社エヌ・ティ・ティ・ドコモ | 情報処理装置及び情報処理装置の表示情報編集方法 |
US20090284478A1 (en) * | 2008-05-15 | 2009-11-19 | Microsoft Corporation | Multi-Contact and Single-Contact Input |
US9268483B2 (en) * | 2008-05-16 | 2016-02-23 | Microsoft Technology Licensing, Llc | Multi-touch input platform |
US8174503B2 (en) | 2008-05-17 | 2012-05-08 | David H. Cain | Touch-based authentication of a mobile device through user generated pattern creation |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
US8418084B1 (en) * | 2008-05-30 | 2013-04-09 | At&T Intellectual Property I, L.P. | Single-touch media selection |
TW200951783A (en) * | 2008-06-06 | 2009-12-16 | Acer Inc | Electronic device and controlling method thereof |
TWI460622B (zh) * | 2008-06-20 | 2014-11-11 | Elan Microelectronics | 可解譯多物件手勢之觸控板模組及其操作方法 |
US9030418B2 (en) * | 2008-06-24 | 2015-05-12 | Lg Electronics Inc. | Mobile terminal capable of sensing proximity touch |
GB0811946D0 (en) * | 2008-06-30 | 2008-07-30 | Symbian Software Ltd | Computing device |
EP3258361B1 (de) * | 2008-07-01 | 2020-08-12 | LG Electronics Inc. -1- | Mobiles endgerät mit drucksensor und verfahren zur steuerung des mobilen endgerätes |
JP5267827B2 (ja) * | 2008-07-17 | 2013-08-21 | 日本電気株式会社 | 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法 |
US8390577B2 (en) * | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
JP4609543B2 (ja) * | 2008-07-25 | 2011-01-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
EP2151779A3 (de) * | 2008-07-31 | 2013-09-11 | Medison Co., Ltd. | Ultraschallsystem und Verfahren zum Anbieten von Vorschauseiten |
US8264598B2 (en) | 2008-09-22 | 2012-09-11 | Freedom Scientific, Inc. | Multiposition handheld electronic magnifier |
US20100026855A1 (en) * | 2008-08-04 | 2010-02-04 | Todd Conard | Portable Multi Position Magnifier Camera |
TW201007526A (en) * | 2008-08-13 | 2010-02-16 | Elan Microelectronics Corp | Signal processing method of multi-fingers touch apparatus having invisible physical button structure |
DE102008037750B3 (de) * | 2008-08-14 | 2010-04-01 | Fm Marketing Gmbh | Verfahren zur Fernsteuerung von Multimediageräten |
CN101661361A (zh) * | 2008-08-27 | 2010-03-03 | 比亚迪股份有限公司 | 多点触摸检测系统 |
US10375223B2 (en) | 2008-08-28 | 2019-08-06 | Qualcomm Incorporated | Notifying a user of events in a computing device |
CN101661363A (zh) * | 2008-08-28 | 2010-03-03 | 比亚迪股份有限公司 | 一种多点触摸感应系统的应用方法 |
KR101565378B1 (ko) * | 2008-09-03 | 2015-11-03 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
KR20100027686A (ko) * | 2008-09-03 | 2010-03-11 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
KR101537592B1 (ko) | 2008-09-03 | 2015-07-22 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
TW201011618A (en) * | 2008-09-05 | 2010-03-16 | Kye Systems Corp | Optical multi-point touch-to-control method of windows-based interface |
KR101570116B1 (ko) * | 2008-09-09 | 2015-11-19 | 삼성전자주식회사 | 터치스크린을 이용한 컨텐츠 탐색 및 실행방법과 이를 이용한 장치 |
FR2936326B1 (fr) * | 2008-09-22 | 2011-04-29 | Stantum | Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts |
US8402391B1 (en) * | 2008-09-25 | 2013-03-19 | Apple, Inc. | Collaboration system |
US8816967B2 (en) | 2008-09-25 | 2014-08-26 | Apple Inc. | Capacitive sensor having electrodes arranged on the substrate and the flex circuit |
JP2010086230A (ja) | 2008-09-30 | 2010-04-15 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
KR101586627B1 (ko) * | 2008-10-06 | 2016-01-19 | 삼성전자주식회사 | 멀티 터치를 이용한 리스트 관리 방법 및 장치 |
KR101503835B1 (ko) * | 2008-10-13 | 2015-03-18 | 삼성전자주식회사 | 멀티터치를 이용한 오브젝트 관리 방법 및 장치 |
US20100095250A1 (en) * | 2008-10-15 | 2010-04-15 | Raytheon Company | Facilitating Interaction With An Application |
JP4683110B2 (ja) * | 2008-10-17 | 2011-05-11 | ソニー株式会社 | 表示装置、表示方法及びプログラム |
KR101504210B1 (ko) * | 2008-10-17 | 2015-03-19 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US8866790B2 (en) * | 2008-10-21 | 2014-10-21 | Atmel Corporation | Multi-touch tracking |
US8659557B2 (en) * | 2008-10-21 | 2014-02-25 | Atmel Corporation | Touch finding method and apparatus |
US20100097329A1 (en) * | 2008-10-21 | 2010-04-22 | Martin Simmons | Touch Position Finding Method and Apparatus |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US20100107100A1 (en) | 2008-10-23 | 2010-04-29 | Schneekloth Jason S | Mobile Device Style Abstraction |
CN101727269B (zh) * | 2008-10-24 | 2012-02-22 | 珠海市魅族科技有限公司 | 触摸屏操作系统、含该系统的手机及其触摸键的激活方法 |
US8466879B2 (en) | 2008-10-26 | 2013-06-18 | Microsoft Corporation | Multi-touch manipulation of application objects |
US8477103B2 (en) * | 2008-10-26 | 2013-07-02 | Microsoft Corporation | Multi-touch object inertia simulation |
US20100107116A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch user interfaces |
US20100107067A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch based user interfaces |
CN102483848A (zh) * | 2008-10-28 | 2012-05-30 | 瑟克公司 | 识别多点触摸区域转动手势的方法 |
JP4666053B2 (ja) * | 2008-10-28 | 2011-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20100115472A1 (en) * | 2008-10-30 | 2010-05-06 | Lee Kun-Bin | Method of Facilitating Browsing and Management of Multimedia Files with Data Structure thereof |
US20110193812A1 (en) * | 2008-10-30 | 2011-08-11 | Kaoru Uchida | Portable terminal device, data manipulation processing method and data manipulation processing program |
KR20100048090A (ko) * | 2008-10-30 | 2010-05-11 | 삼성전자주식회사 | 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법 |
US8423916B2 (en) * | 2008-11-20 | 2013-04-16 | Canon Kabushiki Kaisha | Information processing apparatus, processing method thereof, and computer-readable storage medium |
CN102227704B (zh) * | 2008-11-28 | 2014-09-03 | 创新科技有限公司 | 用于控制声音再现装置的装置和方法 |
US8610673B2 (en) * | 2008-12-03 | 2013-12-17 | Microsoft Corporation | Manipulation of list on a multi-touch display |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
US9041660B2 (en) * | 2008-12-09 | 2015-05-26 | Microsoft Technology Licensing, Llc | Soft keyboard control |
JP2010165337A (ja) * | 2008-12-15 | 2010-07-29 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
DE112008004156B4 (de) * | 2008-12-15 | 2021-06-24 | Hewlett-Packard Development Company, L.P. | System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür |
US20100162181A1 (en) * | 2008-12-22 | 2010-06-24 | Palm, Inc. | Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress |
US20100162169A1 (en) * | 2008-12-23 | 2010-06-24 | Nokia Corporation | Method, Apparatus and Computer Program Product for Providing a Dynamic Slider Interface |
KR101503850B1 (ko) * | 2008-12-24 | 2015-03-19 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
JP4683126B2 (ja) | 2008-12-26 | 2011-05-11 | ブラザー工業株式会社 | 入力装置 |
JP2010157038A (ja) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | 電子機器、入力制御方法 |
KR20100081577A (ko) * | 2009-01-06 | 2010-07-15 | 삼성전자주식회사 | 휴대단말에서 오브젝트의 내비게이션 방법 및 장치 |
US8698741B1 (en) * | 2009-01-16 | 2014-04-15 | Fresenius Medical Care Holdings, Inc. | Methods and apparatus for medical device cursor control and touchpad-based navigation |
US8330733B2 (en) * | 2009-01-21 | 2012-12-11 | Microsoft Corporation | Bi-modal multiscreen interactivity |
KR101545875B1 (ko) * | 2009-01-23 | 2015-08-20 | 삼성전자주식회사 | 멀티미디어 아이템 조작 장치 및 방법 |
KR20100086678A (ko) * | 2009-01-23 | 2010-08-02 | 삼성전자주식회사 | 멀티미디어 아이템 재생 장치 및 방법 |
US9087032B1 (en) | 2009-01-26 | 2015-07-21 | Amazon Technologies, Inc. | Aggregation of highlights |
JP2010176330A (ja) | 2009-01-28 | 2010-08-12 | Sony Corp | 情報処理装置、及び表示制御方法 |
US7870496B1 (en) | 2009-01-29 | 2011-01-11 | Jahanzeb Ahmed Sherwani | System using touchscreen user interface of a mobile device to remotely control a host computer |
US9141268B2 (en) * | 2009-01-30 | 2015-09-22 | Brother Kogyo Kabushiki Kaisha | Inputting apparatus and storage medium storing program |
US9069398B1 (en) | 2009-01-30 | 2015-06-30 | Cellco Partnership | Electronic device having a touch panel display and a method for operating the same |
DE102009008041A1 (de) * | 2009-02-09 | 2010-08-12 | Volkswagen Ag | Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen |
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
KR20100093293A (ko) * | 2009-02-16 | 2010-08-25 | 주식회사 팬택 | 터치 기능을 갖는 이동 단말기 및 그 이동 단말기의 터치 인식 방법 |
US7939742B2 (en) * | 2009-02-19 | 2011-05-10 | Will Glaser | Musical instrument with digitally controlled virtual frets |
US9524094B2 (en) * | 2009-02-20 | 2016-12-20 | Nokia Technologies Oy | Method and apparatus for causing display of a cursor |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8689128B2 (en) * | 2009-03-16 | 2014-04-01 | Apple Inc. | Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate |
US8756534B2 (en) | 2009-03-16 | 2014-06-17 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US9852761B2 (en) * | 2009-03-16 | 2017-12-26 | Apple Inc. | Device, method, and graphical user interface for editing an audio or video attachment in an electronic message |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US8839155B2 (en) * | 2009-03-16 | 2014-09-16 | Apple Inc. | Accelerated scrolling for a multifunction device |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
WO2010111582A1 (en) * | 2009-03-27 | 2010-09-30 | Bailey Scott J | Interactive media player system |
US8751955B2 (en) * | 2009-03-28 | 2014-06-10 | International Business Machines Corporation | Scrollbar user interface for multitouch devices |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US8238876B2 (en) | 2009-03-30 | 2012-08-07 | Microsoft Corporation | Notifications |
US8832584B1 (en) | 2009-03-31 | 2014-09-09 | Amazon Technologies, Inc. | Questions on highlighted passages |
US8456466B1 (en) | 2009-04-01 | 2013-06-04 | Perceptive Pixel Inc. | Resolving ambiguous rotations in 3D manipulation |
US8413054B2 (en) * | 2009-04-13 | 2013-04-02 | Cisco Technology, Inc. | Graphical user interface for still image capture from video footage |
JP2010250554A (ja) * | 2009-04-15 | 2010-11-04 | Sony Corp | メニュー表示装置、メニュー表示方法およびプログラム |
US20100275122A1 (en) * | 2009-04-27 | 2010-10-28 | Microsoft Corporation | Click-through controller for mobile interaction |
US8427440B2 (en) * | 2009-05-05 | 2013-04-23 | Microsoft Corporation | Contact grouping and gesture recognition for surface computing |
KR101097309B1 (ko) * | 2009-05-06 | 2011-12-23 | 삼성모바일디스플레이주식회사 | 터치 동작 인식 방법 및 장치 |
US8669945B2 (en) * | 2009-05-07 | 2014-03-11 | Microsoft Corporation | Changing of list views on mobile device |
US8677282B2 (en) * | 2009-05-13 | 2014-03-18 | International Business Machines Corporation | Multi-finger touch adaptations for medical imaging systems |
US8154529B2 (en) * | 2009-05-14 | 2012-04-10 | Atmel Corporation | Two-dimensional touch sensors |
US9354751B2 (en) | 2009-05-15 | 2016-05-31 | Apple Inc. | Input device with optimized capacitive sensing |
KR101646922B1 (ko) * | 2009-05-19 | 2016-08-23 | 삼성전자 주식회사 | 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기 |
KR101640463B1 (ko) * | 2009-05-19 | 2016-07-18 | 삼성전자 주식회사 | 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기 |
KR101167248B1 (ko) * | 2009-05-22 | 2012-07-23 | 삼성메디슨 주식회사 | 터치 인터랙션을 사용하는 초음파 진단 장치 |
US20120109348A1 (en) * | 2009-05-25 | 2012-05-03 | Pioneer Corporation | Cross fader unit, mixer and program |
US8400410B2 (en) * | 2009-05-26 | 2013-03-19 | Microsoft Corporation | Ferromagnetic user interfaces |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US8681106B2 (en) * | 2009-06-07 | 2014-03-25 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
JP2010288015A (ja) * | 2009-06-10 | 2010-12-24 | Sony Corp | 情報処理装置、情報処理方法及び情報処理プログラム |
TWI511020B (zh) * | 2009-06-10 | 2015-12-01 | Htc Corp | 頁面顯示方法,電子裝置,程式產品 |
FR2946768B1 (fr) * | 2009-06-11 | 2012-02-10 | Sagem Defense Securite | Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede |
US8369974B2 (en) * | 2009-06-16 | 2013-02-05 | Kyran Daisy | Virtual phonograph |
KR101583342B1 (ko) * | 2009-06-23 | 2016-01-07 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작방법 |
US8407623B2 (en) * | 2009-06-25 | 2013-03-26 | Apple Inc. | Playback control using a touch interface |
TWI398818B (zh) * | 2009-06-30 | 2013-06-11 | Univ Nat Taiwan Science Tech | 手勢辨識方法與系統 |
US9035887B1 (en) * | 2009-07-10 | 2015-05-19 | Lexcycle, Inc | Interactive user interface |
US8347232B1 (en) * | 2009-07-10 | 2013-01-01 | Lexcycle, Inc | Interactive user interface |
US9778810B2 (en) * | 2009-07-14 | 2017-10-03 | Zumobi, Inc. | Techniques to modify content and view content on mobile devices |
US8723988B2 (en) * | 2009-07-17 | 2014-05-13 | Sony Corporation | Using a touch sensitive display to control magnification and capture of digital images by an electronic device |
US8373669B2 (en) | 2009-07-21 | 2013-02-12 | Cisco Technology, Inc. | Gradual proximity touch screen |
US20110029868A1 (en) * | 2009-08-02 | 2011-02-03 | Modu Ltd. | User interfaces for small electronic devices |
KR20110014444A (ko) * | 2009-08-05 | 2011-02-11 | 삼성전자주식회사 | 웹 브라우징 시 사용자 인터페이스 방법 및 그 방법을 수행하는 전자 기기와 그 기록 매체 |
TWI407339B (zh) * | 2009-08-06 | 2013-09-01 | Htc Corp | 追蹤觸控面板上碰觸輸入之移動軌跡的方法與電腦程式產品及其相關電子裝置 |
GB0913734D0 (en) * | 2009-08-06 | 2009-09-16 | Binstead Ronald P | Masked touch sensors |
KR101608532B1 (ko) * | 2009-08-11 | 2016-04-01 | 엘지전자 주식회사 | 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기 |
KR20110020642A (ko) * | 2009-08-24 | 2011-03-03 | 삼성전자주식회사 | 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법 |
KR101589501B1 (ko) * | 2009-08-24 | 2016-01-28 | 삼성전자주식회사 | 터치 스크린을 이용한 줌 제어 방법 및 장치 |
US8988191B2 (en) * | 2009-08-27 | 2015-03-24 | Symbol Technologies, Inc. | Systems and methods for pressure-based authentication of an input on a touch screen |
US8363020B2 (en) * | 2009-08-27 | 2013-01-29 | Symbol Technologies, Inc. | Methods and apparatus for pressure-based manipulation of content on a touch screen |
US9141193B2 (en) * | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
JP5310403B2 (ja) * | 2009-09-02 | 2013-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR101629645B1 (ko) * | 2009-09-18 | 2016-06-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작방법 |
EP3855297A3 (de) * | 2009-09-22 | 2021-10-27 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten |
US20110074830A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device, Method, and Graphical User Interface Using Mid-Drag Gestures |
WO2011037733A1 (en) * | 2009-09-25 | 2011-03-31 | Apple Inc. | Device, method, and graphical user interface using mid-drag gestures |
US8799826B2 (en) | 2009-09-25 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for moving a calendar entry in a calendar application |
US8780069B2 (en) | 2009-09-25 | 2014-07-15 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8624933B2 (en) * | 2009-09-25 | 2014-01-07 | Apple Inc. | Device, method, and graphical user interface for scrolling a multi-section document |
US20110074696A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device, Method, and Graphical User Interface Using Mid-Drag Gestures |
US20110074695A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device, Method, and Graphical User Interface Using Mid-Drag Gestures |
US8766928B2 (en) | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
US8692763B1 (en) | 2009-09-28 | 2014-04-08 | John T. Kim | Last screen rendering for electronic book reader |
KR101674713B1 (ko) * | 2009-09-29 | 2016-11-09 | 레노보 이노베이션스 리미티드 (홍콩) | 표시 장치, 제어 방법 및 기록 매체 |
US20110074804A1 (en) * | 2009-09-30 | 2011-03-31 | Nokia Corporation | Selection of a region |
US8780134B2 (en) * | 2009-09-30 | 2014-07-15 | Nokia Corporation | Access to control of multiple editing effects |
US9792012B2 (en) | 2009-10-01 | 2017-10-17 | Mobile Imaging In Sweden Ab | Method relating to digital images |
WO2011045861A1 (ja) * | 2009-10-16 | 2011-04-21 | パイオニア株式会社 | 地図表示装置、地図表示方法及び地図表示プログラム |
US20110102333A1 (en) * | 2009-10-30 | 2011-05-05 | Wayne Carl Westerman | Detection of Gesture Orientation on Repositionable Touch Surface |
US8957918B2 (en) * | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
US10799117B2 (en) | 2009-11-05 | 2020-10-13 | Fresenius Medical Care Holdings, Inc. | Patient treatment and monitoring systems and methods with cause inferencing |
JP2011101184A (ja) * | 2009-11-05 | 2011-05-19 | Sony Corp | 撮影装置、撮影制御方法及び撮影制御プログラム |
KR20110050201A (ko) * | 2009-11-06 | 2011-05-13 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어 방법 |
US20110113361A1 (en) * | 2009-11-06 | 2011-05-12 | Apple Inc. | Adjustment presets for digital images |
KR20110052869A (ko) * | 2009-11-13 | 2011-05-19 | 삼성전자주식회사 | 휴대용 단말기에서 포인터 제어 기능을 제공하기 위한 장치 및 방법 |
US20120188285A1 (en) * | 2009-11-15 | 2012-07-26 | Ram Friedlander | Enhanced pointing interface |
TWI405104B (zh) * | 2009-11-16 | 2013-08-11 | Quanta Comp Inc | 利用觸碰感測輸入裝置來翻轉三維圖形物件之方法 |
US20110122159A1 (en) * | 2009-11-20 | 2011-05-26 | Sony Ericsson Mobile Communications Ab | Methods, devices, and computer program products for providing multi-region touch scrolling |
US8466887B2 (en) | 2009-12-09 | 2013-06-18 | Htc Corporation | Method and system for handling multiple touch input on a computing device |
US20110142428A1 (en) * | 2009-12-10 | 2011-06-16 | Sony Ericsson Mobile Communications Ab | Media control arrangement |
EP2333659B1 (de) * | 2009-12-14 | 2016-05-04 | HTC Corporation | Verfahren und Vorrichtung zur Handhabung mehrfacher Berührungseingaben bei einem Datenverarbeitungsgerät |
KR20110067492A (ko) * | 2009-12-14 | 2011-06-22 | 삼성전자주식회사 | Gui 제공방법 및 이를 적용한 멀티미디어 기기 |
JP5293587B2 (ja) | 2009-12-16 | 2013-09-18 | ソニー株式会社 | 表示制御装置、表示制御方法、プログラム |
US20110148786A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | Method and apparatus for changing operating modes |
GB0922165D0 (en) * | 2009-12-18 | 2010-02-03 | Pelikon Ltd | Human interface device and related methods |
US9465532B2 (en) * | 2009-12-18 | 2016-10-11 | Synaptics Incorporated | Method and apparatus for operating in pointing and enhanced gesturing modes |
DE102009059868A1 (de) | 2009-12-21 | 2011-06-22 | Volkswagen AG, 38440 | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle |
US8274592B2 (en) * | 2009-12-22 | 2012-09-25 | Eastman Kodak Company | Variable rate browsing of an image collection |
US20120293436A1 (en) * | 2009-12-29 | 2012-11-22 | Nokia Corporation | Apparatus, method, computer program and user interface |
TWI426464B (zh) * | 2009-12-30 | 2014-02-11 | Univ Nat Taiwan | 四維資訊展示方法及裝置 |
KR20110077236A (ko) * | 2009-12-30 | 2011-07-07 | 주식회사 아이리버 | 조작툴을 이용하여 원하는 재생 시점으로 이동할 수 있는 멀티미디어 디바이스 및 그 방법 |
KR101626621B1 (ko) * | 2009-12-30 | 2016-06-01 | 엘지전자 주식회사 | 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기 |
EP2341413B1 (de) * | 2009-12-31 | 2016-11-16 | Sony Computer Entertainment Europe Limited | Tragbares elektronisches Gerät und Verfahren zur Steuerung eines tragbaren elektronischen Geräts |
US8510677B2 (en) | 2010-01-06 | 2013-08-13 | Apple Inc. | Device, method, and graphical user interface for navigating through a range of values |
US20110163967A1 (en) * | 2010-01-06 | 2011-07-07 | Imran Chaudhri | Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document |
US8621380B2 (en) | 2010-01-06 | 2013-12-31 | Apple Inc. | Apparatus and method for conditionally enabling or disabling soft buttons |
US8786559B2 (en) * | 2010-01-06 | 2014-07-22 | Apple Inc. | Device, method, and graphical user interface for manipulating tables using multi-contact gestures |
KR101691938B1 (ko) * | 2010-01-06 | 2017-01-03 | 삼성전자주식회사 | 휴대 단말기의 반복 재생 구간 설정 방법 및 장치 |
EP2348392A1 (de) * | 2010-01-21 | 2011-07-27 | Research In Motion Limited | Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür |
US20110179381A1 (en) * | 2010-01-21 | 2011-07-21 | Research In Motion Limited | Portable electronic device and method of controlling same |
US8612884B2 (en) | 2010-01-26 | 2013-12-17 | Apple Inc. | Device, method, and graphical user interface for resizing objects |
US8539385B2 (en) | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for precise positioning of objects |
US8539386B2 (en) | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for selecting and moving objects |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US20110185299A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Stamp Gestures |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
KR20110088727A (ko) * | 2010-01-29 | 2011-08-04 | 삼성전자주식회사 | 휴대용 단말기에서 출력 이미지를 회전시키기 위한 장치 및 방법 |
US9519356B2 (en) | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US8638371B2 (en) * | 2010-02-12 | 2014-01-28 | Honeywell International Inc. | Method of manipulating assets shown on a touch-sensitive display |
US8570286B2 (en) * | 2010-02-12 | 2013-10-29 | Honeywell International Inc. | Gestures on a touch-sensitive display |
US20110199386A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Overlay feature to provide user assistance in a multi-touch interactive display environment |
SE534551C2 (sv) | 2010-02-15 | 2011-10-04 | Scalado Ab | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
US20110231796A1 (en) * | 2010-02-16 | 2011-09-22 | Jose Manuel Vigil | Methods for navigating a touch screen device in conjunction with gestures |
JP5348008B2 (ja) * | 2010-02-17 | 2013-11-20 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US8799827B2 (en) | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US20110209098A1 (en) * | 2010-02-19 | 2011-08-25 | Hinckley Kenneth P | On and Off-Screen Gesture Combinations |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US9274682B2 (en) | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
JP5534857B2 (ja) * | 2010-02-22 | 2014-07-02 | キヤノン株式会社 | 表示制御装置及び表示制御装置の制御方法 |
JP5534858B2 (ja) * | 2010-02-22 | 2014-07-02 | キヤノン株式会社 | 表示制御装置及び表示制御装置の制御方法 |
US8717317B2 (en) * | 2010-02-22 | 2014-05-06 | Canon Kabushiki Kaisha | Display control device and method for controlling display on touch panel, and storage medium |
US20110209080A1 (en) * | 2010-02-24 | 2011-08-25 | Htc Corporation | Display method and electronic device for using the same |
US20110209089A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen object-hold and page-change gesture |
US9454304B2 (en) * | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8473870B2 (en) * | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US8751970B2 (en) | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US8539384B2 (en) | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US9075522B2 (en) | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US20110209058A1 (en) * | 2010-02-25 | 2011-08-25 | Microsoft Corporation | Multi-screen hold and tap gesture |
US20110209101A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen pinch-to-pocket gesture |
DE102010009622A1 (de) | 2010-02-27 | 2011-09-01 | Volkswagen Ag | Verfahren zum Betreiben einer Benutzerschnittstelle und Vorrichtung dazu, insbesondere in einem Fahrzeug |
US20110216015A1 (en) * | 2010-03-05 | 2011-09-08 | Mckesson Financial Holdings Limited | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions |
US8941600B2 (en) * | 2010-03-05 | 2015-01-27 | Mckesson Financial Holdings | Apparatus for providing touch feedback for user input to a touch sensitive surface |
US8756522B2 (en) * | 2010-03-19 | 2014-06-17 | Blackberry Limited | Portable electronic device and method of controlling same |
US9292161B2 (en) * | 2010-03-24 | 2016-03-22 | Microsoft Technology Licensing, Llc | Pointer tool with touch-enabled precise placement |
TW201133327A (en) * | 2010-03-24 | 2011-10-01 | Acer Inc | Multiple displays electric apparatus and operation method thereof |
US9990062B2 (en) * | 2010-03-26 | 2018-06-05 | Nokia Technologies Oy | Apparatus and method for proximity based input |
US20110243397A1 (en) | 2010-03-30 | 2011-10-06 | Christopher Watkins | Searching digital image collections using face recognition |
US8423911B2 (en) | 2010-04-07 | 2013-04-16 | Apple Inc. | Device, method, and graphical user interface for managing folders |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
KR20110116524A (ko) * | 2010-04-19 | 2011-10-26 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US20110273379A1 (en) * | 2010-05-05 | 2011-11-10 | Google Inc. | Directional pad on touchscreen |
JP5533254B2 (ja) * | 2010-05-24 | 2014-06-25 | アイシン・エィ・ダブリュ株式会社 | 情報表示装置、情報表示方法及びプログラム |
US8286102B1 (en) * | 2010-05-27 | 2012-10-09 | Adobe Systems Incorporated | System and method for image processing using multi-touch gestures |
EP2390772A1 (de) * | 2010-05-31 | 2011-11-30 | Sony Ericsson Mobile Communications AB | Benutzerschnittstelle mit dreidimensionaler Benutzereingabe |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
KR101667425B1 (ko) * | 2010-06-07 | 2016-10-18 | 엘지이노텍 주식회사 | 터치윈도우 확대축소 기능을 갖는 모바일장치 및 터치윈도우의 확대축소 방법 |
US8707195B2 (en) | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
JP5556398B2 (ja) * | 2010-06-08 | 2014-07-23 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9009594B2 (en) | 2010-06-10 | 2015-04-14 | Microsoft Technology Licensing, Llc | Content gestures |
EP2395440A3 (de) * | 2010-06-14 | 2012-01-11 | Lg Electronics Inc. | Mobiles Endgerät und Steuerungsverfahren dafür |
US8552999B2 (en) | 2010-06-14 | 2013-10-08 | Apple Inc. | Control selection approximation |
TWI581131B (zh) * | 2010-06-15 | 2017-05-01 | 陞達科技股份有限公司 | 分析二維軌跡以產生至少一非線性指標之方法以及使用該方法之觸控模組 |
US8773370B2 (en) | 2010-07-13 | 2014-07-08 | Apple Inc. | Table editing systems with gesture-based insertion and deletion of columns and rows |
US20120013541A1 (en) * | 2010-07-14 | 2012-01-19 | Research In Motion Limited | Portable electronic device and method of controlling same |
KR20120007686A (ko) * | 2010-07-15 | 2012-01-25 | 삼성전자주식회사 | 터치 디바이스에서 기능 제어 방법 및 장치 |
US20120019453A1 (en) | 2010-07-26 | 2012-01-26 | Wayne Carl Westerman | Motion continuation of touch input |
US20120030567A1 (en) * | 2010-07-28 | 2012-02-02 | Victor B Michael | System with contextual dashboard and dropboard features |
US20120030566A1 (en) * | 2010-07-28 | 2012-02-02 | Victor B Michael | System with touch-based selection of data items |
US20120026100A1 (en) * | 2010-07-30 | 2012-02-02 | Migos Charles J | Device, Method, and Graphical User Interface for Aligning and Distributing Objects |
JP5494337B2 (ja) | 2010-07-30 | 2014-05-14 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US8972879B2 (en) | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
JP5552947B2 (ja) | 2010-07-30 | 2014-07-16 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
US8799815B2 (en) * | 2010-07-30 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for activating an item in a folder |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
US8963874B2 (en) | 2010-07-31 | 2015-02-24 | Symbol Technologies, Inc. | Touch screen rendering system and method of operation thereof |
US8826164B2 (en) | 2010-08-03 | 2014-09-02 | Apple Inc. | Device, method, and graphical user interface for creating a new folder |
WO2012020276A1 (en) * | 2010-08-11 | 2012-02-16 | Sony Ericsson Mobile Communications Ab | Regulation of navigation speed among displayed items and related devices and methods |
US8576171B2 (en) * | 2010-08-13 | 2013-11-05 | Immersion Corporation | Systems and methods for providing haptic feedback to touch-sensitive input devices |
FR2963970B1 (fr) * | 2010-08-17 | 2013-07-12 | Compagnie Ind Et Financiere Dingenierie Ingenico | Procede de commande d'actions au moyen d'un ecran tactile. |
US8452600B2 (en) | 2010-08-18 | 2013-05-28 | Apple Inc. | Assisted reader |
JP5064552B2 (ja) * | 2010-08-20 | 2012-10-31 | 奇美電子股▲ふん▼有限公司 | 入力検出方法、入力検出装置、入力検出プログラム及び記録媒体 |
US8730035B2 (en) | 2010-08-23 | 2014-05-20 | Rohm Co., Ltd. | Lighting apparatus |
KR20120020247A (ko) * | 2010-08-27 | 2012-03-08 | 삼성전자주식회사 | 컨텐츠 재생 장치 및 방법, 컨텐츠 재생을 위한 휴대용 전자 장치 |
US8884888B2 (en) * | 2010-08-30 | 2014-11-11 | Apple Inc. | Accelerometer determined input velocity |
CN101943995A (zh) * | 2010-09-01 | 2011-01-12 | 惠州Tcl移动通信有限公司 | 一种移动终端及其触摸屏的显示信息处理方法和装置 |
KR101780020B1 (ko) | 2010-09-02 | 2017-09-19 | 삼성전자주식회사 | 인터페이스 방법 및 장치 |
JP5625642B2 (ja) * | 2010-09-06 | 2014-11-19 | ソニー株式会社 | 情報処理装置、データ分割方法及びデータ分割プログラム |
US9495322B1 (en) | 2010-09-21 | 2016-11-15 | Amazon Technologies, Inc. | Cover display |
DE112011103173T5 (de) | 2010-09-24 | 2013-08-14 | Qnx Software Systems Limited | Übergangsansicht auf einer tragbaren elektronischen Vorrichtung |
DE112011101209T5 (de) | 2010-09-24 | 2013-01-17 | Qnx Software Systems Ltd. | Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung |
ES2900188T3 (es) * | 2010-09-24 | 2022-03-16 | Huawei Tech Co Ltd | Dispositivo electrónico portátil y método para controlar el mismo |
KR20120031399A (ko) * | 2010-09-24 | 2012-04-03 | 엘지전자 주식회사 | 이동 단말기 및 그의 재생속도 제어 방법 |
US9569003B2 (en) * | 2010-09-30 | 2017-02-14 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
US8842080B2 (en) * | 2010-10-01 | 2014-09-23 | Z124 | User interface with screen spanning icon morphing |
KR101726607B1 (ko) * | 2010-10-19 | 2017-04-13 | 삼성전자주식회사 | 휴대 단말기의 화면 제어 방법 및 장치 |
US9141285B2 (en) | 2010-11-05 | 2015-09-22 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US8587547B2 (en) | 2010-11-05 | 2013-11-19 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
JP5833822B2 (ja) * | 2010-11-25 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 電子機器 |
KR101260834B1 (ko) * | 2010-12-14 | 2013-05-06 | 삼성전자주식회사 | 타임라인 바를 이용한 터치스크린 제어방법, 장치 및 이를 위한 프로그램이 기록된 기록매체 및 사용자 단말 |
US20120148216A1 (en) * | 2010-12-14 | 2012-06-14 | Qualcomm Incorporated | Self-editing video recording |
US9121750B2 (en) * | 2010-12-15 | 2015-09-01 | Sap Se | System and method to visualize measuring and dosing operations |
US20120155848A1 (en) * | 2010-12-16 | 2012-06-21 | Motorola-Mobility, Inc. | Method and System for Providing Viewfinder Operation in Mobile Device |
US8994646B2 (en) | 2010-12-17 | 2015-03-31 | Microsoft Corporation | Detecting gestures involving intentional movement of a computing device |
US8660978B2 (en) | 2010-12-17 | 2014-02-25 | Microsoft Corporation | Detecting and responding to unintentional contact with a computing device |
US8982045B2 (en) | 2010-12-17 | 2015-03-17 | Microsoft Corporation | Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device |
US9244545B2 (en) | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
US8988398B2 (en) | 2011-02-11 | 2015-03-24 | Microsoft Corporation | Multi-touch input device with orientation sensing |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
KR20130141651A (ko) | 2010-12-22 | 2013-12-26 | 톰슨 라이센싱 | 사용자 인터페이스에서 관심 영역들을 로케이팅하기 위한 방법 |
FR2969781B1 (fr) * | 2010-12-22 | 2013-07-05 | Peugeot Citroen Automobiles Sa | Interface homme machine comprenant une surface tactile de commande sensible a des glissements pour faire defiler les elements d'une liste |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
JP5619595B2 (ja) * | 2010-12-24 | 2014-11-05 | 京セラ株式会社 | 携帯端末装置 |
CN102176731A (zh) * | 2010-12-27 | 2011-09-07 | 华为终端有限公司 | 一种截取音频文件或视频文件的方法及手机 |
US8902220B2 (en) * | 2010-12-27 | 2014-12-02 | Xerox Corporation | System architecture for virtual rendering of a print production piece |
KR20120075839A (ko) * | 2010-12-29 | 2012-07-09 | 삼성전자주식회사 | 터치스크린 단말기에서 마우스 우 클릭 기능 제공 방법 및 장치 |
TWM406889U (en) | 2010-12-29 | 2011-07-01 | Puu Jiuh Co Ltd | Remote control transmitter attached to portable touch-controlled communication device |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US20130334300A1 (en) | 2011-01-03 | 2013-12-19 | Curt Evans | Text-synchronized media utilization and manipulation based on an embedded barcode |
US9430128B2 (en) | 2011-01-06 | 2016-08-30 | Tivo, Inc. | Method and apparatus for controls based on concurrent gestures |
CN103329075B (zh) * | 2011-01-06 | 2017-12-26 | TiVo解决方案有限公司 | 用于基于手势控制的方法和装置 |
CN102693000B (zh) * | 2011-01-13 | 2016-04-27 | 义隆电子股份有限公司 | 用以执行多手指手势功能的计算装置及方法 |
TW201232349A (en) * | 2011-01-21 | 2012-08-01 | Novatek Microelectronics Corp | Single finger gesture determination method, touch control chip, touch control system and computer system |
US9092132B2 (en) | 2011-01-24 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface with a dynamic gesture disambiguation threshold |
US8842082B2 (en) | 2011-01-24 | 2014-09-23 | Apple Inc. | Device, method, and graphical user interface for navigating and annotating an electronic document |
FR2971066B1 (fr) | 2011-01-31 | 2013-08-23 | Nanotec Solution | Interface homme-machine tridimensionnelle. |
WO2012104288A1 (en) * | 2011-02-03 | 2012-08-09 | Telefonaktiebolaget L M Ericsson (Publ) | A device having a multipoint sensing surface |
US9201520B2 (en) | 2011-02-11 | 2015-12-01 | Microsoft Technology Licensing, Llc | Motion and context sharing for pen-based computing inputs |
JP2012165920A (ja) * | 2011-02-15 | 2012-09-06 | Universal Entertainment Corp | ゲーミングマシン |
EP2490113B1 (de) * | 2011-02-15 | 2016-11-23 | Lg Electronics Inc. | Anzeigevorrichtung und Verfahren zur Steuerung des Betriebs davon |
JP5413688B2 (ja) * | 2011-02-16 | 2014-02-12 | ブラザー工業株式会社 | 画像区画プログラム、及び、表示装置 |
JP5862579B2 (ja) * | 2011-02-18 | 2016-02-16 | 日本電気株式会社 | 電子機器、制御設定方法、及びプログラム |
US9547428B2 (en) | 2011-03-01 | 2017-01-17 | Apple Inc. | System and method for touchscreen knob control |
US8836802B2 (en) | 2011-03-21 | 2014-09-16 | Honeywell International Inc. | Method of defining camera scan movements using gestures |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US9285950B2 (en) * | 2011-03-30 | 2016-03-15 | Google Inc. | Hover-over gesturing on mobile devices |
US8872773B2 (en) | 2011-04-05 | 2014-10-28 | Blackberry Limited | Electronic device and method of controlling same |
US20120256857A1 (en) * | 2011-04-05 | 2012-10-11 | Mak Genevieve Elizabeth | Electronic device and method of controlling same |
US20120256846A1 (en) * | 2011-04-05 | 2012-10-11 | Research In Motion Limited | Electronic device and method of controlling same |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US9116614B1 (en) * | 2011-04-13 | 2015-08-25 | Google Inc. | Determining pointer and scroll gestures on a touch-sensitive input device |
AU2012242519B2 (en) * | 2011-04-13 | 2015-11-05 | Google Llc | Click disambiguation on a touch-sensitive input device |
KR20130052749A (ko) * | 2011-04-15 | 2013-05-23 | 엘지전자 주식회사 | 터치 기반 사용자 인터페이스 장치 및 방법 |
CN103562791A (zh) * | 2011-04-18 | 2014-02-05 | 眼见360股份有限公司 | 用于与移动计算设备一起进行全景视频成像的装置和方法 |
DK2702546T3 (en) | 2011-04-29 | 2021-03-15 | American Greetings Corp | Systems, methods and apparatuses for creating, editing, distributing and viewing electronic greeting cards |
KR101810403B1 (ko) * | 2011-05-13 | 2017-12-19 | 삼성전자주식회사 | 휴대용 단말기에서 주변 디바이스의 데이터를 저장하기 위한 장치 및 방법 |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
TWI467463B (zh) * | 2011-05-27 | 2015-01-01 | Asustek Comp Inc | 具觸控式螢幕的電腦系統及其手勢的處理方法 |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
KR101290145B1 (ko) | 2011-05-31 | 2013-07-26 | 삼성전자주식회사 | 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치 |
US8661339B2 (en) | 2011-05-31 | 2014-02-25 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
SE1150505A1 (sv) | 2011-05-31 | 2012-12-01 | Mobile Imaging In Sweden Ab | Metod och anordning för tagning av bilder |
US9281010B2 (en) | 2011-05-31 | 2016-03-08 | Samsung Electronics Co., Ltd. | Timeline-based content control method and apparatus using dynamic distortion of timeline bar, and method and apparatus for controlling video and audio clips using the same |
US8751971B2 (en) | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
CH705069A1 (de) * | 2011-06-06 | 2012-12-14 | Markus Cslovjecsek Cstool Gmbh | Verfahren zum bewegungsabhängigen Navigieren in kontinuierlichen Datenströmen entlang visueller Strukturen. |
KR101794000B1 (ko) * | 2011-06-13 | 2017-11-06 | 삼성전자주식회사 | 터치 스크린을 구비하는 기기에서 스크롤 장치 및 방법 |
JP5760742B2 (ja) * | 2011-06-27 | 2015-08-12 | ヤマハ株式会社 | コントローラーおよびパラメーター制御方法 |
CN102855077A (zh) * | 2011-07-01 | 2013-01-02 | 宫润玉 | 多功能触控板模式切换方法 |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9432583B2 (en) | 2011-07-15 | 2016-08-30 | Mobile Imaging In Sweden Ab | Method of providing an adjusted digital image representation of a view, and an apparatus |
EP2555096A1 (de) * | 2011-08-01 | 2013-02-06 | Siemens Aktiengesellschaft | Verfahren zur Vorgabe von Sollwerten |
US8687023B2 (en) | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US9317196B2 (en) | 2011-08-10 | 2016-04-19 | Microsoft Technology Licensing, Llc | Automatic zooming for text selection/cursor placement |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US10706096B2 (en) | 2011-08-18 | 2020-07-07 | Apple Inc. | Management of local and remote media items |
EP2562633B1 (de) * | 2011-08-26 | 2016-03-30 | Apple Inc. | Vorrichtung, Verfahren und graphische Benutzeroberfläche für Navigation und Vorschau von Inhaltsobjekten |
US8812980B2 (en) * | 2011-08-26 | 2014-08-19 | Microsoft Corporation | Objectizing and animating images |
US9244584B2 (en) * | 2011-08-26 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigating and previewing content items |
EP2751650B1 (de) * | 2011-08-31 | 2017-11-15 | Qoros Automotive Co. Ltd. | Interaktives system für ein fahrzeug |
US20130050267A1 (en) * | 2011-08-31 | 2013-02-28 | Panasonic Corporation | Information processing terminal, display control method, and display control program |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US20130061122A1 (en) * | 2011-09-07 | 2013-03-07 | Microsoft Corporation | Multi-cell selection using touch input |
US9176610B1 (en) * | 2011-09-07 | 2015-11-03 | Smule, Inc. | Audiovisual sampling for percussion-type instrument with crowd-sourced content sourcing and distribution |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US9594735B2 (en) | 2011-09-12 | 2017-03-14 | Microsoft Technology Licensing, Llc | Automatic highlighting of formula parameters for limited display devices |
US9836868B2 (en) | 2011-09-22 | 2017-12-05 | Xerox Corporation | System and method employing segmented models of binding elements in virtual rendering of a print production piece |
US9105116B2 (en) | 2011-09-22 | 2015-08-11 | Xerox Corporation | System and method employing variable size binding elements in virtual rendering of a print production piece |
US9729685B2 (en) | 2011-09-28 | 2017-08-08 | Apple Inc. | Cover for a tablet device |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
US9772759B2 (en) | 2011-10-14 | 2017-09-26 | Apple Inc. | Device, method, and graphical user interface for data input using virtual sliders |
EP2584441A1 (de) * | 2011-10-18 | 2013-04-24 | Research In Motion Limited | Elektronische Vorrichtung und Steuerungsverfahren dafür |
US8810535B2 (en) | 2011-10-18 | 2014-08-19 | Blackberry Limited | Electronic device and method of controlling same |
US9594405B2 (en) * | 2011-10-19 | 2017-03-14 | Facebook, Inc. | Composite touch gesture control with touch screen input device and secondary touch input device |
US9158741B1 (en) | 2011-10-28 | 2015-10-13 | Amazon Technologies, Inc. | Indicators for navigating digital works |
US9372612B2 (en) * | 2011-10-31 | 2016-06-21 | Microsoft Technology Licensing, Llc | Exposing inertial snap points |
TWI571790B (zh) * | 2011-11-10 | 2017-02-21 | 財團法人資訊工業策進會 | 依感測信號更改圖示座標值的方法與電子裝置 |
TWI448140B (zh) * | 2011-11-11 | 2014-08-01 | Inst Information Industry | 手持裝置及其控制方法 |
TWI465971B (zh) * | 2011-11-11 | 2014-12-21 | Benq Corp | 電子裝置及其操控方法 |
US10423515B2 (en) | 2011-11-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Recording touch information |
JP2013114481A (ja) * | 2011-11-29 | 2013-06-10 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US9858173B2 (en) | 2011-12-01 | 2018-01-02 | Microsoft Technology Licensing, Llc | Recording user-driven events within a computing system including vicinity searching |
US9395868B2 (en) | 2011-12-06 | 2016-07-19 | Google Inc. | Graphical user interface window spacing mechanisms |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US9524097B2 (en) * | 2011-12-22 | 2016-12-20 | International Business Machines Corporation | Touchscreen gestures for selecting a graphical object |
KR101901929B1 (ko) * | 2011-12-28 | 2018-09-27 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체 |
US20130176213A1 (en) * | 2012-01-09 | 2013-07-11 | Nvidia Corporation | Touch-Screen Input/Output Device Techniques |
US9342181B2 (en) | 2012-01-09 | 2016-05-17 | Nvidia Corporation | Touch-screen input/output device touch sensing techniques |
KR101954794B1 (ko) * | 2012-01-20 | 2019-05-31 | 삼성전자주식회사 | 영상 표시 장치에서 멀티미디어 컨텐츠의 재생구간을 탐색하기 위한 장치 및 방법 |
US9652132B2 (en) | 2012-01-27 | 2017-05-16 | Google Inc. | Handling touch inputs based on user intention inference |
CN103246440A (zh) * | 2012-02-03 | 2013-08-14 | 瀚宇彩晶股份有限公司 | 利用坐标轴比例与差值旋转画面的方法 |
US9558577B2 (en) | 2012-02-07 | 2017-01-31 | Rowland Hobbs | Rhythmic mosaic generation methods, apparatuses and media |
US10127000B2 (en) | 2012-02-07 | 2018-11-13 | Rowland Hobbs | Mosaic generating platform methods, apparatuses and media |
US10592196B2 (en) | 2012-02-07 | 2020-03-17 | David H. Sonnenberg | Mosaic generating platform methods, apparatuses and media |
US8902181B2 (en) | 2012-02-07 | 2014-12-02 | Microsoft Corporation | Multi-touch-movement gestures for tablet computing devices |
EP2812778A4 (de) * | 2012-02-08 | 2015-12-02 | Blackberry Ltd | Tragbare elektronische vorrichtung und verfahren zur steuerung davon |
US9395901B2 (en) | 2012-02-08 | 2016-07-19 | Blackberry Limited | Portable electronic device and method of controlling same |
US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
WO2013126404A1 (en) * | 2012-02-22 | 2013-08-29 | Nike International Ltd. | Workout user experience |
EP2631747B1 (de) | 2012-02-24 | 2016-03-30 | BlackBerry Limited | Verfahren und Vorrichtung zur Bereitstellung einer Benutzerschnittstelle auf einer Vorrichtung zur Angabe von Inhaltsbetreibern |
EP2631760A1 (de) | 2012-02-24 | 2013-08-28 | Research In Motion Limited | Verfahren und Vorrichtung zur Bereitstellung einer Benutzerschnittstelle auf einer Vorrichtung zur Ermöglichung der Auswahl von durchzuführenden Vorgängen im Zusammenhang mit Inhalt |
KR101527038B1 (ko) | 2012-02-24 | 2015-06-08 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체 |
US20130227490A1 (en) * | 2012-02-24 | 2013-08-29 | Simon Martin THORSANDER | Method and Apparatus for Providing an Option to Enable Multiple Selections |
JP5990011B2 (ja) | 2012-02-28 | 2016-09-07 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
TW201335833A (zh) * | 2012-02-29 | 2013-09-01 | Hon Hai Prec Ind Co Ltd | 電子設備編輯工具變更方法及系統 |
US9041727B2 (en) | 2012-03-06 | 2015-05-26 | Apple Inc. | User interface tools for selectively applying effects to image |
US9202433B2 (en) | 2012-03-06 | 2015-12-01 | Apple Inc. | Multi operation slider |
US9131192B2 (en) | 2012-03-06 | 2015-09-08 | Apple Inc. | Unified slider control for modifying multiple image properties |
US10282055B2 (en) | 2012-03-06 | 2019-05-07 | Apple Inc. | Ordered processing of edits for a media editing application |
JP5979916B2 (ja) * | 2012-03-07 | 2016-08-31 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
CN102622179A (zh) * | 2012-03-09 | 2012-08-01 | 游图明 | 基于触屏电子设备上访问子文件的方法 |
TWI447640B (zh) * | 2012-03-14 | 2014-08-01 | Mitake Information Corp | 金融商品報價軟體欄位拖放之裝置與方法 |
US9400592B2 (en) | 2012-03-26 | 2016-07-26 | Sharp Laboratories Of America, Inc. | Methods, systems and apparatus for digital-marking-surface space and display management |
JP2013206180A (ja) * | 2012-03-28 | 2013-10-07 | Kyocera Corp | 電子機器および表示方法 |
US9081491B2 (en) * | 2012-03-30 | 2015-07-14 | Corel Corporation | Controlling and editing media files with touch gestures over a media viewing area using a touch sensitive device |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
US20130257792A1 (en) | 2012-04-02 | 2013-10-03 | Synaptics Incorporated | Systems and methods for determining user input using position information and force sensing |
TWI466487B (zh) * | 2012-04-02 | 2014-12-21 | Acer Inc | 遙控系統及其方法 |
KR101690261B1 (ko) | 2012-04-02 | 2016-12-27 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
US20130265501A1 (en) * | 2012-04-09 | 2013-10-10 | Sony Corporation | Remote touch gestures |
JP6004716B2 (ja) * | 2012-04-13 | 2016-10-12 | キヤノン株式会社 | 情報処理装置およびその制御方法、コンピュータプログラム |
EP2839366A4 (de) * | 2012-04-18 | 2016-05-11 | Nokia Technologies Oy | Anzeigevorrichtung mit haptischer rückmeldung |
US9386357B2 (en) | 2012-04-27 | 2016-07-05 | Arris Enterprises, Inc. | Display of presentation elements |
US10277933B2 (en) | 2012-04-27 | 2019-04-30 | Arris Enterprises Llc | Method and device for augmenting user-input information related to media content |
US10198444B2 (en) | 2012-04-27 | 2019-02-05 | Arris Enterprises Llc | Display of presentation elements |
US10389779B2 (en) | 2012-04-27 | 2019-08-20 | Arris Enterprises Llc | Information processing |
KR101413286B1 (ko) * | 2012-05-02 | 2014-07-01 | 주식회사 팬택 | 전자 장치 및 이를 위한 잠금 해제 장치와 방법 |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
JP2015519656A (ja) | 2012-05-09 | 2015-07-09 | アップル インコーポレイテッド | ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース |
WO2013169870A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for transitioning between display states in response to gesture |
EP3185116B1 (de) | 2012-05-09 | 2019-09-11 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur bereitstellung von taktilem feedback für auf einer benutzeroberfläche durchgeführte operationen |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
CN104487929B (zh) | 2012-05-09 | 2018-08-17 | 苹果公司 | 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面 |
EP2847662B1 (de) | 2012-05-09 | 2020-02-19 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur bereitstellung von feedback für sich ändernde aktivierungszustände eines benutzeroberflächenobjekts |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
KR101670570B1 (ko) | 2012-05-09 | 2016-10-28 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US9916396B2 (en) | 2012-05-11 | 2018-03-13 | Google Llc | Methods and systems for content-based search |
CN103425415A (zh) * | 2012-05-18 | 2013-12-04 | 昆盈企业股份有限公司 | 触控面板的操作方法 |
JP5377709B2 (ja) * | 2012-05-23 | 2013-12-25 | 株式会社スクウェア・エニックス | 情報処理装置,情報処理方法,及びゲーム装置 |
US9465460B2 (en) | 2012-05-24 | 2016-10-11 | Htc Corporation | Method for controlling display of electronic device and electronic device using the same |
JP5342040B1 (ja) * | 2012-06-07 | 2013-11-13 | 株式会社エヌ・ティ・ティ・ドコモ | 表示装置、表示方法及びプログラム |
US8847979B2 (en) | 2012-06-08 | 2014-09-30 | Samuel G. Smith | Peek mode and graphical user interface (GUI) experience |
EP3763486A3 (de) | 2012-06-12 | 2021-11-24 | Snap-On Incorporated | Bestandskontrollsystem mit erweiterten funktionalitäten |
TWI459237B (zh) * | 2012-06-22 | 2014-11-01 | 適用於觸控面板之手勢演算法之動態載入方法 | |
US9471606B1 (en) | 2012-06-25 | 2016-10-18 | Google Inc. | Obtaining information to provide to users |
US9235335B2 (en) * | 2012-06-25 | 2016-01-12 | Microsoft Technology Licensing, Llc | Touch interactions with a drawing application |
JP5923395B2 (ja) * | 2012-06-26 | 2016-05-24 | 京セラ株式会社 | 電子機器 |
GB2503654B (en) * | 2012-06-27 | 2015-10-28 | Samsung Electronics Co Ltd | A method and apparatus for outputting graphics to a display |
EP2867758A1 (de) * | 2012-06-27 | 2015-05-06 | OCE-Technologies B.V. | Benutzerinteraktionssystem zur anzeige digitaler objekte |
US8843964B2 (en) * | 2012-06-27 | 2014-09-23 | Cable Television Laboratories, Inc. | Interactive matrix cell transformation user interface |
US8464181B1 (en) | 2012-07-03 | 2013-06-11 | Google Inc. | Floor selection on an interactive digital map |
GB2503888A (en) * | 2012-07-10 | 2014-01-15 | Wirewax Ltd | Expandable video playback timeline that includes the location of tag content. |
US9268424B2 (en) | 2012-07-18 | 2016-02-23 | Sony Corporation | Mobile client device, operation method, recording medium, and operation system |
KR20140014457A (ko) * | 2012-07-24 | 2014-02-06 | (주)휴맥스 | 상태 바 표시 제어 장치 및 방법 |
US9823935B2 (en) * | 2012-07-26 | 2017-11-21 | Nvidia Corporation | Techniques for latching input events to display flips |
KR102016975B1 (ko) * | 2012-07-27 | 2019-09-02 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN102819396B (zh) * | 2012-07-31 | 2015-02-04 | 北京奇虎科技有限公司 | 一种多媒体文件播放方法及系统 |
CN103576962B (zh) * | 2012-08-06 | 2017-06-27 | 中兴通讯股份有限公司 | 一种新增对触摸屏的点击事件的方法及装置 |
KR20140027690A (ko) * | 2012-08-27 | 2014-03-07 | 삼성전자주식회사 | 확대 표시 방법 및 장치 |
KR20140028311A (ko) * | 2012-08-28 | 2014-03-10 | 삼성전자주식회사 | 출력화면의 편집 영역을 설정하기 위한 전자 장치 및 방법 |
CN102866831A (zh) * | 2012-08-30 | 2013-01-09 | 广东欧珀移动通信有限公司 | 一种桌面图标的调整方法、装置和移动终端 |
TWI456458B (zh) * | 2012-09-03 | 2014-10-11 | Acer Inc | 電子裝置以及相關之控制方法 |
US20140068489A1 (en) * | 2012-09-05 | 2014-03-06 | Intelligent Decisions, Inc. | Interactive historical timeline of personal health record |
CN103677360A (zh) * | 2012-09-07 | 2014-03-26 | 宏碁股份有限公司 | 电子装置以及相关的控制方法 |
US9086763B2 (en) * | 2012-09-11 | 2015-07-21 | Flatfrog Laboratories Ab | Touch force estimation in an FTIR-based projection-type touch-sensing apparatus |
US9870114B1 (en) * | 2012-09-12 | 2018-01-16 | Google Llc | Media element navigation using a virtual jog wheel |
JP5924203B2 (ja) * | 2012-09-12 | 2016-05-25 | ブラザー工業株式会社 | 画像表示制御装置、画像表示制御方法およびプログラム |
KR101958779B1 (ko) * | 2012-09-28 | 2019-03-15 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US8743072B2 (en) | 2012-09-28 | 2014-06-03 | Lg Electronics Inc. | Display device and control method thereof |
US9891781B2 (en) * | 2012-10-05 | 2018-02-13 | Htc Corporation | Mobile communications device, non-transitory computer-readable medium and method of navigating between a plurality of different views of home screen of mobile communications device |
US10552030B2 (en) * | 2012-10-15 | 2020-02-04 | Kirusa, Inc. | Multi-gesture media recording system |
US20140109012A1 (en) * | 2012-10-16 | 2014-04-17 | Microsoft Corporation | Thumbnail and document map based navigation in a document |
US8539387B1 (en) * | 2012-10-22 | 2013-09-17 | Google Inc. | Using beat combinations for controlling electronic devices |
KR102114312B1 (ko) | 2012-10-29 | 2020-06-18 | 삼성디스플레이 주식회사 | 표시 장치 및 이의 화면 제어 방법 |
RU2627096C2 (ru) * | 2012-10-30 | 2017-08-03 | Сергей Анатольевич Гевлич | Способы изготовления прототипов мультимедиа-презентаций, устройства для изготовления прототипов мультимедиа-презентаций, способы использования устройств для изготовления прототипов мультимедиа-презентаций (варианты) |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
US9729695B2 (en) | 2012-11-20 | 2017-08-08 | Dropbox Inc. | Messaging client application interface |
US9654426B2 (en) * | 2012-11-20 | 2017-05-16 | Dropbox, Inc. | System and method for organizing messages |
US9935907B2 (en) | 2012-11-20 | 2018-04-03 | Dropbox, Inc. | System and method for serving a message client |
CN103838470B (zh) * | 2012-11-27 | 2017-03-01 | 联想(北京)有限公司 | 一种获取操作选项的方法及电子设备 |
TWI506476B (zh) * | 2012-11-29 | 2015-11-01 | Egalax Empia Technology Inc | 解除觸摸屏鎖定狀態的方法、電子裝置及其儲存媒體 |
US20140157209A1 (en) * | 2012-12-03 | 2014-06-05 | Google Inc. | System and method for detecting gestures |
US20140152585A1 (en) * | 2012-12-04 | 2014-06-05 | Research In Motion Limited | Scroll jump interface for touchscreen input/output device |
CN103023736B (zh) * | 2012-12-12 | 2016-05-11 | 惠州Tcl移动通信有限公司 | 显示dlna设备的方法及移动终端 |
EP2743812B1 (de) * | 2012-12-14 | 2018-09-05 | Orange | Verfahren zum Auswählen mehrerer Eingaben auf einer Benutzerschnittstelle |
US20140173529A1 (en) * | 2012-12-14 | 2014-06-19 | Barnesandnoble.Com Llc | Circular gesture for touch sensitive ui control feature |
KR20140078275A (ko) * | 2012-12-17 | 2014-06-25 | 삼성전자주식회사 | 디스플레이 장치의 화면 스크롤 방법 및 그 장치 |
CN103279218A (zh) * | 2012-12-24 | 2013-09-04 | 李永贵 | 无边框平板 |
CN103885623A (zh) * | 2012-12-24 | 2014-06-25 | 腾讯科技(深圳)有限公司 | 一种将滑动事件处理成编辑手势的方法、系统及移动终端 |
US20140184566A1 (en) * | 2012-12-28 | 2014-07-03 | Samsung Electronics Co., Ltd | Electronic apparatus, method of controlling the same, and computer-readable recording medium |
EP2912542B1 (de) | 2012-12-29 | 2022-07-13 | Apple Inc. | Vorrichtung und verfahren zum vermeiden der erzeugung von taktilen ausgaben für eine mehrkontaktgeste |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
KR101958517B1 (ko) | 2012-12-29 | 2019-03-14 | 애플 인크. | 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
CN105264479B (zh) | 2012-12-29 | 2018-12-25 | 苹果公司 | 用于对用户界面分级结构进行导航的设备、方法和图形用户界面 |
EP3564806B1 (de) | 2012-12-29 | 2024-02-21 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur entscheidung über das scrollen oder auswählen von bildschirminhalten |
EP2939095B1 (de) | 2012-12-29 | 2018-10-03 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften |
US11513675B2 (en) | 2012-12-29 | 2022-11-29 | Apple Inc. | User interface for manipulating user interface objects |
TWI472985B (zh) * | 2013-01-02 | 2015-02-11 | Elan Microelectronics Corp | 觸控板的手勢識別方法 |
US9728224B2 (en) * | 2013-01-08 | 2017-08-08 | Marcus van Bavel | Video editing system user interface using virtual film equipment |
EP2752747A1 (de) * | 2013-01-08 | 2014-07-09 | QNX Software Systems Limited | Abrufbare Benutzersteuerung |
CN104981758B (zh) | 2013-01-15 | 2018-10-02 | 瑟克公司 | 使用具有范围过采样爬山法和下山法的多维多指状物搜索 |
TW201430680A (zh) * | 2013-01-18 | 2014-08-01 | Jin-Ben Zhang | 觸控螢幕之點擊操作結構 |
EP2759921B1 (de) * | 2013-01-25 | 2020-09-23 | Morpho, Inc. | Bildanzeigevorrichtung, Bildanzeigeverfahren und Programm |
KR102178845B1 (ko) | 2013-01-29 | 2020-11-13 | 삼성전자주식회사 | 햅틱을 제어하는 휴대 단말 및 방법 |
GB2510333A (en) | 2013-01-30 | 2014-08-06 | Ibm | Emulating pressure sensitivity on multi-touch devices |
CN103970321A (zh) * | 2013-01-30 | 2014-08-06 | 张锦本 | 触控屏幕的点击操作结构 |
US9007318B2 (en) | 2013-02-01 | 2015-04-14 | GM Global Technology Operations LLC | Method and apparatus for providing information related to an in-vehicle function |
FR3002052B1 (fr) | 2013-02-14 | 2016-12-09 | Fogale Nanotech | Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation |
US9652115B2 (en) | 2013-02-26 | 2017-05-16 | Google Inc. | Vertical floor expansion on an interactive digital map |
US9218819B1 (en) | 2013-03-01 | 2015-12-22 | Google Inc. | Customizing actions based on contextual data and voice-based inputs |
US11209975B2 (en) * | 2013-03-03 | 2021-12-28 | Microsoft Technology Licensing, Llc | Enhanced canvas environments |
CN105103567A (zh) * | 2013-03-08 | 2015-11-25 | 汤姆逊许可公司 | 使用手势用于拍摄效果的方法和装置 |
KR20140110452A (ko) | 2013-03-08 | 2014-09-17 | 삼성전자주식회사 | 전자장치에서 근접 터치를 이용한 사용자 인터페이스 제어 방법 및 장치 |
US20140267094A1 (en) * | 2013-03-13 | 2014-09-18 | Microsoft Corporation | Performing an action on a touch-enabled device based on a gesture |
US9836204B1 (en) * | 2013-03-14 | 2017-12-05 | Visualon, Inc. | Scrolling control for media players |
US9191422B2 (en) | 2013-03-15 | 2015-11-17 | Arris Technology, Inc. | Processing of social media for selected time-shifted multimedia content |
US9799316B1 (en) * | 2013-03-15 | 2017-10-24 | Duane G. Owens | Gesture pad and integrated transducer-processor unit for use with stringed instrument |
KR102157332B1 (ko) * | 2013-03-15 | 2020-09-17 | 삼성전자주식회사 | 전자 장치에서 줌 기능을 제어하기 위한 방법 및 장치 |
US8731824B1 (en) | 2013-03-15 | 2014-05-20 | Honda Motor Co., Ltd. | Navigation control for a touch screen user interface |
WO2014143776A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Providing remote interactions with host device using a wireless device |
US9785240B2 (en) * | 2013-03-18 | 2017-10-10 | Fuji Xerox Co., Ltd. | Systems and methods for content-aware selection |
US20140298219A1 (en) * | 2013-03-29 | 2014-10-02 | Microsoft Corporation | Visual Selection and Grouping |
US9715282B2 (en) * | 2013-03-29 | 2017-07-25 | Microsoft Technology Licensing, Llc | Closing, starting, and restarting applications |
US9450952B2 (en) | 2013-05-29 | 2016-09-20 | Microsoft Technology Licensing, Llc | Live tiles without application-code execution |
FI20135508L (fi) * | 2013-05-14 | 2014-11-15 | Rovio Entertainment Ltd | Kehittynyt kosketuskäyttöliittymä |
US10180728B2 (en) * | 2013-05-17 | 2019-01-15 | Citrix Systems, Inc. | Remoting or localizing touch gestures at a virtualization client agent |
US10572124B2 (en) | 2013-05-20 | 2020-02-25 | Citrix Systems, Inc. | Bound based contextual zoom |
US9201589B2 (en) * | 2013-05-21 | 2015-12-01 | Georges Antoine NASRAOUI | Selection and display of map data and location attribute data by touch input |
USD736786S1 (en) * | 2013-05-24 | 2015-08-18 | Google Inc. | Display panel or portion thereof with a changeable graphical user interface component |
US10372294B2 (en) * | 2013-05-29 | 2019-08-06 | Sony Corporation | Information processing apparatus and update information notification method |
CN103279352A (zh) * | 2013-05-31 | 2013-09-04 | 北京小米科技有限责任公司 | 多级进度条、进度控制的方法和装置 |
US10141930B2 (en) | 2013-06-04 | 2018-11-27 | Nvidia Corporation | Three state latch |
US10481769B2 (en) * | 2013-06-09 | 2019-11-19 | Apple Inc. | Device, method, and graphical user interface for providing navigation and search functionalities |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
CN104252302A (zh) * | 2013-06-26 | 2014-12-31 | 富泰华工业(深圳)有限公司 | 图像自适应调整系统及方法 |
US9645721B2 (en) * | 2013-07-19 | 2017-05-09 | Apple Inc. | Device input modes with corresponding cover configurations |
EP2830039B1 (de) * | 2013-07-24 | 2018-10-03 | Native Instruments GmbH | Verfahren, Anordnung, Computerprogramm und computerlesbare Speichermedien zur Steuerung mindestens eines Parameters oder mindestens eines Objekts mit Eingabeelementen für Kapazitätsmessung |
US10809893B2 (en) * | 2013-08-09 | 2020-10-20 | Insyde Software Corp. | System and method for re-sizing and re-positioning application windows in a touch-based computing device |
US9881645B2 (en) * | 2013-08-20 | 2018-01-30 | Google Llc | Systems, methods, and media for editing video during playback via gestures |
JP6189680B2 (ja) * | 2013-08-23 | 2017-08-30 | シャープ株式会社 | インターフェイス装置、インターフェイス方法、インターフェイスプログラム、及び、そのプログラムを記憶したコンピュータ読取可能な記録媒体 |
KR20150025635A (ko) * | 2013-08-29 | 2015-03-11 | 삼성전자주식회사 | 스크린을 제어하는 전자 장치 및 방법 |
US9811238B2 (en) | 2013-08-29 | 2017-11-07 | Sharp Laboratories Of America, Inc. | Methods and systems for interacting with a digital marking surface |
US11068128B2 (en) | 2013-09-03 | 2021-07-20 | Apple Inc. | User interface object manipulations in a user interface |
KR20180128091A (ko) | 2013-09-03 | 2018-11-30 | 애플 인크. | 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스 |
US10545657B2 (en) * | 2013-09-03 | 2020-01-28 | Apple Inc. | User interface for manipulating user interface objects |
US9823728B2 (en) | 2013-09-04 | 2017-11-21 | Nvidia Corporation | Method and system for reduced rate touch scanning on an electronic device |
US20150061988A1 (en) * | 2013-09-05 | 2015-03-05 | Texas Instruments Incorporated | Adaptive Power Savings on a Device Display |
US9645651B2 (en) | 2013-09-24 | 2017-05-09 | Microsoft Technology Licensing, Llc | Presentation of a control interface on a touch-enabled device based on a motion or absence thereof |
DE202013008906U1 (de) * | 2013-10-07 | 2013-10-16 | Siemens Enterprise Communications Gmbh & Co. Kg | Tragbares Gerät |
US9881592B2 (en) | 2013-10-08 | 2018-01-30 | Nvidia Corporation | Hardware overlay assignment |
US9519420B2 (en) | 2013-10-16 | 2016-12-13 | Samsung Electronics Co., Ltd. | Apparatus and method for editing synchronous media |
US20150121314A1 (en) * | 2013-10-24 | 2015-04-30 | Jens Bombolowsky | Two-finger gestures |
WO2015062017A1 (zh) * | 2013-10-31 | 2015-05-07 | 华为技术有限公司 | 悬浮或隔空操作的处理方法及装置 |
US9531722B1 (en) | 2013-10-31 | 2016-12-27 | Google Inc. | Methods for generating an activity stream |
US9542457B1 (en) | 2013-11-07 | 2017-01-10 | Google Inc. | Methods for displaying object history information |
US9614880B1 (en) | 2013-11-12 | 2017-04-04 | Google Inc. | Methods for real-time notifications in an activity stream |
KR102189787B1 (ko) * | 2013-11-13 | 2020-12-11 | 삼성전자 주식회사 | 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법 |
KR101504237B1 (ko) * | 2013-11-15 | 2015-03-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR102206053B1 (ko) * | 2013-11-18 | 2021-01-21 | 삼성전자주식회사 | 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 |
TWI502474B (zh) * | 2013-11-28 | 2015-10-01 | Acer Inc | 使用者介面的操作方法與電子裝置 |
CN104714746B (zh) * | 2013-12-16 | 2018-06-01 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
US9507470B2 (en) | 2013-12-16 | 2016-11-29 | Nvidia Corporation | Method and system for reduced power touch input detection on an electronic device using reduced scanning |
WO2015099239A1 (en) * | 2013-12-26 | 2015-07-02 | Lg Electronics Inc. | Mobile device for capturing images and control method thereof |
KR102138524B1 (ko) | 2013-12-26 | 2020-07-28 | 엘지전자 주식회사 | 이미지를 캡쳐하는 모바일 디바이스 및 그 제어 방법 |
US9635108B2 (en) | 2014-01-25 | 2017-04-25 | Q Technologies Inc. | Systems and methods for content sharing using uniquely generated idenifiers |
US9509772B1 (en) | 2014-02-13 | 2016-11-29 | Google Inc. | Visualization and control of ongoing ingress actions |
CN104866214B (zh) * | 2014-02-21 | 2019-10-29 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
TWI594180B (zh) * | 2014-02-27 | 2017-08-01 | 萬國商業機器公司 | 在圖形使用者介面上利用動作輸入分割/合併檔案的方法與電腦系統 |
CN103902337A (zh) * | 2014-03-14 | 2014-07-02 | 北京金山网络科技有限公司 | 一种数据下载的方法和装置 |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
WO2015141260A1 (ja) * | 2014-03-17 | 2015-09-24 | 株式会社河合楽器製作所 | 手書き音楽記号認識装置およびプログラム |
JP5835384B2 (ja) | 2014-03-18 | 2015-12-24 | 株式会社リコー | 情報処理方法、情報処理装置、およびプログラム |
JP5835383B2 (ja) | 2014-03-18 | 2015-12-24 | 株式会社リコー | 情報処理方法、情報処理装置、およびプログラム |
KR102298602B1 (ko) | 2014-04-04 | 2021-09-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 확장가능한 애플리케이션 표시 |
EP3129847A4 (de) | 2014-04-10 | 2017-04-19 | Microsoft Technology Licensing, LLC | Schiebeabdeckung für computervorrichtung |
EP3129846A4 (de) | 2014-04-10 | 2017-05-03 | Microsoft Technology Licensing, LLC | Gehäuse mit zusammenklappbarer hülle für eine rechnervorrichtung |
USD774540S1 (en) * | 2014-05-08 | 2016-12-20 | Express Scripts, Inc. | Display screen with a graphical user interface |
USD752085S1 (en) * | 2014-05-08 | 2016-03-22 | Express Scripts, Inc. | Display screen with a graphical user interface |
USD773518S1 (en) * | 2014-05-08 | 2016-12-06 | Express Scripts, Inc. | Display screen with a graphical user interface |
US9396354B1 (en) | 2014-05-28 | 2016-07-19 | Snapchat, Inc. | Apparatus and method for automated privacy protection in distributed images |
US9537811B2 (en) | 2014-10-02 | 2017-01-03 | Snap Inc. | Ephemeral gallery of ephemeral messages |
CN106575200A (zh) * | 2014-05-28 | 2017-04-19 | 汤姆逊许可公司 | 用于触摸输入的方法和系统 |
US11256294B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Continuity of applications across devices |
US20150346918A1 (en) * | 2014-06-02 | 2015-12-03 | Gabriele Bodda | Predicting the Severity of an Active Support Ticket |
US9536199B1 (en) | 2014-06-09 | 2017-01-03 | Google Inc. | Recommendations based on device usage |
US9870083B2 (en) | 2014-06-12 | 2018-01-16 | Microsoft Technology Licensing, Llc | Multi-device multi-user sensor correlation for pen and computing device interaction |
US9507791B2 (en) | 2014-06-12 | 2016-11-29 | Google Inc. | Storage system user interface with floating file collection |
US9727161B2 (en) | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
US10078781B2 (en) | 2014-06-13 | 2018-09-18 | Google Llc | Automatically organizing images |
US9113301B1 (en) | 2014-06-13 | 2015-08-18 | Snapchat, Inc. | Geo-location based event gallery |
AU2015279545B2 (en) | 2014-06-27 | 2018-02-22 | Apple Inc. | Manipulation of calendar application in device with touch screen |
US10133447B2 (en) | 2014-06-27 | 2018-11-20 | Microsoft Technology Licensing, Llc | Merged experience of reading and editing with seamless transition |
USD758406S1 (en) * | 2014-07-02 | 2016-06-07 | Aliphcom | Display screen or portion thereof with graphical user interface |
DE102014010302A1 (de) * | 2014-07-11 | 2016-01-14 | Leopold Kostal Gmbh & Co. Kg | Mehrfunktionales Bediensystem für ein Kraftfahrzeug |
WO2016018062A1 (en) | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Method and device for providing content |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US9594489B2 (en) | 2014-08-12 | 2017-03-14 | Microsoft Technology Licensing, Llc | Hover-based interaction with rendered content |
TWI613582B (zh) | 2014-09-02 | 2018-02-01 | 蘋果公司 | 用於重新組態使用者介面物件之方法、觸敏式電子器件及非暫時性電腦可讀儲存媒體 |
WO2016036509A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic mail user interface |
WO2016036414A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Button functionality |
WO2016036541A2 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Phone user interface |
US10073590B2 (en) | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
CN106797493A (zh) | 2014-09-02 | 2017-05-31 | 苹果公司 | 音乐用户界面 |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
US10824654B2 (en) | 2014-09-18 | 2020-11-03 | Snap Inc. | Geolocation-based pictographs |
US10448111B2 (en) | 2014-09-24 | 2019-10-15 | Microsoft Technology Licensing, Llc | Content projection |
US20160088060A1 (en) * | 2014-09-24 | 2016-03-24 | Microsoft Technology Licensing, Llc | Gesture navigation for secondary user interface |
US9769227B2 (en) | 2014-09-24 | 2017-09-19 | Microsoft Technology Licensing, Llc | Presentation of computing environment on multiple devices |
US10635296B2 (en) | 2014-09-24 | 2020-04-28 | Microsoft Technology Licensing, Llc | Partitioned application presentation across devices |
US10025684B2 (en) | 2014-09-24 | 2018-07-17 | Microsoft Technology Licensing, Llc | Lending target device resources to host device computing environment |
CN108376030B (zh) * | 2014-09-29 | 2021-05-18 | 联想(北京)有限公司 | 一种电子设备的控制方法、装置和电子设备 |
US10284508B1 (en) | 2014-10-02 | 2019-05-07 | Snap Inc. | Ephemeral gallery of ephemeral messages with opt-in permanence |
US10643484B2 (en) * | 2014-10-16 | 2020-05-05 | Hallmark Cards, Incorporated | Capacitive gesture recognition book |
KR102298972B1 (ko) * | 2014-10-21 | 2021-09-07 | 삼성전자 주식회사 | 전자 장치의 엣지에서 수행되는 제스처를 기반으로 하는 동작 수행 |
CN106662891B (zh) | 2014-10-30 | 2019-10-11 | 微软技术许可有限责任公司 | 多配置输入设备 |
KR102213897B1 (ko) | 2014-10-31 | 2021-02-08 | 삼성전자주식회사 | 사용자 입력에 따라 하나 이상의 아이템들을 선택하는 방법 및 이를 위한 전자 장치 |
US10963126B2 (en) * | 2014-12-10 | 2021-03-30 | D2L Corporation | Method and system for element navigation |
DE102014225796A1 (de) * | 2014-12-15 | 2016-06-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Steuerung eines Fahrzeugsystems |
US10248287B2 (en) * | 2014-12-16 | 2019-04-02 | Successfactors, Inc. | Enable dependency on picker wheels for touch-enabled devices by interpreting a second finger touch gesture |
US9385983B1 (en) * | 2014-12-19 | 2016-07-05 | Snapchat, Inc. | Gallery of messages from individuals with a shared interest |
US10311916B2 (en) | 2014-12-19 | 2019-06-04 | Snap Inc. | Gallery of videos set to an audio time line |
US9612660B2 (en) * | 2014-12-29 | 2017-04-04 | Continental Automotive Systems, Inc. | Innovative knob with variable haptic feedback |
TWI544353B (zh) * | 2014-12-31 | 2016-08-01 | 鴻海精密工業股份有限公司 | 使用者介面的輸入控制系統及方法 |
EP3040836B1 (de) * | 2015-01-02 | 2020-11-04 | Volkswagen AG | Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur Reduzierung einer Lichtemission einer Anzeigeeinrichtung eines Fortbewegungsmittels |
US9870420B2 (en) | 2015-01-19 | 2018-01-16 | Google Llc | Classification and storage of documents |
US10133705B1 (en) | 2015-01-19 | 2018-11-20 | Snap Inc. | Multichannel system |
JP6265145B2 (ja) * | 2015-01-26 | 2018-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、表示装置 |
US10031638B2 (en) * | 2015-02-10 | 2018-07-24 | Etter Studio Ltd. | Multi-touch GUI featuring directional compression and expansion of graphical content |
US10365807B2 (en) | 2015-03-02 | 2019-07-30 | Apple Inc. | Control of system zoom magnification using a rotatable input mechanism |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
KR101650269B1 (ko) * | 2015-03-12 | 2016-08-22 | 라인 가부시키가이샤 | 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법 |
CN107637099B (zh) | 2015-03-18 | 2020-10-16 | 斯纳普公司 | 地理围栏认证提供 |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
EP3674857B1 (de) * | 2015-03-19 | 2022-04-20 | Huawei Technologies Co., Ltd. | Berührungsereignisverarbeitungsverfahren und -vorrichtung sowie endgerätevorrichtung |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US10135949B1 (en) | 2015-05-05 | 2018-11-20 | Snap Inc. | Systems and methods for story and sub-story navigation |
CN104902089A (zh) * | 2015-05-26 | 2015-09-09 | 北京金和网络股份有限公司 | 一种移动终端应用程序的排序方法 |
US10268366B2 (en) * | 2015-06-05 | 2019-04-23 | Apple Inc. | Touch-based interactive learning environment |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9674426B2 (en) * | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) * | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
JP6065939B2 (ja) * | 2015-06-11 | 2017-01-25 | カシオ計算機株式会社 | 表示装置、及び表示方法 |
US10372317B1 (en) * | 2015-06-12 | 2019-08-06 | Google Llc | Method for highly accurate selection of items on an axis with a quadrilateral control surface |
KR101741691B1 (ko) * | 2015-06-30 | 2017-05-30 | 현대자동차주식회사 | 차량 및 그 제어방법 |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
EP3130998A1 (de) * | 2015-08-11 | 2017-02-15 | Advanced Digital Broadcast S.A. | Verfahren und system zur steuerung einer berührungsschirm-benutzeroberfläche |
KR102399791B1 (ko) * | 2015-08-18 | 2022-05-20 | 삼성전자주식회사 | 콘텐츠 탐색 인터페이스 제공 방법 및 이를 지원하는 전자 장치 |
CN105117131B (zh) * | 2015-08-27 | 2019-02-05 | Oppo广东移动通信有限公司 | 一种进度条控制方法及装置 |
US9652069B1 (en) | 2015-10-22 | 2017-05-16 | Synaptics Incorporated | Press hard and move gesture |
CN108141633A (zh) * | 2015-10-26 | 2018-06-08 | 索尼公司 | 操作输入设备、信息处理设备、信息处理方法和程序 |
DE102015222164A1 (de) * | 2015-11-11 | 2017-05-11 | Kuka Roboter Gmbh | Verfahren und Computerprogramm zur Erzeugung einer grafischen Benutzerschnittstelle eines Manipulatorprogramms |
CN105573631A (zh) * | 2015-12-14 | 2016-05-11 | 联想(北京)有限公司 | 一种触控显示电子设备及其控制方法 |
CN105573648A (zh) * | 2015-12-15 | 2016-05-11 | 深圳市金立通信设备有限公司 | 一种控制多媒体播放的方法及终端 |
US10354425B2 (en) | 2015-12-18 | 2019-07-16 | Snap Inc. | Method and system for providing context relevant media augmentation |
US20170205795A1 (en) * | 2016-01-15 | 2017-07-20 | Yokogawa Electric Corporation | Method for process operators to personalize settings for enabling detection of abnormal process behaviors |
JP2017174071A (ja) * | 2016-03-23 | 2017-09-28 | 株式会社東海理化電機製作所 | 操作装置 |
US10528186B2 (en) | 2016-03-31 | 2020-01-07 | Rovi Guides, Inc. | Systems and methods for controlling playback of a media asset using a touch screen |
DK201670595A1 (en) | 2016-06-11 | 2018-01-22 | Apple Inc | Configuring context-specific user interfaces |
DK201670580A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Wrist-based tactile time feedback for non-sighted users |
DK201670622A1 (en) | 2016-06-12 | 2018-02-12 | Apple Inc | User interfaces for transactions |
DK179034B1 (en) | 2016-06-12 | 2017-09-04 | Apple Inc | Devices, methods, and graphical user interfaces for dynamically adjusting presentation of audio outputs |
CN106896997B (zh) * | 2016-06-28 | 2020-11-10 | 创新先进技术有限公司 | 滑动控件控制方法及装置、滑块选择器 |
KR102432019B1 (ko) | 2016-09-23 | 2022-08-12 | 애플 인크. | 워치 극장 모드 |
GB2554668B (en) * | 2016-09-30 | 2022-06-22 | Apical Ltd | Image manipulation |
WO2018068207A1 (zh) * | 2016-10-11 | 2018-04-19 | 华为技术有限公司 | 识别操作的方法、装置及移动终端 |
DE102016223176B4 (de) * | 2016-11-23 | 2022-01-20 | Volkswagen Aktiengesellschaft | Verfahren zum Erfassen einer Nutzereingabe für eine Eingabevorrichtung mit mehreren Schaltelementen und Eingabevorrichtung |
KR102471989B1 (ko) * | 2016-12-07 | 2022-11-29 | 주식회사 알티캐스트 | 클라우드 기반 유저 인터페이스 제공 시스템 및 그 방법 |
US10528251B2 (en) * | 2016-12-13 | 2020-01-07 | International Business Machines Corporation | Alternate video summarization |
CN106648372A (zh) * | 2016-12-29 | 2017-05-10 | 北京小米移动软件有限公司 | 图像管理方法及装置 |
KR20180098021A (ko) * | 2017-02-24 | 2018-09-03 | 삼성전자주식회사 | 전자장치 및 그 제어방법 |
JP6784320B2 (ja) * | 2017-03-03 | 2020-11-11 | ヤマハ株式会社 | 再生システム |
CN106997744B (zh) * | 2017-03-15 | 2020-06-05 | Oppo广东移动通信有限公司 | 屏幕亮度的控制方法及控制装置 |
US10582277B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
US10581782B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
KR102362850B1 (ko) * | 2017-04-14 | 2022-02-15 | 삼성전자주식회사 | 디스플레이장치, 디스플레이 시스템 및 디스플레이장치의 제어방법 |
US11431836B2 (en) | 2017-05-02 | 2022-08-30 | Apple Inc. | Methods and interfaces for initiating media playback |
US10992795B2 (en) | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
US10928980B2 (en) | 2017-05-12 | 2021-02-23 | Apple Inc. | User interfaces for playing and managing audio items |
US20220279063A1 (en) | 2017-05-16 | 2022-09-01 | Apple Inc. | Methods and interfaces for home media control |
CN111343060B (zh) | 2017-05-16 | 2022-02-11 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
US10430924B2 (en) * | 2017-06-30 | 2019-10-01 | Quirklogic, Inc. | Resizable, open editable thumbnails in a computing device |
CN107621920B (zh) * | 2017-09-05 | 2020-06-12 | 咪咕音乐有限公司 | 一种调整歌词定位符位置的方法、装置及存储介质 |
US10264297B1 (en) | 2017-09-13 | 2019-04-16 | Perfect Sense, Inc. | Time-based content synchronization |
US20190087060A1 (en) * | 2017-09-19 | 2019-03-21 | Sling Media Inc. | Dynamic adjustment of media thumbnail image size based on touchscreen pressure |
USD829759S1 (en) * | 2017-10-03 | 2018-10-02 | Google Llc | Display screen with graphical user interface |
CN110069147B (zh) * | 2018-01-23 | 2023-02-03 | 可赛尔内存股份有限公司 | 操控装置及其控制方法 |
USD875761S1 (en) | 2018-05-12 | 2020-02-18 | Canva Pty Ltd. | Display screen or portion thereof with a graphical user interface |
USD875759S1 (en) * | 2018-05-12 | 2020-02-18 | Canva Pty Ltd. | Display screen or portion thereof with a graphical user interface |
USD875775S1 (en) | 2018-05-12 | 2020-02-18 | Canva Pty Ltd. | Display screen or portion thereof with an animated graphical user interface |
US11435830B2 (en) | 2018-09-11 | 2022-09-06 | Apple Inc. | Content-based tactile outputs |
US10712824B2 (en) | 2018-09-11 | 2020-07-14 | Apple Inc. | Content-based tactile outputs |
CN109254707A (zh) | 2018-09-14 | 2019-01-22 | Oppo广东移动通信有限公司 | 一种窗口调节的方法、移动终端及计算机可读存储介质 |
JP6770040B2 (ja) * | 2018-10-23 | 2020-10-14 | ファナック株式会社 | タッチパネル装置、タッチパネル装置の制御方法、プログラムおよびプログラムを記憶する記憶媒体 |
CN111415398B (zh) * | 2019-01-08 | 2024-01-05 | 杭州海康威视数字技术股份有限公司 | 一种在显示屏上显示批注的方法及装置 |
DK180359B1 (en) | 2019-04-15 | 2021-02-03 | Apple Inc | Accelerated scrolling and selection |
DK201970535A1 (en) | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
US10867608B1 (en) | 2019-05-31 | 2020-12-15 | Apple Inc. | Multi-user configuration |
CN113748408A (zh) | 2019-05-31 | 2021-12-03 | 苹果公司 | 用于音频媒体控件的用户界面 |
US10904029B2 (en) | 2019-05-31 | 2021-01-26 | Apple Inc. | User interfaces for managing controllable external devices |
US11010121B2 (en) | 2019-05-31 | 2021-05-18 | Apple Inc. | User interfaces for audio media control |
DK201970533A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Methods and user interfaces for sharing audio |
US10996761B2 (en) | 2019-06-01 | 2021-05-04 | Apple Inc. | User interfaces for non-visual output of time |
US11157156B2 (en) * | 2019-06-03 | 2021-10-26 | International Business Machines Corporation | Speed-based content rendering |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US10991163B2 (en) * | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
CN110688028B (zh) * | 2019-09-26 | 2023-09-01 | 京东方科技集团股份有限公司 | 显示屏的触控系统、方法、电子设备和存储介质 |
DK202070613A1 (en) | 2020-02-14 | 2021-10-15 | Apple Inc | User interfaces for workout content |
CN111225266B (zh) * | 2020-02-25 | 2022-03-15 | 上海哔哩哔哩科技有限公司 | 用户界面交互方法和系统 |
US11907463B2 (en) * | 2020-05-08 | 2024-02-20 | Accenture Global Solutions Limited | Pressure-sensitive machine interface device |
US11513667B2 (en) | 2020-05-11 | 2022-11-29 | Apple Inc. | User interface for audio message |
US11287964B2 (en) * | 2020-06-17 | 2022-03-29 | Rovi Guides, Inc. | Systems and methods for navigating content |
CN111870946B (zh) * | 2020-08-07 | 2024-01-30 | 网易(杭州)网络有限公司 | 信息处理方法、装置、设备及计算机可读存储介质 |
US11392291B2 (en) | 2020-09-25 | 2022-07-19 | Apple Inc. | Methods and interfaces for media control with dynamic feedback |
US11599146B2 (en) | 2020-10-05 | 2023-03-07 | Onanoff Limited Company (Ltd.) | System, method, and apparatus for downloading content directly into a wearable device |
US11727614B2 (en) * | 2021-02-23 | 2023-08-15 | Adobe Inc. | Web-based digital image editing in real time utilizing a latent vector stream renderer and an image modification neural network |
US11526235B1 (en) * | 2021-05-18 | 2022-12-13 | Microsoft Technology Licensing, Llc | Artificial intelligence model for enhancing a touch driver operation |
US11847378B2 (en) | 2021-06-06 | 2023-12-19 | Apple Inc. | User interfaces for audio routing |
US11893212B2 (en) | 2021-06-06 | 2024-02-06 | Apple Inc. | User interfaces for managing application widgets |
US11837206B2 (en) | 2021-07-27 | 2023-12-05 | Avid Technology, Inc. | Multidimensional gestures for music creation applications |
USD999778S1 (en) * | 2021-08-12 | 2023-09-26 | Hewlett Packard Enterprise Development Lp | Display with graphical user interface for surfacing action items |
WO2023121728A2 (en) * | 2021-09-15 | 2023-06-29 | Carnegie Mellon University | Multidirectional gesturing for on-display item identification and/or further action control |
WO2023108475A1 (en) | 2021-12-15 | 2023-06-22 | Citrix Systems, Inc. | Application hotspot on endpoint device |
CN114419289B (zh) * | 2021-12-29 | 2022-12-09 | 广州市玄武无线科技股份有限公司 | 一种基于Unity的虚拟场景货架陈列方法及系统 |
CN114356102A (zh) * | 2022-01-30 | 2022-04-15 | 清华大学 | 基于指纹图像的三维物体绝对姿态控制方法及装置 |
US20240053884A1 (en) * | 2022-08-12 | 2024-02-15 | GE Precision Healthcare LLC | Systems and methods for a touchscreen interface with spin wheel widget |
WO2024064239A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Use of a jog wheel |
US11914800B1 (en) | 2022-10-28 | 2024-02-27 | Dell Products L.P. | Information handling system stylus with expansion bay and replaceable module |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5590219A (en) | 1993-09-30 | 1996-12-31 | Apple Computer, Inc. | Method and apparatus for recognizing gestures on a computer system |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US20030076301A1 (en) | 2001-10-22 | 2003-04-24 | Apple Computer, Inc. | Method and apparatus for accelerated scrolling |
US20030076303A1 (en) | 2001-10-22 | 2003-04-24 | Apple Computers, Inc. | Mouse having a rotary dial |
US20030095096A1 (en) | 2001-10-22 | 2003-05-22 | Apple Computer, Inc. | Method and apparatus for use of rotational user inputs |
US20060007991A1 (en) | 2004-07-01 | 2006-01-12 | Broadcom Corporation | Channel fault detection for channel diagnostic Systems |
US20060026535A1 (en) | 2004-07-30 | 2006-02-02 | Apple Computer Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
US20060097991A1 (en) | 2004-05-06 | 2006-05-11 | Apple Computer, Inc. | Multipoint touchscreen |
US20060238522A1 (en) | 1998-01-26 | 2006-10-26 | Fingerworks, Inc. | Identifying contacts on a touch surface |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5252951A (en) | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
EP0526064B1 (de) * | 1991-08-02 | 1997-09-10 | The Grass Valley Group, Inc. | Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial |
US6061062A (en) | 1991-12-20 | 2000-05-09 | Apple Computer, Inc. | Zooming controller |
US5488204A (en) | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
US5880411A (en) | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5623588A (en) | 1992-12-14 | 1997-04-22 | New York University | Computer user interface with non-salience deemphasis |
DE69432199T2 (de) | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
US5760767A (en) * | 1995-10-26 | 1998-06-02 | Sony Corporation | Method and apparatus for displaying in and out points during video editing |
US5825352A (en) * | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
US5969716A (en) * | 1996-08-06 | 1999-10-19 | Interval Research Corporation | Time-based media processing system |
SE515663C2 (sv) | 1996-08-23 | 2001-09-17 | Ericsson Telefon Ab L M | Pekskärm och användning av pekskärm |
US5900875A (en) | 1997-01-29 | 1999-05-04 | 3Com Corporation | Method and apparatus for interacting with a portable computer system |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US7760187B2 (en) * | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
US6188391B1 (en) | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
US6486896B1 (en) * | 1999-04-07 | 2002-11-26 | Apple Computer, Inc. | Scalable scroll controller |
US7138983B2 (en) | 2000-01-31 | 2006-11-21 | Canon Kabushiki Kaisha | Method and apparatus for detecting and interpreting path of designated position |
JP4660879B2 (ja) * | 2000-04-27 | 2011-03-30 | ソニー株式会社 | 情報提供装置および方法、並びにプログラム |
US6714221B1 (en) | 2000-08-03 | 2004-03-30 | Apple Computer, Inc. | Depicting and setting scroll amount |
WO2002019081A2 (en) | 2000-08-31 | 2002-03-07 | Zframe, Inc. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US20030067447A1 (en) * | 2001-07-09 | 2003-04-10 | Geaghan Bernard O. | Touch screen with selective touch sources |
US20050134578A1 (en) | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
GB0204652D0 (en) | 2002-02-28 | 2002-04-10 | Koninkl Philips Electronics Nv | A method of providing a display gor a gui |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
KR101146750B1 (ko) * | 2004-06-17 | 2012-05-17 | 아드레아 엘엘씨 | 터치 스크린 상에서 2개-손가락에 의한 입력을 탐지하는 시스템 및 방법과, 터치 스크린 상에서 적어도 2개의 손가락을 통한 3-차원 터치를 센싱하는 시스템 및 방법 |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
CN103365595B (zh) | 2004-07-30 | 2017-03-01 | 苹果公司 | 用于触敏输入设备的手势 |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
KR100732166B1 (ko) * | 2005-09-02 | 2007-06-27 | 엘지전자 주식회사 | 컨텐츠 검색 기능을 갖는 이동통신단말기 및 이를 이용한방법 |
AU2006332488A1 (en) | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
US20090100383A1 (en) * | 2007-10-16 | 2009-04-16 | Microsoft Corporation | Predictive gesturing in graphical user interface |
-
2007
- 2007-06-13 US US11/818,342 patent/US7956847B2/en active Active
- 2007-08-28 AU AU2007100826A patent/AU2007100826C4/en not_active Expired
- 2007-08-31 TW TW096214683U patent/TWM341271U/zh not_active IP Right Cessation
- 2007-10-05 EP EP07019528A patent/EP1942401A1/de not_active Withdrawn
- 2007-10-05 DE DE202007018368U patent/DE202007018368U1/de not_active Expired - Lifetime
- 2007-10-05 EP EP10161504.5A patent/EP2207086B1/de active Active
- 2007-10-31 AU AU2007101053A patent/AU2007101053C4/en not_active Expired
- 2007-11-02 HK HK07111909A patent/HK1105768A2/xx unknown
- 2007-11-15 TW TW096219314U patent/TWM347623U/zh not_active IP Right Cessation
- 2007-12-28 AU AU2007341930A patent/AU2007341930B2/en active Active
- 2007-12-28 CN CN201310719094.3A patent/CN103631496B/zh active Active
- 2007-12-28 WO PCT/US2007/089162 patent/WO2008083360A1/en active Application Filing
-
2008
- 2008-01-02 HK HK08100005A patent/HK1108275A2/xx not_active IP Right Cessation
-
2011
- 2011-06-07 US US13/155,310 patent/US8686962B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US5590219A (en) | 1993-09-30 | 1996-12-31 | Apple Computer, Inc. | Method and apparatus for recognizing gestures on a computer system |
US20060238522A1 (en) | 1998-01-26 | 2006-10-26 | Fingerworks, Inc. | Identifying contacts on a touch surface |
US20030076301A1 (en) | 2001-10-22 | 2003-04-24 | Apple Computer, Inc. | Method and apparatus for accelerated scrolling |
US20030076303A1 (en) | 2001-10-22 | 2003-04-24 | Apple Computers, Inc. | Mouse having a rotary dial |
US20030095096A1 (en) | 2001-10-22 | 2003-05-22 | Apple Computer, Inc. | Method and apparatus for use of rotational user inputs |
US20060097991A1 (en) | 2004-05-06 | 2006-05-11 | Apple Computer, Inc. | Multipoint touchscreen |
US20060007991A1 (en) | 2004-07-01 | 2006-01-12 | Broadcom Corporation | Channel fault detection for channel diagnostic Systems |
US20060026535A1 (en) | 2004-07-30 | 2006-02-02 | Apple Computer Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
US20060026521A1 (en) | 2004-07-30 | 2006-02-02 | Apple Computer, Inc. | Gestures for touch sensitive input devices |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010025354A1 (de) * | 2010-06-28 | 2011-12-29 | Audi Ag | Fahrerassistenzsystem für ein Kraftfahrzeug |
DE102010025354B4 (de) * | 2010-06-28 | 2013-01-03 | Audi Ag | Fahrerassistenzsystem für ein Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
AU2007341930B2 (en) | 2011-08-25 |
AU2007100826B4 (en) | 2010-05-13 |
CN103631496B (zh) | 2017-03-01 |
EP2207086B1 (de) | 2015-03-18 |
AU2007100826C4 (en) | 2013-11-07 |
HK1105768A2 (en) | 2008-02-22 |
EP1942401A1 (de) | 2008-07-09 |
AU2007100826A4 (en) | 2007-09-27 |
US20080165141A1 (en) | 2008-07-10 |
US8686962B2 (en) | 2014-04-01 |
AU2007101053C4 (en) | 2012-02-02 |
TWM347623U (en) | 2008-12-21 |
US20110239155A1 (en) | 2011-09-29 |
CN103631496A (zh) | 2014-03-12 |
WO2008083360A1 (en) | 2008-07-10 |
TWM341271U (en) | 2008-09-21 |
US7956847B2 (en) | 2011-06-07 |
EP2207086A3 (de) | 2010-10-20 |
HK1108275A2 (en) | 2008-05-02 |
AU2007101053B4 (en) | 2010-05-13 |
AU2007341930A1 (en) | 2008-07-10 |
EP2207086A2 (de) | 2010-07-14 |
AU2007101053A4 (en) | 2007-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202007018368U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
DE202007014957U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
AU2020239727B2 (en) | Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications | |
DE112016000085B4 (de) | Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt | |
DE202005021427U1 (de) | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung | |
CN201266371Y (zh) | 手持移动通信装置 | |
DE202016001483U1 (de) | Geräte zur Steuerung einer Medienpräsentation | |
DE112010003602T5 (de) | System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät | |
DE112013002381T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts | |
DE202007018762U1 (de) | Medienspieler mit bildbasiertem Browsen | |
DE112013002409T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt | |
DE112007000278T5 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE202008007847U1 (de) | Geschwindigkeits-/Positionsmodus-Translation | |
CN114766015A (zh) | 用于与对应于应用程序的用户界面对象进行交互的设备、方法和图形用户界面 | |
AU2011253700B2 (en) | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices | |
DE202014004477U1 (de) | Vorrichtung und grafische Benutzerschnittstelle zum Verwalten von Ordnern mit mehreren Seiten | |
DE202016003250U1 (de) | Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20080724 |
|
R150 | Utility model maintained after payment of first maintenance fee after three years |
Effective date: 20101103 |
|
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R151 | Utility model maintained after payment of second maintenance fee after six years |
Effective date: 20131015 |
|
R152 | Utility model maintained after payment of third maintenance fee after eight years | ||
R071 | Expiry of right |