DE112007000122T5 - Tastaturen für tragbare elektronische Vorrichtungen - Google Patents

Tastaturen für tragbare elektronische Vorrichtungen Download PDF

Info

Publication number
DE112007000122T5
DE112007000122T5 DE112007000122T DE112007000122T DE112007000122T5 DE 112007000122 T5 DE112007000122 T5 DE 112007000122T5 DE 112007000122 T DE112007000122 T DE 112007000122T DE 112007000122 T DE112007000122 T DE 112007000122T DE 112007000122 T5 DE112007000122 T5 DE 112007000122T5
Authority
DE
Germany
Prior art keywords
contact
icons
user
icon
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112007000122T
Other languages
English (en)
Inventor
Kenneth Sunnyvale Kocienda
Scott M. Santa Clara Herz
Richard Los Gatos Williamson
Gregory Santa Clara Novick
Virgil S. Mountain View King
Chris San Francisco Blumenberg
Marcel San Francisco Van Os
Bas San Francisco Ording
Scott Mountain View Forstall
Imran San Francisco Chaudhri
Greg San Jose Christie
Stephen O. San Francisco Lemay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112007000122T5 publication Critical patent/DE112007000122T5/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0238Programmable keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

Verfahren, umfassend:
Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu einem oder mehreren Symbolen korrespondiert;
Detektieren eines Kontakts durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu denn entsprechenden Icon korrespondiert;
Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbolen, zu denen der Kontakt weiterhin korrespondiert; und
Modifizieren des angezeigten entsprechenden Icons um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.

Description

  • VERWANDTE ANMELDUNGEN
  • Die Anmeldung beansprucht die Priorität der vorläufigen U.S. Patentanmeldung Nr. 60/756,890, eingereicht am 5. Januar 2006, mit dem Titel "Keyboards for Portable Electronic Devices", wobei diese Anmeldung per Verweis in ihrer Gesamtheit hierin aufgenommen wird.
  • TECHNISCHES GEBIET
  • Die offenbarten Ausführungsformen beziehen sich auf Benutzerschnittstellen und insbesondere auf Benutzerschnittstellen, die eine Berührungsbildschirmtastatur aufweisen.
  • HINTERGRUND
  • Nachdem tragbare Vorrichtungen immer kompakter werden und sich die zu verarbeitende und zu speichernde Informationsmenge erhöht, ist es zu einer signifikanten Herausforderung geworden, eine Benutzerschnittstelle zu entwerfen, die es Benutzern ermöglicht, auf einfache Weise mit der Vorrichtung zu interagieren. Dies ist bedauerlich, da die Benutzerschnittstelle derjenige Zugang ist, durch den Benutzer nicht nur Inhalte empfangen, sondern auch Reaktionen auf Benutzeraktionen oder -verhalten einschließlich von Versuchen des Benutzers auf Merkmale oder Werkzeuge einer Vorrichtung zu zugreifen. Bei einigen tragbaren elektronischen Vorrichtungen (z. B. Mobiltelefone) hat man darin Zuflucht gesucht, weitere Drucktasten hinzuzufügen, die Funktionen der Drucktasten zu überladen oder komplexe Menüsysteme zu verwenden, um einem Benutzer Zugang zu und das Abspeichern und Manipulieren von Daten zu ermöglichen. Diese konventionellen Benutzerschnittstellen laufen oft auf komplizierte Tastenfolgen und Menühierarchien hinaus, die sich der Benutzer merken muss. Zusätzlich verringert sich mit der ansteigenden Anzahl von Drucktasten der Abstand benachbarter Tasten, so dass es für Benutzer schwer wird, eine gewünschte Drucktaste zu betätigen.
  • Viele konventionelle Benutzerschnittstellen, wie diejenigen, die physikalische Drucktasten verwenden, sind außerdem auch unflexibel. Dies ist bedauerlich, da damit verhindert wird, dass eine Benutzerschnittstelle entweder durch eine auf der tragbaren Vorrichtung ablaufende Applikation oder durch Benutzer konfiguriert und/oder angepasst werden kann. Eine solche Inflexibilität ist für die meisten Benutzer frustrierend, wenn sie mit der zeitaufwändigen Anforderung des Erinnerns mehrerer Tastenfolgen und Menühierarchien sowie der Schwierigkeit, eine gewünschte Drucktaste zu betätigen, gekoppelt ist.
  • Entsprechend besteht ein Bedarf für transparentere und intuitivere Benutzerschnittstellen für tragbare elektronische Vorrichtungen, die leicht zu verwenden, zu konfigurieren und/oder anzupassen sind.
  • ZUSAMMENFASSUNG DER AUSFÜHRUNGFORMEN
  • Die oben genannten Nachteile und anderen mit Benutzerschnittstellen für tragbare elektronische Vorrichtungen assoziierten Probleme werden durch die offenbarten Berührungsbildschirmtastaturen und Verfahren zu ihrer Anwendung reduziert oder beseitigt.
  • In einigen Ausführungsformen umfasst ein Verfahren das Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung. Ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons korrespondiert zu zwei oder mehreren Symbolen. Es wird ein Kontakt durch den Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu dem entsprechenden Icon korrespondiert. Ein entsprechendes Symbol aus der Menge der zwei oder mehreren Symbole, mit dem der Kontakt weiterhin korrespondiert, wird bestimmt. Das entsprechende angezeigte Icon wird modifiziert, um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  • Das entsprechende Symbol kann ausgewählt werden, wenn der Benutzerden Kontakt mit dem entsprechenden Icon unterbricht. Das entsprechende Symbol kann vergrößert dargestellt werden, wenn der Kontakt für ein Zeitintervall aufrecht erhalten wird, das einen vorbestimmten Wert überschreitet.
  • Die Modifikation kann eine Veränderung der Form des entsprechenden Icons umfassen. Die Veränderung der Form kann eine asymmetrische Verformung umfassen. Eine Ausgangsform des entsprechenden Icons kann einen Bogen aufweisen.
  • Das Detektieren kann ein Detektieren einer Rollbewegung eines Fingers über einen zu dem entsprechenden Symbol korrespondierenden Bereich umfassen. Der Kontakt kann eine Geste umfassen, die aus der Gruppe ausgewählt ist, die aus ein oder mehrfachem Tippen, einer Ziehbewegung und einer Rollbewegung eines Fingers besteht.
  • Die zwei oder mehreren Symbole für das entsprechende Icon können gemäß einem Lexikographiemodel bestimmt werden. Das Lexikographiemodel kann zu einer Verwendungsvorgeschichte für einen Benutzer korrespondieren. Die Verwendungsvorgeschichte für den Benutzer kann vor dem Herstellen des Kontakts auftreten. Das Lexikographiemodel kann zu einer Verwendungsfrequenz für Symbole in einer Sprache korrespondieren.
  • In einigen Ausführungsformen wird das entsprechende Symbol in einem Bereich innerhalb der Form des entsprechenden Icons und außerhalb eines zu dem Kontakt korrespondierenden Bereichs angezeigt.
  • In einigen Ausführungsformen ist eine zu dem entsprechenden Symbol korrespondierende visuelle Anzeige bereitgestellt. Die visuelle Anzeige kann eine visuelle Beleuchtung in der Umgebung des entsprechenden Icons umfassen. Die visuelle Beleuchtung kann ein Band um wenigstens einen Teil des entsprechenden Icons beinhalten. Die visuelle Anzeige kann in Übereinstimmung mit einer Verwendungsvorgeschichte eines Benutzers erfolgen, die vor dem Detektieren des Kontakts auftritt.
  • In einigen Ausführungsformen umfasst ein Verfahren das Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung. Zwei oder mehre Teilmengen der Mehrzahl von Icons sind in korrespondierenden Reihen auf der berührungsempfindlichen Anzeigevorrichtung angeordnet. Zwischen benachbarten Zeilen ist ein Zwischenraum eingefügt, der größer ist als ein vorbestimmter Wert. Es wird ein Kontakt durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu einem entsprechenden Icon korrespondiert. Während der Kontakt aufrechterhalten wird, wird ein zu dem entsprechenden Icon korrespondierendes Symbol im Zwischenraum zwischen einer zu dem entsprechenden Icon korrespondierenden entsprechenden Zeile und einer benachbarten Zeile angezeigt.
  • Das Symbol kann das entsprechende Icon sein. Das Symbol kann in Bezug auf das entsprechende Icon vergrößert sein. Die benachbarte Zeile kann überhalb der entsprechenden Zeile liegen.
  • In einer anderen Ausführungsform wird eine Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung angezeigt. Es wird ein Kontakt durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu dem entsprechenden Icon korrespondiert. Ein zu dem entsprechenden Icon korrespondierendes Symbol wird ein oder mehrere weitere Icons aus der Mehrzahl von Icons überlagernd angezeigt, während der Kontakt aufrechterhalten wird.
  • In einer anderen Ausführungsform wird eine Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung angezeigt. Zwei oder mehr Teilmengen der Mehrzahl von Icons sind in korrespondierenden Zeilen angeordnet. Es wird ein Kontakt durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung bestimmt, der zu dem entsprechenden Icon korrespondiert. Während der Kontakt aufrechterhalten wird, wird die angezeigte Mehrzahl der Icons modifiziert, um einen Zwischenraum zwischen einer zu dem entsprechenden Icon korrespondierenden Zeile und einer benachbarten Zeile einzufügen, der größer als ein vorbestimmter Wert ist. Während der Kontakt aufrechterhalten wird, wird ein mit dem entsprechenden Icon korrespondierendes Symbol in dem Zwischenraum angezeigt,
  • In einigen Ausführungsformen umfasst ein Verfahren das Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung. Ein entsprechendes Icon aus der Mehrzahl von Icons korrespondiert zu wenigstens einem Symbol. Ein oder mehrere vorgeschlagene Worte werden angezeigt. Das eine oder die mehreren vorgeschlagenen Worte stehen im Einklang mit einer Verwendungsvorgeschichte. Das eine oder die mehreren vorgeschlagenen Worte werden angezeigt, bevor in einer aktuellen Applikationssitzung irgendwelche Kontakte durch einen Benutzer, die zu einer Zeichenauswahl korrespondieren, detektiert werden. Es wird ein Kontakt durch den Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert. Der Kontakt umfasst eine Geste. Ein entsprechendes mit der Geste korrespondierendes Wort wird ausgewählt.
  • Die Geste kann eine Ziehbewegung umfassen. Die Ziehbewegung kann eine horizontale Komponente mit einer Verschiebung von links nach rechts oder von rechts nach links entlang der berührungsempfindlichen Anzeigevorrichtung aufweisen. Die Ziehbewegung kann eine vertikale Komponente mit einer Abwärts- oder Aufwärtsverschiebung entlang der berührungsempfindlichen Anzeigevorrichtung aufweisen.
  • Die Geste kann ein ein- oder mehrfaches Tippen umfassen. Ein entsprechendes Tippen kann die Herstellung eines Kontakts mit der berührungsempfindlichen Anzeigevorrichtung für ein Zeitintervall umfassen, das kürzer ist als ein vorbestimmter Wert.
  • Die Geste kann eine Rollbewegung des Kontakts umfassen. Die Rollbewegung kann von links nach rechts oder von rechts nach links entlang der berührungsempfindlichen Anzeigevorrichtung erfolgen.
  • In einigen Ausführungsformen umfasst ein Verfahren das Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung. Ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons korrespondiert zu zwei oder mehreren Symbolen. Es wird ein Kontakt durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu einer Auswahl des entsprechenden Icons korrespondiert, wobei der Kontakt eine entsprechende Geste umfasst. Es wird ein entsprechendes Symbol aus der Menge der zwei oder mehreren Symbole für das entsprechende Icon bestimmt, zu dem der Kontakt weiterhin korrespondiert. Das entsprechende Symbol ist ein erstes Symbol aus der Menge der zwei oder mehreren Symbole, wenn die entsprechende Geste einen kontinuierlichen Kontakt umfasst und das entsprechende Symbol ist ein zweites Symbol aus der Menge der zwei oder mehreren Symbole, wenn die entsprechende Geste einen diskontinuierlichen Kontakt umfasst.
  • Der kontinuierliche Kontakt kann eine Ziehbewegung umfassen. Die Ziehbewegung kann eine horizontale Komponente mit einer Verschiebung von links nach rechts oder von rechts nach links entlang der berührungsempfindlichen Anzeige vorrichtung aufweisen. Die Ziehbewegung kann eine vertikale Komponente mit einer Abwärts- oder Aufwärtsverschiebung entlang der berührungsempfindlichen Anzeigevorrichtung aufweisen. Der kontinuierliche Kontakt kann eine Rollbewegung des Kontakts umfassen. Die Rollbewegung kann von links nach rechts oder von rechts nach links entlang der berührungsempfindlichen Anzeigevorrichtung erfolgen.
  • Der diskontinuierliche Kontakt kann ein einfaches oder mehrfaches Tippen umfassen. Ein entsprechendes Tippen kann einen Kontakt mit der berührungsempfindlichen Anzeigevorrichtung für ein Zeitintervall umfassen, das kürzer ist als ein erster vorbestimmter Wert. Ein zwei- oder mehrfaches aufeinanderfolgendes Tippen kann zu dem zweiten Symbol korrespondieren, wenn ein Zeitintervall zwischen zwei oder mehreren korrespondierenden Kontakten kürzer ist als ein zweiter vorbestimmter Wert.
  • Das erste Symbol kann in einer ersten Teilmenge von Symbolen enthalten sein und das zweite Symbol kann in einer zweiten Teilmenge von Symbolen enthalten sein. Die erste Teilmenge von Symbolen kann eine oberhalb eines ersten vorbestimmten Wertes liegende Auftrittswahrscheinlichkeit aufweisen, und die zweite Teilmenge von Symbolen kann eine unterhalb des ersten vorbestimmten Werts liegende Auftrittswahrscheinlichkeit aufweisen.
  • Die Auftrittswahrscheinlichkeit kann einer Verwendungsvorgeschichte entsprechen. Die Auftrittswahrscheinlichkeit kann im Einklang mit einem lexikographischen Model stehen. Das lexikographische Model kann eine Verwendungsfrequenz für Symbole in einer Sprache umfassen.
  • In einigen Ausführungsformen weist das zweite Symbol für das entsprechende Icon eine Auftrittswahrscheinlichkeit dafür auf, dass es unmittelbar dem ersten Symbol für das entsprechende Icon folgt, die unterhalb eines zweiten vorbestimmten Wertes liegt. In einigen Ausführungsformen weist das erste Symbol für das entsprechende Zeichen eine Auftrittswahrscheinlichkeit dafür auf, dass es unmittelbar dem zweiten Symbol für das entsprechende Icon folgt, die unterhalb eines zweiten vorbestimmten Wertes liegt.
  • In einigen Ausführungsformen wird das entsprechende angezeigte Icon modifiziert, um anzuzeigen, dass der Kontakt zu einem entsprechenden Symbol korrespondiert. In einigen Ausführungsformen ist eine zu einem entsprechenden Symbol korrespondierende visuelle Anzeige vorgesehen. Die visuelle Anzeige kann eine visuelle Beleuchtung in der Umgebung des entsprechenden Icons umfassen. Die visuelle Beleuchtung kann ein Band um wenigstens einen Teil des entsprechenden Icons umfassen.
  • In einigen Ausführungsformen umfasst ein Verfahren das Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung. Ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons korrespondiert zu zwei oder mehreren Symbolen. Ein erstes Symbol aus der Menge der zwei oder mehreren Symbole gehört zu einer ersten Teilmenge von Symbolen und ein zweites Symbol aus der Menge der zwei oder mehreren Symbole gehört zu einer zweiten Teilmenge von Symbolen. Das erste Symbol hat eine Auftrittswahrscheinlichkeit, die über einem ersten vorbestimmten Wert liegt, und das zweite Symbol hat eine Auftrittswahrscheinlichkeit, die unter dem ersten vorbestimmten Wert liegt. Es wird ein Kontakt durch den Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu einer Auswahl des entsprechenden Icons korrespondiert. Der Kontakt umfasst eine entsprechende Geste. Es wird ein entsprechendes Symbol aus der Menge der zwei oder mehreren Symbole für das entsprechende Icon bestimmt, zu dem der Kontakt weiterhin korrespondiert.
  • Die Auftrittswahrscheinlichkeit kann einer Benutzervorgeschichte entsprechen. Die Auftrittswahrscheinlichkeit kann im Einklang mit einem lexikographischen Model stehen. Das lexikographische Model kann eine Verwendungsfrequenz für Symbole in einer Sprache umfassen. Das zweite Symbol kann eine Auftrittswahr scheinlichkeit, dafür aufweisen, dass es dem ersten Symbol unmittelbar folgt, die unterhalb eines zweiten vorbestimmten Wertes liegt.
  • Das erste Symbol kann durch ein- oder mehrfache Tippgesten ausgewählt werden, und das zweite Symbol kann durch eine Ziehgeste ausgewählt werden. Ein entsprechendes Tippen kann das Herstellen eines Kontakts mit der berührungsempfindlichen Anzeigevorrichtung für ein Zeitintervall umfassen, das kürzer ist als ein zweiter vorbestimmter Wert. Ein zwei- oder mehrfaches aufeinanderfolgendes Tippen kann zu dem zweiten Symbol korrespondieren, wenn ein Zeitintervall zwischen zwei oder mehreren korrespondierenden Kontakten kürzer ist als ein dritter vorbestimmter Wert.
  • In einigen Ausführungsformen wird das entsprechende angezeigte Icon modifiziert, um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert. In einigen Ausführungsformen ist eine zu dem entsprechenden Symbol korrespondierende visuelle Anzeige vorgesehen. Die visuelle Anzeige kann eine visuelle Beleuchtung in der Umgebung des entsprechenden Icons umfassen. Die visuelle Beleuchtung kann ein Band um wenigstens einen Teil des entsprechenden Icons umfassen.
  • In einigen Ausführungsformen enthält die erste Teilmenge von Symbolen e, t, a, o, i, n, s, r und h. In einigen Ausführungsformen enthält die erste Teilmenge von Symbolen q, e, u, I, o, a, d, g, j, l, z, c, b, n und m. In einigen Ausführungsformen enthält die erste Teilmenge von Symbolen q, c, e, h, I, l, n, o, r, t, u, w und y.
  • In einigen Ausführungsformen enthält die zweite Teilmenge von Symbolen w, y und j. In einigen Ausführungsformen enthält die zweite Teilmenge von Symbolen w, y, p, g und j. In einigen Ausführungsformen enthält die zweite Teilmenge von Symbolen w, r, t, y, p, s, f, h, k, x und v. In einigen Ausführungsformen enthält die zweite Teilmenge von Symbolen j, v, x und z. In einigen Ausführungsformen enthält die zweite Teilmenge von Symbolen b, d, f, g, j, k, m, p, q, s, v, x und z.
  • Die vorgenannten Verfahren können durch eine tragbare elektronische Vorrichtung ausgeführt werden, die eine berührungsempfindliche Anzeigevorrichtung mit einer graphischen Benutzerschnittstelle (GUI), ein oder mehrere Prozessoren, Speicher und ein oder mehrere im Speicher abgelegte, zur Durchführung dieser Verfahren bestimmte Module, Programme oder Sätze von Anweisungen aufweist. In einigen Ausführungsformen stellt die tragbare elektronische Vorrichtung eine Mehrzahl von Funktionen einschließlich drahtloser Kommunikation bereit.
  • Anweisungen zur Durchführung der vorgenannten Verfahren können in einem Computerprogrammprodukt enthalten sein, das zur Ausführung auf einem oder mehreren Prozessoren konfiguriert ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Zum besseren Verständnis der vorgenannten Ausführungsformen der Erfindung sowie weiterer Ausführungsformen davon sollte auf die unten folgende Beschreibung der Ausführungsformen im Zusammenhang mit den folgenden Zeichnungen Bezug genommen werden, in denen gleiche Bezugszeichen durchgängig in allen Figuren auf korrespondierende Teile referenzieren.
  • 1 ist ein Blockdiagramm zur Illustration einer Ausführungsform einer Architektur für eine tragbare elektronische Vorrichtung.
  • 2 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 3A ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 3B ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 3C ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 4 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 5 ist ein Blockdiagramm, das eine Ausführungsform für eine Zeichensatzdatenstruktur illustriert.
  • 6A ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 6B ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 6C ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 6D ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 7 ist ein Flussdiagramm für eine Ausführungsform eines Symboleingabeprozesses.
  • 8 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 9 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 10A ist ein Blockdiagramm, das eine Ausführungsform für eine Datenstruktur einer Benutzerwortvorgeschichte illustriert.
  • 10B ist ein Blockdiagramm, das eine Ausführungsform für ein Sprachdatenstruktursystem illustriert.
  • 11A ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 11B ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 11C ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 12A ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12B ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12C ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12D ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12E ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12F ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 12G ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 13 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 14 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 15 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 16 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 17 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • 18 ist ein Flussdiagramm einer Ausführungsform für einen Symboleingabeprozess.
  • 19 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung illustriert.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Im Folgenden wird nun im Detail auf Ausführungsformen Bezug genommen, von denen Beispiele in den beiliegenden Zeichnungen illustriert sind. In der folgenden detaillierten Beschreibung sind zahlreiche spezifische Details beschrieben, um ein gründliches Verständnis der vorliegenden Erfindung zu ermöglichen. Es wird jedoch für den Fachmann offensichtlich sein, dass die vorliegende Erfindung auch ohne diese spezifischen Details ausgeführt werden kann. In anderen Fällen wurden wohlbekannte Verfahren, Prozeduren, Komponenten und Schaltungen nicht im Detail beschrieben, um nicht unnötig Aspekte der Ausführungsformen zu verdecken.
  • Es werden Ausführungsformen von Benutzerschnittstellen und assoziierten Verfahren zur Verwendung einer Vorrichtung beschrieben. In einigen Ausführungsformen kann die Vorrichtung eine tragbare Kommunikationsvorrichtung sein. Die Benutzerschnittstelle kann ein Klickrad und/oder einen Berührungsbildschirm aufweisen. Ein Klickrad ist ein physikalisches Benutzerschnittstellengerät, das Navigationsanweisungen bereitstellen kann, die auf einer Verdrehung des Rades oder eines Kontaktpunktes mit dem Rad durch einen Benutzer des Gerätes basieren. Ein Klickrad kann auch verwendet werden, um eine zu einer Auswahl eines oder mehrerer Einträge korrespondierende Anweisung bereitzustellen, beispielsweise wenn der Benutzer des Geräts wenigstens einen Teil des Rades herabdrückt. Zum Zwecke der Einfachheit wird in der folgenden Erläuterung eine tragbare elektronische Vorrichtung (z. B. ein Mobiltelefon, das auch andere Funktionen, wie z. B. SMS, PDA und/oder Musikspielerfunktionen aufweisen kann), die einen Berührungsbildschirm aufweist, als beispielhafte Ausführungsform verwendet. Es versteht sich jedoch, dass die Benutzerschnittstellen und assoziierten Verfahren bei anderen Vorrichtungen, wie z. B. Personalcomputern und Laptops angewendet werden können, die ein oder mehrere physikalische Benutzerschnittstellengeräte, wie z. B. ein Klickrad, eine Tastatur, eine Maus und/oder einen Joystick aufweisen.
  • Die Vorrichtung kann eine Vielzahl von Applikationen, wie z. B. ein Telefon, Textnachrichten, Textverarbeitung, E-Mail und einen Musikspieler unterstützen. Der Musikspieler kann mit einem oder mehreren Dateiformaten, wie z. B. MP3 und/oder AAC kompatibel sein. In einer beispielhaften Ausführungsform weist die Vorrichtung einen iPod Musikspieler (Marke von Apple Computer Inc.) auf.
  • Die Vielzahl von Applikationen, die auf der Vorrichtung ausführbar sind, können wenigstens ein gemeinsames physikalisches Benutzerschnittstellengerät, wie z. B. den Berührungsbildschirm verwenden. In Ausführungsformen, die ein Klickrad aufweisen, können ein oder mehrere Funktionen des Klickrades sowie korrespondierende, auf der Vorrichtung angezeigte Funktionen von einer Applikation zur nächsten und/oder innerhalb einer entsprechenden Applikation angepasst und/oder variiert werden. Auf diese Weise kann eine gemeinsame physikalische Architek tur (wie z. B. das Klickrad) der Vorrichtung die Vielzahl von Applikationen mit Benutzerschnittstellen unterstützen, die intuitiv und transparent sind.
  • Die Benutzerschnittstellen können ein oder mehrere Tastaturausführungsformen aufweisen. Die Tastaturausführungsformen können standardisierte (qwerty) und/oder nicht standardisierte Konfigurationen von Symbolen auf den angezeigten Icons der Tastatur aufweisen. Die Tastaturausführungsformen können eine im Vergleich mit der Anzahl von Tasten auf existierenden physikalischen Tastaturen, wie z. B. der einer Schreibmaschine, reduzierte Anzahl von Icons (oder Softtasten) aufweisen. Dieses kann es Benutzern erleichtern, eine oder mehrere Icons auf der Tastatur zu ein oder mehrere korrespondierende Symbolen auszuwählen. Die Tastaturausführungsformen können adaptiv sein. Zum Beispiel können angezeigte Icons im Einklang mit Benutzeraktionen, wie z. B. der Auswahl eines oder mehrerer Icons und/oder eines oder mehrerer korrespondierender Symbole modifiziert werden. Ein oder mehrere Applikationen auf der tragbaren Vorrichtung können gemeinsame und/oder verschiedene Tastaturausführungsformen verwenden. Entsprechend kann die verwendete Tastaturausführungsform wenigstens an eine der Applikationen angepasst werden. In einigen Ausführungsformen können eine oder mehrere Tastaturausführungsformen an einen entsprechenden Benutzer angepasst werden. Zum Beispiel basierend auf einer Wortbenutzungsvorgeschichte (Lexikographie, Umgangssprache, individuelle Verwendung) durch den entsprechenden Benutzer. Einige der Tastaturausführungsformen können angepasst werden, um die Wahrscheinlichkeit eines Benutzerfehlers beim Auswählen eines oder mehrerer Icons und dementsprechend eines oder mehrerer Symbole bei der Verwendung der Tastaturausführungsformen zu verringern.
  • Im Folgenden werden nun Ausführungsformen der Vorrichtung behandelt. 1 ist ein Blockdiagramm, das eine Architektur für eine tragbare elektronische Vorrichtung 100 entsprechend einigen Ausführungsformen der Erfindung illustriert. Die Vorrichtung 100 kann einen Speicher 102 (der ein oder mehrere computerlesbare Speichermedien aufweisen kann), eine Speichersteuerung 122, ein oder meh rere Prozessoreinheiten (CPUs) 120, eine Peripherieschnittstelle 118, eine HF Schaltung 108, eine Audioschaltung 110, einen Lautsprecher 111, ein Mikrofon 113, ein Eingabe/Ausgabe (I/O) Subsystem 106, ein Anzeigesystem 112 (das einen Berührungsbildschirm umfassen kann), ein Klickrad 114 oder andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124 aufweisen. Diese Komponenten können über den einen oder die mehreren Kommunikationsbusse oder Signalleitungen 103 kommunizieren. Die Vorrichtung 100 kann eine beliebige tragbare elektronische Vorrichtung sein, einschließlich, ohne darauf beschränkt zu sein, eines in der Hand haltbaren Computers, eines Tabletcomputers, eines Mobiltelefons, eines Medienspielers, eines persönlichen digitalen Assistenten (PDA), oder Ähnlichem, einschließlich einer Kombination von zwei oder mehreren dieser Artikel. In anderen Ausführungsformen kann die Vorrichtung 100 nicht tragbar ausgeführt sein, wie z. B. ein Personalcomputer.
  • Es ist zu beachten, dass die Vorrichtung 100 nur ein Beispiel für eine tragbare elektronische Vorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt aufweisen kann, dass zwei oder mehrere Komponenten kombiniert werden können oder dass eine unterschiedliche Konfiguration oder Anordnung dieser Komponenten vorliegen kann. Die verschiedenen in 1 gezeigten Komponenten können in Hardware, Software oder einer Kombination aus sowohl Hardware und Software, einschließlich eines oder mehrerer Signalprozessor- und/oder applikationsspezifischer integrierter Schaltkreise implementiert sein.
  • Der Speicher 102 kann Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff sowie nicht-flüchtigen Speicher, wie z. B. eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Festkörperspeichervorrichtungen aufweisen. In einigen Ausführungsformen kann der Speicher 102 weiterhin von dem einen oder den mehreren Prozessoren 120 entfernt liegenden Speicher aufweisen, wie z. B. an ein Netzwerk angeschlossenen Speicher, der über die HF Schaltung oder den externen Anschluss 124 und ein Kommunikationsnetzwerk (nicht gezeigt), wie z. B. das Internet, Intranet(s), lokale Netzwerke (LANs), Weitverkehrsnetzwerke (WLANs), Speichernetzwerke (SANs) und Ähnlichem oder einer beliebigen passenden Kombination daraus zugreifbar ist. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie z. B. der CPU 120 und der Peripherieschnittstelle 118 kann durch die Speichersteuerung 122 gesteuert sein.
  • Die Peripherieschnittstelle 118 koppelt die Eingabe- und Ausgabeperipheriegeräte der Vorrichtung an die CPU 120 und den Speicher 102. Der eine oder die mehreren Prozessoren 120 führen verschiedene in dem Speicher 102 abgelegte Softwareprogramme und/oder Sätze von Anweisungen zur Ausführung verschiedener Funktionen für die Vorrichtung 100 und zur Verarbeitung von Daten aus bzw. lassen diese ablaufen.
  • In einigen Ausführungsformen können die Peripherieschnittstelle 118, die CPU 120 und die Speichersteuerung 122 auf einem einzigen Chip, wie z. B. einem Chip 104 implementiert sein. In anderen Ausführungsformen können sie auf separaten Chips implementiert sein.
  • Die HF (Hochfrequenz) Schaltung 108 empfängt und sendet elektromagnetische Wellen. Die HF Schaltung 108 wandelt elektrische Signale in/von elektromagnetischen Wellen um und kommuniziert mit Kommunikationsnetzwerken und andere Kommunikationsvorrichtungen über die elektromagnetischen Wellen. Die HF Schaltung 108 kann wohlbekannte Schaltungen zur Ausführung dieser Funktionen aufweisen, einschließlich und ohne darauf beschränkt zu sein, ein Antennensystem, einen HF Transceiver, ein oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC Chipsatz, eine Teilnehmeridentitätsmodul (SIM)-karte, Speicher, usw. Die HF Schaltung 108 kann mit den Netzwerken, wie z. B. dem Internet, das auch als World Wide Web (WWW) bezeichnet wird, einem Intranet und/oder einem drahtlosen Netzwerk, wie z. B. einem zellularen Telefonnetzwerk, einem drahtlosen lokalen Netzwerk (LAN) und/oder einem Stadtbereichsnetzwerk (MAN) und anderen Vorrichtungen über drahtlose Kommunikation kommunizieren. Die drahtlose Kommunikation kann unter Verwendung eines jeden einer Mehrzahl von Kommunikationsstandards, Protokollen und Technologien erfolgen, einschließlich und ohne darauf beschränkt zu sein, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), Voice Over Internet Protocol (VoIP), Wi-MAX, eines Protokolls für E-Mail, Instant Messaging und/oder eines Kurznachrichtendienstes (SMS), oder eines beliebigen anderen geeigneten Kommunikationsprotokolls einschließlich solcher Kommunikationsprotokolle, die zum Zeitpunkt der Einreichung dieses Dokuments noch nicht entwickelt waren.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Die Audioschaltung 110 empfängt Audiodaten von der Peripherieschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal um, und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 wandelt die elektrischen Signale in durch Menschen hörbare Schallwellen um. Die Audioschaltung 110 empfängt auch elektrische Signale, die durch Umwandlung von Schallwellen durch das Mikrofon 113 entstehen. Die Audioschaltung 110 wandelt die elektrischen Signale in Audiodaten um, und übermittelt die Audiodaten an die Peripherieschnittstelle 118 zu Verarbeitung. Audiodaten können aus dem Speicher 102 und/oder der HF Schaltung 108 über die Peripherieschnittstelle 118 abgerufen und/oder dorthin übertragen werden. In einigen Ausführungsformen weist die Audioschaltung 110 auch eine Kopfhörerbuchse auf (nicht gezeigt). Die Kopfhörerbuchse stellt eine Schnittstelle zwischen der Audioschaltung 110 und entfernbaren Audioeingabe-/ausgabeperipheriegeräten, wie z. B. reinen Ausgabekopfhö rern oder einem Kopfhörer mit sowohl Ausgabe (Kopfhörer für ein oder beide Ohren) und Eingabe (Mikrofon) dar.
  • Das (I/O) Subsystem 106 stellt die Schnittstelle zwischen Eingabe-/Ausgabeperipheriegeräten auf der Vorrichtung 100, wie z. B. dem Anzeigesystem 112, dem Klickrad 114 und anderen Eingabe-/Ausgabevorrichtungen 116 und der Peripherieschnittstelle 118 bereit. Das I/O Subsystem 106 kann eine Anzeigesteuerung 156, eine Klickradsteuerung 158 und ein oder mehrere Steuerungen 160 für andere Eingabe- oder Steuervorrichtungen aufweisen. Die eine oder die mehreren Eingabesteuerungen 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe-/Steuervorrichtungen 116 können physikalische Tasten (z. B. Drucktasten, Kipphebel, usw.) Wählscheiben, Schiebeschalter, Hebel, usw. umfassen.
  • Das Anzeigesystem 112 stellt eine Ausgabeschnittstelle und/oder eine Eingabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuerung 156 empfängt und/oder sendet elektrische Signale von/an das Anzeigesystem 112. Das Anzeigesystem 112 zeigt dem Benutzer visuelle Ausgaben an. Die visuellen Ausgaben können Text, Icons, Graphik, Video und eine beliebige Kombination daraus umfassen. In einigen Ausführungsformen können einige oder alle visuellen Ausgaben mit Benutzerschnittstellenobjekten korrespondieren, deren weitere Details im Folgenden beschrieben sind.
  • In einigen Ausführungsformen, wie solchen, die einen Berührungsbildschirm aufweisen, nimmt das Anzeigesystem 112 auch auf haptischem und/oder taktilem Kontakt beruhende Eingaben durch den Benutzer auf. In Ausführungsformen mit einem Berührungsbildschirm bildet das Anzeigesystem 112 eine berührungsempfindliche Oberfläche, die Benutzereingaben aufnimmt. In diesen Ausführungsformen detektieren das Anzeigesystem 112 und die Anzeigesteuerung 156 (zusammen mit allen assoziierten Modulen und/oder Sätzen von Anweisungen im Speicher 102) Kontakt (und jede Bewegung oder Unterbrechung des Kontakts) auf dem Anzeigesystem 112 und wandeln den detektierten Kontakt in eine Interaktion mit Benutzerschnittstellenobjekten, wie z. B. einen oder mehreren auf einem Berührungsbildschirm angezeigten Softtasten um. In einer beispielhaften Ausführungsform korrespondiert ein Kontaktpunkt zwischen einem Berührungsbildschirm in dem Anzeigesystem 112 und dem Benutzer zu einem oder mehreren Fingern des Benutzers.
  • In Ausführungsformen mit einem Berührungsbildschirm kann der Berührungsbildschirm im Anzeigesystem 112 LCD(Flüssigkristallanzeige)-Technologie oder LPD(lichtemittierende Polymeranzeige)-Technologien verwenden, wenngleich andere Technologien in anderen Ausführungsformen verwendet werden können. Ein Berührungsbildschirm im Anzeigesystem 112 und die Anzeigesteuerung 156 können einen Kontakt und jede Bewegung oder Unterbrechung davon unter Verwendung einer Mehrzahl berührungsempfindlicher Technologien detektieren, die ohne darauf beschränkt zu sein, kapazitive, resistive, infrarotbasierte und auf akustischen Oberflächenwellen basierte Technologien sowie andere Näherungssensorfelder oder andere Elemente zur Bestimmung eines oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm im Anzeigesystem 112 umfassen können. In einigen Ausführungsformen des Anzeigesystems 112 kann eine berührungsempfindliche Anzeigevorrichtung analog zu den mehrfachberührungsempfindlichen Tafeln ausgeführt sein, die in den folgenden U.S. Patenten beschrieben sind: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), und/oder 6,677,932 (Westerman) und/oder U.S. Patentveröffentlichung 2002/0015024 A1 , von denen jede hiermit durch Verweis aufgenommen wird. Allerdings zeigt ein Berührungsbildschirm im Anzeigesystem 112 visuelle Ausgaben der tragbaren Vorrichtung 100 an, während berührungsempfindliche Tafeln keine visuellen Ausgaben liefern. Der Berührungsbildschirm im Anzeigesystem 112 kann eine Auflösung jenseits von 100 dpi aufweisen. In einer beispielhaften Ausführungsform kann der Berührungsbildschirm in dem Anzeigesystem eine Auflösung von etwa 168 dpi aufweisen. Der Benutzer kann mit dem Berührungsbildschirm im Anzeigesystem 112 unter Verwendung eines passenden Objekts oder Appendixes wie z. B. eines Stifts, Fingers usw. einen Kontakt herstellen.
  • In einigen Ausführungsformen kann die Vorrichtung 100 zusätzlich zu einem Berührungsbildschirm ein Berührungsfeld (nicht gezeigt) zur Aktivierung oder Deaktivierung bestimmter Funktionen aufweisen. In einigen Ausführungsformen ist das Berührungsfeld eine berührungsempfindliche Fläche auf der Vorrichtung, die anders als der Berührungsbildschirm keine visuellen Ausgaben anzeigt. Das Berührungsfeld kann eine berührungsempfindliche Oberfläche sein, die separat von dem Berührungsbildschirm im Anzeigesystem 112 oder als Erweiterung der berührungsempfindlichen durch den Berührungsbildschirm dargestellten Oberfläche ausgeführt ist.
  • Die Vorrichtung 100 kann ein Klickrad 114 umfassen. Ein Benutzer kann zwischen einem oder mehreren auf dem Anzeigesystem 112 angezeigten graphischen Objekten (im Folgenden als Icons bezeichnet) navigieren, in dem er das Klickrad dreht oder einen Kontaktpunkt mit dem Klickrad 114 bewegt (z. B. durch eine Winkelverschiebung). Das Klickrad 114 kann auch verwendet werden, um eines oder mehrere der angezeigten Icons auszuwählen. Zum Beispiel kann ein Benutzer wenigstens einen Teil des Klickrades 114 oder eine assoziierte physikalische Taste drücken. Benutzeranweisungen und Navigationsanweisungen, die durch den Benutzer über das Klickrad 114 bereitstellbar sind, können durch die Klickradsteuerung 158 sowie eines oder mehrere der Module und/oder Sätze von Anweisungen im Speicher 102 verarbeitet werden.
  • Die Vorrichtung 100 weist auch ein Stromversorgungssystem 162 zur Stromversorgung der verschiedenen Komponenten auf. Das Stromversorgungssystem 162 kann ein Stromverwaltungssystem, ein oder mehrere Stromquellen (z. B. Batterie, Wechselstrom (AC)), ein Ladesystem, eine Stromausfalldetektionsschaltung, einen Stromkonverter oder -inverter, einen Stromstatusindikator (z. B. eine lichtemittierende Diode (LED)) und andere mit der Generierung, der Verwaltung und der Verteilung von Strom in tragbaren Vorrichtungen assoziierte Komponenten aufweisen.
  • In einigen Ausführungsformen können die im Speicher 102 abgelegten Softwarekomponenten ein Betriebssystem 126, ein Kommunikationsmodul (oder Satz von Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Satz von Anweisungen) 130, ein Graphikmodul (oder Satz von Anweisungen) 132, ein oder mehrere Applikationen (oder Sätze von Anweisungen) 136, ein Zeitgebermodul (oder Satz von Anweisungen) 144, ein Wortvorhersagemodul (oder Satz von Anweisungen) 146, ein Adressbuch 148, eine Benutzerwortvorgeschichte 150, ein oder mehrere Zeichensätze 152 und ein oder mehrere Lexikographiemodelle 154 aufweisen. Das Graphikmodul 132 kann ein Iconeffektmodul (oder Satz von Anweisungen) 134 enthalten. Die Applikationsmodule 136 können ein Telefonmodul (oder Satz von Anweisungen) 138, ein Textnachrichtenmodul (oder Satz von Anweisungen) 140 und/oder ein Musikspielermodul (oder Satz von Anweisungen) 142 aufweisen.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie z. B. V×Works) enthält verschiedene Softwarekomponenten und/oder Treiber zur Steuerung und Verwaltung allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichersteuerung, Stromverwaltung, usw.) und stellt die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten bereit.
  • Das Kommunikationsmodul 128 ermöglicht Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und enthält auch verschiedene Softwarekomponenten zur Bearbeitung von über die HF Schaltung 108 und/oder den externen Anschluss 124 empfangenen Daten. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIREWIRE, usw.) ist eingerichtet, um direkt, oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.), an andere Vorrichtungen zu koppeln.
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dem Klickrad 114 und/oder einem Berührungsbildschirm im Anzeigesystem 112 (in Verbindung mit der Anzeigesteuerung 156) detektieren. Das Kontakt-/Bewegungsmodul 130 enthält verschiedene Softwarekomponenten zur Ausführung verschiedener Operationen in Bezug auf die Detektierung eines Kontakts, wie z. B. dem Bestimmen, ob ein Kontakt aufgetreten ist, dem Bestimmen, ob eine Bewegung des Kontakts vorliegt und Verfolgen der Bewegung über das Klickrad 114 und/oder einen Berührungsbildschirm im Anzeigesystem 112 und dem Bestimmen, ob ein Kontakt unterbrochen wurde (d. h. ob der Kontakt weggefallen ist). Die Bestimmung einer Bewegung des Kontaktpunkts kann die Bestimmung von Schnelligkeit (Größe), Geschwindigkeit (Größe und Richtung) und/oder einer Beschleunigung (einschließlich Größe und/oder Richtung) des Kontaktpunkts umfassen. In einigen Ausführungsformen detektieren das Kontakt-/Bewegungsmodul 130 und die Anzeigesteuerung 156 auch Kontakte auf einem Berührungsfeld.
  • Das Graphikmodul enthält verschiedene bekannte Softwarekomponenten zur Bereitstellung und Anzeige von Graphik auf dem Anzeigesystem 112. Es ist zu beachten, dass der Begriff "Graphik" jedes beliebige Objekt umfasst, das einem Benutzer angezeigt werden kann, einschließlich und ohne darauf beschränkt zu sein, Text, Webseiten, Icons (wie z. B. Benutzerschnittstellenobjekte einschließlich virtueller Tasten), digitaler Bilder, Videos, Animationen und Ähnlichem.
  • In einigen Ausführungsformen enthält das Graphikmodul 132 das Iconeffektmodul 134. Das Iconeffektmodul 134 kann eine angezeigte Position eines oder mehrerer Icons auf dem Anzeigesysteme 112 (in Verbindung mit der Anzeigesteuerung 156) basierend auf Benutzeraktionen (wie z. B. dem Detektieren eines zu wenigstens einem Icon korrespondierenden Kontakts) modifizieren. In einigen Ausführungsformen kann die Modifikation des bzw. der angezeigten Icon(s) auf einer Animationssequenz beruhen.
  • Zusätzlich zu dem Telefonmodul 138, dem Textnachrichtenmodul 140 und/oder dem Musikspielermodul 142 können die eine oder die mehreren Applikationen 136 jede auf der Vorrichtung 100 installierte Applikationen umfassen, einschließlich und ohne darauf beschränkt zu sein einen Browser, das Adressbuch 148, Kontaktlisten, E-Mail, Instant Messaging, Textverarbeitung, eine Tastaturemulation, Widgets, JAVA-fähige Applikationen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung, Sprachreproduktion, Positionsbestimmungsfähigkeiten (wie z. B. die durch das Global Positioning System (GPS) bereitgestellten), usw.
  • In Verbindung mit der HF Schaltung 108, der Audioschaltung 110, dem Lautsprecher 111, dem Mikrofon 113, dem Anzeigesystem 112, der Anzeigsteuerung 156, dem Klickrad 114 und/oder der Klickradsteuerung 158 kann das Telefonmodul 138 verwendet werden, um eine zu einer Telefonnummer korrespondierende Zeichenfolge einzugeben, auf eine oder mehrere Telefonnummern im Adressbuch 148 zuzugreifen, eine eingegebene Telefonnummer zu modifizieren, eine entsprechende Telefonnummer zu wählen, ein Gespräch zu führen und zu unterbrechen oder zu beenden, wenn das Gespräch abgeschlossen ist.
  • In Verbindung mit dem Anzeigesystem 112, der Anzeigsteuerung 156, dem Klickrad 114 und/oder der Klickradsteuerung 158 kann das Textnachrichtenmodul 140 verwendet werden, um eine zu einer Textnachricht korrespondierende Zeichenfolge einzugeben, früher eingegebene Zeichen zu modifizieren, entsprechende Textnachrichten (z. B. unter Verwendung eines Kurznachrichtendienstes oder SMS-Protokolls) zu übertragen, Textnachrichten zu empfangen und die empfangenen Textnachrichten anzusehen. In einigen Ausführungsformen können übertragene und/oder empfangene Textnachrichten Grafik, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, die in einem Multimedia-Nachrichtendienst (MMS) und/oder einem erweiterten Nachrichtendienst (EMS) unterstützt werden, umfassen. Ausführungsformen von Benutzerschnittstellen und damit verbundenen Verfahren, die zur Symboleingabe, wie z. B. im Zusammenhang mit dem Textnachrichtenmodul 140 und allgemeiner mit Texteingabe und Kommunikation kor respondieren, werden weiter unten unter Bezugnahme auf die 2 bis 4, 6 bis 9 und 11 bis 20 beschrieben.
  • In Verbindung mit dem Anzeigesystem 112, der Anzeigesystemsteuerung 156, dem Klickrad 114, der Klickradsteuerung 158, der Audioschaltung 110, dem Lautsprecher 111 und/oder dem Mikrofon 113, ermöglicht es das Musikspielermodul 142 dem Benutzer, aufgenommene Musik wiederzugeben, die in einer oder mehreren Dateien, wie z. B. MP3 oder AAC-Dateien gespeichert ist. In einigen Ausführungsformen kann die Vorrichtung 100 die Funktionalität eines MP3-Spielers, wie z. B. eines iPod (Marke von Apple, Inc.) aufweisen. Die Vorrichtung 100 kann daher einen 36-poligen Anschluss aufweisen, der mit dem iPod kompatibel ist.
  • Das Zeitgebermodul 144 kann eine Zeitreferenz und/oder Zeitstempel für Benutzeranweisungen bereitstellen, die durch die Vorrichtung 100, z. B. unter Verwendung des Klickrades 114 und der Klickradsteuerung 158 empfangen werden.
  • Das Wortvorhersagemodul 146 kann in Verbindung mit einer oder mehreren der Applikationen 136, wie z. B. dem Textnachrichtenmodul 140 verwendet werden. Das Wortvorhersagemodul 146 kann ein oder mehrere Worte oder Symbole (wie z. B. Interpunktionszeichen, Aussprachezeichen oder Leerzeichen) entsprechend einem Kontext vorschlagen. Der Kontext kann auf einem oder mehreren der Lexikographiemodelle 154 (z. B. Grammatik- und/oder Syntaxregeln für eine oder mehrere Sprachen) und/oder einer Benutzerwortvorgeschichte 150 beruhen. Der Kontext kann ein oder mehrere früher eingegebene Worte, Zeichen und/oder Symbole umfassen. Der Kontext kann davon abhängen, welche der Applikationen 136 verwendet wird. Beispielsweise können für eine E-Mail-Applikation andere Kontexte auftreten als für eine Textverarbeitungsapplikation. Eine Benutzerschnittstelle und ein verbundenes Verfahren, die vorgeschlagene Worte aus dem Wortvorhersagemodul 146 umfassen, werden weiter unten in Bezug auf die 8 und 9 diskutiert.
  • Die Benutzerwortvorgeschichte 150 kann einen festen Inhalt (wie z. B. den mit einem Wörterbuch assoziierten) und/oder dynamischen Inhalt (wie z. B. den mit Zeichen, Symbolen und/oder Worten, die regelmäßig und/oder kürzlich durch den Benutzer verwendet wurden, assoziierten) enthalten. Die Benutzerwortvorgeschichte 150 kann ein festes Wörterbuch enthalten, das durch Scannen eines Adressbuchs, von E-Mails und anderen Dokumenten eines Benutzers aufgebaut wird. Die Benutzerwortvorgeschichte 150 kann gewichtete Auswertungen oder Wahrscheinlichkeiten für vorhergesagte Worte enthalten, die auf einem Satz von Zeichen, Symbolen und/oder Worten beruhen, die durch den Benutzer der Vorrichtung 100 z. B. unter Verwendung des Anzeigesystems 112, des Klickrades 114 und der Klickradsteuerung 158 geliefert werden. Die Benutzerwortvorgeschichte 150 kann auch eine Benutzungsstatistik (z. B. Zeit der Verwendung und/oder Frequenz der Verwendung) für ein oder mehrere Zeichen, Symbole und/oder Worte, die durch den Benutzer eingegeben werden, umfassen. Die Benutzerwortvorgeschichte 150 wird weiter unten unter Bezugnahme auf die 10A und 10B diskutiert.
  • Die Zeichensätze 152 können ein oder mehrere Sätze von Zeichen aufweisen, die zu Zahlen, Buchstaben und/oder Symbolen korrespondieren. Die Buchstaben und Symbole können zu einer oder mehreren Sprachen korrespondieren. Die Zeichensätze 152 können durch eine oder mehrere der Applikationen 136 wie z. B. dem Textnachrichtenmodul 140 verwendet werden. Eine mit dem einen oder den mehreren Zeichensätzen (die in einer oder mehreren der Tastaturausführungsformen verwendet werden können) assoziierte Datenstruktur wird weiter unten in Bezug auf 5 diskutiert.
  • In einigen Ausführungsformen kann die Vorrichtung 100 ein oder mehrere optionale optische Sensoren (nicht gezeigt), wie z. B. CMOS oder CCD-Bildsensoren zur Verwendung in bildgebenden Applikationen aufweisen.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der die Ausführung eines vorbestimmten Satzes von Funktionen auf der Vorrichtung ausschließlich über einen Berührungsbildschirm in dem Anzeigesystem 112 und/oder ein Berührungsfeld ausgeführt wird. Durch Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als primäre Eingabe-/Steuereinrichtung für den Betrieb der Vorrichtung 100 kann die Anzahl der physikalischen Eingabe-/Steuervorrichtungen (wie z. B. Drucktasten, Wählscheiben und Ähnliches) auf der Vorrichtung 100 reduziert werden. In einer Ausführungsform weist die Vorrichtung 100 einen Berührungsbildschirm, ein Berührungsfeld, eine Drucktaste zum Ein- und Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, einen Kipphebel zur Lautstärkeanpassung und einen Schiebeschalter für das Schalten zwischen Klingelprofilen auf. Die Drucktaste kann verwendet werden, um an dem Gerät den Strom ein- bzw. auszuschalten, indem die Taste gedrückt und im gedrückten Zustand für eine vordefinierte Zeitspanne gehalten wird, oder sie kann verwendet werden, um die Vorrichtung durch Drücken und anschließendes Freigeben der Taste bevor die vordefinierte Zeitspanne abgelaufen ist zu sperren. In einer alternativen Ausführungsform kann die Vorrichtung 100 auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113 annehmen.
  • Der vordefinierte Satz von Funktionen, der ausschließlich über einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt wird, umfasst die Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Berührungsfeld bei Berührung durch einen Benutzer die Vorrichtung 100 von einer jeden Benutzerschnittstelle, die auf der Anzeigevorrichtung 100 angezeigt sein kann, zu einem Haupt-, Heim- oder Wurzelmenü. In solchen Ausführungsformen kann das Berührungsfeld als „Menütaste" bezeichnet werden. In einigen anderen Ausführungsformen kann die Menütaste anstatt eines Berührungsfeldes eine physikalische Drucktaste oder eine andere physikalische Eingabe-/Steuerungsvorrichtung sein.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der die Ausführung eines vorbestimmten Satzes von Funktionen auf der Vorrichtung ausschließlich oder primär über das Klickrad 114 ausgeführt wird. Durch Verwendung des Klickrades 114 als primäre Eingabe-/Steuerungsvorrichtung für den Betrieb der Vorrichtung 100 kann die Anzahl der anderen physikalischen Eingabe-/Steuervorrichtungen (wie z. B. Drucktasten, Wählscheiben, und Ähnliches) auf der Vorrichtung 100 reduziert werden.
  • Im Folgenden werden nun Ausführungsformen von Benutzerschnittstellen und damit verbundenen Verfahren behandelt, die auf der Vorrichtung 100 implementiert sein können. 2 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 200 illustriert. Die Vorrichtung 200 weist einen Berührungsbildschirm 208 auf. Der Berührungsbildschirm kann ein oder mehrere Kästen anzeigen. Ein Kasten ist ein Bereich innerhalb einer graphischen Benutzerschnittstelle. Ein Kasten kann eine Benutzereingabeschnittstelle, wie z. B. eine Tastatur 210 mit einer Mehrzahl von Icons entahlten. Die Icons können ein oder mehrere Symbole enthalten. In dieser Ausführungsform sowie anderen unten beschriebenen kann ein Benutzer ein oder mehrere der Icons und so ein oder mehrere der korrespondierenden Symbole auswählen, indem er mit der Tastatur 210, z. B. mit einem oder mehreren seiner Finger 212 (in der Figur nicht maßstabsgerecht gezeichnet) einen Kontakt herstellt oder die Tastatur 210 berührt. Der Kontakt kann zu einem oder mehreren der Icons korrespondieren. In einigen Ausführungsformen erfolgt die Auswahl eines oder mehrerer Icons, wem der Benutzer einen Kontakt mit einem oder mehreren der Icons unterbricht. In einigen Ausführungsformen kann der Kontakt eine Geste umfassen, wie z. B. ein ein- oder mehrfaches Tippen, eine oder mehrere Ziehbewegungen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, aufwärts und/oder abwärts) der einen Kontakt mit der Vorrichtung 200 hergestellt hat. In einigen Ausführungsformen kann vorgesehen sein, dass ein versehentlicher Kontakt mit einem Icon ein korrespondierendes Symbol nicht auswählt. Bei spielsweise kann eine Ziehgeste mit einem Icon ein korrespondierendes Symbol nicht auswählen, wenn die zur Auswahl korrespondierende Geste ein Tippen darstellt.
  • Die Vorrichtung 200 kann einen Anzeigekasten 214 aufweisen. Der Anzeigekasten 214 kann ein oder mehrere, durch einen Benutzer ausgewählte Zeichen und/oder Symbole anzeigen. Die Vorrichtung 200 kann auch ein oder mehrere physikalische Tasten, wie z. B. die in 2 gezeigten Rücksetz-, Halten-, und Menütasten aufweisen. Wie oben beschrieben, kann die Menütaste verwendet werden, um innerhalb einer Hierarchie von Applikationen zu navigieren, die auf der Vorrichtung 200 ausführbar sind. Alternativ können in einigen Ausführungsformen die Rücksetz-, Halten- und/oder Menütasten als virtuelle Tasten in einer GUI auf dem Berührungsbildschirm 208 implementiert sein.
  • Die 3A3C sind schematische Diagramme, die eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 300 illustrieren. Die Benutzerschnittstelle weist eine Tastatur 310 auf, die eine Mehrzahl von Icons enthält. Die Icons enthalten je drei Symbole. In anderen Ausführungsformen enthalten die Icons je zwei Symbole. In anderen Ausführungsformen können andere Icons auf derselben Tastatur je ein, zwei oder drei Symbole enthalten (z. B. können einige Icons ein Symbol enthalten, während andere Icons zwei oder drei Symbole enthalten). Die Symbole auf den Icons befinden sich in einer nicht standardisierten Konfiguration, d. h. nicht-qwerty. Außerdem ist die Gesamtzahl der Icons auf der Tastatur 310 geringer als die Anzahl physikalischer Tasten auf einer Standardtastatur.
  • Die Symbole auf den Icons auf der Tastatur 310 können unter Verwendung eines Lexikographiemodells, z. B. einer Sprache, bestimmt werden. Das Lexikographiemodell kann eine Verwendungsfrequenz für Symbole in einer Sprache umfassen. Beispielsweise können durch einen Benutzer eingebbare Zeichen oder Symbole, bei denen es unwahrscheinlich ist, dass sie in unmittelbarer Nähe zueinander oder unmittelbar aufeinanderfolgend in einem Satz von Symbolen auftreten, auf einem entsprechenden Icon 312 gruppiert sein (3B). Eine Sprache kann sowohl Umgangssprache als auch eine individuelle Verwendung (z. B. Worte, die regelmäßig durch den Benutzer verwendet werden) aufweisen. Das Lexikographiemodell kann zu einer Benutzerverwendungs- oder Wortvorgeschichte korrespondieren, die vor der Herstellung eines Kontakts mit der Vorrichtung 300 durch einen Benutzer auftritt, d. h. zu einer früheren Verwendung.
  • Wie in 3B gezeigt, wird die Form des entsprechenden Icons 312 modifiziert, wenn ein Benutzer einen Kontakt 314 mit denn Berührungsbildschirm 208 auf der Vorrichtung 300 herstellt, der zu dem entsprechenden Icon 312 und einem entsprechenden Symbol (in diesem Fall einen Buchstaben ,a') korrespondiert. Damit wird dem Benutzer Information darüber geliefert, zu welchem Icon und welchem Symbol der Kontakt 314 gerade korrespondiert. Dieses kann nützlich sein, da der Kontakt 314 wenigstens einen Teil des entsprechenden Icons 312 abdecken und es so dem Benutzer erschweren kann, das entsprechende Symbol, auf das er oder sie gerade zeigt, zu erkennen.
  • In einer beispielhaften Ausführungsform können die Icons auf der Tastatur 310 wenigstens teilweise einen Bogen aufweisen. Als Reaktion auf den Kontakt 314 kann die Form des entsprechenden Icons 312 asymmetrisch verformt werden und das entsprechende Symbol, zu dem der Kontakt 314 gerade korrespondiert kann innerhalb der Form des entsprechenden Icons 312 und außerhalb des Kontakts 314 angezeigt werden.
  • In einigen Ausführungsformen kann der Benutzer das entsprechende Symbol auswählen, indem er einen Kontakt 314 mit dem entsprechenden Icon 312 durch Rollen eines Fingers über einem Bereich innerhalb des entsprechenden zu dem entsprechenden Symbol korrespondierenden Icons 312 rollt. Wenn der Benutzer basierend auf der modifizierten Form des entsprechenden Icons 312 und/oder dem innerhalb der modifizierten Form angezeigten Symbol erkennt, dass gegenwärtig das falsche Symbol kontaktiert wird, so kann der Benutzer seinen Finger zu einer anderen Position innerhalb des entsprechenden Icons 312 rollen, die zu dem korrekten Symbol korrespondiert. Sobald der Kontakt 314 über oder in der Umgebung des korrekten Symbols positioniert wurde, kann der Benutzer dieses Symbol durch Unterbrechen des Kontakts 314 mit dem entsprechenden Icon 312 auswählen. Das ausgewählte Symbol (wie z. B. der Buchstabe ,a') kann dann im Anzeigekasten 214 angezeigt werden. In einigen Ausführungsformen kann das entsprechende Symbol vergrößert dargestellt werden, wenn der Kontakt 314 durch den Benutzer für eine Zeitspanne, die einen ersten vorbestimmten Wert, wie z. B. 0,5, 1 oder 2 Sekunden überschreitet, aufrecht erhalten wird, bevor der Kontakt 314 unterbrochen wird.
  • Wenn ein Fehler aufgetreten ist, kann der Benutzer den gesamten Anzeigekasten 214 unter Verwendung eines Rücksetzicons zurücksetzen oder kann ein zuletzt ausgewähltes Symbol unter Verwendung eines Löschicons löschen. Sobald ein Satz von Symbolen (wie z. B. eine Nachricht) eingegeben wurde, kann der Benutzer den Satz von Symbolen unter Verwendung eines Annahmeicons akzeptieren (wodurch der Satz von Symbolen abhängig von der auf der Vorrichtung 300 ablaufenden Applikation gespeichert und/oder gesendet werden kann).
  • Wie in 3C gezeigt, kann in einigen Ausführungsformen eine zusätzliche visuelle Anzeige auf der Anzeigevorrichtung 208 vorgesehen sein, die zu dem entsprechenden Icon 312 korrespondiert. Die visuelle Anzeige kann in der Umgebung des entsprechenden Icons 312 vorgesehen sein. Die visuelle Anzeige kann ein Band 318 um wenigstens einen Teil des entsprechenden Icons 312 aufweisen.
  • Wie ebenfalls in 3C gezeigt, kann in einigen Ausführungsformen eine Form des entsprechenden Icons 312 nicht als Reaktion auf den Kontakt 314 modifiziert werden. Stattdessen kann ein zu dem entsprechenden Symbol 316 korrespondierendes Icon 316 in der Umgebung des entsprechenden Icons 312 angezeigt werden.
  • Die Modifikation der Form des entsprechenden Icons 312 und/oder die Anzeige der visuellen Anzeige, wie z. B. dem Band 318 und/dem Icon 316 kann in wenigstens einigen der weiter unten diskutierten Ausführungsformen enthalten sein.
  • Während die Vorrichtung 300 mit bestimmten Komponenten und einer bestimmten Anordnung dieser Komponenten illustriert wurde, versteht es sich, dass weniger oder mehr Komponenten vorgesehen sein können, dass zwei oder mehr Komponenten kombiniert werden können, und dass die Positionen einer oder mehrerer Komponenten geändert werden können. Zum Beispiel kann die Tastatur 310 weniger oder zusätzliche Icons enthalten. In einigen Ausführungsformen können ein unterschiedlicher Zeichensatz und/oder unterschiedliche Symbolgruppen auf den Icons der Tastatur 310 verwendet werden.
  • 4 ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 400. Während der im Folgenden beschriebenen Symboleingabeprozess 400 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 400 mehr oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass die Reihenfolge von zwei oder mehreren Operationen geändert und/oder dass zwei oder mehrere der Operationen zu einer einzigen Operation kombiniert werden können.
  • Eine Mehrzahl von Icons kann auf einer berührungsempfindlichen Anzeigevorrichtung angezeigt werden (410). Ein entsprechendes Icon kann zu zwei oder mehreren Symbolen korrespondieren. Ein Kontakt durch einen Benutzer mit der Anzeigevorrichtung, der zu dem entsprechenden Icon korrespondiert, kann detektiert werden (412). Das angezeigte entsprechende Icon kann modifiziert werden, um anzuzeigen, dass der Kontakt zu einem entsprechenden Symbol aus der Menge der zwei oder mehreren Symbole korrespondiert (414). Das entsprechende Symbol kann optional in einem Bereich innerhalb der Form des entsprechenden Icons und außerhalb eines zu dem Kontakt korrespondierenden Bereiches angezeigt werden (416). Eine zu dem entsprechenden Symbol korrespondierende visuelle Anzeige kann optional vorgesehen werden (418). Das entsprechende Symbol kann optional vergrößert dargestellt werden, wenn ein Kontakt über eine Zeitspanne hinweg aufrecht erhalten wird, die einen vorbestimmten Wert überschreitet (420). Das entsprechende Symbol kann ausgewählt werden, wenn der Benutzer den Kontakt mit dem entsprechenden Icon unterbricht (422).
  • Im Folgenden werden nun Ausführungsformen einer Zeichensatz-Datenstruktur behandelt, die zur Implementierung der Benutzerschnittstelle in der Vorrichtung 300 (3) und/oder von weiter unten beschriebenen Benutzerschnittstellen verwendet werden kann. 5 ist ein Blockdiagramm, das eine Ausführungsform einer Zeichensatzdatenstruktur 500 illustriert. Die Zeichensätze 152 können mehrfache Sätze 512 von Zeichen und/oder Symbolen enthalten. Ein entsprechender Satz, wie z. B. der Satz 512-1, kann ein oder mehrere Symbole 514 und eine oder mehrere Wahrscheinlichkeiten 516 aufweisen. Die Wahrscheinlichkeiten können Auftrittsfrequenzen sowie bedingte Wahrscheinlichkeiten (wie z. B. die Wahrscheinlichkeit dafür, dass ein gegebenes Symbol auftritt, wenn ein oder mehrere Symbole bereits aufgetreten sind) aufweisen. In einigen Ausführungsformen kann die Zeichensatzdatenstruktur 500 weniger oder mehr Komponenten aufweisen. Zwei oder mehrere Komponenten können kombiniert und die Reihenfolge von zwei oder mehreren Komponenten kann geändert werden.
  • Im Folgenden werden nun zusätzliche Ausführungsformen von Benutzerschnittstellen und damit verbundenen Verfahren behandelt, die auf der Vorrichtung 100 (1) implementiert werden können. Die 6A6D sind schematische Diagramme, die eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 600 illustrieren. Die Vorrichtung 600 weist eine Tastatur 610 mit einer Mehrzahl von in Zeilen angeordneten Icons auf. Eine gegebene Zeile enthält eine Teilmenge der Mehrzahl von Icons. Benachbart liegende Zeilen sind durch einen Zwischenraum getrennt, der größer ist als ein zweiter vordefinierter Wert, wie z. B. eine Höhe eines der Icons.
  • Wie in 6B gezeigt, kann ein Icon 614 im Zwischenraum zwischen zwei benachbarten Zeilen angezeigt werden, wenn der Benutzer einen Kontakt 612 mit der Anzeigevorrichtung 208 herstellt, der zu einem entsprechenden Icon auf der Tastatur 610 korrespondiert. Das Icon kann zu einem entsprechenden Symbol korrespondieren, das zu dem entsprechenden Icon 612 korrespondiert, welches der Benutzer kontaktiert hat. Wenn der Benutzer beispielsweise ein Icon für das Zeichen ,u' auf der Tastatur 610 kontaktiert oder sich diesem annähert, kann das Icon 614 zum Zeichen ,u' korrespondieren. Auf diese Weise kann der Benutzer die Rückmeldung erhalten, dass das entsprechende Icon (und daher das entsprechend Symbol) gegenwärtig kontaktiert wird. Dieses kann hilfreich sein, da der Kontakt 612 das entsprechende Icon und daher das entsprechende Symbol, welches in den Zeilen aus Icons ausgewählt wurde, verdecken kann.
  • In einigen Ausführungsformen kann das Icon 614 überhalb einer entsprechenden Zeile, in der der Kontakt 612 aufgetreten ist, angezeigt werden. In einigen Ausführungsformen kann das Icon 614 vergrößert werden, d. h. größer sein als das entsprechende Icon.
  • Der Kontakt 612 mit dem entsprechenden Icon, d. h. dem entsprechenden Symbol, kann ausgewählt werden. In einigen Ausführungsformen kann das entsprechende Symbol in dem Anzeigkasten 214 angezeigt werden.
  • Wie in 6C gezeigt, kann in einigen Ausführungsformen eine Tastatur 616 mit Zeilen aus Icons angezeigt werden. Zunächst können die Zeilen aus Icons keinen signifikanten Zwischenraum zwischen benachbarten Zeilen aufweisen, z. B. kann der Zwischenraum geringer sein als der zweite vordefinierte Wert. Wenn der Benutzer jedoch den Kontakt 612 mit der Anzeigevorrichtung 208 herstellt, so kann die angezeigte Tastatur 616 so modifiziert werden, dass sie einen Zwischenraum aufweist, der größer ist als der zweite vordefinierte Wert, und das Icon 614 kann angezeigt werden. Diese modifizierte Konfiguration oder Darstellung der Tastatur 616 kann beibehalten werden, während der Kontakt 612 durch den Benutzer aufrecht erhalten wird.
  • Wie in 6D gezeigt, kann in einigen Ausführungsformen eine Tastatur 618 Zeilen von Icons aufweisen. Wenn der Kontakt 612 hergestellt wird, kann ein Icon 620 wenigstens einem oder mehreren Icons der Tastatur 618 überlagert angezeigt werden.
  • Während die Vorrichtung 600 mit bestimmten Komponenten und einer bestimmten Anordnung dieser Komponenten illustriert wurde, versteht es sich, dass auch weniger oder mehr Komponenten vorgesehen sein können, dass zwei oder mehrere Komponenten kombiniert und dass die Positionen von einer oder mehreren Komponenten geändert werden können. Zum Beispiel können die Tastaturen 610, 616 und/oder 618 weniger oder zusätzliche Icons aufweisen. In einigen Ausführungsformen kann ein unterschiedlicher Zeichensatz und/oder unterschiedliche Symbolgruppen auf den Icons der Tastaturen 610, 616 und/oder 618 verwendet werden.
  • 7 ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 700. Während der im Folgenden beschriebene Symboleingabeprozess 700 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 700 mehr oder weniger Operationen aufweisen kann, die seriell oder parallel ausgeführt werden können, (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung), dass die Reihenfolge einer oder mehrerer Operationen geändert und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (710). Zwei oder mehrere Teilmengen der Mehrzahl von Icons können in Zeilen angeordnet sein. Es kann ein Kontakt durch den Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert werden, der zu einem entsprechenden Icon korrespondiert (712). Ein zu dem entsprechenden Icon korrespondierendes Symbol kann optional zwischen einer zu dem entsprechenden Icon korrespondierenden Zeile und einer benachbarten Zeile angezeigt werden (714). Ein zu dem entsprechenden Icon korrespondierendes Symbol kann optional einem oder mehreren Icons aus der Mehrzahl von Icons überlagert angezeigt werden (716).
  • 8 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 800 illustriert. Die Vorrichtung 800 kann einen Kasten 812 aufweisen, der ein oder mehrere vorgeschlagene Worte 810 enthält. Das eine oder die mehreren vorgeschlagenen Worte 810 können unter Verwendung einer Benutzerwortvorgeschichte bestimmt werden. Dieses wird weiter unten unter Bezugnahme auf die 10A und 10B erläutert.
  • In einigen Ausführungsformen werden das eine oder die mehreren vorgeschlagenen Worte 810 angezeigt, bevor in einer laufenden Applikationssitzung irgendwelche zu einer Texteingabe (Symbolauswahl) durch den Benutzer korrespondierende Kontakte detektiert werden. Zum Beispiel können das eine oder die mehreren vorgeschlagenen Worte 810 angezeigt werden, wenn der Benutzer zunächst eine Applikation, z. B. E-Mail, auf der Vorrichtung 800 öffnet. Das eine oder die mehreren vorgeschlagenen Worte 810 können daher, basierend auf einer Benutzerwort- oder Verwendungsvorgeschichte, die applikationsspezifisch sein kann, bestimmt werden. Nachdem die Vorrichtung 800 zu Texteingabe korrespondierende Kontakte empfängt, können das eine oder die mehreren vorgeschlagenen Worte 810 dynamisch als Reaktion auf zu Texteingabe durch den Benutzer korrespondierende Kontakte während der Applikationssitzung geändert werden.
  • Der Benutzer kann eines oder mehrere der vorgeschlagenen Worte 810 auswählen, indem er einen Kontakt mit der Anzeigvorrichtung 308 herstellt. In einigen Ausführungsformen können die vorgeschlagenen Worte 810, wie z. B. eine Wendung („Wie geht es dir?"), durch einen einzigen Kontakt ausgewählt werden. Der Kontakt kann eine Geste, wie z. B. ein einfaches oder mehrfaches Tippen, ein oder mehrere Ziehbewegungen und/oder eine Rollbewegung eines den Kontakt herstellenden Fingers umfassen. Das eine oder mehrfache Tippen kann jeweils eine Dauer aufweisen, die unterhalb eines dritten vorbestimmten Wertes, wie z. B. 0,1, 0,5 oder 1 s liegt.
  • Während die Vorrichtung 800 mit bestimmten Komponenten und einer bestimmten Anordnung dieser Komponenten illustriert wurde, versteht es sich, dass mehr oder weniger Komponenten vorgesehen sein können, dass zwei oder mehrere Komponenten kombiniert und dass Positionen einer oder mehrerer Komponenten geändert werden können. Zum Beispiel kann die Tastatur 210 weniger oder zusätzliche Icons aufweisen. In einigen Ausführungsformen kann ein unterschiedlicher Zeichensatz und/oder unterschiedliche Gruppen von Symbolen auf den Icons der Tastatur 210 verwendet werden.
  • 9 ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 900. Während der im Folgenden beschriebene Symboleingabeprozess 900 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 900 mehr oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass die Reihenfolge von zwei oder mehreren Operationen geändert und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (910). Ein entsprechendes Icon kann so wenigstens mit einem Symbol korrespondieren. Ein oder mehrere vorgeschlagene Worte können angezeigt werden (912). Das eine oder die mehreren vorgeschlagenen Worte können im Einklang mit einer Benutzervorgeschichte stehen, die vor dem Detektieren von irgendwelchen mit Texteingabe (Symbolauswahl) durch einen Benutzer in einer laufenden Applikationssitzung korrespondierenden Kontakten auftritt. Der Kontakt durch den Benutzer mit der Anzeigevorrichtung kann detektiert werden (914). Der Kontakt kann eine Geste aufweisen. Ein entsprechend vorgeschlagenes zu der Geste korrespondierendes Wort kann ausgewählt werden (916).
  • Im Folgenden werden nun Ausführungsformen für Datenstruktursysteme behandelt, die in der Vorrichtung 100 (1) implementiert werden können. 10A ist ein Blockdiagramm, das eine Ausführungsform einer Datenstruktur 1000 für eine Benutzerwortvorgeschichte illustriert. Die Benutzerwortvorgeschichte 150 kann einen gelöschten Wortstapel 1010 und mehrere Worte 1016 aufweisen. Die Worte 1016 können ein oder mehrere Zeichen und/oder ein oder mehrere Symbole enthalten. Der gelöschte Wortstapel 1010 enthält ein oder mehrere Worte 1014 in einer sequenziellen Reihenfolge, in der das eine oder die mehreren Worte 1014 durch den Benutzer in einer Applikation, wie z. B. dem Textnachrichtenmodul 140 (1) gelöscht wurden.
  • Ein entsprechendes Wort aus der Menge der Worte 1016, wie z. B. das Wort 1016-M kann mehrere Einträge aufweisen. Ein entsprechender Eintrag kann eine zeitgewichtete Punktzahl 1018, eine Benutzungsstatistik 1020 (wie z. B. die Zeit und/oder eine Frequenz der Verwendung), einen Kontext 1022 und ein oder mehrere Applikationen 1024 aufweisen. Die zeitgewichtete Punktzahl 1018 kann eine Wahrscheinlichkeit dafür angeben, dass basierend auf dem Kontext 1022 (ein oder mehrere Zeichen, Symbole und/oder Worte, die vorausgehend durch den Benutzer eingegeben wurden) und/oder der Applikation 1024 das Wort 1016-M ein nächstes vorzuschlagendes Wort ist. Beispielsweise kann die zeitgewichtete Punktzahl 1018 daher für E-Mail unterschiedlich sein als für das Textnachrichtenmodul 140 (1). Die zeitgewichtete Punktzahl 1018 kann so berechnet werden, dass Worte, die kürzlich verwendet wurden, höher gewichtet werden (z. B. durch Zuweisung einer höheren Wahrscheinlichkeit). Beispielsweise können in der zeitgewichteten Punktzahl 1018 Worte 1016, die innerhalb der letzten 24 Stunden oder der letzten Woche verwendet wurden, bevorzugt gewichtet werden. Worte 1016, die in längeren Zeitabständen (z. B. vor mehr als einem Tag oder einer Woche) verwendet wurden, können zeitgewichtete Punktzahlen 1018 aufweisen, die anhand eines vorbestimmten Verhältnisses (wie z. B. 0,9) für jedes zusätzliche Zeitintervall (z. B. jeden Tag oder jede Woche) seitdem das Wort 1016 zuletzt verwendet wurde, reduziert werden.
  • Die Datenstruktur 1000 für die Benutzervorgeschichte kann statische Information (z. B. zu einem Wörterbuch und/oder zu Grammatik- und Syntaxregeln für eine oder mehrere Sprachen korrespondierend) sowie dynamische Information (auf kürzlicher Verwendungsstatistik und/oder Mustern beruhend) enthalten. Daher kann die Datenstruktur 1000 für die Benutzervorgeschichte kontinuierlich dynamisch aktualisiert werden, wenn vordefinierte Zeitintervalle ablaufen oder wenn ein neues Wort oder eine neue Syntax durch den Benutzer eingesetzt wird. Die Datenstruktur 1000 für die Benutzervorgeschichte kann ein statisches Wörterbuch enthalten, das durch Scannen eines Adressbuchs, von E-Mails und anderen Dokumenten eines Benutzers aufgebaut wird. In einigen Ausführungsformen kann die Datenstruktur 1000 für die Benutzervorgeschichte weniger oder zusätzliche Komponenten aufweisen. Zwei oder mehrere Komponenten können kombiniert und die Reihenfolge von zwei oder mehreren Komponenten kann geändert werden.
  • 10 ist ein Blockdiagramm, das eine Ausführungsform für ein Sprachdatenstruktursystem 1050 illustriert. Das Sprachdatenstruktursystem 1050 kann verwendet werden, um in der Vorrichtung 800 (8) vorgeschlagene Worte bereitzustellen. Eine Symbolfrequenz 1062, die eine oder mehrere Zeichen, Symbole und/oder Worte aufweist, kann durch den Benutzer geliefert werden. Ein zu einem Kontext 1022-1 korrespondierender Satz von Symbolen 1062 kann durch eine Kontextkarte 1060 verarbeitet werden. In einigen Ausführungsformen kann der Kontext 1022-1 eine leere Menge sein, d. h. bevor der Benutzer irgendwelche Symbole 1062 liefert (z. B. wenn die Applikation gerade erst geöffnet wird) werden ein oder mehrere vorgeschlagene Worte bereitgestellt. In anderen Ausführungsformen kann der Kontext 1022-1 ein oder mehrere früher eingegebene oder gelieferte Worte sowie ein oder mehrere Symbole umfassen, wie z. B. die ersten ein, zwei oder drei Buchstaben in einem aktuellen durch den Benutzer gelieferten Wort. Die Kontextkarte 1060 kann ein Auswahl- und Hash-Modul 1064 und eine Hash-Karte 1066 aufweisen. Die Hash-Karte 1066 kann einen oder mehrere geeignete Einträge aus einem applikationsspezifischen Wörterbuch 1068 auswählen. Die Einträge in dem applikationsspezifischen Wörterbuch 1068 können Kontexte 1070, vorhergesagte Worte 1072 und zeitgewichtete Punktzahlen 1074 enthalten. Das applikationsspezifische Wörterbuch 1068 kann die Einträge in der Datenstruktur 1000 für die Benutzervorgeschichte verwenden. Als Folge davon kann das applikationsspezifische Wörterbuch 1068 kontinuierlich dynamisch aktualisiert werden, wenn vordefinierte Zeitintervalle abgelaufen sind oder wenn ein neues Wort oder eine neue Syntax durch den Benutzer verwendet wird.
  • Das Sprachdatenstruktursystem 1050 kann verwendet werden, um basierend auf dem Kontext 1022-1 ein oder mehrere vorgeschlagene Worte bereitzustellen. Die Kontextkarte kann die fünf oder die zehn besten Kontexttreffer 1070 finden. Die korrespondierenden vorhergesagten Worte 1072 können dem Benutzer entsprechend den zeitgewichteten Punktzahlen 1074 vorgeschlagen werden. In einigen Ausführungsformen wird nur eine zu den besten Kontexttreffern 1070 korrespondierende Teilmenge der vorhergesagten Worte 1072 dem Benutzer angeboten (z. B. nur das beste, die besten zwei oder die besten drei vorhergesagten Worte).
  • In einigen Ausführungsformen kann das Sprachdatenstruktursystem 1050 ein oder mehrere vorgeschlagene Worte gemäß einer zu einer Sprache korrespondierenden Zustandsmaschine (State Machine) (die zu einer Markovfolge oder einem Markov-Prozess korrespondiert) bereitstellen.
  • Beispielsweise kann das applikationsspezifische Wörterbuch 1068 auf einem stochastischen Modell der Beziehungen zwischen Buchstaben, Zeichen, Symbolen und/oder Worten einer Sprache beruhen. Ein Pfadspeicher (wie z. B. von bis zu drei Zeichen in einem gerade eingegebenen Wort und/oder von zwei oder mehreren früher eingegebenen Worten) des Wahrscheinlichkeitsmodells stellt einen Kompromiss zwischen Genauigkeit und den Verarbeitungs- und Stromversorgungsmöglichkeiten (z. B. Batterielebenszeit) der tragbaren elektronischen Vorrichtung 100 (1) dar. In einigen Ausführungsformen kann ein solches Wahrscheinlichkeitsmodell auf einer Lexikographie und einer benutzerspezifischen und/oder wie schon oben erläutert sogar applikationsspezifischen Verwendung beruhen. Zum Beispiel können Benutzer-E-Mails, ein Adressbuch und/oder andere Dokumente analysiert werden, um ein geeignetes Wahrscheinlichkeitsmodell für diesen Benutzer, basierend auf der von ihm verwendeten Syntax und/oder Lexikographie (einschließlich von Namen und Umgangssprache) zu bestimmen. Das Wahrscheinlichkeitsmodell kann kontinuierlich aktualisiert werden, nachdem vordefinierte Zeitintervalle abgelaufen sind oder wenn ein neues Wort oder eine neue Syntax durch den Benutzer verwendet wird.
  • In einigen Ausführungsformen kann das Wahrscheinlichkeitsmodell auf einem oder mehreren Fehlern beruhen, die der Benutzer begeht, wenn er das Klickrad 1014 (1) und/oder eine berührungsempfindliche Anzeigevorrichtung in dem Anzeigesystem 1012 (1) verwendet. Wenn der Benutzer beispielsweise zufällig das falsche Icon auswählt, während er ein entsprechendes Wort tippt, kann das Wahrscheinlichkeitsmodell aktualisiert werden, um zukünftig solche Fehler zu berücksichtigen. In einer beispielhaften Ausführungsform kann ein Fehler beruhend auf einer Benutzeraktivierung von zu einer Löschfunktion korrespondierenden Icons bestimmt werden. Diese Anpassungsfähigkeit der tragbaren elektronischen Vorrichtung 100 (1) kann die Korrektur von Benutzerschnittstellenfeh lern (wie z. B. Parallaxe und/oder Links-Rechts-Symmetrie) ermöglichen, die damit zusammenhängen, welchen oder welche Finger ein Benutzer verwendet und wie der Benutzer die tragbare elektronische Vorrichtung 100 (1) während der Verwendung hält. Diese Funktionalität ist weiter unten in Bezug auf 14 erläutert.
  • In einigen Ausführungsformen kann das Sprachdatenstruktursystem 1050 weniger oder zusätzliche Komponenten aufweisen. Zwei oder mehrere Komponenten können kombiniert und eine Reihenfolge von zwei oder mehreren Komponenten kann geändert werden.
  • Im Folgenden werden nun zusätzliche Ausführungsformen von Benutzerschnittstellen und damit zusammenhängenden Verfahren behandelt, die auf der Vorrichtung 100 (1) implementiert sein können. 11A ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 1100. Während der unten beschriebene Symboleingabeprozess 1100 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1100 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (zum Beispiel unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf der berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1110). Ein entsprechendes Icon kann zu zwei oder mehreren Symbolen korrespondieren. Ein Kontakt durch einen Benutzer mit der Anzeigevorrichtung kann detektiert werden, der zu einer Auswahl des entsprechenden Icons korrespondiert (1112). Ein Symbol aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt weiterhin korrespondiert, kann bestimmt werden (1114).
  • 11B ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 1130. Während der im Folgenden beschriebene Symboleingabeprozess 1130 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1130 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1132). Ein entsprechendes Icon kann zu zwei oder mehren Symbolen korrespondieren. Ein erstes Symbol kann zu einer ersten Teilmenge von Symbolen gehören und ein zweites Symbol kann zu einer zweiten Teilmenge von Symbolen gehören. Das erste Symbol kann eine Auftrittswahrscheinlichkeit aufweisen, die größer ist als die des zweiten Symbols. Ein Kontakt durch einen Benutzer mit der Anzeigevorrichtung kann detektiert werden, der zu einer Auswahl des entsprechenden Icons korrespondiert (1134). Ein Symbol aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt weiterhin korrespondiert, kann bestimmt werden (1136).
  • 11C ist ein Flussdiagramm einer Ausführungsform eines Symboleingabeprozesses 1150. Während der im Folgenden beschriebene Symboleingabeprozess 1150 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1150 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1152). Ein entsprechendes Icon kann zu zwei oder mehreren Symbolen korrespondieren. Ein erstes Symbol kann zu einer ersten Teilmenge von Symbolen und ein zweites Symbol kann zu einer zweiten Teilmenge von Symbolen gehören. Das zweite Symbol kann eine Auftrittswahrscheinlichkeit dafür aufweisen, dass es unmittelbar dem ersten Symbol folgt, die unterhalb eines vorbestimmten Wertes liegt. Es kann ein Kontakt des Benutzers mit der Anzeigevorrichtung detektiert werden, der zur Auswahl des entsprechenden Icons korrespondiert (1154). Ein Symbol aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt weiterhin korrespondiert, kann bestimmt werden (1156).
  • Die 12A bis 12G sind schematische Diagramme, die Ausführungsformen einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 1200 illustrieren. Diese Ausführungsformen können den Symboleingabeprozess 1100 (11A), 1130 (11B) und/oder 1150 (11C), wie oben beschrieben, verwenden. Wie in 12A gezeigt, kann die Vorrichtung 1200 eine Tastatur 1210 mit einer Mehrzahl von Icons aufweisen. Ein entsprechendes Icon kann zwei oder mehrere Symbole enthalten. Ein erstes Symbol für ein entsprechendes Icon kann durch den Benutzer unter Verwendung einer ersten Geste ausgewählt werden. Ein zweites Symbol für ein entsprechendes Icon kann durch den Benutzer unter Verwendung einer zweiten Geste ausgewählt werden. Die erste Geste kann einen kontinuierlichen Kontakt mit der Anzeige 208 aufweisen und die zweite Geste kann einen diskontinuierlichen Kontakt mit der Anzeigevorrichtung 208 aufweisen.
  • Der kontinuierliche Kontakt kann eine Zieh- und/oder eine Rollbewegung des Kontakts umfassen. Der diskontinuierliche Kontakt kann ein einfaches oder mehrfaches aufeinanderfolgendes Tippen umfassen. Ein entsprechendes Tippen kann jeweils einen Kontakt mit der Anzeigevorrichtung 208 für ein Zeitintervall umfassen, das kürzer ist als ein vierter vorbestimmter Wert, wie z. B. 0,1, 0,5 oder 1 s. In einigen Ausführungsformen kann ein zwei- oder mehrfaches aufeinanderfolgendes Tippen zu einem zweiten Symbol korrespondieren, wenn ein Zeitintervall zwischen den zwei oder mehreren aufeinanderfolgenden Tippereignissen unterhalb eines fünften vorbestimmten Wertes, wie zum Beispiel 0,1, 0,5, oder 1 s liegt.
  • In einigen Ausführungsformen gehört das erste Symbol zu einer ersten Teilmenge der Symbole aus dem auf der Tastatur 210 angezeigten Zeichensatz und das zweite Symbol stammt aus einer zweiten Teilmenge von Symbolen aus dem auf der Tastatur 210 angezeigten Zeichensatz. Die erste Teilmenge kann eine Auftrittswahrscheinlichkeit aufweisen, die höher ist als ein sechster vorbestimmter Wert und die zweite Teilmenge kann eine Auftrittswahrscheinlichkeit aufweisen, die unterhalb des sechsten vorbestimmten Wertes liegt. Entsprechend kann die erste Teilmenge Symbole enthalten, die zum Beispiel in einer Sprache (unter Verwendung eines Lexikographiemodells) und/oder gemäß einer Benutzervorgeschichte häufiger auftreten. Die zur Auswahl des ersten Symbols verwendete Geste kann daher für den Benutzer einfacher oder schneller auszuführen sein. Beispielsweise kann die erste Geste eine Tippgeste sein und die zweite Geste kann eine Ziehbewegung sein. Dieses ist in 12A dargestellt. Die Gesten, die zur Auswahl von korrespondierenden Symbolen für ein entsprechendes Icon benötigt werden, können auf dem Icon angezeigt sein. Zum Beispiel kann ein Punkt auf dem Icon zu einem Tippen und eine horizontale Linie auf denn Icon zu einem Strich korrespondieren. Diese „Tipp-Strich"-Ausführungsform ist ein Beispiel für eine Zwei-Gesten-Tastatur. Zusätzliche Beispiele werden im Folgenden erläutert.
  • In einigen Ausführungsformen kann das erste Symbol eine Auftrittwahrscheinlichkeit für ein Auftreten unmittelbar nachdem zweiten Symbol aufweisen, die unterhalb eines siebten vorbestimmten Wertes liegt. In einigen Ausführungsformen kann das erste Symbol eine Auftrittswahrscheinlichkeit dafür aufweisen, dass es unmittelbar nachdem ersten Symbol folgt, die unterhalb eines siebten vorbestimmten Wertes liegt. Diese Anordnung oder Gruppierung der auf den Icons angezeigten Symbole kann bei der Verwendung der Tastatur 1210 Fehler reduzieren, da es weniger wahrscheinlich wird, dass der Benutzer eine erste Geste für das zu einem entsprechenden Icon korrespondierende Symbol und anschließend eine zweite Geste für das zu dem entsprechenden Icon korrespondierende erste Symbol (oder andersherum) ausführt.
  • Die Gesten für verschiedene Symbole auf dem entsprechenden Icon können daher durch ein Zeitintervall getrennt sein, dass groß genug ist, um die Wahrscheinlichkeit für ein unbeabsichtigtes Auswählen eines entsprechenden Symbols bei der Verwendung aufeinanderfolgender Gesten für zu dem entsprechenden Icon korrespondierende Symbole zu reduzieren.
  • Die 12B bis 12G illustrieren zusätzliche Mehrfach-Gesten-Tastaturen. Für die Icons in den Tastaturen 1212, 1214, 1216, 1218, 1220 und 1222 kann ein erstes Symbol für ein entsprechendes Icon auf diesen Tastaturen durch eine erste Geste (z. B. ein einfaches Tippen) ausgewählt werden und ein zweites Symbol für das entsprechende Icon kann durch eine zweite Geste (z. B. ein zweifaches aufeinander folgendes Tippen) ausgewählt werden. Die Tastatur 1222 in 12G weist einige Icons auf, die zu mehr als zwei Symbolen korrespondieren. Diese Symbole können ausgewählt werden, indem zusätzliche Gesten, wie zum Beispiel ein dreifaches Tippen ausgeführt werden. In einigen Ausführungsformen kann ein zweites oder ein drittes Symbol für das entsprechende Icon durch den Benutzer ausgewählt werden, indem man zunächst eine Metataste, wie z. B. eine Umschalttaste auswählt und dann einen Kontakt mit dem entsprechenden Icon herstellt und/oder diesen unterbricht.
  • Während die Vorrichtung 1200 mit bestimmten Komponenten und einer bestimmten Anordnung dieser Komponente illustriert wurde, versteht es sich, dass weniger oder zusätzliche Komponenten vorgesehen sein können, dass zwei oder mehrere Komponenten kombiniert werden können und dass Positionen von einer oder mehreren Komponenten geändert werden können. Zum Beispiel können die Tastaturen 1210, 1212, 1214, 1216, 1218, 1220 und/oder 1222 weniger oder zusätzliche Icons aufweisen. In einigen Ausführungsformen kann ein unterschiedlicher Zeichensatz und/oder unterschiedliche Gruppen von Symbolen auf den Icons auf den Tastaturen 1210, 1212, 1214, 1216, 1218, 1220 und/oder 1222 verwendet werden.
  • In einigen Ausführungsformen wählt der Benutzer Symbole aus, indem er einen Kontakt mit einem oder mehreren Icons auf der Anzeigevorrichtung 1208 unterbricht. In anderen Ausführungsformen jedoch kann der Benutzer ein oder mehrere Symbole auswählen, ohne den Kontakt mit der Anzeigevorrichtung 1208 zu unterbrechen. Zum Beispiel kann der Benutzer pausieren oder einen Kontakt über dem entsprechenden Icon für eine Zeitspanne die länger ist als ein achter vorbestimmter Wert (wie z. B. 0,1, 0,5 oder 1 s) aufrechterhalten, bevor er mit dem nächsten Icon und dem dazu korrespondierenden Symbol fortfährt. In dem Prozess kann der Benutzer einen Kontakt mit der Anzeigevorrichtung aufrechterhalten. In anderen Ausführungsformen kann die Auswahl des entsprechenden Icons und des korrespondierenden Symbols durch Erhöhung des Kontaktdrucks mit der Anzeigevorrichtung 208 erfolgen, während der Kontakt mit der Anzeigevorrichtung aufrechterhalten wird.
  • In 13 ist ein Flussdiagramm eines Symboleingabeprozesses 1300 gezeigt, der zu Ausführungsformen korrespondiert, bei denen ein Kontakt nicht unterbrochen wird. Während der im Folgenden beschriebenen Symboleingabeprozess 1300 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1300 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (zum Beispiel unter Verwendung eines Parallelprozessors oder einer multi-threading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen verändert werden kann und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1310). Ein entsprechendes Icon kann zu wenigstens einem Symbol korrespondieren. Ein Kontakt durch einen Benutzer mit der Anzei gevorrichtung kann detektiert werden (1312). Die zu einer Folge von Icons korrespondierenden Positionen des Kontakts können festgestellt werden (1314). Das wenigstens eine Symbol kann ausgewählt werden, wenn eine entsprechende Position des Kontakts für ein einen vorbestimmten Wert überschreitendes Zeitintervall zu dem entsprechenden Icon korrespondiert (1316).
  • Wie oben erläutert kann ein Benutzer bei der Verwendung eines Berührungsbildschirms im Anzeigesystem 112 (1) Fehler machen. Die Vorrichtung 100 (1) kann daher einen Versatz zwischen einem geschätzten Kontakt und einem tatsächlichen Kontakt, entsprechend solcher Fehler ausgleichen. Ein Benutzer kann eine Rückmeldung abgeben, indem er ein zu einer Löschtaste korrespondierendes Icon aktiviert. Der Versatz kann auf ein oder mehrere Icons angewendet werden. In einigen Ausführungsformen kann mehr als ein Versatz auftreten und ein entsprechender Versatz kann auf eine entsprechende Teilmenge angewendet werden, die ein oder mehrere Icons aus einer Mehrzahl der Icons auf einer Tastatur oder einer anderen Benutzerschnittstelle aufweist. Das Ausgleichen kann fortlaufend, nach einem vorbestimmten Zeitintervall und/oder wenn eine überhöhte Anzahl von Benutzerfehlern auftritt (wie z. B. durch eine Frequenz der Verwendung des Löschicons angezeigt) erfolgen. Anstatt dass ein Benutzer einen separaten Tastaturtrainings-/Anpassungsmodus implementieren muss, erfolgt das Ausgleichen besser während des normalen Betriebsmodus der Vorrichtung 100 (1).
  • In 14 ist ein Flussdiagramm eines Symboleingabeprozesses 1400 gezeigt, der zu solchen Ausführungsformen korrespondiert. Während der unten beschriebene Symboleingabeprozess 1400 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1400 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multithreading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert werden kann und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1410). Ein entsprechendes Icon kann zu wenigstens einem Symbol korrespondieren. Ein Kontakt durch einen Benutzer mit der Anzeigevorrichtung kann detektiert werden (1412). Ein geschätzter, zu dem entsprechenden Icon und dem wenigstens einen Symbol korrespondierender Kontakt kann im Einklang mit dem tatsächlichen Kontakt und denn vorbestimmten Versatz bestimmt werden (1414). Eine oder mehrere Korrekturen für einen oder mehrere Fehler bei einem oder mehreren der ausgewählten Symbole können empfangen werden (1416). Der Versatz für wenigstens das entsprechende Icon kann gemäß der einen oder den mehreren empfangenen Korrekturen modifiziert werden (1418).
  • 15 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 1500 illustriert. Die Vorrichtung 1500 weist eine Tastatur 1510 mit einer Mehrzahl von Icons auf. Zwischen den Icons sind unterschiedliche Zwischenräume ("Schutzbänder") vorgesehen. Die Schutzbänder zwischen den Icons regen den Benutzer an, den Mittelpunkt eines angrenzenden Icons zu berühren, wenngleich ein Benutzerkontakt im Bereich des Schutzbandes ebenso das dem Kontakt am nächsten gelegene Icon aktivieren kann. In einigen Ausführungsformen können Icons in der Nähe der Mitte der Anzeigevorrichtung 208 ein kleineres Schutzband zwischen benachbarten Icons aufweisen, als Icons in der Nähe einer Kante der Vorrichtung. Damit können Fehler bei der Verwendung der Anzeigevorrichtung 208 reduziert werden, wenn es für einen Benutzer leichter ist, ein entsprechendes Icon in der Nähe der Mitte der Anzeigevorrichtung 208 auszuwählen oder zu kontaktieren. Umgekehrt können in einigen Ausführungsformen (im Gegensatz zu der Darstellung in 15) Icons in der Nähe der Mitte der Anzeigevorrichtung 208 größere Schutzbänder zwischen benachbarten Icons aufweisen als Icons in der Nähe einer Kante der Anzeigevorrichtung. Dadurch können Fehler bei der Verwendung der Anzeigevorrichtung 208 reduziert werden, wenn es für einen Benutzer einfacher ist, ein entsprechendes Icon in der Nähe der Kante der Anzeigevorrichtung 208 auszuwählen oder zu kontaktieren. In einigen Ausführungsformen kann das Schutzband in der Nähe der Kante der Anzeigevorrichtung 208 kleiner sein als in der Nähe der Mitte der Anzeigevorrichtung 208. In einigen Ausführungsformen können Icons in der Nähe der Mitte der Anzeigevorrichtung 208 größer sein als Icons in der Nähe der Kante der Anzeigevorrichtung 208. In einigen Ausführungsformen sind Icons an der Kante der Anzeigevorrichtung etwa halb so groß wie die anderen Icons, da es einfacher ist, Kontakte, die zu Kantenicons korrespondieren, zu identifizieren.
  • In einigen Ausführungsformen könnte die Größe der Icons oder die Größe der Schutzbänder zwischen Icons schrittweise zwischen der Kante der Anzeigevorrichtung und der Mitte der Anzeigevorrichtung variieren (z. B. von kleinen Icons an der Kante zu großen Icons in der Mitte oder von kleinen Schutzbändern an der Kante zu großen Schutzbändern in der Mitte).
  • In 16 ist ein Flussdiagramm eines Symboleingabeprozesses 1600 gezeigt, der zu solchen Ausführungsformen korrespondiert. Während der im Folgenden beschriebene Symboleingabeprozess 1600 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1600 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multi-threading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert werden kann und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1610). Die Mehrzahl von Icons kann in einer ersten Dimension der Anzeigevorrichtung in Zeilen angeordnet sein. Ein erstes Schutzband entlang der ersten Dimension zwischen benachbarten Icons aus einer ersten Teil menge der Icons kann größer sein als ein vorbestimmter Wert und ein zweites Schutzband entlang der ersten Dimension zwischen benachbarten Icons aus einer zweiten Teilmenge der Icons kann kleiner sein als ein vordefinierter Wert. Ein zu einer Auswahl des entsprechenden Icons korrespondierender Kontakt mit der Anzeigevorrichtung kann detektiert werden (1612). Ein zu dem entsprechenden Icon korrespondierendes Symbol kann angezeigt werden (1614).
  • 17 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 1700 illustriert. Die Vorrichtung 1700 weist eine Tastatur 1710 mit einer Mehrzahl von Icons auf. Ein entsprechendes Icon korrespondiert zu zwei oder mehreren Symbolen. Einige Symbole können ausgewählt werden, indem zwei oder mehrere Icons gleichzeitig kontaktiert werden. Ein entsprechendes ausgewähltes Symbol kann in dem Anzeigekasten 214 angezeigt werden. Zum Beispiel kann ein Buchstabe ,e' ausgewählt werden, indem ein Kontakt mit dem ersten Icon in der ersten Zeile hergestellt und unterbrochen wird. Ein Buchstabe ‚I' kann ausgewählt werden, indem ein Kontakt mit dem ersten und dem zweiten Icon in der ersten Zeile hergestellt und unterbrochen wird. Die Icons können visuelle Informationen enthalten, die die Kombinationen von Kontakten mit Icons (auch als Akkorde bezeichnet) anzeigen, die zu gegebenen Symbolen korrespondieren. Die Tastatur 1710 wird manchmal als eine Himmel-und-Hölle Tastatur bezeichnet.
  • In 18 ist ein Flussdiagramm eines Symboleingabeprozesses 1800 gezeigt, der zu solchen Ausführungsformen korrespondiert. Während der unten beschriebene Symboleingabeprozess 1800 eine Anzahl von Operationen aufweist, die scheinbar in einer speziellen Reihenfolge auftreten, sollte es offensichtlich sein, dass der Prozess 1800 zusätzliche oder weniger Operationen aufweisen kann, die seriell oder parallel (z. B. unter Verwendung paralleler Prozessoren oder einer multithreading Umgebung) ausgeführt werden können, dass eine Reihenfolge von zwei oder mehreren Operationen geändert werden kann und/oder dass zwei oder mehrere Operationen zu einer einzigen Operation kombiniert werden können.
  • Auf einer berührungsempfindlichen Anzeigevorrichtung kann eine Mehrzahl von Icons angezeigt werden (1810). Ein erstes und ein zweites Icon korrespondieren jeweils zu zwei oder mehreren Symbolen. Es wird ein Kontakt durch einen Benutzer mit einer berührungsempfindlichen Anzeigevorrichtung detektiert, der zu dem ersten Icon und dem zweiten Icon korrespondiert (1812). Ein entsprechendes Symbol aus der Menge der zwei oder mehreren Symbolen, zu denen der Kontakt korrespondiert, kann bestimmt werden (1814). Es wird eine zu dem entsprechenden Symbol korrespondierende visuelle Anzeige angezeigt (1816).
  • 19 ist ein schematisches Diagramm, das eine Ausführungsform einer Benutzerschnittstelle für eine tragbare elektronische Vorrichtung 1900 illustriert. Eine Tastatur 1910 enthält keine fixierten Icons. Stattdessen werden Symbole angezeigt. Eine Gruppe der nächsten Symbole, wie z. B. drei Buchstaben in einem Bereich 1912, werden entsprechend einem Benutzerkontakt mit der Anzeigevorrichtung 208 ausgewählt. In anderen Ausführungsformen kann der Bereich 1912 zwei oder mehrere Symbole oder Zeichen enthalten. Ein korrekter Satz von Symbolen kann unter Verwendung eines Lexikographiemodels oder -systems, wie z. B. dem in 10A gezeigten, in Übereinstimmung mit einer Folge von Symbolgruppen, die zu einer Folge von Kontakten durch den Benutzer korrespondiert, bestimmt werden. Beim Auftreten mehrerer Kontakte kann ein Baum aus möglichen Worten oder Sätzen von Symbolen, die zu den Gruppen von ausgewählten Symbolen korrespondieren, zurückgehalten werden, bis ein korrektes Wort oder Satz von Symbolen oder ein Wort oder Satz von Symbolen mit höchster Wahrscheinlichkeit bestimmt ist.
  • In anderen nicht gezeigten Ausführungsformen kann ein Benutzer ein Spiel spielen, dass verwendet wird, um eine kleinste akzeptable Tastengröße für eine Benutzerschnittstelle, wie z. B. eine Tastatur zu bestimmen. Die kleinste Tastengröße kann sich an die Fingerfertigkeit, das Alter, die Gesundheit, die Fingergröße und die Sehfähigkeit eines Benutzers anlehnen. Während des Spiels gemachte Fehler bei der Verwendung der Icons in einer Tastatur können helfen, eine minimale Icongröße für den Benutzer zu bestimmen.
  • In einigen Ausführungsformen können Icons in den Ausführungsformen der Benutzerschnittstellen, wie z. B. den oben beschriebenen Tastaturen einen effektiven Kontaktbereich oder eine Trefffläche aufweisen, die größer ist als die angezeigte Icongröße. In anderen Ausführungsformen kann der effektive Kontaktbereich oder die Trefffläche in wenigstens einer Dimension der Oberfläche der Anzeigevorrichtung 208 größer sein als die angezeigte Icongröße.
  • Die vorangehenden Beschreibungen spezieller Ausführungsformen der vorliegenden Erfindung werden zum Zwecke der Illustration und Beschreibung präsentiert. Sie sind nicht beabsichtigt, erschöpfend zu sein, oder die Erfindung auf die genauen offenbarten Formen zu limitieren. Es ist eher zu beachten, dass viele Modifikationen und Variationen angesichts der oben genannten Lehre möglich sind. Die Ausführungsformen wurden ausgewählt und beschrieben, um bestmöglich die Prinzipien der Erfindung und ihre praktischen Anwendungen zu beschreiben, und so andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsformen mit verschiedenen der jeweiligen vorgesehenen Verwendung angepassten Modifikationen bestmöglich zu verwenden.
  • ZUSAMMENFASSUNG
  • Eine Mehrzahl von Icons wird auf einer berührungsempfindlichen Anzeigevorrichtung angezeigt. Ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons korrespondiert zu zwei oder mehreren Symbolen. Es wird ein Kontakt durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung detektiert, der zu dem entsprechenden Icon korrespondiert. Ein entsprechendes Symbol aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt weiterhin korrespondiert, wird bestimmt. Das angezeigte entsprechende Icon wird modifiziert, um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6323846 [0086]
    • - US 6570557 [0086]
    • - US 6677932 [0086]
    • - US 2002/0015024 A1 [0086]

Claims (24)

  1. Verfahren, umfassend: Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu einem oder mehreren Symbolen korrespondiert; Detektieren eines Kontakts durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu denn entsprechenden Icon korrespondiert; Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbolen, zu denen der Kontakt weiterhin korrespondiert; und Modifizieren des angezeigten entsprechenden Icons um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  2. Verfahren nach Anspruch 1, weiterhin umfassend das Auswählen des entsprechenden Symbols, wenn der Benutzer den Kontakt mit dem entsprechenden Icon unterbricht.
  3. Verfahren nach Anspruch 1, weiterhin aufweisend ein Vergrößern des entsprechenden Symbols, wenn der Kontakt für ein Zeitintervall aufrechterhalten wird, das einen vordefinierten Wert überschreitet.
  4. Verfahren nach Anspruch 1, wobei die Modifikation eine Veränderung einer Form des entsprechenden Icons umfasst.
  5. Verfahren nach Anspruch 4, wobei das Verändern der Form eine asymmetrische Verformung der Form umfasst.
  6. Verfahren nach Anspruch 4, weiterhin aufweisend das Anzeigen des entsprechenden Symbols in einen Bereich innerhalb der Form des entsprechenden Icons und außerhalb eines zu dem Kontakt korrespondierenden Bereichs.
  7. Verfahren nach Anspruch 1, wobei das Detektieren ein Detektieren eines Rollens eines Fingers über einem zu dem entsprechenden Symbol korrespondierenden Bereich umfasst.
  8. Verfahren nach Anspruch 1, wobei die zwei oder mehreren Symbole für das entsprechende Icon entsprechend einem Lexikographie-Modell bestimmt werden.
  9. Verfahren nach Anspruch 8, wobei das Lexikographie-Modell zu einer Benutzerverwendungs-Vorgeschichte korrespondiert und wobei die Benutzerverwendungs-Vorgeschichte vor der Herstellung des Kontakts auftritt.
  10. Verfahren nach Anspruch 8, wobei das Lexikographie-Modell zu einer Verwendungsfrequenz von Symbolen in einer Sprache korrespondiert.
  11. Verfahren nach Anspruch 1, wobei eine Ausgangsform des entsprechenden Icons einen Bogen umfasst.
  12. Verfahren nach Anspruch 1, weiterhin aufweisend das Bereitstellen einer zu dem entsprechenden Symbol korrespondierenden visuellen Anzeige.
  13. Verfahren nach Anspruch 12, wobei die visuelle Anzeige eine visuelle Beleuchtung in der Umgebung des entsprechenden Icons umfasst.
  14. Verfahren nach Anspruch 13, wobei die visuelle Beleuchtung ein Band um wenigstens einen Teil des entsprechenden Icons umfasst.
  15. Verfahren nach Anspruch 12, wobei die visuelle Anzeige gemäß einer Benutzerverwendungs-Vorgeschichte erfolgt, die vor dem Detektieren des Kontakts auftritt.
  16. Verfahren nach Anspruch 1, wobei der Kontakt eine Geste aufweist, die aus der Gruppe ausgewählt ist, die aus einfachem oder mehrfachem Tippen, einer Ziehbewegung und einem Rollen eines Fingers besteht.
  17. Computerprogrammprodukt zur Verwendung in Verbindung mit einer Vorrichtung, wobei das Computerprogrammprodukt ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus aufweist, und wobei der Computerprogrammmechanismus Anweisungen enthält zum: Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu zwei oder mehreren Symbolen korrespondiert; Detektieren eines Kontakts durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu dem entsprechenden Icon korrespondiert; Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt weiterhin korrespondiert; und Modifizieren des angezeigten entsprechenden Icons um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  18. Grafische Benutzerschnittstelle, aufweisend: eine Mehrzahl von auf einer berührungsempfindlichen Anzeigevorrichtung angezeigten Icons, wobei ein entsprechendes Icon aus mindestens einer Teilmenge der Mehrzahl von Icons zwei oder mehrere Symbole enthält; und das entsprechende Icon eine im Vergleich zu anderen Icons aus der Mehrzahl der Icons modifizierte Form aufweist, wobei die modifizierte Form zu einem entsprechenden Symbol aus der Menge der zwei oder mehreren Symbole korrespondiert, und wobei die Form modifiziert wird, wenn durch einen Benutzer ein Kontakt mit der berührungsempfindlichen Anzeigevorrichtung, der zu dem entsprechenden Icon und dem entsprechenden Symbol korrespondiert, hergestellt wird.
  19. Tragbare elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Anzeigevorrichtung; einen oder mehrere Prozessoren; Speicher; und ein Programm, wobei das Programm im Speicher abgelegt und konfiguriert ist, um auf dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das Programm enthält: Anweisungen zum Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu zwei oder mehreren Symbolen korrespondiert; Anweisungen zum Detektieren eines Kontakts durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu dem entsprechenden Icon korrespondiert; Anweisungen zum Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbole, zu dem der Kontakt korrespondiert; und Anweisungen zum Modifizieren des angezeigten entsprechenden Icons um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  20. Tragbare elektronische Vorrichtung, aufweisend: Berührungsempfindliche Anzeigemittel; ein oder mehrere Prozessormittel; Speichermittel; und einem Programmmechanismus, wobei der Programmmechanismus in den Speichermitteln abgelegt und konfiguriert ist, um auf dem einen oder den mehreren Prozessormitteln abzulaufen, wobei der Programmmechanismus enthält: Anweisungen zum Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu zwei oder mehreren Symbolen korrespondiert; Anweisungen zum Detektieren eines Kontakts durch einen Benutzer mit einer berührungsempfindlichen Anzeigevorrichtung, der zu dem entsprechenden Icon korrespondiert; Anweisungen zum Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbole, zu denen der Kontakt korrespondiert; und Anweisungen zum Modifizieren des angezeigten entsprechenden Icons um anzuzeigen, dass der Kontakt zu dem entsprechenden Symbol korrespondiert.
  21. Tragbare elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Anzeigevorrichtung; einen oder mehre Prozessoren; Speicher; und ein Programm, wobei das Programm in dem Speicher abgelegt und konfiguriert ist, um durch den einen oder durch die mehreren Prozessoren ausgeführt zu werden, wobei das Programm enthält: Anweisungen zum Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei zwei oder mehrere Teilmengen der Mehrzahl von Icons in korrespondierenden Zeilen auf der berührungsempfindlichen Anzeigevorrichtung angeordnet sind, und wobei zwischen benachbarten Zeilen ein Zwischenraum vorgesehen ist, der größer ist als ein vorbestimmter Wert. Anweisungen zum Detektieren eines Kontakts durch einen Benutzer mit einer berührungsempfindlichen Anzeigevorrichtung, der zu dem entsprechenden Icon korrespondiert; und Anweisungen zum Anzeigen eines zu dem entsprechenden Icon korrespondierenden Symbols in dem Zwischenraum zwischen einer entsprechenden zu dem entsprechenden Icon korrespondierenden Zeile und einer benachbarten Zeile während der Kontakt aufrecht erhalten wird.
  22. Tragbare elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Anzeigevorrichtung; einen oder mehrere Prozessoren; Speicher; und ein Programm, wobei das Programm in dem Speicher abgelegt und konfiguriert ist, um durch den einen oder durch die mehreren Prozessoren ausgeführt zu werden, wobei das Programm enthält: Anweisungen zu Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus der Mehrzahl von Icons zu wenigstens einem Symbol korrespondiert; Anweisungen zum Anzeigen eines oder mehrerer vorgeschlagener Worte, wobei das eine oder die mehreren vorgeschlagenen Worte im Einklang mit einer Benutzervorgeschichte stehen, und wobei das eine oder die mehreren vorgeschlagenen Worte angezeigt werden, bevor jegliche Kontakte durch einen Benutzer, die zu einer Symbolauswahl durch den Benutzer in einer aktuellen Applikationssitzung korrespondieren, detektiert werden; Anweisungen zum Detektieren eines Kontakts durch den Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, wobei der Kontakt eine Geste aufweist; und Anweisungen zum Auswählen eines entsprechenden vorgeschlagenen Wortes, das zu der entsprechenden Geste korrespondiert.
  23. Tragbare elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Anzeigevorrichtung; einen oder mehrere Prozessoren; Speicher; und ein Programm, wobei das Programm in dem Speicher abgelegt und konfiguriert ist, um durch den einen oder durch die mehreren Prozessoren ausgeführt zu werden; wobei das Programm enthält: Anweisungen zum Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu zwei oder mehreren Symbolen korrespondiert; Anweisungen zum Detektieren eines Kontakts durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu einer Auswahl des entsprechenden Icons korrespondiert; wobei der Kontakt eine entsprechende Geste umfasst; und Anweisungen zum Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbole für das entsprechende Icon, zu denn der Kontakt weiterhin korrespondiert, wobei das entsprechende Symbol ein erstes Symbol aus der Menge der zwei oder mehreren Symbole ist, wenn die entsprechende Geste einen kontinuierlichen Kontakt umfasst, und wobei das entsprechende Symbol ein zweites Symbol aus der Menge der zwei oder mehreren Symbole ist, wenn die entsprechende Geste einen diskontinuierlichen Kontakt umfasst.
  24. Tragbare elektronische Vorrichtung, aufweisend: eine berührungsempfindliche Anzeigevorrichtung; einen oder mehrere Prozessoren; Speicher; und ein Programm, wobei das Programm in dem Speicher abgelegt und konfiguriert ist, um durch den einen oder durch die mehreren Prozessoren ausgeführt zu werden, wobei das Programm enthält: Anweisungen zum Anzeigen einer Mehrzahl von Icons auf einer berührungsempfindlichen Anzeigevorrichtung, wobei ein entsprechendes Icon aus wenigstens einer Teilmenge der Mehrzahl von Icons zu zwei oder mehreren Symbolen korrespondiert, wobei ein erstes Symbol aus der Menge der zwei oder mehreren Symbole zu einer ersten Teilmenge von Symbolen gehört, und wobei ein zweites Symbol aus der Menge der zwei oder mehreren Symbolen zu einer zweiten Teilmenge von Symbolen gehört, und wobei das erste Symbol eine Auftrittswahrscheinlichkeit hat, die größer ist ein erster vorbestimmter Wert, und wobei das zweite Symbol eine Auftrittswahrscheinlichkeit aufweist, die geringer ist als der erste vorbestimmte Wert; Anweisungen zum Detektieren eines Kontaktes durch einen Benutzer mit der berührungsempfindlichen Anzeigevorrichtung, der zu einer Auswahl des entsprechenden Icons korrespondiert, wobei der Kontakt eine entsprechende Geste umfasst; und Anweisungen zum Bestimmen eines entsprechenden Symbols aus der Menge der zwei oder mehreren Symbolen für das entsprechende Icon, zu dem der Kontakt weiterhin korrespondiert.
DE112007000122T 2006-01-05 2007-01-04 Tastaturen für tragbare elektronische Vorrichtungen Ceased DE112007000122T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US75689006P 2006-01-05 2006-01-05
US60/756,890 2006-01-05
US11/459,606 US7694231B2 (en) 2006-01-05 2006-07-24 Keyboards for portable electronic devices
US11/459,606 2006-07-24
PCT/US2007/060119 WO2007082139A2 (en) 2006-01-05 2007-01-04 Keyboards for portable electronic devices

Publications (1)

Publication Number Publication Date
DE112007000122T5 true DE112007000122T5 (de) 2009-01-29

Family

ID=37964578

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007000122T Ceased DE112007000122T5 (de) 2006-01-05 2007-01-04 Tastaturen für tragbare elektronische Vorrichtungen

Country Status (6)

Country Link
US (5) US7694231B2 (de)
EP (1) EP1969453A2 (de)
JP (1) JP4981066B2 (de)
KR (1) KR101110501B1 (de)
DE (1) DE112007000122T5 (de)
WO (1) WO2007082139A2 (de)

Families Citing this family (451)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US20060232565A1 (en) * 2005-04-11 2006-10-19 Drevnig Arthur L Electronic media reader that splits into two pieces
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
KR100823083B1 (ko) * 2006-02-09 2008-04-18 삼성전자주식회사 터치스크린을 구비한 문서 표시장치의 문서 교정 방법 및그 장치
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8325356B2 (en) * 2006-07-31 2012-12-04 Fujifilm North America Corporation Method of sending a photograph electronically from a self-service digital photograph processing station to a remote printing facility
US8014760B2 (en) 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US20080055263A1 (en) * 2006-09-06 2008-03-06 Lemay Stephen O Incoming Telephone Call Management for a Portable Multifunction Device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
EP2067154B1 (de) 2006-09-25 2015-02-25 BlackBerry Limited Navigationsschlüssel für ein in der hand gehaltenes elektronisches gerät
US7793228B2 (en) * 2006-10-13 2010-09-07 Apple Inc. Method, system, and graphical user interface for text entry with partial word display
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8090087B2 (en) * 2006-10-26 2012-01-03 Apple Inc. Method, system, and graphical user interface for making conference calls
US8006190B2 (en) 2006-10-31 2011-08-23 Yahoo! Inc. Social namespace addressing for non-unique identifiers
KR20090098967A (ko) * 2006-11-08 2009-09-18 큐빅 디자인 스튜디오스 엘엘씨 비대칭 섞임 키보드
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7957955B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Method and system for providing word recommendations for text input
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US8144129B2 (en) * 2007-01-05 2012-03-27 Apple Inc. Flexible touch sensing circuits
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US7975242B2 (en) 2007-01-07 2011-07-05 Apple Inc. Portable multifunction device, method, and graphical user interface for conference calling
US8451232B2 (en) 2007-01-07 2013-05-28 Apple Inc. Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US9164037B2 (en) * 2007-01-26 2015-10-20 Palo Alto Research Center Incorporated Method and system for evaluation of signals received from spatially modulated excitation and emission to accurately determine particle positions and distances
US8821799B2 (en) * 2007-01-26 2014-09-02 Palo Alto Research Center Incorporated Method and system implementing spatially modulated excitation or emission for particle characterization with enhanced sensitivity
US8599801B2 (en) * 2007-02-01 2013-12-03 Yahoo! Inc. Collecting implicit information for determining context of event actions
KR100896711B1 (ko) 2007-02-08 2009-05-11 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 탭을 통한 기능 실행방법
US8370349B2 (en) * 2007-02-28 2013-02-05 Yahoo! Inc. Instant contact searching and presentation by category
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9423996B2 (en) * 2007-05-03 2016-08-23 Ian Cummings Vehicle navigation user interface customization methods
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US9043725B2 (en) * 2007-07-27 2015-05-26 Sony Corporation User interface with enlarged icon display of key function
KR101339499B1 (ko) * 2007-08-16 2013-12-10 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 제어방법
US20090051661A1 (en) * 2007-08-22 2009-02-26 Nokia Corporation Method, Apparatus and Computer Program Product for Providing Automatic Positioning of Text on Touch Display Devices
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
WO2009036293A1 (en) * 2007-09-12 2009-03-19 Macfarlane Scott S Highly compact keyboards
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US20090079702A1 (en) * 2007-09-25 2009-03-26 Nokia Corporation Method, Apparatus and Computer Program Product for Providing an Adaptive Keypad on Touch Display Devices
JP5207699B2 (ja) * 2007-09-28 2013-06-12 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
CN101174190B (zh) * 2007-09-30 2013-06-12 上海触乐信息科技有限公司 电子设备屏幕上实现复合按键的软件键盘输入的方法
KR101422837B1 (ko) 2007-10-02 2014-08-13 엘지전자 주식회사 터치스크린 장치 및 이의 문자 입력 방법
US8631358B2 (en) 2007-10-10 2014-01-14 Apple Inc. Variable device graphical user interface
US20090102818A1 (en) * 2007-10-22 2009-04-23 Motorola, Inc. Method and device for error-free keypad input
KR20090054831A (ko) * 2007-11-27 2009-06-01 삼성전자주식회사 문자 입력방법 및 이를 적용한 전자장치
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
EP2077486A1 (de) 2007-12-28 2009-07-08 Research In Motion Limited Tastennavigationsauswahl und Verfahren auf einer mobilen Vorrichtung
US8863037B2 (en) * 2007-12-28 2014-10-14 Blackberry Limited Keypad navigation selection and method on mobile device
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8232973B2 (en) * 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
EP2085865A1 (de) 2008-01-30 2009-08-05 Research In Motion Limited Elektronische Vorrichtung und Steuerverfahren dafür
US8629981B2 (en) * 2008-02-01 2014-01-14 Palo Alto Research Center Incorporated Analyzers with time variation based on color-coded spatial modulation
US9092134B2 (en) * 2008-02-04 2015-07-28 Nokia Technologies Oy User touch display interface providing an expanded selection area for a user selectable object
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8205157B2 (en) * 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
TW200941293A (en) * 2008-03-20 2009-10-01 E Ten Information Sys Co Ltd Virtual key input method and its applications
KR100900087B1 (ko) * 2008-03-31 2009-06-01 박병진 터치스크린을 이용한 버튼 확장형 문자 입력 방법
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
TW200945171A (en) * 2008-04-25 2009-11-01 Htc Corp Operation method of user interface and computer readable and accessable medium and portable device
US20110010622A1 (en) * 2008-04-29 2011-01-13 Chee Keat Fong Touch Activated Display Data Entry
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
US8504946B2 (en) * 2008-06-27 2013-08-06 Apple Inc. Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document
US20100008031A1 (en) * 2008-07-08 2010-01-14 Emblaze Mobile Ltd Ergonomic handheld device
KR101070943B1 (ko) * 2008-07-10 2011-10-06 삼성메디슨 주식회사 화상키보드를 포함하는 초음파 시스템 및 그의 화상키보드제어 방법
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
JP4752887B2 (ja) 2008-09-12 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
TW201013431A (en) * 2008-09-17 2010-04-01 Mitac Int Corp Local search method, local search system, program product, portable miniature electronic device, and input interface
US20100066764A1 (en) * 2008-09-18 2010-03-18 Microsoft Corporation Selective character magnification on touch screen devices
US8284170B2 (en) 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
CA2680666A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
US20100110002A1 (en) * 2008-11-06 2010-05-06 Sony Ericsson Mobile Communications Ab Communication device with combined input and display device
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8289286B2 (en) * 2008-12-19 2012-10-16 Verizon Patent And Licensing Inc. Zooming keyboard/keypad
US8661362B2 (en) * 2009-03-16 2014-02-25 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
WO2010107009A1 (ja) * 2009-03-17 2010-09-23 日本電気株式会社 携帯電子機器の入力装置、その制御方法、及びプログラム
US20100251176A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Virtual keyboard with slider buttons
US8294680B2 (en) * 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
GB201108200D0 (en) 2011-05-16 2011-06-29 Touchtype Ltd User input prediction
KR101542136B1 (ko) * 2009-03-31 2015-08-05 삼성전자 주식회사 문자 메시지 작성 방법 및 이를 이용한 휴대 단말기
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US20100271312A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
US8340969B2 (en) * 2009-04-24 2012-12-25 Research In Motion Limited Method and mobile communication device for generating dual-tone multi-frequency (DTMF) commands on a mobile communication device having a touchscreen
US20100275126A1 (en) * 2009-04-27 2010-10-28 Scott David Lincke Automatic On-Screen Keyboard
US20100293457A1 (en) * 2009-05-15 2010-11-18 Gemstar Development Corporation Systems and methods for alphanumeric navigation and input
US9367216B2 (en) 2009-05-21 2016-06-14 Sony Interactive Entertainment Inc. Hand-held device with two-finger touch triggered selection and transformation of active elements
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
EP2431782A1 (de) * 2009-06-16 2012-03-21 Intel Corporation Kameraanwendungen in einer tragbaren Vorrichtung
KR101364881B1 (ko) 2009-06-16 2014-02-19 인텔 코오퍼레이션 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
KR20110015811A (ko) * 2009-08-10 2011-02-17 삼성전자주식회사 터치스크린을 구비한 단말기의 문자 표시 방법 및 장치
US8531410B2 (en) * 2009-08-18 2013-09-10 Fuji Xerox Co., Ltd. Finger occlusion avoidance on touch display devices
CN101655771B (zh) * 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 多触点字符输入方法及系统
EP3855297A3 (de) 2009-09-22 2021-10-27 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten
US9223590B2 (en) * 2010-01-06 2015-12-29 Apple Inc. System and method for issuing commands to applications based on contextual information
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8624933B2 (en) 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8799826B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8780069B2 (en) 2009-09-25 2014-07-15 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
JPWO2011043045A1 (ja) * 2009-10-07 2013-03-04 パナソニック株式会社 撮像装置、固体撮像素子、画像生成方法、およびプログラム
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
JP5211019B2 (ja) * 2009-11-26 2013-06-12 京セラドキュメントソリューションズ株式会社 表示装置及びこれを搭載した画像形成装置、電子機器
US8358281B2 (en) * 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US8621391B2 (en) * 2009-12-16 2013-12-31 Apple Inc. Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations
US8347238B2 (en) * 2009-12-16 2013-01-01 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements by dynamic snapping of user interface elements to alignment guides
US20110145739A1 (en) * 2009-12-16 2011-06-16 Peter Glen Berger Device, Method, and Graphical User Interface for Location-Based Data Collection
US8381125B2 (en) 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8806362B2 (en) * 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US8683363B2 (en) * 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
US8612884B2 (en) 2010-01-26 2013-12-17 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539386B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8209630B2 (en) * 2010-01-26 2012-06-26 Apple Inc. Device, method, and graphical user interface for resizing user interface content
US8539385B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
KR101097332B1 (ko) * 2010-02-10 2011-12-21 삼성모바일디스플레이주식회사 햅틱 기능을 갖춘 디스플레이 모듈
US8782556B2 (en) * 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20110210850A1 (en) * 2010-02-26 2011-09-01 Phuong K Tran Touch-screen keyboard with combination keys and directional swipes
US8686955B2 (en) 2010-03-11 2014-04-01 Apple Inc. Device, method, and graphical user interface for performing character entry
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9058186B2 (en) 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
CN101833420B (zh) * 2010-05-19 2012-08-29 鸿富锦精密工业(深圳)有限公司 具有触摸面板的电子装置
JP5010714B2 (ja) 2010-05-21 2012-08-29 株式会社東芝 電子機器、入力制御プログラム、及び入力制御方法
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
JP5593972B2 (ja) 2010-08-30 2014-09-24 ソニー株式会社 情報処理装置、立体視表示方法、及びプログラム
JP5289399B2 (ja) * 2010-09-06 2013-09-11 三菱電機株式会社 タッチパネル装置
US20120108172A1 (en) * 2010-10-29 2012-05-03 Microsoft Corporation Personal digital context
US10026058B2 (en) 2010-10-29 2018-07-17 Microsoft Technology Licensing, Llc Enterprise resource planning oriented context-aware environment
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
CN102479046B (zh) * 2010-11-30 2013-09-25 英业达股份有限公司 触控装置及其操作方法
US9285836B2 (en) 2010-12-13 2016-03-15 Blackberry Limited Portable electronic device including touch-sensitive display
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9767195B2 (en) 2011-04-21 2017-09-19 Touchstream Technologies, Inc. Virtualized hosting and displaying of content using a swappable media player
US8904289B2 (en) * 2011-04-21 2014-12-02 Touchstream Technologies, Inc. Play control of content on a display device
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
WO2012159249A1 (en) * 2011-05-20 2012-11-29 Microsoft Corporation Advaced prediction
US20120304121A1 (en) * 2011-05-25 2012-11-29 Componentart Holdings Inc. Method, processing device, and article of manufacture for providing instructions for displaying time-dependent information and for allowing user selection of time ranges
US9389764B2 (en) * 2011-05-27 2016-07-12 Microsoft Technology Licensing, Llc Target disambiguation and correction
US9032338B2 (en) * 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US9092130B2 (en) 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9471560B2 (en) * 2011-06-03 2016-10-18 Apple Inc. Autocorrecting language input for virtual keyboards
US8866762B2 (en) 2011-07-01 2014-10-21 Pixart Imaging Inc. Method and apparatus for arbitrating among contiguous buttons on a capacitive touchscreen
US8723140B2 (en) 2011-08-09 2014-05-13 Palo Alto Research Center Incorporated Particle analyzer with spatial modulation and long lifetime bioprobes
US9029800B2 (en) 2011-08-09 2015-05-12 Palo Alto Research Center Incorporated Compact analyzer with spatial modulation and multiple intensity modulated excitation sources
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8631357B2 (en) 2011-10-31 2014-01-14 Apple Inc. Dual function scroll wheel input
US8490008B2 (en) * 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
EP2590062A1 (de) * 2011-11-03 2013-05-08 Dassault Systèmes Verfahren und System zum Designen einer Modellanordnung aus mindestens einem Objekt in einem computergestützten Designsystem
US10082950B2 (en) 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
JP5829506B2 (ja) * 2011-12-13 2015-12-09 株式会社ソニー・コンピュータエンタテインメント 携帯型電子機器および履歴表示方法
CA2789827C (en) 2012-01-19 2017-06-13 Research In Motion Limited Virtual keyboard providing an indication of received input
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP2013161208A (ja) * 2012-02-03 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
TW201333752A (zh) * 2012-02-14 2013-08-16 Thlight Co Ltd 接收裝置、主機裝置和控制方法
GB2503968B (en) 2012-02-24 2021-02-17 Blackberry Ltd Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
US20130285916A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
CN108897420B (zh) 2012-05-09 2021-10-22 苹果公司 用于响应于手势在显示状态之间过渡的设备、方法和图形用户界面
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
DE112013002412T5 (de) 2012-05-09 2015-02-19 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169853A1 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
EP2847661A2 (de) 2012-05-09 2015-03-18 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum bewegen und ablegen eines benutzeroberflächenobjekts
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9658746B2 (en) 2012-07-20 2017-05-23 Nook Digital, Llc Accessible reading mode techniques for electronic devices
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9244535B2 (en) * 2013-03-15 2016-01-26 Logitech Europe S.A. Protective cover for a tablet computer
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
GB2504157B (en) * 2012-10-26 2014-09-24 Glynn Andrew Reynolds Secure user interface
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9411510B2 (en) 2012-12-07 2016-08-09 Apple Inc. Techniques for preventing typographical errors on soft keyboards
US9075462B2 (en) * 2012-12-10 2015-07-07 Sap Se Finger-specific input on touchscreen devices
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9030430B2 (en) 2012-12-14 2015-05-12 Barnesandnoble.Com Llc Multi-touch navigation mode
US9448719B2 (en) 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
US9134892B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Drag-based content selection technique for touch screen UI
US9001064B2 (en) 2012-12-14 2015-04-07 Barnesandnoble.Com Llc Touch sensitive device with pinch-based archive and restore functionality
US9134893B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Block-based content selecting technique for touch screen UI
US9134903B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Content selecting technique for touch screen UI
US8963865B2 (en) 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
US9477382B2 (en) 2012-12-14 2016-10-25 Barnes & Noble College Booksellers, Inc. Multi-page content selection technique
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
USD735238S1 (en) 2012-12-26 2015-07-28 Lookout, Inc. Display screen with graphical user interface with interleaved rows of text and reduced error key layout short reach
USD735215S1 (en) 2012-12-31 2015-07-28 Lookout, Inc. Display screen or portion thereof with graphical user interface with interleaved rows of text and reduced error key layout short reach
USD738886S1 (en) 2012-12-31 2015-09-15 Lookout, Inc. Display screen or portion thereof with graphical user interface with interleaved rows of text and reduced error key layout short reach
US9367240B2 (en) * 2012-12-26 2016-06-14 Lookout, Inc. Graphical user interface for improved text character entry
EP2939095B1 (de) 2012-12-29 2018-10-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften
KR101755029B1 (ko) 2012-12-29 2017-07-06 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101812329B1 (ko) 2012-12-29 2017-12-26 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR101905174B1 (ko) 2012-12-29 2018-10-08 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US9298360B2 (en) 2013-01-25 2016-03-29 Apple Inc. Accessibility techinques for presentation of symbolic expressions
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
CN103076924B (zh) * 2013-02-06 2014-08-13 东莞市傲思电子科技有限公司 手势键盘应用方法
KR20230137475A (ko) 2013-02-07 2023-10-04 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9946365B2 (en) 2013-03-11 2018-04-17 Barnes & Noble College Booksellers, Llc Stylus-based pressure-sensitive area for UI control of computing device
US9891722B2 (en) 2013-03-11 2018-02-13 Barnes & Noble College Booksellers, Llc Stylus-based notification system
US9766723B2 (en) 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
US9785259B2 (en) 2013-03-11 2017-10-10 Barnes & Noble College Booksellers, Llc Stylus-based slider functionality for UI control of computing device
US9760187B2 (en) 2013-03-11 2017-09-12 Barnes & Noble College Booksellers, Llc Stylus with active color display/select for touch sensitive devices
US9189084B2 (en) 2013-03-11 2015-11-17 Barnes & Noble College Booksellers, Llc Stylus-based user data storage and access
US9448643B2 (en) 2013-03-11 2016-09-20 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus angle detection functionality
US9367161B2 (en) 2013-03-11 2016-06-14 Barnes & Noble College Booksellers, Llc Touch sensitive device with stylus-based grab and paste functionality
US9626008B2 (en) 2013-03-11 2017-04-18 Barnes & Noble College Booksellers, Llc Stylus-based remote wipe of lost device
US9261985B2 (en) 2013-03-11 2016-02-16 Barnes & Noble College Booksellers, Llc Stylus-based touch-sensitive area for UI control of computing device
US9632594B2 (en) 2013-03-11 2017-04-25 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus idle functionality
US9600053B2 (en) 2013-03-11 2017-03-21 Barnes & Noble College Booksellers, Llc Stylus control feature for locking/unlocking touch sensitive devices
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
US8966617B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Image pattern unlocking techniques for touch sensitive devices
US8963869B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Color pattern unlocking techniques for touch sensitive devices
US9152321B2 (en) 2013-05-03 2015-10-06 Barnes & Noble College Booksellers, Llc Touch sensitive UI technique for duplicating content
US9612740B2 (en) 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10019153B2 (en) 2013-06-07 2018-07-10 Nook Digital, Llc Scrapbooking digital content in computing devices using a swiping gesture
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (de) 2013-06-09 2022-01-12 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitalen assistenten
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
US9423932B2 (en) 2013-06-21 2016-08-23 Nook Digital, Llc Zoom view mode for digital content including multiple regions of interest
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
US9244603B2 (en) 2013-06-21 2016-01-26 Nook Digital, Llc Drag and drop techniques for discovering related content
US9483176B2 (en) * 2013-07-08 2016-11-01 Samsung Display Co., Ltd. Method and apparatus to reduce display lag of soft keyboard presses
KR102313353B1 (ko) * 2013-07-29 2021-10-18 삼성전자주식회사 캐릭터 입력 방법 및 디스플레이 장치
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US20150051901A1 (en) * 2013-08-16 2015-02-19 Blackberry Limited Methods and devices for providing predicted words for textual input
US9575948B2 (en) 2013-10-04 2017-02-21 Nook Digital, Llc Annotation of digital content via selective fixed formatting
CN105745315B (zh) 2013-10-07 2019-09-27 蒙诺苏尔有限公司 水溶性延迟释放胶囊、相关方法和相关制品
WO2015054100A2 (en) 2013-10-07 2015-04-16 Monosol, Llc Water-soluble delayed release capsules, related methods, and related articles
USD772278S1 (en) 2013-12-18 2016-11-22 Apple Inc. Display screen or portion thereof with animated graphical user interface
US10620796B2 (en) 2013-12-19 2020-04-14 Barnes & Noble College Booksellers, Llc Visual thumbnail scrubber for digital content
US9588979B2 (en) 2013-12-31 2017-03-07 Barnes & Noble College Booksellers, Llc UI techniques for navigating a file manager of an electronic computing device
USD767592S1 (en) * 2013-12-31 2016-09-27 Beijing Qihoo Technology Co., Ltd. Display screen with a graphical user interface
US10534528B2 (en) 2013-12-31 2020-01-14 Barnes & Noble College Booksellers, Llc Digital flash card techniques
US9792272B2 (en) 2013-12-31 2017-10-17 Barnes & Noble College Booksellers, Llc Deleting annotations of paginated digital content
US9367208B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc Move icon to reveal textual information
USD765667S1 (en) * 2013-12-31 2016-09-06 Beijing Qihoo Technology Co. Ltd Display screen with a graphical user interface
USD766257S1 (en) * 2013-12-31 2016-09-13 Beijing Qihoo Technology Co. Ltd Display screen with a graphical user interface
US10915698B2 (en) 2013-12-31 2021-02-09 Barnes & Noble College Booksellers, Llc Multi-purpose tool for interacting with paginated digital content
US10331777B2 (en) 2013-12-31 2019-06-25 Barnes & Noble College Booksellers, Llc Merging annotations of paginated digital content
USD766256S1 (en) * 2013-12-31 2016-09-13 Beijing Qihoo Technology Co. Ltd Display screen with a graphical user interface
US9424241B2 (en) 2013-12-31 2016-08-23 Barnes & Noble College Booksellers, Llc Annotation mode including multiple note types for paginated digital content
USD767591S1 (en) * 2013-12-31 2016-09-27 Beijing Qihoo Technology Co., Ltd. Display screen with a graphical user interface
US9367212B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc User interface for navigating paginated digital content
US9652044B2 (en) * 2014-03-04 2017-05-16 Microsoft Technology Licensing, Llc Proximity sensor-based interactions
JP1518853S (de) * 2014-04-07 2015-03-09
JP1519059S (de) * 2014-04-07 2015-03-09
USD770487S1 (en) * 2014-04-30 2016-11-01 Tencent Technology (Shenzhen) Company Limited Display screen or portion thereof with graphical user interface
USD770488S1 (en) * 2014-04-30 2016-11-01 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with graphical user interface
CN109922122B (zh) * 2014-05-05 2022-03-01 创新先进技术有限公司 交互、获取用户信息的方法及其装置
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
CN111078109B (zh) 2014-06-24 2024-01-09 苹果公司 输入设备和用户界面交互
AU2015280256A1 (en) 2014-06-24 2016-10-13 Apple Inc. Column interface for navigating in a user interface
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
JP6089181B2 (ja) * 2014-08-21 2017-03-08 国立大学法人 大分大学 データ入力システム、情報処理装置、情報処理プログラム及びその方法
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9808710B2 (en) * 2015-03-31 2017-11-07 King.Com Ltd. User interface
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
USD846563S1 (en) * 2016-02-12 2019-04-23 Yonggui Li Display screen or portion thereof with keyboard graphical user interface
USD846564S1 (en) * 2016-02-12 2019-04-23 Yonggui Li Display screen or portion thereof with keyboard graphical user interface
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
EP3422165A4 (de) 2016-06-22 2019-04-17 Huawei Technologies Co., Ltd. Verfahren und vorrichtung zur anzeige von kandidatenwörtern und grafische benutzerschnittstelle
USD916735S1 (en) * 2016-07-03 2021-04-20 Yonggui Li Display screen or portion thereof with keyboard graphical user interface
US11175821B2 (en) * 2016-09-23 2021-11-16 Huawei Technologies Co., Ltd. Pressure touch method and terminal
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
DK179492B1 (en) 2016-10-25 2019-01-08 Apple Inc. SYSTEMS AND METHODS FOR ENABLING LOW-VISION USERS TO INTERACT WITH A TOUCH-SENSITIVE SECONDARY DISPLAY
US11237709B2 (en) 2016-10-25 2022-02-01 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
WO2018081112A1 (en) * 2016-10-25 2018-05-03 Apple Inc. Systems and methods for enabling low-vision users to interact with a touch-sensitive secondary display
US20180113579A1 (en) 2016-10-26 2018-04-26 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
CN106843737B (zh) * 2017-02-13 2020-05-08 北京新美互通科技有限公司 文本输入方法、装置及终端设备
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
EP3640787A4 (de) 2017-05-16 2020-08-19 Huawei Technologies Co., Ltd. Eingabeverfahren und elektronische vorrichtung
WO2018213805A1 (en) * 2017-05-19 2018-11-22 Murphy Michael William An interleaved character selection interface
WO2019049317A1 (ja) * 2017-09-08 2019-03-14 三菱電機株式会社 位置補正装置および位置補正方法
KR20190065746A (ko) * 2017-12-04 2019-06-12 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US11669243B2 (en) 2018-06-03 2023-06-06 Apple Inc. Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors
US10776006B2 (en) 2018-06-03 2020-09-15 Apple Inc. Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors
US20200301567A1 (en) 2019-03-24 2020-09-24 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
USD984459S1 (en) * 2019-03-28 2023-04-25 Yonggui Li Display screen or portion thereof with keyboard graphical user interface
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
CN113906380A (zh) 2019-05-31 2022-01-07 苹果公司 用于播客浏览和回放应用程序的用户界面
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
JP2023535212A (ja) 2020-07-24 2023-08-16 アジリス アイズフリー タッチスクリーン キーボーズ エルティディ 不感帯を有する適応可能なタッチ画面のキーパッド
USD965013S1 (en) * 2020-09-28 2022-09-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
EP4298501A1 (de) * 2022-05-20 2024-01-03 Google LLC Vorausschauende eingangsschnittstelle mit verbesserter robustheit für die verarbeitung von eingängen mit niedriger präzision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305205A (en) * 1990-10-23 1994-04-19 Weber Maria L Computer-assisted transcription apparatus
US5128672A (en) * 1990-10-30 1992-07-07 Apple Computer, Inc. Dynamic predictive keyboard
US5963671A (en) * 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
EP0618528B1 (de) * 1993-04-01 1999-12-29 International Business Machines Corporation Dynamische Anpassungseinrichtung für Berührungsanzeigeknöpfe
US5469722A (en) * 1993-06-24 1995-11-28 Ellefsen; Robert J. Hasp for a cylinder lock
JP3546337B2 (ja) * 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US5748512A (en) * 1995-02-28 1998-05-05 Microsoft Corporation Adjusting keyboard
JPH08249122A (ja) * 1995-03-15 1996-09-27 Matsushita Electric Ind Co Ltd 表示装置
JPH08272787A (ja) * 1995-03-29 1996-10-18 Sharp Corp 文字処理装置
JPH0981320A (ja) * 1995-09-20 1997-03-28 Matsushita Electric Ind Co Ltd ペン入力式選択入力装置及びその方法
US5801941A (en) * 1996-08-12 1998-09-01 International Business Machines Corporation Mobile client computer programmed to establish soft keyboard targeting sensitivity
JP4316687B2 (ja) * 1995-11-07 2009-08-19 善也 加藤 画面タッチ式入力装置
US5748927A (en) * 1996-05-10 1998-05-05 Apple Computer, Inc. Graphical user interface with icons having expandable descriptors
KR100260760B1 (ko) * 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US5818451A (en) * 1996-08-12 1998-10-06 International Busienss Machines Corporation Computer programmed soft keyboard system, method and apparatus having user input displacement
US5953541A (en) 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US6049326A (en) * 1997-05-12 2000-04-11 Siemens Information And Communication Networks, Inc. System and method for dual browser modes
US6803905B1 (en) * 1997-05-30 2004-10-12 International Business Machines Corporation Touch sensitive apparatus and method for improved visual feedback
DE69806780T2 (de) * 1997-09-25 2003-03-13 Tegic Communications Inc System zur unterdrückung der vieldeutigkeit in einer verringerten tastatur
US5896321A (en) * 1997-11-14 1999-04-20 Microsoft Corporation Text completion system for a miniature computer
GB2332293A (en) 1997-12-11 1999-06-16 British Telecomm An Input Device
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
JP2938420B2 (ja) * 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
KR100327209B1 (ko) 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US6212412B1 (en) * 1998-06-09 2001-04-03 Qualcomm Incorporated System and method for character case control in a wireless communication device
US6169538B1 (en) * 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
US6359572B1 (en) * 1998-09-03 2002-03-19 Microsoft Corporation Dynamic keyboard
US6271835B1 (en) * 1998-09-03 2001-08-07 Nortel Networks Limited Touch-screen input device
JP2000112636A (ja) * 1998-10-07 2000-04-21 Kanazawa Engineering Systems:Kk かな文字入力装置
US7679534B2 (en) * 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US7712053B2 (en) * 1998-12-04 2010-05-04 Tegic Communications, Inc. Explicit character filtering of ambiguous text entry
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6643824B1 (en) 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
GB2388938B (en) * 1999-02-22 2004-03-17 Nokia Corp A communication terminal having a predictive editor application
US7286115B2 (en) * 2000-05-26 2007-10-23 Tegic Communications, Inc. Directional input system with automatic correction
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US7434177B1 (en) * 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6573844B1 (en) * 2000-01-18 2003-06-03 Microsoft Corporation Predictive keyboard
US6654733B1 (en) * 2000-01-18 2003-11-25 Microsoft Corporation Fuzzy keyboard
US6597345B2 (en) * 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
US6714221B1 (en) * 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
GB0019540D0 (en) * 2000-08-10 2000-09-27 Plasplugs Ltd Display hanger
JP4197220B2 (ja) * 2000-08-17 2008-12-17 アルパイン株式会社 操作装置
JP2002091677A (ja) * 2000-09-14 2002-03-29 Sanyo Electric Co Ltd 入力装置及び情報端末装置
TW486657B (en) 2000-10-26 2002-05-11 Animeta Systems Inc Browser interface operation device and its browsing method
US6918091B2 (en) * 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
JP2002222039A (ja) * 2001-01-25 2002-08-09 Sony Computer Entertainment Inc 情報入力処理プログラム、情報入力処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報入力処理プログラムを実行するプログラム実行装置、情報入力装置、及び情報入力方法
US20020135615A1 (en) * 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
JP3597141B2 (ja) * 2001-04-03 2004-12-02 泰鈞 温 情報入力装置及び方法、並びに携帯電話機及び携帯電話機の文字入力方法
TW504916B (en) * 2001-04-24 2002-10-01 Inventec Appliances Corp Method capable of generating different input values by pressing a single key from multiple directions
US7168046B2 (en) * 2001-04-26 2007-01-23 Lg Electronics Inc. Method and apparatus for assisting data input to a portable information terminal
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
FI116591B (fi) 2001-06-29 2005-12-30 Nokia Corp Menetelmä ja laite toiminnon toteuttamiseksi
KR100556072B1 (ko) * 2001-09-21 2006-03-07 레노보 (싱가포르) 피티이. 엘티디. 입력 장치, 컴퓨터 장치, 입력 대상의 인식 방법,소프트웨어 키보드에서의 입력 대상의 인식 방법 및컴퓨터 프로그램
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
GB2380583A (en) 2001-10-04 2003-04-09 Ilam Samson Touch pad/screen for electronic equipment
US7113172B2 (en) * 2001-11-09 2006-09-26 Lifescan, Inc. Alphanumeric keypad and display system and method
US6604840B2 (en) 2001-11-27 2003-08-12 Marion H. Watson Lighting apparatus for a sign
US7083342B2 (en) * 2001-12-21 2006-08-01 Griffin Jason T Keyboard arrangement
US20030197736A1 (en) * 2002-01-16 2003-10-23 Murphy Michael W. User interface for character entry using a minimum number of selection keys
JP4073215B2 (ja) * 2002-01-28 2008-04-09 富士通株式会社 文字入力装置
US20030149978A1 (en) * 2002-02-07 2003-08-07 Bruce Plotnick System and method for using a personal digital assistant as an electronic program guide
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
US7038659B2 (en) * 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20030193481A1 (en) * 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
KR100941948B1 (ko) 2002-05-21 2010-02-11 코닌클리케 필립스 일렉트로닉스 엔.브이. 객체를 선택 및 입력하는 시스템, 객체 세트로부터 객체를 입력하는 방법, 및 이 방법을 구현하기 위한 소프트웨어 코드를 저장하기 위한 컴퓨터 판독가능 매체
FI20021162A0 (fi) * 2002-06-14 2002-06-14 Nokia Corp Elektroninen laite ja menetelmä sen näppäimistön hallintaan
FI112119B (fi) * 2002-06-25 2003-10-31 Nokia Corp Menetelmä ohjauskomennon tulkitsemiseksi ja kannettava elektroninen laite
AU2003252548A1 (en) * 2002-08-16 2004-03-03 Hoon-Kee Kang Method of inputting a character using a software keyboard
AU2003288689A1 (en) 2002-11-29 2004-06-23 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
US6927763B2 (en) * 2002-12-30 2005-08-09 Motorola, Inc. Method and system for providing a disambiguated keypad
US7194699B2 (en) * 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
US7382358B2 (en) * 2003-01-16 2008-06-03 Forword Input, Inc. System and method for continuous stroke word-based text input
US20040160419A1 (en) * 2003-02-11 2004-08-19 Terradigital Systems Llc. Method for entering alphanumeric characters into a graphical user interface
US7103852B2 (en) * 2003-03-10 2006-09-05 International Business Machines Corporation Dynamic resizing of clickable areas of touch screen applications
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
CA2426867A1 (en) * 2003-04-30 2004-10-30 Naviform Holdings Ltd. Customizable keyboard
US7057607B2 (en) * 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
KR100537280B1 (ko) * 2003-10-29 2005-12-16 삼성전자주식회사 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법
US20050190970A1 (en) * 2004-02-27 2005-09-01 Research In Motion Limited Text input system for a mobile electronic device and methods thereof
US20050196256A1 (en) * 2004-03-08 2005-09-08 Fmc Technologies, Inc. Method and system for over-steer avoidance
US7571111B2 (en) * 2004-03-29 2009-08-04 United Parcel Service Of America, Inc. Computer system for monitoring actual performance to standards in real time
JP5132028B2 (ja) * 2004-06-11 2013-01-30 三菱電機株式会社 ユーザインタフェース装置
EP1769326A2 (de) 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. Verfahren und einrichtung zur verhinderung einer verunreinigung einer anzeigeeinrichtung
US20060007174A1 (en) * 2004-07-06 2006-01-12 Chung-Yi Shen Touch control method for a drag gesture and control module thereof
US7508324B2 (en) * 2004-08-06 2009-03-24 Daniel Suraqui Finger activated reduced keyboard and a method for performing text input
US7489306B2 (en) 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US8552984B2 (en) * 2005-01-13 2013-10-08 602531 British Columbia Ltd. Method, system, apparatus and computer-readable media for directing input associated with keyboard-type device
US7788248B2 (en) * 2005-03-08 2010-08-31 Apple Inc. Immediate search feedback
US20060244733A1 (en) 2005-04-28 2006-11-02 Geaghan Bernard O Touch sensitive device and method using pre-touch information
US20060246955A1 (en) * 2005-05-02 2006-11-02 Mikko Nirhamo Mobile communication device and method therefor
US8036878B2 (en) * 2005-05-18 2011-10-11 Never Wall Treuhand GmbH Device incorporating improved text input mechanism
US7886233B2 (en) * 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
WO2007025119A2 (en) * 2005-08-26 2007-03-01 Veveo, Inc. User interface for visual cooperation between text input and display device
US7443316B2 (en) * 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US7873356B2 (en) * 2005-09-16 2011-01-18 Microsoft Corporation Search interface for mobile devices
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7644054B2 (en) * 2005-11-23 2010-01-05 Veveo, Inc. System and method for finding desired results by incremental search using an ambiguous keypad with the input containing orthographic and typographic errors
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US9552349B2 (en) * 2006-08-31 2017-01-24 International Business Machines Corporation Methods and apparatus for performing spelling corrections using one or more variant hash tables
US7683886B2 (en) * 2006-09-05 2010-03-23 Research In Motion Limited Disambiguated text message review function
US7793228B2 (en) * 2006-10-13 2010-09-07 Apple Inc. Method, system, and graphical user interface for text entry with partial word display
US8074172B2 (en) * 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US7957955B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Method and system for providing word recommendations for text input
US8232973B2 (en) * 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords

Also Published As

Publication number Publication date
JP4981066B2 (ja) 2012-07-18
US7694231B2 (en) 2010-04-06
KR101110501B1 (ko) 2012-02-09
JP2009522697A (ja) 2009-06-11
US20100188358A1 (en) 2010-07-29
WO2007082139A2 (en) 2007-07-19
EP1969453A2 (de) 2008-09-17
WO2007082139A3 (en) 2008-05-29
KR20080091199A (ko) 2008-10-09
US20100192086A1 (en) 2010-07-29
US20100188357A1 (en) 2010-07-29
US20070152978A1 (en) 2007-07-05
US20100177056A1 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
DE112007000122T5 (de) Tastaturen für tragbare elektronische Vorrichtungen
DE112008000144B4 (de) Scrollen von Listen und Verschieben, Skalieren und Rotieren von Dokumenten auf einer Berührungsbildschirmanzeige
DE202008000258U1 (de) Tragbare elektronische Vorrichtung
US7886233B2 (en) Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US9256366B2 (en) Systems and methods for touch-based two-stage text input
DE112012000189T5 (de) Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben
DE112012000403T5 (de) Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text
US20070152980A1 (en) Touch Screen Keyboards for Portable Electronic Devices
US8207943B2 (en) Apparatus and method for inputting characters in a terminal
DE212006000081U1 (de) Benutzerschnittstelle zum Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
DE202008000269U1 (de) Tragbare elektronische Vorrichtung
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE112011101380T5 (de) Berührungsempfindliche Anzeige mit variabler Wiederholungsrate
DE202008000265U1 (de) Tragbare Kommunikationsvorrichtung
DE202007018413U1 (de) Berührungsbildschirmvorrichtung und graphische Benutzerschnittstelle zum Bestimmmen von Befehlen durch Anwenden von Heuristiken
US9547634B2 (en) Terminal and method for editing text using the same
US9201509B2 (en) Character input method and device based on arrow key
US8922492B2 (en) Device and method of inputting characters
US20180088800A1 (en) Method for selecting an element from among a group of elements displayable on a small input surface
CN112558829A (zh) 输入法显示方法、装置及电子设备
CN106168880A (zh) 一种输入控制的方法及终端
CN112148172B (zh) 操作控制方法及装置
US20150277752A1 (en) Providing for text entry by a user of a computing device
CN103176618B (zh) 字元输入装置
KR20170075904A (ko) 부가 서비스 기능을 포함하는 모바일 기기용 소프트웨어 키보드

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20120531