DE112007001643T5 - Berührungsempfindliche Benutzerschnittstelle - Google Patents

Berührungsempfindliche Benutzerschnittstelle Download PDF

Info

Publication number
DE112007001643T5
DE112007001643T5 DE112007001643T DE112007001643T DE112007001643T5 DE 112007001643 T5 DE112007001643 T5 DE 112007001643T5 DE 112007001643 T DE112007001643 T DE 112007001643T DE 112007001643 T DE112007001643 T DE 112007001643T DE 112007001643 T5 DE112007001643 T5 DE 112007001643T5
Authority
DE
Germany
Prior art keywords
key
keys
measuring surfaces
activated
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112007001643T
Other languages
English (en)
Inventor
Luben Hristov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neodron Ltd
Original Assignee
QRG Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QRG Ltd filed Critical QRG Ltd
Publication of DE112007001643T5 publication Critical patent/DE112007001643T5/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/96Touch switches
    • H03K17/962Capacitive touch switches
    • H03K17/9622Capacitive touch switches using a plurality of detectors, e.g. keyboard

Abstract

Berührungsempfindliche Benutzerschnittstelle, umfassend:
Eine Vielzahl von Messflächen;
einen Messungs-Schaltkreis, der mit den Messflächen gekoppelt und in der Lage ist, Ausgangssignale zu erzeugen, die eine Kopplung zwischen einem zeigenden Objekt und entsprechenden der Messflächen anzeigen; und
eine Steuerung, die in der Lage ist, die Ausgangssignale des Messungs-Schaltkreises zu empfangen, aus den Ausgangssignalen eine Kombination der Messflächen zu bestimmen, die durch das Vorhandensein des zeigenden Objektes aktiviert werden, die Kombination aktivierter Messflächen mit mindestens einer vordefinierten Kombination der Messflächen zu vergleichen, und eine ausgewählte der Messflächen entsprechend einer Übereinstimmung zwischen der Kombination aktivierter Messflächen und einer aus der mindestens einen vordefinierten Kombinationen von Messflächen zu bestimmen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die Erfindung bezieht sich auf berührungsempfindliche Benutzerschnittstellen, die eine Anordnung von Messelementen haben und auf Verfahren zur Feststellung, welches aus einer Vielzahl von gleichzeitig erkannten Messelementen von einem Benutzer zur Auswahl gedacht ist. Somit bezieht sich die Erfindung auf ein Verfahren und eine Vorrichtung zur Steuerung von berührungsempfindlichen Benutzerschnittstellen, z. B. zur Unterstützung der Verhinderung von falschen Eingaben durch Tasten, die in einer kapazitiven Tastatur einer ausgewählten Taste benachbart sind.
  • Die Verwendung von kapazitiven Näherungssensoren, zum Beispiel als Tasten in einem Tastenfeld, wird immer üblicher. Kapazitive Sensoren werden aus mehreren Gründen häufig gegenüber mechanischen Schaltern bevorzugt. Zum Beispiel erfordern kapazitive Sensoren keine beweglichen Teile und sind weniger anfällig gegen Verschleiß als ihre mechanischen Gegenstücke. Kapazitive Sensoren können auch mit relativ kleinen Abmessungen hergestellt werden, so dass entsprechend kleine und eng gepackte Tastenfeld-Anordnungen bereitgestellt werden können. Darüber hinaus können kapazitive Sensoren unter einer gegen die Umgebung abgedichteten äußeren Oberfläche bereitgestellt werden. Dies macht sie interessant für die Anwendung in nassen Umgebungen oder dort, wo die Gefahr besteht, dass Schmutz oder Flüssigkeiten in ein gesteuertes Gerät gelangen. Darüber hinaus bevorzugen es Hersteller oft, Schnittstellen auf der Basis von kapazitiven Sensoren in ihren Produkten einzusetzen, da solche Schnittstellen von Benutzern oft als ästhetisch angenehmer empfunden werden als herkömmliche mechanische Eingabemechanismen (z. B. Drucktasten).
  • Ein Nachteil von Schnittstellen auf der Basis von Anordnungen kapazitiver Sensoren ist jedoch, dass ein zu fühlendes Objekt, z. B. der Zeigefinder eines Benutzers, oft kapazitiv mit mehreren kapazitiven Sensoren gleichzeitig gekoppelt wird. Das bedeutet, dass es sein kann, dass mehrere kapazitive Sensoren gleichzeitig aktiviert zu sein scheinen, was zu einer Ungewissheit führen kann, welcher kapazitive Sensor in der Anordnung zur Auswahl beabsichtigt ist. Dieses Problem kann besonders bei Sensoren auftreten, die in einer eng gepackten Anordnung angeordnet sind, z. B. in einem Tastenfeld eines Mobiltelefons. Bei einem so kleinen Tastenfeld wie diesem ist es wahrscheinlich, dass der Finger eines Benutzers mehrere Tasten gleichzeitig überdeckt, d. h. sowohl eine für die Auswahl gedachte Taste, als auch dazu benachbarte Tasten. Dies kann besonders problematisch sein, wenn der Benutzer große Finger hat, oder wenn er auf ein Feld über den Sensoren mit einer Kraft drückt, die ausreicht, seinen Finger zu deformieren und so die effektive Fläche der Fingerspitze zu erhöhen. Der gleiche Effekt tritt auf, wenn eine leitfähige Schicht auf einer Tastatur ausgeschüttet wird, wobei in diesem Fall der Finger des Benutzers erfasst wird, als ob er die Größe der Lache hat. Probleme dieser Art sind besonders akut bei Tastaturen von Registrierkassen in Lebensmittel-Geschäften, wo es häufig auftritt, dass Getränke und Lebensmittel-Saucen verschüttet werden. Ein weiteres Problem bei kapazitiven Tastenfeldern, das als "Handschatten-Effekt" bekannt ist, tritt durch die kapazitive Reaktion auf einen Körper auf, der nicht der zeigende Körper ist, z. B. wird die Hand des Benutzers zusätzlich zu dem Zeigefinger erfasst.
  • US 5,730,165 [1] beschreibt einen kapazitiven Feld-Sensor, bei dem eine einzelne Kopplungsplatte benutzt wird, und ein Verfahren zur Erkennung einer Änderung der Kapazität der Kopplungsplatte, Cx, gegen Masse. Die in US 5,730,165 beschriebene Vorrichtung enthält Impuls-Schaltkreise zum Aufladen der Kopplungsplatte und zum anschließenden Übertragen der Ladung von der Platte in einen Ladungs-Detektor, der ein Abfrage-Kondensator, Cs, sein kann. Die Übertragungs-Operation wird mit einem Übertragungs-Schalter ausgeführt, der elektrisch zwischen der Kopplungsplatte und dem Ladungs-Detektor angeschlossen ist. Die Offenlegung US 5,730,165 ist hier als Referenz mit enthalten.
  • US 6,466,036 [2] beschreibt Impuls-Schaltkreise zum Messen der Kapazität gegen Masse, wobei die Schaltkreise eine Vielzahl elektrischer Schaltelemente enthalten, von denen jedes eine Seite entweder mit einer Stromversorgungs-Spannung oder mit einem Massepunkt des Schaltkreises verbunden hat. Diese Schaltkreis-Anordnung, die für eine Tastatur, sowie für viele andere Anwendungen benutzt werden kann, ist kompatibler zu verfügbaren Entwicklungs- und Herstellungsverfahren von integrierten Schaltkreisen als die Impuls-Schaltkreise nach dem bisherigen Stand der Technik, bei denen im Allgemeinen eine Seite mindestens eines Schaltelementes potentialfrei war. Diese verbesserten Anordnungen liefern dadurch eine ausgezeichnete Leistungsfähigkeit bei kleineren Herstellungskosten. Die Offenlegung US 6,466,036 ist hier als Referenz mit enthalten.
  • Versuche, die unternommen wurden, um das oben beschriebene Problem der Ungewissheit der Tastatureingabe bei kapazitiven Sensoren zu lösen, werden in US 6,993,607 [3] und in US 11/402,269 (veröffentlicht als US 2006-0192690 A1 ) [4] beschrieben. Die Offenlegungen US 6,993,607 und US 11/279,402 sind hier als Referenz mit enthalten.
  • US 6,993,607 beschreibt ein Verfahren und eine Vorrichtung zur Verringerung der Ungewissheit der Tastatureingabe auf einer Tastatur, die eine Anordnung von Näherungssensoren hat. Diese Ungewissheit wird verringert durch ein iteratives Verfahren der wiederholten Messung der Stärke eines erkannten Signals, das jeder Taste in der Anordnung zugeordnet ist, die entsprechende Ausgangssignale hat, die auf einen Grad der Kopplung zwischen der Taste und dem Benutzer reagieren, wobei alle gemessenen Signalstärken verglichen werden, um ein Maximum zu finden, wobei festgestellt wird, dass die Taste, die die maximale Signalstärke hat, die einzige vom Benutzer gewählte Taste ist, und die vom Benutzer gewählte Taste so lange aufrecht erhalten wird, bis das Signal der Taste unter einen Schwellwert fällt. Die Signale von allen anderen Tasten werden während des Schrittes des Aufrechterhaltens unterdrückt oder ignoriert.
  • US 11/402,269 (veröffentlicht als US 2006-0192690 A1 ) beschreibt ein iteratives Verfahren und eine Vorrichtung zur Beseitigung der Ungewissheit der Tastatureingabe auf einer Tastatur durch Messung der Stärke eines erkannten Signals, das jeder Taste in einer Anordnung zugeordnet ist, Vergleichen der gemessenen Signalstärken, um ein Maximum zu finden, Festellen, dass die Taste, die die maximale Signalstärke hat, die einzige vom Benutzer gewählte erste Taste ist, und Aufrechterhalten der Auswahl, bis entweder die Signalstärke der ersten Taste unter einen Schwellwert fällt oder die Stärke des Signals einer zweiten Taste die Signalstärke der ersten Taste überschreitet. Wenn eine Taste ausgewählt wird, kann ihre Signalstärke bezogen auf alle anderen Tasten erhöht werden, um alle anderen Tasten abzuwählen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einem ersten Aspekt der Erfindung wird eine berührungsempfindliche Benutzerschnittstelle bereitgestellt, umfassend: Eine Vielzahl von Messflächen; einen Messungs-Schaltkreis, der mit den Messflächen gekoppelt und in der Lage ist, Ausgangssignale zu erzeugen, die Kopplungen zwischen einem zeigenden Objekt und entsprechenden der Messflächen anzeigen; und eine Steuerung, die in der Lage ist, die Ausgangssignale des Messungs-Schaltkreises zu empfangen, aus den Ausgangssignalen eine Kombination der Messflächen zu bestimmen, die durch das Vorhandensein des zeigenden Objektes aktiviert werden, die Kombination aktivierter Messflächen mit mindestens einer vordefinierten Kombination der Messflächen zu vergleichen, und eine ausgewählte der Messflächen entsprechend einer Übereinstimmung zwischen der Kombination aktivierter Messflächen und einer aus der mindestens einen vordefinierten Kombinationen von Messflächen zu bestimmen.
  • Somit können Messflächen (Tasten), die im Allgemeinen gleichzeitig aktiviert werden (d. h. zusammen innerhalb des selben Messzyklus), wenn ein Benutzer die Absicht hat, nur eine einzige Messfläche auszuwählen, als mit der vom Benutzer am wahrscheinlichsten beabsichtigten Messfläche verbunden vordefiniert werden, die die beobachtete Kombination aktivierter Messflächen verursacht.
  • Die berührungsempfindliche Benutzerschnittstelle kann ferner in der Lage sein, ein Ausgangssignal auszugeben, das die Messfläche anzeigt, die als ausgewählte Messfläche bestimmt wurde.
  • Die Benutzerschnittstelle kann auf kapazitiven Effekten basieren, d. h. die Kopplungen zwischen einem zeigenden Objekt und entsprechenden der Messflächen sind kapazitive Kopplungen. Die Benutzerschnittstelle kann alternativ auf anderen Kopplungsmechanismen basieren, zum Beispiel auf magnetischer Kopplung.
  • Die Vielzahl von Messflächen kann zwischen drei und sechs Messflächen, zum Beispiel vier Messflächen, umfassen. Es hat sich herausgestellt, dass dies eine geeignete Anzahl für typische Implementationen von Ausführungen der Erfindung ist, da eine relativ kleine Anzahl von Kombinationen definiert werden kann, um alle wahrscheinlichen Kombinationen abzudecken. Dies verringert die erforderliche Verarbeitung. Ein Messbereich, der eine größere Anzahl von Messflächen hat, kann somit als aus einer Vielzahl von Gruppen kleinerer Anzahlen von Messflächen bestehend betrachtet werden.
  • Die mindestens eine vordefinierte Kombination von aktivierten Messflächen kann zum Beispiel eine Kombination von drei Messflächen umfassen, die in einer Reihe angeordnet sind, und die ausgewählte Messfläche der aktivierten Messung für eine Kombination aktivierter Messflächen, die dieser vordefinierten Kombination der aktivierten Messung entspricht, kann die mittlere der aktivierten Messflächen sein. Dies kann nützlich sein, da die Erfinder herausgefunden haben, dass die gleichzeitige Aktivierung einer Reihe von drei Messflächen, wenn der Benutzer die Absicht hat, die mittlere auszuwählen, häufig vorkommt. Dies ist insbesondere so, wenn bei normaler Benutzung die Reihe einer Annäherungsrichtung und/oder der Größe eines zeigenden Objektes entspricht.
  • Die mindestens eine vordefinierte Kombination von aktivierten Messflächen kann zum Beispiel auch eine Kombination von vier Messflächen umfassen, die in einer Reihe angeordnet sind, und die ausgewählte Messfläche der aktivierten Messflächen ist einer Messfläche an einem Ende der Reihe aktivierter Messflächen benachbart. Zum Beispiel kann die Reihe bei normaler Benutzung einer Annäherungsrichtung und/oder der Größe eines zeigenden Objektes entsprechen, und die ausgewählte der aktivierten Messflächen kann bei normaler Benutzung die zweitentfernteste aktivierte Messfläche entlang der und relativ zur Annäherungsrichtung und/oder der Größe des zeigenden Objektes sein. Dies kann nützlich sein, da die Erfinder auch herausgefunden haben, dass die gleichzeitige Aktivierung einer Reihe von vier Messflächen, wenn der Benutzer die Absicht hat, die zweite vom Ende entfernte Messfläche auszuwählen, häufig vorkommt.
  • Die mindestens eine vordefinierte Kombination aktivierter Messflächen kann eine zusammenhängende Reihe benachbarter Messflächen umfassen, z. B. weil es wahrscheinlicher ist, dass ein zeigendes Objekt benachbarte Messflächen aktiviert, als voneinander getrennte Messflächen.
  • Wenn der Vergleich der Kombination aktivierter Messflächen mit der mindestens einen vordefinierten Kombination von Messflächen keine Übereinstimmung zeigt, kann die Steuerung in der Lage sein, eine ausgewählte der aktivierten Messflächen zu bestimmen, indem sie die Positionen der aktivierten Messflächen innerhalb des Messbereichs berücksichtigt. Somit kann eine ausgewählte Taste gemeldet werden, wenn keine Übereinstimmung zwischen der/den aktivierten Taste(n) und einer der vordefinierten Kombinationen vorliegt.
  • In anderen Beispielen, in denen der Vergleich der Kombination aktivierter Messflächen mit der mindestens einen vordefinierten Kombination von Messflächen keine Übereinstimmung (Entsprechung) zeigt, kann die Steuerung in der Lage sein, eine ausgewählte der aktivierten Messflächen zu bestimmen, indem sie die mit den Messflächen verbundenen Ausgangssignale berücksichtigt.
  • Die berührungsempfindliche Benutzerschnittstelle kann ferner eine weitere Vielzahl von Messflächen enthalten, und der Messungs-Schaltkreis kann mit der weiteren Vielzahl von Messflächen gekoppelt sein und in der Lage sein, weitere Ausgangssignale zu erzeugen, die Kopplungen (z. B. kapazitive oder magnetische) zwischen dem zeigenden Objekt und entsprechenden der weiteren Messflächen anzeigen; und die Steuerung kann in der Lage sein, die weiteren Ausgangssignale vom Messungs-Schaltkreis zu empfangen, eine Kombination der weiteren Messflächen zu bestimmen, die durch das Vorhandensein des zeigenden Objektes aktiviert sind, die Kombination aktivierter weiterer Messflächen mit mindestens einer vordefinierten Kombination der weiteren Messflächen zu vergleichen, und eine weitere ausgewählte der Messflächen entsprechend einer Übereinstimmung zwischen der Kombination aktivierter weiterer Messflächen und der mindestens einen vordefinierten Kombinationen weiterer Messflächen zu bestimmen.
  • Somit kann eine Anordnung von Messflächen theoretisch als in zwei oder mehr als zwei unabhängige Gruppen unterteilt betrachtet werden, und ausgewählte Tasten werden für jede Gruppe auf im Wesentlichen dieselbe Art und Weise bestimmt. Die Steuerung kann dann in der Lage sein, eine ausgewählte aus der zuerst erwähnten ausgewählten der Messflächen und der weiteren ausgewählten der Messflächen zu bestimmen. Zum Beispiel kann die Steuerung in der Lage sein, eine ausgewählte aus der zuerst erwähnten ausgewählten der Messflächen und der weiteren ausgewählten der weiteren Messflächen zu bestimmen, indem sie die Positionen der entsprechenden ausgewählten Messflächen innerhalb des Messbereichs berücksichtigt. Alternativ kann die Steuerung in der Lage sein, eine ausgewählte aus der zuerst erwähnten ausgewählten der Messflächen und der weiteren ausgewählten der weiteren Messflächen zu bestimmen, indem sie mit diesen Messbereichen verbundene Ausgangssignale berücksichtigt.
  • Gemäß einem zweiten Aspekt der Erfindung wird eine Vorrichtung/ein Gerät bereitgestellt, das eine berührungsempfindliche Benutzerschnittstelle entsprechend dem vierten Aspekt der Erfindung enthält. Die Vorrichtung/das Gerät kann zum Beispiel ein Mobiltelefon, ein Ofen, ein Grill, eine Waschmaschine, ein Wäschetrockner, eine Geschirrspülmaschine, ein Mikrowellen-Ofen, ein Lebensmittel-Mixer, eine Brotbackmaschine, eine Getränke-Maschine, ein Computer, eine Einheit der audiovisuellen Einrichtungen im Haushalt, ein tragbarer Media-Player, ein PDA, und so weiter sein.
  • Gemäß einem dritten Aspekt der Erfindung wird ein Verfahren bereitgestellt, um zu bestimmen, welche aus einer Vielzahl von Messflächen in einem Messbereich durch ein zeigendes Objekt ausgewählt wird, wobei das Verfahren umfasst: Messung einer Kopplung (z. B. einer kapazitiven Kopplung oder einer magnetischen Kopplung) zwischen dem zeigenden Objekt und entsprechenden der Messflächen; aus den gemessenen Kopplungen Bestimmen einer Kombination von Messflächen, die durch das Vorhandensein des zeigenden Objektes aktiviert sind, wobei die Kombination der aktivierten Messflächen mit mindestens einer vordefinierten Kombination von Messflächen verglichen wird; und Bestimmen einer ausgewählten der Messflächen gemäß einer Übereinstimmung zwischen der Kombination aktivierter Messflächen und einer aus den mindestens einen vordefinierten Kombinationen von Messflächen.
  • Das Verfahren kann es ferner umfassen, ein Ausgangssignal auszugeben, das die Messfläche anzeigt, die als die ausgewählte Messfläche bestimmt wurde.
  • Obwohl man annehmen kann, dass die oben angegebene ziemlich breite zusammenfassende Beschreibung für einen Fachmann von Nutzen sein kann, der lernen möchte, wie die Erfindung realisiert werden kann, wird anerkannt, dass die oben angegebene Beschreibung nicht die Absicht hat, alle Eigenschaften und Vorteile aufzulisten. Ein Fachmann wird erkennen, dass man leicht sowohl die zugrunde liegenden Ideen als auch die speziellen Ausführungen, die in der folgenden detaillierten Beschreibung offen gelegt werden, als Basis für die Entwicklung anderer Anordnungen zur Ausführung der selben Zwecke der vorliegenden Erfindung benutzen kann, und dass solche äquivalenten Konstruktionen im Geist und Umfang der Erfindung in ihrer breitesten Form liegen. Darüber hinaus kann erwähnt werden, dass verschiedene Ausführungen der Erfindung verschiedene Kombinationen der angegebenen Eigenschaften und Vorteile der Erfindung bereitstellen können, und dass von einigen Ausführungen weniger als alle der angegebenen Eigenschaften und Vorteile bereitgestellt werden können.
  • Es wird auch erkannt, dass oben in Verbindung mit einem Aspekt der Erfindung beschriebene Eigenschaften oft ebenso auf andere Aspekte der Erfindung angewendet und mit ihnen kombiniert werden können.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der Erfindung und um zu zeigen, wie dieselbe verwirklicht werden kann, wird nun als Beispiel Bezug auf die begleitenden Zeichnungen genommen, in denen:
  • 1 in einer perspektivischen Ansicht schematisch eine berührungsempfindliche Benutzerschnittstelle (UI) gemäß einer Ausführung der Erfindung zeigt;
  • 2 schematisch eine Draufsicht eines Teils eines Messbereichs der in 1 gezeigten UI zeigt;
  • 3 schematisch eine Übersicht über die Prioritäts-Rangfolge für Tasten des in den 1 und 2 gezeigten Tastenfeldes gemäß einer Ausführung der Erfindung zeigt;
  • 4 und 5 schematisch Übersichten über die Prioritäts-Rangfolge für Tasten des in den 1 und 2 gezeigten Tastenfeldes gemäß anderen Ausführungen der Erfindung zeigen;
  • 6 schematisch eine Draufsicht eines Teils eines Messbereichs der in 1 gezeigten UI zeigt, wobei Schattierungen dazu verwendet werden, drei getrennte Tasten-Gruppierungen zu zeigen;
  • 7A7C schematisch eine Reihe von vordefinierten Tasten-Kombinationen und entsprechende als vom Benutzer aus der Gruppe von Tasten ausgewählt erachtete Tasten in der linken Spalte von Tasten in der in 6 gezeigten UI zeigen;
  • 8A8C schematisch eine Reihe von vordefinierten Tasten-Kombinationen und entsprechende als vom Benutzer aus der Gruppe von Tasten ausgewählt erachtete Tasten in der mittleren Spalte von Tasten in der in 6 gezeigten UI zeigen;
  • 9A9C schematisch eine Reihe von vordefinierten Tasten-Kombinationen und entsprechende als vom Benutzer aus der Gruppe von Tasten ausgewählt erachtete Tasten in der rechten Spalte von Tasten in der in 6 gezeigten Benutzerschnittstelle zeigen;
  • 10A und 10B schematisch demonstrieren, wie eine einzelne Taste, die als zur Auswahl aus einer Vielzahl von aktivierten Tasten beabsichtigte Taste erachtet wird, in einer Benutzerschnittstelle gemäß einer Ausführung der Erfindung bestimmt wird;
  • 11 ein Flussdiagramm ist, das schematisch die Schritte zur Bestimmung einer vom Benutzer ausgewählten Taste aus einer Vielzahl aktivierter Tasten in einer Benutzerschnittstelle der in 1 gezeigten Art zeigt;
  • 12A schematisch eine Draufsicht einer berührungsempfindlichen Benutzerschnittstelle (UI) gemäß einer anderen Ausführung der Erfindung zeigt;
  • 12B12D schematisch eine Reihe von vordefinierten Tasten-Kombinationen und entsprechende als vom Benutzer ausgewählt erachtete Tasten für einige der Tasten in der Taststur der in 12A gezeigten UI zeigen;
  • 13 und 14 eine Anordnung von eng benachbarten kapazitiven Tasten zeigen;
  • 15(a) und 15(b) grafische Darstellungen der Signalstärke sind, die mit entsprechenden in 14 gezeigten Tasten verbunden sind und durch kapazitive Kopplung mit einem Finger verursacht werden;
  • 16 schematisch ein Mobiltelefon zeigt, das eine Anordnung von eng benachbarten kapazitiven Tasten hat;
  • 17 schematisch ein Tastenfeld eines Mobiltelefons zeigt;
  • 18 schematisch ein Tastenfeld zeigt, bei dem zwei Tasten gleichzeitig erkannt werden;
  • 19 schematisch ein Tastenfeld zeigt, bei dem Tasten in der obersten Zeile eine höhere Priorität haben;
  • 20 schematisch ein Tastenfeld eines Mobiltelefons zeigt, bei dem Tasten zur Benutzung durch einen rechtshändigen Benutzer priorisiert sind;
  • 21 schematisch ein Tastenfeld eines Mobiltelefons zeigt, bei dem Tasten zur Benutzung sowohl durch linkshändige, als auch rechtshändige Benutzer priorisiert sind;
  • 22 und 23 schematisch ein Tastenfeld eines Mobiltelefons zeigen, bei dem Kombinations-Tasten-Unterdrückung benutzt wird; und
  • 24 schematisch einen Prioritätsbaum zur Auswahl einer Taste zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • 1 zeigt in einer perspektivischen Ansicht schematisch eine berührungsempfindliche Benutzerschnittstelle (UI) 100 gemäß einer Ausführung der Erfindung. Die UI umfasst einen Messbereich 102, der eine Anordnung diskreter kapazitiver Messflächen 104 hat. In diesem Beispiel sind zwölf Messflächen in einer Drei-mal-vier-Anordnung angeordnet. Der Messbereich 102 kann geeignet als Tastatur oder Tastenfeld bezeichnet werden, und die Messflächen 104 können geeignet als Tasten bezeichnet werden. In 1 ist auch ein zeigendes Objekt 110 gezeigt, in diesem Fall der Finger eines Benutzers, der sich dem Tastenfeld nähert, um eine der Tasten auszuwählen.
  • Das Tastenfeld 102 kann ein herkömmliches Design haben. In dieser Ausführung ist das Tastenfeld aus einem Kunststoff-Trägermaterial ausgebildet, das diskrete Bereiche aus leitfähigem Material hat, die auf dessen Unterseite abgeschieden sind, um Mess-Elektroden bereitzustellen. Die Form und die Lage der Elektroden definieren die Form und die Lage der entsprechenden Messflächen der Tastatur/des Tastenfeldes.
  • Die Mess-Elektroden sind mit entsprechenden aus einer Vielzahl von Kapazitäts-Messungs-Kanälen 106 in einem Kapazitäts-Messungs-Schaltkreis gekoppelt. Die Kapazitäts-Messungs-Kanäle dienen zur Messung der kapazitiven Kopplung der zugehörigen Elektroden zu einem System-Referenzpotential (Masse) und zur Erzeugung entsprechender Ausgangssignale C1-12, die die gemessenen Kapazitäten anzeigen. Die Kapazitäts-Messungs-Kanäle können jede bekannte Art haben. Zum Beispiel können Schaltkreise auf der Basis von RC-Schaltkreisen, Kippschwingungs-Oszillatoren, Phasenverschiebungs-Messungen, Phasenregelkreis-Schaltkreise oder kapazitive Teiler-Schaltkreise benutzt werden. In diesem Beispiel basieren die Kapazitäts-Messungs-Kanäle auf Ladungs-Transfer-Verfahren, wie z. B. die in US 5,730,165 [1] oder US 6,466,036 [2] beschriebenen. Hier werden für jede Taste im Tastenfeld getrennte Kapazitäts-Messungs-Kanäle bereitgestellt. In anderen Ausführungen können weniger Kapazitäts-Messungs-Kanäle, z. B. ein einziger Kanal mit einem geeigneten Multiplex benutzt werden.
  • Die UI 100 enthält ferner eine Steuerung 108. Die Steuerung dient dazu, die Ausgangssignale C1-12 von den Kapazitäts-Messungs-Kanälen zu empfangen und aus den empfangenen Ausgangssignalen zu bestimmen, welche der Tasten (wenn überhaupt) von einem Benutzer ausgewählt wurde, und ein entsprechendes Ausgangssignal der Tasten-Auswahl O/P auszugeben. Das Ausgangssignal der Tasten-Auswahl O/P kann dann an eine Haupt-Steuerung der Vorrichtung, die der UI zugeordnet ist, weitergegeben werden, und von ihr kann soweit erforderlich auf die normale Weise darauf eingewirkt werden. Die Steuerungs-Funktionalität kann zum Beispiel durch einen geeignet programmierten Allzweck-Prozessor oder durch eine spezielle Hardware bereitgestellt werden. Zum Beispiel kann die Steuerung 108 einen geeignet konfigurierten anwendungsspezifischen integrierten Schaltkreis (ASIC), ein Field Programmable Gate Array (FPGA) oder eine Anordnung diskreter Bauelemente enthalten.
  • Das Tastenfeld in diesem Beispiel entspricht vom Layout dem eines typischen Telefons. Somit sind die zwölf Messflächen (Tasten) 104 jeweils den Zahlen 0 bis 9 und den Symbolen * (Stern) und # (Raute) zugeordnet, wie in der Figur gezeigt. Der Messbereich ist mit Grafik-Klebebildern überzogen, um einem Benutzer die Form und die Lage der darunter liegenden Elektroden, die die empfindlichen Flächen der Tasten definieren, und auch ihre zugehörigen Funktionen anzuzeigen. Um eine gewünschte Taste zu wählen, bewegt ein Benutzer seinen Finger zum geeigneten Teil der Messfläche (wie ihm durch die Auflage der Grafik-Klebebilder angezeigt), so dass sein Finger in die Nähe der entsprechenden Elektrode gebracht wird. Dieser Vorgang der Auswahl einer Taste wird manchmal als "Drücken" einer Taste bezeichnet. Es versteht sich jedoch von selbst, dass dieser Begriff der Einfachheit halber benutzt wird und nicht so interpretiert werden darf, dass er notwendigerweise irgendeine Form eines physischen Kontaktes zwischen dem zeigenden Objekt und der ausgewählten Messfläche impliziert.
  • In 1 ist der Benutzer gezeigt, wie er die zur Zahl 7 gehörende Taste auswählt. Durch die Nähe des Fingers des Benutzers zur Elektrode, die mit der Zahl 7 verbunden ist, erhöht sich die kapazitive Kopplung der Elektrode nach Masse. Dies führt zu einer Änderung des Ausgangssignals des zugeordneten Kapazitäts-Messungs-Kanals. Abhängig von der Natur des verwendeten Kapazitäts-Messungs-Kanals kann eine Erhöhung der kapazitiven Kopplung entweder zu einer Erhöhung des Ausgangssignals (direkter Zusammenhang) oder zu einer Verringerung des Ausgangssignals (umgekehrter Zusammenhang) führen. Aus Gründen der Einfachheit und sofern der Kontext nichts anderes fordert, müssen in dieser Beschreibung Referenzen auf ein erhöhtes Ausgangssignal so gelesen werden, dass sie eine Änderung des Ausgangssignals bedeuten, die eine Erhöhung der gemessenen kapazitiven Kopplung der zugehörigen Elektrode nach Masse bedeutet, unabhängig davon, ob ein direkter oder umgekehrter Zusammenhang zwischen der gemessenen Kapazität und dem Ausgangssignal vorliegt (d. h. unabhängig davon, ob die Parametrisierung des Ausgangssignals, die von dem Typ des Kapazitäts-Messungs-Kanals verwendet wird, als Reaktion auf eine Erhöhung der gemessenen Kapazität nach oben oder nach unten geht). Die Steuerung ist in der Lage, zu bestimmen, ob die Charakteristiken einer Erhöhung der gemessenen Kapazität (z. B. Größe, Dauer) so sind, dass angenommen werden muss, dass sich die Taste in einem aktivierten Zustand befindet. Das kann mit herkömmlichen Verfahren durchgeführt werden, zum Beispiel dadurch, dass er erforderlich ist, dass ein vordefinierter Aktivierungs-Ausgangssignalpegel überschritten wird, und des weiteren können Verfahren eingesetzt werden, wie Schwellwertverfahren, Drift-Kompensation, Filterung, usw.
  • Mit Bezug auf 1 wird somit durch die Nähe des Fingers des Benutzer zur gewünschten Taste, hier die Taste "7", das Ausgangssignal C7, das mit der Taste verbunden ist, um einen Wert erhöht, der dazu führt, dass die Steuerung feststellt, dass die Taste "7" aktiviert ist (z. B. weil das Ausgangssignal für eine ausreichend lange Zeit um einen Wert geändert geblieben ist, der groß genug ist). Wie oben erwähnt, wird es jedoch im Allgemeinen der Fall sein, dass das Vorhandensein des Fingers des Benutzers 110 in der Nähe der empfindlichen Fläche der gewünschten Taste "7" auch eine Erhöhung der kapazitiven Kopplung von im Messbereich benachbarten Tasten nach Masse verursachen wird, da der Finger des Benutzer sich auch in der Nähe dieser Tasten befindet. Außerdem kann die Erhöhung des Ausgangssignals, das mit den Tasten verbunden ist, deren Auswahl nicht beabsichtigt ist, für die Steuerung ausreichen, festzustellen, dass die Ausgangssignale dieser Tasten auch die Anforderungen erfüllen, um als aktiviert betrachtet zu werden. Somit können in dem in 1 gezeigten Fall die mit den Tasten "4", "5", "8", "0" und "*" verbundenen Ausgangssignale als Reaktion auf die Annäherung des Fingers des Benutzers auch eine beträchtliche Erhöhung zeigen und können so als aktiviert erscheinen. Die Taste "*" ist wahrscheinlich am stärksten betroffen, da zusätzlich zur Fingerspitze in der Nähe dieser Taste der Hauptteil des Fingers des Benutzers sich auch über ihr befindet (Handschatten). Deswegen kann es sogar sein, dass die Taste "*" eine größere Änderung des Ausgangssignals zeigt als die Taste "7".
  • Im Folgenden wird beschrieben, wie gemäß einer Ausführung der Erfindung die Steuerung 108 für die in 1 gezeigte UI arbeitet, um festzustellen, welche Taste als vom Benutzer zur Auswahl beabsichtigt zu nehmen ist, wenn mehrere Tasten eine Erhöhung des Ausgangssignals zeigen, die ausreicht, dass sie die Anforderungen erfüllen, um als aktiviert betrachtet zu werden.
  • Eine Erwägung bei der Bestimmung der wahrscheinlichsten der mehreren gleichzeitig aktivierten Tasten, die vom Benutzer für die Auswahl beabsichtigt ist, ist gemäß Ausführungen der Erfindung die Orientierung des Messbereichs (Tastenfeldes) relativ zur normalen Annäherungsrichtung eines zeigenden Objektes bei der normalen Benutzung. Aus Gründen der Einfachheit werden hier Begriffe wie oberer, unterer, links, rechts, usw. benutzt, um die relativen Positionen von Tasten im Messbereich gemäß einer Orientierung zu beschreiben, in der die Ausdehnungsrichtung eines zeigenden Objektes, die im Allgemeinen auch einer Annäherungsrichtung entspricht, im Wesentlichen parallel zu einer Richtung ist, die von einem unteren Teil zu einem oberen Teil des Tastenfeldes verläuft. Somit wird bei einer Tastatur eines Mobiltelefons, wie das in 1 gezeigte, ein Benutzer normalerweise Tasten auswählen, indem er seinen Finger aus einer Richtung nähert, die im Wesentlichen parallel zu den Spalten ist und von der Zeile, die die Tasten "*", "0" und "#" enthält, zur Zeile, die die Tasten "1", "2" und "3" enthält (wie in 1 schematisch gezeigt) verläuft. Somit kann die Zeile, die die Tasten "*", "0" und "#" enthält, als unterste Zeile (unteres Ende) des Tastenfeldes bezeichnet werden, und die Zeile, die die Tasten "1", "2" und "3" enthält, kann als oberste Zeile (oberes Ende) des Tastenfeldes bezeichnet werden. Diese Bezeichnungsweise wird ungeachtet der Tatsache benutzt, dass der Benutzer das Telefon so halten kann, dass die Ebene des Tastenfeldes eine beliebige Richtung hat (z. B. horizontal). Auf die gleiche Weise kann die Spalte, die die Tasten "1", "4", "7" und "*" enthält, als ganz linke Spalte des Tastenfeldes bezeichnet werden, und die Spalte, die die Tasten "3", "6", "9" und "#" enthält, kann als ganz rechte Spalte des Tastenfeldes bezeichnet werden.
  • 2 zeigt schematisch eine Draufsicht eines Teils des Messbereichs 102 der in 1 gezeigten UI, wobei der Finger des Benutzers 110 in einer Position gezeigt ist, in der er beabsichtigt, die Taste "1" auszuwählen. Der Finger des Benutzers ist ausreichend nahe an der beabsichtigten Taste "1", dass die Änderung des Ausgangssignals C1, das dieser Taste zugeordnet ist, so ist, dass die Steuerung feststellt, dass die Taste aktiviert ist. Dies ist in der Figur schematisch durch eine Schattierung der Taste "1" dargestellt. Der Finger des Benutzers erhöht auch das Ausgangssignal anderer Tasten im Tastenfeld, vor allem der Tasten "2", "5" und "4". Hier wird angenommen, dass die Taste "4" am meisten betroffen ist. Der Grund dafür ist, weil die Taste "4" sich unter der beabsichtigten Taste befindet, und so läuft die Ausdehnungsrichtung des Fingers des Benutzers direkt über diese Taste (Handschatten). Somit wird angenommen, dass die Taste "4" auch die Anforderungen erfüllt, um als aktivierte Taste betrachtet zu werden. Die Taste "4" wird in der Figur somit auch schattiert dargestellt. Es wird angenommen, dass die Tasten "2" und "5" in diesem Fall nicht ausreichend betroffen sind, um als aktiviert betrachtet zu werden, und so sind sie in 2 nicht schattiert. In dieser Situation (mindestens für Fälle, in denen nur eine Taste zu einer beliebigen Zeit als ausgewählt bestimmt werden kann) muss die Steuerung entscheiden, welche der Tasten "1" und "4" als vom Benutzer zur Auswahl beabsichtigt genommen werden muss, so dass ein geeignetes Ausgangssignal der Tasten-Auswahl O/P von der UI erzeugt werden kann.
  • In einer herkömmlichen berührungsempfindlichen Benutzerschnittstelle basiert die Entscheidung, welche der Tasten "4" und "1" als vom Benutzer ausgewählte Taste (d. h. als vom Benutzer zur Auswahl beabsichtigte Taste) genommen werden muss, typischerweise entweder auf der Größe der Ausgangssignale, die mit den beiden Tasten verbunden sind (d. h. die Taste mit dem größten Ausgangssignal wird als ausgewählte Taste betrachtet), oder auf dem Timing (d. h. die Taste, die zuerst aktiviert wird, wird als ausgewählte Taste betrachtet). Beide dieser Verfahren können jedoch leicht zu falschen Feststellungen führen. Zum Beispiel kann, obwohl in 2 der Benutzer beabsichtigt, die Taste "1" auszuwählen, die Änderung des Ausgangssignals C4, das mit der Taste "4" verbunden ist, tatsächlich größer sein. Der Grund dafür kann die zusätzliche kapazitive Kopplung durch den Hauptteil des Fingers des Benutzers nach Masse sein (Handschatten) oder einfach, dass die Taste "4" empfindlicher ist als die Taste "1". Berührungsempfindliche Tasten in einer Anordnung haben im Allgemeinen unterschiedliche Empfindlichkeiten. Die Unterschiede der Empfindlichkeit können sowohl durch Herstellungstoleranzen, als auch durch Umgebungseinflüsse verursacht werden (z. B. kann eine Taste näher an der Masseebene liegen, was zu einer Verringerung ihrer Empfindlichkeit führt). Ferner kann es sein, dass obwohl der Benutzer beabsichtigt, die Taste "1" auszuwählen, die Charakteristik der Änderung des Ausgangssignals C4, das mit der Taste "4" verbunden ist, so ist, dass die Taste "4" zuerst als aktiviert betrachtet wird (zuerst in die Aktivierung geht). Z. B. weil bei der Auswahl der Taste "1" der Finger des Benutzers sich zuerst über die Taste "4" bewegt. Somit können herkömmliche Verfahren zur Auswahl von Tasten, die auf der Größe oder dem Timing basieren, leicht zu einer falschen Bestimmung der beabsichtigten Taste führen.
  • Benutzerschnittstellen gemäß Ausführungen der Erfindung überwinden dieses Problem, indem sowohl die Ausgangssignale der Tasten im Tastenfeld, als auch ihre Positionen innerhalb des Tastenfeldes berücksichtigt werden, wenn eine vom Benutzer gewählte Messfläche (d. h. die beabsichtigte Taste) bestimmt wird. Dies kann erreicht werden, indem aus den aktivierten Tasten gemäß der Position der Tasten im Tastenfeld vorrangig ausgewählt wird, d. h. indem jeder Taste im Tastenfeld entsprechend ihrer Position eine Priorität zugeordnet wird und Tasten, die höhere Prioritäten haben, bevorzugt ausgewählt werden.
  • 3 zeigt schematisch eine Prioritäts-Rangfolge für Tasten des in den 1 und 2 gezeigten Tastenfeldes gemäß einer Ausführung der Erfindung. Für jede Taste ist die Priorität als hochgestellte Zahl zu dem Symbol gezeigt, das der Tastenfunktion zugeordnet ist. Somit ist allen Tasten in der obersten Zeile (oberes Ende) der Prioritäts-Rang 1 zugeordnet. Dies sind die Tasten mit der höchsten Priorität, wobei die Tasten untereinander die gleiche Priorität haben. Den Tasten "4", "5" und "6" wird allen der Prioritäts-Rang 2 zugeordnet. Den Tasten "7", "8" und "9" wird der Prioritäts-Rang 3 zugeordnet. Schließlich wird den Tasten der untersten Zeile (bezogen auf einen sich nähernden Finger) der niedrigste Prioritäts-Rang 4 zugeordnet.
  • Bei der Bestimmung, welche aus einer Vielzahl von Tasten, die als gleichzeitig aktiviert betrachtet werden, als die vom Benutzer zur Auswahl beabsichtigte Taste zu nehmen ist, ist die Steuerung in der Lage, den relativen Prioritäts-Rang der aktivierten Tasten zu berücksichtigen.
  • Eine Art, dies zu tun, ist auf absolute Weise, z. B. wobei die aktivierte Taste mit dem höchsten Rang als die ausgewählte Taste betrachtet wird (im Fall, das mehrere ausgewählte Tasten den selben höchsten Rang haben, kann zum Beispiel die Taste, die den höchsten Rang und das größte Ausgangssignal hat, oder die Taste, die den höchsten Rang hat und zuerst in die Aktivierung gegangen ist, ausgewählt werden). Mit Bezug auf 2 und 3 sind somit die Tasten "1" und "4" in Aktivierung. Die Taste "1" hat einen Rang von 1, und die Taste 4 hat einen Rang von 2. Somit wird die Taste "1" als die vom Benutzer zur Auswahl beabsichtigte Taste betrachtet, da sie eine höhere Priorität (Rang 1) als die Taste "4" (Rang 2) hat.
  • Eine andere Art, bei der die Steuerung den relativen Prioritäts-Rang für die aktivierten Tasten berücksichtigen kann, ist die Gewichtung des Ausgangssignals, um vorzugsweise Tasten an Positionen auszuwählen, die mit höheren Rängen verbunden sind. Somit kann die Steuerung so eingerichtet sein, dass sie eine Gewichtung der Ausgangssignale gemäß der Positionen der entsprechenden Tasten im Messbereich anwendet. Zum Beispiel kann jedem Prioritäts-Rang ein Skalierungsfaktor zugeordnet werden (d. h. so dass jeder Taste ein vordefinierter Skalierungsfaktor zugeordnet ist), und Tasten, denen höhere Skalierungsfaktoren zugeordnet sind, können bevorzugt vor Tasten, die geringere Skalierungsfaktoren haben, ausgewählt werden. Zum Beispiel und wieder mit Bezug auf die 2 und 3 kann ein Prioritäts-Rang von 1 mit einem Skalierungsfaktor von 2 verbunden sein, ein Prioritäts-Rang von 2 kann mit einem Skalierungsfaktor von 1,5 verbunden sein, ein Prioritäts-Rang von 3 kann mit einem Skalierungsfaktor von 1,0 verbunden sein, und ein Prioritäts-Rang von 4 kann mit einem Skalierungsfaktor von 0,5 verbunden sein. Somit werden für den in 2 gezeigten Fall die Ausgangssignale der aktivierten Tasten entsprechend ihrer jeweiligen vordefinierten Skalierungsfaktoren skaliert. Die Taste, die das höchste gewichtete Ausgangssignal hat, wird dann als die ausgewählte Taste betrachtet. Dies hat gegenüber dem oben beschriebenen Verfahren der absoluten Prioritäts-Rangfolge den Vorteil, dass eine Taste mit kleinerem Rang weiter gegenüber einer Taste mit höherem Rang ausgewählt werden kann, wenn ihr Ausgangssignal im Vergleich zu dem der Taste mit dem höheren Rang ausreichend groß ist (d. h. die Auswahl von Tasten mit dem geringsten Rang wird nicht zu stark blockiert).
  • Bei einigen Beispielen auf der Basis der Gewichtung von Ausgangssignalen kann es sein, dass der Schritt fehlt, zuerst zu bestimmen, welche Tasten aktiviert sind. Stattdessen können die Ausgangssignale aller Tasten mit ihren geeigneten vordefinierten Skalierungsfaktoren skaliert werden, und die Taste, die das größte gewichtete Ausgangssignal hat, als ausgewählte Taste genommen werden. (Möglicherweise nachdem zuerst bestimmt wird, dass das größte gewichtete Ausgangssignal vordefinierte Anforderungen für die Meldung einer Auswahl erfüllt, wie z. B. die Größe und Dauer des Signals, um zu vermeiden, dass die Steuerung eine ausgewählte Taste meldet, wenn das Tastenfeld tatsächlich nicht benutzt wird.)
  • 4 ist ähnlich wie 3 und wird mit ihr verstanden. 4 zeigt jedoch eine alternative Rangfolge der Tasten des in den 1 und 2 gezeigten Tastenfeldes. Wie in 3 wird für jede Taste in 4 der Prioritäts-Rang als hochgestellte Zahl an dem mit der Tastenfunktion verbundenen Symbol gezeigt. Die in 3 gezeigte und oben beschriebene Rangfolge kann die am besten geeignete für ein Tastenfeld sein, bei dem sich bei normaler Benutzung ein zeigendes Objekt aus einer Richtung nähert und sich entlang dieser erstreckt, die im Wesentlichen parallel zu den Spalten der Tasten ist. Somit werden Tasten in derselben Zeile gleiche Prioritäten zugeordnet. Für die in 4 gezeigte Rangfolge werden den Tasten jedoch Prioritäts-Ränge primär entsprechend ihrer Zeile, aber auch entsprechend ihrer Spalte zugeordnet. Somit haben Tasten in der obersten Zeile einen höheren Rang als Tasten in der nächsten Zeile, die selbst einen höheren Rang haben als Tasten in der nächsten Zeile, und so weiter. Ferner haben innerhalb jeder Zeile Tasten in der linken Spalte einen höheren Rang als Tasten in der mittleren Spalte, und Tasten in der mittleren Spalte haben wiederum einen höheren Rang als Tasten in der rechten Spalte. Diese Rangfolge kann für ein Tastenfeld geeigneter sein, bei dem sich bei normaler Benutzung ein zeigendes Objekt von der unteren rechten Seite des Tastenfeldes nähert (bei der in 4 gezeigten Orientierung). Dies kann zum Beispiel bei dem Tastenfeld eines Mobiltelefons mit einem überwiegend rechtshändigen Benutzer der Fall sein. Z. B. kann der Benutzer das Telefon in der Handfläche seiner rechten Hand halten und den Daumen als zeigendes Objekt verwenden, oder das Telefon in seiner linken Hand halten und den rechten Zeigefinger als zeigendes Objekt verwenden. In beiden Fallen besteht ein erhöhtes Risiko, das das Signal von Tasten rechts von einer beabsichtigten Taste durch den Daumen/die Fingerspitze des Benutzers, die relativ nahe zu ihnen sind und den Hauptteil des Daumens/Fingers, der über sie verläuft, übermäßig erhöht ist. Somit werden Tasten auf der linken Seite des Tastenfeldes Prioritäts-Ränge zugeordnet (angezeigt durch eine höhere hochgestellte Zahl in der Figur) als Tasten auf der rechten Seite des Tastenfeldes. (Eine Umkehrung dieser Rangfolge von links nach rechts kann für ein Tastenfeld besser sein, das vorwiegend von einem linkshändigen Benutzer benutzt wird. Die UI kann somit konfiguriert werden, dass es dem Benutzer möglich ist, aus den Rangfolgen auszuwählen).
  • 5 ist ähnlich wie die 3 und 4 und wird mit ihnen verstanden. Für die in 5 gezeigte Rangfolge wird den Tasten wieder eine Prioritäts-Rangfolge hauptsächlich entsprechend ihrer Zeile zugeordnet, und wie in 4 werden sie auch entsprechend ihrer Spalte priorisiert. Die Rangfolge entsprechend der Spalte unterscheidet sich jedoch von der in 4. Die Rangfolge der Zeilen ist im Wesentlichen dahingehend gleich, dass Tasten in der obersten Zeile einen höheren Rang haben als in der nächsten Zeile, die selbst einen höheren Rang haben als Tasten in der nächsten Zeile, und so weiter. In jeder Zeile haben Tasten in der linken Spalte und in der rechten Spalte jedoch einen gleichen Rang und einen höheren Rang als Tasten in der mittleren Spalte. Diese Rangfolge kann für ein Tastenfeld bevorzugt werden, bei dem bei normaler Benutzung ein zeigendes Objekt sich entweder von der unteren linken oder von der unteren rechten Seite des Tastenfeldes nähert (für die in der Figur gezeigte Orientierung). Dies kann zum Beispiel der Fall bei einem Tastenfeld eines Mobiltelefons sein, das entweder von linkshändigen oder rechtshändigen Benutzern benutzt wird, oder bei einem Gerät, das zwischen den Handflächen beider Hände gehalten wird und bei dem beide Daumen als zeigende Objekte verwendet werden. Das der in 5 gezeigten Rangfolge zugrunde liegende Prinzip ist, dass wenn ein zeigendes Objekt sich von rechts nähert und beabsichtigt, die Taste "4" auszuwählen, die Taste "5" weniger wahrscheinlich falsch gemeldet wird als die ausgewählte Taste, da sie wegen ihres geringeren Ranges unterdrückt wird. Die Taste "6" hat andererseits denselben Rang wie die Taste "4". Die Taste "6" wird jedoch im Allgemeinen weniger wahrscheinlich falsch ausgewählt, wenn ein Benutzer beabsichtigt, die Taste "4" zu wählen, weil sie weiter entfernt von seiner Fingerspitze ist und so erwartet wird, dass sie ein wesentlich kleineres Ausgangssignal zeigt (d. h. es besteht eine kleinere Wahrscheinlichkeit, dass eine nicht direkt benachbarte Taste falsch ausgewählt wird als eine direkt benachbarte Taste. Somit ist es nicht so wichtig, dass sie denselben Rang hat). Dasselbe gilt für ein zeigendes Objekt, das sich von links nähert und beabsichtigt, die Taste "6" auszuwählen (d. h. die Taste "5" wird durch ihren geringeren Rang unterdrückt, und die Taste "4" wird mit kleinerer Wahrscheinlichkeit ausgewählt, da sie eine größere Entfernung von der vom Benutzer beabsichtigten Taste "6" hat.)
  • Wie man leicht versteht, sind die speziellen Details jeder gegebenen Prioritäts-Rangfolge, z. B. die geeigneten Skalierungsfaktoren oder die absoluten Ränge für die verschiedenen Tasten vom vorliegenden speziellen Layout der Tastatur, von der relativen Größe der Tasten, dem Abstand zwischen ihnen bezogen auf die Größe und die Form des zeigenden Objektes, der normalen Orientierung bei der Benutzung der Tastatur und der Art des zeigenden Objektes und der Richtung, in der sich das zeigende Objekt normalerweise vorwärts und über die Tastatur bewegt, wenn eine Taste ausgewählt wird, abhängig. Die speziellen Details der Rangfolge können somit experimentell bestimmt werden, indem festgestellt wird, welche Tasten bei der normalen Benutzung eines speziellen Tastatur-Layouts eine Tendenz haben, falsch ausgewählt zu werden, wenn keine Rangfolge benutzt wird, und diesen Tasten eine entsprechend kleinere Rangfolge gegeben wird, um sie zu unterdrücken.
  • Betrachten wir zum Beispiel eine Tastatur, die 3 Tasten "A", "B" und "C" hat. In einem Experiment haben die Tasten denselben Rang, und ein Benutzer drückt jede Taste 100 mal auf die Weise wie es bei normaler Benutzung erwartet wird (d. h. er nähert sich der Tastatur mit dem normalen zeigenden Objekt aus der im Normalbetrieb verwendeten Richtung). Wegen der oben erwähnten Probleme bei der Bestimmung einer korrekten Auswahl wird angenommen, dass die Steuerung falsch feststellt, dass die Taste "A" 150 mal, die Taste "B" 100 mal und die Taste "C" 50 mal ausgewählt wird. Angesichts dieser Statistik kann die Rangfolge der Tasten so festgelegt werden, dass zum Beispiel das Ausgangssignal von der Taste "A" mit dem Faktor zwei Drittel skaliert wird, das Ausgangssignal von der Taste "B" mit dem Faktor eins skaliert wird, und das Ausgangssignal von der Taste "C" mit dem Faktor zwei skaliert wird.
  • 6 zeigt schematisch eine Draufsicht eines Teils des Messbereichs der in 2 gezeigten UI. 6 ist somit ähnlich der 2 und wird mit ihr verstanden. Teile der in 6 gezeigten UI sind jedoch durch Schattierungen überlagert, um einige vordefinierte Tasten-Gruppierungen zu zeigen (in diesem Fall drei), die in Ausführungen der Erfindung benutzt werden können. Die durch die Schattierung gezeigten Tasten-Gruppierungen bedeuten nicht, dass die gruppierten Tasten irgendwelche speziellen Charakteristiken gemeinsam haben, die sich von Tasten in anderen Gruppen unterscheiden, sondern die Gruppierungen sind angenommen und repräsentieren Sammlungen von Tasten, die zusammen und unabhängig von anderen Tasten für den Prozess des Bestimmens einer ausgewählten Taste entsprechend einiger Ausführungen der Erfindung berücksichtigt werden können. Wie in 6 gezeigt, bilden die Tasten "1", "4", "7" und "*" zusammen eine erste Gruppe von Tasten, die Tasten "2", "5", "8" und "0" bilden zusammen eine zweite Gruppe von Tasten, und die Tasten "3", "6", "9" und "#" bilden zusammen eine dritte Gruppe von Tasten. Die Erfinder haben herausgefunden, dass eine verbesserte Zuverlässigkeit der Auswahl von Tasten erreicht werden kann, wenn der Prozess der Bestimmung einer vom Benutzer beabsichtigten Taste in zwei Stufen ausgeführt wird. In einer ersten Stufe wird die wahrscheinlichste Taste in jeder der vordefinierten Gruppen bestimmt, zum Bespiel unter Verwendung der oben beschriebenen Prinzipien wobei die Tasten vorzugsweise entsprechend ihrer Position innerhalb der Gruppe ausgewählt werden, und in einer zweiten Stufe wird die insgesamt wahrscheinlichste Taste der wahrscheinlichsten Tasten aus jeder Gruppe bestimmt.
  • Mit Bezug auf 6 berücksichtigt die Steuerung zum Beispiel zuerst die Ausgangssignale von Tasten in der ersten Gruppe (d. h. die Tasten "1", "4", "7" und "*") und bestimmt, welche Taste innerhalb dieser Gruppe als die für diese Gruppe ausgewählte Taste anzusehen ist (unabhängig von den Ausgangssignalen von Tasten in anderen Gruppen). Diese kann als zwischenzeitlich ausgewählte Taste betrachtet werden. Der Grund dafür ist, dass obwohl die Taste aus den Tasten innerhalb der Gruppe ausgewählt wird, es sein kann, dass sie nicht endgültig als die vom Benutzer ausgewählte Taste aus dem Tastenfeld als ganzem bestimmt wird, da diese aus einer anderen Gruppe kommen kann. Die Auswahl der zwischenzeitlich ausgewählten Taste aus jeder Gruppe kann durchgeführt werden, indem die Ausgangssignale und die Positionen der Tasten im Messbereich unter Verwendung eines beliebigen der oben beschriebenen Verfahren berücksichtigt werden. In der Tat wird in diesem Stadium die Gruppe der Tasten "1", "4", "7" und "*" als eigenständiger Messbereich betrachtet, der nur vier Tasten enthält, die von anderen Tasten unabhängig sind. Die Steuerung führt dann dasselbe für die anderen beiden Gruppierungen durch. Diese beiden Gruppierungen sind ebenfalls in der Tat eigenständige Messbereiche. (Es versteht sich von selbst, dass die drei Tasten-Gruppierungen auch in einer anderen Reihenfolge oder parallel berücksichtigt werden können.) Somit kann mit diesem Verfahren die UI als drei getrennte und unabhängige Messbereiche betrachtet werden. Das Ergebnis sind daher drei unabhängig ausgewählte (zwischenzeitliche) Tasten, eine aus jeder Gruppe. (Es wird hier angenommen, dass in jeder Gruppe mindestens eine Taste vorhanden ist, die Ausgangssignal-Charakteristiken hat, die die Anforderungen erfüllen, als aktiviert betrachtet zu werden. In vielen Fällen kann es jedoch sein, dass in einer Gruppe keine Taste vorhanden ist, die als aktiviert betrachtet werden kann, und somit kann ein Null-Ergebnis (keine Taste wird als ausgewählt betrachtet) für die spezielle Gruppierung von Tasten bestimmt werden.)
  • Die nächste Stufe ist es, festzustellen, welche der drei zwischenzeitlichen unabhängig ausgewählten Tasten als einzige vom Benutzer ausgewählte Taste zu bestimmen ist. Dies kann auf verschiedene Arten durchgeführt werden, zum Beispiel auf der Basis bekannter Verfahren zur Auswahl zwischen mehreren Tasten (z. B. größtes Ausgangssignal, als erstes aktiviert, usw.). Alternativ kann die Auswahl auf eine Art durchgeführt werden, die ähnlich dem Verfahren ist, das zur Auswahl der Tasten aus den getrennten Gruppierungen verwendet wird (d. h. Berücksichtigen der Positionen der in der ersten Stufe ausgewählten Tasten innerhalb der UI als ganzem, wobei die Tasten möglicherweise in diesem Stadium im Vergleich zur ersten Stufe unterschiedliche Prioritäts-Ränge haben).
  • Die oben beschriebenen Verfahren zur Bestimmung einer beabsichtigten vom Benutzer ausgewählten Taste unter Berücksichtigung sowohl der mit Tasten (Messflächen) verbundenen Ausgangssignale als auch ihrer Positionen innerhalb des Messbereichs können als positionsabhängige Unterdrückungs-Verfahren (PDS) bezeichnet werden (weil Tasten entsprechend ihrer Positionen unterdrückt (oder andere aufgewertet) werden). Es hat sich herausgestellt, dass PDS-Verfahren unabhängig davon, wie viele Tasten gleichzeitig aktiviert sind, gut funktionieren. Die Erfinder haben jedoch auch herausgefunden, dass ein alternatives Verfahren, das hier als Kombinations-Tasten-Unterdrückung (CKS) bezeichnet wird, manchmal hilfreicher sein kann, wenn drei oder mehr Tasten gleichzeitig als in Erkennung/Aktivierung befindlich bestimmt werden. CKS-Verfahren können auch hilfreich sein, wenn sie in Kombination mit PDS-Verfahren benutzt werden, z. B. indem sie nacheinander angewendet werden, wie im Folgenden weiter beschrieben wird.
  • CKS-Verfahren können auf dieselbe Benutzerschnittstelle angewendet werden, wie in 1 gezeigt, wobei die Steuerung jedoch unterschiedlich konfiguriert ist, um das CKS-Verfahren zu implementieren. Ausführungen des CKS-Verfahrens basieren darauf, zuerst zu bestimmen, welche Kombination von Tasten innerhalb einer vordefinierten Menge/Gruppe von Tasten (welche die gesamte oder nur eine Untermenge der Tastatur/des Tastenfeldes sein können) für eine gegebene Messungs-Erfassung/einen Zyklus erkannt worden ist. Dies kann auf jede bekannte Weise durchgeführt werden, z. B. wie aus den Charakteristiken der Tasten-Ausgangssignale bestimmt. Sobald die in Erkennung befindlichen Tasten erkannt wurden, wird festgestellt, ob die spezielle Kombination aktivierter Tasten mit einer aus einer Vielzahl von vordefinierten Kombinationen übereinstimmt, und falls ja, wird eine Taste, die zuvor der übereinstimmenden vordefinierten Kombination zugeordnet wurde, als für die berücksichtigte Gruppe von Tasten ausgewählte Taste genommen. Wenn die Kombination der in Erkennung befindlichen Tasten nicht mit einer der vordefinierten Kombinationen übereinstimmt, können alternative Verfahren, wie z. B. das oben beschriebene PDS-Verfahren oder jedes herkömmliche Verfahren stattdessen dazu benutzt werden, eine ausgewählte Taste aus den in Erkennung befindlichen zu bestimmen.
  • Wie oben erwähnt, kann die Menge der Tasten, auf die das CKS-Verfahren angewendet werden kann, dem ganzen Tastenfeld oder nur einer Untermenge der Tasten des Tastenfeldes entsprechen. Im letztgenannten Fall kann die Untermenge unabhängig von den anderen Tasten berücksichtigt werden. Es hat sich herausgestellt, dass im Allgemeinen das CKS-Verfahren gut funktioniert, wenn es auf eine Menge von ungefähr vier bis ungefähr sechs Tasten angewendet wird. Somit können für ein herkömmliches Telefon-Tastenfeld, das zwölf Tasten aufweist, drei unabhängige Sätze aus vier Tasten definiert werden und getrennt voneinander betrachtet werden. Somit kann in einer Ausführung des CKS-Verfahrens, das auf ein Telefon-Tastenfeld der in 1 gezeigten Art angewendet wird, das Tastenfeld so betrachtet werden, als ob es theoretisch in drei Gruppen mit vier Tasten unterteilt ist, wie in 6 gezeigt. Das CKS-Verfahren kann dann unabhängig auf jede der ersten Gruppe/Satz von Tasten ("1", "4", "7" und "*"), der zweiten Gruppe/Satz von Tasten ("2", "5", "8" und "0") und der dritten Gruppe/Satz von Tasten ("3", "6", "9" und "#") angewendet werden. Die Gruppen werden normalerweise so definiert, dass jede Gruppe Sätze von Tasten enthält, bei denen es wahrscheinlich ist, dass sie aktiviert werden, wenn eine andere Taste innerhalb derselben Gruppe zur Auswahl durch einen Benutzer beabsichtigt ist. Somit werden die Gruppen normalerweise benachbarte Tasten umfassen, die entlang einer Richtung angeordnet sind, die mit einer Richtung der Ausdehnung/Annäherung eines zeigenden Objektes bei normaler Benutzung verbunden ist.
  • Die 7A bis 7C zeigen schematisch drei vordefinierte Tasten-Kombinationen, die mit der ersten Gruppe von Tasten des in 6 gezeigten Tastenfeldes verbunden sind (d. h. für die Tasten "1", "4", "7" und "*"). Für jede vordefinierte Kombination von Tasten wird auch eine entsprechende vordefinierte ausgewählte Taste gezeigt. Die vordefinierte ausgewählte Taste ist eine Taste, die als die vom Benutzer beabsichtigte Taste aus der Gruppe angesehen wird, die die Kombination aktivierter Tasten verursacht hat. Die vordefinierten Kombinationen von Tasten werden dargestellt, wobei eine Schattierung in der linken Darstellung des Tastenfeldes in jeder der Figuren benutzt wird. Die entsprechende ausgewählte Taste, die für die Kombination als vom Benutzer beabsichtigt angesehen wird, wird durch eine Schattierung in der rechten Darstellung des Tastenfeldes gezeigt. Es wird darauf hingewiesen, dass der Begriff "vom Benutzer beabsichtigt" und Variationen davon hier manchmal der Einfachheit halber benutzt werden, um sich auf die Taste zu beziehen, die von den Tasten in der Erkennung innerhalb einer gegebenen Gruppe von Tasten als ausgewählte Taste (d. h. zwischenzeitlich ausgewählte Taste) betrachtet wird. Wenn die Gruppe von berücksichtigten Tasten eine Untermenge eines Tastenfeldes ist (wie in 6 gezeigt), versteht sich von selbst, dass es sein kann, dass die Taste, die als vom Benutzer gewählte Taste für eine Gruppe bezeichnet wird, nicht die Taste ist, die schließlich als die Taste bestimmt wird, die der Benutzer aus dem Tastenfeld als ganzem auswählen möchte, da sich diese Taste in einer anderen Gruppe befinden kann.
  • Somit zeigt die linke Seite von 7A eine erste vordefinierte Kombination von Tasten, die den Tasten "1", "4" und "7" in der Erkennung und der Taste "*" nicht in der Erkennung entspricht. Die rechte Seite der 7A zeigt, dass entsprechend dieser Kombination die Taste "4" als die ausgewählte Taste betrachtet wird. Das heißt, wenn bei Benutzung der UI die Tasten "1", "4" und "7" als in Erkennung festgestellt werden, während die Taste "*" nicht in der Erkennung ist, vergleicht die Steuerung der Benutzerschnittstelle die beobachtete Kombination aktivierter Tasten ("1", "4" und "7") mit der vordefinierten Kombination von Tasten, die in 7A gezeigt wird, und bestimmt so, dass die Taste "4" (die als dieser Kombination entsprechend vordefiniert ist, wie auf der rechten Seite von 7A gezeigt) als zwischenzeitliche vom Benutzer beabsichtigte Taste aus dieser Kombination zu nehmen ist.
  • Auf ähnliche Weise zeigt 7B (linke Seite) eine zweite vordefinierte Kombination von Tasten, die den Tasten "4", "7" und "*" in der Erkennung und der Taste "1" nicht in der Erkennung entsprechen. Die rechte Seite von 7B zeigt, dass die Taste "7" als die Taste vordefiniert ist, die in dieser Kombination als die ausgewählte Taste betrachtet wird.
  • Schließlich zeigt 7C eine dritte vordefinierte Kombination aktivierter Tasten. In dieser Kombination sind alle Tasten der ersten Gruppe von Tasten in der Erkennung. Die rechte Seite von 7C zeigt, dass angenommen wird, dass diese Kombination von Tasten der Taste "4" als der vom Benutzer ausgewählten Taste entspricht.
  • In dieser Beispiel-Implementation des CKS-Verfahrens gibt es keine weiteren vordefinierten Kombinationen von Tasten in der ersten Gruppe von Tasten (d. h. es gibt keine vordefinierten Kombinationen von Tasten, die weniger als drei Tasten in Erkennung haben oder Kombinationen von drei Tasten, die nicht benachbart sind).
  • Die 8A bis 8C zeigen schematisch drei verschiedene vordefinierte Tasten-Kombinationen, die mit der zweiten Gruppe von Tasten des in 6 gezeigten Tastenfeldes verbunden sind (d. h. die Tasten "2", "5", "8" und "0"). Wieder wird für jede vordefinierte Kombination von Tasten auch eine entsprechende ausgewählte Taste gezeigt, die als die vom Benutzer beabsichtigte Taste für die Kombination angesehen wird. Wie in den 7A bis 7C werden die vordefinierten Kombinationen dargestellt, indem eine Schattierung in der linken Darstellung des Tastenfeldes benutzt wird, und die entsprechende als ausgewählt betrachtete Taste für jede Kombination wird durch eine Schattierung in den rechten Darstellungen gezeigt. Außer dass sie um eine Spalte verschoben sind, folgen die Tasten-Kombinationen und entsprechenden als ausgewählte Tasten betrachteten Tasten in der zweiten Gruppe von Tasten (d. h. die in der mittleren Spalte des Tastenfeldes) denen in der ersten Gruppe von Tasten (denen in der linken Spalte des Tastenfeldes).
  • Somit zeigt 8A eine vordefinierte Kombination von Tasten, die den Tasten "2", "5" und "8" in der Erkennung und der Taste "0" nicht in der Erkennung entspricht, und die der Taste "5" als der ausgewählten Taste entspricht. 8B zeigt eine vordefinierte Kombination von Tasten, die den Tasten "5", "8" und "0" in der Erkennung und der Taste "2" nicht in der Erkennung entspricht, und die der Taste "8" als der ausgewählten Taste entspricht. 8C zeigt eine vordefinierte Kombination von Tasten, die den Tasten "2", "5", "8" und "0" in der Erkennung entspricht (d. h. alle Tasten der Gruppe sind aktiviert), und die der Taste "5" als der aus der Gruppe auszuwählenden Taste entspricht. Wie bei der ersten Gruppe gibt es für diese Implementation des CKS-Verfahrens keine weiteren vordefinierten Kombinationen von Tasten.
  • Die 9A bis 9C zeigen schematisch drei verschiedene vordefinierte Tasten-Kombinationen, die mit der dritten Gruppe von Tasten des in 6 gezeigten Tastenfeldes verbunden sind (d. h. die Tasten "3", "6", "9" und "#"). Für jede vordefinierte Kombination von Tasten wird wieder eine entsprechende ausgewählte Taste gezeigt, die als die vom Benutzer beabsichtigte Taste für die Kombination angesehen wird. Wie in den 7A bis 7C werden die vordefinierten Kombinationen wieder dargestellt, indem eine Schattierung in der linken Darstellung des Tastenfeldes benutzt wird, und die entsprechende als ausgewählt betrachtete Taste für jede Kombination wird durch eine Schattierung in den rechten Darstellungen gezeigt. Die Tasten-Kombinationen und die entsprechenden als ausgewählt betrachteten Tasten innerhalb der dritten Gruppe von Tasten (d. h. die in der rechten Spalte des Tastenfeldes) stimmen wieder mit denen in der ersten und zweiten Gruppe von Tasten überein.
  • Somit zeigt 9A eine vordefinierte Kombination von Tasten, die den Tasten "3", "6" und "9" in der Erkennung und der Taste "#" nicht in der Erkennung entspricht, und die der Taste "6" als der ausgewählten Taste entspricht. 9B zeigt eine vordefinierte Kombination von Tasten, die den Tasten "6", "9" und "#" in der Erkennung und der Taste "3" nicht in der Erkennung entspricht, und die der Taste "9" als der ausgewählten Taste entspricht. 9C zeigt eine vordefinierte Kombination von Tasten, die den Tasten "3", "6", "9" und "#" in der Erkennung entspricht (d. h. alle Tasten der Gruppe sind aktiviert), und die der Taste "6" als der auszuwählenden Taste entspricht. Wie bei der ersten und der zweiten Gruppe gibt es für diese Implementation des CKS-Verfahrens keine weiteren vordefinierten Kombinationen von Tasten für die dritte Gruppe.
  • Geeignete vordefinierte Tasten-Kombinationen und die entsprechenden für die Kombinationen vordefinierten als ausgewählt betrachteten Tasten sind von der Art des vorliegenden Tastenfeldes, z. B. vom speziellen Layout der Tastatur, von der relativen Größe der Tasten, dem Abstand zwischen ihnen und der Größe und Form des zeigenden Objektes, der normalen Orientierung bei der Benutzung der Tastatur, der Art des zeigenden Objektes und den Richtungen, aus denen sich das zeigende Objekt normalerweise dem Tastenfeld nähert und entlang der es sich bei normaler Benutzung erstreckt, abhängig. Somit können geeignete vordefinierte Tasten-Kombinationen und entsprechende vordefinierte als ausgewählt betrachtete Tasten für die Kombinationen für ein gegebenes Tastenfeld empirisch bestimmt werden.
  • Zum Beispiel und mit Bezug auf ein Tastenfeld, das allgemein von dem in 1 gezeigten Typ ist, kann ein Experiment ausgeführt werden, bei dem ein Benutzer wahllos oder systematisch Tasten in einer der Gruppen auswählt, in die die Tastatur theoretisch unterteilt ist. Z. B wird in diesem Fall angenommen, dass das Experiment ausgeführt wird, um geeignete Tasten-Kombinationen für die erste Gruppe von Tasten ("1", "4", "7" und "*") zu bestimmen. Somit gibt der Benutzer eine beabsichtigte Taste innerhalb dieser Gruppe auf die Art ein, die bei normaler Benutzung erwartet wird (d. h. Annäherung an das Tastenfeld mit dem üblichen zeigenden Objekt (z. B. Finger) aus der Richtung bei normaler Benutzung und mit dem Tastenfeld in der Orientierung bei normaler Benutzung und mit dem Präzisionsgrad/der Benutzer- Aufmerksamkeit, die im normalen Betrieb erwartet wird). Ungefähr 400 Tasten-Auswahlen können durchgeführt werden, z. B. ungefähr 100 Tasten-Auswahlen pro Taste in der Gruppe. Für jede Tasten-Auswahl, die während des Experimentes durchgeführt wird, wird aufgezeichnet, welche Tasten als Ergebnis der Tasten-Auswahl in der Gruppe als zu aktivieren (d. h. in Erkennung) festgestellt werden. In manchen Fällen können Tasten in anderen Gruppen, z. B. Tasten in der mittleren Spalte, auch in die Erkennung gehen, aber diese können ignoriert werden, da in diesem Beispiel Tasten in der ersten Gruppe als von anderen Tasten unabhängig betrachtet werden. Die Ergebnisse des Experimentes können dann analysiert werden, um geeignete vordefinierte Tasten-Kombinationen und deren entsprechende als ausgewählt zu betrachtende Tasten zu bestimmen, zum Beispiel wie folgt.
  • Es wird für diese Ausführung angenommen, dass CKS-Verfahren nur angewendet werden müssen, um die Aktivierung mehrerer Tasten zu klären, wenn mehr als zwei Tasten in einer Gruppe gleichzeitig in Erkennung sind (andere Verfahren können benutzt werden, wenn zwei Tasten oder weniger in einer Gruppe gleichzeitig erkannt werden, z. B. PDS-Verfahren, wie unten mit Bezug auf die 10A und 10B beschrieben). Somit werden alle experimentellen Tasten-Auswahlen, die nicht zu drei Tasten innerhalb der Gruppe geführt haben, aus der Analyse gestrichen. Als nächstes wird eine Analyse der restlichen experimentellen Daten durchgeführt, um zu bestimmen, welche Kombinationen von drei oder mehr Tasten in der Gruppe sehr häufig auftreten, z. B. bei mehr als 5% der Ereignisse, bei denen als Reaktion auf die Auswahl der Taste drei oder mehr Tasten als aktiviert bestimmt werden.
  • Einige Tasten-Kombinationen treten mit kleinerer Wahrscheinlichkeit auf. Zum Beispiel ist es bei einem einzelnen zeigenden Objekt, wie einem Finger, unwahrscheinlich, dass die Tasten "1", "7" und "*" erkannt werden, während die Taste "4" nicht erkannt wird. Somit wird nicht erwartet, dass diese Kombination sehr häufig auftritt (wenn überhaupt). Der Grund ist, dass man im Allgemeinen (aber nicht notwendigerweise ausschließlich) erwartet, dass zusammenhängende benachbarte Tasten gleichzeitig erkannt werden. Der Grund, dass man nicht alle möglichen Kombinationen verwendet, d. h. der Grund, seltene Kombinationen auszuschließen, ist, den Verarbeitungsaufwand zu verringern, der bei normaler Benutzung der UI erforderlich ist. Der Verarbeitungsaufwand wird verringert, weil die Anzahl vordefinierter Tasten-Kombinationen, die berücksichtigt werden müssen, verringert wird. (In anderen Fällen können alle möglichen Kombinationen von Tasten als vordefinierte Kombinationen aufgenommen werden, die zugeordnete als ausgewählt zu betrachtende Tasten haben.) Im vorliegenden Fall wird angenommen, dass nur drei Kombinationen von drei oder mehr Tasten im Experiment sehr häufig auftreten. Dies ist die erste Kombination von Tasten "1", "4" und "7" (wie in 7A gezeigt), eine zweite Kombination von Tasten "4", "7" und "*" (wie in 7B gezeigt) und eine dritte Kombination aller Tasten innerhalb der Gruppe (wie in 7C gezeigt). Diese Kombinationen sind somit die einzigen vordefinierten Kombinationen, die für die erste Gruppe von Tasten zu benutzen ist.
  • Für jede dieser vordefinierten Kombinationen wird dann eine Analyse durchgeführt, um zu bestimmen, welche der einzelnen Tasten am häufigsten die zur Auswahl beabsichtigte Taste war, wenn die bestimmte Tasten-Kombination auftrat. Diese wird als beabsichtigte vom Benutzer gewählte Taste, die der Kombination entspricht, genommen. Nehmen wir zum Beispiel an, eine Kombination der Tasten "1", "4" und "7" in der Erkennung trat während des Experimentes 20 mal auf, und bei 20% dieser Ereignisse war die zur Auswahl beabsichtigte Taste die Taste "1", bei 5% der Ereignisse war die beabsichtigte Taste die Taste "7" und in den restlichen 75% der Ereignisse war die beabsichtigte Taste die Taste "4". In diesem Fall wird die Taste "4" als die am wahrscheinlichsten für die Auswahl beabsichtigte Taste definiert, wie in der rechten 7A gezeigt. Auf die gleiche Weise wird hier angenommen, dass die am häufigsten beabsichtigte Taste, wenn die Kombinationen der Tasten "4", "7" und "*" erkannt wurden und die Taste "1" nicht erkannt wurde, die Taste "7" ist (wie in 7B gezeigt), und die am häufigsten beabsichtigte Taste, wenn alle Tasten in der Gruppe erkannt werden, die Taste "4" ist (wie in 7C gezeigt).
  • Eine ähnliche Analyse der zweiten und dritten angenommenen Tasten-Gruppierungen, die in 6 gezeigt werden, kann durchgeführt werden, und es wird für das Tastenfeld-Layout in diesem Beispiel angenommen, das sie zu den Zusammenhängen führt, die in den 8A–C und 9A–C schematisch dargestellt werden.
  • Somit ist es unter Verwendung dieser Art von experimentellem Verfahren möglich, geeignete vordefinierte Tasten-Kombinationen und die entsprechenden als ausgewählt betrachtete Tasten zur Verwendung in Ausführungen des CKS-Verfahrens für jedes spezielle Tastenfeld-Layout und jede angenommene Tasten-Gruppierung zu bestimmen. Es wird verstanden, dass dieser Prozess der Bestimmung geeigneter vordefinierter Tasten-Kombinationen und entsprechender als ausgewählt betrachteter Tasten im Allgemeinen nur einmal in einem Design-Stadium für ein gegebenes Layout ausgeführt werden muss. (Und in der Tat möglicherweise nur für eine der angenommenen definierten Gruppen für den Fall, dass die Gruppen ein gleiches Layout und die gleiche Orientierung bezogen auf das zeigende Objekt haben, wie in 6). Dieselben vordefinierten Kombinationen und zugehörigen als ausgewählt betrachteten Tasten können dann für alle Tastenfelder benutzt werden, die mit demselben oder einem ähnlichen Design hergestellt wurden. Z. B. können die in den 7 bis 9 gezeigten vordefinierten Kombinationen für alle Tastenfelder benutzt werden, die ein Layout haben, das dem eines herkömmlichen Telefon-Tastenfeldes oder ähnlichem entspricht (z. B. jede ähnliche Anordnung von Tasten, egal ob als numerisches Tastenfeld oder anders benutzt). Im Allgemeinen ist es nicht erforderlich, geeignete vordefinierte Tasten-Kombinationen und entsprechende als ausgewählt betrachtete Tasten für jedes einzelne Tastenfeld neu zu bestimmen, sobald es einmal für das Design als ganzes durchgeführt wurde. In anderen Fällen kann eine UI einen Lern-Modus enthalten, wobei ein Endbenutzer das oben beschriebene Experiment selbst ausführt, um vordefinierte Tasten-Kombinationen und entsprechende als ausgewählt betrachtete Tasten zu bestimmen, die für seinen persönlichen Stil der Benutzung der Tastatur (d. h. von welcher Richtung er sich der Tastatur nähert und was er als zeigendes Objekt benutzt) geeignet sind.
  • Die 10A und 10B zeigen schematisch, wie eine einzelne Taste, die als zur Auswahl aus einer Vielzahl von aktivierten Tasten beabsichtigte Taste erachtet wird, in einer Benutzerschnittstelle gemäß einer Ausführung der Erfindung bestimmt wird, wobei sowohl CKS-, als auch PDS-Verfahren gemäß einer Ausführung der Erfindung benutzt werden. Hier wird angenommen, dass die CKS-Aspekte des Verfahrens entsprechend der vordefinierten, in den 7 bis 9 gezeigten Gruppierungen angewendet werden, und dass die PDS-Aspekte des Verfahrens entsprechend dem in 4 gezeigten Prioritäts-Schema angewendet werden.
  • In 10A zeigt die linke Darstellung des Tastenfeldes schematisch eine Draufsicht auf den Finger eines Benutzers 110 in einer Position, in der der Benutzer beabsichtigt, die Taste "4" auszuwählen. Somit wird die Fingerspitze des Benutzers über der Taste "4" liegend gezeigt. Der Finger des Benutzers nähert sich und erstreckt sich entlang einer Richtung von der unteren rechten Seite des Tastenfeldes (für die in der Figur gezeigte Orientierung). Das bedeutet, das andere Tasten als die beabsichtigte Taste "4" eine Erhöhung der kapazitiven Kopplung zeigen. Die Tasten für die die Charakteristiken des Anstiegs der kapazitiven Kopplung, die mit dem Vorhandensein des Fingers des Benutzers verbunden sind, ausreichen, dass die Taste als aktiviert betrachtet wird (z. B. wie gemäß einem herkömmlichen Verfahren, um dies festzustellen, bestimmt), werden in der Figur schattiert dargestellt. In diesem Beispiel ist das Tastenfeld relativ klein im Vergleich zum Finger des Benutzers, so dass der Finger mindestens teilweise die Mehrzahl der Tasten überlagert. Ferner sind in diesem Beispiel die Tasten relativ empfindlich (z. B. wurde ein relativ kleiner Schwellwert für die Änderung des Ausgangssignals eingestellt, bei dem eine Taste als in Erkennung betrachtet wird). Dies kann der Fall sein, weil beabsichtigt ist, das Tastenfeld auch mit einem Stift als Zeiger zu benutzen und es daher ausreichend empfindlich sein muss, um darauf zu reagieren. Als Folge des kleinen Tastenfeldes und seiner relativ hohen Empfindlichkeit verursacht der Finger des Benutzers, dass die Mehrzahl der Tasten als aktiviert bestimmt wird. Somit werden in diesem Beispiel, wie auf der linken Seite der 10A gezeigt, die Tasten "1", "2", "5", "7", "8", "9", "0" und "#" alle als aktiviert betrachtet. Gemäß dieser Ausführung der Erfindung wird eine zur Auswahl durch den Benutzer beabsichtigte Taste wie folgt bestimmt.
  • Zuerst werden die in 6 gezeigten Tasten-Gruppierungen einzeln berücksichtigt. Dies kann nacheinander oder parallel erfolgen, abhängig von der Rechenleistung der Steuerung der UI.
  • Die erste Gruppe von Tasten (die "1", "4", "7" und "*" enthält) wird hier zuerst berücksichtigt. Der UI-Prozessor ist in der Lage, die aktivierten Tasten in dieser Gruppe (d. h. die Tasten "1", "4" und "7") mit den für diese Gruppe vordefinierten Tasten-Kombinationen, wie in den 7A bis 7C gezeigt, zu vergleichen. Hier erkennt die UI-Steuerung eine Übereinstimmung mit der in 7A gezeigten vordefinierten Kombination von Tasten. Folglich wird die Taste "4" (wie auf der linken Seite von 7A gezeigt) als eine ausgewählte Taste aus der ersten Gruppe von Tasten bestimmt.
  • Die zweite Gruppe von Tasten (die "2", "5", "8" und "0" enthält) wird hier als nächstes berücksichtigt. Der UI-Prozessor ist in der Lage, die aktivierten Tasten in dieser Gruppe (d. h. die Tasten "5", "8" und "0") mit den für diese Gruppe vordefinierten Tasten-Kombinationen, wie in den 8A bis 8C gezeigt, zu vergleichen. Hier erkennt die UI-Steuerung eine Übereinstimmung mit der in 8B gezeigten vordefinierten Kombination von Tasten. Folglich wird die Taste "8" (wie auf der linken Seite von 8B gezeigt) als eine ausgewählte Taste aus dieser Gruppe von Tasten bestimmt.
  • Schließlich wird die dritte Gruppe von Tasten (die "3", "6", "9" und "#" enthält) berücksichtigt. Der UI-Prozessor ist nicht in der Lage, eine Übereinstimmung der aktivierten Tasten in dieser Gruppe mit einer für diese Gruppe vordefinierten Tasten-Kombination zu bestimmen. Der Grund dafür ist, dass die aktivierten Tasten (Taste "9" und "#") in dieser Ausführung nicht mit einer der vordefinierten, in den 9A bis 9C gezeigten Kombinationen übereinstimmen. Der UI-Prozessor greift daher auf der Basis des in 4 gezeigten Rangfolge-Schemas auf das oben beschriebene PDS-Verfahren zurück, um zwischen den aktivierten Tasten innerhalb der Gruppe zu unterscheiden. Somit wird die Taste "9" als ausgewählte Taste aus dieser Gruppe von Tasten bestimmt (weil die Taste "9" einen Rang von 9 hat, während die Taste "#" einen geringeren Prioritäts-Rang von 12 hat).
  • Somit wurden in diesem Stadium der Verarbeitung durch die UI-Steuerung die anfangs festgestellten acht aktivierten Tasten für den aktuellen Messungs-Erfassungs-Zyklus auf drei ausgewählte Tasten reduziert, eine aus jeder Gruppe. Diese Tasten sind "4", "8" und "9", wie durch die Schattierung auf der rechten Seite der 10A gezeigt.
  • Die linke Seite von 10B entspricht der rechten Seite von 10A. Die UI-Steuerung ist konfiguriert, nun eine der drei ausgewählten Tasten, die auf der linken Seite von 10B gezeigt werden, als die vom Benutzer beabsichtigte Taste für den vorliegenden Messungs-Zyklus auszuwählen. Dies kann durchgeführt werden, indem aus den drei ausgewählten Tasten entsprechend dem in 4 gezeigten Rangfolge-Verfahren ausgewählt wird. Somit wird in diesem Fall die Taste "4" als die vom Benutzer beabsichtigte Taste bestimmt, weil die Taste "4" einen auf der Position basierenden Prioritäts-Rang von 4 hat, während die Tasten "8" und "9" geringere Prioritäts-Ränge von 8, bzw. 9 haben.
  • Somit ist die UI-Steuerung einer UI, die das oben beschriebene Verfahren implementiert, in der Lage, aus den erkannten Tasten "1", "2", "5", "7", "8", "9", "0" und "#" während des Messungs-Erfassungs-Zyklus, der schematisch auf der linken Seite von 10A gezeigt wird, die Taste "4" als eine vom Benutzer beabsichtigte Taste zu bestimmen.
  • 11 ist ein Flussdiagramm, das die oben beschriebenen Schritte zur Bestimmung einer vom Benutzer ausgewählten Taste aus einer Vielzahl aktivierter Tasten in einer UI der in 1 gezeigten Art (wobei die UI-Steuerung geeignet konfiguriert ist, um das Verfahren auszuführen) darstellt.
  • In Schritt S1 stellt die UI-Steuerung fest, welche Tasten im Tastenfeld für den aktuellen Erfassungs-/Messungs-Zyklus erkannt werden (d. h. welche aktiviert sind). Dies kann entsprechend bekannter Verfahren durchgeführt werden, z. B. auf der Basis, dass es erforderlich ist, dass ein Tasten-Ausgangssignal einen vordefinierten Aktivierungs-Ausgangssignalpegel für mindestens eine vordefinierte Dauer überschreiten muss, damit die Taste als aktiviert betrachtet wird. Es können Verfahren benutzt werden, wie Schwellwertverfahren, Drift-Kompensation, Filterung, usw.
  • In Schritt S2 wird eine erste Gruppe von Tasten in dem Tastenfeld, z. B. eine aus den in 6 gezeigten Tasten-Gruppierungen, zur Berücksichtigung ausgewählt.
  • In Schritt S3 vergleicht die UI-Steuerung die aktivierten Tasten in der Gruppe, die aktuell berücksichtigt wird, mit den für die Gruppe vordefinierten Tasten-Kombinationen.
  • In Schritt S4 bestimmt die UI-Steuerung basierend auf den Ergebnissen des in Schritt S3 durchgeführten Vergleichs, ob eine Übereinstimmung zwischen der Kombination aktivierter Tasten in der aktuell berücksichtigten Gruppe und einer der vordefinierten Tasten-Kombinationen für die Gruppe besteht. Wenn eine Übereinstimmung (Entsprechung) vorliegt, folgt die Verarbeitung dem mit "Y" markierten Zweig zu Schritt S5. Wenn keine Übereinstimmung vorliegt, folgt die Verarbeitung dem mit "N" markierten Zweig zu Schritt S6.
  • Für den Fall, dass in Schritt S4 eine Übereinstimmung vorliegt, definiert die UI-Steuerung in Schritt S5 die Taste, die der passenden vordefinierten Tasten-Kombination zugeordnet ist, als eine aus der aktuell berücksichtigten Gruppe ausgewählte Taste.
  • Für den Fall, dass in Schritt S4 keine Übereinstimmung vorliegt, bestimmt die UI-Steuerung in Schritt S6 eine ausgewählte Taste aus der aktuell berücksichtigten Gruppe. Dies wird mit dem oben beschriebenen PDS-Verfahren durchgeführt. In diesem Beispiel erfolgt dies entsprechend dem in 4 gezeigten Prioritäts-Rangfolge-Verfahren (wobei nur die Tasten in der aktuellen Gruppe berücksichtigt werden).
  • In Schritt S7 bestimmt die UI-Steuerung, ob alle Gruppen, in die das Tastenfeld theoretisch unterteilt ist, berücksichtigt wurden. Falls nicht, folgt die Verarbeitung dem Zweig mit der Markierung "N", um zum Schritt S2 zurückzukehren und Schritt S2 bis S7 zu wiederholen, bis alle Gruppen berücksichtigt wurden. Sobald alle Gruppen berücksichtigt wurden, folgt die Verarbeitung dem Zweig mit der Markierung "Y" von Schritt S7 zum Schritt S8.
  • Das Ergebnis der Verarbeitung bis zum Schritt S8 ist somit eine Vielzahl ausgewählter Tasten, d. h. eine aus jeder Gruppe (wobei angenommen wird, dass alle Gruppen mindestens eine aktivierte Taste enthalten, falls nicht, wird in Schritt S5 oder S6 keine ausgewählte Taste bestimmt, und für diese Gruppe tritt ein Ergebnis von Null auf – d. h. es wird keine ausgewählte Taste für die Gruppe bestimmt).
  • In Schritt S8 bestimmt die UI-Steuerung aus den Tasten, die als ausgewählte Tasten für die entsprechenden Gruppen bestimmt wurden, eine vom Benutzer beabsichtigte Taste für den aktuellen Erfassungs-/Messungs-Zyklus. Dies erfolgt in diesem Beispiel unter Verwendung des oben beschriebenen PDS-Verfahrens entsprechend dem in 4 gezeigten Prioritäts-Rangfolge-Verfahren.
  • In Schritt S9 gibt die UI-Steuerung ein Signal aus, das die in Schritt S8 bestimmte vom Benutzer beabsichtigte Taste anzeigt. Eine Haupt-Steuerung des Gerätes/der Vorrichtung, z. B. eines Mobiltelefons, in dem die UI enthalten ist, empfängt das Signal, das die bestimmte vom Benutzer beabsichtigte Taste anzeigt und führt die geeignete Aktion aus. Z. B. kann die geeignete Aktion sein, die zur bestimmten beabsichtigten Taste gehörende Zahl in eine gewählte Telefonnummer aufzunehmen oder eine Menü-Option aufzurufen, die der bestimmten vom Benutzer beabsichtigten Taste entspricht.
  • In diesem Fall ist die UI konfiguriert, kontinuierlich Messungen durchzuführen, und somit kehrt nach Schritt S9 die Verarbeitung zurück zu Schritt S1 für eine weitere Wiederholung der Datenerfassung. Für den Fall, dass keine Tasten die Anforderungen erfüllen, in einem gegebenen Messungs-/Aktivierungs-Zyklus als aktiviert angesehen zu werden (d. h. im Fall, dass nur Ergebnisse von Null erhalten werden, nachdem alle Gruppen berücksichtigt wurden), ist die Steuerung konfiguriert, in Schritt S9 zu melden, dass die Tastatur zurzeit nicht benutzt wird (d. h. keine Taste ausgewählt ist).
  • Es wird verstanden, dass das in 11 gezeigte Verfahren auf mehrere Arten modifiziert werden kann.
  • Zum Beispiel kann die UI konfiguriert sein, einige oder alle Gruppen parallel statt in Serie zu verarbeiten, wie in 11 durch die Schleife von Schritt S7 nach S2 dargelegt.
  • In manchen Ausführungen kann es sein, dass die theoretische Unterteilung des Tastenfeldes in Gruppen nicht benutzt wird. D. h. das Tastenfeld kann so behandelt werden, als ob es nur eine Gruppe umfasst, die alle Tasten des Tastenfeldes enthält. Die Schritte, die den Schritten S2, S7 und S8 entsprechen, werden dann nicht benötigt, und die Taste, die in einem der Schritte S5 oder S6 bestimmt/definiert wird, wird für den aktuellen Messungs-Zyklus als die vom Benutzer beabsichtigte Taste betrachtet.
  • Ferner können in den Schritten S6 und/oder S8 unterschiedliche Verfahren benutzt werden. Z. B. PDS-Verfahren auf der Basis anderer Prioritäts-Rangfolge-Verfahren, wie die in den 3 und 5 gezeigten, oder Nicht-PDS-Verfahren, wie bekannte Verfahren, die nur auf den Ausgangssignalen beruhen, die mit den berücksichtigten Tasten verbunden sind (z. B. Auswahl welche Taste die größte Signalstärke, Signaldauer oder das am frühesten ansteigende Signal hat).
  • Es wird auch verstanden, dass die oben beschriebenen Verfahren auf andere UI-Layouts angewendet werden können, abhängig vom Gerät/von der Vorrichtung, in dem sich die UI befindet, und nicht auf die oben beschriebene Drei-mal-vier-Anordnung beschränkt sind.
  • Zum Beispiel zeigt 12A schematisch eine Draufsicht auf eine berührungsempfindliche Benutzerschnittstelle (UI) gemäß einer anderen Ausführung der Erfindung. Die UI enthält zu der in 1 gezeigten UI zusätzliche Tasten, aber Aspekte der UI sind ansonsten gleich der in 1 gezeigten UI und werden durch sie verstanden (wobei die Steuerung geeignet konfiguriert ist). Die UI in 12A enthält einen numerischen Tastenfeld-Abschnitt, wie in 1 gezeigt, und zusätzliche Tasten, die mit "A", "B", "C", "D" und "X" bezeichnet sind. Die UI kann zum Beispiel für die Benutzung in einem Haushalts-Herd sein. Die Tasten "A", "B", "C" und "D" können mit speziellen Kochprogrammen verbunden sein, die Taste "X" kann mit einer Ausschalt-Funktion verbunden sein, und das numerische Tastenfeld kann zum Beispiel zur Eingabe von Kochzeiten verwendet werden, wobei "*" und "#" Zusatzfunktionen haben, wie die Einstellung einer Verzögerungszeit oder die Einstellung einer Temperatur. Die speziellen Funktionen, die mit den Tasten verbunden sind und das Gerät/die Vorrichtung, in der die UI implementiert ist, sind nicht maßgeblich.
  • Der Tastenfeld-Abschnitt der UI kann theoretisch in drei Gruppen von Tasten unterteilt werden, wie in 6 gezeigt. Die Tasten "A", "B", "C" und "D" können als eine weitere Gruppe von Tasten betrachtet werden. Die Taste "X" kann als Haupt-Taste betrachtet werden, wobei wenn die Taste "X" erkannt wird, sie als die vom Benutzer beabsichtigte Taste genommen wird, unabhängig davon, welche anderen Tasten (wenn überhaupt) erkannt wurden. Das Verfahren der Definition einer/mehrerer Haupt-Taste(n) wie dieser kann dabei helfen sicherzustellen, dass sicherheitsrelevante Funktionen (z. B. das Ausschalten) leicht erkannt und aktiviert werden, auch wenn Tasten mit Bezug zu anderen Funktionen ebenfalls erkannt werden.
  • Eine UI-Steuerung der in 12A gezeigten UI kann konfiguriert werden, eine vom Benutzer ausgewählte Taste aus einer Vielzahl von aktivierten Tasten auf eine Weise zu bestimmen, die im Wesentlichen gleich der in 11 gezeigten ist. Es kann jedoch ein zusätzlicher Schritt zwischen den Schritten, die dem Schritt S1 und S2 in 11 entsprechen, ausgeführt werden, der der Feststellung entspricht, ob die Taste "X" erkannt wurde, und falls ja, direkt zu einem Schritt springt, der S9 entspricht, in dem die Taste "X" als die vom Benutzer ausgewählte Taste angezeigt wird. Dies dient dazu, dass in diesem Beispiel die Taste "X" eine Haupt-Taste ist.
  • Ansonsten kann die UI-Steuerung eine vom Benutzer gewählte Taste aus einer Vielzahl aktivierter Tasten im Wesentlichen wie oben beschrieben bestimmen. Der Haupt-Unterschied zu der oben beschriebenen Ausführung ist, dass es anstelle von drei Gruppen vier Gruppen gibt, die in den Schritten S2 bis S7 durchlaufen werden müssen. Ferner müssen den zusätzlichen Tasten "A", "B", "C" und "D" Prioritäts-Ränge zugeordnet werden, um sie in den Schritten zu benutzen, die den Schritten S6 und S8 der 11 entsprechen (wenn für diese Schritte PDS-Verfahren zu benutzen sind). Ferner werden vordefinierte Tasten-Kombinationen und zugeordnete als ausgewählt zu betrachtende Tasten für die zusätzlichen Tasten "A", "B", "C" und "D" definiert.
  • Ein positionsabhängiges Rangfolge-Schema für die zusätzlichen Tasten zur Verwendung in den Schritten, die den Schritten S6 und S8 entsprechen, kann zum Beispiel sein, dass alle Tasten "A", "B", "C" und "D" einen höheren Prioritäts-Rang als die Tasten im Abschnitt des numerischen Tastenfeldes der UI haben. Somit wird in Schritt 8 immer eine der Tasten "A", "B", "C" und "D" als die vom Benutzer beabsichtigte Taste bestimmt werden, wenn mindestens eine von ihnen erkannt wurde. Ferner können die Tasten innerhalb der Gruppe eine Rangfolge haben, so dass wenn in Schritt S4 keine Übereinstimmung vorliegt, in Schritt 6 die Taste "A" bevorzugt vor jeder anderen Taste ausgewählt wird, die Taste "B" bevorzugt vor der Taste "C" oder "D" ausgewählt wird, und die Taste "C" bevorzugt vor der Taste "D" ausgewählt wird, und die Taste "D" nur ausgewählt wird, wenn sie die einzige erkannte Taste in der Gruppe ist.
  • Die 12B bis 12D zeigen schematisch drei verschiedene vordefinierte Tasten-Kombinationen, die mit den Tasten "A", "B", "C" und "D" verbunden sind, und auch für jede vordefinierte Kombination von Tasten eine entsprechende Taste, die für diese Kombination als die ausgewählte Taste zu betrachten ist. Somit sind die 12B bis 12D gleich den 7 bis 9 und werden durch sie verstanden.
  • Somit zeigt die linke Seite von 12B eine erste vordefinierte Kombination von Tasten, die den Tasten "A", "B" und "C" in der Erkennung und der Taste "D" nicht in der Erkennung entspricht. Die rechte Seite von 12B zeigt, dass die Taste "3" als die ausgewählte Taste angesehen wird, die dieser Kombination entspricht. Die linke Seite von 12C zeigt eine zweite vordefinierte Kombination von Tasten, die den Tasten "A", "B" und "D" in der Erkennung und der Taste "C" nicht in der Erkennung entspricht. Die rechte Seite von 12C zeigt, dass die Taste "A" als die ausgewählte Taste angesehen wird, die dieser Kombination entspricht. Die linke Seite von 12C zeigt eine zweite vordefinierte Kombination von Tasten, die den Tasten "A", "B" und "D" in der Erkennung und der Taste "C" nicht in der Erkennung entspricht. Die rechte Seite von 12C zeigt, dass die Taste "A" als die ausgewählte Taste angesehen wird, die dieser Kombination entspricht. Die linke Seite von 12D eine dritte vordefinierte Kombination von Tasten, die allen Tasten in der Gruppe in der Erkennung entspricht. Die rechte Seite von 12D zeigt, dass die Taste "B" als die ausgewählte Taste angesehen wird, die dieser Kombination entspricht. Andere Kombinationen, die hier der Kürze halber nicht gezeigt werden, können auch definiert werden, zum Beispiel kann eine andere vordefinierte Kombination den Tasten "B", "C" und "D" in der Erkennung und der Taste "A" nicht in der Erkennung entsprechen. Die vordefinierten Kombinationen und ihre zugehörigen als ausgewählt betrachteten Tasten können empirisch bestimmt werden, wie oben beschrieben.
  • Die oben stehende Beschreibung, insbesondere mit Bezug auf 1, hat sich auf kapazitive Sensoren konzentriert, die auf Verfahren basieren, die als passive Messverfahren bezeichnet werden können, d. h. Sensoren, in denen alle Elektroden die Messflächen im Messbereich definieren, reagieren individuell auf eine kapazitive Kopplung zwischen einem zeigenden Objekt und entsprechenden der Messflächen (d. h. Sensoren des in US 5,730,165 [1] und US 6,466,036 [2] beschriebenen Typs). Ausführungen der Erfindung können jedoch auch auf Verfahren basieren, die man aktive kapazitive Messverfahren nennen kann. Z. B. Sensoren, in denen empfindliche Flächen auf gepaarten Ansteuerungs- und Empfangs-Elektroden basieren, wie z. B. in US 6,452,514 [5] beschrieben. Die Ansteuerungs- und Empfangs-Elektroden können in einer Matrix-Anordnung angeordnet sein, wobei Tasten (Messflächen) durch Überlappungsbereiche zwischen Zeilen- und Spalten-Elektroden definiert sind. Bei diesem Typ von Sensor modifizieren Änderungen in einer kapazitiven Kopplung zwischen einem zeigenden Objekt und entsprechenden der Messflächen die Übertragung eines Ansteuersignals von der Ansteuerungs-Elektrode zur Empfangs-Elektrode.
  • Obwohl sich die oben angegebene Beschreibung auf Benutzerschnittstellen konzentriert hat, die aus physikalisch getrennten Messflächen bestehen, können Ausführungen der Erfindung auf einer Benutzerschnittstelle basieren, die einen kontinuierlichen 2D-Messbereich hat, in dem "virtuelle" Messflächen definiert sind. Zum Beispiel kann ein kontinuierlicher 2D-Messbereich theoretisch in eine Anordnung von virtuellen getrennten Tasten unterteilt sein.
  • Es wird auch verstanden, dass Positions-Sensoren, die die Erfindung verkörpern, eine Vielzahl zusätzlicher Funktionen enthalten können. Zum Beispiel ist es in einigen Anwendungen wünschenswert, eine "Aufweck"-Funktion zu haben, wobei das komplette Gerät "schläft" oder sich in einem Ruhezustand oder einem Hintergrund-Zustand befindet. In solchen Fällen ist es oft wünschenswert, durch die bloße Nähe eines menschlichen Körperteils in einiger Entfernung ein Aufweck-Signal zu haben. Während sich das Gerät im Hintergrund-Zustand befindet, kann das Element als eine einzige große kapazitive Elektrode ohne Bezug auf die Positionsbestimmung angesteuert werden. In diesem Zustand sucht die elektronische Ansteuerungs-Logik nach einer sehr kleinen Änderung des Signals, nicht notwendigerweise groß genug, um sie als 2D-Koordinate zu verarbeiten, aber groß genug um festzustellen, dass sich ein Objekt oder ein Mensch in der Nähe befindet. Die Elektronik "weckt" dann das gesamte System auf, und das Element wird so angesteuert, dass es wieder ein echter Positionssensor wird.
  • Obwohl in dieser Beschreibung der Begriff "Berührung" benutzt werden kann, kann ein Positionssensor der oben beschriebenen Art auch empfindlich genug sein, dass er in der Lage ist, den Ort eines sich in der Nähe befindlichen Fingers (oder eines anderen Objektes, wie z. B. eines Stiftes) zu registrieren, ohne dass ein physischer Kontakt erforderlich ist. Der hier verwendete Begriff "Berührung" muss daher entsprechend interpretiert werden.
  • Es wird verstanden, dass obwohl praktische Ausführungen der Erfindung beschrieben wurden, innerhalb des Umfangs der vorliegenden Erfindung viele Änderungen/Hinzufügungen und/oder Ersetzungen durchgeführt werden können. Folglich sind die speziellen beschriebenen Beispiele nur als Veranschaulichung und nicht als Einschränkung beabsichtigt. Ferner versteht es sich aus der obigen Beschreibung, dass die Eigenschaften der Ausführungen der Erfindung auf Arten kombiniert werden können, die sich von den explizit in den begleitenden Ansprüchen beschriebenen unterscheiden.
  • Andere Ausführungen
  • Beim Lesen dieser Beschreibung kann es eine Hilfe für den Leser sein, wenn man Definitionen bestimmter in diesem Patentdokument verwendeter Worte und Formulierungen besonders erwähnt. Wo immer diese Definitionen bereitgestellt werden, wird ein Fachmann verstehen, dass in vielen, wenn nicht in den meisten Fällen, solche Definitionen sowohl für die vorherigen als auch die nachfolgenden Verwendungen solcher definierter Worte und Formulierungen gelten. Zu Beginn dieser Beschreibung kann man anmerken, dass die Begriffe "enthält" und "umfasst", sowie deren abgeleitete Formen eine Einschließung ohne Begrenzung bedeuten. Der Begriff "oder" ist einschließend und bedeutet und/oder. Das Wort "Taste", wie es in dieser Offenlegung allgemein benutzt wird, bezieht sich auf einen Teil einer mechanischen oder elektrischen Geber-Vorrichtung, der berührt werden kann und von Natur aus nicht bistabil ist. Dieser Begriff schließt speziell herkömmliche mechanische Schalter aus, bei denen zwei oder mehr elektrische Leiter in Kontakt zueinander gebracht werden oder voneinander weg bewegt werden, um eine elektrische Verbindung herzustellen oder zu unterbrechen. Die Begriffe "Tastatur", "Tastenfeld" und ähnliches beziehen sich alle auf Anordnungen von Tasten zur Dateneingabe, ohne dass eine Begrenzung der Größe oder Konfiguration der Anordnung besteht. Eine "Taste" kann auch eine dimensionale Messungsoberfläche sein, wie ein XY-Touch-Screen oder ein "Trackpad" oder eine Messungs-Zone, die nicht für eine normale Dateneingabe durch den Menschen gedacht ist, wie z. B. ein Sensor zur Erfassung eines Objektes oder eines Körperteils. "Berührung" kann entweder menschlicher oder mechanischer Kontakt oder die Nähe zu einer Taste bedeuten. Benutzer kann entweder ein Mensch oder ein mechanisches Objekt sein. Ein "Finger" kann unter anderem ein Finger eines Menschen, ein mechanischer Finger oder ein Stift sein. Eine "oben liegende" Taste kann eine Taste an einem bezogen auf eine andere Taste auf einem Tastenfeld nach oben entfernten Ort bedeuten. Eine "unten liegende" Taste kann eine Taste an einem bezogen auf eine andere Taste auf einem Tastenfeld nach unten entfernten Ort bedeuten.
  • Anders als bistabile elektromechanische Schalter, die entweder geöffnet oder geschlossen sind, liefern kapazitive Sensoren ein Signal, das sich mit dem Grad der Berührung oder der Größe der Kopplung zwischen dem Finger eines Benutzers und einem Messelement einer Tastatur ändert. Andere nicht bistabile Berührungs-Sensoren, wie z. B. eine Anordnung aus piezoelektrischen Sensoren, bei der sich das Ausgangssignal eines gegebenen Sensors mit steigender Betätigungskraft erhöht, haben mit kapazitiven Tasten viele Eigenschaften gemeinsam. Somit muss vieles der nachfolgenden Offenlegung als relevant für nicht kapazitive Tasten, die auch ein Ausgangssignal liefern, das auf einen Grad der Kopplung zwischen der Taste und einem Finger eines Benutzers, einem Stift oder einem anderen Tasten aktivierenden oder zeigenden Instrument, das sich in der Nähe der Taste befindet, betrachtet werden.
  • Mit Bezug auf 13 wird eine Anordnung von 'N' eng benachbarten kapazitiven Tasten in einem Tastenfeld 10 gezeigt, das von der Erfindung profitiert. Bei der Benutzung solch kleiner Tastenfelder ist es unvermeidbar, dass ein Finger viel mehr als die beabsichtigte Taste umfasst. Ein Finger, der eine prinzipiell beabsichtigte Tasten-Elektrode 12 berührt, kann leicht einen Umriss eines "Fingerabdrucks" 20 erzeugen, wie mit einer gestrichelten Linie gezeigt, wobei der Fingerabdruck eine zentroide Lage hat. Dieser Fingerabdruck umfasst auch die Taste 14, die nicht die beabsichtigte Taste ist. Die Größe der Überschneidungsfläche zwischen der gestrichelten Linie und jeder Tastenfläche ist eine angemessene Repräsentation der Größe der Änderung des Signalpegels, die jede geschnittene Taste durch die Berührung erhält, obwohl auch nicht berührte Tasten auch einen Anstieg des Signals durch die bloße Nähe des Fingers und durch Randfeld-Effekte innerhalb des Touch-Panels erfährt.
  • In diesem Fall wird gewünscht, die eine und nur eine Taste auszuwählen, die vom Benutzer beabsichtigt ist, während Ausgangssignale von benachbarten Tasten, die durch den Fingerabdruck geschnitten werden, unterdrückt werden. Bei dieser Erfindung einer "positionsabhängigen" Tasten-Unterdrückung wird das Ausgangssignal von der oberen Taste 12 gegenüber dem Signal von der unteren Taste 14 bevorzugt, dessen ungeachtet, dass in diesem Fall das Signal von der Taste 12 stärker ist als das von der Taste 14.
  • Mit Bezug auf die 14 und 15 wird eine Anordnung von kapazitiven Tasten in einem Tastenfeld 10 gezeigt, in dem ein Fingerabdruck, der durch den Umriss 22 (gestrichelte Linie) repräsentiert wird, die vier verschiedenen Tasten 12, 14, 16, 18 umfasst. Der Fingerabdruck des Benutzers 22 hat eine zentroide Lage A, die direkt über der Taste 14 und zwischen den Tasten 12, 14 ist. Ein Ausgangssignal von jeder Taste 12, 14, 16, 18 wird gemessen, aber das Signal von der Taste 14 hat die maximale Stärke, da der Umriss des Fingerabdrucks 22 die gesamte Taste 14 umfasst. Wie in 15(a) gezeigt liegt das Signal von jeder der Tasten 12 und 14 über einem Schwellwert. Die Taste 14 wäre zuerst die bevorzugte Taste. Wie in 15(b) gezeigt, wird jedoch gemäß der Erfindung das Ausgangssignal der Taste 14 unterdrückt und das Ausgangssignal der Taste 12 hervorgehoben, so dass die obere Taste 12 "gewinnt" und die vom Benutzer gewählte Taste wird. In der Erfindung können die Signale der Tasten 14, 16, 18 unterdrückt werden, und/oder das Signal der Taste 12 kann hervorgehoben werden. Daher erlaubt es die Erfindung einer oberen Taste (Taste 12 in 14), die ein schwächeres Signal hat, bezüglich einer unteren Taste (Taste 14 in 14), die ein stärkeres Signal hat, dominant zu werden, sogar wenn das gemessene Signal von der Taste 12 unter einem Schwellwert liegt. Die Signal-Hervorhebung kann auf die "beabsichtigte" Taste 12 geleitet werden, da die Taste in dem Bereich, in dem Tasten berührt werden, eine obere Position hat. Von einer Steuerung kann ein Algorithmus ausgeführt werden, um das gemessene Signal von der Taste 12 hervorzuheben oder zu aktivieren. In einer alternativen Ausführung kann das Tastenfeld, das eine Anordnung kapazitiver Tasten umfasst, die Form eines kapazitiven Touch-Screen oder Touch-Pad haben.
  • Mit Bezug auf 16 wird ein Mobiltelefon 30 gezeigt, das eine Anordnung kapazitiver Tasten in einem Tastenfeld hat, das dem in 14 gezeigten ähnlich ist. Die entsprechenden Einrichtungen in 16 haben dieselben Referenznummern wie die in 14. Das Ausgangssignal von der Taste 12 (die Nr. 5 im Tastenfeld repräsentiert) wird bezogen auf das Signal der Taste 14 (die Nr. 8 im Tastenfeld repräsentiert) hervorgehoben, so dass die Taste 12 die vom Benutzer ausgewählte Taste wird. Die Erfindung ist besonders nützlich, wenn ein Benutzer versehentlich die Tasten 14 und 18 berührt, obwohl er die beabsichtigte Taste 12 drücken möchte.
  • Mit Bezug auf 17 wird eine Anordnung von eng beieinander liegenden kapazitiven Tasten in einem Tastenfeld 50 gezeigt, das zu einem Mobiltelefon gehören kann. Die Tasten des Tastenfeldes 50 repräsentieren die Zahlen 1 bis 9. Die Tasten 1, 2 und 3 befinden sich in einer mit A bezeichneten oberen Ebene des Tastenfeldes 50; die Tasten 4, 5 und 6 befinden sich in einer mit B bezeichneten mittleren Ebene, und die Tasten 7, 8 und 9 befinden sich in einer mit C bezeichneten unteren Ebene des Tastenfeldes. Ein Fingerabdruck, der durch den Umriss 52 (gestrichelte Linie) repräsentiert wird, umfasst 7 verschiedene Tasten 1, 2, 4, 5, 6, 8, 9. Der Fingerabdruck des Benutzers 52 hat eine zentroide Lage auf der Taste mit der Nummer 5. Die Größe der Überschneidungsfläche zwischen der gestrichelten Linie und jeder Tastenfläche ist eine angemessene Repräsentation der Größe der Änderung des Signalpegels, die jede geschnittene Taste durch die Berührung erhält. Wenn der Finger eines Benutzers sich einer auszuwählenden beabsichtigten Taste nähert, hat er oft einen Winkel zu den Tasten auf dem Tastenfeld. Der Finger-Umriss 52 zeigt eine Berührung des Tastenfeldes 50, die in einem Winkel zu den Tasten erfolgt, wenn der Finger (nicht gezeigt) das Tastenfeld berührt. Die vom Benutzer beabsichtigte auszuwählende Taste ist die Taste Nummer 1 in der oberen Ebene A. Die Fingerspitze berührt die Taste 1, der Fingerabdruck umfasst jedoch auch die Tasten 2, 4, 5, 6, 8 und 9. Das Ausgangssignal der Taste 5 hat die maximale Signalstärke. Die Signale der Tasten 1, 2, 4 und 8 liegen oberhalb des Schwellwertes. Die Taste 5 wäre die anfangs bevorzugte Taste, da sie die größte Signalstärke hat, aber gemäß der Erfindung werden die Tasten 1 und 2 in der oberen Ebene A ausgewählt, indem ihre Signalstärke hervorgehoben wird und die Signale von den Tasten 4, 5, 6, 8 und 9 unterdrückt werden. Die Erfindung wählt vorzugsweise eine obere Taste auf der Grundlage ihrer Position in Relation zu anderen Tasten und auf der Grundlage des Winkels bei Berührung durch den Finger einer Person.
  • In diesem Fall liegt das Ausgangssignal von jeder der Tasten 1 und 2, das durch kapazitive Kopplung mit dem Finger eines Benutzers verursacht wird, über einem Schwellwert und hat im Wesentlichen die gleiche Stärke. Ein Algorithmus kann von einer Steuerung ausgeführt werden, um die Signale der Tasten 1 und 2 zu ignorieren, bis der Benutzer seinen Finger weg von der Taste 2 zur beabsichtigen Taste 1 bewegt, so dass das Signal der Taste 2 verringert wird.
  • Wenn ein Benutzer zwei Tasten auf der selben Ebene des Tastenfeldes berührt, zum Beispiel die Tasten 7 und 8 auf der unteren Ebene C, kann das DI-System, das in US 11/279,402 (veröffentlicht als US 2006-0192690 A1 ) offen gelegt wird, benutzt werden, um die gewünschte Taste auszuwählen.
  • In einer alternativen Ausführung kann es sein, dass das Ausgangssignal von der beabsichtigten Taste 1 nicht hervorgehoben werden muss, um sie zur vom Benutzer ausgewählten Taste zu machen. Ein von einer Steuerung ausgeführter Algorithmus kann in der Lage sein, die Signale der Tasten 1, 2, 4, 5, 6, 8 und 9 zu verarbeiten und die Taste 1 auf der Basis des in 17 gezeigten Berührungs-Vektors zur vom Benutzer ausgewählten Taste zu machen. Ein Algorithmus kann eingerichtet sein, verschiedene Berührungs-Vektoren zu verarbeiten, um die vom Benutzer ausgewählte Taste festzustellen, in diesem Fall die Taste 1 in der oberen Ebene A.
  • Es gibt natürlich viele mögliche Variationen und Erweiterungen der Prozedur. Zum Beispiel kann man einen seltenen Fall betrachten, dass ein Benutzer seine Fingerspitze so auf eine Tastatur bringt, dass der Berührungspunkt genau zwischen zwei Tasten liegt. In diesem Fall könnte man den beschriebenen Prozess so modifizieren, dass entweder nur eine der Tasten ausgewählt wird (z. B. mittels eines bekannten Algorithmus zur Auswahl von Pseudozufallszahlen oder nach der Abtast-Reihenfolge), oder dass das Ausgangssignal beider Tasten unterdrückt wird, bis der Benutzer seinen Finger genug bewegt, dass eine der beiden Tasten ein höheres Ausgangssignal hat als die andere.
  • Somit versteht es sich von selbst, dass es in mehreren der Anwendungen mit kapazitiven Tasten möglich ist, einige Einschränkungen der erkannten Tasten anzuwenden, die vom physikalischen Design der Tastatur abhängen. Eine universelle Einschränkung ist das AKS-Verfahren, bei dem die Taste mit dem stärksten Signal gewinnt. Wenn bei sehr kleinen Tastaturen (wie bei Mobiltelefonen) jedoch nur das AKS-Verfahren benutzt wird, beobachtet man möglicherweise falsche Verhaltensweisen, die auf dem "Handschatten"-Effekt und unterschiedlichen Empfindlichkeiten der Tasten beruhen. Durch den Handschatten-Effekt wird das Maximum des Signals in die eine oder die andere Richtung verschoben, was zu einer falschen Meldung des Tastendrucks führt. Zum Beispiel berührt in 18 der Finger die Unterseite der Taste 1 und erzeugt auch ein Signal in der Taste 4. Wegen des Handschatten-Effektes kann Taste 4 ein stärkeres Signal haben und beim AKS-Verfahren gewinnen. Wenn die Empfindlichkeit der Tasten nicht gleich ist (und dies ist praktisch immer den Fall), kann außerdem die Taste mit der größeren Empfindlichkeit (größere Wahrscheinlichkeit für ein Signal) beim AKS-Verfahren die benachbarten Tasten komplett unterdrücken ("Verschwinden" einer Taste).
  • Eine Lösung des Problems ist es, das physikalische Design der Tastatur zu berücksichtigen und wenn mehrere Tasten gleichzeitig erkannt werden, einige von ihnen zu unterdrücken.
  • Wenn zum Beispiel zwei Tasten erkannt werden, wie in 18 (Taste 1 und Taste 4) und man weiß, dass Taste 1 im Norden (d. h. in der Zeichnung auf der Oberseite) der Tastatur liegt, kann Taste 4 unterdrückt werden und nur Taste 1 gemeldet werden. Hier arbeitet das AKS-Verfahren bei einer kleinen Tastatur nicht korrekt – Taste 4 wird durch den Handschatten-Effekt ansprechen.
  • Eine Lösung des Problems ist es, Prioritäten unter den Tasten zu implementieren, die entsprechend dem physikalischen Design der Tastatur eingestellt werden können. Kennt man die normale Berührungsrichtung (jede Tastatur hat eine bestimmte Orientierung), kann man einigen Tasten eine höhere Priorität zuordnen als anderen, und sie werden erkannt, auch wenn sie nicht das größte Signal haben (aber noch ein Signal für die Erkennung haben). Bei den Tasten mit derselben Priorität kann man das Standard-AKS-Verfahren anwenden – die Taste mit dem stärksten Signal gewinnt.
  • In 19 ist gezeigt, wie man Prioritäten auf einer Standard-Tastatur zuordnen kann – oben liegende Tasten haben immer eine höhere Priorität als unten liegende Tasten (eine kleine Zahl bedeutet eine hohe Priorität).
  • Bei Tastaturen von Mobiltelefonen kann der Daumen die gesamte Tastatur bedecken, um die Taste auf der gegenüber liegenden Seite zu drücken. In solchen Fällen arbeitet die Konfiguration der Tasten-Prioritäten in 19 nicht richtig, und es ist besser die in 3 gezeigte zu benutzen.
  • In 20 wird gezeigt, wie man den Tasten der Tastatur eines Mobiltelefons Prioritäten zuweisen kann. Tasten auf der linken Seite haben immer eine höhere Priorität als Tasten auf der rechten Seite und oben liegende Tasten haben eine höhere Priorität als unten liegende Tasten. Man beachte, dass diese Konfiguration gut bei Rechtshändern arbeitet, unter bestimmten Umständen bei Linkshändern aber Fehler auftreten können.
  • In 21 wird eine Lösung gezeigt, bei der für Rechtshänder und Linkshänder eine gleiche Unterdrückung der Tasten angewendet wird – die Tasten in der Mitte haben eine geringere Priorität als die Tasten rechts und links, und es gibt weiterhin oben liegende Tasten mit einer höheren Priorität als die unten liegenden Tasten.
  • Eine weitere Verbesserung kann erreicht werden, wenn man spezielle Tasten-Kombinationen betrachtet (CKS – Combination Key Suppression). Die Idee ist, dass die Unterdrückung nach Prioritäten gut funktioniert, wenn 2 Tasten erkannt werden, aber bei 3 und mehr gleichzeitig erkannten Tasten in manchen Fällen Fehler auftreten. Wenn man eine der Kombinationen findet, kann man eine spezielle Taste melden – zum Beispiel kann man in 22, wenn Taste 1, Taste 4 und Taste 7 gleichzeitig erkannt werden, Taste 4 melden, und wenn Taste 3, Taste 6, Taste 9 und Taste 12 erkannt werden, kann man Taste 6 melden.
  • Im Fall von Taste 1, Taste 4 und Taste 7 kann man, wenn alle 3 Tasten erkannt werden, annehmen, dass die Berührungs-Position sich über der Mitte des Berührungsbereichs befindet, d. h. Taste 4. Um präziser zu sein, wird dieser Punkt durch den Handschatten-Effekt leicht in Richtung von Taste 1 verschoben, aber er wird noch im Bereich von Taste 4 sein.
  • Im Fall von Taste 3, Taste 6, Taste 9 und Taste 12 liegt, wenn alle 4 Tasten erkannt werden, die Mitte der Berührungs-Fläche zwischen Taste 6 und Taste 9, aber durch den Handschatten-Effekt wird sie sich nach Norden zur Taste 6 bewegen (der Handschatten-Effekt "zieht" die berechneten Positionen immer nach unten, so dass die wirkliche Berührungs-Position immer höher als die Mitte der Berührungs-Fläche angenommen werden kann).
  • Die Kombinations-Tasten-Unterdrückung (Combination Key Suppression, CKS) kann nur in diesen Fällen benutzt werden, wenn mehrere Tasten erkannt werden, wobei die Unterdrückung von Tasten nach Prioritäten Fehler zeigen kann. In der Praxis benötigt man für die in 22 gezeigte Tastatur 6 Kombinationen.
  • Bei der Anwendung von CKS ist es wichtig, dass es immer vor PKS und AKS angewendet wird, um die besten Ergebnisse zu erzielen. Wenn man eine der Kombinationen findet, wird sie durch die zugehörige Kombination ersetzt, ohne die Tasten außerhalb der Kombination zu beeinflussen. Zum Beispiel findet man in 23 die Kombination Taste 2, Taste 5 und Taste 8 – Taste 2 und Taste 8 werden eliminiert und Taste 5 bleibt, beeinflusst aber nicht Taste 3, Taste 6, Taste 9 und Taste 12. Wir finden auch die anderen Kombinationen – Taste 3, Taste 6, Taste 9 und Taste 12, wobei nur Taste 6 nicht eliminiert wird. Als Ergebnis nach der Anwendung von CKS können wir nur Taste 5 und Taste 6 in der Erkennung sehen, und da Taste 5 eine höhere Priorität hat wird nach der Anwendung von PKS die ausgewählte Taste bestimmt – Taste 5.
  • Die Implementation von CKS, PKS und AKS in eingebettete Systeme kann es erforderlich machen, besondere Sorgfalt zur Optimierung der ROM/RAM-Benutzung anzuwenden.
  • Der Algorithmus wurde von den Erfindern in einer Tastatur für ein Mobiltelefon implementiert und hat die Zuverlässigkeit der Erkennung der Tasten beträchtlich verbessert. Bei Verwendung des Standard-AKS-Verfahrens war bei 200 Tastendrücken die Fehlerrate > 30% (insbesondere in bestimmten Bereichen sogar noch höher), und manche Tasten in der Mitte wurden stark beeinflusst und von den benachbarten unterdrückt. Durch Implementation von PKS und CKS (bei für alle Tasten ausgeschaltetem AKS) lag die Fehlerrate unter 0,5%.
  • In der Praxis hat sich herausgestellt, dass wenn 4 fortlaufende Tasten in einer Spalte gleichzeitig erkannt werden, es sein kann, dass die beste Übereinstimmung für die erkannte Taste nicht die oberste, sondern die zweite von oben ist.
  • Die Implementation von PKS und CKS kann die Zuverlässigkeit der Erkennung der Tasten drastisch verbessern, wenn die Prioritäten und die Code-Muster richtig definiert werden.
  • Die Priorität wird durch die Position der Taste im "Prioritäts-Baum" definiert, und speziell aus der Priorität des Knotens, mit der sie verbunden ist – eine kleinere Nummer des Knotens bedeutet eine höhere Priorität. Die Kenntnis des Prioritäts-Baums hilft uns, die Prioritäts-Nummern der Knoten zu optimieren und zu organisieren, und in einfachen Fällen müssen wir sicher einen solchen Baum nicht zeichnen.
  • Man kann mehrere Prioritätsebenen definieren (in 24 sind 3 verschiedene Ebenen gezeigt). Zweige sind die Verbindungen zwischen den Prioritätsebenen. Knoten sind die Orte, an denen ein oder mehrere Zweige zusammenkommen. Endknoten haben nur eine Zweig-Verbindung (zum Beispiel Knoten 324). Jeder Knoten hat eine eindeutige Prioritäts-Nummer. Der Eltern-Knoten ist der erste Knoten, den man in Richtung Wurzel sieht. Ein Pfad ist die Bahn von einer Taste zur Wurzel des Prioritäts-Baums.
  • Der gesamte Prozess der Unterdrückung der Tasten ist extrem einfach – anfangs wird jedem Knoten eine Zahl zugeordnet, die die Priorität des Knotens repräsentiert. Wenn zwei Tasten gleichzeitig erkannt werden, vergleichen wir einfach die Knoten-Nummern der Tasten, und die Taste mit der kleinsten Knoten-Nummer gewinnt. Für den Fall, dass beide Tasten am selben Knoten angeschlossen sind, kann das Standard-AKS-Verfahren angewendet werden – die Taste mit dem stärksten Signal gewinnt. Eine kleinere Nummer der Knoten bedeutet eine höhere Priorität. Die Berechnung der Taste, die gewinnt, erfordert mehrere Iterationen zur Elimination von Tasten mit geringer Priorität – eine Iteration für jede Prioritätsebene.
  • Die Haupt-Regel, mit der die Priorität aufgelöst wird, wenn zwei oder mehr Tasten gleichzeitig erkannt werden, ist:
    • 1. Wenn mehrere Tasten gleichzeitig erkannt werden, gewinnt die Taste, die an dem Knoten mit der kleinsten Nummer angeschlossen ist (kleinste Nummer bedeutet höchste Priorität zwischen diesen Tasten). Beispiel: Nehmen wir an, dass Taste 3, Taste 2, Taste 6 und Taste 11 gleichzeitig erkannt werden. Da Taste 3 am Knoten Pr100 angeschlossen ist, wird sie gegenüber Taste 2, Taste 6 und Taste 11 gewinnen.
    • 2. Die an den Knoten mit der Priorität NULL angeschlossene Taste wird nicht in die Berechungen zur Unterdrückung durch Prioritäten aufgenommen, d. h. die Priorität NULL bedeutet das Sperren des Unterdrückungs-Prozesses. Somit müssen alle Tasten, die aus den Berechnungen zur Unterdrückung durch Prioritäten ausgeschlossen werden sollen, am Knoten Null angeschlossen werden.
    • Beispiel: Taste 7 ist an den Knoten NULL angeschlossen, somit beeinflusst sie andere Tasten nicht, und sie können die Taste 7 nicht beeinflussen.
  • Obwohl die oben angegebene Beschreibung sich auf kapazitive Messungs-Technologien konzentriert hat, können Ausführungen der Erfindung auf anderen Kopplungs-Mechanismen basieren, z. B. auf magnetischen Kopplungs-Mechanismen. Zum Beispiel können die Messflächen durch Magnetfeld-Sensoren bereitgestellt werden, und ein zeigendes Objekt kann magnetisiert sein, so dass die Magnetfeld-Sensoren empfindlich auf seine Nähe sind. Andere kontaktlose Kopplungs-Mechanismen können auch benutzt werden.
  • Somit werden Vorrichtungen und Verfahren beschrieben, um auszuwählen, welche aus einer Vielzahl von gleichzeitig aktivierten Tasten in einer Tastatur auf der Basis einer Anordnung kapazitiver Sensoren die Taste ist, die von einem Benutzer zur Auswahl beabsichtigt ist. Kombinationen von Tasten, die im Allgemeinen gleichzeitig aktiviert werden, wenn ein Benutzer beabsichtigt, eine einzelne Taste auszuwählen, werden erkannt und den einzelnen Tasten zugeordnet, bei denen es am wahrscheinlichsten ist, dass sie bei normaler Verwendung der Tastatur die erkannten Kombinationen verursachen. Im Betrieb wird eine beobachtete Kombination von gleichzeitig aktivierten Tasten mit vordefinierten Kombinationen von Tasten verglichen, die denen entsprechen, die als im Allgemeinen gleichzeitig aktiviert erkannt wurden. Wenn die Kombination aktivierter Tasten mit einer der vordefinierten Kombinationen übereinstimmt, wird die am wahrscheinlichsten beabsichtigte Taste, die der übereinstimmenden der vordefinierten Kombinationen zugeordnet ist, als die Taste genommen, die am wahrscheinlichsten beabsichtigt war.
  • LITERATURHINWEIS
  • Zusammenfassung
  • Es werden eine Vorrichtung und Verfahren zur Auswahl, welche aus einer Vielzahl von gleichzeitig aktivierten Tasten in einer Tastatur auf der Basis einer Anordnung kapazitiver Sensoren eine Taste ist, die vom Benutzer zur Auswahl beabsichtigt ist, beschrieben. Kombinationen von Tasten, die im allgemeinen gleichzeitig aktiviert werden, wenn ein Benutzer beabsichtigt, eine einzelne Taste auszuwählen, werden erkannt und der einzelnen Taste zugeordnet, die bei normaler Benutzung der Tastatur am wahrscheinlichsten die erkannten Kombinationen verursacht. Bei der Benutzung wird eine beobachtete Kombination gleichzeitig aktivierter Tasten mit vordefinierten Kombinationen von Tasten verglichen, die denen entsprechen, die im Allgemeinen gleichzeitig aktiviert werden. Wenn die Kombination aktivierter Tasten mit einer der vordefinierten Kombinationen übereinstimmt, wird die mit der passenden der vordefinierten Kombinationen von Tasten übereinstimmende am wahrscheinlichsten beabsichtige Taste als die am wahrscheinlichsten beabsichtigte Taste genommen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 5730165 [0004, 0004, 0004, 0051, 0125, 0163]
    • - US 6466036 [0005, 0005, 0051, 0125, 0163]
    • - US 6993607 [0006, 0006, 0007, 0163]
    • - US 11/402269 [0006, 0008]
    • - US 2006-0192690 A1 [0006, 0008, 0138, 0163]
    • - US 11/279402 [0006, 0138]
    • - US 6452514 [0125, 0163]

Claims (19)

  1. Berührungsempfindliche Benutzerschnittstelle, umfassend: Eine Vielzahl von Messflächen; einen Messungs-Schaltkreis, der mit den Messflächen gekoppelt und in der Lage ist, Ausgangssignale zu erzeugen, die eine Kopplung zwischen einem zeigenden Objekt und entsprechenden der Messflächen anzeigen; und eine Steuerung, die in der Lage ist, die Ausgangssignale des Messungs-Schaltkreises zu empfangen, aus den Ausgangssignalen eine Kombination der Messflächen zu bestimmen, die durch das Vorhandensein des zeigenden Objektes aktiviert werden, die Kombination aktivierter Messflächen mit mindestens einer vordefinierten Kombination der Messflächen zu vergleichen, und eine ausgewählte der Messflächen entsprechend einer Übereinstimmung zwischen der Kombination aktivierter Messflächen und einer aus der mindestens einen vordefinierten Kombinationen von Messflächen zu bestimmen.
  2. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 1, wobei die Kopplung eine kapazitive Kopplung ist.
  3. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 1 oder Anspruch 2, wobei die Vielzahl von Messflächen zwischen drei und sechs Messflächen umfasst.
  4. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 3, wobei die Vielzahl von Messflächen vier Messflächen umfasst.
  5. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der Ansprüche bis 4, wobei die Kombination aktivierter Messflächen drei Messflächen umfasst, die entlang einer Linie angeordnet sind, und die ausgewählte der aktivierten Messflächen die mittlere der aktivierten Messflächen ist.
  6. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 5, wobei die Linie einer Richtung der Annäherung und/oder Ausdehnung eines zeigenden Objektes bei normaler Benutzung entspricht.
  7. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der Ansprüche bis 4, wobei die Kombination aktivierter Messflächen vier in einer Reihe angeordnete Messflächen umfasst und die aus den aktivierten Messflächen ausgewählte zu einer Messfläche an einem Ende der Reihe aktivierter Messflächen benachbart ist.
  8. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 7, wobei die Linie einer Richtung der Annäherung und/oder Ausdehnung eines zeigenden Objektes bei normaler Benutzung entspricht und die aus den aktivierten Messflächen ausgewählte die zweitnächste aktivierte Messfläche entlang und relativ zu der Richtung der Annäherung und/oder Ausdehnung des zeigenden Objektes bei normaler Benutzung ist.
  9. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der vorherigen Ansprüche, wobei die mindestens eine vordefinierte Kombination aktivierter Messflächen eine zusammenhängende Reihe von benachbarten Messflächen umfasst.
  10. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der vorherigen Ansprüche, wobei die mindestens eine vordefinierte Kombination von Messflächen mindestens drei Messflächen umfasst.
  11. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der Ansprüche 1 bis 10, wobei jede Messfläche eine Position innerhalb des Messbereichs hat und wobei wenn der Vergleich der Kombination aktivierter Messflächen mit der mindestens einen vordefinierten Kombination von Messflächen keine Übereinstimmung ergibt, die Steuerung in der Lage ist, eine ausgewählte der aktivierten Messflächen zu bestimmen, indem die Positionen der aktivierten Messflächen innerhalb des Messbereichs berücksichtigt werden.
  12. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der Ansprüche 1 bis 10, wobei wenn der Vergleich der Kombination aktivierter Messflächen mit der mindestens einen vordefinierten Kombination von Messflächen keine Übereinstimmung ergibt, die Steuerung in der Lage ist, eine ausgewählte der aktivierten Messflächen zu bestimmen, indem die mit den Messflächen verbundenen Ausgangssignale berücksichtigt werden.
  13. Berührungsempfindliche Benutzerschnittstelle gemäß einem beliebigen der vorherigen Ansprüche, die ferner eine weitere Vielzahl von Messflächen umfasst, wobei der Messungs-Schaltkreis mit der weiteren Vielzahl von Messflächen gekoppelt und in der Lage ist, weitere Ausgangssignale zu erzeugen, die Kopplungen zwischen dem zeigenden Objekt und entsprechenden der weiteren Messflächen anzeigen; und wobei die Steuerung in der Lage ist, die weiteren Ausgangssignale vom Messungs-Schaltkreis zu empfangen, eine Kombination der weiteren Messflächen, die durch das Vorhandensein des zeigenden Objektes aktiviert wurden, zu bestimmen, die Kombination aktivierter weiterer Messflächen mit mindestens einer vordefinierten Kombination der weiteren Messflächen zu vergleichen, und eine weitere ausgewählte der Messflächen entsprechend einer Übereinstimmung zwischen der Kombination aktivierter weiterer Messflächen und den mindestens einen vordefinierten Kombinationen von weiteren Messflächen zu bestimmen.
  14. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 13, wobei die Steuerung in der Lage ist, eine ausgewählte von der zuerst erwähnten ausgewählten der zuerst erwähnten Messflächen und der weiteren ausgewählten der weiteren Messflächen zu bestimmen.
  15. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 14, wobei jede Messfläche eine Position innerhalb des Messbereichs hat, und die Steuerung in der Lage ist, eine ausgewählte der zuerst erwähnten ausgewählten der Messflächen und der weiteren ausgewählten der weiteren Messflächen zu bestimmen, indem die Positionen der entsprechenden ausgewählten Messflächen innerhalb des Messbereichs berücksichtigt werden.
  16. Berührungsempfindliche Benutzerschnittstelle gemäß Anspruch 14, wobei die Steuerung in der Lage ist, eine ausgewählte der zuerst erwähnten ausgewählten der Messflächen und der weiteren ausgewählten der weiteren Messflächen zu bestimmen, indem die mit diesen Messbereichen verbundenen Ausgangssignale berücksichtigt werden.
  17. Vorrichtung, die eine berührungsempfindliche Benutzerschnittstelle gemäß jedem der vorherigen Ansprüche enthält.
  18. Verfahren zur Bestimmung, welche aus einer Vielzahl von Messflächen in einem Messbereich durch ein zeigendes Objekt ausgewählt wird, wobei das Verfahren umfasst: Messung einer Kopplung zwischen dem zeigenden Objekt und entsprechenden der Messflächen; aus den gemessenen Kopplungen Bestimmen einer Kombination von Messflächen, die durch das Vorhandensein des zeigenden Objektes aktiviert sind; Vergleichen der Kombination von aktivierten Messflächen mit mindestens einer vordefinierten Kombination von Messflächen; und Bestimmen einer ausgewählten der Messflächen gemäß einer Übereinstimmung zwischen der Kombination aktivierter Messflächen und einer aus den mindestens einen vordefinierten Kombinationen von Messflächen.
  19. Verfahren gemäß Anspruch 18, wobei die gemessenen Kopplungen kapazitive Kopplungen sind.
DE112007001643T 2006-07-10 2007-05-23 Berührungsempfindliche Benutzerschnittstelle Withdrawn DE112007001643T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US80680206P 2006-07-10 2006-07-10
US60/806,802 2006-07-10
US11/750,588 2007-05-18
US11/750,588 US8786554B2 (en) 2006-07-10 2007-05-18 Priority and combination suppression techniques (PST/CST) for a capacitive keyboard
PCT/IB2007/002534 WO2008007218A2 (en) 2006-07-10 2007-05-23 Touch sensitive user interface

Publications (1)

Publication Number Publication Date
DE112007001643T5 true DE112007001643T5 (de) 2009-05-20

Family

ID=38728764

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007001643T Withdrawn DE112007001643T5 (de) 2006-07-10 2007-05-23 Berührungsempfindliche Benutzerschnittstelle

Country Status (4)

Country Link
US (1) US8786554B2 (de)
CN (1) CN101542423B (de)
DE (1) DE112007001643T5 (de)
WO (1) WO2008007218A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022101417A1 (de) 2020-11-13 2022-05-19 Marquardt Gmbh Elektrodenkonfiguration für eine kapazitive schalteranordnung

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004000098A2 (en) 2002-06-19 2003-12-31 Palomar Medical Technologies, Inc. Method and apparatus for treatment of cutaneous and subcutaneous conditions
US7856985B2 (en) 2005-04-22 2010-12-28 Cynosure, Inc. Method of treatment body tissue using a non-uniform laser beam
US8144125B2 (en) 2006-03-30 2012-03-27 Cypress Semiconductor Corporation Apparatus and method for reducing average scan rate to detect a conductive object on a sensing device
US8059015B2 (en) * 2006-05-25 2011-11-15 Cypress Semiconductor Corporation Capacitance sensing matrix for keyboard architecture
US8040321B2 (en) 2006-07-10 2011-10-18 Cypress Semiconductor Corporation Touch-sensor with shared capacitive sensors
US9507465B2 (en) 2006-07-25 2016-11-29 Cypress Semiconductor Corporation Technique for increasing the sensitivity of capacitive sensor arrays
US7586957B2 (en) 2006-08-02 2009-09-08 Cynosure, Inc Picosecond laser apparatus and methods for its operation and use
US9766738B1 (en) 2006-08-23 2017-09-19 Cypress Semiconductor Corporation Position and usage based prioritization for capacitance sense interface
US8058937B2 (en) 2007-01-30 2011-11-15 Cypress Semiconductor Corporation Setting a discharge rate and a charge rate of a relaxation oscillator circuit
US8144126B2 (en) 2007-05-07 2012-03-27 Cypress Semiconductor Corporation Reducing sleep current in a capacitance sensing system
US8065624B2 (en) * 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
US8258986B2 (en) 2007-07-03 2012-09-04 Cypress Semiconductor Corporation Capacitive-matrix keyboard with multiple touch detection
US8395594B2 (en) * 2008-06-10 2013-03-12 Nokia Corporation Touch button false activation suppression
WO2010011779A2 (en) 2008-07-23 2010-01-28 Flextronics Ap, Llc Integration design for capacitive touch panels and liquid crystal displays
US9128568B2 (en) 2008-07-30 2015-09-08 New Vision Display (Shenzhen) Co., Limited Capacitive touch panel with FPC connector electrically coupled to conductive traces of face-to-face ITO pattern structure in single plane
US9477342B2 (en) * 2008-08-26 2016-10-25 Google Technology Holdings LLC Multi-touch force sensing touch-screen devices and methods
KR101472591B1 (ko) * 2008-11-14 2014-12-17 삼성전자주식회사 컨텐츠의 확대 영역 선택 방법, 컨텐츠 제공 장치 및 시스템
US8209861B2 (en) 2008-12-05 2012-07-03 Flextronics Ap, Llc Method for manufacturing a touch screen sensor assembly
US8274486B2 (en) 2008-12-22 2012-09-25 Flextronics Ap, Llc Diamond pattern on a single layer
EP2423790A4 (de) * 2009-04-22 2013-12-04 Mitsubishi Electric Corp Positionierungseingabevorrichtung
US8279189B2 (en) 2009-08-11 2012-10-02 Atmel Corporation Touch-sensitive user interface
US9261407B2 (en) 2009-11-02 2016-02-16 Eric M. Lawson Thermometer for determining the temperature of an animal's ear drum and method of using the same
JP5325747B2 (ja) 2009-11-12 2013-10-23 京セラ株式会社 携帯端末及び入力制御プログラム
WO2011058735A1 (ja) 2009-11-12 2011-05-19 京セラ株式会社 携帯端末、入力制御プログラム及び入力制御方法
US9285929B2 (en) 2010-03-30 2016-03-15 New Vision Display (Shenzhen) Co., Limited Touchscreen system with simplified mechanical touchscreen design using capacitance and acoustic sensing technologies, and method therefor
EP2410413B1 (de) 2010-07-19 2018-12-12 Telefonaktiebolaget LM Ericsson (publ) Verfahren, Vorrichtung und Computerprogramm zur Texteingabe
US8957848B2 (en) * 2010-10-29 2015-02-17 Minebea Co., Ltd. Data input device for electronic instrument and method of entering data
JP5857465B2 (ja) * 2011-06-16 2016-02-10 ソニー株式会社 情報処理装置と情報処理方法ならびにプログラム
JP2013003841A (ja) * 2011-06-16 2013-01-07 Sony Corp 情報処理装置と情報処理方法ならびにプログラム
KR101516513B1 (ko) 2011-06-21 2015-05-04 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실을 위한 제스쳐 기반 사용자 인터페이스
US8525955B2 (en) 2012-01-31 2013-09-03 Multek Display (Hong Kong) Limited Heater for liquid crystal display
KR102342629B1 (ko) 2012-04-18 2021-12-22 싸이노슈어, 엘엘씨 피코초 레이저 장치 및 그를 사용한 표적 조직의 치료 방법
CN103001625B (zh) * 2012-12-11 2016-09-21 深圳Tcl新技术有限公司 电容式触摸按键面板及其控制方法、电子装置
US10285757B2 (en) 2013-03-15 2019-05-14 Cynosure, Llc Picosecond optical radiation systems and methods of use
US20140375576A1 (en) * 2013-06-24 2014-12-25 Oracle International Corporation Facilitating touch screen users to select elements in a densely populated display
CN103812491B (zh) * 2013-11-29 2016-08-17 贝骨新材料科技(上海)有限公司 一种整体式面板压电键盘及其误操作的识别方法
GB2549364A (en) * 2016-02-01 2017-10-18 Zheng Jianqing Touch sensing device
DE102017113658A1 (de) * 2017-06-21 2018-12-27 Trw Automotive Electronics & Components Gmbh Kraftfahrzeugbedienvorrichtung
US10303263B2 (en) * 2017-08-15 2019-05-28 Lenovo (Singapore) Pte. Ltd. Auto swap order of finding key to generate scan codes
KR102627248B1 (ko) 2018-02-26 2024-01-19 싸이노슈어, 엘엘씨 Q-스위치드 캐비티 덤핑 서브 나노초 레이저
US10817141B2 (en) 2019-01-21 2020-10-27 Ford Global Technologies, Llc Vehicle input device having offset registration

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5730165A (en) 1995-12-26 1998-03-24 Philipp; Harald Time domain capacitive field detector
US6452514B1 (en) 1999-01-26 2002-09-17 Harald Philipp Capacitive sensor and array
US6466036B1 (en) 1998-11-25 2002-10-15 Harald Philipp Charge transfer capacitance measurement circuit
US6993607B2 (en) 2002-07-12 2006-01-31 Harald Philipp Keyboard with reduced keying ambiguity
US20060192690A1 (en) 2002-07-12 2006-08-31 Harald Philipp Capacitive Keyboard with Non-Locking Reduced Keying Ambiguity

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59121478A (ja) * 1982-12-27 1984-07-13 Casio Comput Co Ltd 文字認識装置
GB2274187A (en) 1993-01-08 1994-07-13 Harold Birkett Reduced sized data processor keyboard
JP3243365B2 (ja) * 1994-04-19 2002-01-07 シャープ株式会社 キー入力装置
US5748512A (en) * 1995-02-28 1998-05-05 Microsoft Corporation Adjusting keyboard
DE19702225C1 (de) 1997-01-23 1998-05-20 Harro Prof Dr Kiendl Eingabeeinrichtung zur mehrfingrigen Dateneingabe
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
GB9827930D0 (en) 1998-12-19 1999-02-10 Symbian Ltd Keyboard system for a computing device with correction of key based input errors
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
GB0007354D0 (en) 2000-03-28 2000-05-17 Stokoe Gilbert Improved keypad
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
KR100446612B1 (ko) * 2001-07-24 2004-09-04 삼성전자주식회사 다차원 공간상에서의 정보 선택 방법 및 장치
US7256714B2 (en) * 2003-07-11 2007-08-14 Harald Philipp Keyboard with reduced keying ambiguity
DE10257070B4 (de) * 2002-12-06 2004-09-16 Schott Glas Verfahren zur automatischen Bestimmung einer gültigen oder ungültigen Tasteneingabe
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
JP4158195B2 (ja) * 2003-05-28 2008-10-01 日本電気株式会社 学習型入力判定回路を有する携帯電話機
US7230607B2 (en) * 2003-06-12 2007-06-12 Katsuyasu Ono 6-key keyboard for touch typing
JP4459725B2 (ja) * 2003-07-08 2010-04-28 株式会社エヌ・ティ・ティ・ドコモ 入力キー及び入力装置
DE10344981A1 (de) 2003-09-27 2005-05-04 Waldemar Gazke Mini-Tastatur
ES2425313T3 (es) 2004-02-27 2013-10-14 Blackberry Limited Sistema de entrada de texto para un dispositivo electrónico y métodos para el mismo
RU2338238C2 (ru) * 2005-05-30 2008-11-10 Самсунг Электроникс Ко., Лтд. Способ и система ввода информации
EP1746488A2 (de) * 2005-07-21 2007-01-24 TPO Displays Corp. Sensoranordnungsstruktur eines elektromagnetischen Digitalisierers
US7289073B2 (en) * 2005-08-19 2007-10-30 Gm Global Technology Operations, Inc. Method for improving the efficiency of transparent thin film antennas and antennas made by such method
KR100826532B1 (ko) * 2006-03-28 2008-05-02 엘지전자 주식회사 이동 통신 단말기 및 그의 키 입력 검출 방법
US7903092B2 (en) * 2006-05-25 2011-03-08 Atmel Corporation Capacitive keyboard with position dependent reduced keying ambiguity
US8049732B2 (en) * 2007-01-03 2011-11-01 Apple Inc. Front-end signal compensation
US7920129B2 (en) * 2007-01-03 2011-04-05 Apple Inc. Double-sided touch-sensitive panel with shield and drive combined layer
US8031174B2 (en) * 2007-01-03 2011-10-04 Apple Inc. Multi-touch surface stackup arrangement
US8040326B2 (en) * 2007-06-13 2011-10-18 Apple Inc. Integrated in-plane switching display and touch sensor
KR20100137483A (ko) * 2008-02-28 2010-12-30 쓰리엠 이노베이티브 프로퍼티즈 컴파니 터치 스크린 센서
JP4720857B2 (ja) * 2008-06-18 2011-07-13 ソニー株式会社 静電容量型入力装置および入力機能付き表示装置
US8432322B2 (en) * 2009-07-17 2013-04-30 Apple Inc. Electronic devices with capacitive proximity sensors for proximity-based radio-frequency power control
US8031094B2 (en) * 2009-09-11 2011-10-04 Apple Inc. Touch controller with improved analog front end
US8816977B2 (en) * 2011-03-21 2014-08-26 Apple Inc. Electronic devices with flexible displays
US9866660B2 (en) * 2011-03-21 2018-01-09 Apple Inc. Electronic devices with concave displays
US9178970B2 (en) * 2011-03-21 2015-11-03 Apple Inc. Electronic devices with convex displays
EP2673944B1 (de) 2011-03-21 2017-11-01 Apple Inc. Elektronische vorrichtungen mit flexiblen displays
US8934228B2 (en) * 2011-03-21 2015-01-13 Apple Inc. Display-based speaker structures for electronic devices
US8665236B2 (en) * 2011-09-26 2014-03-04 Apple Inc. Electronic device with wrap around display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5730165A (en) 1995-12-26 1998-03-24 Philipp; Harald Time domain capacitive field detector
US6466036B1 (en) 1998-11-25 2002-10-15 Harald Philipp Charge transfer capacitance measurement circuit
US6452514B1 (en) 1999-01-26 2002-09-17 Harald Philipp Capacitive sensor and array
US6993607B2 (en) 2002-07-12 2006-01-31 Harald Philipp Keyboard with reduced keying ambiguity
US20060192690A1 (en) 2002-07-12 2006-08-31 Harald Philipp Capacitive Keyboard with Non-Locking Reduced Keying Ambiguity

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022101417A1 (de) 2020-11-13 2022-05-19 Marquardt Gmbh Elektrodenkonfiguration für eine kapazitive schalteranordnung
DE102020214333A1 (de) 2020-11-13 2022-05-19 Marquardt Gmbh Elektrodenkonfiguration für eine kapazitive Schalteranordnung

Also Published As

Publication number Publication date
US20080007434A1 (en) 2008-01-10
CN101542423B (zh) 2013-02-27
WO2008007218A2 (en) 2008-01-17
CN101542423A (zh) 2009-09-23
WO2008007218A3 (en) 2008-07-17
US8786554B2 (en) 2014-07-22

Similar Documents

Publication Publication Date Title
DE112007001643T5 (de) Berührungsempfindliche Benutzerschnittstelle
DE102007063961B3 (de) Berührungsempfindliche Benutzerschnittstelle
DE102012021768B4 (de) Steuerungssystem für ein mehrfeld-eingabegerät
DE202006019926U1 (de) Kapazitive Tastatur mit nichtverriegelnder reduzierter Tastungsmehrdeutigkeit
DE102006063082B3 (de) Zweidimensionaler Positionssensor
DE60022030T2 (de) Kommunikationssystem und -verfahren
DE102014104633B4 (de) Berührungspunkt-erkennungsschaltung, induktiver touchscreen und berührungsempfindliche anzeigevorrichtung
DE102014210286A1 (de) Kapazitive Mehrzustandstaste
DE112008001800T5 (de) Zweidimensionales Touchpanel
DE102010027732A1 (de) Zweidimensionaler Positionssensor
DE112009002578T5 (de) Spurverfolgung bei Mehrfach-Berührungen
DE102014210267A1 (de) Kapazitive Mehrzustandstaste
DE112008000906T5 (de) Zweidimensionaler Positionssensor
CN106250754B (zh) 一种应用程序的控制方法及移动终端
DE112008001966T5 (de) Zweidimensionaler Positionssensor
DE102010003575A1 (de) Kapazitiver Touchscreen oder Touchpad für Finger und beweglichen Taststift
WO2009103594A1 (de) Tastatur mit kapazitätssensitiven tastenfeldern
CN105183232A (zh) 一种无实体按键的移动终端控制方法及移动终端
DE102010055509A1 (de) Erkennung einer rollenden oder gleitenden Bewegung eines Körperteils auf einer Oberfläche
DE102012107761A1 (de) Elektronisches Gerät und zugehöriges Betriebsverfahren
DE202008005343U1 (de) Elektronische Vorrichtung mit behinderungsfreier Bedienung
DE112018006388T5 (de) Hover-erfassung mit einem mehrphasen-eigenkapazitätsverfahren
CN102486678B (zh) 电子设备及其键盘设备和键盘输入方法
WO2013017245A1 (de) Eingabevorrichtung, insbesondere für ein kraftfahrzeug
DE102009019910A1 (de) Gestenerkennung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

R081 Change of applicant/patentee

Owner name: ATMEL CORP., SAN JOSE, US

Free format text: FORMER OWNER: QRG LTD., EASTLEIGH, HAMPSHIRE, GB

Effective date: 20130130

Owner name: ATMEL CORP., US

Free format text: FORMER OWNER: QRG LTD., EASTLEIGH, GB

Effective date: 20130130

R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Effective date: 20130130

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

Effective date: 20130130

R012 Request for examination validly filed

Effective date: 20140403

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003041000

Ipc: G06F0003044000

R016 Response to examination communication
R082 Change of representative

Representative=s name: PETERREINS SCHLEY PATENT- UND RECHTSANWAELTE, DE

Representative=s name: PETERREINS SCHLEY PATENT- UND RECHTSANWAELTE P, DE

R081 Change of applicant/patentee

Owner name: NEODRON LTD., IE

Free format text: FORMER OWNER: ATMEL CORP., SAN JOSE, CALIF., US

R082 Change of representative

Representative=s name: PETERREINS SCHLEY PATENT- UND RECHTSANWAELTE, DE

Representative=s name: PETERREINS SCHLEY PATENT- UND RECHTSANWAELTE P, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee