WO2014094699A1 - Method for operating a device having a user interface with a touch sensor, and corresponding device - Google Patents

Method for operating a device having a user interface with a touch sensor, and corresponding device Download PDF

Info

Publication number
WO2014094699A1
WO2014094699A1 PCT/DE2013/000605 DE2013000605W WO2014094699A1 WO 2014094699 A1 WO2014094699 A1 WO 2014094699A1 DE 2013000605 W DE2013000605 W DE 2013000605W WO 2014094699 A1 WO2014094699 A1 WO 2014094699A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch sensor
data
user
keyboard
virtual
Prior art date
Application number
PCT/DE2013/000605
Other languages
German (de)
French (fr)
Inventor
Jörg Edelmann
Philipp Mock
Andreas Schilling
Original Assignee
Eberhard Karls Universität Tübingen
Stiftung Medien in der Bildung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eberhard Karls Universität Tübingen, Stiftung Medien in der Bildung filed Critical Eberhard Karls Universität Tübingen
Publication of WO2014094699A1 publication Critical patent/WO2014094699A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the invention relates to a method for operating a device, the one
  • a user interface with a touch sensor, according to the preamble of claim 1, as well as a device with a user interface having a touch sensor, according to the preamble of claim 1 first
  • a user interface having a touch sensor may be, for example, a stationary or portable computer or a computer-controlled machine.
  • a touch sensor is an input device in which a program flow of the device can be controlled by touching certain areas of the surface.
  • a touch sensor may be combined with a screen.
  • a touch screen combines the electronic display of a screen with a screen
  • a touch screen is therefore a combined input and output device.
  • a controller connected to the touch screen generates image contents of the
  • Touch screen serves to receive and process input signals obtained by touching touch areas on the surface, e.g. be generated by finger pressure.
  • the controller is typically configured to operate in at least one mode of operation
  • Touchscreen a virtual keyboard can be generated with a variety of virtual buttons.
  • keyboard an input device is referred to, which contains as controls a number of fingers to be pressed with keys. For example, are known
  • Typewriter keyboards with mechanical keys that move when pressed, triggering input signals with mechanical keys that move when pressed, triggering input signals.
  • a “virtual keyboard” has “virtual keys”.
  • Virtual buttons are generated on a touch screen usually appear as a button-like appearing symbols (soft keys or icons) electronically. Virtual buttons can also be created on a touch sensor by printing, recording or otherwise.
  • the keyboard layout or the keyboard layout of a mechanical or virtual keyboard describes both the coding of the individual keys as well as their position and number on the keyboard.
  • Touchscreen is usually less accurate and more error-prone or slower than on a hardware keyboard with mechanical buttons. Unlike mechanical keyboards, the user does not receive any haptic feedback about the position of the fingers on the keyboard because the edges of the keys are imperceptible and the finger position can not be corrected without visual control. This makes fast typing difficult with the ten-finger system, and even experienced users often have to look at the virtual keys as they type. This results in lower writing speeds for text input and higher error rates.
  • WO 2012/048380 AI a method is described in WO 2012/048380 AI, according to which an adapted to the laid finger keyboard layout can be determined.
  • a keyboard model is created in which "home keys" of the individual fingers as well as linked keys are defined.
  • the keys ASDF and JKL represent the home keys for an accomplished keyboard user now the hand in the
  • the virtual keys move to the corresponding positions of the fingertips.
  • different keyboard layouts can be called up.
  • the virtual keyboard thus adapts to the natural finger positions of the respective user by changing the position of the individual virtual buttons.
  • US 2009/023736 A1 describes another possibility for automatically adapting the keyboard layout to the personal characteristics of a user.
  • the user places his hand on the touch screen so that one or more fingers and the palm of his hand touch the surface of the touch screen.
  • the keyboard layout is then determined at least in part from the distance between the detected point of contact of the handball and the positions of the finger touch and adapted accordingly to the user.
  • AI methods are described, which allow the keyboard layout of a virtual keyboard in a learning process to the respective user adapts.
  • the computer system recognizes the typing pattern of a user and then changes the positions, the sizes and / or orientations of the virtual keys in such a way that the user gets comfortable working, whereby the typing errors are to be reduced.
  • the patent application US 2011/0254772 Al describes methods for detecting movements of one or more touches in the area of a virtual keyboard of a touch screen.
  • certain characteristics of a touch such as e.g. the intensity, the size of the contact surface or the support angle used to perform actions in addition to the text input with the virtual keyboard.
  • Gestures are interpreted from successive touches. These can also be created by a user himself and are then recognized by the system.
  • the gesture recognition allows, among other things, to distinguish between touch by means of a finger, a thumb or a palm.
  • the keyboard layout is not adapted to the user in this procedure.
  • Adaptation can be visible or not visible to the user.
  • additional geometrical characteristics of the touch such as the size and orientation of the contact zone, and movement of the touch during key press are evaluated to assign keystrokes to individual virtual keys. It has been shown that customization of the virtual keyboard to the user can increase the input speed.
  • the invention provides a method having the features of claim 1 and a device having the features of claim 11.
  • a virtual keyboard is generated with a plurality of virtual buttons on the touch sensor. If the touch sensor with a screen to a
  • the virtual buttons are generated in the form of electronically generated icons on the screen. It is also possible to generate virtual keys in other ways, e.g. by optical projection onto a surface of the touch sensor or in the form of permanent, invariable virtual buttons, e.g. can be generated by printing or recording or laying on the surface of the touch sensor. An example of this is known as "Touch Cover" for tablet computers from Microsoft.
  • Each virtual key has a given position and shape.
  • user-specific touch sensor data is detected. These include information about individual peculiarities of the user in keyboard usage, such as the way certain virtual keys are hit by the user.
  • the user-specific touch sensor data is used to provide a user-specific
  • the keyboard model is thus the result of a learning process.
  • the response of virtual keys of the same virtual keyboard or other corresponding virtual keyboard to the user in use is adjusted.
  • Keyboard model is thus used to classify keystrokes when using a virtual keyboard.
  • the step of associating a typing action and the input triggered by this typing action, ie, selecting the virtual key that is considered to be typed, is called a "classification.”
  • the classification is a fingerprint at a particular location of a particular key of a plurality of
  • the hardware used for this purpose and the program components (software) that are active for this purpose form the
  • the term "keyboard model” is an alternative term for a classifier.
  • the task of the keyboard model is, for example, to interpret a keystroke as an input of a specific letter.
  • the term “response” refers to the classification result or to the " Answer "of the virtual keyboard at a finger pressure.
  • position data refers to data representing the position of the contact zone of a finger with the surface of the touch screen when a key is pressed.
  • fingerprint data refers to data representing an image of the area of contact between the finger and the surface of the touch sensor when a button is pressed by a finger
  • the area of contact covered by the image includes, but may be, the immediate area of contact between the finger and the surface
  • Touch area may e.g. rectangular or otherwise polygonal.
  • the image is preferably two-dimensional, but in certain cases could also be one-dimensional. Instead of a single image per key press, the time course of the
  • Fingerprint data so a series of multiple images are determined.
  • image hereby refers to the raw data of the area covered in the area of contact
  • the detected raw data may be e.g. represent the spatial distribution of light intensity in the area of the fingerprint.
  • the detected raw data may represent the local distribution of the measured capacitance.
  • Modified raw data is data that also contains this information essentially unadulterated, but usually with a reduced amount of data.
  • the modified raw data include, in particular, such data as is available from the raw data by compression methods (eg JPEG compression), filtering (eg low pass) or methods for dimensional reduction (eg Principal component analysis or discriminant analysis).
  • Modified raw data can also be derived from the raw data by calibration or normalization.
  • Modified raw data in the sense of this application are to be distinguished from such data that are generated by evaluating raw data according to specific, pre-defined, reasonable criteria by feature extraction.
  • raw data is e.g. in terms of geometric criteria, such as relative fingertip position or relative fingerprint center position or moving direction of the fingertip for a fingerprint, before the data processed according to pre-defined criteria are used to classify a classifier.
  • geometric criteria such as relative fingertip position or relative fingerprint center position or moving direction of the fingertip for a fingerprint
  • the fingerprint data is fed to a classifier without further pre-processing.
  • the full primary information in a fingerprint is unadulterated to the
  • the claimed invention is based on the insight that in general it can not be determined in advance which concrete information leads to a better distinction of the fingerprints.
  • the learning algorithm separates the data based on the information given in the raw data or modified raw data.
  • the criteria of separation need not always correspond to a writable property (e.g., size or orientation of a fingerprint assumed to be elliptical, etc.).
  • the classification works similar to human information processing. Again, it is not always possible to specify clear criteria according to which a person distinguishes objects.
  • the keyboard model could have the effect of changing the visible keyboard layout as a result of customization. However, it is considered advantageous if the customization of the virtual keyboard to the individual user is imperceptible to the user.
  • the appearance of the virtual keyboard ie, the visible keyboard layout, remains unchanged, so that the user can orient himself to the visible positions of the virtual keys as needed.
  • the virtual keyboard is made by customizing the
  • Such a method differs from known methods which adapt the keyboard size of the key likely to be next pressed using a language model, in that the adaptation of the response of the virtual keyboard is independent of the meaning of the information represented by the keyboard input.
  • One difference to methods where creating a customized keyboard layout by placing fingers or other hand parts on the touch screen is that the virtual keyboard need not show any change visible to the user. Similar to a hardware keyboard, the virtual keyboard can have a timeless appearance, so that a user is in a working situation familiar from mechanical keyboards. This will not distract the user and prevent the user from adapting to a changed keyboard layout. To some extent, this can prevent the user's writing behavior from gradually deteriorating. Similar advantages also result over known methods, in which the position and / or size of individual keys is adapted to the typing position of the user.
  • the position data is derived from the touch sensor data.
  • the geometric center of gravity of a fingerprint or a weighted according to certain criteria focus of a fingerprint can be determined as a position of the associated keystroke and further processed.
  • a support vector machine is used to classify the fingerprint data, which is essentially an algorithm for pattern recognition, which can be implemented in a computer program and is capable of detecting the recorded fingerprints on the basis of the Fingerprint data can be reliably assigned to different classes or to different virtual keys.
  • SVM support vector machine
  • Also other classification algorithms can be used, eg neural networks or classification with Gaussian processes or logistic regression.
  • these two pieces of information can also be used in combination in a classification method.
  • the use of fingerprint data requires that the touch sensor be configured to exist within the typical size contact zone of a finger with the surface, a plurality of measurement points for a finger-size variable physical size, such that an image of the touch area using the spatially resolved measured values of the measured variable can be generated.
  • the term "measuring point” here refers to a measuring area of small extent, which is not punctiform in the mathematical sense. The extent of a measuring point can e.g. in tenths of a millimeter range or less.
  • the touch sensor is an optical touch sensor, in which changes in the sensor properties in the respective contact region can be detected spatially resolved optically by means of a two-dimensional image of picture elements (pixels). It may, for example, be a grayscale image in which measuring points which were exposed to a greater pressure when the key was pressed receive a different gray level in the computer-aided image than weaker pressure-loaded measuring points. With an optical touch sensor, if necessary, a shadow can also be detected in the immediate vicinity of the contact zone. It is also possible to use the method when using a capacitive touch sensor whose local resolving power is so large that within the typical size of a fingerprint multiple measurement points lie whose capacity can be determined independently of the capacity of adjacent measurement points. The measuring points of a capacitive touch sensor whose local resolving power is so large that within the typical size of a fingerprint multiple measurement points lie whose capacity can be determined independently of the capacity of adjacent measurement points.
  • the measuring points of a capacitive touch sensor whose local resolving power is so large that
  • Touch sensors are e.g. formed by crossing points of perpendicular to each other in two staggered planes extending tracks, which form a local capacity at each crossing point, the size of which changes under pressure load and / or finger touch.
  • the spatial density of measurement points or in one or more transverse to each other parallel to the surface of the touch sensor directions should be at least 0.5 / mm, in particular 1 / mm or more. As a result, a sufficiently good spatial resolution can be achieved.
  • the function of the keyboard model may, in some embodiments, be described as associating with each virtual key an area-defined active area having a different position and / or shape for one or more virtual buttons than the area of the virtual button visible on the touch-sensor.
  • the active area is usually larger than the visible area of the virtual button, so that even typing actions that are at the edge of the visible virtual button or even outside the visible area of the virtual button are correctly assigned (classified).
  • the active area may be laterally displaced from the visible area of the virtual button in a particular direction, which may be the case, for example, when a user taps regularly in a particular direction adjacent to the correct position of the button.
  • the active regions each have an irregular shape, so in particular are neither circular nor rectangular.
  • the shape and size of the active areas active on the key press and their location are determined dynamically using the user-specific keyboard model. The generation of such active areas allows error-free input even with very imprecise keystrokes, where necessary, by a
  • Keystroke desired input also occurs when the assigned key is missed while typing.
  • the classification using fingerprint data offers advantages beyond just assigning keystrokes to specific virtual keys.
  • a user classifier is generated that performs a user classification such that a keystroke based on the fingerprint data is assigned to a particular user. Then, further actions of the device may be controlled depending on the result of the user classification. For example, a
  • Prompt for entering a password are generated and the subsequent keystrokes are analyzed using the user classifier not only on whether the expected password (eg a pre-defined and stored sequence of letters, numbers and / or characters) is entered, but in addition Also, whether the correct or expected password is entered by an authorized user.
  • the expected password eg a pre-defined and stored sequence of letters, numbers and / or characters
  • Security settings may be set up to release certain or all other actions of the device only if the correct password is entered by an authorized user.
  • the invention also relates to a device with a user interface, the one
  • the Touch sensor has. The device is for carrying out the method in the
  • the device has a user interface that has a
  • a touch sensor having within a typical size of a contact zone of a finger with the surface of the touch sensor, a plurality of measuring points for a through
  • a controller coupled to the touch sensor is configured to receive and process touch sensor data obtained by contacting touch areas on the surface of the touch sensor
  • Touch sensor can be generated.
  • the device is configured such that in at least one operating mode, a virtual keyboard having a plurality of virtual keys can be created on the touch sensor.
  • a virtual keyboard having a plurality of virtual keys can be created on the touch sensor.
  • this mode of operation when acquiring touch sensor data for each press of a finger, the above-described "position data" and
  • the position data and fingerprint data are classified using a user-specific keyboard model, with each of the virtual keys under Using the user-specific keyboard model, associating an active area of the touch sensor that has a different position and / or shape to one or more of the virtual buttons than the area of the virtual button visible on the touch sensor, wherein a touch is at a touch location within an active area is interpreted and processed as touching the associated virtual key.
  • the invention can be implemented on different devices with touch sensor and appropriate control.
  • the ability to carry out embodiments of the invention may be implemented in the form of additional program parts or program modules in the control software of such controllers.
  • another aspect of the present invention relates to a computer program product which is stored, in particular, on a computer-readable medium or signal, wherein the computer program product, when loaded into the memory of a suitable computer and executed by a computer, causes the computer program product controlled device performs a method according to the invention or a preferred embodiment thereof.
  • Fig. 1 shows schematically components of an embodiment of a device, the one
  • User interface having an optical touch sensor
  • Fig. 2 shows in Figs. 2A to 2D grayscale images of various fingerprints of a particular one
  • FIG. 3 shows in FIG. 3A a two-dimensional normal spreading functions of key presses of a specific user on the virtual keyboard for determining a position model and in FIG. 3B the active areas of the virtual keys determined on the basis of the position model;
  • Fig. 4 shows in Figs. 4A to 4D the effect of the application of a keyboard model based on a
  • Fig. 5 shows a diagram with a comparison of error rates with different
  • optical touch sensor which forms an optical touch screen in combination with a screen.
  • Virtual keyboards have the advantage over mechanical keyboards that they can be adapted at runtime, ie during use by a user.
  • SUR40 captures a complete grayscale image of the surface in the infrared light spectrum become. For each touch on the touch sensor, an image of the brightness profile can be captured in two dimensions.
  • This information can be derived from the readings provided by the touch screen or the corresponding raw data. The differences are reflected in the raw data.
  • a method step serves to determine user-specific touch sensor data by detecting the typing behavior of a user from a plurality of user's typing actions on the virtual keyboard.
  • This training or training process usually takes place at least in part, possibly even completely, before the actual use phase.
  • Training process can also extend into the phase of normal use, so that the keyboard model created or refined during normal use or
  • the teach-in process can be performed on the same touch sensor on which the subsequent intended use is made. It can also be another touch sensor, e.g. a substantially identical, construction-like or functionally identical variant.
  • the trained keyboard model can be present as a computer program product, so that a transfer from one device to another device is possible.
  • Typing behavior recorded by twelve subjects. Each user had to type a given text. This made it possible to simulate a "perfect" keyboard by being inaccurate Inputs anyway the correct letter (ie the letter that should follow in the given text next) was selected as input. Based on the inputs, a user-specific keyboard model was determined or developed for each user.
  • FIG. 1 shows a schematic section through the touch screen equipped with an optical touch sensor 100 in the area of the virtual keyboard 150 displayed on the screen.
  • a warp-resistant plane-parallel acrylic glass pane 102 carries on its planar upper side a thin projection film 104 whose free surface 106 is that of the user forms the touching surface of the touch sensor of the touch screen.
  • an infrared-sensitive camera (IR camera) 120 is arranged at a distance behind the opposite rear side.
  • Infrared lamps 122 are used for uniform illumination of the acrylic glass pane.
  • the virtual buttons 140 of the virtual keyboard 150 were displayed on this touch screen.
  • the layout of the keyboard corresponded to a standard QWERTY keyboard with im
  • buttons with about 19 mm edge length.
  • the virtual keyboard was generated by a computer program and projected from the back to the surface of the touch screen within the console using a projector 170.
  • the optical touch sensor works on the principle of frustrated total internal reflection (FTIR). In the area of the fingerprint, or in the area of contact between the finger and the surface when the button is pressed, the total internal reflection at the surface of the fingerprint becomes
  • the intensity of the scattered light - represented by the length of the arrows - is u.a.
  • a higher scattered light intensity results than in the edge region of lighter contact pressure (shorter arrows).
  • the infrared-sensitive camera was arranged so that it covered the surface in the area of the entire virtual keyboard from behind in its image field. For each touch, not only the position but also a two-dimensional grayscale image of the touch area in which the contact area 132 of the finger 130 lies on the surface is recorded.
  • the camera had a resolution of 640 * 480 pixels at 60 frames per second.
  • the image analysis was set up so that for each fingerprint a rectangular Grayscale image of the touch area with 42 * 42 pixels around a touch center in the area of the contact zone was detected.
  • FIG. 2A to 2D show grayscale images of various fingerprints of a particular user on different virtual keys when writing the word "BANK.”
  • the gray scale image in Fig. 2A corresponds to the letter “B”
  • Fig. 2B represents the letter “A”
  • Fig. Fig. 2C represents the letter “N”
  • Fig. 2D represents the letter "K”.
  • Fingerprint data saved.
  • the information included the location and a timestamp for each touch, as well as a reference to the associated fingerprint file.
  • a learning algorithm implemented in a computer was trained, which generated an individual keyboard model for each user.
  • these touch sensor data provided by the touch sensor be in the form of raw data without prior analysis for particular features, e.g. geometric features such as shape of the fingerprint, orientation of the fingerprint, etc., were used directly for training (learning) of the classifier.
  • a combination of two classifiers has been used to determine a high-fidelity association between a particular user's keystroke and that through it
  • an image-based fingerprint classifier which takes into account the image information (fingerprint data) derived from the fingerprints to classify key presses.
  • the position of a fingerprint or a keypress is for the
  • Key classification is an important feature and should be properly mapped into a keyboard model to be really useful.
  • An approach that would rely only on the limitations of the on-screen keyboard will bring only modest results in the inventors' experience, as keys are often not precisely hit and the actual touch positions of a key often deviate from the actual center of the virtual key. It has been found that the spatial distribution of the various key strokes of a person dedicated to a particular key can often be well described with a bivariate normal distribution. Such two-dimensional
  • Fig. 3A shows the normal distribution functions of keystrokes of a particular user on the virtual keyboard. It can be seen that the local distribution functions are not symmetrical on all virtual keys and that some keys are statistically much more precisely hit (steeper distribution) than other keys (shallower distribution). For further data processing, two-dimensional normal distributions offer the advantage of being natural
  • each key can be assigned an active area which corresponds to the spatially limited area around a virtual key in which a keystroke is assigned to the respective key on the basis of the position model.
  • Figure 3B is a schematic representation of the complete rectangular keypad which is divided into irregular shaped active areas (e.g., active areas 301-304). Directly adjacent active areas directly border, i. without gaps, so that there are no places in the rectangle area of the virtual keyboard without a clear assignment to a virtual key. In the tendency, those virtual keys precisely hit by the respective user with high repeatability obtain a relatively small active area, while those virtual keys hit with less precision and greater dispersion at the individual key presses receive a larger active area.
  • SVM support vector machine
  • An SVM is a classifier that classifies a set of objects into classes that are as wide as possible around the class boundaries
  • An SVM therefore belongs to the class of so-called “Large Margin Classifiers”.
  • the starting point is a set of training objects, each of which knows which class they belong to.
  • the training objects are given by the keystrokes during teaching, while the virtual keys form the classes to which the keystrokes are to be assigned.
  • Each object is represented by a vector in a vector space.
  • the SVM works by fitting in this space a hyperplane that acts as a separation surface and divides the training objects into two classes, maximizing the distance of those vectors closest to the hyperplane. This wide margin around the class boundaries makes it possible to also classify (assign) the key presses that do not correspond exactly to the objects detected during training (key presses) as reliably as possible.
  • f is the normal density function with parameters ⁇ and ⁇ of the key k at the coordinate x pos and K represents the total number of keys.
  • Xjmg represents the fingerprint data of a keystroke x.
  • FIG. 3B shows a distribution of active regions that are based exclusively on an individual
  • Position model that is, only with the help of the position data, were determined for a particular user.
  • Fingerprint data used for classification resulting in typing dynamic active areas of other size and / or shape and / or position, since in addition to the position information using the fingerprint data and information about how are processed (eg with which finger) a user a particular Key presses or wants to press.
  • Fingertip touches the surface of the touch sensor the fingerprint data and the position data are determined.
  • the keyboard model recognizes from the fingerprint data to which key the fingerprint belongs. It does not need to be explicitly determined which finger is used. It only determines how similar the sensor information is.
  • a key e.g. the spacebar, can also be used with two fingers. The classifier would then correctly assign keystrokes of one finger and the other.
  • the combined information results in all finger touches occurring in the grayed-out active area 301 '(marked “B") in the usual way for the user being interpreted as input of the letter "B".
  • the size and shape of the active area which is determined based on the combination of position data and fingerprint data, has a different shape and area than the active area 301, which is based solely on of a position model.
  • the additional fingerprint information may cause a particular finger touch to still be interpreted as tapping the "B" key when it is relatively far from the center of the virtual key "B", but with the "right” finger. that is, with the finger with which the user usually presses the "B” key User operates different keys, thereby derived from the fingerprint data, which were detected and evaluated during the learning phase.
  • a corresponding dynamic definition of an active area also results in the subsequent key presses for the letters "A”, "N” and "K”, their dynamically generated during typing active areas 3012 ', 303' and 304 'in Fig. 4B until 4D are highlighted in gray.
  • neither the positions nor the shapes of the virtual keys change during learning or during intended use, so that the user-visible appearance of the keyboard layout remains unchanged, regardless of the position and shape of the active areas. This can promote high write speeds at low error rates.
  • the proposed method was developed and tested using real user data. First, typing behavior data was recorded by twelve users. The touchscreen displayed a classic QWERTY keyboard. to
  • Model Ml A model based on the displayed keyboard
  • Model M2 A model based on individual tip positions
  • Model M3 A model based on the entire fingerprint data in the form of raw data Model M4 A combined model of individual tip positions and fingerprint data Model M5 To the presented method with Findlater et al. was an additional model with the extracted geometric used there
  • the error rates ER are shown graphically in FIG. 5 as a function of the models M1 to M5.
  • model M2 Individual position-based models (models M2, M4 and M5) result in a significantly lower error rate compared to a static model according to the keyboard actually represented (model M1).
  • model M4 reduces the error rate unlike the other models.
  • the model M5 which is based on individual tip positions and the in Findlater et al. used extracted geometric properties (these represent size and
  • Alignment of the contact zone as well as the movement of the touch during the press of a button does not lead to a significant improvement in the error rate compared to the model based on individual jogging positions. It is currently believed that these are in advance Specified selection of certain geometric criteria results in certain information relevant to key classification being lost during processing of the raw data provided by the touch sensor. The lost information can then not be taken into account in the classification. If, on the other hand, fingerprint data in the form of raw data are used directly for key classification, a significantly larger part of the information contained in the raw data, if appropriate all the relevant information, can be used.
  • the method exemplified here for generating a virtual keyboard on a touch screen can be used on touch sensors of different shape and size.
  • the method is particularly advantageous for larger touch sensors that can be operated with multiple fingers.
  • tablet computers such as the Apple iPad or tablet computer based on the Android operating system can be optimized by using the method with regard to the error rate when typing.
  • a user can write notes quickly and without errors.
  • tablet computers are usually only used by one person for a long time, so that the virtual keyboard can be trained over a longer period of time, whereby the performance can be further improved.
  • a virtual keyboard of the type shown here can also be used as a replacement for mechanical keyboards. Particularly in the medical environment or in clean rooms, the use of mechanical keyboards is problematic because they are difficult to clean.
  • Touch sensor possibly even without screen, may be advantageous in the use of the method. By customizing the response of virtual buttons, text input can also be improved for this scenario.
  • Typing behavior of a user from a multiplicity of typing actions of the user on the virtual keyboard ie the learning process or training procedure for positioning the keyboard model, does not have to be limited to the time before the actual use.
  • the keyboard model can also be further optimized during use.
  • the fingerprint data and the position data derived therefrom may also be recorded during normal use and stored for Creation or optimization of the keyboard model can be used. This may be done, for example, by capturing and storing fingerprint data and positional data while writing a text, and after the text has been generated, that is, when the user saves the text as error free, the detected keystrokes will be the correct letter or virtual key be assigned.
  • position data and fingerprint data may be used for creating the keyboard model and for later use for classification.
  • further sensor information about each keystroke may also be determined and used in the classification, e.g. Data of an acceleration sensor, e.g. can detect the velocity of a keystroke.
  • a classifier is generated which can assign keystrokes to a user based on the fingerprint data. This method can be used, in particular, to make password entries more secure. The computer system then not only expects the correct letter sequence, but also the fingerprint data of the touch sensor corresponding to the expected user.

Abstract

In a method for operating a device having a user interface with a touch sensor, a virtual keyboard with virtual keys is generated on the touch sensor and touch sensor data are generated by the detection of the typing behaviour of a user from a multiplicity of typing actions of the user on the virtual keyboard. Using the touch sensor data, a user-specific keyboard model is generated which is used for classifying key presses during the use of a virtual keyboard. Position data and fingerprint data are determined during the determination of touch sensor data for each key press of a finger, wherein the position data represent the position of a touch of the surface of the touch sensor during a key press and the fingerprint data represent an image of the local sensor response to a touch of the surface of the touch sensor during a key press in the form of raw data of the touch sensor or modified raw data derived from the raw data in such a way that the classification-relevant information contained in the raw data is substantially maintained. The keyboard model is generated using the position data and the fingerprint data. The method makes it possible to reduce the frequency of incorrect inputs during the use of a virtual keyboard on devices having a user interface with a touch sensor.

Description

Verfahren zum Betreiben einer Vorrichtung, die eine Benutzerschnittstelle mit einem  Method for operating a device having a user interface with a
Berührungssensor aufweist, sowie entsprechende Vorrichtung Has touch sensor, and corresponding device
Beschreibung description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Vorrichtung, die eine The invention relates to a method for operating a device, the one
Benutzerschnittstelle mit einem Berührungssensor aufweist, gemäß dem Oberbegriff von Anspruch 1, sowie eine Vorrichtung mit einer Benutzerschnittstelle, die einen Berührungssensor aufweist, gemäß dem Oberbegriff von Anspruch 1 1. A user interface with a touch sensor, according to the preamble of claim 1, as well as a device with a user interface having a touch sensor, according to the preamble of claim 1 first
Es gibt heutzutage eine Vielzahl rechnergestützt arbeitender Vorrichtungen mit einer There are a variety of computer-aided devices today with a
Benutzungsschnittstelle, die einen Berührungssensor aufweist. Bei der Vorrichtung kann es sich beispielsweise um einen stationären oder tragbaren Computer oder um eine computergestützt gesteuerte Maschine handeln. Ein Berührungssensor ist ein Eingabegerät, bei dem durch Berührung bestimmter Bereiche der Oberfläche ein Programmablauf der Vorrichtung gesteuert werden kann. Ein Berührungssensor kann mit einem Bildschirm kombiniert sein. Ein Berührungsbildschirm (touchscreen) kombiniert die elektronische Bilddarstellung eines Bildschirms mit einem A user interface having a touch sensor. The device may be, for example, a stationary or portable computer or a computer-controlled machine. A touch sensor is an input device in which a program flow of the device can be controlled by touching certain areas of the surface. A touch sensor may be combined with a screen. A touch screen combines the electronic display of a screen with a screen
Berührungssensor. Ein Berührungsbildschirm ist daher ein kombiniertes Ein- und Ausgabegerät. Eine mit dem Berührungsbildschirm verbundene Steuerung erzeugt Bildinhalte des Touch sensor. A touch screen is therefore a combined input and output device. A controller connected to the touch screen generates image contents of the
Berührungsbildschirms und dient zum Empfangen und Verarbeiten von Eingabesignalen, die durch Berührung von Berührungsbereichen an der Oberfläche z.B. mittels Fingerdruck erzeugt werden. Touch screen and serves to receive and process input signals obtained by touching touch areas on the surface, e.g. be generated by finger pressure.
Werden Befehlseingaben in Form von Buchstaben- und/oder Ziffernfolgen erwartet, ist die Steuerung in der Regel so konfiguriert, dass in mindestens einem Betriebsmodus an dem If commands are expected in the form of letter and / or number sequences, the controller is typically configured to operate in at least one mode of operation
Berührungsbildschirm eine virtuelle Tastatur mit einer Vielzahl virtueller Tasten erzeugt werden kann. Als "Tastatur" wird ein Eingabegerät bezeichnet, welches als Bedienelemente eine Anzahl von mit den Fingern zu drückenden Tasten enthält. Bekannt sind beispielsweise Touchscreen a virtual keyboard can be generated with a variety of virtual buttons. As "keyboard" an input device is referred to, which contains as controls a number of fingers to be pressed with keys. For example, are known
Schreibmaschinentastaturen mit mechanischen Tasten, die sich beim Drücken bewegen und dadurch Eingabesignale auslösen. Eine„virtuelle Tastatur" hat„virtuelle Tasten". Virtuelle Tasten werden an einem Berührungsbildschirm in der Regel als tastenähnlich erscheinende Symbole (Soft- Tasten oder Icons) elektronisch erzeugt. Virtuelle Tasten können an einem Berührungssensor auch durch Aufdrucken, Aufzeichnen oder auf andere Weise erzeugt werden. Die Tastaturbelegung bzw. das Tastatur-Layout einer mechanischen oder virtuellen Tastatur beschreibt dabei sowohl die Codierung der einzelnen Tasten als auch deren Lage und Anzahl auf der Tastatur. Typewriter keyboards with mechanical keys that move when pressed, triggering input signals. A "virtual keyboard" has "virtual keys". Virtual buttons are generated on a touch screen usually appear as a button-like appearing symbols (soft keys or icons) electronically. Virtual buttons can also be created on a touch sensor by printing, recording or otherwise. The keyboard layout or the keyboard layout of a mechanical or virtual keyboard describes both the coding of the individual keys as well as their position and number on the keyboard.
Es ist seit langem bekannt, dass die Texteingabe mittels einer virtuellen Tastatur auf einem It has long been known that the text input by means of a virtual keyboard on a
Berührungsbildschirm normalerweise ungenauer und stärker mit Fehlern behaftet bzw. langsamer ist als auf einer Hardware-Tastatur mit mechanischen Tasten. Im Unterschied zu mechanischen Tastaturen erhält der Benutzer hier kein haptisches Feedback über die Position der Finger auf der Tastatur, da die Kanten der Tasten nicht fühlbar sind und die Fingerstellung nicht ohne visuelle Kontrolle korrigiert werden kann. Schnelles Tippen nach dem Zehn-Finger- System wird dadurch schwierig und auch geübte Benutzer müssen während der Eingabe häufig auf die virtuellen Tasten schauen. Dadurch ergeben sich niedrigere Schreibgeschwindigkeiten bei der Texteingabe und höhere Fehlerraten. Touchscreen is usually less accurate and more error-prone or slower than on a hardware keyboard with mechanical buttons. Unlike mechanical keyboards, the user does not receive any haptic feedback about the position of the fingers on the keyboard because the edges of the keys are imperceptible and the finger position can not be corrected without visual control. This makes fast typing difficult with the ten-finger system, and even experienced users often have to look at the virtual keys as they type. This results in lower writing speeds for text input and higher error rates.
Vor dem Hintergrund dieser Problematik wird in der WO 2012/048380 AI ein Verfahren beschrieben, nach welchem ein an die aufgelegten Finger angepasstes Tastatur-Layout ermittelt werden kann. Dazu wird ein Tastaturmodell erzeugt, in welchem„home keys" der einzelnen Finger sowie verknüpfte Tasten definiert werden. Bei einer englischen QWERTY-Tastaturbelegung oder einer deutschen QWERTZ-Tastaturbelegung stellen beispielsweise die Tasten A-S-D-F und J-K-L für einen versierten Tastaturbenutzer die home keys dar. Wird nun die Hand in der Against the background of this problem, a method is described in WO 2012/048380 AI, according to which an adapted to the laid finger keyboard layout can be determined. For this purpose, a keyboard model is created in which "home keys" of the individual fingers as well as linked keys are defined. For example, with an English QWERTY keyboard layout or a German QWERTZ keyboard layout, the keys ASDF and JKL represent the home keys for an accomplished keyboard user now the hand in the
Ausgangsstellung auf den Berührungsbildschirm aufgelegt und erkannt, bewegen sich die virtuellen Tasten an die entsprechenden Positionen der Fingerspitzen. Je nachdem, wie viele Finger aufgelegt werden, können unterschiedliche Tastatur- Layouts aufgerufen werden. Die virtuelle Tastatur passt sich somit durch Veränderung der Position der einzelnen virtuellen Tasten an die natürlichen Fingerpositionen des jeweiligen Benutzers an. Positioned on the touch screen and recognized, the virtual keys move to the corresponding positions of the fingertips. Depending on how many fingers are placed, different keyboard layouts can be called up. The virtual keyboard thus adapts to the natural finger positions of the respective user by changing the position of the individual virtual buttons.
Die US 2009/023736 AI beschreibt eine andere Möglichkeit zur automatischen Anpassung des Tastatur-Layouts an die persönlichen Eigenheiten eines Benutzers. Der Benutzer legt dabei seine Hand so auf den Berührungsbildschirm, dass ein oder mehrere Finger und der Handballen die Oberfläche des Berührungsbildschirms berühren. Das Tastatur-Layout wird dann mindestens zum Teil anhand des Abstandes zwischen der detektierten Berührungsstelle des Handballens und den Positionen der Fingerberührung ermittelt und entsprechend an den Benutzer angepasst. In der Patentanmeldung US 2010/0259561 AI werden Verfahren beschrieben, die es ermöglichen, dass sich das Tastatur-Layout einer virtuellen Tastatur in einem Lernprozess an den jeweiligen Benutzer anpasst. Das Computersystem erkennt dabei das Tippmuster eines Benutzers und verändert daraufhin die Positionen, die Größen und/oder Orientierungen der virtuellen Tasten so, dass sich für den Benutzer ein bequemes Arbeiten ergibt, wodurch die Tippfehler reduziert werden sollen. US 2009/023736 A1 describes another possibility for automatically adapting the keyboard layout to the personal characteristics of a user. The user places his hand on the touch screen so that one or more fingers and the palm of his hand touch the surface of the touch screen. The keyboard layout is then determined at least in part from the distance between the detected point of contact of the handball and the positions of the finger touch and adapted accordingly to the user. In the patent application US 2010/0259561 AI methods are described, which allow the keyboard layout of a virtual keyboard in a learning process to the respective user adapts. The computer system recognizes the typing pattern of a user and then changes the positions, the sizes and / or orientations of the virtual keys in such a way that the user gets comfortable working, whereby the typing errors are to be reduced.
Die Patentanmeldung US 2011/0254772 AI beschreibt Verfahren zum Erkennen von Bewegungen einer oder mehrerer Berührungen im Bereich einer virtuellen Tastatur eines Berührungsbildschirms. Bei dem Verfahren werden gewisse Eigenschaften einer Berührung, wie z.B. die Intensität, die Größe der Kontaktfläche oder der Auflagewinkel genutzt, um Aktionen zusätzlich zur Texteingabe mit der virtuellen Tastatur ausfuhren zu können. Aus aufeinanderfolgenden Berührungen werden Gesten interpretiert. Diese können auch von einem Benutzer selbst erstellt werden und werden von dem System dann erkannt. Die Gestenerkennung erlaubt es unter anderem, zwischen Berührung mittels eines Fingers, eines Daumens oder einem Handballen zu unterscheiden. Das Tastatur- Layout wird bei diesem Verfahren nicht an den Benutzer angepasst. The patent application US 2011/0254772 Al describes methods for detecting movements of one or more touches in the area of a virtual keyboard of a touch screen. In the method, certain characteristics of a touch, such as e.g. the intensity, the size of the contact surface or the support angle used to perform actions in addition to the text input with the virtual keyboard. Gestures are interpreted from successive touches. These can also be created by a user himself and are then recognized by the system. The gesture recognition allows, among other things, to distinguish between touch by means of a finger, a thumb or a palm. The keyboard layout is not adapted to the user in this procedure.
Der Artikel„Personalized Input: Improving Ten-Finger Touchscreen Typing through Automatic Adaptation" von Findlater, L., und Wobbrock, J. O. in: Proc. CHI ' 12 (2012), ACM Press, 815-824 (im Folgenden kurz als„Findlater et al." bezeichnet) beschreibt ein Verfahren zur Anpassung einer virtuellen Tastatur eines Berührungsbildschirms an das Tippverhalten eines Benutzers. Die The article "Personalized Input: Improving Ten-Finger Touching Typing Through Automatic Adaptation" by Findlater, L., and Wobbrock, JO in: Proc. CHI '12 (2012), ACM Press, 815-824 (hereinafter referred to simply as "Findlater et al.) describes a method for adapting a virtual keyboard of a touch screen to the typing behavior of a user. The
Anpassung kann dabei für den Benutzer sichtbar oder nicht sichtbar erfolgen. Neben der Position der Berührungen auf dem Berührungsbildschirm werden zusätzlich geometrische Eigenschaften der Berührung wie Größe und Ausrichtung der Kontaktzone sowie Bewegung der Berührung während des Tastendrucks ausgewertet, um Tastendrücke einzelnen virtuellen Tasten zuzuordnen. Es konnte gezeigt werden, dass durch die individuelle Anpassung der virtuellen Tastatur an den Benutzer Steigerungen bei der Eingabegeschwindigkeit erzielt werden können. Adaptation can be visible or not visible to the user. In addition to the location of the touch screen touches, additional geometrical characteristics of the touch, such as the size and orientation of the contact zone, and movement of the touch during key press are evaluated to assign keystrokes to individual virtual keys. It has been shown that customization of the virtual keyboard to the user can increase the input speed.
Es ist eine Aufgabe der Erfindung, die Häufigkeit von Fehleingaben bei der Nutzung einer virtuellen Tastatur an Vorrichtungen, die eine Benutzerschnittstelle mit einem Berührungssensor aufweisen, zu vermindern. Zur Lösung dieser Aufgabe stellt die Erfindung ein Verfahren mit den Merkmalen von Anspruch 1 sowie eine Vorrichtung mit den Merkmalen von Anspruch 11 bereit. It is an object of the invention to reduce the incidence of misses when using a virtual keyboard on devices having a user interface with a touch sensor. To achieve this object, the invention provides a method having the features of claim 1 and a device having the features of claim 11.
Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben. Der Wortlaut sämtlicher Ansprüche wird durch Bezugnahme zum Inhalt der Beschreibung gemacht. Advantageous developments are specified in the dependent claims. The wording of all claims is incorporated herein by reference.
Bei dem Verfahren wird eine virtuelle Tastatur mit einer Vielzahl von virtuellen Tasten an dem Berührungssensor generiert. Wenn der Berührungssensor mit einem Bildschirm zu einem In the method, a virtual keyboard is generated with a plurality of virtual buttons on the touch sensor. If the touch sensor with a screen to a
Berührungsbildschirm kombiniert ist, werden die virtuellen Tasten in Form von elektronisch erzeugten Symbolen (icons) am Bildschirm erzeugt. Es ist auch möglich, virtuelle Tasten auf andere Weise zu erzeugen, z.B. durch optische Projektion auf eine Oberfläche des Berührungssensors oder in Form von permanenten, unveränderlichen virtuellen Tasten, die z.B. durch Aufdrucken oder Aufzeichnen oder Auflegen auf die Oberfläche des Berührungssensors erzeugt werden können. Ein Beispiel hierfür ist unter der Bezeichnung "Touch Cover" für Tablet-Computer der Firma Microsoft bekannt. Touchscreen is combined, the virtual buttons are generated in the form of electronically generated icons on the screen. It is also possible to generate virtual keys in other ways, e.g. by optical projection onto a surface of the touch sensor or in the form of permanent, invariable virtual buttons, e.g. can be generated by printing or recording or laying on the surface of the touch sensor. An example of this is known as "Touch Cover" for tablet computers from Microsoft.
Jede virtuelle Taste hat eine vorgegebene Position und Form. Durch Erfassen des Tippverhaltens eines Benutzers aus einer Vielzahl von Tippaktionen des Benutzers an der virtuellen Tastatur werden benutzer-spezifische Berührungssensor-Daten ermittelt. Diese beinhalten Informationen über individuelle Eigenheiten des Benutzers bei der Tastaturnutzung, beispielsweise über die Art und Weise, wie bestimmte virtuelle Tasten vom Benutzer getroffen werden. Die benutzerspezifischen Berührungssensor-Daten werden dazu verwendet, ein benutzer-spezifisches Each virtual key has a given position and shape. By detecting the typing behavior of a user from a plurality of typing actions of the user on the virtual keyboard, user-specific touch sensor data is detected. These include information about individual peculiarities of the user in keyboard usage, such as the way certain virtual keys are hit by the user. The user-specific touch sensor data is used to provide a user-specific
(personalisiertes) Tastaturmodell zu generieren. Das Tastaturmodell ist somit das Ergebnis eines Einlern Vorgangs. In Abhängigkeit von dem auf diese Weise generierten Tastaturmodell wird das Ansprechverhalten von virtuellen Tasten derselben virtuellen Tastatur oder einer anderen entsprechenden virtuellen Tastatur an den Benutzer bei der Benutzung angepasst. Das generate (personalized) keyboard model. The keyboard model is thus the result of a learning process. Depending on the keyboard model generated in this manner, the response of virtual keys of the same virtual keyboard or other corresponding virtual keyboard to the user in use is adjusted. The
Tastaturmodell wird also zur Klassifizierung von Tastendrücken beim Einsatz einer virtuellen Tastatur verwendet. Keyboard model is thus used to classify keystrokes when using a virtual keyboard.
Der Verfahrensschritt der Zuordnung zwischen einer Tippaktion und der durch diese Tippaktion ausgelösten Eingabe, d.h. die Auswahl der als getippt angesehenen virtuellen Taste, wird als „Klassifizierung" bezeichnet. Durch die Klassifizierung wird ein Fingerdruck an einer bestimmten Stelle genau einer bestimmten Taste aus einer Vielzahl von virtuellen Tasten zugeordnet. Die hierfür genutzte Hardware und die dabei aktiven Programmbestandteile (Software) bilden den korrespondierenden„Klassifikator". Der Begriff "Tastaturmodell" ist ein alternativer Begriff für einen Klassifikator. Aufgabe des Tastaturmodells ist es z.B., einen Tastendruck als Eingabe eines bestimmten Buchstabens zu interpretieren. Der Begriff "Ansprechverhalten" bezieht sich auf das Klassifikationsergebnis bzw. auf die "Antwort" der virtuellen Tastatur auf einen Fingerdruck. The step of associating a typing action and the input triggered by this typing action, ie, selecting the virtual key that is considered to be typed, is called a "classification." The classification is a fingerprint at a particular location of a particular key of a plurality of The hardware used for this purpose and the program components (software) that are active for this purpose form the The term "keyboard model" is an alternative term for a classifier.The task of the keyboard model is, for example, to interpret a keystroke as an input of a specific letter.The term "response" refers to the classification result or to the " Answer "of the virtual keyboard at a finger pressure.
Bei der beanspruchten Erfindung werden bei der Ermittlung von benutzer-spezifischen In the claimed invention, in determining user-specific
Tippverhalten-Daten für jeden Tastendruck eines Fingers sowohl Positionsdaten als auch Typing behavior data for each press of a finger both position data and
Fingerabdruckdaten ermittelt. Fingerprint data determined.
Der Begriff„Positionsdaten" bezeichnet Daten, die die Position der Kontaktzone eines Fingers mit der Oberfläche des Berührungsbildschirms bei einem Tastendruck repräsentieren. The term "position data" refers to data representing the position of the contact zone of a finger with the surface of the touch screen when a key is pressed.
Der Begriff„Fingerabdruckdaten" bezeichnet Daten, die ein Abbild des Berührungsbereichs zwischen Finger und Oberfläche des Berührungssensors bei einem Tastendruck mit Hilfe eines Fingers repräsentieren. Der durch das Abbild bzw. die Abbildung erfasste Berührungsbereich umfasst die unmittelbare Kontaktzone zwischen Finger und Oberfläche, kann aber auch The term "fingerprint data" refers to data representing an image of the area of contact between the finger and the surface of the touch sensor when a button is pressed by a finger The area of contact covered by the image includes, but may be, the immediate area of contact between the finger and the surface
angrenzende Bereiche umfassen, in denen kein Berührungskontakt vorliegt. Der erfasste include adjacent areas where there is no physical contact. The captured
Berührungsbereich kann z.B. rechteckig oder auf andere Weise polygonal sein. Das Abbild ist vorzugsweise zweidimensional, könnte in bestimmten Fällen aber auch eindimensional sein. Anstatt eines einzelnen Abbildes pro Tastendruck kann bei Bedarf der zeitliche Verlauf der Touch area may e.g. rectangular or otherwise polygonal. The image is preferably two-dimensional, but in certain cases could also be one-dimensional. Instead of a single image per key press, the time course of the
Fingerabdruckdaten, also eine Folge von mehreren Abbildern, ermittelt werden. Fingerprint data, so a series of multiple images are determined.
Der Begriff "Abbild" bezeichnet hierbei die im Berührungsbereich erfassten Rohdaten des The term "image" hereby refers to the raw data of the area covered in the area of contact
Berührungssensors sowie modifizierte Rohdaten, die aus den Rohdaten in der Weise abgeleitet werden, dass die in den Rohdaten enthaltene klassifizierungsrelevante Information im Wesentlichen erhalten bleibt. Bei einem optischen Berührungssensor können die erfassten Rohdaten z.B. die örtliche Verteilung von Lichtintensität im Bereich des Fingerabdrucks repräsentieren. Bei einem kapazitiven Berührungssensor können die erfassten Rohdaten die örtliche Verteilung der gemessenen Kapazität repräsentieren. Touch sensor and modified raw data derived from the raw data in such a way that the classification relevant information contained in the raw data is substantially preserved. In an optical touch sensor, the detected raw data may be e.g. represent the spatial distribution of light intensity in the area of the fingerprint. For a capacitive touch sensor, the detected raw data may represent the local distribution of the measured capacitance.
"Modifizierte Rohdaten" sind solche Daten, die diese Information im Wesentlichen unverfälscht ebenfalls enthalten, in der Regel aber mit reduzierter Datenmenge. Zu den modifizierten Rohdaten gehören insbesondere solche Daten, die von den Rohdaten durch Kompressionsverfahren (z.B. JPEG-Kompression), Filterung (z.B. Tiefpass) oder Verfahren zur Dimensionsreduktion (z.B. Hauptkomponentenanalyse oder Diskriminanzanalyse) abgeleitet sind. Modifizierte Rohdaten können aus den Rohdaten auch durch Kalibrierung oder Normierung abgeleitet werden. "Modified raw data" is data that also contains this information essentially unadulterated, but usually with a reduced amount of data. The modified raw data include, in particular, such data as is available from the raw data by compression methods (eg JPEG compression), filtering (eg low pass) or methods for dimensional reduction (eg Principal component analysis or discriminant analysis). Modified raw data can also be derived from the raw data by calibration or normalization.
Modifizierte Rohdaten im Sinne dieser Anmeldung sind zu unterscheiden von solchen Daten, die durch Auswertung von Rohdaten nach bestimmten, vorab definierten, sinnvoll erscheinenden Kriterien durch Merkmalsextraktion erzeugt werden. Bei manchen konventionellen Verfahren werden Rohdaten z.B. im Hinblick auf geometrische Kriterien wie relative Fingerspitzenposition oder relative Fingerabdruckzentrumsposition oder Bewegungsrichtung der Fingerspitze für einen Fingerdruck verarbeitet, bevor die nach vorab definierten Kriterien verarbeiteten Daten zum Trainieren eines Klassifikators genutzt bzw. klassifiziert werden. Nach den Erkenntnissen der Erfinder können solche dem Menschen plausibel erscheinenden Merkmalsextraktionen jedoch zu einem Verlust von klassifizierungsrelevanter Information führen, die in den Rohdaten oder den modifizierten Rohdaten noch enthalten ist. Die beanspruchte Erfindung vermeidet solche Modified raw data in the sense of this application are to be distinguished from such data that are generated by evaluating raw data according to specific, pre-defined, reasonable criteria by feature extraction. In some conventional methods, raw data is e.g. in terms of geometric criteria, such as relative fingertip position or relative fingerprint center position or moving direction of the fingertip for a fingerprint, before the data processed according to pre-defined criteria are used to classify a classifier. According to the findings of the inventors, however, such feature extractions which seem plausible to humans can lead to a loss of classification-relevant information which is still contained in the raw data or the modified raw data. The claimed invention avoids such
Informationsverluste weitgehend, indem Fingerabdruckdaten in Form von Rohdaten oder modifizierten Rohdaten unmittelbar zur Erzeugung des Tastaturmodells genutzt werden. Information loss largely by fingerprint data in the form of raw data or modified raw data are used directly to generate the keyboard model.
Die Fingerabdruckdaten werden einem Klassifikator ohne weitere Vorbearbeitung zugeführt. Somit steht die volle in einem Fingerabdruck liegende primäre Information unverfälscht für die The fingerprint data is fed to a classifier without further pre-processing. Thus, the full primary information in a fingerprint is unadulterated to the
Klassifikation zur Verfügung. Classification available.
Die beanspruchte Erfindung beruht unter anderem auf der Erkenntnis, dass im Allgemeinen nicht im Voraus bestimmt werden kann, welche konkrete Information zum besseren Unterscheiden der Fingerabdrücke führt. Der Lernalgorithmus trennt die Daten anhand der in den Rohdaten oder modifizierten Rohdaten gegebenen Information. Die Kriterien der Trennung müssen nicht immer einer beschreibbaren Eigenschaft (z.B. Größe oder Orientierung eines als elliptisch angenommenen Fingerabdrucks etc.) entsprechen. Insoweit arbeitet die Klassifizierung ähnlich wie die menschliche Informationsverarbeitung. Auch hier können nicht immer klare Kriterien angegeben werden, nach denen ein Mensch Objekte unterscheidet. Among other things, the claimed invention is based on the insight that in general it can not be determined in advance which concrete information leads to a better distinction of the fingerprints. The learning algorithm separates the data based on the information given in the raw data or modified raw data. The criteria of separation need not always correspond to a writable property (e.g., size or orientation of a fingerprint assumed to be elliptical, etc.). In that regard, the classification works similar to human information processing. Again, it is not always possible to specify clear criteria according to which a person distinguishes objects.
Vorzugsweise werden auch bei der Anpassung des Ansprechverhaltens der Tastatur im Preferably also in the adaptation of the response of the keyboard in
bestimmungsgemäßen Gebrauch für jeden Tastendruck eines Fingers sowohl Fingerabdruckdaten als auch Positionsdaten ermittelt und mit Hilfe des Tastaturmodells ausgewertet. Das Tastaturmodell könnte sich so auswirken, dass sich das sichtbare Tastaturlayout infolge der Anpassung ändert. Es wird aber als vorteilhaft angesehen, wenn die Anpassung der virtuellen Tastatur an den individuellen Benutzer für den Benutzer unmerklich erfolgt. Bei einer bevorzugten Ausführungsform bleibt das Erscheinungsbild der virtuellen Tastatur, d.h. das sichtbare Tastatur- Layout, unverändert, so dass sich der Benutzer bei Bedarf an den sichtbaren Positionen der virtuellen Tasten orientieren kann. Die virtuelle Tastatur wird durch die Anpassung des intended use for each key press of a finger both fingerprint data and position data determined and evaluated using the keyboard model. The keyboard model could have the effect of changing the visible keyboard layout as a result of customization. However, it is considered advantageous if the customization of the virtual keyboard to the individual user is imperceptible to the user. In a preferred embodiment, the appearance of the virtual keyboard, ie, the visible keyboard layout, remains unchanged, so that the user can orient himself to the visible positions of the virtual keys as needed. The virtual keyboard is made by customizing the
Ansprechverhaltens auf Basis des Tastaturmodells automatisch dafür sorgen, dass die Häufigkeit von Fehleingaben im Vergleich zu Verfahren ohne Nutzung des Tastaturmodells signifikant reduziert wird. Es wird somit eine Verbesserung der Genauigkeit bei der Klassifizierung der Tasten erreicht. Automatically based on the keyboard model to ensure that the frequency of incorrect entries is significantly reduced compared to methods without using the keyboard model. Thus, an improvement in the accuracy of the classification of the keys is achieved.
Ein derartiges Verfahren unterscheidet sich von bekannten Verfahren, welche die Tastaturgröße der wahrscheinlich als nächstes zu drückenden Taste mit Hilfe eines Sprachmodells anpassen, dadurch, dass die Anpassung des Ansprechverhaltens der virtuellen Tastatur unabhängig vom Sinngehalt der durch die Tastatureingaben repräsentierten Information erfolgt. Ein Unterschied zu Verfahren, bei denen durch Auflegen von Fingern oder anderen Handteilen auf den Berührungsbildschirm ein in der Form angepasstes Tastatur-Layout erzeugt wird, liegt darin, dass die virtuelle Tastatur keine für den Benutzer sichtbare Veränderung zeigen muss. Ähnlich wie eine Hardware-Tastatur kann die virtuelle Tastatur ein zeitlich unverändertes Erscheinungsbild haben, so dass sich ein Benutzer in einer von mechanischen Tastaturen gewohnten Arbeitssituation befindet. Dadurch wird der Benutzer nicht abgelenkt und es wird vermieden, dass sich der Benutzer an ein geändertes Tastatur- Layout anpasst. In gewissem Umfang kann dadurch vermieden werden, dass das Schreibverhalten des Benutzers sich allmählich verschlechtert. Ähnliche Vorteile ergeben sich auch gegenüber bekannten Verfahren, bei denen die Position und/oder Größe einzelner Tasten an die Tippposition des Benutzers angepasst wird. Such a method differs from known methods which adapt the keyboard size of the key likely to be next pressed using a language model, in that the adaptation of the response of the virtual keyboard is independent of the meaning of the information represented by the keyboard input. One difference to methods where creating a customized keyboard layout by placing fingers or other hand parts on the touch screen is that the virtual keyboard need not show any change visible to the user. Similar to a hardware keyboard, the virtual keyboard can have a timeless appearance, so that a user is in a working situation familiar from mechanical keyboards. This will not distract the user and prevent the user from adapting to a changed keyboard layout. To some extent, this can prevent the user's writing behavior from gradually deteriorating. Similar advantages also result over known methods, in which the position and / or size of individual keys is adapted to the typing position of the user.
Bei bevorzugten Ausführungsformen werden die Positionsdaten aus den Berührungssensor-Daten abgeleitet. Beispielsweise kann der geometrische Schwerpunkt eines Fingerabdrucks oder ein nach bestimmten Kriterien gewichteter Schwerpunkt eines Fingerabdrucks als Position des zugehörigen Tastendrucks ermittelt und weiterverarbeitet werden. In preferred embodiments, the position data is derived from the touch sensor data. For example, the geometric center of gravity of a fingerprint or a weighted according to certain criteria focus of a fingerprint can be determined as a position of the associated keystroke and further processed.
Es hat sich für die Klassifizierung der Positionsdaten als vorteilhaft herausgestellt, die It has proved to be advantageous for the classification of the position data, the
benutzerspezifische Verteilung von Tastendrücken aus einer Vielzahl von vorherigen custom distribution of keystrokes from a variety of previous ones
Tastendrücken durch eine zweidimensionale Normalverteilung (bivariate Gaussian function) zu modellieren. Für neue Tastendrücke können diese Normalverteilungen ausgewertet werden, um Wahrscheinlichkeiten für die einzelnen Tasten zu berechnen. Key presses by a two-dimensional normal distribution (bivariate Gaussian function) too model. For new keystrokes, these normal distributions can be evaluated to calculate probabilities for each key.
Für die Verarbeitung der Fingerabdruckdaten können unterschiedliche Klassifikationsverfahren genutzt werden, die in der Lage sind, die in den Fingerabdruckdaten codierte Information zu klassifizieren und somit einen bestimmten Tastendruck der mit der höchsten Wahrscheinlichkeit gemeinten virtuellen Taste zuordnen. Bei einer Verfahrens Variante wird zur Klassifizierung der Fingerabdruckdaten eine„Support Vector Machine" (SVM) genutzt. Dabei handelt es sich im Kern um einen Algorithmus zur Mustererkennung, welcher in einem Computerprogramm umgesetzt werden kann und in der Lage ist, die erfassten Fingerdrücke anhand der Finger abdruckdaten zuverlässig in unterschiedliche Klassen bzw. zu unterschiedlichen virtuellen Tasten zuzuordnen. Auch andere Klassifizierungsalgorithmen sind nutzbar, z.B. Neuronale Netze oder Klassifikation mit Gauss'schen Prozessen oder Logistische Regression. For the processing of the fingerprint data, different classification methods can be used, which are able to classify the information encoded in the fingerprint data and thus assign a specific keypress to the most probable virtual key. In a variant of the method, a support vector machine (SVM) is used to classify the fingerprint data, which is essentially an algorithm for pattern recognition, which can be implemented in a computer program and is capable of detecting the recorded fingerprints on the basis of the Fingerprint data can be reliably assigned to different classes or to different virtual keys.Also other classification algorithms can be used, eg neural networks or classification with Gaussian processes or logistic regression.
Alternativ zu zwei separaten Klassifikationsverfahren für Positions- und Fingerabdruckdaten können diese beiden Informationen auch kombiniert in einem Klassifikationsverfahren verwendet werden. As an alternative to two separate classification methods for position and fingerprint data, these two pieces of information can also be used in combination in a classification method.
Die Nutzung von Fingerabdruckdaten setzt voraus, dass der Berührungssensor so konfiguriert ist, dass innerhalb der typischen Größe Kontaktzone eines Fingers mit der Oberfläche eine Vielzahl von Messpunkten für eine durch Fingerdruck bzw. Fingerkontakt veränderbare physikalische Größe existiert, so dass ein Abbild des Berührungsbereichs unter Verwendung der ortsaufgelöst erfassten Messwerte der Messgröße erzeugt werden kann. Der Begriff "Messpunkt" bezeichnet hier ein Messareal kleiner Ausdehnung, welches nicht im mathematischen Sinne punktförmig ist. Die Ausdehnung eines Messpunkts kann z.B. im Zehntelmillimeterbereich oder darunter liegen. The use of fingerprint data requires that the touch sensor be configured to exist within the typical size contact zone of a finger with the surface, a plurality of measurement points for a finger-size variable physical size, such that an image of the touch area using the spatially resolved measured values of the measured variable can be generated. The term "measuring point" here refers to a measuring area of small extent, which is not punctiform in the mathematical sense. The extent of a measuring point can e.g. in tenths of a millimeter range or less.
Bei manchen Ausfuhrungsformen ist der Berührungssensor ein optischer Berührungssensor, bei dem Veränderungen der Sensoreigenschaften im jeweiligen Berührungsbereich ortsaufgelöst optisch mittels eines zweidimensionalen Bildes aus Bildelementen (Pixeln) erfasst werden können. Es kann sich beispielsweise um ein Graustufenbild handeln, bei welchem Messpunkte, die beim Tastendruck einem stärkeren Druck ausgesetzt waren, im rechnergestützt verarbeitbaren Abbild eine andere Graustufe erhalten als schwächer druckbelastete Messpunkte. Mit einem optischen Berührungssensor kann ggf. auch ein Schattenwurf in unmittelbarer Nähe zur Kontaktzone erfasst werden. Es ist auch möglich, das Verfahren bei Verwendung eines kapazitiven Berührungssensors zu nutzen, dessen örtliches Auflösungsvermögen so groß ist, dass innerhalb der typischen Größe eines Fingerabdrucks mehrere Messpunkte liegen, deren Kapazität unabhängig von der Kapazität benachbarter Messpunkte bestimmt werden kann. Die Messpunkte eines kapazitiven In some embodiments, the touch sensor is an optical touch sensor, in which changes in the sensor properties in the respective contact region can be detected spatially resolved optically by means of a two-dimensional image of picture elements (pixels). It may, for example, be a grayscale image in which measuring points which were exposed to a greater pressure when the key was pressed receive a different gray level in the computer-aided image than weaker pressure-loaded measuring points. With an optical touch sensor, if necessary, a shadow can also be detected in the immediate vicinity of the contact zone. It is also possible to use the method when using a capacitive touch sensor whose local resolving power is so large that within the typical size of a fingerprint multiple measurement points lie whose capacity can be determined independently of the capacity of adjacent measurement points. The measuring points of a capacitive
Berührungssensors werden z.B. durch Kreuzungspunkte von senkrecht zueinander in zwei versetzten Ebenen verlaufenden Leiterbahnen gebildet, die an jedem Kreuzungspunkt eine lokale Kapazität bilden, deren Größe sich bei Druckbelastung und/oder Fingerberührung ändert. Touch sensors are e.g. formed by crossing points of perpendicular to each other in two staggered planes extending tracks, which form a local capacity at each crossing point, the size of which changes under pressure load and / or finger touch.
Vorzugsweise sollte die räumliche Dichte von Messpunkten bzw. in einer oder mehreren quer zueinander parallel zur Oberfläche des Berührungssensors verlaufenden Richtungen mindestens 0.5/mm betragen, insbesondere 1/mm oder mehr. Dadurch ist eine ausreichend gute Ortsauflösung erzielbar. Preferably, the spatial density of measurement points or in one or more transverse to each other parallel to the surface of the touch sensor directions should be at least 0.5 / mm, in particular 1 / mm or more. As a result, a sufficiently good spatial resolution can be achieved.
Die Funktion des Tastaturmodells kann bei manchen Ausführungsformen so beschrieben werden, dass jeder virtuellen Taste ein durch Bereichsgrenzen definierter aktiver Bereich zugeordnet wird, der für eine oder mehrere virtuelle Tasten eine andere Position und/oder Form hat als die am Berührungssensor sichtbare Fläche der virtuellen Taste. The function of the keyboard model may, in some embodiments, be described as associating with each virtual key an area-defined active area having a different position and / or shape for one or more virtual buttons than the area of the virtual button visible on the touch-sensor.
Der aktive Bereich ist in der Regel größer als die sichtbare Fläche der virtuellen Taste, so dass auch noch Tippaktionen richtig zugeordnet (klassifiziert) werden, die am Rand der sichtbaren virtuellen Taste oder sogar außerhalb der sichtbaren Fläche der virtuellen Taste liegen. Alternativ oder zusätzlich kann der aktive Bereich gegenüber der sichtbaren Fläche der virtuellen Taste in einer bestimmten Richtung lateral verlagert sein, was beispielsweise dann der Fall sein kann, wenn ein Benutzer regelmäßig in einer bestimmten Richtung neben die richtige Position der Taste tippt. Typischerweise haben die aktiven Bereiche jeweils eine irreguläre Form, sind also insbesondere weder kreisförmig noch rechteckförmig. Form und Größe der beim Tastendrücken jeweils wirksamen aktiven Bereiche sowie deren Lage werden unter Verwendung des benutzer-spezifische Tastaturmodells dynamisch bestimmt. Die Erzeugung derartiger aktiver Bereiche erlaubt eine fehlerfreie Eingabe auch bei sehr unpräzisen Tastendrücken, wobei ggf. die durch einen The active area is usually larger than the visible area of the virtual button, so that even typing actions that are at the edge of the visible virtual button or even outside the visible area of the virtual button are correctly assigned (classified). Alternatively or additionally, the active area may be laterally displaced from the visible area of the virtual button in a particular direction, which may be the case, for example, when a user taps regularly in a particular direction adjacent to the correct position of the button. Typically, the active regions each have an irregular shape, so in particular are neither circular nor rectangular. The shape and size of the active areas active on the key press and their location are determined dynamically using the user-specific keyboard model. The generation of such active areas allows error-free input even with very imprecise keystrokes, where necessary, by a
Tastendruck gewünschte Eingabe auch dann erfolgt, wenn die zugeordnete Taste beim Tippen verfehlt wird. Die Klassifizierung unter Verwendung von Fingerabdruckdaten bietet Vorteile, die über die korrekte Zuordnung von Tastendrücken zu bestimmten virtuellen Tasten hinausgehen. Bei einer Ausführungsform wird ein Benutzer-Klassifikator generiert, der eine Benutzer-Klassifikation in der Weise durchführt, dass ein Tastendruck auf Basis der Fingerabdruckdaten einem bestimmten Benutzer zugewiesen wird. Dann können weitere Aktionen der Vorrichtung in Abhängigkeit vom Ergebnis der Benutzer-Klassifikation gesteuert werden. Beispielsweise kann eine Keystroke desired input also occurs when the assigned key is missed while typing. The classification using fingerprint data offers advantages beyond just assigning keystrokes to specific virtual keys. In one embodiment, a user classifier is generated that performs a user classification such that a keystroke based on the fingerprint data is assigned to a particular user. Then, further actions of the device may be controlled depending on the result of the user classification. For example, a
Eingabeaufforderung zur Eingabe eines Passworts generiert werden und die darauf folgenden Tastendrücke werden unter Verwendung des Benutzer-Klassifikators nicht nur darauf analysiert, ob das erwartete Passwort (z.B. eine vorab definierte und gespeicherte Abfolge von Buchstaben, Ziffern und/oder Zeichen) eingegeben wird, sondern zusätzlich auch darauf, ob das richtige bzw. das erwartete Passwort von einem autorisierten Benutzer eingegeben wird. Die Prompt for entering a password are generated and the subsequent keystrokes are analyzed using the user classifier not only on whether the expected password (eg a pre-defined and stored sequence of letters, numbers and / or characters) is entered, but in addition Also, whether the correct or expected password is entered by an authorized user. The
Sicherheitseinstellungen können so eingerichtet sein, dass eine Freigabe bestimmter oder aller weiteren Aktionen der Vorrichtung nur dann erfolgt, wenn das richtige Passwort von einem autorisierten Benutzer eingegeben wird. Security settings may be set up to release certain or all other actions of the device only if the correct password is entered by an authorized user.
Die Erfindung betrifft auch eine Vorrichtung mit einer Benutzerschnittstelle, die einen The invention also relates to a device with a user interface, the one
Berührungssensor aufweist. Die Vorrichtung ist zur Durchführung des Verfahrens bei der Touch sensor has. The device is for carrying out the method in the
Generierung des Tastaturmodells und/oder bei der bestimmungsgemäßen Nutzung unter Generation of the keyboard model and / or in the intended use under
Verwendung eines bereits generierten Tastaturmodells konfiguriert. Use of an already generated keyboard model configured.
Gemäß einer Formulierung hat die Vorrichtung eine Benutzerschnittstelle, die einen In one formulation, the device has a user interface that has a
Berührungssensor aufweist, der innerhalb einer typischen Größe einer Kontaktzone eines Fingers mit der Oberfläche des Berührungssensors eine Vielzahl von Messpunkten für eine durch A touch sensor having within a typical size of a contact zone of a finger with the surface of the touch sensor, a plurality of measuring points for a through
Fingerdruck und/oder Fingerkontakt und/oder Annäherung des Fingers an die Oberfläche veränderbare physikalische Größe aufweist, so dass Berührungssensor-Daten unter Verwendung der ortsaufgelöst erfassten Messwerte der Messgröße generierbar sind. Eine mit dem Berührungssensor verbundene Steuerung ist zum Empfangen und Verarbeiten von Berührungssensor-Daten konfiguriert, die durch Berührung von Berührungsbereichen an der Oberfläche des Fingerprint and / or finger contact and / or approach of the finger to the surface variable physical size, so that touch sensor data can be generated using the spatially resolved measured values of the measured variable. A controller coupled to the touch sensor is configured to receive and process touch sensor data obtained by contacting touch areas on the surface of the touch sensor
Berührungssensors erzeugt werden. Die Vorrichtung ist so konfiguriert, dass in mindestens einem Betriebsmodus an dem Berührungssensor eine virtuelle Tastatur mit einer Vielzahl virtueller Tasten erzeugt werden kann. In diesem Betriebsmodus werden bei der Ermittlung von Berührungssensor- Daten für jeden Tastendruck eines Fingers die oben erläuterten„Positionsdaten" und Touch sensor can be generated. The device is configured such that in at least one operating mode, a virtual keyboard having a plurality of virtual keys can be created on the touch sensor. In this mode of operation, when acquiring touch sensor data for each press of a finger, the above-described "position data" and
„Fingerabdruckdaten" ermittelt. Die die Positionsdaten und Fingerabdruckdaten werden mit einem benutzer-spezifischen Tastaturmodell klassifiziert, wobei jeder der virtuellen Tasten unter Verwendung des benutzer-spezifischen Tastaturmodells ein aktiver Bereich des Berührungssensors zugeordnet wird, der für eine oder mehrere der virtuellen Tasten eine andere Position und/oder Form hat als die am Berührungssensor sichtbare Fläche der virtuellen Taste, wobei eine Berührung an einer Berührungsposition innerhalb eines aktiven Bereichs als Berührung der zugeordneten virtuellen Taste interpretiert und verarbeitet wird. The position data and fingerprint data are classified using a user-specific keyboard model, with each of the virtual keys under Using the user-specific keyboard model, associating an active area of the touch sensor that has a different position and / or shape to one or more of the virtual buttons than the area of the virtual button visible on the touch sensor, wherein a touch is at a touch location within an active area is interpreted and processed as touching the associated virtual key.
Die Erfindung kann an unterschiedlichen Vorrichtungen mit Berührungssensor und entsprechender Steuerung umgesetzt werden. Die Fähigkeit zur Ausführung von Ausführungsformen der Erfindung kann in Form zusätzlicher Programmteile oder Programmmodule in die Steuerungssoftware derartiger Steuerungen implementiert werden. The invention can be implemented on different devices with touch sensor and appropriate control. The ability to carry out embodiments of the invention may be implemented in the form of additional program parts or program modules in the control software of such controllers.
Daher betrifft ein weiterer Aspekt der vorliegenden Erfindung ein Computerprogrammprodukt, welches insbesondere auf einem computerlesbaren Medium gespeichert oder als Signal verwirklicht ist, wobei das Computerprogrammprodukt, wenn es in den Speicher eines geeigneten Computers geladen und von einem Computer ausgeführt ist bewirkt, dass die durch den Computer gesteuerte Vorrichtung ein Verfahren gemäß der Erfindung bzw. einer bevorzugten Ausführungsform hiervon durchführt. Therefore, another aspect of the present invention relates to a computer program product which is stored, in particular, on a computer-readable medium or signal, wherein the computer program product, when loaded into the memory of a suitable computer and executed by a computer, causes the computer program product controlled device performs a method according to the invention or a preferred embodiment thereof.
Es ist damit z.B. möglich, das Tastaturmodell an einer ersten Vorrichtung zu erstellen, zu speichern und mithilfe eines Computerprogrammproduktes auf eine zweite Vorrichtung zu übertragen und dort zu implementieren. It is thus e.g. it is possible to create, store and transfer the keyboard model to a first device by means of a computer program product on a second device and to implement it there.
Diese und weitere Merkmale gehen außer aus den Ansprüchen auch aus der Beschreibung und den Zeichnungen hervor, wobei die einzelnen Merkmale jeweils für sich allein oder zu mehreren in Form von Unterkombinationen bei einer Ausfuhrungsform der Erfindung und auf anderen Gebieten verwirklicht sein und vorteilhafte sowie für sich schutzfähige Ausführungen darstellen können. Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher erläutert. These and other features will become apparent from the claims and from the description and drawings, wherein the individual features each alone or more in the form of sub-combinations in an embodiment of the invention and in other areas be realized and advantageous and protectable Can represent versions. Embodiments of the invention are illustrated in the drawings and are explained in more detail below.
Fig. 1 zeigt schematisch Komponenten einer Ausführungsform einer Vorrichtung, die eine Fig. 1 shows schematically components of an embodiment of a device, the one
Benutzerschnittstelle mit einem optischen Berührungssensor aufweist;  User interface having an optical touch sensor;
Fig. 2 zeigt in 2A bis 2D Graustufenbilder verschiedener Fingerabdrücke eines bestimmten Fig. 2 shows in Figs. 2A to 2D grayscale images of various fingerprints of a particular one
Benutzers für unterschiedliche Tastendrücke beim Schreiben der Wortes„BANK"; Fig. 3 zeigt in 3 A zweidimensionale Normalveiteilungsfunktionen von Tastendrücken eines bestimmten Benutzers auf der virtuellen Tastatur zur Ermittlung eines Positionsmodells und in 3B die auf Basis des Positionsmodells ermittelten aktiven Bereiche der virtuellen Tasten; User for different keystrokes when writing the word "BANK"; FIG. 3 shows in FIG. 3A a two-dimensional normal spreading functions of key presses of a specific user on the virtual keyboard for determining a position model and in FIG. 3B the active areas of the virtual keys determined on the basis of the position model;
Fig. 4 zeigt in 4A bis 4D den der Effekt der Anwendung eines Tastaturmodells, das auf einer Fig. 4 shows in Figs. 4A to 4D the effect of the application of a keyboard model based on a
Kombination eines Positionsklassifikators und eines Fingerabdruck-Klassifikators beruht, auf die Form und Lage der aktiven Bereiche beim Schreiben der Wortes„BANK"; und  Combining a positional classifier and a fingerprint classifier relies on the shape and location of the active areas when writing the word "BANK";
Fig. 5 zeigt ein Diagramm mit einem Vergleich von Fehlerraten, die mit unterschiedlichen Fig. 5 shows a diagram with a comparison of error rates with different
Tastaturmodellen erzielt wurden.  Keyboard models were achieved.
Ausführungsbeispiele embodiments
Im Folgenden werden Aspekte der Erfindung am Beispiel eines optischen Berührungssensors beschrieben, der in Kombination mit einem Bildschirm einen optischen Berührungsbildschirm (touchscreen) bildet. In the following, aspects of the invention will be described using the example of an optical touch sensor, which forms an optical touch screen in combination with a screen.
Wesentliche Aspekte der Ausführungsbeispiele beruhen auf den folgenden Überlegungen. Virtuelle Tastaturen bieten im Vergleich zu mechanischen Tastaturen den Vorteil, dass sie zur Laufzeit, also während der Benutzung durch einen Benutzer (User) angepasst werden können. Um die Essential aspects of the embodiments are based on the following considerations. Virtual keyboards have the advantage over mechanical keyboards that they can be adapted at runtime, ie during use by a user. To the
Texteingabe auf Berührungsbildschirmen (Touchscreens) zu verbessern, sollte sich das Improving text input on touchscreens (Touchscreens), should be the
Ansprechverhalten der virtuellen Tastatur dem Tippverhalten des Benutzers anpassen. Die erfassten Eingabedaten mancher Berührungsbildschirme sind im Unterschied zu einer regulären Tastatur, welche aus diskreten Schaltern besteht, sehr viel komplexer. So kann nicht nur die gedrückte Taste ermittelt werden, sondern auch die genaue Position des Tastendrucks. Wird beispielsweise zwischen zwei Tasten gedrückt, können zusätzliche Informationen ausgewertet werden, um die vom Benutzer gewünschte Taste zu ermitteln. Adjust the response of the virtual keyboard to the typing behavior of the user. The captured input data of some touchscreens, in contrast to a regular keyboard, which consists of discrete switches, much more complex. So not only the pressed button can be determined, but also the exact position of the button press. For example, if you press between two buttons, additional information can be evaluated to determine the button your user wants.
Neben der genauen Position des Berührungsbereiches auf dem Berührungssensor können moderne Berührungssensoren sehr viel mehr Informationen über jeden Berührungspunkt erfassen. Im Falle mancher optischer Berührungssensoren, wie z.B. dem„Microsoft Surface" oder„Samsung In addition to the precise location of the touch area on the touch sensor, modern touch sensors can capture much more information about each touch point. In the case of some optical touch sensors, such as e.g. the "Microsoft Surface" or "Samsung
SUR40", kann ein komplettes Graustufenbild der Oberfläche im infraroten Lichtspektrum erfasst werden. Für jede Berührung auf dem Berührungssensor kann ein Abbild des Helligkeitsverlaufs in zwei Dimensionen erfasst werden. SUR40 ", captures a complete grayscale image of the surface in the infrared light spectrum become. For each touch on the touch sensor, an image of the brightness profile can be captured in two dimensions.
Bei der Texteingabe mit Tastaturen verwenden geübte Benutzer unterschiedliche Finger für unterschiedliche Tasten. Selbst wenn derselbe Finger für eine andere Taste verwendet wird, unterscheiden sich z.B. der Auflagewinkel und evtl. die Druckstärke auf dem When typing with keyboards, experienced users use different fingers for different keys. Even if the same finger is used for another key, e.g. the support angle and possibly the pressure on the
Berührungsbildschirm. Diese Informationen können aus den vom Berührungsbildschirm gelieferten Messwerten bzw. den entsprechenden Rohdaten abgeleitet werden. Die Unterschiede spiegeln sich in den Rohdaten wieder. Touch screen. This information can be derived from the readings provided by the touch screen or the corresponding raw data. The differences are reflected in the raw data.
Im Folgenden wird beispielhaft dargestellt, auf welche Weise es möglich ist, eine virtuelle Tastatur bereitzustellen, die nicht nur lernt, wo, sondern auch wie ein bestimmter Benutzer die The following is an example of how it is possible to provide a virtual keyboard that learns not only where, but also how a particular user
unterschiedlichen virtuellen Tasten drückt. Dazu werden Algorithmen des maschinellen Lernens verwendet, um ein auf den Benutzer angepasstes (also benutzer-spezifisches bzw. personalisiertes) Tastaturmodell zu berechnen. Die Anpassung der Tastatur an den Benutzer geschieht hier für den Benutzer unsichtbar, um den Benutzer nicht abzulenken und zu vermeiden, dass der Benutzer sein Tippverhalten durch ein sichtbar geändertes Tastaturlayout verändert. different virtual buttons presses. For this purpose, machine learning algorithms are used to calculate a user-specific (or user-specific or personalized) keyboard model. The adaptation of the keyboard to the user is here invisible to the user in order not to distract the user and to avoid that the user changes his typing behavior by a visibly changed keyboard layout.
Ein Verfahrensschritt dient dazu, benutzer-spezifische Berührungssensor-Daten durch Erfassen des Tippverhaltens eines Benutzers aus einer Vielzahl von Tippaktionen des Benutzers an der virtuellen Tastatur zu ermitteln. Dieser Einlernvorgang bzw. Trainingsvorgang findet üblicherweise mindestens zum Teil, ggf. auch vollständig, vor der eigentlichen Nutzungsphase statt. Der A method step serves to determine user-specific touch sensor data by detecting the typing behavior of a user from a plurality of user's typing actions on the virtual keyboard. This training or training process usually takes place at least in part, possibly even completely, before the actual use phase. Of the
Trainingsvorgang kann sich aber auch in die Phase der normalen Nutzung erstrecken, so dass das Tastaturmodell während des bestimmungsgemäßen Gebrauchs erstellt oder verfeinert bzw. Training process can also extend into the phase of normal use, so that the keyboard model created or refined during normal use or
optimiert werden kann. Der Einlernvorgang kann an demselben Berührungssensor durchgeführt werden, an dem auch die spätere bestimmungsgemäße Nutzung erfolgt. Es kann sich auch um einen anderen Berührungssensor handeln, z.B. um eine im Wesentlichen baugleiche, bauähnliche oder funktionsgleiche Variante. Das trainierte Tastaturmodell kann als Computerprogrammprodukt vorliegen, so dass eine Übertragung von einer Vorrichtung zu einer anderen Vorrichtung möglich ist. can be optimized. The teach-in process can be performed on the same touch sensor on which the subsequent intended use is made. It can also be another touch sensor, e.g. a substantially identical, construction-like or functionally identical variant. The trained keyboard model can be present as a computer program product, so that a transfer from one device to another device is possible.
Um ein an den jeweiligen Benutzer angepasstes Tastaturmodell zu ermitteln, wurde dass In order to determine a keyboard model adapted to the respective user, that became
Tippverhalten von zwölf Testpersonen aufgezeichnet. Jeder Benutzer musste einen vorgegebenen Text tippen. Dadurch war es möglich, eine„perfekte" Tastatur zu simulieren, indem bei ungenauen Eingaben trotzdem der richtige Buchstabe (d.h. derjenige Buchstabe, der in dem vorgegebenen Text als nächstes folgen sollte) als Eingabe gewählt wurde. Auf Basis der Eingaben wurde für jeden Benutzer ein benutzer-spezifisches Tastaturmodell ermittelt bzw. entwickelt. Typing behavior recorded by twelve subjects. Each user had to type a given text. This made it possible to simulate a "perfect" keyboard by being inaccurate Inputs anyway the correct letter (ie the letter that should follow in the given text next) was selected as input. Based on the inputs, a user-specific keyboard model was determined or developed for each user.
Die Daten wurden mit einem optischen Berührungsbildschirm aufgezeichnet. Fig. 1 zeigt einen schematischen Schnitt durch den mit einem optischen Berührungssensor 100 ausgestatteten Berührungsbildschirm im Bereich der an dem Bildschirm angezeigten virtuellen Tastatur 150. Eine verwindungssteife planparallele Acrylglasscheibe 102 trägt an ihrer ebenen Oberseite eine dünne Projektionsfolie 104, deren freie Oberfläche 106 die vom Benutzer zu berührende Oberfläche des Berührungssensors des Berührungsbildschirms bildet. Mit Abstand hinter der gegenüberliegenden Rückseite ist eine infrarotempfindliche Kamera (IR-Kamera) 120 angeordnet. Infrarotlampen 122 dienen zur gleichmäßigen Beleuchtung der Acrylglasscheibe. The data was recorded with an optical touch screen. FIG. 1 shows a schematic section through the touch screen equipped with an optical touch sensor 100 in the area of the virtual keyboard 150 displayed on the screen. A warp-resistant plane-parallel acrylic glass pane 102 carries on its planar upper side a thin projection film 104 whose free surface 106 is that of the user forms the touching surface of the touch sensor of the touch screen. At a distance behind the opposite rear side, an infrared-sensitive camera (IR camera) 120 is arranged. Infrared lamps 122 are used for uniform illumination of the acrylic glass pane.
Die virtuellen Tasten 140 der virtuellen Tastatur 150 wurden auf diesem Berührungsbildschirm dargestellt. Das Layout der Tastatur entsprach einer Standard-QWERTY-Tastatur mit im The virtual buttons 140 of the virtual keyboard 150 were displayed on this touch screen. The layout of the keyboard corresponded to a standard QWERTY keyboard with im
Wesentlichen quadratischen Tasten mit ca. 19 mm Kantenlänge. Die virtuelle Tastatur wurde durch ein Computerprogramm erzeugt und mit Hilfe eines Projektors 170 innerhalb des Pults von der Rückseite an die Oberfläche des Berührungsbildschirms projiziert. Essentially square buttons with about 19 mm edge length. The virtual keyboard was generated by a computer program and projected from the back to the surface of the touch screen within the console using a projector 170.
Der optische Berührungssensor arbeitet nach dem Prinzip der frustrierten inneren Totalreflexion (FTIR). Im Bereich des Fingerabdrucks, bzw. im Bereich der Kontaktzone zwischen Finger und Oberfläche beim Tastendruck, wird die innere Totalreflexion an der Oberfläche der The optical touch sensor works on the principle of frustrated total internal reflection (FTIR). In the area of the fingerprint, or in the area of contact between the finger and the surface when the button is pressed, the total internal reflection at the surface of the fingerprint becomes
Acrylglasscheibe gestört und es entsteht Streulicht 128, welches von der IR-Kamera 120 ortsaufgelöst erfasst wird. Die Intensität des Streulichts - repräsentiert durch die Länge der Pfeile - ist u.a. abhängig vom lokal wirksamen Anpressdruck, so dass sich im mittleren Bereich höheren Anpressdrucks eine höhere Streulichtintensität (längere Pfeile) ergibt als im Randbereich leichteren Anpressdrucks (kürzere Pfeile). Perturbed acrylic glass and there is scattered light 128, which is detected by the IR camera 120 spatially resolved. The intensity of the scattered light - represented by the length of the arrows - is u.a. Depending on the locally effective contact pressure, so that in the middle region of higher contact pressure, a higher scattered light intensity (longer arrows) results than in the edge region of lighter contact pressure (shorter arrows).
Die infrarotempfindliche Kamera war so angeordnet, dass sie in ihrem Bildfeld die Oberfläche im Bereich der gesamten virtuellen Tastatur von hinten erfasste. Zu jeder Berührung wurde nicht nur die Position, sondern auch ein zweidimensionales Graustufenbild des Berührungsbereichs festgehalten, in welchem die Kontaktzone bzw. Berührungsfläche 132 des Fingers 130 auf der Oberfläche liegt. Die Kamera hatte eine Auflösung von 640 * 480 Pixeln bei 60 Bildern pro Sekunde. Die Bildauswertung war so eingerichtet, dass für jeden Fingerabdruck ein rechteckiges Graustufenbild des Berührungsbereichs mit 42 * 42 Pixeln um ein Berührungszentrum im Bereich der Kontaktzone erfasst wurde. The infrared-sensitive camera was arranged so that it covered the surface in the area of the entire virtual keyboard from behind in its image field. For each touch, not only the position but also a two-dimensional grayscale image of the touch area in which the contact area 132 of the finger 130 lies on the surface is recorded. The camera had a resolution of 640 * 480 pixels at 60 frames per second. The image analysis was set up so that for each fingerprint a rectangular Grayscale image of the touch area with 42 * 42 pixels around a touch center in the area of the contact zone was detected.
Die Fig. 2A bis 2D zeigen Graustufenbilder verschiedener Fingerabdrücke eines bestimmten Benutzers an unterschiedlichen virtuellen Tasten beim Schreiben der Wortes„BANK". Dabei entspricht das Graustufenbild in Fig. 2A dem Buchstaben„B", Fig. 2B repräsentiert den Buchstaben „A", Fig. 2C repräsentiert den Buchstaben„N" und Fig. 2D repräsentiert den Buchstaben„K". 2A to 2D show grayscale images of various fingerprints of a particular user on different virtual keys when writing the word "BANK." Here, the gray scale image in Fig. 2A corresponds to the letter "B", Fig. 2B represents the letter "A", Fig Fig. 2C represents the letter "N" and Fig. 2D represents the letter "K".
Die komplette Information der verschiedenen Tastendrücke jeder Sitzung in der Trainingsphase wurde in einer xml-Datei zusammen mit den aus der Bildverarbeitung erhaltenen The complete information of the different keystrokes of each session in the training phase was stored in an xml file along with those obtained from image processing
Fingerabdruckdaten gespeichert. Die Information umfasste die Position und einen Zeitstempel für jede Berührung sowie eine Referenz auf die zugehörige Fingerabdruck-Datei. Mit diesen Rohdaten wurde ein in einem Rechner implementierter Lernalgorithmus trainiert, der für jeden Benutzer ein individuelles Tastaturmodell erzeugte. Fingerprint data saved. The information included the location and a timestamp for each touch, as well as a reference to the associated fingerprint file. With this raw data, a learning algorithm implemented in a computer was trained, which generated an individual keyboard model for each user.
Wichtig ist hierbei u.a., dass diese vom Berührungssensor bereitgestellten Berührurigssensor-Daten in Form von Rohdaten ohne vorherige Analyse auf bestimmte Merkmale, z.B. geometrische Merkmale wie Form des Fingerabdrucks, Ausrichtung des Fingerabdrucks etc., unmittelbar zum Trainieren (Einlernen) des Klassifikators genutzt wurden. It is important, inter alia, that these touch sensor data provided by the touch sensor be in the form of raw data without prior analysis for particular features, e.g. geometric features such as shape of the fingerprint, orientation of the fingerprint, etc., were used directly for training (learning) of the classifier.
Bei einer Ausfuhrungsform wurde zur Ermittlung eines benutzer-spezifischen Tastaturmodells eine Kombination aus zwei Klassifikatoren genutzt, um eine mit hoher Wahrscheinlichkeit zutreffende Zuordnung zwischen einem bestimmten Tastendruck eines Benutzers und der durch diesen In one embodiment, to determine a user-specific keyboard model, a combination of two classifiers has been used to determine a high-fidelity association between a particular user's keystroke and that through it
Tastendruck wahrscheinlich gemeinten virtuellen Taste zu erzielen. Neben einem Positions- Klassifikator, der Positionsdaten verarbeitet und zur Klassifikation nutzt, wurde ein bildbasierter Fingerabdruck-Klassifikator genutzt, der zur Klassifizierung von Tastendrücken die aus den Fingerabdrücken abgeleitete Bildinformation (Fingerabdruck-Daten) berücksichtigt. Pressing a key probably meant to achieve virtual key. In addition to a position classifier, which processes position data and uses it for classification, an image-based fingerprint classifier was used, which takes into account the image information (fingerprint data) derived from the fingerprints to classify key presses.
Die Position eines Fingerabdrucks beziehungsweise eines Tastendrucks ist für die The position of a fingerprint or a keypress is for the
Tastenklassifikation ein wichtiges Merkmal und sollte geeignet in ein Tastaturmodell abgebildet werden, um wirklich nützlich zu sein. Ein Ansatz, der lediglich auf den Grenzen der am Bildschirm sichtbaren Tastaturen beruhen würde, bringt nach Erfahrung der Erfinder nur mäßige Ergebnisse, da Tasten häufig nicht präzise getroffen werden und die tatsächlichen Berührungspositionen einer Taste häufig vom tatsächlichen Zentrum der virtuellen Taste abweichen. Es wurde herausgefunden, dass die räumliche Verteilung der verschiedenen, einer bestimmten Taste zugedachten Tastendrücke einer Person häufig mit einer zweidimensionalen Normalverteilung (bivariate normal distribution) gut beschrieben werden kann. Solche zweidimensionalen Key classification is an important feature and should be properly mapped into a keyboard model to be really useful. An approach that would rely only on the limitations of the on-screen keyboard will bring only modest results in the inventors' experience, as keys are often not precisely hit and the actual touch positions of a key often deviate from the actual center of the virtual key. It has been found that the spatial distribution of the various key strokes of a person dedicated to a particular key can often be well described with a bivariate normal distribution. Such two-dimensional
Normalverteilungen wurden bei der Ermittlung eines Positionsmodells verwendet. Fig. 3 A zeigt die Normalverteilungsfunktionen von Tastendrücken eines bestimmten Benutzers auf der virtuellen Tastatur. Es ist erkennbar, dass die lokalen Verteilungsfunktionen nicht bei allen virtuellen Tasten symmetrisch sind und das einige Tasten statistisch betrachtet wesentlich präziser getroffen werden (steilere Verteilung) als andere Tasten (flachere Verteilung). Für die weitere Datenverarbeitung bieten zweidimensionale Normalverteilungen den Vorteil, dass sie natürlicherweise Normal distributions were used in the determination of a position model. Fig. 3A shows the normal distribution functions of keystrokes of a particular user on the virtual keyboard. It can be seen that the local distribution functions are not symmetrical on all virtual keys and that some keys are statistically much more precisely hit (steeper distribution) than other keys (shallower distribution). For further data processing, two-dimensional normal distributions offer the advantage of being natural
Wahrscheinlichkeitswerte für eine Klassifikation darstellen. Dies ist besonders vorteilhaft, wenn die Ergebnisse der Positionsklassifikation mit einer Klassifikation nach anderen Kriterien Represent probability values for a classification. This is particularly advantageous when the results of the position classification with a classification according to other criteria
(Fingerabdruck-Daten) kombiniert werden soll. (Fingerprint data) should be combined.
Auf Basis der zweidimensionalen Normalverteilungen kann jeder Taste ein aktiver Bereich zugeordnet werden, welcher demjenigen räumlich begrenzten Bereich um eine virtuelle Taste entspricht, in dem ein Tastendruck der jeweiligen Taste auf Basis des Positionsmodells zugeordnet wird. Fig. 3B zeigt in schematischer Darstellung das komplette rechteckförmige Tastaturfeld, welches in irregulär geformte aktive Bereiche (z.B. aktive Bereiche 301 bis 304) unterteilt ist. Direkt benachbarte aktive Bereiche grenzen unmittelbar, d.h. ohne Zwischenräume, aneinander an, so dass es im Rechteckbereich der virtuellen Tastatur keine Stellen ohne eindeutige Zuordnung zu einer virtuellen Taste gibt. In der Tendenz erhalten diejenigen virtuellen Tasten, die vom jeweiligen Benutzer mit hoher Wiederholgenauigkeit präzise getroffen werden, ein relativ kleinen aktiven Bereich, während solche virtuellen Tasten, die mit weniger Präzision und größerer Streuung bei den einzelnen Tastendrücken getroffen werden, einen größeren aktiven Bereich erhalten. On the basis of the two-dimensional normal distributions, each key can be assigned an active area which corresponds to the spatially limited area around a virtual key in which a keystroke is assigned to the respective key on the basis of the position model. Figure 3B is a schematic representation of the complete rectangular keypad which is divided into irregular shaped active areas (e.g., active areas 301-304). Directly adjacent active areas directly border, i. without gaps, so that there are no places in the rectangle area of the virtual keyboard without a clear assignment to a virtual key. In the tendency, those virtual keys precisely hit by the respective user with high repeatability obtain a relatively small active area, while those virtual keys hit with less precision and greater dispersion at the individual key presses receive a larger active area.
Bei der Ausführungsform wurde als bildbasierter Fingerabdruck-Klassifikator eine so genannte „Support Vector Machine" (SVM) verwendet. Eine SVM ist ein Klassifikator, welcher eine Menge von Objekten so in Klassen unterteilt, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt. Eine SVM gehören daher zur Klasse so genannter„Large Margin Classifiers". Ausgangspunkt ist eine Menge von Trainingsobjekten, für die jeweils bekannt ist, zu welcher Klasse sie gehören. Im vorliegenden Fall sind die Trainingsobjekte durch die Tastendrücke beim Einlernen gegeben, während die virtuellen Tasten die Klassen bilden, denen die Tastendrücke zugeordnet werden sollen. Jedes Objekt wird durch einen Vektor in einen Vektorraum repräsentiert. Die SVM arbeitet so, dass sie in diesem Raum eine Hyperebene einpasst, die als Trennfläche fungiert und die Trainingsobjekte in zwei Klassen einteilt, wobei der Abstand derjenigen Vektoren, die der Hyperebene am nächsten liegen, maximiert wird. Durch diesen breiten Rand um die Klassengrenzen kann erreicht werden, dass auch die Tastendrücke, die nicht genau den beim Training erfassten Objekten (Tastendrücken) entsprechen, möglichst zuverlässig klassifiziert (zugeordnet) werden. In the embodiment, a so-called "support vector machine" (SVM) has been used as the image-based fingerprint classifier An SVM is a classifier that classifies a set of objects into classes that are as wide as possible around the class boundaries An SVM therefore belongs to the class of so-called "Large Margin Classifiers". The starting point is a set of training objects, each of which knows which class they belong to. In the present case, the training objects are given by the keystrokes during teaching, while the virtual keys form the classes to which the keystrokes are to be assigned. Each object is represented by a vector in a vector space. The SVM works by fitting in this space a hyperplane that acts as a separation surface and divides the training objects into two classes, maximizing the distance of those vectors closest to the hyperplane. This wide margin around the class boundaries makes it possible to also classify (assign) the key presses that do not correspond exactly to the objects detected during training (key presses) as reliably as possible.
Zur Kombination der Klassifikatoren (Positions-Klassifikator und Fingerabdruck- Klassifikator) wurden Entscheidungswahrscheinlichkeiten für einen Tastenanschlag x für jede Klasse berechnet. Für die Positionsdaten xpos kann die Wahrscheinlichkeit einer Entscheidung für eine bestimmte Taste direkt aus den Normalverteilungsfunktionen erhalten werden als:
Figure imgf000019_0001
To combine the classifiers (position classifier and fingerprint classifier), decision probabilities for a keystroke x were calculated for each class. For the position data x pos , the probability of a decision for a particular key can be obtained directly from the normal distribution functions as:
Figure imgf000019_0001
Wobei f die normale Dichtefunktion mit Parametern μ und σ der Taste k bei der Koordinate xpos ist und K die Gesamtanzahl der Tasten repräsentiert. Where f is the normal density function with parameters μ and σ of the key k at the coordinate x pos and K represents the total number of keys.
Für die bildbasierte "Support Vector Machine" wurden Wahrscheinlichkeiten berechnet gemäß dem Artikel J.C.Platt:„Probabilistic Outputs for support vector machines and comparisons to regularized likelihood methods" in: Advanced in Large Margin Classifiers, Seiten 61 to 74, MIT press, 1999. Diese Methode ist bereits in die Matlab-Toolbox libSVM integriert. Die Klasse c mit der höchsten multiplizierten Wahrscheinlichkeit wird als resultierende Entscheidung genommen: arg max( Ppos(A: |XpOS) * Pimg (k \ximg )) For the image-based support vector machine, probabilities were calculated according to the article JCPlatt: "Probabilistic Outputs for Support Vector Machines and Comparisons to Regularized Likelihood Methods" in: Advanced in Large Margin Classifiers, pages 61 to 74, MIT press, 1999. This method is already integrated into the Matlab toolbox libSVM The class c with the highest multiplied probability is taken as the resulting decision: arg max (P pos (A: | Xp OS ) * P img (k \ x img ))
wobei Xjmg die Fingerabdruckdaten eines Tastenanschlags x repräsentieren. where Xjmg represents the fingerprint data of a keystroke x.
Anhand der Figuren 4A bis 4D wird der Effekt der Anwendung einer Kombination dieser beiden Klassifikatoren auf das Tastaturmodell bzw. die damit erzeugbaren aktiven Bereiche erläutert. Wie bereits erwähnt, wird auf Basis des Tastaturmodells jeder virtuellen Taste ein durch Bereichs grenzen definierter aktiver Bereich zugeordnet, wobei die aktiven Bereiche der jeweiligen Tasten in der Regel jeweils eine andere Form und/oder Position haben als die am The effect of applying a combination of these two classifiers to the keyboard model or the active areas that can be generated thereby will be explained with reference to FIGS. 4A to 4D. As already mentioned, based on the keyboard model, an active area defined by area boundaries is assigned to each virtual key, the active areas of the respective keys generally having a different shape and / or position than the one on the other
Berührungsbildschirm sichtbare Fläche der virtuellen Taste. Fig. 3B zeigt hierzu beispielhaft eine Verteilung von aktiven Bereichen, die ausschließlich auf Basis eines individuellen Touch screen visible area of the virtual button. By way of example, FIG. 3B shows a distribution of active regions that are based exclusively on an individual
Positionsmodells, das heißt nur mit Hilfe der Positionsdaten, für einen bestimmten Benutzer ermittelt wurden. Position model, that is, only with the help of the position data, were determined for a particular user.
Wird nun ein Tastaturmodell genutzt, welches sowohl die Positionsdaten als auch die Now a keyboard model is used, which contains both the position data and the
Fingerabdruckdaten zur Klassifizierung nutzt, ergeben sich beim Tippen dynamisch aktive Bereiche anderer Größe und/oder Form und/oder Position, da zusätzlich zur Positionsinformation mit Hilfe der Fingerabdruckdaten auch Informationen darüber verarbeitet werden, auf welche Weise (z.B. mit welchem Finger) ein Benutzer eine bestimmte Taste drückt oder drücken möchte. Fingerprint data used for classification, resulting in typing dynamic active areas of other size and / or shape and / or position, since in addition to the position information using the fingerprint data and information about how are processed (eg with which finger) a user a particular Key presses or wants to press.
Wie im Beispielsfall der Fig. 2 möchte der Benutzer das Wort„BANK" schreiben. Hierzu wird er zunächst die virtuelle Taste„B" beispielsweise mit dem Zeigefinger drücken. Sobald die 2, the user would like to write the word "BANK." To do this, he will first press the virtual key "B" with his index finger, for example. As soon as the
Fingerspitze die Oberfläche des Berührungssensors berührt, werden die Fingerabdruckdaten und die Positionsdaten ermittelt. Das Tastaturmodell erkennt dabei aus den Fingerabdruckdaten, zu welcher Taste der Fingerabdruck gehört. Dabei muss nicht explizit ermittelt werden, welcher Finger genutzt wird. Es wird nur ermittelt, wie weit sich die Sensorinformationen ähneln. Eine Taste, z.B. die Leertaste, kann auch mit zwei Fingern benutzt werden. Der Klassifikator würde dann Tastendrücke des einen als auch des anderen Fingers richtig zuordnen. Fingertip touches the surface of the touch sensor, the fingerprint data and the position data are determined. The keyboard model recognizes from the fingerprint data to which key the fingerprint belongs. It does not need to be explicitly determined which finger is used. It only determines how similar the sensor information is. A key, e.g. the spacebar, can also be used with two fingers. The classifier would then correctly assign keystrokes of one finger and the other.
Die kombinierte Information führt dazu, dass alle Fingerberührungen, die im grau hinterlegten aktiven Bereich 301 ' (gekennzeichnet mit„B") auf die für den Benutzer übliche Art erfolgen, als Eingabe des Buchstaben„B" interpretiert werden. Beim Vergleich mit Fig. 3B wird erkennbar, dass die Größe und die Form des aktiven Bereichs, der auf Basis der Kombination aus Positionsdaten und Fingerabdruckdaten ermittelt wird, eine andere Form und eine größere Flächenausdehnung hat als derjenige aktive Bereich 301 , der sich ausschließlich auf Basis eines Positionsmodells ergibt. Die zusätzliche Fingerabdruck-Information kann beispielsweise dazu fuhren, dass eine bestimmte Fingerberührung noch als Tippen der Taste„B" interpretiert wird, wenn sie zwar relativ weit neben dem Zentrum der virtuellen Taste„B" liegt, aber mit dem„richtigen" Finger erfolgt, d.h. mit dem Finger, mit dem der Benutzer üblicherweise die Taste "B" drückt. Die Information darüber, wie der Benutzer unterschiedliche Tasten bedient, wird dabei aus den Fingerabdruckdaten abgeleitet, die während der Einlernphase erfasst und ausgewertet wurden. The combined information results in all finger touches occurring in the grayed-out active area 301 '(marked "B") in the usual way for the user being interpreted as input of the letter "B". When compared with FIG. 3B, it can be seen that the size and shape of the active area, which is determined based on the combination of position data and fingerprint data, has a different shape and area than the active area 301, which is based solely on of a position model. For example, the additional fingerprint information may cause a particular finger touch to still be interpreted as tapping the "B" key when it is relatively far from the center of the virtual key "B", but with the "right" finger. that is, with the finger with which the user usually presses the "B" key User operates different keys, thereby derived from the fingerprint data, which were detected and evaluated during the learning phase.
Eine entsprechende dynamische Definition eines aktiven Bereichs ergibt sich auch bei den nachfolgenden Tastendrücken für die Buchstaben„A",„N" und„K", deren dynamisch während des Tippens erstellte aktive Bereiche 3012', 303' und 304' in den Fig. 4B bis 4D grau hervorgehoben sind. A corresponding dynamic definition of an active area also results in the subsequent key presses for the letters "A", "N" and "K", their dynamically generated during typing active areas 3012 ', 303' and 304 'in Fig. 4B until 4D are highlighted in gray.
Es ist jeweils im Vergleich mit Fig. 3B erkennbar, dass sich aktive Bereiche größerer It can be seen in each case in comparison with FIG. 3B that active areas are larger
Flächenausdehnungen und gegebenenfalls auch anderer Formen ergeben, wenn zusätzlich zu der Positionsinformation auch die Fingerabdruckeinformation im Tastaturmodell berücksichtigt und bei der Nutzung der virtuellen Tastatur wirksam wird. Surface expansions and, where appropriate, other shapes result if, in addition to the position information, the fingerprint information in the keyboard model is also taken into account and becomes effective when using the virtual keyboard.
Bei der Ausfuhrungsform ändern sich weder die Positionen noch die Formen der virtuellen Tasten während des Einlernens oder während des bestimmungsgemäßen Gebrauchs, so dass das für den Benutzer sichtbare Erscheinungsbild des Tastaturlayouts unabhängig von Lage und Form der aktiven Bereiche unverändert bleibt. Hierdurch lassen sich hohe Schreibgeschwindigkeiten bei niedrigen Fehlerraten fördern. In the embodiment, neither the positions nor the shapes of the virtual keys change during learning or during intended use, so that the user-visible appearance of the keyboard layout remains unchanged, regardless of the position and shape of the active areas. This can promote high write speeds at low error rates.
Die Zuverlässigkeit der Klassifizierung bei Verwendung der beschriebenen Ausfuhrungsform wurde unter anderem durch einen Vergleich mit einer Klassifizierung, die gemäß dem Vorschlag aus Findlater et al. durchgeführt wurde, evaluiert. The reliability of the classification using the described embodiment has been assessed inter alia by comparison with a classification made according to the proposal of Findlater et al. carried out, evaluated.
Das vorgeschlagene Verfahren wurde unter Verwendung realer Nutzerdaten entwickelt und getestet. Zunächst wurden von zwölf Benutzern Tippverhaltensdaten aufgezeichnet. Auf dem Berührungsbildschirm wurde eine klassische QWERTZ-Tastatur dargestellt. Zur The proposed method was developed and tested using real user data. First, typing behavior data was recorded by twelve users. The touchscreen displayed a classic QWERTY keyboard. to
Berührungserkennung wurde ein optischer Berührungssensor verwendet. Nach einer Touch detection, an optical touch sensor was used. After a
Eingewöhnungsphase von 5 Minuten mussten die Probanden jeweils 3x 10 Minuten lang einen vorgegebenen Text abtippen, wobei auch unpräzise Tastendrücke akzeptiert wurden, um ein möglichst natürliches Tippverhalten zu ermöglichen. Um Daten mit unterschiedlichem During the familiarization phase of 5 minutes, the subjects had to type in a given text for 3 x 10 minutes, whereby imprecise keystrokes were also accepted in order to allow as natural typing as possible. To data with different
Tippverhalten zu erfassen, wurden drei Benutzer, die mit zwei Fingern tippen, drei Benutzer mit individuellem Tippverhalten mit 3-8 Fingern und drei Benutzer, die nach dem Zehn-Finger-System tippen, gewählt. Für jeden Tastenanschlag wurde sowohl die Position als auch das lokale Sensorbild To capture typing behavior, three users typing with two fingers, three users typing individually with 3-8 fingers, and three users typing on the ten-finger system were selected. For each keystroke, both the position and the local sensor image became
(Fingerabdruckdaten) aufgezeichnet. Auf Basis dieser Daten wurden unterschiedliche individuelle Tastaturmodelle entwickelt und evaluiert. Dabei wurde jeweils die erste Hälfte der aufgezeichneten Daten als Trainingdaten zur Modellerstellung verwendet und die andere Hälfte zur Auswertung genutzt. Folgende Tastaturmodelle wurden erstellt und ausgewertet (vgl. Fig. 5): (Fingerprint data) recorded. On the basis of these data different individual keyboard models were developed and evaluated. In each case, the first half of the recorded data was used as training data for modeling and the other half used for evaluation. The following keyboard models were created and evaluated (see Fig. 5):
Modell Ml Ein Modell auf Basis der angezeigten Tastatur Model Ml A model based on the displayed keyboard
Modell M2 Ein Modell auf Basis von individuellen Tipp-Positionen Model M2 A model based on individual tip positions
Modell M3 Ein Modell auf Basis der gesamten Fingerabdruckdaten in Form von Rohdaten Modell M4 Ein kombiniertes Modell aus individuellen Tipp-Positionen und Fingerabdruckdaten Modell M5 Um das hier vorgestellte Verfahren mit Findlater et al. zu vergleichen, wurde ein zusätzliches Modell mit den dort verwendeten extrahierten geometrischen Model M3 A model based on the entire fingerprint data in the form of raw data Model M4 A combined model of individual tip positions and fingerprint data Model M5 To the presented method with Findlater et al. was an additional model with the extracted geometric used there
Eigenschaften der Fingerabdruckdaten sowie den individuellen Tipp-Positionen ausgewertet.  Properties of the fingerprint data and the individual typing positions evaluated.
Die Auswertung ergab signifikante Unterschiede in der Fehlerrate (error rate, ER). Die Fehlerraten ER sind in Fig. 5. als Funktion der Modelle Ml bis M5 graphisch dargestellt sind. The evaluation revealed significant differences in the error rate (ER). The error rates ER are shown graphically in FIG. 5 as a function of the models M1 to M5.
Individuelle positionsbasierte Modelle (Modelle M2, M4 und M5) führen zu einer signifikant geringeren Fehlerrate im Vergleich zu einem statischen Modell nach der tatsächlich dargestellten Tastatur (Modell Ml). Individual position-based models (models M2, M4 and M5) result in a significantly lower error rate compared to a static model according to the keyboard actually represented (model M1).
Sogar die reinen Fingerabdruckdaten (ohne Positionsdaten) gemäß Modell M2 liefern brauchbare Ergebnisse. Even the pure fingerprint data (without positional data) according to model M2 provide useful results.
Die Kombination aus individuellem Positions- und Fingerabdruckdaten-Modell gemäß der hier beschriebenen Ausführungsform der Erfindung (Modell M4) verringert die Fehlerrate im Gegensatz zu den anderen Modellen. The combination of individual position and fingerprint data model according to the embodiment of the invention described here (model M4) reduces the error rate unlike the other models.
Das Modell M5, welches auf Basis von individuellen Tipp-Positionen und den in Findlater et al. verwendeten extrahierten geometrischen Eigenschaften (diese repräsentieren Größe und The model M5, which is based on individual tip positions and the in Findlater et al. used extracted geometric properties (these represent size and
Ausrichtung der Kontaktzone sowie die Bewegung der Berührung während des Tastendrucks) erstellt wurde, führt zu keiner signifikanten Verbesserung der Fehlerrate im Vergleich zu dem auf individuellen Tipp-Positionen basierenden Modell. Es wird derzeit angenommen, dass diese vorab festgelegte Auswahl bestimmter geometrischer Kriterien dazu führt, dass gewisse, für die Tastenklassifizierung relevante Information bei der Verarbeitung der vom Berührungssensor gelieferten Rohdaten verloren geht. Die verlorene Information kann dann bei der Klassifizierung nicht berücksichtigt werden. Werden dagegen Fingerabdruckdaten in Form von Rohdaten unmittelbar zur Tastenklassifizierung verwendet, kann ein entscheidend größerer Teil der in den Rohdaten enthaltenen Information, ggf. die gesamte relevante Information genutzt werden. Alignment of the contact zone as well as the movement of the touch during the press of a button) does not lead to a significant improvement in the error rate compared to the model based on individual jogging positions. It is currently believed that these are in advance Specified selection of certain geometric criteria results in certain information relevant to key classification being lost during processing of the raw data provided by the touch sensor. The lost information can then not be taken into account in the classification. If, on the other hand, fingerprint data in the form of raw data are used directly for key classification, a significantly larger part of the information contained in the raw data, if appropriate all the relevant information, can be used.
Das hier beispielhaft dargestellte Verfahren zur Generierung einer virtuellen Tastatur an einem Berührungsbildschirm kann an Berührungssensoren unterschiedlicher Form und Größe genutzt werden. Da der Nutzen des Verfahrens bei bevorzugten Aüsfuhrungsformen unter anderem davon abhängt, wie unterschiedlich die einzelnen unterschiedlichen virtuellen Tasten gedrückt werden, ist das Verfahren besonders vorteilhaft für größere Berührungssensoren, die mit mehreren Fingern bedient werden können. Beispielsweise können Tablet-Computer, wie beispielsweise das iPad von Apple oder Tablet-Computer auf Basis des Android-Betriebssystems durch Nutzung des Verfahrens im Hinblick auf die Fehlerhäufigkeit beim Tippen optimiert werden. The method exemplified here for generating a virtual keyboard on a touch screen can be used on touch sensors of different shape and size. Among other things, since the usefulness of the method in preferred embodiments depends on how differently the different virtual keys are pressed, the method is particularly advantageous for larger touch sensors that can be operated with multiple fingers. For example, tablet computers, such as the Apple iPad or tablet computer based on the Android operating system can be optimized by using the method with regard to the error rate when typing.
Ist das Verfahren in einem Gerät implementiert, kann ein Benutzer zügig und fehlerfrei Notizen verfassen. Gerade Tablet-Computer werden üblicherweise auch nur von einer Person über längere Zeit genutzt, so dass die virtuelle Tastatur über einen längeren Zeitraum trainiert werden kann, wodurch sich die Leistungsfähigkeit weiter verbessern lässt. If the procedure is implemented in a device, a user can write notes quickly and without errors. Especially tablet computers are usually only used by one person for a long time, so that the virtual keyboard can be trained over a longer period of time, whereby the performance can be further improved.
Eine virtuelle Tastatur der hier dargestellten Art kann auch als Ersatz für mechanische Tastaturen Einsatz finden. Besonders im medizinischen Umfeld oder in Reinräumen ist der Einsatz von mechanischen Tastaturen problematisch, da diese schwierig zu reinigen sind. Ein A virtual keyboard of the type shown here can also be used as a replacement for mechanical keyboards. Particularly in the medical environment or in clean rooms, the use of mechanical keyboards is problematic because they are difficult to clean. One
Berührungssensor, gegebenenfalls auch ohne Bildschirm, kann bei der Verwendung des Verfahrens vorteilhaft sein. Durch individuelle Anpassung des Ansprechverhaltens von virtuellen Tasten kann die Texteingabe auch für dieses Szenario verbessert werden. Touch sensor, possibly even without screen, may be advantageous in the use of the method. By customizing the response of virtual buttons, text input can also be improved for this scenario.
Die Ermittlung von benutzer-spezifischen Berührungssensor-Daten durch Erfassen des The determination of user-specific touch sensor data by detecting the
Tippverhaltens eines Benutzers aus einer Vielzahl von Tippaktionen des Benutzers an der virtuellen Tastatur, also der Einlernvorgang bzw. Trainingvorgang zur Stellung des Tastaturmodells, muss nicht auf die Zeit vor der eigentlichen Nutzung beschränkt sein. Das Tastaturmodell kann auch während der Nutzung noch weiter optimiert werden. Die Fingerabdruckdaten und die daraus abgeleiteten Positionsdaten können auch während des normalen Gebrauchs aufgezeichnet und zur Erstellung oder Optimierung des Tastaturmodells genutzt werden. Dies kann beispielsweise in der Weise erfolgen, dass Fingerabdruckdaten und Positionsdaten während des Schreibens eines Textes erfasst und gespeichert werden und nach Erstellung des Textes, das heißt dann, wenn der Benutzer den Text als fehlerfrei abspeichert, die erfassten Tastendrücke den richtigen Buchstaben bzw. virtuellen Tasten zugeordnet werden. Typing behavior of a user from a multiplicity of typing actions of the user on the virtual keyboard, ie the learning process or training procedure for positioning the keyboard model, does not have to be limited to the time before the actual use. The keyboard model can also be further optimized during use. The fingerprint data and the position data derived therefrom may also be recorded during normal use and stored for Creation or optimization of the keyboard model can be used. This may be done, for example, by capturing and storing fingerprint data and positional data while writing a text, and after the text has been generated, that is, when the user saves the text as error free, the detected keystrokes will be the correct letter or virtual key be assigned.
Es kann ausreichen, ausschließlich die Positionsdaten und Fingerabdruckdaten zur Erstellung des Tastaturmodells und bei der späteren Nutzung zur Klassifizierung zu verwenden. Zusätzlich zu Positionsdaten und Fingerabdruckdaten können jedoch auch noch weitere Sensorinformationen zu jedem Tastendruck ermittelt und bei der Klassifizierung verwendet werden, z.B. Daten eines Beschleunigungssensors, der z.B. die Anschlagstärke eines Tastendruckes erfassen kann. It may be sufficient to use only the position data and fingerprint data for creating the keyboard model and for later use for classification. However, in addition to position data and fingerprint data, further sensor information about each keystroke may also be determined and used in the classification, e.g. Data of an acceleration sensor, e.g. can detect the velocity of a keystroke.
Die Untersuchungen auf Basis der von den Probanden generierten Datensätze haben gezeigt, dass besonders die Fingerabdruckdaten für einzelne Tasten für unterschiedliche Benutzer stark abweichen. Daher können diese Daten auch verwendet werden, um Benutzer auf Basis der The investigations based on the data sets generated by the test subjects have shown that especially the fingerprint data for individual keys differ greatly for different users. Therefore, these data can also be used to help users based on the
Tastatureingabe an einem Berührungssensor zu unterscheiden. Dazu wird ein Klassifikator erzeugt, welcher auf Basis der Fingerabdruckdaten Tastatureingaben einem Benutzer zuweisen kann. Dieses Verfahren kann insbesondere dazu verwendet werden, um Passworteingaben sicherer zu gestalten. Das Computersystem erwartet dann nicht nur die korrekte Buchstabenfolge, sondern außerdem dem erwarteten Benutzer entsprechende Fingerabdruckdaten des Berührungssensors. Keyboard input on a touch sensor to distinguish. For this purpose, a classifier is generated which can assign keystrokes to a user based on the fingerprint data. This method can be used, in particular, to make password entries more secure. The computer system then not only expects the correct letter sequence, but also the fingerprint data of the touch sensor corresponding to the expected user.

Claims

Patentansprüche claims
1. Verfahren zum Betreiben einer Vorrichtung, die eine Benutzerschnittstelle mit einem Berührungssensor aufweist, umfassend: A method of operating a device having a user interface with a touch sensor, comprising:
Generierung einer virtuellen Tastatur mit virtuellen Tasten an dem Berührungssensor;  Generating a virtual keyboard with virtual buttons on the touch sensor;
Ermittlung von Berührungssensor-Daten durch Erfassen des Tippverhaltens eines Benutzers aus einer Vielzahl von Tippaktionen des Benutzers an der virtuellen Tastatur;  Determining touch sensor data by detecting the typing behavior of a user from a plurality of typing actions of the user on the virtual keyboard;
Generierung eines benutzer-spezifischen Tastaturmodells unter Verwendung der  Generation of a user-specific keyboard model using the
Berührungssensor-Daten; Touch sensor data;
Verwendung des Tastaturmodells zur Klassifizierung von Tastendrücken beim Einsatz einer virtuellen Tastatur,  Using the keyboard model to classify keystrokes when using a virtual keyboard,
dadurch gekennzeichnet, dass characterized in that
bei der Ermittlung von Berührungssensor-Daten für jeden Tastendruck eines Fingers Positionsdaten und Fingerabdruckdaten ermittelt werden, wobei  In the determination of touch sensor data for each key press of a finger position data and fingerprint data are determined, wherein
die Positionsdaten die Position einer Berührung der Oberfläche des Berührungssensors bei einem Tastendruck repräsentieren und  the position data represents the position of a touch of the surface of the touch sensor at a keystroke and
die Fingerabdruckdaten ein Abbild der lokalen Sensorantwort auf Berührung der Oberfläche des Berührungssensors bei einem Tastendruck in Form von Rohdaten des Berührungssensors oder modifizierten Rohdaten repräsentieren, die aus den Rohdaten derart abgeleitet werden, dass die in den Rohdaten enthaltene klassifizierungsrelevante Information im Wesentlichen erhalten bleibt, und das Tastaturmodell unter Verwendung der Positionsdaten und der Fingerabdruckdaten generiert wird.  the fingerprint data represent an image of the local sensor response to touch of the surface of the touch sensor at a keystroke in the form of raw data of the touch sensor or modified raw data derived from the raw data such that the classification relevant information contained in the raw data is substantially preserved; Keyboard model is generated using the position data and the fingerprint data.
2. Verfahren nach Anspruch 1 , wobei bei der Ermittlung von modifizierten Rohdaten aus den Rohdaten mindestens ein Verfahren der folgenden Gruppe verwendet wird: 2. The method of claim 1, wherein in the determination of modified raw data from the raw data at least one method of the following group is used:
ein auf die Rohdaten angewendetes Kompressionsverfahren, insbesondere eine JPEG- Kompression;  a compression method applied to the raw data, in particular JPEG compression;
eine Filterung der Rohdaten, insbesondere eine Tiefpass-Filterung;  a filtering of the raw data, in particular a low-pass filtering;
ein Verfahren zur Dimensionsreduktion der Rohdaten, insbesondere eine  a method for dimensionality reduction of the raw data, in particular a
Hauptkomponentenanalyse oder eine Diskriminanzanalyse; Principal component analysis or a discriminant analysis;
eine Kalibrierung der Rohdaten;  a calibration of the raw data;
eine Normierung der Rohdaten. a normalization of the raw data.
3. Verfahren nach Anspruch 1 oder 2, worin im bestimmungsgemäßen Gebrauch für jeden Tastendruck eines Fingers sowohl Fingerabdruckdaten als auch Positionsdaten ermittelt und mit Hilfe des Tastaturmodells klassifiziert werden. 3. The method of claim 1 or 2, wherein in the intended use for each key press of a finger both fingerprint data and position data are determined and classified using the keyboard model.
4. Verfahren nach einem der vorhergehenden Ansprüche, worin eine Anpassung der virtuellen Tastatur an den individuellen Benutzer auf Basis des Tastaturmodells für den Benutzer in der Weise unmerklich erfolgt, dass das Erscheinungsbild der virtuellen Tastatur unverändert bleibt. A method according to any one of the preceding claims, wherein adaptation of the virtual keyboard to the individual user based on the keyboard model is imperceptible to the user such that the appearance of the virtual keyboard remains unchanged.
5. Verfahren nach einem der vorhergehenden Ansprüche, worin bei der Klassifizierung von Positionsdaten eine benutzerspezifische Verteilung von Tastendrücken aus einer Vielzahl von vorherigen Tastendrücken auf Basis einer Wahrscheinlichkeitsfunktion, insbesondere auf Basis einer zweidimensionalen Normalverteilung, modelliert wird. 5. The method according to any one of the preceding claims, wherein in the classification of position data, a user-specific distribution of keystrokes from a plurality of previous keystrokes on the basis of a probability function, in particular based on a two-dimensional normal distribution modeled.
6. Verfahren nach einem der vorhergehenden Ansprüche, worin zur Klassifizierung der Fingerabdruckdaten eine Support Vector Machine (SVM) genutzt wird. 6. The method according to any one of the preceding claims, wherein a Support Vector Machine (SVM) is used to classify the fingerprint data.
7. Verfahren nach einem der vorhergehenden Ansprüche, worin zum Anpassen des 7. The method according to any one of the preceding claims, wherein for adjusting the
Ansprechverhaltens der virtuellen Tasten jeder virtuellen Taste auf Basis des Tastaturmodells ein aktiver Bereich zugeordnet wird, der für eine oder mehrere Tasten eine andere Position und/oder Form hat als die am Berührungssensor sichtbare Fläche der zugeordneten virtuellen Taste, wobei eine Berührung an einer Berührungsposition innerhalb eines aktiven Bereichs als Berührung der zugeordneten virtuellen Taste interpretiert und verarbeitet wird. Responsiveness of the virtual keys is assigned to each virtual key based on the keyboard model, an active area that has a different position and / or shape for one or more keys than the touch sensor visible surface of the associated virtual key, wherein a touch at a touch position within a active area is interpreted and processed as touching the associated virtual key.
8. Verfahren nach einem der vorhergehenden Ansprüche, worin ein Benutzer-Klassifikator generiert wird, der eine Benutzer-Klassifikation derart durchführt, dass ein Tastendruck auf Basis der Fingerabdruckdaten einem bestimmten Benutzer zugewiesen wird, wobei vorzugsweise weitere Aktionen der Vorrichtung in Abhängigkeit vom Ergebnis der Benutzer-Klassifikation gesteuert werden. A method according to any one of the preceding claims, wherein a user classifier is generated that performs a user classification such that a keystroke based on the fingerprint data is assigned to a particular user, preferably further actions of the device depending on the result of the user -Classification be controlled.
9. Vorrichtung nach Anspruch 8, worin eine Eingabeaufforderung zur Eingabe eines Passworts generiert wird und darauf folgende Tastendrücke unter Verwendung des Benutzer-Klassifikators darauf analysiert werden, ob das erwartete Passwort von einem autorisierten Benutzer eingegeben wird, wobei vorzugsweise eine Freigabe bestimmter oder aller weiteren Aktionen der Vorrichtung nur dann erfolgt, wenn das richtige Passwort von einem autorisierten Benutzer eingegeben wird. The apparatus of claim 8, wherein a password prompt is generated and subsequent keystrokes are analyzed using the user classifier for whether the expected password is being entered by an authorized user, preferably releasing some or all of the further actions the device only takes place when the correct password is entered by an authorized user.
10. Verfahren nach einem der vorhergehenden Ansprüche, worin ein optischer 10. The method according to any one of the preceding claims, wherein an optical
Berührungs sensor oder ein kapazitiver Berührungssensor verwendet wird. Touch sensor or a capacitive touch sensor is used.
11. Vorrichtung mit: 11. Device with:
einer Benutzerschnittstelle, die einen Berührungssensor (100) aufweist, der innerhalb einer typischen Größe einer Kontaktzone (132) eines Fingers mit der Oberfläche (106) eine Vielzahl von Messpunkten für eine durch Fingerdruck und/oder Fingerkontakt und/oder Annäherung des Fingers an die Oberfläche veränderbare physikalische Größe aufweist, so dass Berührungssensor-Daten unter Verwendung der ortsaufgelöst erfassten Messwerte der Messgröße generierbar sind; und einer mit dem Berührungssensor verbundenen Steuerung (160) zum Empfangen und Verarbeiten von Berührungssensor-Daten, die durch Berührung von Berührungsbereichen an der Oberfläche des Berührungssensors erzeugt werden;  a user interface comprising a touch sensor (100) having, within a typical size of a contact zone (132) of a finger with the surface (106), a plurality of measurement points for one of finger pressure and / or finger contact and / or approach of the finger to the surface has variable physical size, so that touch sensor data can be generated using the spatially resolved measured values of the measured variable; and a controller (160) coupled to the touch sensor for receiving and processing touch sensor data generated by touching touch areas on the surface of the touch sensor;
wobei die Vorrichtung so konfiguriert ist, dass in mindestens einem Betriebsmodus an dem Berührungs sensor eine virtuelle Tastatur (150) mit einer Vielzahl virtueller Tasten (140) erzeugbar ist;  wherein the device is configured so that in at least one operating mode on the touch sensor, a virtual keyboard (150) with a plurality of virtual buttons (140) can be generated;
dadurch gekennzeichnet, dass die Vorrichtung in dem Betriebsmodus derart konfiguriert ist, dass bei der Ermittlung von Berührungssensor-Daten für jeden Tastendruck eines Fingers  characterized in that the device is configured in the operating mode such that in determining touch sensor data for each press of a finger
Positionsdaten und Fingerabdruckdaten ermittelt werden, wobei Position data and fingerprint data are determined, wherein
die Positionsdaten die Position einer Berührung der Oberfläche des Berührungssensors bei einem Tastendruck repräsentieren und  the position data represents the position of a touch of the surface of the touch sensor at a keystroke and
die Fingerabdruckdaten ein Abbild der lokalen Sensorantwort auf Berührung der Oberfläche des Berührungs sensors bei einem Tastendruck in Form von Rohdaten des Berührungssensors oder modifizierten Rohdaten repräsentieren, die aus den Rohdaten derart abgeleitet werden, dass die in den Rohdaten enthaltene klassifizierungsrelevante Information im Wesentlichen erhalten bleibt, und dass die Positionsdaten und Fingerabdruckdaten mit einem benutzer-spezifischen  the fingerprint data representing an image of the local sensor response to touch of the surface of the touch sensor at a keystroke in the form of raw data of the touch sensor or modified raw data derived from the raw data such that the classification relevant information contained in the raw data is substantially preserved, and that the position data and fingerprint data with a user-specific
Tastaturmodell klassifiziert werden, wobei jeder der virtuellen Tasten unter Verwendung des benutzer-spezifischen Tastaturmodells ein aktiver Bereich des Berührungs sensors zugeordnet wird, der für eine oder mehrere der virtuellen Tasten eine andere Position und/oder Form hat als die am Berührungs sensor sichtbare Fläche der virtuellen Taste, Keyboard model are classified, each of the virtual keys using the user-specific keyboard model is assigned to an active area of the touch sensor that has a different position and / or shape for one or more of the virtual buttons than the touch sensor visible surface of the virtual Button,
wobei eine Berührung an einer Berührungsposition innerhalb eines aktiven Bereichs als Berührung der zugeordneten virtuellen Taste interpretiert und verarbeitet wird. wherein a touch at a touch position within an active area is interpreted and processed as touching the associated virtual key.
12. Vorrichtung nach Anspruch 11, worin eine räumliche Dichte von Messpunkten in einer oder mehreren quer zueinander parallel zur Oberfläche des Berührungssensors verlaufenden Richtungen mindestens 0.5/mm beträgt, insbesondere 1/mm oder mehr. 12. The apparatus of claim 11, wherein a spatial density of measurement points in one or more transverse to each other parallel to the surface of the touch sensor extending directions is at least 0.5 / mm, in particular 1 / mm or more.
13. Vorrichtung nach Anspruch 1 1 oder 12, worin der Berührungssensor (100) ein optischer Berührungssensor oder ein kapazitiver Berührungssensor ist, 13. The apparatus of claim 1 1 or 12, wherein the touch sensor (100) is an optical touch sensor or a capacitive touch sensor,
14. Vorrichtung nach Anspruch 1 1 , 12 oder 13, worin die Vorrichtung ein Tablet-Computer ist. 14. The apparatus of claim 1 1, 12 or 13, wherein the device is a tablet computer.
15. Vorrichtung nach einem der Ansprüche 11 bis 14, worin die Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9 konfiguriert ist. 15. Device according to one of claims 11 to 14, wherein the device is configured for carrying out the method according to one of claims 1 to 9.
16. Computerprogrammprodukt, welches insbesondere auf einem computerlesbaren Medium gespeichert oder als Signal verwirklicht ist, wobei das Computerprogrammprodukt, wenn es in den Speicher eines geeigneten Computers geladen und von einem Computer ausgeführt ist bewirkt, dass die durch den Computer gesteuerte Vorrichtung ein Verfahren gemäß einem der Ansprüche 1 bis 10 durchf hrt. A computer program product stored or signaled in particular on a computer readable medium, wherein the computer program product, when loaded into the memory of a suitable computer and executed by a computer, causes the computer controlled device to perform a method according to any one of Claims 1 to 10 carried out.
PCT/DE2013/000605 2012-10-19 2013-10-16 Method for operating a device having a user interface with a touch sensor, and corresponding device WO2014094699A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012219129.1A DE102012219129B4 (en) 2012-10-19 2012-10-19 Method for operating a device having a user interface with a touch sensor, and corresponding device
DE102012219129.1 2012-12-19

Publications (1)

Publication Number Publication Date
WO2014094699A1 true WO2014094699A1 (en) 2014-06-26

Family

ID=49724928

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2013/000605 WO2014094699A1 (en) 2012-10-19 2013-10-16 Method for operating a device having a user interface with a touch sensor, and corresponding device

Country Status (2)

Country Link
DE (1) DE102012219129B4 (en)
WO (1) WO2014094699A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537365A (en) * 2015-01-07 2015-04-22 小米科技有限责任公司 Touch key and fingerprint identification implementation method and device and terminal equipment
CN104035722B (en) * 2014-07-03 2017-03-29 南昌欧菲生物识别技术有限公司 Mobile terminal and its method for preventing virtual key maloperation
US10241621B2 (en) 2014-09-30 2019-03-26 Hewlett-Packard Development Company, L.P. Determining unintended touch rejection
US11157621B1 (en) * 2018-12-06 2021-10-26 NortonLifeLock Inc. Systems and methods to detect and prevent auto-click attacks

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114363049A (en) * 2021-12-30 2022-04-15 武汉杰创达科技有限公司 Internet of things equipment multi-ID identification method based on personalized interaction difference

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070247442A1 (en) * 2004-07-30 2007-10-25 Andre Bartley K Activating virtual keys of a touch-screen virtual keyboard
US20090023736A1 (en) 2007-04-30 2009-01-22 Synta Pharmaceuticals Corp. Compounds for treating proliferative disorders
US20100259561A1 (en) 2009-04-10 2010-10-14 Qualcomm Incorporated Virtual keypad generator with learning capabilities
KR20110031808A (en) * 2009-09-21 2011-03-29 삼성전자주식회사 Apparatus and method for processing touch in mobile terminal having touch screen
US20110179374A1 (en) * 2010-01-20 2011-07-21 Sony Corporation Information processing apparatus and program
US20110254772A1 (en) 2009-12-18 2011-10-20 Adamson Peter S Techniques for recognizing movement of one or more touches across a location on a keyboard grid on a touch panel interface
WO2012048380A1 (en) 2010-10-14 2012-04-19 University Of Technology, Sydney Virtual keyboard

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8217910B2 (en) 2008-12-19 2012-07-10 Verizon Patent And Licensing Inc. Morphing touch screen layout

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070247442A1 (en) * 2004-07-30 2007-10-25 Andre Bartley K Activating virtual keys of a touch-screen virtual keyboard
US20090023736A1 (en) 2007-04-30 2009-01-22 Synta Pharmaceuticals Corp. Compounds for treating proliferative disorders
US20100259561A1 (en) 2009-04-10 2010-10-14 Qualcomm Incorporated Virtual keypad generator with learning capabilities
KR20110031808A (en) * 2009-09-21 2011-03-29 삼성전자주식회사 Apparatus and method for processing touch in mobile terminal having touch screen
US20110254772A1 (en) 2009-12-18 2011-10-20 Adamson Peter S Techniques for recognizing movement of one or more touches across a location on a keyboard grid on a touch panel interface
US20110179374A1 (en) * 2010-01-20 2011-07-21 Sony Corporation Information processing apparatus and program
WO2012048380A1 (en) 2010-10-14 2012-04-19 University Of Technology, Sydney Virtual keyboard

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FINDLATER, L.; WOBBROCK, J. O.: "Proc. CHI", vol. 12, 2012, ACM PRESS, article "Personalized Input: Improving Ten-Finger Touchscreen Typing through Automatic Adaptation", pages: 815 - 824
J.C.PLATT: "Advanced in Large Margin Classifiers", 1999, MIT PRESS, article "Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods", pages: 61 - 74
LEAH FINDLATER ET AL: "Personalized Input: Improving Ten-Finger Touchscreen Typing through Automatic Adaptation ACM Classification Keywords", 10 May 2012 (2012-05-10), XP055103478, Retrieved from the Internet <URL:http://terpconnect.umd.edu/~leahkf/pubs/CHI2012-findlater-PersonalizedTyping.pdf> [retrieved on 20140220] *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035722B (en) * 2014-07-03 2017-03-29 南昌欧菲生物识别技术有限公司 Mobile terminal and its method for preventing virtual key maloperation
US10241621B2 (en) 2014-09-30 2019-03-26 Hewlett-Packard Development Company, L.P. Determining unintended touch rejection
US10599267B2 (en) 2014-09-30 2020-03-24 Hewlett-Packard Development Company, L.P. Determining unintended touch rejection
CN104537365A (en) * 2015-01-07 2015-04-22 小米科技有限责任公司 Touch key and fingerprint identification implementation method and device and terminal equipment
US11157621B1 (en) * 2018-12-06 2021-10-26 NortonLifeLock Inc. Systems and methods to detect and prevent auto-click attacks

Also Published As

Publication number Publication date
DE102012219129A1 (en) 2014-04-24
DE102012219129B4 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
DE102012109058B4 (en) Control method and electronic device
DE102014117345B4 (en) Contact signature control of a device
DE602004013116T2 (en) Haptic key-controlled data entry
DE102013111978B4 (en) Identify and use gestures near a sensor
DE112017007804B4 (en) Mobile terminal and radio frequency fingerprint identification device and method therefor
DE102012219129B4 (en) Method for operating a device having a user interface with a touch sensor, and corresponding device
DE112014000441T5 (en) Dynamic User Interactions for Display Control and Custom Gesture Interpretation
DE102018100809A1 (en) METHOD, DEVICE AND DEVICE FOR DISPLAYING A VIRTUAL KEYBOARD
DE202005021427U1 (en) Electronic device with touch-sensitive input device
DE112013004437B4 (en) Method of defining an enter key on a keyboard and method of interpreting keystrokes
EP1468353A2 (en) Flexible computer input
DE102006039767A1 (en) input device
DE102010036906A1 (en) Configurable pie menu
EP2137599A1 (en) Pressure measurement device and corresponding method
DE112010002760T5 (en) User interface
DE202008000261U1 (en) Multiple Berührungsdatenfussionssystem
DE102015116477A1 (en) Data processing method and electronic device
WO2004034241A2 (en) Rapid input device
DE102015016443A1 (en) Touch input device and vehicle with this
DE102016105816A1 (en) Apparatus and method for verifying the identity of a user
DE102018122896A1 (en) Method and device for checking a mobile input device
EP2977855B1 (en) Virtual keyboard and input method for a virtual keyboard
EP3990301B1 (en) Operating unit comprising a touch-sensitive operating area
DE102014224599A1 (en) Method for operating an input device, input device
EP2883130A1 (en) Method for providing a keypad on a touchscreen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801981

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 13801981

Country of ref document: EP

Kind code of ref document: A1