WO2008020538A1 - Dispositif électronique portable et son procédé de commande - Google Patents

Dispositif électronique portable et son procédé de commande Download PDF

Info

Publication number
WO2008020538A1
WO2008020538A1 PCT/JP2007/064707 JP2007064707W WO2008020538A1 WO 2008020538 A1 WO2008020538 A1 WO 2008020538A1 JP 2007064707 W JP2007064707 W JP 2007064707W WO 2008020538 A1 WO2008020538 A1 WO 2008020538A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor element
element group
sensor
electronic device
portable electronic
Prior art date
Application number
PCT/JP2007/064707
Other languages
English (en)
French (fr)
Inventor
Saya Shigeta
Taro Iio
Original Assignee
Kyocera Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006223381A external-priority patent/JP4657171B2/ja
Priority claimed from JP2006229511A external-priority patent/JP5355850B2/ja
Application filed by Kyocera Corporation filed Critical Kyocera Corporation
Priority to US12/377,988 priority Critical patent/US8704771B2/en
Publication of WO2008020538A1 publication Critical patent/WO2008020538A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit

Definitions

  • the present invention relates to a portable electronic device, and more particularly to a portable electronic device provided with a plurality of sensor elements that detect contact as an operation input unit and a control method thereof.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-280792
  • Patent Document 2 JP-A-2005-522797
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-311196
  • FIG. 27 and FIG. 28 show conventional sensor elements and control examples thereof.
  • the sensor element for detecting contact which is arranged in an annular shape, was traced clockwise with a finger as indicated by the arrow AR in Fig. 27 (a).
  • the operation target area indicating which one of the items LSI to L S8 in the display section (b) of FIG. If you scroll down (such as the cursor or highlight area shown above) and trace it counterclockwise as shown by arrow AR in Figure 28 (b), you can scroll up as shown in Figure (b).
  • the “movement rule” is defined in advance. However, with these “movement rules”
  • the physical movement (circular movement) of the user's finger that instructs movement does not match the scroll movement (vertical direction, horizontal direction) of the display item, so the user can actually use his / her power with his / her power. 3 ⁇ 4 It is difficult to grasp the scroll direction unless the screen is checked for confirmation. In this way, the physical movement (circular movement) of the user's finger that instructs movement does not match the scrolling movement (vertical direction, horizontal direction) of the display items.
  • the element type is still a problem. Therefore, regardless of whether the sensor is of a rotary dial type or a sensor element type, the sensor of the prior art is insufficient as a user interface for moving a selection item by a user's intuitive operation.
  • An object of the present invention is to provide a portable electronic device that solves the above-described problems and provides comfortable operability and usability and a control method thereof. Another object of the present invention is to avoid an erroneous operation due to an operation that the user performs unintentionally (that is, an erroneous instruction operation) while appropriately responding to the instruction operation of the user, and annoying the user. It is to provide a portable electronic device and its display control method that provide comfortable and intuitive operability and usability without making the user feel.
  • a display (provided on the outer surface of the device casing);
  • a plurality of sensor elements that detect contact (for example, the detection unit is connected to the device housing) that are adjacent to the display unit and are continuously arranged along the periphery of the display unit (that is, surrounding the display unit).
  • a first sensor element group having a contact sensor for detecting contact / proximity of an object such as a finger provided on the outer surface of the body;
  • Switch elements for example, tact elements
  • a plurality of selection candidate items (for example, some scrollable items IJ) that can be displayed as an operation target area on the display unit are displayed, and the detection state change of the first sensor element group and the change The switch element state is monitored, and based on the detection state change of the first sensor element group, the selection candidate item and / or the operation target region is changed to change the selection state of the selection candidate item, and the switch A control unit that controls execution of a selection candidate item in a selected state when an element is pressed;
  • the selection of the operation target area is determined without changing the selection candidate item and / or the operation target area. Then, information corresponding to the selected item is displayed. Preferably, even if there is a change in the detection state of the first sensor element group, the selection candidate item and / or the operation target area is changed until the change in detection state continuously occurs.
  • the display as the operation target area means that an item or area is focused. For example, it is visually determined that the area / item is focused (that is, the current operation target item 'selection target item). Place the cursor on the item and / or highlight the item itself in reverse video. Execution of the selection candidate item is, for example, an application operation associated with the item, and if the item is a song title or video title, the software content corresponding to the song or the video title is played. It is to be.
  • the direction component when a plurality of sensor elements constituting the sensor element group are arranged includes at least a first direction (typically, a vertical direction)
  • the control unit displays the plurality of selection candidate items side by side in a direction parallel to the first direction (typically horizontal line display), and responds to a change in detection state of the first sensor element group.
  • the display unit is controlled to change and display the selection candidate item along the first direction (for example, scroll down when the direction component is downward). To do.
  • a portable electronic device includes:
  • the switch element is provided in the vicinity of the center of a line (that is, a virtual line) connecting the centers of the plurality of sensor elements;
  • a portable electronic device includes:
  • the control unit is
  • a portable electronic device according to still another embodiment of the present invention provides:
  • the control unit detects the pressing of the switch element and only one sensor element of the plurality of sensor elements detects contact, the contact detection of the one sensor element is invalidated. It is characterized by.
  • a portable electronic device includes:
  • a plurality of sensors arranged symmetrically with respect to the first sensor element group across the display unit (for example, point-symmetrical with respect to the center of the display unit or line-symmetrical with respect to a line passing through the center) It further has the 2nd sensor element group which has an element, It is characterized by the above-mentioned.
  • the second sensor element group preferably has the same number of elements as the first sensor element group.
  • the solution of the present invention has been described as a device (apparatus), but the present invention can also be realized as a method, a program, and a storage medium recording the program substantially corresponding to these. It should be understood that these are included in the scope of the present invention.
  • a first sensor element group including a display unit, a plurality of sensor elements adjacent to the display unit and continuously arranged along the periphery of the display unit to detect contact; and the first sensor element group A method of controlling a portable electronic device comprising a switch element provided in an area where sensor element groups are arranged,
  • a plurality of selection candidate items that can be displayed as an operation target area on the display unit The detection state change of the first sensor element group and the state of the switch element are monitored. Detection state of the first sensor element group Changing the selection candidate item and / or the operation target region based on a change to change the selection state of the selection candidate item; and executing the selection candidate item in the selection state when the switch element is pressed ( For example, if the action is associated with the item and the item is a song title or video title, Playing the video title)
  • the present invention has been described in a mode in which a switch element is provided in a portable electronic device.
  • the portable electronic device according to the present invention can be implemented without providing a switch element. That is, the portable electronic device according to the embodiment of the present invention is
  • a first sensor element group having a plurality of sensor elements arranged adjacent to each other and detecting contact;
  • a display unit disposed adjacent to the first sensor element group
  • a control unit for controlling display on the display unit
  • the plurality of sensor elements are arranged in an arrangement direction including at least a predetermined one-direction component and in the vicinity of the display unit,
  • the control unit displays a plurality of selection candidate items that can be displayed as operation target areas on the display unit in a direction parallel to the predetermined one direction, and includes a plurality of selection candidate items. Are displayed as an operation target area (that is, at least one selection candidate item is focused), and the plurality of the plurality of the plurality of selection elements that constitute the first sensor element group are displayed during the display of the plurality of selection candidate items. Control to change the operation target region in accordance with the transition of the position of contact detection in the sensor element;
  • a portable electronic device according to still another embodiment of the present invention provides:
  • the control unit displays the same number of selection candidate items as the number of the plurality of sensor elements included in the first sensor element group on the screen of the display unit.
  • a portable electronic device includes:
  • the control unit detects a transition from a contact detection state by one sensor element to a contact detection state by an adjacent sensor element among the plurality of sensor elements, and changes the operation target region by one; It is characterized by that.
  • a portable electronic device according to still another embodiment of the present invention provides:
  • a portable electronic device includes:
  • the second sensor element group force S and the first sensor element group are arranged symmetrically across the display unit.
  • a portable electronic device includes:
  • the end of the first sensor element group is arranged so as to be adjacent to the end of the second sensor element group,
  • the control unit detects a contact detection transition of one of the plurality of sensor elements of the first or second sensor element group, and is displayed on the display unit in accordance with the transition of the contact detection position.
  • the operation target region is changed in one direction, and a contact detection transition of a plurality of sensor elements in the other sensor element group is detected in succession, and the operation target region is changed in accordance with the transition of the contact detection position. Is controlled to change in a direction opposite to the one direction.
  • a method for controlling a portable electronic device includes:
  • FIG. 1 is a block diagram showing a basic configuration of a mobile phone terminal to which the present invention is applied.
  • FIG. 2 is a perspective view of a mobile phone terminal in which a sensor element is mounted on a housing.
  • FIG. 3 is a detailed functional block diagram of a mobile phone terminal 100 to which the present invention is applied. 4] A block diagram showing a more detailed configuration of the touch sensor function of the mobile phone terminal 100 according to the present invention.
  • FIG. 6 is an exploded perspective view of components of the mobile phone terminal shown in FIG.
  • FIG. 7 A schematic block diagram for explaining data processing of contact detection by each sensor element in the mobile phone terminal of the present embodiment.
  • FIG. 8 is a diagram for explaining the response of the sub display unit when the user traces on the sensor element.
  • FIG. 9 is a diagram for explaining the response of the sub display unit when the user traces the sensor element.
  • FIG. 10 is a diagram for explaining the response of the sub display unit when it is in contact with the first sensor element group G1 and the second sensor element group G2 across the separation part SP1.
  • FIG. 12 is a flowchart showing an example of movement confirmation processing (that is, hold processing) in 16 detection states.
  • FIG. 13 is a diagram for explaining a confirmation process when the process of the flowchart of FIG. 12 is applied to the contact from the sensor elements L1 to L4 of FIG.
  • FIG. 14 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 15 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 16 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 17 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 18 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 19 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 20 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 21 It is a diagram for explaining the operation of the sensor element of the embodiment 2 of the present invention.
  • FIG. 22 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 23 is a diagram for explaining the operation of the sensor element according to the second embodiment of the present invention.
  • FIG. 24 is a diagram for explaining the operation of the sensor element according to the third embodiment of the present invention.
  • FIG. 25 is a diagram for explaining the operation of the sensor element according to Example 4 of the present invention.
  • FIG. 26 is a diagram showing a layout example of sensor elements and sub display units according to a modification of the present invention.
  • FIG. 27 is a diagram for explaining a conventional sensor element and a control example thereof.
  • FIG. 28 is a diagram for explaining a conventional sensor element and a control example thereof.
  • FIG. 1 is a block diagram showing a basic configuration of a mobile phone terminal to which the present invention is applied.
  • the mobile phone terminal 100 includes a control unit 110, a sensor unit 120, a display unit 130, a storage unit (flash memory, etc.) 140, an information processing unit 150, a telephone function unit 160, a key operation unit KEY, and a speaker SP.
  • the communication unit COM is connected to a CDMA (Code Division Multiple Access) communication network (not shown) for communication.
  • CDMA Code Division Multiple Access
  • the sensor unit 120 is a sensor element group including a plurality of sensor elements (for example, a contact sensor that detects the contact / proximity of an object such as a finger, the detection unit being provided on the outer surface of the device casing).
  • the number n includes the first sensor element group Gl, the second sensor element group G2 and the nth sensor element group G3.
  • the storage unit 140 has a storage area 142 and an external data storage area 144. It is composed of
  • the control unit 110 and the information processing unit 150 are preferably configured by a calculation means such as a CPU and a software module.
  • serial interface unit SI which will be described later, RFID module connected to the control unit 110 via the serial interface unit SI, RFID, infrared communication unit IR, camera 180 and light 190, microphone MIC, radio module RM Power for connecting power supply PS, power supply controller PSCON, etc. to control unit 110
  • the control unit 110 detects contact of an object such as a user's finger by the sensor unit 120, stores the detected information in the storage area 142 of the storage unit 140, and controls processing of the information stored by the information processing function unit 150. The Then, information corresponding to the processing result is displayed on the display unit 130. Further, the control unit 110 includes a telephone function unit 160 for a normal call function, a key operation unit KEY, and a speaker SP. To control. Display unit 130 includes sub display unit ELD and a main display unit (not shown) (display unit provided at a position where mobile phone terminal 100 is hidden in the closed state and exposed in the open state).
  • FIG. 2 is a perspective view of a mobile phone terminal in which the sensor element is mounted on the housing.
  • the mobile phone terminal 100 can also be formed by turning and sliding a hinge part (not shown), and the touch sensor part 170 is closed. Is also provided at a position where it can be operated.
  • FIG. 2 (a) is a perspective view showing the appearance of the mobile phone terminal 100.
  • the mobile phone terminal 100 includes a touch sensor unit 170 (in appearance, a sensor unit 130, that is, a panel PNL described later with reference to FIG. 6 covering the sensor element groups Gl and G2), a camera 180, and a light 190. .
  • FIG. 170 in appearance, a sensor unit 130, that is, a panel PNL described later with reference to FIG. 6 covering the sensor element groups Gl and G2
  • FIG. 2 (b) is a perspective view of the cellular phone terminal 100 in which the panel PNL is omitted and only the arrangement around the sensor element and the sub display unit ELD is displayed for the explanation of the operation of the touch sensor.
  • the sensor elements L1-L4 and R1-R4 forces are arranged side by side along the periphery of the sub-display area ELD.
  • the sensor elements Ll-L4 and Rl-R4 constitute a first sensor element group Gl and a second sensor element group G2, respectively.
  • the first sensor element group and the second sensor element group are arranged with the separation portions SP1 and SP2 therebetween.
  • the second sensor element group G2 has a line-symmetric layout with the display unit in between and the direction in which the selection candidate items are arranged as the center line.
  • a certain force using an organic EL display for the sub display portion ELD for example, a liquid crystal display can be used.
  • a capacitive contact sensor is used as the sensor element, but a thin film resistance contact sensor or the like can also be used.
  • the sub display unit ELD displays information corresponding to the use of the mobile phone terminal 100.
  • the sub-display unit ELD displays a tune that can be played.
  • the combination of song name and artist name is one item, that is, “candidate item”.
  • the user operates the touch sensor unit 170 as an operation input unit to change the capacitance of the sensor elements R1-R4, L1 and L4, and moves items and operation target areas displayed on the sub display unit ELD. Make a selection.
  • the touch sensor has a configuration in which the sensor elements are arranged around the sub display ELD as shown in FIG. 2, it occupies a large portion of the mounting portion in the external housing of a small portable electronic device.
  • the user can use the force S to operate the sensor element while watching the display on the sub display ELD.
  • FIG. 3 is a detailed functional block diagram of the mobile phone terminal 100 to which the present invention is applied.
  • the various types of software shown in FIG. 3 operate based on a program stored in the storage unit 140 and are executed by the control unit 110 after providing a work area on the storage unit 140.
  • the functions of mobile phone terminals are divided into software blocks and hardware blocks.
  • the software block includes a base application BA having a flag storage unit FLG, a sub display unit display application API, a lock security application AP2, other applications AP3, and a radio application AP4.
  • the software block further includes an infrared communication application APIR and an RFID application APRF.
  • the infrared communication dry IRD, RFID driver RFD, audio driver AUD, radio driver RD, and protocol PR are used as drivers.
  • the audio driver AUD, radio driver RD, and protocol PR control the microphone MIC, speaker SP, communication unit COM, and radio module RM, respectively.
  • the software block also includes a key scan port driver KS P that monitors and detects the operating state of the hardware, including touch sensor driver related detection, key detection, and opening / closing to detect opening and closing of mobile phone terminals such as folding and sliding types. Detection, earphone attachment / detachment detection, etc.
  • the hardware block consists of a key operation unit KEY including various keys including dial keys and tact switches SW1-4, which will be described later, an open / close detection device OCD that detects open / close based on the operating status of the hinge unit, etc. It consists of the attached microphone MIC, removable earphone EA P, speaker SP, communication unit COM, radio module RM, serial interface unit SI, and switching control unit SWCON.
  • Switching control unit SWCON drives infrared communication unit IR, RFID module (wireless identification tag) RFID, touch sensor module TSM (sensor unit 120 and sensor unit 120 such as an oscillation circuit) according to instructions from the corresponding block of the software block Select any one of the necessary components above) and switch the selected hardware (IR, RFID, TSM) so that the serial interface SI picks up the signal.
  • Power PS, power controller PSC Supply power to the selected hardware (IR, RFID, TSM) via ON.
  • FIG. 4 is a block diagram showing a more detailed configuration of the touch sensor function of the mobile phone terminal 100 according to the present invention.
  • the mobile phone terminal 100 includes a touch sensor driver block TDB, a touch sensor base application block TSBA, a device layer DL, an interrupt handler IH, a queue QUE, an OS timer CLK, and various applications AP.
  • the touch sensor prescription program interface API is provided
  • the touch sensor driver block TDB includes a touch sensor driver TSD and a result notification unit NTF.
  • the device layer DL also includes the switching control unit SWCON, switching unit SW, serial interface unit SI, infrared communication unit IR, RFID, and touch sensor module TSM.
  • the interrupt handler IH is the serial interrupt monitoring unit SIMON and confirmation. Department CNF is provided.
  • Touch sensor base application block In TSBA whether or not to start the touch sensor is exchanged between the base application BA and the touch sensor driver upper application program interface API.
  • the base application BA is a sub display application API that is an application for the sub display
  • the lock security application AP2 that is an application that locks the mobile phone terminal 100 for security protection
  • the touch sensor driver upper application program interface API is requested to activate the touch sensor.
  • the sub display unit is a sub display unit ELD shown in each drawing, and refers to a display unit surrounded by sensor elements in the cellular phone terminal 100 in this embodiment.
  • the touch sensor upper application program interface API checks whether or not the touch sensor can be activated in a block (not shown) that manages the activation of the application in the base application BA. That is, the sub-display unit ELD indicating that application selection has been executed! /, Or the FM sensor or other applications attached to the mobile phone terminal 100 is set in advance so that the touch sensor cannot be activated. The presence or absence of a flag indicating the activation of the registered application is confirmed. As a result, When it is determined that the touch sensor can be started, the touch sensor upper application program interface API requests the touch sensor driver to start the touch sensor module. In other words, power supply from the power source PS to the touch sensor module TSM via the power source controller PSCON is actually started.
  • the touch sensor driver TSD When activation is requested, the touch sensor driver TSD requests the serial interface SI in the device layer DL to control to open the port with the touch sensor driver TSD in the serial interface SI. To do.
  • the touch sensor driver TSD sends a signal having information on the sensing result of the touch sensor (hereinafter referred to as a contact signal) to the serial interface unit in a cycle of 20 ms by the internal clock of the touch sensor module TSM. Control to output to SI.
  • the contact signal is output as an 8-bit signal corresponding to each of the eight sensor elements R1-R4 and L1 L4 described above.
  • the bit corresponding to the sensor element that detected the contact is a signal in which “flag: 1” indicating contact detection is set, and the contact signal is formed by these bit strings. Is done. That is, the contact signal includes information indicating “which sensor element” is “contact or non-contact”.
  • the serial interrupt monitoring unit SIMON in the interrupt handler IH extracts the contact signal output to the serial interface unit SI.
  • Check unit CNF force Serial interface unit Check the True / False of the extracted contact signal according to the conditions set in advance in the SI! /, And put only the true signal data into the queue QUE ( The True / False signal type will be described later.)
  • the serial interrupt monitoring unit SIM ON also monitors other interrupt events of the serial interface unit SI during activation of the touch sensor such as the tact switch being pressed.
  • the monitoring unit SIMON puts a signal indicating "press” into the queue QUE (queuing) before the contact signal. After that, the contact signal is updated at a cycle of 45 ms using the OS timer CLK of the operation system. If contact is not detected a predetermined number of times, a signal indicating “release” is entered in the queue QUE. This allows sensor elements from the start of contact to release. It becomes possible to monitor the movement of the contact detection between them. What is “first contact”?
  • the monitoring unit SIMON generates a pseudo-signal indicating "release" and stores it in the queue.
  • the conditions for false are “when contact is detected by two discontinuous sensor elements”, “when an interrupt occurs during touch sensor activation (for example, a sub-display with a notification of an incoming mail, etc.) Part ELD lighting / extinguishing state has changed) ”,“ when a key press occurs during touch sensor activation ”, or“ when contact across multiple sensor element groups is detected ”as described later. Is set.
  • the monitoring unit SIMON detects contact with two adjacent sensor elements such as the sensor elements R2 and R3 at the same time, the monitoring unit SIMON performs the same contact as when detecting a single element. Put a contact signal flagged in the bit corresponding to the detected element into the queue QUE
  • the touch sensor driver TSD reads a contact signal from the queue QUE at a cycle of 45 ms, and determines an element that has detected contact based on the read contact signal.
  • the touch sensor dryer SD takes into account the change in contact determined by the contact signal sequentially read from the cue QUE and the positional relationship with the detected element. Detection of direction (clockwise / counterclockwise) ”and“ number of elements moved from press to release (ie movement distance) ”.
  • the touch sensor driver TSD supplies the determined result to the result notification unit NTF and notifies the base application BA to update the result.
  • the moving direction and distance of contact are determined by a combination of detection of adjacent sensor elements and detection of each sensor element, and various methods (determination rules) can be applied to this ( Details will be described later). For example, when the contact transitions from one sensor element (eg R2) to the adjacent sensor elements (R2 and R3 in this example) It is determined that one element (one item in the sub display section) moves in that direction.
  • one sensor element eg R2
  • R3 adjacent sensor elements
  • the base application BA confirms the result notification unit NTF, and the content of the information notified to the result notification unit NTF. This is notified to a higher-order application that requires a touch sensor result (such as a display unit display API for displaying the menu screen in the sub display unit and a lock security application AP2 for lock control).
  • a touch sensor result such as a display unit display API for displaying the menu screen in the sub display unit and a lock security application AP2 for lock control.
  • FIG. 5 is a plan view showing the arrangement of components of the mobile phone terminal 100 according to the present invention, particularly the touch sensor unit 170. For convenience of drawing and explanation, only some components are shown and described.
  • a donut-shaped panel PNL is arranged around the periphery of the display ELD made of organic EL elements.
  • the panel PNL is preferably thin enough so as not to affect the sensitivity of the sensor element provided at the bottom.
  • eight capacitive elements L1 L4 and R1-R4 that can detect the contact / proximity of a human finger are arranged in a ring shape.
  • the left four sensor elements L1 and L4 constitute the first sensor element group, and the right four sensor elements R1 to R4 constitute the second sensor element group.
  • a clearance (gap) is provided between adjacent sensor elements in each sensor element group so that adjacent sensor elements do not interfere with the contact detection function. Note that this clearance is not necessary when using sensor elements that do not interfere.
  • a clearance larger than the clearance (for example, a length of twice or more). ) Is provided.
  • the separation part SP2 is also provided between the sensor element L1 located at the other end of the first sensor element group G1 and the sensor element R4 located at the other end of the second sensor element group G2. Is provided.
  • Such separation portions SP1 and SP2 can prevent fingers from interfering with each other when the first sensor element group G1 and the second sensor element group G2 function separately.
  • Each sensor element of the first sensor element group G1 is arranged in an arc shape, but the center of the line (arc) connecting the centers of the sensor elements, that is, the middle of the sensor elements L2 and L3.
  • the center of the tact switch SW1 is placed at the bottom of. In other words, the tact switch SW1 is placed near the center of the imaginary line that connects approximately the centers of the sensor elements of the first sensor element group G1. Deploy.
  • the center of the tact switch SW2 is arranged at the center of an arc (virtual line) connecting the centers of the sensor elements of the second sensor element group G2, that is, at the lower part between the sensor elements R2 and R3 (FIG. 6). reference).
  • the tact switch at the approximate center of a virtual line (not shown) that connects the approximate centers of the sensor element groups, which is a position not associated with the directionality, the user's finger on the sensor element is arranged. It is not directly related to the direction instruction by the movement instruction operation with the direction of the user! /, And the user can easily understand that the switch is the switch that performs the operation. If a tact switch is placed in the vicinity of the end (for example, L1 or L4) instead of the center of the line connecting the sensor element groups, the movement operation by the touch sensor is continued to remind the directionality toward the end. It is easy to give the user a misunderstanding that it is a “switch” that is pressed for a long time.
  • the tact switch is arranged at the center of the line connecting each of the sensor element groups as in the configuration of the present invention, such a misunderstanding can be prevented and a more comfortable user interface can be provided. Is possible.
  • a tact switch is placed under the sensor element and is not exposed to the external surface of the device, the number of parts of the operation section that are exposed on the external appearance of the device can be reduced, and a complicated operation is required. A smart impression.
  • the switch is provided at a location other than the lower part of the panel PNL, it is necessary to provide a separate through hole in the device casing, but the strength of the casing may be lowered depending on the position where the through hole is provided. In this configuration, by disposing the tact switch below the panel PNL and the sensor element, it is not necessary to provide a new through hole, and it is possible to prevent a decrease in housing strength.
  • the selection candidate item displayed in the display unit ELD in this case, sound, display, etc.
  • the selection target area ie, the focused area / item, eg, highlighted area or highlighted area in another color
  • the item changes sequentially, or the selection candidate item scrolls upward.
  • the display itself can be changed to another screen by pressing.
  • the panel PNL has sufficient flexibility to press the tact switches SW1 and SW2.
  • it is attached to the machine housing so that it can be tilted slightly. It also has the role of a push-push child for SSWW11 and SS WW22. .
  • FIG. 66 is a schematic diagram of the constituent elements of the mobile phone-telephone terminal shown in FIG. 22 and FIG. 55.
  • FIG. 10 is a partial exploded oblique view of the sensor unit 117700.
  • the eleventh layer that forms the outer surface of the end terminal housing is the panel board PP PP NNLL and The table display section EELLDD is arranged.
  • the sensor element LLll——LL44, RR11—— RR44 is distributed. .
  • the switch switch SSWW11 as a switch element is located between the sensor elements LL22 and LL33.
  • the eleventh sensor element group GG11 is lower and lower than the GG11 so that the center of the center is positioned ( It is shown in the example that is arranged on the inner side of the body)).
  • the operation for the eleventh sensor element group GG11 is the same as that for the eleventh sensor element group GG11.
  • Kaka SS which is carried out by touching and touching a finger to the panel panel PPNNLL, which is installed on the top, to the pressing pressure of the panel panel PPNNLL here It would be better if the tactile tow switch SSWW11 could be pushed and pressed.
  • the eleventh sensor element group GG11 is not actually limited to the above-mentioned positional relations, but in terms of real substance, the eleventh sensor element group GG11 is It would be good if it was installed in the area that was distributed. .
  • the pressed pressure part of the SSWW11 is not limited to between the sensor elements LL22 and LL33, but each sensor sensor Even if it is directly under the element, the position-position relation that can be achieved by the same operation as the group of elements in the panel panel at PPNNLL. It would be nice if the clerk would be happy. .
  • FIG. 77 shows contact touch detection by each sensor element at the end of the mobile phone charging terminal in the embodiment.
  • FIG. 4 is a schematic outline block diagram explaining the data processing of the knowledge. .
  • the sensor element RR11——RR44 is shown, but the sensor element LL11. ——The same is true for LL44.
  • Each of the sensor elements RR 11 RR44 is impressed with a high and high frequency wave, which changes the amount of floating floating capacity. In consideration of the above, it is determined that it is determined based on the high-frequency frequency state of the current state. . .
  • Pre-processing section for RR11 included in 220000aa pre-processing section for RR22 220000bb, pre-processing section for RR33 In the part 220000cc and the pre-treatment processing part 220000dd for RR44, the electrostatic capacitance capacity due to the contact contact of the finger and finger etc.
  • control unit 220 detects the direction when contact is detected by two or more adjacent sensor elements based on the information stored in the storage unit 230.
  • the force S showing an example in which the control unit 220 and the storage unit 230 dedicated to sensor element detection are provided, and these units may be shared with the control unit 110 and the storage unit 140 of FIG.
  • FIG. 8-10 (a) is a schematic diagram showing only the display element mounted on the mobile phone terminal and the sensor elements arranged side by side for the sake of simplicity. (B) The figure which shows the sensor element detected with time transition, (c) is a figure which shows the position change of the operation object area
  • the same reference numerals as in FIG. 2 (b) are added to the sensor elements, the sensor element group, and the separated portion.
  • the sub display area ELD displays! /
  • TI is the title of the item list displayed on the display area, LS;!
  • selection candidate items for example, several scrollable lines
  • the item in the state to be operated is placed on the item so that the current operation target region, that is, the focused region / item can be identified. Or, highlight the item itself in reverse video.
  • items displayed as operation target areas are hatched and highlighted.
  • the sub-display unit operates according to the same principle when moving (scrolling) the force item itself that describes “movement object” only in the operation object area.
  • FIG. 8 is a diagram for explaining the response of the sub display unit when the user traces on the sensor element.
  • the control unit makes contact with the time transition shown in (b). Detect.
  • the contact is in the order of sensor elements Rl, R2, R3, R4. It is. Since the detected continuous contact from Rl to R4 detects contact with two or more of the adjacent sensor elements, the direction is detected, and depending on the number of times the adjacent sensor elements have changed and the direction thereof, The operation target area moves on the list displayed on the sub display ELD.
  • the operation target area moves three items downward from item LSI at the initial position to item LS4.
  • the operation target area is the initial position when the hatching force S is small and the hatching pitch is narrow, and the position after the movement is the position where the hatching pitch is wide.
  • the “operation target area” moves downward” on the display unit, the user is given a force, You will feel as if you are moving the operation target area freely with your finger. That is, the operation feeling as intended by the user can be obtained.
  • the sensor element is traced in the direction indicated by the arrow AR2 in FIG. 6A, in this case, as shown in FIG. 5B, among the sensor elements, the sensor elements L4, L3, L2, L1 Detects contact in this order.
  • the target area moves by three.
  • the “operation target area moves downward” on the display section in the same way as the user's “upward to downward finger pointing operation”, the user can intuitively operate the operation as intended. Can be done automatically.
  • FIG. 9 is a diagram showing a case where the sensor element is traced in the opposite direction to FIG. 8, that is, from the bottom to the top.
  • sensor elements R4, R3, R2, and Rl of the sensor elements detect contact in this order as shown in (b)
  • Ll, L2, L3, and L4 of the sensor elements detect contact in this order.
  • the user can move upward in each sensor element group. If you drag your finger from the sensor element below to the sensor element below, the selection item in the operation selection area of the sub display ELD will also move from top to bottom correspondingly, and the user will When the finger is traced from the element to the upper sensor element, the selection item of the sub display ELD is also moved from the lower side to the upper side. Therefore, the user can intuitively move the items in the operation target area of the sub display unit ELD up and down without making a mistake in the vertical movement of the finger corresponding to the vertical movement of the operation target area.
  • the number of the plurality of sensor elements included in one sensor element group is the same as the number of selection items displayed on the sub display unit ELD, so that one sensor element group as a whole (From top to bottom, the bottom is from bottom to top), and the operation target area of the sub display ELD is changed from top to bottom and from bottom to top)
  • the ability to move across S In other words, when selecting an item from items on the same screen, the user simply drags the finger once on one sensor element group, and can select any item on the sub-display unit ELD. You can choose the power S.
  • FIG. 10 is a diagram for explaining the response of the sub-display unit when the first sensor element group G1 and the second sensor element group G2 are continuously contacted beyond the separation part SP1.
  • the control unit detects contact with the time transition shown in (b).
  • the sensor elements are L3, L4, and R1 in this order.
  • the number of sensor elements that detected contact in the first sensor element group is “2”, and that in the second sensor element group is “1”. Therefore, since the number of sensor elements that have detected contact in the first sensor element group is larger than that in the second sensor element group, the first sensor element G1 “Valid”, and “second contact invalid” detected by the second sensor element group G 2.
  • the operation target area Moves one item upward from item LS2, which is the initial position, to item LS I.
  • Fig. 11 shows two adjacent elements in which the sensor element detection state is only a single element detection state. It is a conceptual diagram divided into 16 pieces so as to determine the detection state of a plurality of elements that further detect a child.
  • a tact switch is also provided between the first sensor element group G1 and the second sensor element group G2. That is, a tact switch SW3 is newly provided between the sensor element L4 and the sensor element R1, and a tact switch SW4 is newly provided between the sensor element R4 and the sensor element L1. If the detection states of eight sensor elements are managed one by one, eight detection states can be managed.
  • the eight detection states since the number of states, that is, state changes are small, it is not possible to control very precisely.
  • the tact switch SW1 that is arranged across the sensor elements
  • contact is detected with the sensor elements L2 and L3 first, so that the user's unintended operation May be an instruction. That is, when the sensor elements L2 and L3 are detected in this order, the upward movement instruction is given regardless of the tact switch SW1 pressing operation for some decision instruction, and the operation target area is set to “1” upward. “After only deviating,” the selection operation by pressing the tact switch SW1 may be finalized, and an item that is not intended by the user may be determined and instructed.
  • the configuration of the sensor element in FIG. 11 is almost the same as the configuration of the sensor element in FIG.
  • the configuration of the contact detection is to be detected with great strength. For example, when the user is touching only L1 with a finger or the like, it detects that the touch of L1 is S. When touching near the boundary between L1 and L2, it is detected as touching “L1 and L2”. To do. If the contact completely moves to L2 and leaves L1, it is detected as a contact only with L2. Then, touch the vicinity of the boundary between L2 and L3! /, And in this case, touch “L2 and L3”! By adopting a configuration that detects in the same manner, it is possible to detect 16 detection states even though only 8 sensor elements are used.
  • FIG. 12 shows an example of the movement confirmation process (ie, the hold process) in the 16 detection states. It is a flowchart.
  • the touch sensor driver TSP performs this flowchart processing every time it is detected that one detection state is generated in the queue QUE.
  • the first reference point is the first position detected from the released state (16 forces, one detection state). From this reference point, current detection position (detection state newly entered in cue QUE), and previous detection position (previous detection state remaining in cue QUE), the moving distance (detection) State transition). As shown in the figure, in step S10, it is determined whether or not the previous position has been released.
  • step S12 If it is determined that it has been released (the previous data remaining in the queue QUE is “release”), the process proceeds to step S12, and whether or not the current detection position has been released (ie, newly Whether the entered data is “release” or not. If it is determined that the current detection position is released, the process ends. If not, the process proceeds to step S14, and the reference point and the previous detection position are set as the current detection position.
  • step S10 If it is determined in step S10 that the previous position has not been released (that is, if another detection has occurred and the current detection follows), the process proceeds to step S16. Determine whether the current detection position has been released (ie, whether the newly entered signal is “release”). If it is determined that the current detection position has been released, the reference point and the previous detection position are initialized (cleared), and the process ends (step S18). If it is determined in step S16 that the current detection position has not been released, the distance between the previous detection position and the current detection position is calculated (step S20), and the calculated distance is 1 or 2. It is determined whether or not (step S22).
  • step S24 the sensor element is skipped and it is determined that the detection state is discontinuous (step S24), and the reference point is set to the current detection position. Set to, and go to step S36. If it is determined that the distance calculated in step S22 is 1 or 2, the distance between the current detection position and the reference point is calculated (step S28). In addition, since the detection position for each sensor element is determined by the signal input to the queue Q UE, the distance is calculated from the 16 detection states between the previous detection position and the current detection position. The touch sensor driver TSD judges how many of the difference there are.
  • step S3 it is determined whether or not the distance force 2 or 3 calculated in step S28 (step S3). 0) If the condition is not satisfied (that is, 4 or more), the process proceeds to step S36 as an error. If the condition is satisfied (distance is 2 or 3), the movement is confirmed (step S32). In other words, the first touched position is set as the “reference point”, and then “previous position” is updated when contact is continuously detected without being “released”, and finally the latest detected position. Only when it is determined that “current position” is “2 or 3 moved” with respect to the reference point, it is determined as “moving”. Furthermore, since the single element detection state and the multiple element detection state are continuously detected, it is determined that the movement is “2 movement”. One finger is moving.
  • next reference point is set to a position that is moved by two in the movement direction from the previous reference point (step S34), and the process proceeds to step S36.
  • the “previous detection position” is set to the “current detection position” for the next process, and the process ends.
  • the detection state transitions in the order of “L2 detection state”, “L2-L3 detection state”, and “L3 detection state”. Therefore, as described above, the force S that may confirm the movement S, as described above, when the tact switch SW1 is detected pressed, the previous detection results are discarded, thus preventing false detection when the finger is released. It is possible to detect the movement of the sensor element when the tact switch is released.
  • the detection state may transition in the order of "L2 detection state” and "L2-L3 detection state". Even if the detection result before pressing the tact switch is discarded, the sensor element may be touched again when the tact switch is released. However, even in such a case, if the processing of the flowchart of FIG. However, since only the transition is made, there is no possibility of erroneously recognizing that it is an instruction to move the sensor element when the tact switch is released.
  • FIG. 13 is a diagram for explaining a determination process when the process of the flowchart of FIG. 12 is applied to the contact from the sensor elements L1 to L4 of FIG.
  • the detection state changes are: “L1 detection”, “L1 L2 detection”, “L2 detection”, “L2—L3 detection” “L3 detection”, “L3—L4 detection”, “L4” Detection ". That is, the single element detection state, the multiple element detection state, and L1 to L4 are repeatedly detected.
  • the first “L1 detection” is set to the reference point BP1 (S14).
  • the previous position is "L1-L2 detection", so the previous position is compared with the current position CP1 detected this time. (S2 0). This is a single frame movement from LI—L2 to L2, which is valid because it satisfies the judgment condition of “1 or 2?” This time, the reference point is compared with the current position (S28). Again, since the reference point is set to the same L1 as when L1 was detected, the positional relationship with L2 is 2 frames, so the amount of movement is determined to be 2 frames (S30). The movement is confirmed for the first time here (S32).
  • the reference point BP2 is set to “L2 detection”, which is a point where the reference point BP2 has moved two frames in the moving direction from “L1 detection” (S34), and the previous position is set to the current position “L2 detection”. Set again to, and confirmation processing 1 is completed.
  • the touch sensor driver determines the movement “1” by detecting the transition of the detection state of two frames. That is, when the movement is confirmed in step S32, the result notification unit NTF has a movement direction component (direct force from L1 to L4, counterclockwise direction, that is, SP2 force, direction from SP1, and so on) and ⁇ 1 ''
  • the base application notifies the base application of the update of the stored contents, and the base application extracts the update contents and notifies the sub display unit display application API or the like. If the sub display application API is in use, the movement direction component Based on the above, the amount of movement of “1” is given to “Direction from bottom to top, direction”, so the display on the sub display ELD is changed as a process corresponding to this.
  • the operation target area (focused area) is determined to be LS3 based on confirmation processing 1. Will be moved to.
  • the detection state continues for the second sensor element group R1-R4 from the “R4 detection” state to “R4-R3 detection” and “R3 detection”.
  • the touch sensor also sends the information on the application of the amount of movement “from bottom to top” and “1” to the sub display unit display application API via the base application. Given this, on the screen display of the list display, the operation target area changes to the item LS4 force, LS3, in the same way as the operation in the first sensor element unit.
  • the detection state is the reference position BP2 and “L2-L3 detection” is the previous position PP2, and “L3 detection” is the current position CP2.
  • the distance between the reference point BP2 and the current position CP2 is 2 frames, so the movement “1” is confirmed. That is, the movement of the total “2” is confirmed by both the confirmation process 1 and the bow I!
  • the reference point BP2 “L2 detection” force “L3 detection” two frames ahead is the new reference point BP3, and the reference point is changed.
  • the detection state advances two frames from the reference point BP3, and “L3—L4 detection” is set to the previous position CP3, and “L4 detection” is set to the current position CP3.
  • the distance will be 2 frames, so “1” movement will be confirmed and a total of “3” movements will be confirmed together with the confirmation process 1 ⁇ 2. In this way, a total of “3” moves will be notified to the app.
  • Sub-display unit For display in ELD, the sub-display unit display application API has a confirmation process.
  • the confirmation of the movement of “1” is sent twice in the “direction from bottom to top direction”, so the LS that has moved “2” upward from the target area force LS3. It will change to 1.
  • the detection state is subdivided by configuring to detect multiple element detection states in addition to single element detection state detection, the amount of movement determined by the movement of two state transitions is ⁇ After all, it is composed of four sensor elements as shown in the example. In the case of a sensor element, a maximum of “3” movement confirmation is performed. That is, when the number of sensor elements is four and the movement is confirmed only by detecting a single element, the final movement amount is a very approximate force.
  • the key detection driver sends a decision instruction via the base application by pressing the donut-shaped panel that was in contact with the touch sensor operation. Since it can be given to in-use apps such as the sub-display unit display app, the user interface is more comfortable for the user with less finger movement.
  • the sub display unit display application display the selection items on the “4” line, which is the same number as the sensor element number “4”! /.
  • contact detection is first detected with the sensor elements L1 and R4 at the bottom (SP1 side), and when contact detection continues to the top (SP2 side), the movement of “3”
  • the selection target area moves from the lowermost level (LS4) to the uppermost level (LSI).
  • the maximum movement from the bottom to the top is the maximum movement from the bottom to the top on the display, and the movement operation to the touch sensor and the movement display on the sub display ELD are the same.
  • the user interface can be very easily understood.
  • the same operation instruction can be given by operating any of them.
  • the ends of each other are arranged adjacent to each other, for example, when the touch detection state is shifted clockwise from the sensor element L1 to reach the detection state of the sensor element R4, the sub display unit ELD
  • the operation target area moves from the bottom LS4 to the top LSI from the L1 detection to the L4 detection time, and when the detection state transitions from R1 to R4, the operation target moves from the top LSI to the bottom LS4.
  • the area returns It becomes. This makes it possible for the user to move up and down when selecting a selection item and to return the operation target area to the original position without having to release his / her finger. High operational feeling can be given.
  • step S22 if the distance between the previous position and the current position is set to 1 or 2 in step S22, if it has moved 2 times from the previous position, that is, even if it skips 1 from the previous position, it moves continuously. Since it can be handled as a detection state, it can be as close to the user's desired action as possible even under vibration.
  • step S30 not only the distance 2 frames but also the 3 frames are valid, so the finger is momentarily detached due to vibrations, etc., or one detection state is detected by a quick operation. In some cases, the moving operation can be detected.
  • the reference point setting for the next detection is the same as when moving 2 frames. Since only 2 frames are moved relative to the reference point, even if the movement is confirmed by detecting 3 frames, the amount of movement confirmation of “n-1”, which is obtained by subtracting 1 from the number of sensor elements, is secured. It is possible for the user to obtain a stable operation feeling whenever the same action is performed regardless of how the user touches.
  • FIG. 14 is a diagram for explaining the response of the display unit when the first sensor element group G1 and the second sensor element group G2 are continuously contacted across the separation part SP1.
  • the control unit detects contact according to the transition shown in (b). .
  • the contact is in the order of the sensor elements L4 and R1.
  • the mobile phone terminal 100 includes a sensor element. If the detection of the contact of the sensor element straddles the separation part, the detection of the contact of the sensor element before and after the separation part extends over two or more sensor elements in each sensor element group G1 or G2, respectively.
  • Movement is valid. If contact between the sensor elements before and after the separation part is detected by only one sensor element in the sensor element group G1 and G2 before or after the separation part, it is equivalent to one piece across the separation part. Disable moving. Therefore, in this case, after detection of one sensor element L4 in the first sensor element group, detection of contact in the sensor element in the second sensor element group which straddles the separation portion SP1 and is adjacent thereto is performed by the sensor Since there is only one contact by the element R1, the movement from the first contact L4 detected by the first sensor element group G1 to the second contact R1 detected by the second sensor element group G2 is invalid. Become. Therefore, as shown in (c), the operation target area of the sub display ELD does not move
  • FIG. 15 is also a diagram illustrating the response of the sub display unit when the user traces on the sensor element.
  • the control unit detects contact with the time transition shown in (b).
  • the sensor elements R2 and R1 are in this order.
  • the movement of the contact detection is effective because the movement of the user's finger etc. on the sensor element does not cross the separation part SP1, and as shown in (c) If the initial position of the area is LS2, the operation target area (focused area) moves one item from the bottom up to the LSI.
  • FIG. 16 illustrates the response of the sub display unit when the first sensor element group G1 and the second sensor element group G2 are continuously contacted across the separation part SP1 as in FIG. FIG.
  • the control unit detects contact with the time transition shown in (b).
  • the sensor elements Rl and L4 are in this order.
  • the first contact in the second sensor element group G2 before straddling the separation part SP1 is only one sensor element (R1), and after the force, the separation part SP1 is straddled.
  • FIGS. 17 to 22 show the case where three adjacent sensor elements are continuously contacted and the case where the distance SP1 is not crossed.
  • FIG. 17 is a diagram for explaining the response of the sub display unit when the user traces the sensor element with a finger or the like. In Fig. 3 (a), when the sensor elements are continuously traced from bottom to top as indicated by arrow AR, the control unit detects contact with the time transition shown in (b).
  • the contact is in the order of sensor elements L2, L3, and L4.
  • the detection of the contact between L2 and L4 is effective because the movement is not across the separation SP1, and the initial position of the operation target area is LS3 as shown in (c). If this is the case, the operation target area moves two items from bottom to top to the item LSI.
  • FIG. 18 is a diagram for explaining the response of the sub-display unit when the first sensor element group G1 and the second sensor element group G2 are continuously contacted across the separation part SP1.
  • the control unit detects contact with the time transition shown in (b).
  • the contact is in the order of sensor elements L3, L4, and R1.
  • the first contact (L3 to L4) detected by the first sensor element group G1 is effective force.
  • the movement to the second contact (L4 to R1) detected by the second sensor element group G2 is It becomes invalid. Therefore, as in the case described with reference to FIG. 17, the list selected according to the number and transition directions of adjacent sensor elements moves on the list displayed on the sub display ELD, and is shown in (c). Thus, if the initial position of the operation target area is item LS2, the operation target area moves from bottom to top by one item to item LSI.
  • FIG. 19 is also a diagram for explaining the response of the sub display unit when the user traces the sensor element with a finger or the like.
  • the control unit detects contact with the time transition shown in (b).
  • the contact (detection result) is in the order of sensor elements L4, Rl, and R2.
  • the detection of the first contact before the separation part SP1 is detected is only one sensor element (only L4), the movement of the contact detection from L4 to R1 across the separation part SP1 is invalid. .
  • Force S transfer from R1 to R2 Since the movement is detected after touching the separation part SP1, two movements are detected. Therefore, in the same way as described in FIG. 18, if the initial position of the operation target area is item LS2, as shown in (c), in this case, the operation target area extends from top to bottom until item LS3. Move one item.
  • FIG. 20 is a diagram for explaining the response of the sub display unit when the user traces the sensor element with a finger or the like.
  • the control unit detects contact with the time transition shown in (b).
  • the contact (detection result) is in the order of sensor elements R3, R2, and R1.
  • the movement does not extend over the separation part SP1, and as shown in (c), assuming that the initial position of the operation target area is item LS3, in this case, the operation target The area moves two items from bottom to top to item LSI.
  • FIG. 21 is a diagram for explaining the response of the sub display unit when the user traces the sensor element with a finger or the like. If the sensor elements are continuously traced from left to right as indicated by arrow AR in (a), the control unit detects contact with the time transition shown in (b). In this case, the contact (detection result) is in the order of sensor elements R2, Rl, and L4. Since the movement from R2 to R1 is two movements before crossing the separation part S P1, the effective force S, the movement from R1 to L4 is one detection of the contact after striding the separation part SP1. Because it is only, it becomes invalid. Therefore, in the same way as described in FIG. 18, assuming that the initial position of the operation target area is item LS2 as shown in (c), in this case, the operation target area moves from bottom to top up to item LS I. Move one item.
  • FIG. 22 is a diagram for explaining the response of the sub display unit when the user traces the sensor element with a finger or the like. If the sensor elements are continuously traced in the direction from right to left as indicated by arrow AR in (a), the control unit detects contact with the transition shown in (b). In this case, the sensor elements are in the order of Rl, L4, and L3. In this case, there is only one detection (R1 only) before the first contact crosses the separation part SP1, so the movement of the contact detection from R1 to L4 is invalid. On the other hand, the movement from L4 to L3 is effective because two contacts are detected after straddling the separation part SP1. Therefore, as in the case described in FIG. 18, assuming that the initial position of the operation target area is item LS2, as shown in (c), in this case, the operation target area is the item item. Move one item from top to bottom to LS3.
  • the finger position does not start from the sensor element at the end of each sensor element group strictly, but slightly exceeds the end. Even if the operation is started from one adjacent sensor element among the plurality of sensor elements forming the other sensor element group, the contact detection of the sensor element at the operation start point is invalidated.
  • the user is not required to perform a very precise finger operation at the start point or the end point of the operation, so that the usability is remarkably improved.
  • FIG. 23 is a diagram for explaining the display of the sub display unit when the user traces the sensor element with his / her finger or the like.
  • the user traces in the order L2, L3, L4 starting from the sensor element L1 of the first touch sensor group G1 with a finger etc.
  • the case where the sensor element R4 of the second touch sensor element group G2 is traced in the order of R2, R3, and R4 will be described.
  • contact is detected over time as shown in FIG. That is, contact is detected in the order of L1, L2, L3, L4, R1, R2, R3, R4.
  • the detection of the contact from L1 to L4 in the sensor element group G1 is the same control as described in FIG.
  • the detection of the contact from R1 to R4 in the sensor element group G2 is controlled in the same manner as in the case described in FIG. That is, as shown in FIG. 23 (d), the operation target area that is in the item LSI when the sensor element R1 is detected is When the sensor element detection power SR2 and R3 is reached and R4 is reached, it moves from the item LSI to the item LS4 by three from top to bottom.
  • FIG. 23 the force described when the user traces clockwise on the sensor element according to the direction of the arrow AR with a finger or the like is shown when the user traces counterclockwise in the direction opposite to the arrow AR. Even so, the detection order of the sensor elements is only reversed from the above case. As a result, the operation target area is reduced to the item LS4 force by the detection from R4 to R1 in the sensor element group G2. When the L4 force in the sensor element group G1 is also detected up to L1, the operation target area moves from top to bottom from item LSI to LS4.
  • the user traces clockwise with a finger or the like from the sensor element R1 of the second touch sensor group G2 in the order of R2, R3, and R4, and then passes through the separation portion SP2 to reach L1. Therefore, when the sensor element L4 of the first touch sensor element group G1 is traced in the order of L2, L3, and L4, contact detection from the R1 to R4 in the sensor element group G2 Assuming that the initial position is item LSI, the operation target area is moved from top to bottom by item 3 to LS4, and contact detection from sensor element group G1 to L1 to L4 is detected from item LS4 to item LSI. Move three times from bottom to top.
  • the sensor element L4 of the first touch sensor group G1 is traced in the order of L3, L2, and L1, and then passes through the separation portion SP2 to reach R4, followed by R3, R2, Even when the sensor element R1 of the second touch sensor element group G2 is traced in the order of R1, the initial position of the operation target area is the item LSI for detecting contact from the L4 to L1 in the sensor element group G1. If the operation target area moves from top to bottom by item 3 to the item LS4, and further detection of contact from the sensor element group G2 to R4 to R1, V, the item LS4 force, etc. Move from bottom to top three times to LS 1.
  • FIG. 24 shows three sensor element groups, the first sensor element group G1 (L1 to L3), the second sensor element group G2 (R1 to R3), and the third sensor element group G3 (M1 to M3).
  • the case is shown in which the separated portions SP1 to SP3 are arranged side by side along the periphery of the sub display portion ELD.
  • FIG. 24 will be described.
  • the control unit detects contact with the time transition shown in (b).
  • the sensor elements L2, L3, and R1 are in this order.
  • the movement before and after straddling the separation part SP1 becomes invalid. Therefore, as shown in Fig.
  • the operation target area is the item from bottom to top up to item LS3.
  • the display of the sub-display unit ELD shows an example of scrolling in the vertical direction of the screen. Depending on the application, the display may be scrolled in the horizontal direction of the screen.
  • the user traces the finger from R1 to R3 or from L3 to L1 on each sensor element group. Then, it is suitable to control the operation target area of the sub display ELD to move from top to bottom, and when the finger is traced from R3 to R1 or from L1 to L3, the sub display It is preferable to control so that the operation target area of the part EL D moves from the bottom to the top. Furthermore, for the sensor element group G3, if the user moves the finger from Ml to M3 or from M3 to Ml, the operation target area will move down one level and then back up in both cases. If this is controlled, it is possible to deal with intuitive user operations.
  • FIG. 25 is a diagram showing a configuration in which sensor element groups each having a plurality of sensor elements are arranged in a line.
  • the first, second and third sensor element groups G1 to G3 are arranged so as to be linearly arranged in a row with the spacing portions SP1 and SP2 therebetween.
  • the sub display portion ELD (not shown in (a)) is arranged at an appropriate location such as above or below the row of sensor elements.
  • the direction of the sensor element group is the horizontal direction so that the user can operate intuitively (that is, the direction of the instruction operation to the user matches the moving direction of the display unit)
  • Arrangement of selection items IJ to be displayed on the display unit ELD is also preferably in the horizontal direction.
  • the control unit detects contact with the time transition shown in (b).
  • the sensor elements are L3, Rl, and R2.
  • the sensor elements are L3, Rl, and R2.
  • the movement before and after the separation part SP1 becomes invalid.
  • the sensor element group is arranged in a horizontal row.
  • the centimeter element group is also arranged in a vertical row corresponding to the selection items of the sub display unit ELD being arranged vertically.
  • the sub display ELD is arranged in a row on the left, right, top, bottom, etc. according to the required function, application, and design.
  • the force s for providing the separation portions SP1 and SP2 between the sensor element groups, the separation portion is an appropriate number depending on the function and application of the cellular phone terminal 100.
  • the power to do S is also possible to form a sensor element group in a vertical or horizontal row with only one sensor element group without providing any separation portion. In this case, the above-described processing across the separated portion is not performed.
  • the sensor element group has been described in the embodiment of the left and right arrangements, but it may be composed of two upper and lower groups. Furthermore, in the embodiments, the explanation is given with reference to a mobile phone terminal, but a portable wireless terminal other than the telephone terminal, a PDA (Personal Digital Assistance), a portable game machine, a portable audio player, a portable video player, a portable video player, The present invention can be widely applied to portable electronic devices such as an electronic dictionary and a portable electronic book view list.
  • a capacitive contact sensor is used as the sensor element.
  • the thin film resistance method described above an optical method for detecting contact based on fluctuations in the amount of received light, and attenuation of surface acoustic waves.
  • each sensor element group is arranged in an annular shape, and further, the display items are arranged in the sub-display portion ELD with a vertical force S, which is not necessarily required to do so.
  • a semicircular sensor element group G1 is placed on the right or left side of the sub display ELD corresponding to the arrangement of the display items in the vertical direction on the sub display ELD.
  • the semicircular sensor element group G1 is placed above or below the sub display ELD, corresponding to the arrangement of the display elements in the horizontal direction as shown in FIG. It is also possible to adopt a configuration that is arranged symmetrically only on the side or vertically.
  • the outer periphery of the sub display unit ELD and the shape of the sensor element group G1 are not necessarily circular, and the sub display unit ELD has a hexagonal shape as shown in (c) according to the required function and design.
  • the sensor element group G1 may be arranged symmetrically along the right side, the left side, or the left and right sides, and further, the sensor element group G1 may be arranged symmetrically along the upper side, the lower side, or the upper and lower sides. Of course it is possible.
  • the sensor element group is formed in a U-shaped or V-shaped sub-display portion ELD in a rectangular shape, symmetrically on the upper or lower side or both upper and lower sides, or symmetrically on the left or right side or left and right sides. It is also possible to place G1. Even in these layouts, the sensor element group G1 and the sensor elements that constitute the sensor element group G1 have functions and designs. Of course, it can be any number depending on the application.
  • the sensor elements are arranged in an arc shape, but the arrangement direction thereof is the first direction and the first direction that coincide with the direction in which the display items are arranged.
  • This can be thought of as two orthogonal vector components, the second direction component orthogonal to the component.
  • the first direction component is from the bottom to the top (or From the top to the bottom, the second direction component moves from right to left at the stage of sensor elements L1 and L2, and from left to right at the stage of sensor element L3'L4.
  • the finger movement direction and the display item arrangement direction match, and the finger movement direction in the first direction component matches the display item selection position change direction.
  • the display items are arranged in a circular shape so as to match the arrangement of the sensor elements, not just in the vertical or horizontal direction.
  • it may be arranged in an annular shape that does not stick to a circle.
  • the behavior of fluctuations in the detection position of the sensor element that is, the total movement of the finger including the direction and speed of movement of the finger
  • the behavior of fluctuation in the selection position of the display item are completely the same. Therefore, the user can operate with intuition and usability is further improved.

Description

明 細 書
携帯電子機器およびその制御方法
技術分野
[0001] 本発明は、携帯電子機器に関し、より詳細には、操作入力部として接触を検出する 複数のセンサ素子を設けた携帯電子機器およびその制御方法に関する。
背景技術
[0002] 従来、携帯電子機器の操作入力部として様々なインターフェイスや構成が開発され てきた。例えば、携帯電子機器に回転ダイヤル式入力デバイスを設け、表示部上に 表示させたカーソルを回転ダイヤル式入力デバイスの回転量に応じて移動させる技 術がある(特許文献 1を参照されたい。)。しかしながら、このような従来技術では、物 理的 ·機械的な回転を伴う「回転ダイヤル」を用いているため、機械的な磨耗などによ つて誤動作や故障などが発生し易ぐ操作入力部のメンテナンスが必要であったり、 耐用期間が短かいなどの問題があった。
[0003] そこで、物理的 ·機械的な回転を伴わない操作入力部としてタツチセンサを利用す る技術が提案されている(特許文献 2、 3を参照されたい。)。この提案技術は、複数 のタツチセンサ素子を円環状に配して、個々のタツチセンサ素子からの接触検出を 監視し、連続的な接触検出を検出した場合は、その接触検出箇所の移動に応じて、 表示位置の移動指示が生じたと判定するものである。
特許文献 1:特開 2003-280792号公報
特許文献 2:特開 2005-522797号公報
特許文献 3:特開 2004-311196号公報
発明の開示
発明が解決しょうとする課題
[0004] 図 27、図 28に、従来のセンサ素子およびその制御例を示す。図 27 (a)、図 28 (a) に示すように円環状に設けた、接触を検出するセンサ素子を、例えば、図 27 (a)の矢 印 ARのように指で時計回りになぞった場合には、同図(b)の表示部の項目 LSI〜L S8のうちのいずれが選択されているのかを示す操作対象領域(ノヽツチングにて LS3 上に示すカーソルや強調表示領域など)を下方にスクロールし、図 28 (b)の矢印 AR のように反時計回りになぞった場合には、同図(b)のように上方にスクロールするなど の「移動ルール」が予め規定されている。しかしながら、このような「移動ルール」では
、円環状に設けたセンサ素子の左下から「上方」に時計回りに指でなぞった場合に、 例えば、表示部の項目 LS;!〜 LS8のうちの操作対象領域 LS3が「下方にスクロール 」することになり、ユーザの指の移動方向と、表示部の項目のスクロール方向とがー致 せず、操作性に違和感を覚えるユーザが多い。一般的なユーザは、自己の指の移動 方向と同じように表示項目も移動することを直感的に期待するが、この提案技術では 、 自己の期待とは異なる逆側への表示動作となりユーザはストレスを感じることとなる 。即ち、移動を指示するユーザの指の物理的な動き(円運動)と、表示項目のスクロ ール動作(上下方向、左右方向)とが一致しないため、ユーザは実際に指を動力もな 力 ¾画面を見て確認してからでないと、スクロール方向を把握することが難しい。この ように、移動を指示するユーザの指の物理的な動き(円運動)と、表示項目のスクロー ル動作(上下方向、左右方向)とが一致しないことが、回転ダイヤル式のみならずセ ンサ素子式でも依然として問題である。従って、回転ダイヤル式、センサ素子式のセ ンサをかかわらず、従来技術のセンサは、ユーザの直感的な動作で選択項目を移動 させるユーザインターフェイスとしては不十分であった。
[0005] また、タツチセンサを操作して表示部の項目を移動させた後、項目選択を決定する 場合に、決定を指示するための決定入力部 (キー、タ外スィッチなど)を別途設ける 必要がある。し力、しながら、携帯電子機器は小型であり、その筐体外面の実装面積が 狭いという問題がある。また、決定入力部を外面に設けるとデザイン性が損なわれる 場合もある。
[0006] また、小型で筐体外面の実装面積が狭!/、携帯電子機器に、操作性とデザイン性を 損なうことなくセンサ素子と表示部とを当該筐体外面に搭載させたい。その場合、セ ンサ素子も必然的に小型なものとなり、ユーザの意図する位置のセンサ素子を正しく 触ることができず、表示部に表示されたカーソルや操作対象領域が思わぬ方向へ移 動してしまう。例えば、センサ素子上で移動を指示するユーザの指が少しでも行き過 ぎて意図しない指示動作となるセンサ素子にタツチしてしまった場合などには、ユー ザの意図するものとは異なる表示部の動作となる。このことも、ユーザにストレスを感じ させる要因となり得る。特に、ユーザが当該携帯電子機器を使い慣れないうちは顕著 である。従って、ユーザの指示動作に忠実に従いつつ、ユーザの不注意や不慣れに よって生じ得るセンサ素子の誤接触を回避 ·無効とするような技法が求められている。
[0007] 本発明の目的は、上述した諸課題を解消して快適な操作性およびユーザビリティを 与える携帯電子機器およびその制御方法を提供することである。また、本発明の別 の目的は、ユーザの指示動作には適切に対応しながら、ユーザが意図せずに行いう る操作 (すなわち、誤った指示動作)による誤動作を回避し、ユーザに煩わしさを感じ させることなく快適で直感的な操作性およびユーザビリティを与える携帯電子機器お よびその表示制御方法を提供することである。
課題を解決するための手段
[0008] 上述した諸課題を解決すベぐ本発明による携帯電子機器は、
(機器筐体の外面に設けた)表示部と、
前記表示部に隣接し、該表示部の周辺に沿うように(即ち、囲むように)連続的に並 ベて配される、接触を検出する複数のセンサ素子(例えば、その検知部を機器筐体 の外面に設けてあり、指などの物体の接触 ·近接を検出する接触センサ)を有する第 1のセンサ素子群と、
前記第 1のセンサ素子群が配される領域に設けられるスィッチ素子(例えば、タクト
前記表示部に操作対象領域として表示させることが可能な選択候補項目(例えば、 スクロール可能な幾つかの行ゃ歹 IJ)を複数表示させ、前記第 1のセンサ素子群の検 出状態変化および前記スィッチ素子の状態を監視し、前記第 1のセンサ素子群の検 出状態変化に基づき、前記選択候補項目および/または前記操作対象領域を変更 して選択候補項目の選択状態を変更し、前記スィッチ素子の押下が生じると選択状 態にある選択候補項目の実行を行うよう制御する制御部と、
を備えることを特 ί毁とする。
[0009] 好適には、前記スィッチ素子の押下を検知した場合、前記選択候補項目および/ または前記操作対象領域を変更せずに、該操作対象領域の選択を決定するよう制 御し、そして当該選択項目に応じた情報を表示する。また、好適には、前記第 1のセ ンサ素子群の検出状態変化があっても、当該検出状態変化変化が連続して発生す るまで、前記選択候補項目および/または前記操作対象領域を変更する制御を保 留する。また、操作対象領域として表示させるとは、項目や領域をフォーカスさせるこ とであり、例えば、フォーカスされた領域/項目(即ち、現在の操作対象項目'選択対 象項目)であることが視覚的に識別できるように、当該項目にカーソルを配置する、お よび/または、項目自体を反転表示などで強調表示することである。なお、選択候補 項目の実行とは、例えば、当該項目に関連付けられたアプリケーション動作であり、 項目が曲名や映像タイトルである場合は、当該曲や当該映像タイトルに対応したソフ トウエアコンテンツゃフアイノレを再生することである。
[0010] また、本発明の実施態様による携帯電子機器は、
前記センサ素子群を構成する複数のセンサ素子を配したときの方向成分が、少なく とも第 1の方向(典型的には縦方向)を含み、
前記制御部が、前記複数の選択候補項目を前記第 1の方向と平行な方向に並べ て表示し (典型的には横書きの行表示)、前記第 1のセンサ素子群の検出状態変化 に応じて、前記第 1の方向に沿って、前記選択候補項目を変更して (例えば、方向成 分が下方である場合にはスクロールダウンして)表示するよう前記表示部を制御する ことを特徴とする。
[0011] また、本発明の別の実施態様による携帯電子機器は、
前記スィッチ素子が、前記複数のセンサ素子の各々の中心を結ぶ線 (即ち、仮想 線)の中央の近傍に設けられている、
ことを特徴とする。
[0012] また、本発明のさらに別の実施態様による携帯電子機器は、
前記制御部が、
前記選択候補項目の 1つが操作対象領域として (反転表示などで)表示されてレ、る 場合は、前記スィッチ素子の押下 (入力)を有効とし、
そうでなレ、場合は、前記スィッチ素子の押下を無効とする、 ことを特徴とする。
[0013] また、本発明のさらに別の実施態様による携帯電子機器は、
前記制御部が、前記スィッチ素子の押下を検知した際に、前記複数のセンサ素子 のうちの 1つのセンサ素子のみが接触を検出している場合は、当該 1つのセンサ素子 の接触検出を無効とする、ことを特徴とする。
[0014] また、本発明のさらに別の実施態様による携帯電子機器は、
前記第 1のセンサ素子群に対して前記表示部を挟んで対称に (例えば、表示部の 中心を挟んで点対称、或いは中心を通る線を挟んで線対称に)配置される、複数の センサ素子を有する第 2のセンサ素子群をさらに備える、ことを特徴とする。
第 2のセンサ素子群は、第 1のセンサ素子群と同数の素子を有することが好適であ
[0015] 上述したように本発明の解決手段を機器 (装置)として説明してきたが、本発明はこ れらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実 現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。
[0016] 例えば、本発明を方法として実現させた、別の態様による携帯電子機器の制御方 法は、
表示部と、該表示部に隣接し、該表示部の周辺に沿うように連続的に並べて配され る、接触を検出する複数のセンサ素子を有する第 1のセンサ素子群と、前記第 1のセ ンサ素子群が配される領域に設けられるスィッチ素子とを備えた携帯電子機器の制 御方法であって、
前記表示部に操作対象領域として表示させることが可能な選択候補項目を複数表 前記第 1のセンサ素子群の検出状態変化および前記スィッチ素子の状態を監視す 前記第 1のセンサ素子群の検出状態変化に基づき前記選択候補項目および/ま たは前記操作対象領域を変更して選択候補項目の選択状態を変更するステップと、 前記スィッチ素子の押下が生じると選択状態にある選択候補項目の実行 (例えば、 当該項目に関連付けられた動作であり、項目が曲名や映像タイトルである場合は当 該曲ゃ当該映像タイトルの再生)を行うステップと、
を有することを特徴とする。
[0017] 上述したように携帯電子機器にスィッチ素子を設けた態様で本発明を説明してきた 力 本発明による携帯電子機器はスィッチ素子を設けずに実施することができる。 即ち、本発明の実施態様による携帯電子機器は、
隣接してかつ連続的に配置され、接触を検出する複数のセンサ素子を有する第 1 のセンサ素子群と、
前記第 1のセンサ素子群に隣接して配置されて表示部と、
前記表示部への表示を制御する制御部と、
を備え、
前記第 1のセンサ素子群は、前記複数のセンサ素子が少なくとも所定の一方向成 分を含む配列方向で、かつ前記表示部の近傍に配置され、
前記制御部は、前記所定の一方向と平行な方向に、前記表示部に操作対象領域 として表示させることが可能な、複数の選択候補項目を並べて表示させると共に、該 複数の選択候補項目の中から少なくとも 1つを操作対象領域として表示させて(即ち 、少なくとも 1つの選択候補項目をフォーカスし)、前記複数の選択候補項目の表示 中に、前記第 1のセンサ素子群を構成する前記複数のセンサ素子における接触検出 の位置の遷移に応じて、前記操作対象領域を変化させるよう制御する、
ことを特徴とする。
[0018] また、本発明のさらに別の実施態様による携帯電子機器は、
前記制御部が、前記第 1のセンサ素子群が有する前記複数のセンサ素子の数と同 数の選択候補項目を前記表示部の画面上に表示する、ことを特徴とする。
[0019] また、本発明のさらに別の実施態様による携帯電子機器は、
前記制御部が、前記複数のセンサ素子のうち、一のセンサ素子による接触検出状 態から隣接するセンサ素子による接触検出状態への遷移を検出して、前記操作対象 領域を 1つ分変化させる、ことを特徴とする。
[0020] また、本発明のさらに別の実施態様による携帯電子機器は、
前記第 1のセンサ素子群を構成する前記複数のセンサ素子と同数のセンサ素子に より構成した第 2のセンサ素子群をさらに備える、ことを特徴とする。
[0021] また、本発明のさらに別の実施態様による携帯電子機器は、
前記第 2のセンサ素子群力 S、前記第 1のセンサ素子群に対して前記表示部を挟ん で対称に配置される、ことを特徴とする。
[0022] また、本発明のさらに別の実施態様による携帯電子機器は、
前記第 1のセンサ素子群の端部が、前記第 2のセンサ素子群の端部と隣同士となる ように配置され、
前記制御部は、前記第 1または第 2のセンサ素子群の一方の複数のセンサ素子の 接触検出の遷移を検出して、該接触検出の位置の遷移に応じて、前記表示部に表 示される前記操作対象領域を一方向に変化させ、さらに連続して他方のセンサ素子 群の複数のセンサ素子の接触検出の遷移を検出して、該接触検出の位置の遷移に 応じて、前記操作対象領域を前記一方向とは逆方向に変化させるよう制御する、 ことを特徴とする。
[0023] また、本発明のさらに別の態様による携帯電子機器の制御方法は、
表示部に隣接して少なくとも所定の一方向成分を含む配列方向で配置され、接触 を検出する複数のセンサ素子における接触検出の位置の遷移を検出するステップと 前記表示部に前記所定の一方向と平行な方向に並べて、操作対象領域として表 示させることが可能な複数の選択候補項目を並べて表示させ、前記検出した遷移に 応じて、前記操作対象領域を変化させるよう制御するステップと、
を有することを特徴とする。
発明の効果
[0024] 本発明によれば、小型の携帯電子機器のような狭い実装面積であっても、本構成 によって快適な操作性およびユーザビリティをユーザに提供することができる。
図面の簡単な説明
[0025] [図 1]本発明を適用した携帯電話端末の基本的な構成を示すブロック図である。
[図 2]センサ素子を筐体に実装した携帯電話端末の斜視図である。
[図 3]本発明を適用した携帯電話端末 100の詳細な機能ブロック図である。 園 4]本発明による携帯電話端末 100のタツチセンサ機能のより詳細な構成を示すブ ロック図である。
園 5]本発明による携帯電話端末 100の構成要素の配置を示す平面図である。 園 6]図 5に示した携帯電話端末の構成要素の分解斜視図である。
園 7]本実施例の携帯電話端末における各センサ素子による接触検知のデータ処理 を説明する概略ブロック図である。
園 8]センサ素子上をユーザがなぞった場合のサブ表示部の応答を説明する図であ 園 9]センサ素子上をユーザがなぞった場合のサブ表示部の応答を説明する図であ
[図 10]離間部 SP1を越えて第 1のセンサ素子群 G1と第 2のセンサ素子群 G2とに連 続して接触した場合のサブ表示部の応答について説明する図である。
園 11]センサ素子検出状態を 16個に分割して示した概念図である。
[図 12]16個の検出状態における移動確定処理(即ち、保留処理)の一例を示すフロ 一チャートである。
[図 13]図 12のフローチャートの処理を図 11のセンサ素子 L1から L4への接触に適用 した場合の確定処理を説明する図である。
[図 14]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 15]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 16]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 17]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 18]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 19]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 20]本発明の実施例 2のセンサ素子の動作を説明する図である。
園 21]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 22]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 23]本発明の実施例 2のセンサ素子の動作を説明する図である。
[図 24]本発明の実施例 3のセンサ素子の動作を説明する図である。 [図 25]本発明の実施例 4のセンサ素子の動作を説明する図である。
[図 26]本発明の変形例のセンサ素子およびサブ表示部のレイアウト例の図である。
[図 27]従来のセンサ素子およびその制御例を説明する図である。
[図 28]従来のセンサ素子およびその制御例を説明する図である。
発明を実施するための最良の形態
[0026] <実施例 1〉
以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。携帯電子機 器の典型例として携帯電話端末に本発明を適用して説明する。図 1は、本発明を適 用した携帯電話端末の基本的な構成を示すブロック図である。図に示すように、携帯 電話端末 100は、制御部 110、センサ部 120、表示部 130、記憶部(フラッシュメモリ など) 140、情報処理部 150、電話機能部 160、キー操作部 KEY、スピーカ SP、さら に、図示しない CDMA(Code Division Multiple Access)通信網に接続して通信を行 う通信部 COMにより構成されている。さらに、センサ部 120は複数のセンサ素子(例 えば、その検知部を機器筐体の外面に設けてあり、指などの物体の接触 ·近接を検 出する接触センサ)を含んだセンサ素子群を、用途に応じて n個、即ち、第 1のセンサ 素子群 Gl、第 2のセンサ素子群 G2および第 nのセンサ素子群 G3を含み、記憶部 1 40は保存領域 142、外部データ保存領域 144から構成されている。制御部 110およ び情報処理部 150は、 CPUなどの演算手段およびソフトウェアモジュールなどから 構成させることが好適である。なお、後述するシリアルインターフェイス部 SI、シリアル インターフェイス部 SIを介して制御部 110に接続される RFIDモジュール RFIDや赤 外線通信部 IR、さらには、カメラ 180やライト 190の他、マイク MIC、ラジオモジユー ノレ RM、電源 PS、電源コントローラ PSCONなどが制御部 110に接続される力 ここ では簡略化のために省略する。
[0027] 図 1のブロック図における各ブロックの機能を簡単に説明する。制御部 110は、セン サ部 120によりユーザの指などの物体の接触を検出し、記憶部 140の保存領域 142 に検出した情報を格納し、情報処理機能部 150により格納した情報の処理を制御す る。そして、処理結果に応じた情報を表示部 130に表示させる。さらに制御部 110は 、通常の通話機能のための電話機能部 160、キー操作部 KEY、およびスピーカ SP を制御する。なお、表示部 130は、サブ表示部 ELDおよび図示しないメイン表示部( 携帯電話端末 100が閉状態にて隠れ、開状態にて露出する位置に設けられる表示 部)を含んで構成される。
[0028] 図 2は、センサ素子を筐体に実装した携帯電話端末の斜視図である。携帯電話端 末 100は、図 2に示すような閉状態の他、ヒンジ部(図示せず)を回動、スライドさせて 開状態を形成することも可能であって、タツチセンサ部 170は閉状態においても操作 可能な位置に設けられている。図 2 (a)は携帯電話端末 100の外観を示す斜視図で ある。携帯電話端末 100は、タツチセンサ部 170 (外観上、センサ部 130、即ちセン サ素子群 Gl , G2を覆う図 6にて後述するパネル PNLが見えている)、カメラ 180、お よびライト 190を備える。図 2 (b)は、タツチセンサの動作の説明のために、パネル PN Lを省略し、センサ素子とサブ表示部 ELD周辺のみの配置を表示した携帯電話端末 100の斜視図である。図のように、センサ素子 L1—L4および R1—R4力 サブ表示 部 ELDの周囲に沿って並べて配置されている。センサ素子 Ll—L4、 Rl—R4、は、 それぞれ第 1のセンサ素子群 Gl、第 2のセンサ素子群 G2を構成している。第 1のセ ンサ素子群と第 2のセンサ素子群は、離間部 SP1、 SP2を隔てて並べられている。第 1のセンサ素子群 G1のレイアウトに対して、第 2のセンサ素子群 G2は、表示部を挟 み、選択候補項目の並べられている方向を中心線とする線対称なレイアウトを持つ。 また、本構成ではサブ表示部 ELDに有機 ELディスプレイを用いてある力 例えば液 晶表示ディスプレイ等を用いることもできる。また、本構成ではセンサ素子として静電 容量式の接触センサを用いたが、薄膜抵抗式の接触センサ等を用いることもできる。
[0029] 図 2の携帯電話端末 100において、サブ表示部 ELDは携帯電話端末 100の用途 に応じた情報を表示する。例えば、携帯電話端末 100を音楽プレーヤーとして用い る場合、サブ表示部 ELDには再生できる曲目が表示される。曲名およびアーティスト 名の組で 1つの項目、即ち、「選択候補項目」となる。ユーザは、操作入力部としてタ ツチセンサ部 170を操作してセンサ素子 R1— R4、 L1 L4の静電容量を変化させ て、サブ表示部 ELDに表示された項目や操作対象領域を移動させ曲目の選択を行 う。このとき、タツチセンサは、図 2のようにサブ表示部 ELDの周囲にセンサ素子を並 ベる構成とすれば、小型な携帯電子機器の外部筐体における実装部分を大きく占有 せずに済み、かつ、ユーザはサブ表示部 ELDの表示を見ながらセンサ素子を操作 すること力 Sでさる。
[0030] 図 3は、本発明を適用した携帯電話端末 100の詳細な機能ブロック図である。言う までもないが、図 3に示す各種ソフトウェアは、記憶部 140に格納されるプログラムに 基づき、同じく記憶部 140上にワークエリアを設けた上で、制御部 110が実行するこ とにより動作する。図に示すように、携帯電話端末の諸機能は、ソフトウェアブロックと ハードウェアブロックとに分かれる。ソフトウェアブロックは、フラグ記憶部 FLGを持つ ベースアプリ BA、サブ表示部表示アプリ API、ロックセキュリティアプリ AP2、その他 アプリ AP3、およびラジオアプリ AP4から構成される。ソフトウェアブロックは、さらに、 赤外線通信アプリ APIRおよび RFIDアプリ APRFも含む。これらの各種アプリ(ァプ リケーシヨンソフトウェア)がハードウェアブロックの各種ハードウェアを制御するときに 、赤外線通信ドライノ IRD、 RFIDドライバ RFD、オーディオドライバ AUD、ラジオド ライバ RD、およびプロトコル PRをドライバとして使用する。例えば、オーディオドライ ノ AUD、ラジオドライバ RD、およびプロトコル PRは、それぞれ、マイク MIC、スピー 力 SP、通信部 COM、およびラジオモジュール RMを制御する。ソフトウェアブロック は、さらに、ハードウェアの操作状態を監視 '検出するキースキャンポートドライバ KS Pも含み、タツチセンサドライバ関連検出、キー検出、折り畳み式やスライド式などの 携帯電話端末の開閉を検出する開閉検出、イヤホン着脱検出などを行う。
[0031] ハードウェアブロックは、ダイヤルキーや後述するタクトスイッチ SW1— 4を含む各 種ボタンなどを含むキー操作部 KEY、ヒンジ部の動作状況などに基づき開閉を検出 する開閉検出デバイス OCD、機器本体付属のマイク MIC、着脱可能なイヤホン EA P、スピーカ SP、通信部 COM、ラジオモジュール RM、シリアルインターフェイス部 SI 、および切替制御部 SWCONから構成される。切替制御部 SWCONは、ソフトウェア ブロックの該当ブロックからの指示に従って、赤外線通信部 IR、 RFIDモジュール(無 線識別タグ) RFID、タツチセンサモジュール TSM (センサ部 120と発振回路などの センサ部 120を駆動する上で必要な部品をモジュール化したもの)のうちのいずれか 1つを選択して当該信号をシリアルインターフェイス部 SIが拾い上げるように選択対 象ハードウェア(IR、 RFID, TSM)を切り替える。電源 PSは、電源コントローラ PSC ONを介して選択対象ハードウェア(IR、 RFID、 TSM)に電力を供給する。
[0032] 図 4は、本発明による携帯電話端末 100のタツチセンサ機能のより詳細な構成を示 すブロック図である。図に示すように、本携帯電話端末 100は、タツチセンサドライバ ブロック TDB、タツチセンサベースアプリブロック TSBA、デバイス層 DL、割込ハンド ラ IH、キュー QUE、 OSタイマー CLK、各種アプリ APを備える。ここでタツチセンサ プリケーシヨンプログラムインターフェース APIを備え、タツチセンサドライバブロック T DBは、タツチセンサドライバ TSDおよび結果通知部 NTFを備える。また、デバイス 層 DLは、切替制御部 SWCON、切替部 SW、シリアルインターフェイス部 SI、赤外 線通信部 IR、 RFIDおよびタツチセンサモジュール TSMを備え、割込ハンドラ IHは、 シリアル割込み監視部 SIMONおよび確認部 CNFを備える。
[0033] 次に、図を参照しながら、各ブロックの機能を説明する。タツチセンサベースアプリ ブロック TSBAにおいて、ベースアプリ BAと、タツチセンサドライバ上位アプリケーシ ヨンプログラムインターフェース APIとの間では、タツチセンサを起動するか否かのや り取りが行なわれる。ベースアプリ BAは、サブ表示部用のアプリケーションであるサ ブ表示部表示アプリ API、セキュリティ保護用に携帯電話端末 100にロックをかける アプリケーションであるロックセキュリティアプリ AP2、その他のアプリ AP3のベースと なるアプリケーションであり、ベースアプリ BAに前記各アプリからタツチセンサの起動 が要求された場合に、前記タツチセンサドライバ上位アプリケーションプログラムイン ターフェース APIにタツチセンサの起動を要求する。なお、サブ表示部とは、各図に て示すサブ表示部 ELDであって、本実施例における携帯電話端末 100においてセ ンサ素子により囲まれた表示部のことを指す。
[0034] 起動の要求を受け、タツチセンサ上位アプリケーションプログラムインターフェース A PIは、ベースアプリ BA内のアプリケーションの起動を管理するブロック(図示せず)に 、タツチセンサの起動が可能か否かの確認を行う。即ち、アプリケーションの選択が実 行されて!/、ることを示すサブ表示部 ELDの点灯、または FMラジオその他の携帯電 話端末 100に付属するアプリケーション等の、あらかじめタツチセンサの起動が不可 能と設定されたアプリケーションの起動を示すフラグの有無を確認する。その結果、タ ツチセンサの起動が可能と判断された場合、タツチセンサ上位アプリケーションプログ ラムインターフェース APIは前記タツチセンサドライバにタツチセンサモジュールの起 動を要求する。即ち、実質的には電源コントローラ PSCONを介した電源 PSからタツ チセンサモジュール TSMへの電源供給を開始する。
[0035] 起動が要求されると、タツチセンサドライバ TSDはデバイス層 DL内のシリアルイン ターフェイス部 SIに要求して、シリアルインターフェイス部 SIにおけるタツチセンサドラ ィバ TSDとのポートを開くように制御する。
[0036] その後、タツチセンサドライバ TSDは、タツチセンサのセンシング結果の情報を有す る信号 (以降、接触信号と記す)を、タツチセンサモジュール TSMが有する内部クロッ クによる 20msの周期で、シリアルインターフェイス部 SIに出力されるように制御する。
[0037] 前記接触信号は、上述した各センサ素子 R1— R4および L1 L4の 8つのセンサ 素子それぞれに対応した 8ビット信号で出力されている。即ち、各センサ素子が接触 を検知したときには、この接触を検知したセンサ素子に対応するビットに、接触検知 を表す「フラグ: 1」を立てた信号であって、これらのビット列によって接触信号が形成 される。つまり、接触信号は「どのセンサ素子」が「接触/非接触のいずれかであるこ と」を示す情報が含まれる。
[0038] 割込ハンドラ IHにおけるシリアル割込み監視部 SIMONは、シリアルインターフェイ ス部 SIに出力された接触信号を取り出す。ここで確認部 CNF力 シリアルインターフ エイス部 SIにおいてあらかじめ設定された条件に従い、取り出した接触信号の True /Falseの確認を行!/、、 True (真)な信号のデータのみをキュー QUEに入れる(信 号の True/Falseの種別については後述する。)。また、シリアル割込み監視部 SIM ONは、タクトスイッチの押下の発生などのタツチセンサ起動中のシリアルインターフエ イス部 SIの他の割込み事象の監視も行う。
[0039] なお、監視部 SIMONは、検出した接触が最初の接触であった場合には「プレス」 を意味する信号を接触信号の前にキュー QUEに入れる(キューイングする)。その後 、オペレーションシステムの有する OSタイマー CLKによるクロック 45ms周期で接触 信号の更新を行い、所定回数接触を検出しなかった場合には「リリース」を意味する 信号をキュー QUEに入れる。このことにより、接触開始からリリースまでのセンサ素子 間での接触検出の移動を監視することができるようになる。なお、「最初の接触」とは
、キュー QUEにデータのない状態、或いは、直近の入力データが「リリース」である場 合に「フラグ: 1」を有する信号が発生する事象を指す。これらの処理により、タツチセ ンサドライバ TSDは、「プレス」から「リリース」の区間のセンサ素子の検出状態を知る こと力 Sでさる。
[0040] 同時に、監視部 SIMONは、タツチセンサから出力される接触信号が Falseとなる条 件を満たす信号であった場合に、「リリース」を意味する信号を擬似的に生成してキュ 一 QUEに入れる。ここで False (偽)となる条件としては、「非連続な 2つのセンサ素子 で接触を検出した場合」、「タツチセンサ起動中に割込みが生じた場合 (例えば、メー ル着信等の通知でサブ表示部 ELDの点灯/消灯状態が変更された場合)」、「タツ チセンサ起動中にキー押下が発生した場合」、または後述するように「複数のセンサ 素子群をまたぐ接触を検出した場合」などが設定される。
[0041] また、監視部 SIMONは、例えば、センサ素子 R2と R3といった隣接する 2つのセン サ素子で同時に接触を検出した場合には、単一の素子を検出した場合と同様に、接 触を検出した素子に対応するビットにフラグが立った接触信号をキュー QUEに入れ
[0042] タツチセンサドライバ TSDは、 45ms周期でキュー QUEから接触信号を読み出し、 読み出した接触信号によって、接触を検知した素子を判定する。タツチセンサドライ ノ订 SDは、キュー QUEから順次に読み出した接触信号により判定した接触の変化、 および、検知した素子との位置関係を考慮して、「接触スタートの素子」、「接触の移 動方向(時計回り/反時計回り)の検出」、および「プレスからリリースまでに移動した 素子の数 (即ち移動距離)」の判定を行う。タツチセンサドライバ TSDは、判定された 結果を結果通知部 NTFに供給するともに、ベースアプリ BAに結果を更新するように 通知する。
[0043] 接触の移動方向および移動距離の判定は、隣接するセンサ素子の検出および各 センサ素子の検出の組合せによって行うが、これには種々の手法(判定ルール)を適 用することができる(詳細について後述する)。例えば、ある 1つのセンサ素子(例えば R2)から隣接するセンサ素子(この例の場合、 R2および R3)へと接触が遷移すると、 その方向に、 1素子分(サブ表示部における 1項目分)移動すると判定する。
[0044] 前述のように、結果の更新がタツチセンサドライバ TSDによってベースアプリ BAに 通知されると、ベースアプリ BAは結果通知部 NTFを確認し、結果通知部 NTFに通 知された情報の内容を、さらに上位のアプリケーションであってタツチセンサ結果を要 するアプリケーション(サブ表示部におけるメニュー画面表示のための表示部表示ァ プリ API、およびロック制御のためのロックセキュリティアプリ AP2など)に通知する。
[0045] 図 5は、本発明による携帯電話端末 100の特にタツチセンサ部 170の構成要素の 配置を示す平面図である。作図および説明の便宜上、一部の構成要素のみを図示 および説明する。図に示すように、有機 EL素子からなる表示部 ELDの周囲に沿って ドーナツ状のパネル PNLが配されている。パネル PNLは、下部に設けるセンサ素子 の感度に影響を与えないように十分に薄くすることが好適である。パネル PNLの下部 には、人体の指の接触/近接を検知できる静電容量型の 8個のセンサ素子 L1 L4 、 R1— R4をほぼ環状に配置してある。左側の 4つのセンサ素子 L1 L4で第 1のセ ンサ素子群、右側の 4つのセンサ素子 R1— R4で第 2のセンサ素子群をそれぞれ構 成している。各センサ素子群内の隣接するセンサ素子の間には、隣接するセンサ素 子同士で接触検出機能に干渉しないように、クリアランス(隙間)を設けて配置してあ る。なお、干渉しないタイプのセンサ素子を用いる場合にはこのクリアランスは不要で ある。第 1のセンサ素子群の一端に位置するセンサ素子 L4と、第 2のセンサ素子群 の一端に位置するセンサ素子 R1との間には、前記クリアランスより大きいクリアランス (例えば、 2倍以上の長さ)である離間部 SP1を設ける。第 1のセンサ素子群 G1の他 端に位置するセンサ素子 L1と、第 2のセンサ素子群 G2の他端に位置するセンサ素 子 R4との間にも、離間部 SP1と同様に離間部 SP2を設ける。このような離間部 SP1、 SP2によって、第 1のセンサ素子群 G1と第 2のセンサ素子群 G2とを別個に機能させ る際に、互いに指が干渉することを防止することができる。
[0046] 第 1のセンサ素子群 G1の各センサ素子は円弧状に配置されているが、これらセン サ素子の各々の中心を結ぶ線(円弧)の中央、即ち、センサ素子 L2および L3の中間 の下部に、タクトスイッチ SW1の中心を配置する。換言すれば、第 1のセンサ素子群 G1の各センサ素子のほぼ中心を結ぶ仮想線の中央の近傍に、タクトスイッチ SW1を 配置する。同様に、第 2のセンサ素子群 G2の各センサ素子の中心を結ぶ円弧 (仮想 線)の中央、即ち、センサ素子 R2および R3の中間の下部に、タクトスイッチ SW2の 中心を配置する(図 6参照)。このように、方向性を連想させない位置である、センサ 素子群の各々のほぼ中心を結ぶ仮想線(図示せず)のほぼ中央にタクトスイッチを配 置することによって、センサ素子上におけるユーザによる指の方向性を持った移動指 示操作による方向指示とは直接関係しな!/、操作を行うスィッチであることを、ユーザ は容易に把握することができる。センサ素子群を結ぶ線の中央ではなく端部(例えば L1や L4)の近傍にタクトスイッチを配置してあると、端部側向きの方向性を連想させ るため、タツチセンサによる移動動作を継続するなどのために長押しする「スィッチ」 であるという誤解をユーザに与え易い。一方、本発明の構成のように、センサ素子群 の各々を結ぶ線の中央にタクトスイッチを配置してあれば、このような誤解を防止する ことができ、より快適なユーザインターフェイスを提供することが可能である。また、セ ンサ素子の下方にタクトスイッチを配して機器外面に露出していないため、機器の外 観上も露出する操作部の部品数を削減でき、複雑な操作を要さなレ、様なスマートな 印象となる。なお、スィッチをパネル PNL下部以外の箇所に設ける場合には、機器 筐体に別途貫通孔を設ける必要があるが、貫通孔を設ける位置によっては筐体強度 の低下が生じ得る。本構成では、パネル PNL、および、センサ素子の下方にタクトス イッチを配することによって、新たな貫通孔を設ける必要がなくなり、筐体強度の低下 も防止できる。
ユーザが、例えば、指で順次にセンサ素子 Ll、 L2、 L3、 L4を円弧状に上方に向 力、つてなぞると、表示部 ELDに表示されている選択候補項目(この場合は、音、表示 、データ、カメラ)のうち選択対象領域 (即ち、フォーカスされた領域/項目であり、例 えば、反転表示や別のカラーでの強調表示された領域など)として表示されている項 目が上方のものに順次変化したり、選択候補項目が上方にスクロールしたりする。所 望の選択候補項目が選択対象領域として表示されているときに、ユーザは、パネル P NLおよびセンサ素子 L2, L3越しにタクトスイッチ SW1を押下して選択決定を行った り、タクトスイッチ SW2を押下して表示自体を別画面に変更したりすることができる。 即ち、パネル PNLは、タクトスイッチ SW1、 SW2を押下するのに十分な可撓性を持 つつ、、或或いいはは、、わわずずかかにに傾傾倒倒可可能能にに機機器器筐筐体体にに取取りり付付けけらられれ、、タタククトトススイイッッチチ SSWW11、、 SS WW22にに対対すするる押押しし子子のの役役もも持持っってていいるる。。
[[00004488]] 図図 66はは、、図図 22、、図図 55にに示示ししたた携携帯帯電電話話端端末末のの構構成成要要素素のの特特ににタタツツチチセセンンササ部部 117700のの 分分解解斜斜視視図図ででああるる。。図図にに示示すすよよううにに、、端端末末筐筐体体のの外外面面ををななすす第第 11のの層層ににはは、、パパネネルル PP NNLLおおよよびび表表示示部部 EELLDDがが配配さされれるる。。第第 11のの層層ののパパネネルル PPNNLLのの下下方方にに位位置置すするる第第 22のの 層層ににはは、、セセンンササ素素子子 LLll——LL44、、 RR11—— RR44がが配配さされれるる。。第第 22のの層層ののセセンンササ素素子子 LL22、、 LL33のの 間間のの下下方方、、おおよよびび、、セセンンササ素素子子 RR22、、 RR33のの間間のの下下方方にに位位置置すするる第第 33のの層層ににはは、、タタククトトスス イイッッチチ SSWW11、、 SSWW22ががそそれれぞぞれれ配配さされれるる。。
[[00004499]] 図図 66でではは、、ススィィッッチチ素素子子ととししててののタタククトトススイイッッチチ SSWW11はは、、セセンンササ素素子子 LL22とと LL33ととのの間間にに 中中心心がが位位置置すするるよよううにに、、ななおおかかつつ第第 11ののセセンンササ素素子子群群 GG11よよりりもも下下((即即ちち、、筐筐体体内内側側よよ りり))にに配配さされれるる例例ににてて示示ししててああるる。。例例ええばば、、ここここでで、、第第 11ののセセンンササ素素子子群群 GG11にに対対すするる操操 作作はは、、第第 11ののセセンンササ素素子子群群 GG11上上にに設設けけらられれるるパパネネルル PPNNLLへへのの指指のの接接触触にによよりり行行わわ れれるるカカ SS、、ここののパパネネルル PPNNLLのの押押圧圧にによよりりタタククトトススイイッッチチ SSWW11をを押押圧圧ででききれればば良良いいたためめ、、 タタククトトススイイッッチチ SSWW11のの配配置置位位置置ととししててはは上上述述ししたた位位置置関関係係にに限限定定さされれるるももののでではは無無くく 、、実実質質上上、、第第 11ののセセンンササ素素子子群群 GG11がが配配さされれるる領領域域にに設設けけらられれてていいれればば良良いい。。つつままりり、、 タタククトトススイイッッチチ SSWW11のの被被押押圧圧部部分分ががセセンンササ素素子子 LL22とと LL33ととのの間間にに限限ららずず、、各各セセンンササ素素 子子のの真真下下にに有有っっててもも、、パパネネルル PPNNLLににててセセンンササ素素子子群群とと同同様様操操作作ででききるる位位置置関関係係ににああ れればば良良いい。。
[[00005500]] 図図 77はは、、本本実実施施例例のの携携帯帯電電話話端端末末ににおおけけるる各各セセンンササ素素子子にによよるる接接触触検検知知ののデデーータタ 処処理理をを説説明明すするる概概略略ブブロロッックク図図ででああるる。。説説明明のの簡簡易易化化ののたためめ、、セセンンササ素素子子 RR11—— RR44にに つついいててののみみ示示ししててああるるがが、、セセンンササ素素子子 LL11——LL44ににつついいててもも同同様様ででああるる。。セセンンササ素素子子 RR 11 RR44のの各各々々ににはは、、高高周周波波がが印印加加さされれてておおりり、、浮浮遊遊容容量量のの変変化化をを考考慮慮ししててキキヤヤリリブブレレ ーーシシヨヨンンしし、、ここののととききのの高高周周波波状状態態をを基基準準ととししてて設設定定さされれるる。。前前処処理理部部 220000にに含含ままれれるる RR11用用前前処処理理部部 220000aa、、 RR22用用前前処処理理部部 220000bb、、 RR33用用前前処処理理部部 220000cc、、 RR44用用前前処処理理部部 220000ddににてて、、そそれれぞぞれれ、、指指のの接接触触ななどどにによよるる静静電電容容量量のの変変化化にに基基づづくく高高周周波波状状態態のの 変変動動をを検検出出すするるとと、、 AA//DD変変換換器器 221100 ((RR11用用 AA//DD変変換換器器 221100aa、、 RR22用用 AA//DD変変換換 器器 221100bb、、 RR33用用 AA//DD変変換換器器 221100cc、、 RR44用用 AA//DD変変換換器器 221100dd))へへとと送送信信さされれ、、接接触触 [0051] デジタル化された信号は制御部 220へと送信されてセンサ素子群としてのまとまつ た信号の集合として、記憶部 230に信号の保持する情報を格納する。その後、シリア ノレインターフェイス部、割り込みハンドラにこの信号が送出され、割り込みハンドラに て、タツチセンサドライバが読み取り可能な信号に変換した後、変換後の信号をキュ 一に入れる。なお、制御部 220は、記憶部 230に格納した情報に基づき、隣接した センサ素子の 2つ以上で接触を検出した時点で方向の検出を行う。図 7では、センサ 素子検出専用の制御部 220および記憶部 230を設けた例を示した力 S、これらの各部 は、図 1の制御部 110および記憶部 140と共用させてもよい。
[0052] <実施例 1〉
以降、図 8— 10において、センサ素子の操作に対する表示部の応答について説明 する。図 8— 10において(a)は、携帯電話端末に実装した表示部と、その周辺に沿つ て並べて配置したセンサ素子のみを、説明の簡易化のために示した概略図、(b)は 時間推移に伴い検知したセンサ素子を示す図、(c)は検知したセンサ素子に応じた サブ表示部 ELDの操作対象領域の位置変化を示す図である。これらの図の(a)に おいて、センサ素子、センサ素子群および離間部には図 2 (b)と同様の符号を付加し てレ、る。また(c)のサブ表示部 ELDの表示にお!/、て、 TIは表示部が表示する項目リ ストのタイトル、 LS;!〜 LS4は選択候補項目(例えば、スクロール可能な幾つかの行) である項目を示す。また(c)の表示部において、操作の対象となる状態にある項目は 、現在の操作対象領域、即ちフォーカスされた領域/項目であることが識別できるよ うに、当該項目にカーソルを配置する、或いは、項目自体を反転表示などで強調表 示する。これらの図では、操作対象領域として表示されている項目にはハッチングを 施して強調して示している。説明の便宜上、「移動対象」を操作対象領域のみで説明 する力 項目自体を移動 (スクロール)させる場合も同様の原理でサブ表示部は動作 する。
[0053] 図 8は、センサ素子上をユーザがなぞった場合のサブ表示部の応答を説明する図 である。同図(a)において矢印 AR1に示す上から下の向きに、例えば指などの接触 手段を用いて各センサ素子上を連続的になぞると、制御部は (b)で示す時間推移で 接触を検知する。この場合の接触(検知結果)は、センサ素子 Rl、 R2、 R3、 R4の順 である。この検知した Rlから R4までの連続した接触は、隣接したセンサ素子の 2つ 以上で接触を検知しているため方向の検出を行い、隣接したセンサ素子を遷移した 回数とその方向に応じて、操作対象領域がサブ表示部 ELDに表示したリスト上を移 動する。この場合は、(c)で示したように、操作対象領域は、初期位置の項目 LS Iか ら項目 LS4まで下方へ項目を 3つ分移動する。なお、操作対象領域は、ハッチング で表してある力 S、ハッチングピッチの狭いものが初期位置であり、ハッチングピッチの 広いものが移動後の位置である。このように、本構成によれば、ユーザの「下方への 指の指示動作」と同じように、表示部の「操作対象領域が下方に移動」するため、ュ 一ザはあた力、も自己の指で操作対象領域を自在に移動させているように感じることに なる。即ち、ユーザの意図した通りの操作感覚が得られる。
[0054] 同様に、同図(a)において矢印 AR2に示す向きにセンサ素子がなぞられたとすると 、この場合(b)で示したように各センサ素子のうちセンサ素子 L4、 L3、 L2、 L1がこの 順に接触を検知し、この場合、矢印 AR1と同じく上から下へ隣接するセンサ素子を 3 つ遷移する接触のため、(c)のように下方に向かって項目 LS Iから項目 LS4まで操 作対象領域が 3つ分移動する。この場合もやはり、ユーザの「上方から下方への指の 指示動作」と同じように、表示部の「操作対象領域が下方に移動」するため、ユーザ は、自分の意図した通りの操作を直感的に行うことができる。
[0055] 図 9は、図 8と逆方向、すなわち下から上にセンサ素子がなぞられた場合を示す図 である。同図(a)に示すように、矢印 AR1の方向になぞられた場合、(b)で示したよう に各センサ素子のうちセンサ素子 R4、 R3、 R2、 Rlがこの順に接触を検出し、矢印 AR2の方向でも同様に、(b)で示したように各センサ素子のうち Ll、 L2、 L3、 L4が この順で接触を検出する。これらの場合、(c)において操作対象領域の初期位置が 項目 LS4であったとすると、両者とも項目 LSIまで下から上へ操作対象領域が 3つ分 移動する。
[0056] このような構成とすることで、第 1のセンサ素子群 122で操作を行っても、第 2のセン サ素子群 124で操作を行っても、各センサ素子群において、ユーザが上方のセンサ 素子から下方のセンサ素子へと指をなぞらせれば、それに対応してサブ表示部 ELD の操作選択領域の選択項目も上方から下方へと移動し、またユーザが下方のセンサ 素子から上方のセンサ素子へと指をなぞらせれば、サブ表示部 ELDの選択項目も 下方から上方へと移動する。したがって、ユーザは、操作対象領域の上下移動と対 応した指の上下動作を間違うことなぐ直感的にサブ表示部 ELDの操作対象領域の 項目を上下に移動させること力 Sできる。
[0057] また、本実施例では、 1つのセンサ素子群が有する複数のセンサ素子の個数と、サ ブ表示部 ELDに表示される選択項目の数を同数としているので、 1つのセンサ素子 群全体を上から下にほたは下から上に)なぞることで、その一度の動作によって、サ ブ表示部 ELDの操作対象領域を上から下にほたは下から上に)全ての選択項目に わたって移動させること力 Sできる。即ち、同一画面上にある項目の中から項目を選択 する場合には、ユーザは、 1つのセンサ素子群上で 1回指をなぞる動作を行うだけで 、サブ表示部 ELD上の任意の項目を選択すること力 Sできる。
[0058] また、このようにすることで、ユーザが指などで離間部 SP1または SP2をまたいで連 続して両方のセンサ素子群をなぞる操作を行う場合には、ユーザの指が一定の円運 動を行うことに基づいて、サブ表示部 ELD上では、操作対象領域の移動を折り返さ せること力 つまり操作対象領域の往復運動をさせることが可能となる。
[0059] 図 10は、離間部 SP1を越えて第 1のセンサ素子群 G1と第 2のセンサ素子群 G2と に連続して接触した場合のサブ表示部の応答について説明する図である。 (a)にお いて矢印 ARで示す左から右の向きに各センサ素子上を連続してなぞると、制御部 は (b)で示す時間推移で接触を検知する。この場合は、センサ素子 L3、 L4、 R1の 順である。図に示すように、第 1のセンサ素子群で接触を検出したセンサ素子の数は 「2」であり、第 2のセンサ素子群のそれは「1」である。従って、第 1のセンサ素子群で 接触を検出したセンサ素子の数の方カ、第 2のセンサ素子群のそれよりも多いため、 第 1のセンサ素子群 G1で検出した「第 1の接触は有効」となり、第 2のセンサ素子群 G 2で検出した「第 2の接触は無効」となる。つまり、この場合は、隣接したセンサ素子を 遷移した回数とその方向に応じて選択されるリストがサブ表示部 ELDに表示したリス ト上を移動し、(c)で示したように操作対象領域は、初期位置である項目 LS2から項 目 LS Iまで上方に向かって項目を 1つ分移動する。
[0060] 図 11は、センサ素子検出状態を単一素子検出状態だけでなぐ隣接する 2つの素 子を更に検出している複数素子検出状態を判定するようにして 16個に分割して示し た概念図である。図 5の構成とほぼ同様であるが、第 1のセンサ素子群 G1と第 2のセ ンサ素子群 G2との間にもタクトスイッチを設けた構成である。即ち、センサ素子 L4と センサ素子 R1との間にタクトスイッチ SW3と、センサ素子 R4とセンサ素子 L1との間 にタクトスイッチ SW4とが新たに設けられている。 8個のセンサ素子の検出状態を 1個 ずつ管理すると、 8個の検出状態を管理できる。し力、しながら、 8個の検出状態では、 状態の数、即ち、状態変化が少ないため、あまり精密な制御はできない。例えば、セ ンサ素子間にまたがって配置されるタクトスイッチ SW1の場合には、タクトスイッチ S W1を押下するときに、先にセンサ素子 L2、 L3に接触が検出されるため、ユーザの 意図しない動作指示となる恐れがある。つまり、センサ素子 L2、 L3の順に検出され た場合には、何らかの決定指示のためのタクトスイッチ SW1押下動作にもかかわらず 、上方への移動指示となってしまい、操作対象領域が上方に「1つだけ、ずれた後」 でタクトスイッチ SW1押下による選択動作が確定したりして、ユーザが意図しない項 目が決定指示されたりするなどの可能性がある。
[0061] 図 11のセンサ素子の構成自体は、図 6のセンサ素子の構成とほぼ同じである。しか しながら、その接触検出の構成を細力べ検出するようにする。例えば、ユーザが指な どで L1にのみ触れている時には L1の接触を検出する力 S、L1と L2との境付近に触れ ている場合には「L1および L2」に触れている状態として検出する。接触が完全に L2 に移行して L1から離れたら、それは L2のみの接触として検出する。そして今度は L2 と L3との境付近に触れて!/、る場合には「L2および L3」に触れて!/、る状態として検出 する。以下同様なやり方で検出する構成とすることで、 8つのセンサ素子しか用いて ないにもかかわらず、 16の検出状態を検出することが可能となる。
[0062] このようなタクトスイッチ SW1— 4の押下処理を適切に処理するために、 16個の検 出状態で 2つまたは 3つの検出状態変化 (移動)を検出するまで、移動指示の確定を 保留する方法がある。また、タクトスイッチの押下が確定した時点でそれまでのセンサ 素子の検出状態 (結果)を破棄する方法も考えられ、以降、フローチャートを参照して 詳細に説明する。
[0063] 図 12は、 16個の検出状態における移動確定処理(即ち、保留処理)の一例を示す フローチャートである。いずれ力、 1個の検出状態がキュー QUEに発生することが検出 される毎に、このフローチャート処理をタツチセンサドライバ TSPが行う。リリースされ た状態から最初に検出した位置(16個のいずれ力、 1つの検出状態)を最初の基準点 とする。この基準点、現在の検出位置 (キュー QUEに新たに入れられた検出状態)、 前回の検出位置(キュー QUEに残されている 1つ前の検出状態)の 3つから、移動距 離 (検出状態の遷移)を判定する。図に示すように、ステップ S10では、前回の位置 がリリースされたか否かを判定する。リリースされていると判定された (キュー QUEに 残っている前回のデータが「リリース」である)場合は、ステップ S12に進み、現在の検 出位置がリリースされたか否力、(即ち、新たに入れられたデータが「リリース」であるか 否か)を判定する。現在の検出位置がリリースされていると判定された場合は処理を 終了し、そうでない場合はステップ S14に進み、基準点と前回の検出位置を現在の 検出位置に設定する。
[0064] ステップ S10で前回の位置がリリースされていないと判定された場合(即ち、他に検 出が生じており、今回の検出がそれに引き続くものである場合)は、ステップ S16に進 み、現在の検出位置がリリースされたか否力、 (即ち、新たに入れられた信号が「リリー ス」であるか否力、)を判定する。現在の検出位置がリリースされていると判定された場 合は、基準点と前回の検出位置を初期化(クリア一)して処理を終える(ステップ S 18) 。ステップ S16で現在の検出位置がリリースされていないと判定された場合は、前回 の検出位置と現在の検出位置との距離を計算して (ステップ S20)、計算した距離が 1または 2であるか否かを判定する(ステップ S22)。計算した距離が 1または 2ではな い(即ち、 3以上)と判定された場合は、センサ素子を飛ばして不連続な検出状態で あると判定し (ステップ S24)、基準点を現在の検出位置に設定し、ステップ S36に進 む。ステップ S22で計算した距離が 1または 2であると判定された場合は、現在の検 出位置と基準点との距離を計算する(ステップ S28)。なお、距離の計算は、キュー Q UEに入れられる信号により、センサ素子ごとの検出位置が分るため、前回の検出位 置と、現在の検出位置との間に、 16個の検出状態のうちの何個分の差があるのかを タツチセンサドライバ TSDが判断して行う。
[0065] また、ステップ S28で計算された距離力 2または 3である否かを判定し(ステップ S3 0)、条件を満たさない場合(即ち、 4以上)はステップ S36にエラーとして進み、条件 を満たす場合(距離が 2または 3である場合)は、移動を確定する(ステップ S32)。即 ち、最初に触れた位置が「基準点」とされ、その後「リリース」されることなく引き続いて 接触が検出され続けると「前回位置」が更新され、最終的に、最新の検出位置である 「現在の位置」が基準点に対して「2または 3移動した」と判定されたときに初めて、「移 動あり」と判定している。さらに、単一素子検出状態および複数素子検出状態を連続 して検出することで、「2の移動」であると判定しているため、センサ素子上では、上記 「2の移動」により初めてセンサ素子 1つ分指が移動していることになる。次の基準点 を前の基準点から移動方向に 2つ移動した位置に設定し (ステップ S34)、ステップ S 36に進む。ステップ S36では、次回の処理のために「前回の検出位置」を「現在の検 出位置」に設定して、処理を終える。
[0066] また、タクトスイッチ SW1— SW4が押下された場合は、押下検出時に設定されてい る前回の検出位置と基準点とを初期化(クリア一)する。次に、このようなフローチヤ一 トの移動確定処理を用いて、図 11のタクトスイッチ SW1、 2が押下された場合の処理 を説明する。タクトスイッチ SW1を押す場合に、「L2検出状態」、「L2— L3検出状態 」の順に検出状態が遷移する場合には、この時点では 1つしか検出状態が遷移 (移 動/変化)していないため、移動は確定しない。タクトスイッチ SW1を押下した後で、 指を離すときに、「L2— L3検出状態」、「L3検出状態」の順に検出状態が遷移する 場合が考えられる。このとき、タクトスイッチ押下までの検出状態が保持されている場 合には、「L2検出状態」、「L2— L3検出状態」、「L3検出状態」の順に検出状態が 2 つ遷移しているため、移動が確定してしまう恐れがある力 S、上述したように、タクトスィ ツチ SW1の押下を検出した時点で、過去の検出結果を破棄してあるため、指を離す ときの誤検出を防止することができ、タクトスイッチのリリース時にセンサ素子の移動指 示であると誤認識することがなレ、。
[0067] 或いは、タクトスイッチ SW1を離すときに、「L2検出状態」、「L2— L3検出状態」の 順に検出状態が遷移することがある。タクトスイッチ押下前の検出結果を破棄しても、 タクトスイッチを離す際に、再度、センサ素子に触れてしまうことが考えられる。しかし 、このような場合であっても、図 12のフローチャートの処理に従えば、検出状態は 1つ しか遷移していないため、タクトスイッチのリリース時にセンサ素子の移動指示である と誤認識することがない。
[0068] 図 13は、図 12のフローチャートの処理を図 11のセンサ素子 L1から L4への接触に 適用した場合の確定処理を説明する図である。図 13に示すように、検出状態変化は 、「: L1検知」、「L1 L2検知」、「L2検知」、「L2— L3検知」「L3検知」、「L3— L4検 知」、「L4検知」となる。即ち、単一素子検出状態と複数素子検出状態と L1から L4ま で繰り返し検知する。まず、初めの「L1検知」が基準点 BP1に設定される(S 14)。次 に「L1—L2検知」が生じると、前回の位置がリリースではなく「L1検知」であるため、 前回の位置と今回検出された現在位置とを比較する(S20)。ここでは L1から「L1 L2」への 1コマの移動であるため有効とされ、今度は基準点と現在位置とを比較する (S28)。ここでは、基準点も前回位置も同じ L1に設定されているため、やはり移動量 は 1コマであり、この段階では移動は確定せず、現在位置の L1 L2検知状態を前 回位置 PP1とする(S36)。
[0069] さらに「リリース」が途中で生じることなく「L2検知」が生じると、前回の位置が「L1— L2検知」であるため、前回の位置と今回検出された現在位置 CP1とを比較する(S2 0)。こでは LI— L2から L2への 1コマの移動であり、「1または 2か?」の判定条件を 満たすため有効とされ、今度は、基準点と現在位置とを比較する(S28)。今回も基準 点は L1検知時と変わらず同じ L1に設定されているため、 L2との位置関係は 2コマで あるため、移動量は 2コマと判定される(S30)。そして、ここで初めて移動が確定する (S32)。そして、次の判定のために、基準点 BP2を「L1検知」から移動方向に 2コマ 遷移させた点、即ち「L2検知」に設定(S34)するとともに、前回位置を現在位置「L2 検知」に再度設定し直して、確定処理 1が完了する。
[0070] このように、タツチセンサドライバは、 2コマの検知状態の遷移を検出することにより、 移動「1」が決定される。つまり、ステップ S32において移動が確定されると、結果通知 部 NTFに移動方向成分 (L1から L4に向力、う時計回り方向、即ち SP2力、ら SP1に向 力、う方向)および「1」の移動を格納すると共に、ベースアプリに対して記憶内容の更 新を通知し、ベースアプリはこの更新内容を抽出してサブ表示部表示アプリ APIなど に通知することになる。サブ表示部表示アプリ APIが使用中ならば、移動方向成分 に基づいて「下から上に向力、う方向」に、「1」の移動量か与えられているので、これに 見合った処理として、サブ表示部 ELDの表示を変化させる。具体的には図 9 (C)に 示すようなリスト表示を行っていて、操作対象領域が LS4に位置している場合には、 確定処理 1に基づき操作対象領域 (フォーカスされた領域)は LS3に移動することと なる。ところで、この確定処理 1と同様に第 2のセンサ素子群である R1—R4に対して 、「R4検知」状態から連続して「R4— R3検知」「R3検知」と継続して検知状態が遷移 したときにもタツチセンサからは移動方向成分に基づいて「下から上に向力、う方向」お よび、「1」の移動量の付与の情報がベースアプリ経由でサブ表示部表示アプリ API に与えられ、リスト表示の画面表示上は第 1のセンサ素子部における操作と同じよう に、操作対象領域は項目 LS4力、ら LS3に変化することとなる。
[0071] 次に、確定処理 1に引き続き、「リリース」が生じることなく指の移動が継続した場合 を説明する。確定処理 1の場合と同様、図 13の確定処理 2に示すように、検知状態 が基準点 BP2から「L2— L3検知」を前回の位置 PP2とし、「L3検知」が現在の位置 CP2となったとき、基準点 BP2と現在の位置 CP2との距離が 2コマとなるため、さらに 移動「 1」が確定する。即ち、確定処理 1に弓 Iき続!/、た確定処理 2の両方により、合計「 2」の移動が確定する。そして、さらに引き続く処理のために、基準点 BP2「L2検知」 力 2コマ先の「L3検知」を新たな基準点 BP3として基準点を変更する。
[0072] 同様に、図 13の確定処理 3に示すように、検知状態が、基準点 BP3から 2コマ進み 、「L3— L4検知」を前回の位置 CP3として「L4検知」が現在の位置 CP3になった時 点で、距離が 2コマとなるため、さらに「1」移動が確定して、確定処理 1 · 2と合わせて 合計「3」個の移動が確定する。このようにして、合計「3」の移動がアプリに通知される こととなる。
[0073] サブ表示部 ELDにおける表示としては、サブ表示部表示アプリ APIに、確定処理
1に引き続いて、「下から上に向力、う方向」に「1」の移動確定が 2回通知されることとな るので、操作対象領域力 LS3から上方向に「2」移動した LS 1にまで変化することとな る。ここで、単一素子検出状態の検出だけではなぐ複数素子検出状態も検出するよ うに構成して検出状態を細分化したにもかかわらず、状態遷移 2コマの移動により確 定する移動量を「1」としたことにより、結局、例のような 4つのセンサ素子で構成される センサ素子時の場合には最大「3」の移動確定を行うようにした。つまり、センサ素子 数 4つの場合に単一素子検出のみによって移動確定を行う場合と、最終的に見た目 の移動量は非常に近似したものとなる力 正確に単一の素子の真上のみを触ってい なくとも、最大「3」の移動量を確保することが出来、ユーザの不正確な操作にも無反 応などとなることなぐユーザの希望に沿う形で対応できることとなる。このようにして、 タツチセンサにより項目が選択され、引き続いてタクトスイッチを押下する際、タツチセ ンサ操作中に当接していたドーナツ状のパネルをそのまま押し込むことによってキー 検出ドライバにより決定の指示をベースアプリ経由でサブ表示部表示アプリなどの使 用中アプリに与えることが出来るため、ユーザにとって指の移動量の少ないさらに快 適なユーザインターフェイスとなる。
[0074] また、センサ素子数が「4」つで構成されるセンサ素子群の場合、初めに当接するセ ンサ素子分「1」を引いた「3」が最大移動確定量となる。よって、サブ表示部 ELDに 選択項目をリスト表示させる際、サブ表示部表示アプリは、センサ素子数「4」と同数 である「4」行の選択項目を表示させることが好まし!/、。このように表示制御することに より、最下部(SP1側)のセンサ素子 L1や R4に初めに接触検出され、最上部(SP2 側)にまで連続し接触検出が継続すると、「3」の移動確定がサブ表示部表示アプリに 供給されるため、最下段(LS4)から最上段(LS I)に選択対象領域が移動することに なる。即ち、最下部から最上部への最大移動が、表示上でも最下段から最上段への 最大移動となるため、タツチセンサへの移動操作とサブ表示部 ELDにおける移動表 示が一致するため、ユーザにとって非常に操作内容を把握し易いユーザインターフ ェイスとすることが出来る。
[0075] さらに、第 1センサ素子群と第 2センサ素子群とがサブ表示部 ELDを挟み、対称な 形態に配されているため、いずれを操作しても同様の操作指示を与えることが出来る 。その上、互いの端部を、隣接して配してあるため、例えば、センサ素子 L1から時計 回りに接触検出状態を遷移させて、センサ素子 R4検知状態にまで至るとき、サブ表 示部 ELD上では次のような表示の変化が生じる。即ち、 L1検出から L4検出時点ま でで最下段 LS4から最上段 LSIにまで操作対象領域が移動し、続いて R1検知して R4まで検知状態が遷移すると最上段 LSIから最下段 LS4に操作対象領域が戻るこ ととなる。これにより、ユーザは一度も指を離さなくとも、選択項目の選択時に上下方 向を付与する手とが出来たり、操作対象領域をもとの位置に戻したりすることができ、 ユーザにとって快適性の高い操作感を与えることが出来る。
[0076] なお、携帯電話機を携帯するユーザが、振動の生じやすい場所にて操作を行った ときに、外部振動によって指の移動中に一瞬タツチセンサから指が離れる場合などが 考られる。このような場合に、センサ素子数分についてのみを検知するという単一素 子検出のみを行って移動検出する粗い検知方式ならば、検知漏れが生じにくいが、 単一素子検出だけでなく複数素子検出状態も検知するような緻密な検知方式とした 場合、瞬間的に指示離れただけでも指は回転動作を継続中であるために検知状態 を 1つ飛ばしてしまう場合も考えられる。し力もながら、ステップ S22にて「前回位置と 現在位置の距離が 1か 2か?」としたことにより、前回位置から 2移動している場合、つ まり前回位置から 1つ飛ばしても連続移動検出状態として扱うことが出来るため、振動 下においてもユーザの希望した動作に極力近づけることが出来る。
[0077] なお、ステップ S30において距離 2コマだけでなく 3コマについても有効としているこ とからも、振動などで指が一瞬はずれたり、素早い操作で検出状態が 1つ飛んで検 出されたりした場合などにも移動操作を検出することが出来る。さらに、 3コマの移動 量検出でも、次の 2コマのときと同様に「1」の移動量確定とするだけでなぐ次回検出 のための基準点の設定は 2コマ移動のときと同様に前回基準点に対して 2コマのみ 移動させるにとどめているため、 3コマ検出による移動確定を行った場合でも、センサ 素子数 nから 1を引いた「n— 1」の移動確定する量を確保することが出来、ユーザにと つてはいかなる触り方をしても同じ動作となるといつた安定した操作感を得ることが出 来るよつになる。
[0078] <実施例 2〉
図 14は、離間部 SP1をまたいで第 1のセンサ素子群 G1と第 2のセンサ素子群 G2 を連続して接触した場合の表示部の応答を説明する図である。同図(a)において矢 印 ARで示す左から右の向きに 2つのセンサ素子上をユーザで指などで連続してな ぞると、制御部は (b)で示す推移で接触を検出する。この場合の接触 (検出結果)は 、センサ素子 L4、 R1の順である。本実施例に係る携帯電話端末 100は、センサ素子 の接触の検出が離間部をまたぐ場合、この離間部をまたぐ前後のセンサ素子の接触 の検出が、それぞれ、各センサ素子群 G1または G2内で 2つ以上のセンサ素子にわ たる場合にはその移動は有効とする。離間部をまたぐ前後のセンサ素子の接触が、 離間部をまたぐ前または後のセンサ素子群 G1および G2内で 1つのみのセンサ素子 でしか検出されない場合には、離間部をまたぐ 1つ分の移動は無効にする。よってこ の場合は、第 1のセンサ素子群でのセンサ素子 L4ひとつの検出の後、離間部 SP1を またいでこれと隣接する第 2のセンサ素子群内のセンサ素子における接触の検出は 、センサ素子 R1による 1つの接触のみであるため、第 1のセンサ素子群 G1で検出し た第 1の接触 L4から第 2のセンサ素子群 G2で検出した第 2の接触 R1への移動は無 効となる。そのため、(c)で示すようにサブ表示部 ELDの操作対象領域は移動しない
[0079] 図 15も、センサ素子上をユーザがなぞった場合のサブ表示部の応答を説明する図 である。同図(a)において矢印 ARに示す下から上の向きに各センサ素子上をユー ザで指などで連続的になぞると、制御部は (b)で示す時間推移で接触を検出する。 この場合は、センサ素子 R2、 R1の順である。図 9の場合と同様に、この場合は、セン サ素子上におけるユーザの指などの動きが離間部 SP1をまたがないため接触検出 の移動は有効となり、(c)で示したように操作対象領域の初期位置が LS2であったと すると、操作対象領域 (フォーカスされた領域)は LSIまで下から上へ項目を 1つ分 移動する。
[0080] 図 16は、図 14と同様に離間部 SP1をまたいで第 1のセンサ素子群 G1と第 2のセン サ素子群 G2を連続して接触した場合のサブ表示部の応答を説明する図である。 (a) において矢印 ARで示す右から左の向きに各センサ素子上をユーザが指などで連続 してなぞると、制御部は (b)で示す時間推移で接触を検出する。この場合は、センサ 素子 Rl、 L4の順である。図 14と同様の考え方により、離間部 SP1をまたぐ前の第 2 のセンサ素子群 G2における第 1の接触はひとつのセンサ素子(R1)のみであり、力、 つ離間部 SP1をまたいだ後の第 1のセンサ素子群 G1における第 2の接触もひとつの センサ素子(L4)のみであるため、 R1から L4への移動は無効となり、(c)で示すよう にサブ表示部 ELDにお!/、て操作対象領域は移動しな!/、。 [0081] 図 17〜図 22は、隣接する 3個のセンサ素子を連続して接触した場合について、離 間分 SP1をまたぐ場合とまたがない場合について示す。図 17は、センサ素子上をュ 一ザが指などでなぞった場合のサブ表示部の応答を説明する図である。同図(a)に おいて矢印 ARに示す下から上の向きに各センサ素子上を連続的になぞると、制御 部は (b)で示す時間推移で接触を検出する。この場合の接触(検出結果)は、センサ 素子 L2、 L3、 L4の順である。図 8の場合と同様に、この場合は、離間部 SP1をまた ぐ移動ではないため L2〜L4の接触の検出は有効となり、(c)で示したように操作対 象領域の初期位置が LS3であったとすると、操作対象領域は項目 LSIまで下から上 へ項目を 2つ分移動する。
[0082] 図 18は、離間部 SP1をまたいで第 1のセンサ素子群 G1と第 2のセンサ素子群 G2と に連続して接触した場合のサブ表示部の応答について説明する図である。 (a)にお いて矢印 ARで示す左から右の向きに各センサ素子上をユーザが指などで連続して なぞると、制御部は (b)で示す時間推移で接触を検出する。この場合の接触 (検出結 果)は、センサ素子 L3、 L4、 R1の順である。この場合は、図に示すように、第 1のセ ンサ素子群で 2つの接触を検出した後に、離間部 SP1を越えて第 2のセンサ素子群 で接触を検出したセンサ素子の数は 1つである。したがって、第 1のセンサ素子群 G1 で検出した第 1の接触(L3から L4)は有効となる力 第 2のセンサ素子群 G2で検出し た第 2の接触への移動(L4から R1)は無効となる。したがって、図 17で説明した場合 と同様に、隣接したセンサ素子を遷移した回数とその方向に応じて選択されるリスト がサブ表示部 ELDに表示したリスト上を移動し、 (c)で示したように操作対象領域の 初期位置が項目 LS2であったとすると、操作対象領域は項目 LS Iまで下から上へ項 目を 1つ分移動する。
[0083] 図 19もまた、センサ素子上をユーザが指などでなぞった場合のサブ表示部の応答 を説明する図である。 (a)において矢印 ARで示す左から右の向きに各センサ素子上 を連続してなぞると、制御部は (b)で示す時間推移で接触を検出する。この場合の接 触(検出結果)は、センサ素子 L4、 Rl、 R2の順である。この場合は、離間部 SP1をま たぐ前の第 1の接触の検出はセンサ素子ひとつのみ(L4のみ)であるので、 L4から 離間部 SP1をまたぐ R1への接触検出の移動は無効である。だ力 S、 R1から R2への移 動は、離間部 SP1をまたいだ後に 2つ分の接触の検出がされるため、その移動は有 効となる。したがって、図 18で説明した場合と同様に、(c)で示したように操作対象領 域の初期位置が項目 LS2であったとすると、この場合、操作対象領域は項目 LS3ま で上から下へ項目を 1つ分移動する。
[0084] 図 20は、センサ素子上をユーザが指などでなぞった場合のサブ表示部の応答を説 明する図である。 (a)において矢印 ARで示す下から上の向きに各センサ素子上を連 続してなぞると、制御部は (b)で示す時間推移で接触を検出する。この場合の接触( 検出結果)は、センサ素子 R3、 R2、 R1の順である。図 17で説明した場合と同様に、 この場合も離間部 SP1をまたがない移動なので、 (c)で示したように操作対象領域の 初期位置が項目 LS3であったとすると、この場合、操作対象領域は項目 LSIまで下 から上へ項目を 2つ分移動する。
[0085] 図 21は、センサ素子上をユーザが指などでなぞった場合のサブ表示部の応答を説 明する図である。 (a)において矢印 ARで示す左から右の向きに各センサ素子上を連 続してなぞると、制御部は (b)で示す時間推移で接触を検出する。この場合の接触( 検出結果)は、センサ素子 R2、 Rl、 L4の順である。 R2から R1への移動は離間部 S P1をまたぐ前の 2つ分の移動であるため有効となる力 S、R1から L4への移動は離間 部 SP1をまたいだ後の接触の検出が 1つのみであるから無効となる。したがって、図 1 8で説明した場合と同様に、 (c)で示したように操作対象領域の初期位置が項目 LS2 であったとすると、この場合、操作対象領域は項目 LS Iまで下から上へ項目を 1つ分 移動する。
[0086] 図 22は、センサ素子上をユーザが指などでなぞった場合のサブ表示部の応答を説 明する図である。 (a)において矢印 ARで示す右から左の向きに各センサ素子上を連 続してなぞると、制御部は (b)で示す推移で接触を検出する。この場合は、センサ素 子 Rl、 L4、 L3の順である。この場合は、第 1の接触は離間部 SP1をまたぐ前の検出 はひとつのみ(R1のみ)であるので、 R1から L4への接触検出の移動は無効である。 一方、 L4から L3への移動は、離間部 SP1をまたいでから 2つ分の接触が検出される ため有効となる。したがって、図 18で説明した場合と同様に、(c)で示したように操作 対象領域の初期位置が項目 LS2であったとすると、この場合、操作対象領域は項目 LS3まで上から下へ項目を 1つ分移動する。
[0087] 以上、離間部 SP1をまたぐ場合についての動作を、離間部をまたがない場合と併 せて説明したが、離間部 SP2をまたぐ場合についても同様の動作となる。
[0088] このようにすることで、ユーザが操作を開始する際に、指の位置が厳密に各センサ 素子群の端部にあるセンサ素子から操作を開始せずとも、その端部を若干越えて、も う一方のセンサ素子群を形成する複数のセンサ素子のうち隣接する 1つのセンサ素 子から操作を開始しても、操作開始点のセンサ素子の接触検出は無効化される。
[0089] したがって、ユーザは、操作の開始点においても、操作の終了点においても、非常 に厳密な指の操作を要求されることはなくなるため、使い勝手が著しく向上する。
[0090] 図 23は、センサ素子上をユーザが指などで一周なぞった場合のサブ表示部の表 示を説明する図である。同図(a)の矢印 ARに示すように、ユーザが指などで、第 1の タツチセンサ群 G1のセンサ素子 L1を始端として、 L2、 L3、 L4の順になぞり、そのま ま離間部 SP1を超えて R1に達し、続けて R2、 R3、 R4の順に、第 2のタツチセンサ素 子群 G2のセンサ素子 R4を終端としてなぞる場合について説明する。この場合、図 2 3 (b)に示すような時間推移で接触が検出される。すなわち、 Ll、 L2、 L3、 L4、 Rl、 R2、 R3、 R4の順に接触が検出される。センサ素子群 G1における L1から L4までの 接触の検出については図 9にて説明した場合と同様の制御になり、図 23 (c)に示す ように、操作対象領域の初期位置が項目 LS4であるとすると、下から上に項目 LS4か ら項目 LS Iまで操作対象領域が 3つ分移動する。次にセンサ素子 L4から離間部 SP 1を超えてセンサ素子 R1の検出がされた瞬間においては、図 14にて説明したのと同 様の制御になり、その検出は無効とされるため、操作対象領域は項目 LS Iのまま移 動しない。次のセンサ素子 R2の検出がされると、図 19にて説明したのと同様の制御 になり、センサ素子 R1からセンサ素子 R2への検出が有効とされるため、操作対象領 域は項目 LSIから LS2まで 1つ分移動する。以下、センサ素子 R2から R3を経て R4 までの連続検出は、離間部 SP1または SP2をまたがないため有効となる。結果的に は、センサ素子群 G2における R1から R4までの接触の検出については、図 8にて説 明した場合と見た目上は同様の制御がなされることになる。すなわち、図 23 (d)に示 すように、センサ素子 R1が検出された時点で項目 LS Iにあった操作対象領域は、セ ンサ素子の検出力 SR2と R3を経て R4に達する時点では、項目 LSIから項目 LS4ま で上から下に 3つ分移動する。
[0091] したがって、この場合、ユーザが指などでタツチセンサ部 170上を一周なぞる動作 を行うと、サブ表示部 ELD上の操作対象領域の項目は、一往復して元の位置に戻る ことになる。
[0092] 図 23においては、ユーザが指などで、センサ素子上を矢印 ARの方向にしたがって 時計回りになぞった場合について説明した力 矢印 ARとは逆方向の反時計回りにな ぞつた場合であっても、センサ素子の検出の順序が上記の場合と逆転するだけであ り、結果としては、センサ素子群 G2における R4から R1までの検出により操作対象領 域は項目 LS4力も LS Iまで下から上に移動し、センサ素子群 G1における L4力も L1 までの検出により操作対象領域は項目 LSIから LS4まで上から下に移動する。
[0093] また、ユーザが指などで、時計回りに、第 2のタツチセンサ群 G2のセンサ素子 R1を 始端として、 R2、 R3、 R4の順になぞり、そのまま離間部 SP2を超えて L1に達し、続 けて L2、 L3、 L4の順に、第 1のタツチセンサ素子群 G1のセンサ素子 L4を終端とし てなぞる場合には、センサ素子群 G2における R1から R4までの接触の検出について は、操作対象領域の初期位置が項目 LSIであるとすると、上から下に項目 LS4まで 操作対象領域が 3つ分移動して、さらにセンサ素子群 G1における L1から L4までの 接触の検出については、項目 LS4から項目 LSIまで下から上に 3つ分移動する。
[0094] さらに、反時計回りに、第 1のタツチセンサ群 G1のセンサ素子 L4を始端として、 L3 、 L2、 L1の順になぞり、そのまま離間部 SP2を超えて R4に達し、続けて R3、 R2、 R 1の順に、第 2のタツチセンサ素子群 G2のセンサ素子 R1を終端としてなぞる場合に も、センサ素子群 G1における L4から L1までの接触の検出については、操作対象領 域の初期位置が項目 LSIであるとすると、上から下に項目 LS4まで操作対象領域が 3つ分移動して、さらにセンサ素子群 G2における R4から R1までの接触の検出につ V、ては、項目 LS4力、ら項目 LS 1まで下から上に 3つ分移動する。
[0095] これにより、ユーザが指をセンサから離すことなく環状に移動させたとしても、元の 位置に指が戻ってきた際には、最初に選択してレ、た項目と同じ項目が選択される状 態とすることができ、ユーザに違和感を与えることがない。 [0096] <実施例 3〉
以上、センサ素子群が 2つの場合を説明したが、センサ素子群は 2つ以上あっても よい。図 24は、第 1のセンサ素子群 G1 (L1〜L3)、第 2のセンサ素子群 G2 (R1〜R 3)および第 3のセンサ素子群 G3 (M1〜M3)の 3つのセンサ素子群が、離間部 SP1 〜SP3を隔ててサブ表示部 ELDの周囲に沿って並べて配置された場合を示す。
[0097] 図 24について説明する。 (a)において矢印 ARで示す左力、ら右の向きに各センサ 素子上をユーザが指などで連続してなぞると、制御部は (b)に示す時間推移で接触 を検出する。この場合は、センサ素子 L2、 L3、 R1の順である。図に示すように、離間 部 SP1をまたぐ前のセンサ素子の接触の検出は 2つ(L2から L3)であり、この移動は 有効となる。また離間部 SP1をまたいだ後のセンサ素子の検出は 1つ(R1のみ)であ るので、離間部 SP1をまたぐ前後の移動(L3から R1)は無効となる。したがって、図 1 8で説明した場合と同様に、 (c)で示したように操作対象領域の初期位置が項目 LS4 であったとすると、この場合、操作対象領域は項目 LS3まで下から上へ項目を 1つ分 移動する。ここで、サブ表示部 ELDの表示は画面上下方向にスクロールする例を示 した力 用途によっては画面左右方向にスクロールするようにしてもよい。
[0098] 本実施例の場合には、センサ素子群 G1およびセンサ素子群 G2については、それ ぞれのセンサ素子群上でユーザが R1から R3へ、または L3から L1へと指をなぞらせ ると、サブ表示部 ELDの操作対象領域が上から下に移動するように制御するのが好 適であり、また R3から R1へ、または L1から L3へと指をなぞらせると、サブ表示部 EL Dの操作対象領域が下から上に移動するように制御するのが好適である。さらにセン サ素子群 G3については、ユーザが Mlから M3へ、または M3から Ml指をなぞらせ た場合、操作対象領域はどちらの場合も 1つ下に移動してから 1つ上に戻るように制 御すれば、ユーザの直感的な操作に対応させることができる。
[0099] <実施例 4〉
図 25は、複数のセンサ素子を有する各センサ素子群が一列に並べられた構成を 示す図である。第 1、第 2および第 3のセンサ素子群 G1〜G3は、離間部 SP1、 SP2 を隔てて一列に直線状に並ぶように配置されている。この場合、サブ表示部 ELD ( (a )には図示せず)はセンサ素子群の列の上または下など、適当な場所に配置する。ま た、ユーザが直感的に操作できるように(即ち、ユーザに指示動作の方向と、表示部 の移動方向とがー致するように)、センサ素子群の方向が横方向の場合には、サブ 表示部 ELDに表示する選択項目の配歹 IJも横方向にするのが好適である。 (a)にお いて矢印 ARで示す左から右の向きにセンサ素子上を連続してなぞると、制御部は( b)で示す時間推移で接触を検出する。この場合は、センサ素子 L3、 Rl、 R2の順で ある。図に示すように、離間部 SP1をまたぐ前のセンサ素子の検出は 1つ(L3のみ) であるので、離間部 SP1をまたぐ前後の移動(L3から R1)は無効となる。また離間部 SP1をまた!/、だ後のセンサ素子の接触の検出は 2つ(R1から R3)であり、この移動は 有効となる。したがって、図 18で説明した場合と同様に、(c)で示したように操作対象 領域の初期位置が項目 LS5であったとすると、この場合、操作対象領域は項目 LS4 まで下から上へ項目を 1つ分移動する。
[0100] 上記実施例においては、センサ素子群の配列は横一列とした力 変形例として、サ ブ表示部 ELDの選択項目が縦に並ぶことに対応させて、センチ素子群の配列も縦 一列にするような構成とすることも当然可能であり、必要な機能、用途およびデザイン に応じて、サブ表示部 ELDの左右、上下などに一列ずつ配置する構成にしてもよい
[0101] また、上記実施例においては、各センサ素子群の間に離間部 SP1および SP2を設 けている力 s、この離間部は携帯電話端末 100の機能および用途に応じて適当な数に すること力 Sできる。また離間部を全く設けずに、ひとつのセンサ素子群のみで縦また は横一列のセンサ素子群を構成することもできる。この場合には離間部をまたぐ上述 のような処理は行なわれなレ、。
[0102] 本発明を諸図面や実施例に基づき説明してきた力 当業者であれば本開示に基 づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの 変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手 段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であ り、複数の手段やステップなどを 1つに組み合わせたり、或いは分割したりすることが 可能である。例えば、実施例では、円環状に設けたセンサ素子レイアウトで説明した 力 U字状や V字状に配置されるセンサ素子群を表示部を挟んで対向配置させても よい。また、センサ素子群は左右の配置の実施例で説明したが、上下 2群で構成して もよい。さらに、実施例では、携帯電話端末を挙げて説明してあるが、電話端末以外 の携帯無線端末、 PDA (パーソナルデジタルァシスタンス)、携帯ゲーム機、携帯ォ 一ディオプレイヤー、携帯ビデオプレイヤー、携帯電子辞書、携帯電子書籍ビューヮ 一などの携帯電子機器に幅広く本発明を適用することが可能である。また、実施例で は、センサ素子として静電容量式の接触センサを挙げたが、前述した薄膜抵抗式、さ らには、受光量の変動によって接触を検知する光学方式、表面弾性波の減衰によつ て接触を検知する SAW方式、誘導電流の発生によって接触を検知する電磁誘導方 式のセンサ素子を用いてもよい。また、接触センサのタイプによっては、指以外の専 用ペンなどの指示器具を使用するものがある力 S、本発明の原理はこのような接触セン サを搭載した携帯電子機器にも適用し得るものである。
さらに、各実施例おいては、各センサ素子群を円環状に配置し、さらにサブ表示部 ELDにおける表示項目の配置は縦に並ぶようにした力 S、必ずしもそのようにする必要 はなぐ携帯電話端末に必要な機能、およびデザインに応じて種々の変更を施すこ とができる。例えば、図 26 (a)に示すように、サブ表示部 ELD上における縦方向の表 示項目の配列に対応して、半円状のセンサ素子群 G1をサブ表示部 ELDの右側ま たは左側だけに配置するような構成や、(b)のようにサブ表示部 ELD上における横 方向の表示項目の配列に対応して、半円状のセンサ素子群 G1をサブ表示部 ELD の上側もしくは下側だけ、または上下に対称的に配置するような構成とすることも可 能である。さらに、サブ表示部 ELDの外周およびセンサ素子群 G1の形状は必ずしも 円形状でなくてもよぐ必要な機能およびデザインに応じて、(c)のようにサブ表示部 ELDを六角形状にしてその右側もしくは左側または左右両側に対称的にセンサ素 子群 G1が沿うように配置することも、さらには上側もしくは下側または上下両側に対 称的にセンサ素子群 G1が沿うように配置することも当然可能である。また図示しない が、サブ表示部 ELDを矩形状にして、その上側もしくは下側または上下両側に対称 的に、あるいは左側もしくは右側または左右両側に対称的に、 U字形や V字形にセ ンサ素子群 G1を配置することも可能である。これらのレイアウトにおいても、センサ素 子群 G1およびそのセンサ素子群 G1を構成する各センサ素子は機能およびデザィ ンに応じて任意の数とすることができることはもちろんである。
[0104] また、本発明の実施の形態においては、センサ素子は円弧状に配されるものの、そ の配列方向は、表示項目が配される方向と一致する第 1の方向、第 1の方向成分と 直交する第 2の方向成分との 2つの直交ベクトル成分にて考えることができる。つまり 、ベクトル成分に分けて、指の移動を考えると、例えばセンサ素子 L1から L4を時計 回り(或いは反時計回り)になぞった場合には、第 1の方向成分に関しては下から上 方向(或いは上から下方向)に、第 2の方向成分に関してはセンサ素子 L1 .L2の段 階では右から左に移りつつ、センサ素子 L3 'L4の段階では左から右に移るということ となる。即ち、第 1の方向成分に関しては、指の移動方向と表示項目の配列方向とが 一致しており、第 1の方向成分における指の移動方向と、表示項目の選択位置変更 方向とがー致することとなり、ユーザにとっては表示項目の選択が直感的に理解し易 いというメリットを生じている。
[0105] さらに、サブ表示部 ELDがより多彩な表示を行うことができるならば、表示項目の配 列を縦或いは横の方向のみではなぐセンサ素子の配され方と一致するように、円状 、或いは円形にこだわらない環状に配置しても良い。この場合、センサ素子の検出位 置の変動の挙動(つまり指の移動の方向および移動速度などを含む、指の総合的な 動作)と、表示項目の選択位置の変動の挙動とを完全に一致させることができ、より 一層、ユーザが直感で操作できることとなり、ユーザビリティがさらに向上する。
関連出願へのクロスリファレンス
[0106] 本願は、 日本国特許出願第 2006-23381号(2006年 8月 18日出願)、および日本国 特許出願第 2006-229511号 (2006年 8月 25日出願)の優先権の利益を主張し、これら の全内容を参照により本願明細書に取り込むものとする。

Claims

請求の範囲
[1] 表示部と、
前記表示部に隣接し、該表示部の周辺に沿うように連続的に並べて配される、接 触を検出する複数のセンサ素子を有する第 1のセンサ素子群と、
前記第 1のセンサ素子群が配される領域に設けられるスィッチ素子と、
前記表示部に操作対象領域として表示させることが可能な選択候補項目を複数表 示させ、前記第 1のセンサ素子群の検出状態変化および前記スィッチ素子の状態を 監視し、前記第 1のセンサ素子群の検出状態変化に基づき、前記選択候補項目およ び/または前記操作対象領域を変更して選択候補項目の選択状態を変更し、前記 スィッチ素子の押下が生じると選択状態にある選択候補項目の実行を行うよう制御す る制御部と、
を備えることを特徴とする携帯電子機器。
[2] 請求項 1に記載の携帯電子機器において、
前記センサ素子群を構成する複数のセンサ素子を配したときの方向成分が、少なく とも第 1の方向を含み、
前記制御部が、前記複数の選択候補項目を前記第 1の方向と平行な方向に並べ て表示し、前記第 1のセンサ素子群の検出状態変化に応じて、前記第 1の方向に沿 つて、前記選択候補項目および/または前記操作対象領域を変更して表示するよう 前記表示部を制御する、
ことを特徴とする携帯電子機器。
[3] 請求項 1に記載の携帯電子機器において、
前記スィッチ素子が、前記複数のセンサ素子の各々の中心を結ぶ線の中央の近傍 に設けられている、
ことを特徴とする携帯電子機器。
[4] 請求項 1に記載の携帯電子機器において、
前記制御部が、
前記選択候補項目の 1つが操作対象領域として表示されている場合は、前記スイツ チ素子の押下を有効とし、 そうでなレ、場合は、前記スィッチ素子の押下を無効とする、
ことを特徴とする携帯電子機器。
[5] 請求項 1に記載の携帯電子機器において、
前記制御部が、前記スィッチ素子の押下を検知した際に、前記複数のセンサ素子 のうちの 1つのセンサ素子のみが接触を検出している場合は、当該 1つのセンサ素子 の接触検出を無効とする、
ことを特徴とする携帯電子機器。
[6] 請求項 1に記載の携帯電子機器において、
前記携帯電子機器が、前記第 1のセンサ素子群に対して前記表示部を挟んで対 称に配置される、複数のセンサ素子を有する第 2のセンサ素子群をさらに備える、 ことを特徴とする携帯電子機器。
[7] 表示部と、該表示部に隣接し、該表示部の周辺に沿うように連続的に並べて配され る、接触を検出する複数のセンサ素子を有する第 1のセンサ素子群と、前記第 1のセ ンサ素子群が配される領域に設けられるスィッチ素子とを備えた携帯電子機器の制 御方法であって、
前記表示部に操作対象領域として表示させることが可能な選択候補項目を複数表 前記第 1のセンサ素子群の検出状態変化および前記スィッチ素子の状態を監視す 前記第 1のセンサ素子群の検出状態変化に基づき前記選択候補項目および/ま たは前記操作対象領域を変更して選択候補項目の選択状態を変更するステップと、 前記スィッチ素子の押下が生じると選択状態にある選択候補項目の実行を行うステ を有することを特徴とする携帯電子機器の制御方法。
隣接してかつ連続的に配置され、接触を検出する複数のセンサ素子を有する第 1 のセンサ素子群と、
前記第 1のセンサ素子群に隣接して配置されて表示部と、
前記表示部への表示を制御する制御部と、 を備え、
前記第 1のセンサ素子群は、前記複数のセンサ素子が少なくとも所定の一方向成 分を含む配列方向で、かつ前記表示部の近傍に配置され、
前記制御部は、前記所定の一方向と平行な方向に、前記表示部に操作対象領域 として表示させることが可能な、複数の選択候補項目を並べて表示させると共に、該 複数の選択候補項目の中から少なくとも 1つを操作対象領域として表示させて、前記 複数の選択候補項目の表示中に、前記第 1のセンサ素子群を構成する前記複数の センサ素子における接触検出の位置の遷移に応じて、前記操作対象領域を変化さ せるよう制御する、
ことを特徴とする携帯電子機器。
請求項 8に記載の携帯電子機器において、
前記制御部は、前記第 1のセンサ素子群が有する前記複数のセンサ素子の数と同 数の選択候補項目を前記表示部の画面上に表示する、
ことを特徴とする携帯電子機器。
請求項 8に記載の携帯電子機器において、
前記制御部は、前記複数のセンサ素子のうち、一のセンサ素子による接触検出状 態から隣接するセンサ素子による接触検出状態への遷移を検出して、前記操作対象 領域を 1つ分変化させる、
ことを特徴とする携帯電子機器。
請求項 8に記載の携帯電子機器において、
前記第 1のセンサ素子群を構成する前記複数のセンサ素子と同数のセンサ素子に より構成した第 2のセンサ素子群をさらに備える、
ことを特徴とする携帯電子機器。
請求項 8に記載の携帯電子機器において、
前記第 2のセンサ素子群は、前記第 1のセンサ素子群に対して前記表示部を挟ん で対称に配置される、
ことを特徴とする請求項 4に記載の携帯電子機器。
請求項 8に記載の携帯電子機器において、 前記第 1のセンサ素子群の端部が、前記第 2のセンサ素子群の端部と隣同士となる ように配置され、
前記制御部は、前記第 1または第 2のセンサ素子群の一方の複数のセンサ素子の 接触検出の遷移を検出して、該接触検出の位置の遷移に応じて、前記表示部に表 示される前記操作対象領域を一方向に変化させ、さらに連続して他方のセンサ素子 群の複数のセンサ素子の接触検出の遷移を検出して、該接触検出の位置の遷移に 応じて、前記操作対象領域を前記一方向とは逆方向に変化させるよう制御する、 ことを特徴とする携帯電子機器。
表示部に隣接して少なくとも所定の一方向成分を含む配列方向で配置され、接触 を検出する複数のセンサ素子における接触検出の位置の遷移を検出するステップと 前記表示部に前記所定の一方向と平行な方向に並べて、操作対象領域として表 示させることが可能な複数の選択候補項目を並べて表示させ、前記検出した遷移に 応じて、前記操作対象領域を変化させるよう制御するステップと、
を有することを特徴とする携帯電子機器の表示制御方法。
PCT/JP2007/064707 2006-08-18 2007-07-26 Dispositif électronique portable et son procédé de commande WO2008020538A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/377,988 US8704771B2 (en) 2006-08-18 2007-07-26 Portable electronic apparatus and control method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006-223381 2006-08-18
JP2006223381A JP4657171B2 (ja) 2006-08-18 2006-08-18 携帯電子機器およびその制御方法
JP2006229511A JP5355850B2 (ja) 2006-08-25 2006-08-25 携帯電子機器および携帯電子機器の表示制御方法
JP2006-229511 2006-08-25

Publications (1)

Publication Number Publication Date
WO2008020538A1 true WO2008020538A1 (fr) 2008-02-21

Family

ID=39082064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/064707 WO2008020538A1 (fr) 2006-08-18 2007-07-26 Dispositif électronique portable et son procédé de commande

Country Status (3)

Country Link
US (1) US8704771B2 (ja)
KR (1) KR101035814B1 (ja)
WO (1) WO2008020538A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110148773A1 (en) * 2009-12-23 2011-06-23 Electrolux Home Products, Inc. User interface with annular touch sensor array
US8570284B2 (en) 2009-12-23 2013-10-29 Electrolux Home Products, Inc. Annular bar graph and multi-segment display
US20140157192A1 (en) * 2008-03-18 2014-06-05 Casio Computer Co., Ltd. Server unit, a client unit, and a recording medium in a computer system

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578451B2 (ja) * 2006-09-15 2010-11-10 京セラ株式会社 電子機器
JP5083178B2 (ja) * 2008-11-10 2012-11-28 富士通モバイルコミュニケーションズ株式会社 電子機器
JP5646915B2 (ja) 2010-08-25 2014-12-24 京セラ株式会社 携帯情報端末、制御方法、およびプログラム
CN102385886B (zh) * 2010-08-27 2014-10-01 联想(北京)有限公司 传感器、控制装置和检测方法
KR101397084B1 (ko) 2012-07-02 2014-05-20 엘지전자 주식회사 이동 단말기
GB201223230D0 (en) * 2012-12-21 2013-02-06 R & D Core Ltd Contact sensor
US9304703B1 (en) 2015-04-15 2016-04-05 Symbolic Io Corporation Method and apparatus for dense hyper IO digital retention
US10133636B2 (en) 2013-03-12 2018-11-20 Formulus Black Corporation Data storage and retrieval mediation system and methods for using same
US9817728B2 (en) 2013-02-01 2017-11-14 Symbolic Io Corporation Fast system state cloning
US9170659B2 (en) * 2013-05-23 2015-10-27 Lg Electronics Inc. Mobile terminal
JP2015066352A (ja) * 2013-09-30 2015-04-13 オムロン株式会社 遊技機
JP2015066354A (ja) * 2013-09-30 2015-04-13 オムロン株式会社 遊技機
EP3002932B1 (en) * 2014-09-19 2017-11-08 LG Electronics Inc. Mobile terminal with cover
US9671828B2 (en) 2014-09-19 2017-06-06 Lg Electronics Inc. Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same
US10061514B2 (en) 2015-04-15 2018-08-28 Formulus Black Corporation Method and apparatus for dense hyper IO digital retention
US10572186B2 (en) 2017-12-18 2020-02-25 Formulus Black Corporation Random access memory (RAM)-based computer systems, devices, and methods
US10725853B2 (en) 2019-01-02 2020-07-28 Formulus Black Corporation Systems and methods for memory failure prevention, management, and mitigation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355606A (ja) * 2003-02-14 2004-12-16 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111695A (ja) 1992-09-29 1994-04-22 Pioneer Electron Corp ジョグダイヤル状スイッチ
JPH11194863A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk タッチ入力検知方法及びタッチ入力検知装置
US6535200B2 (en) * 1999-01-25 2003-03-18 Harald Philipp Capacitive position sensor
US6504530B1 (en) * 1999-09-07 2003-01-07 Elo Touchsystems, Inc. Touch confirming touchscreen utilizing plural touch sensors
NO20003974L (no) * 2000-02-18 2001-08-20 Ziad Badarneh Manöverinnretning
KR20000064177A (ko) * 2000-05-01 2000-11-06 권용순 이동 단말기
GB0114458D0 (en) * 2001-06-14 2001-08-08 Lucas Industries Ltd An in-vehicle display system
WO2003030092A1 (en) * 2001-09-04 2003-04-10 Ziad Badarneh Operating device for controlling functions in electronic equipment
JP4035418B2 (ja) * 2001-10-31 2008-01-23 株式会社本田電子技研 近接スイッチおよび物体検出装置
US7009599B2 (en) * 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
AU2003213780B2 (en) * 2002-03-08 2008-03-13 Quantum Interface, Llc Electric device control apparatus
GB2386707B (en) * 2002-03-16 2005-11-23 Hewlett Packard Co Display and touch screen
JP3975799B2 (ja) 2002-03-25 2007-09-12 ブラザー工業株式会社 ダイアル式操作装置、およびそれを備える印刷装置
US7466307B2 (en) 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
GB0208655D0 (en) * 2002-04-16 2002-05-29 Koninkl Philips Electronics Nv Electronic device with display panel and user input function
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US20050168441A1 (en) * 2002-11-05 2005-08-04 Fujitsu Limited Display control device, display control method, computer product
WO2004075146A1 (ja) * 2003-02-20 2004-09-02 Shimane Prefecture ガードを備えた画像表示装置
JP2004311196A (ja) 2003-04-07 2004-11-04 Alps Electric Co Ltd 入力装置
KR20030036586A (ko) * 2003-04-23 2003-05-09 김홍경 스피드 키 패드
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US7499040B2 (en) * 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
JP2005122271A (ja) 2003-10-14 2005-05-12 Sony Ericsson Mobilecommunications Japan Inc 携帯型電子装置
JP2005250595A (ja) * 2004-03-01 2005-09-15 Nec Saitama Ltd 携帯端末
KR100675181B1 (ko) 2005-05-09 2007-01-30 엘지전자 주식회사 이동통신단말기의 키패드장치
US7728818B2 (en) * 2005-09-30 2010-06-01 Nokia Corporation Method, device computer program and graphical user interface for user input of an electronic device
JP2007122326A (ja) * 2005-10-27 2007-05-17 Alps Electric Co Ltd 入力装置および前記入力装置を使用した電子機器
US7825797B2 (en) * 2006-06-02 2010-11-02 Synaptics Incorporated Proximity sensor device and method with adjustment selection tabs
US20080036595A1 (en) * 2006-08-11 2008-02-14 Trident Security Concepts, Llc Self-contained security system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355606A (ja) * 2003-02-14 2004-12-16 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140157192A1 (en) * 2008-03-18 2014-06-05 Casio Computer Co., Ltd. Server unit, a client unit, and a recording medium in a computer system
US20110148773A1 (en) * 2009-12-23 2011-06-23 Electrolux Home Products, Inc. User interface with annular touch sensor array
CN102859874A (zh) * 2009-12-23 2013-01-02 伊莱克斯家用产品公司 具有环形触摸传感器阵列的用户接口
US8570284B2 (en) 2009-12-23 2013-10-29 Electrolux Home Products, Inc. Annular bar graph and multi-segment display
US8730185B2 (en) * 2009-12-23 2014-05-20 Electrolux Home Products, Inc. User interface with annular touch sensor array
AU2010336364B2 (en) * 2009-12-23 2014-11-27 Electrolux Home Products, Inc. User interface with annular touch sensor array

Also Published As

Publication number Publication date
US8704771B2 (en) 2014-04-22
KR101035814B1 (ko) 2011-05-20
KR20090042851A (ko) 2009-04-30
US20100164871A1 (en) 2010-07-01

Similar Documents

Publication Publication Date Title
WO2008020538A1 (fr) Dispositif électronique portable et son procédé de commande
JP4898813B2 (ja) 携帯電子機器
JP5184018B2 (ja) 電子機器
JP4741673B2 (ja) 携帯電子機器および携帯電子機器の制御方法
KR101069072B1 (ko) 전자기기
JP5064395B2 (ja) 携帯電子機器および入力操作判定方法
JP4657171B2 (ja) 携帯電子機器およびその制御方法
JP5295488B2 (ja) 携帯電子機器およびその制御方法
JP5542975B2 (ja) 電子機器
JP4657174B2 (ja) 表示機器
JP5046802B2 (ja) 携帯電子機器
JP5355850B2 (ja) 携帯電子機器および携帯電子機器の表示制御方法
JP2008052586A (ja) 携帯電子機器及びその制御方法
JP4721986B2 (ja) 携帯電子機器および携帯電子機器の制御方法
KR101058256B1 (ko) 휴대 전자 기기 및 휴대 전자 기기의 조작 검출 방법
JP2008052429A (ja) 携帯電子機器
JP5122779B2 (ja) 携帯電子機器
JP4907264B2 (ja) 携帯電子機器及びその制御方法
JP2008052567A (ja) 携帯電子機器および携帯電子機器の操作検出方法
JP2011258241A (ja) 携帯電子機器および携帯電子機器の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07791407

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020097005491

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 07791407

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12377988

Country of ref document: US