Die Evolution der Touchscreen-Technologie

Die Evolution der Touchscreen-Technologie / Technologie erklärt

Im Tech-Raum bewegt sich die Zeit schnell; Vor etwas mehr als sieben Jahren gab es Smartphones, wie wir sie kennen, nicht - jetzt sind sie die profitabelste Tech-Industrie auf der Erde (und sind so verbreitet, dass es tatsächlich ein Problem ist, wie man die Smartphone-Sucht heilt) Heilung von Smartphone-Sucht (eine Smartphone-Detox) Smartphone-Sucht ist real und Sie könnten davon betroffen sein. Weitere Informationen. Eine Folge davon ist, dass man leicht aus den Augen verlieren kann, wie revolutionär und wichtig die von uns eingesetzten Technologien wirklich sind.

Touchscreens und Multitouch-Schnittstellen sind heute ein fester Bestandteil der Grundsprache der Mensch-Computer-Interaktion. Alle zukünftigen Benutzeroberflächen werden Echos von Touch-Interfaces mit sich führen, genauso wie Tastatur und Maus die Sprache der nach ihnen folgenden Interfaces dauerhaft geändert haben. Zu diesem Zweck nehmen wir uns heute einen Moment Zeit, um darüber zu sprechen, wie die Touchscreens und die Schnittstellen, die sie ermöglichen, entstanden sind und wohin sie gehen.

Nehmen Sie sich jedoch zunächst einen Moment Zeit und schauen Sie sich dieses Video an:

Hören Sie den Ton, den das Publikum macht, wenn es Zeuge ist Zum Entsperren schieben und zum Blättern scrollen zum ersten Mal. Diese Leute waren völlig umgehauen. So etwas haben sie noch nie gesehen. Steve Jobs hätte genauso gut durch den Bildschirm gegriffen und eine BLT aus dem Äther geholt, soweit es sie betrifft. Diese grundlegenden Berührungsinteraktionen, die wir für selbstverständlich halten, waren für sie völlig neu und hatten einen offensichtlichen Wert. Wie sind wir dorthin gekommen? Was musste passieren, um an diesem Tag im Jahr 2007 zu kommen?

Geschichte

Überraschenderweise war das erste Touchscreen-Gerät (wie moderne Telefone und nicht die resistive Technologie der 1980er und 1990er Jahre) kapazitiv und stammt aus der Zeit um 1966. Das Gerät war ein Radarschirm, der von der Royal Radar Establishment für die Flugsicherung verwendet wurde. und wurde zu diesem Zweck von EA Johnson erfunden. Der Touchscreen war sperrig, langsam, ungenau und sehr teuer, wurde jedoch (bis auf die Kreditgeber) bis in die 1990er Jahre verwendet. Die Technologie erwies sich als weitgehend unpraktisch, und fast ein Jahrzehnt lang wurden keine großen Fortschritte erzielt.

Die Technologie, die bei dieser Art von monotouch-kapazitivem Bildschirm verwendet wird, ist eigentlich ziemlich einfach. Sie verwenden ein Blatt aus einem leitfähigen, transparenten Material, durch das ein kleiner Strom fließt (ein statisches Feld erstellt wird) und der Strom an jeder der vier Ecken gemessen wird. Wenn ein Gegenstand wie ein Finger den Bildschirm berührt, bildet die Lücke zwischen der geladenen Platte und dem Kondensator einen Kondensator. Durch Messen der Kapazitätsänderung an jeder Ecke der Platte können Sie herausfinden, wo das Berührungsereignis auftritt, und es an den zentralen Computer zurückmelden. Diese Art von kapazitivem Touchscreen funktioniert, ist jedoch nicht sehr genau und kann nicht mehr als ein Berührungsereignis auf einmal protokollieren.

Das nächste große Ereignis in der Touchscreen-Technologie war 1977 die Erfindung des resistiven Touchscreens, einer Innovation, die von einer Firma namens Elographics gemacht wurde. Resistive Touchscreens arbeiten mit zwei Bögen aus flexiblem, transparentem Material, auf denen jeweils Leiterbahnen in entgegengesetzte Richtungen geätzt sind. Jede Leitung erhält eine eindeutige Spannung, und der Computer wechselt schnell zwischen dem Testen der Spannung jedes Blattes. Beide Leitungssätze (horizontal und vertikal) können auf Spannung getestet werden, und der Computer wechselt schnell zwischen der Einspeisung von Strom in die Horizontale und dem Prüfen auf Strom in der Vertikalen und umgekehrt. Wenn ein Objekt gegen den Bildschirm gedrückt wird, berühren sich die Linien auf den beiden Blättern, und die von beiden Kombinationen bereitgestellten Spannungen zeigen an, welche vertikalen und horizontalen Linien aktiviert wurden. Der Schnittpunkt dieser Linien gibt den genauen Ort des Berührungsereignisses an. Resistive Bildschirme haben eine sehr hohe Genauigkeit und werden nicht durch Staub oder Wasser beeinträchtigt. Diese Vorteile werden jedoch durch eine umständlichere Bedienung erzielt: Die Bildschirme benötigen deutlich mehr Druck als kapazitiver (wodurch Swipe-Interaktionen mit den Fingern nicht praktikabel sind) und können keine Mehrfachberührung registrieren Veranstaltungen.

Diese Touchscreens erwiesen sich jedoch als gut und kostengünstig, um nützlich zu sein, und wurden für verschiedene Anwendungen mit festen Terminals verwendet, darunter Controller für industrielle Maschinen, Geldautomaten und Checkout-Geräte. Bis in die 1990er Jahre, als mobile Geräte erstmals auf den Markt kamen, kamen Touchscreens jedoch nicht wirklich auf. Der Newton, der erste PDA, der 1997 von Apple, Inc. herausgebracht wurde, war ein damals revolutionäres Gerät, das einen Taschenrechner, einen Kalender, ein Adressbuch und eine Notiz-App kombinierte. Es verwendete einen resistiven Touchscreen, um eine Auswahl und Eingabe von Text (über frühzeitige Handschrifterkennung) vorzunehmen, und unterstützte die drahtlose Kommunikation nicht.

Der PDA-Markt entwickelte sich in den frühen 2000er Jahren weiter und wurde schließlich mit Mobiltelefonen zu den ersten Smartphones. Beispiele hierfür waren die frühen Treos- und BlackBerry-Geräte. Diese Geräte waren jedoch stiftabhängig und versuchten normalerweise, die Struktur von Desktop-Software nachzuahmen, die auf einem winzigen, mit einem Stift bedienbaren Touchscreen mühsam wurde. Diese Geräte (ein bisschen wie Google Glass Google Glass Review und Giveaway Google Glass Review und Giveaway Wir hatten das Glück, ein Paar Google Glass zur Überprüfung zu bekommen, und wir geben es weiter! Heute lesen Sie mehr) waren ausschließlich die Domäne der Macht - Unternehmer und Geschäftsleute, die tatsächlich die Fähigkeit benötigen, ihre E-Mails unterwegs zu lesen.

Das hat sich 2007 mit der Einführung des iPhone geändert, das Sie gerade angeschaut haben. Das iPhone führte einen präzisen, kostengünstigen Multi-Touch-Bildschirm ein. Die vom iPhone verwendeten Multi-Touch-Bildschirme basieren auf einer sorgfältig geätzten Matrix aus Kapazitätsmessdrähten (anstatt Änderungen an der gesamten Kapazität des Bildschirms zu treffen, kann dieses Schema erkennen, welche einzelnen Wells Kapazitäten aufbauen). Dies ermöglicht eine erheblich höhere Präzision und die Registrierung mehrerer Berührungsereignisse, die ausreichend weit voneinander entfernt sind (wodurch Gesten wie "Pinch to Zoom" und bessere virtuelle Tastaturen möglich sind). Um mehr über die Bedienung verschiedener Touchscreens zu erfahren, lesen Sie unseren Artikel zum Thema Kapazitive vs. resistive Touchscreens: Was sind die Unterschiede? Kapazitive vs. resistive Touchscreens: Was sind die Unterschiede? Kapazitive und resistive Touchscreen-Geräte gibt es heutzutage überall, aber was ist der Unterschied und wie funktionieren sie? Weiterlesen .

Die große Neuerung, die das iPhone mit sich brachte, war jedoch die Idee einer physischen Software. Virtuelle Objekte in iOS befolgen physische Intuitionen - Sie können sie verschieben und bewegen, und sie haben Masse und Reibung. Es ist, als ob Sie mit einem Universum aus zweidimensionalen Objekten zu tun haben, das Sie einfach durch Berühren bearbeiten können. Dies ermöglicht eine wesentlich intuitivere Benutzeroberfläche, da jeder eine vorab gelernte Intuition für die Interaktion mit physischen Dingen besitzt. Dies ist wahrscheinlich die wichtigste Idee in der Mensch-Computer-Interaktion seit der Idee von Windows, und es hat sich verbreitet: Nahezu alle modernen Laptops unterstützen Multi-Touch-Gesten. So aktivieren Sie einfach die Zwei-Finger-Scrollfunktion in Windows Laptops So aktivieren Sie einfach die Zwei-Finger-Scrollfunktion in Windows Laptops Lesen Sie mehr, und viele von ihnen verfügen über Touchscreens.

Seit der Einführung des iPhone haben eine Reihe anderer mobiler Betriebssysteme (insbesondere Android und Windows Phone) die Kernideen von iOS erfolgreich reproduziert und in vielerlei Hinsicht übertroffen. Upgrade auf Windows Phone 8.1 & Genießen Sie einen neuen App Store Schnittstelle! Aktualisieren Sie auf Windows Phone 8.1 und genießen Sie eine neue App Store-Oberfläche! Eine der vielen Änderungen am Windows Phone 8.1-Upgrade ist die Überarbeitung des App-Stores. Diese Verbesserung macht die Verwaltung Ihrer Apps wesentlich einfacher, wie Sie gleich sehen werden. Weiterlesen . Das iPhone erhält jedoch Anerkennung für die Definition des Formfaktors und der Designsprache, mit der alle zukünftigen Geräte funktionieren würden.

Was kommt als nächstes

Multitouch-Bildschirme werden wahrscheinlich weiterhin in Bezug auf Auflösung und Anzahl der gleichzeitig registrierbaren Berührungsereignisse verbessert werden, aber die wirkliche Zukunft liegt zumindest für den Moment in Software. Mit der neuen Initiative für Materialdesign von Google werden die Arten der auf den verschiedenen Plattformen zulässigen UI-Interaktionen drastisch eingeschränkt, wodurch eine standardisierte, intuitive Sprache für die Interaktion mit Software geschaffen wird. Die Idee ist, so zu tun, als würden alle Benutzeroberflächen aus magischem Papier bestehen, das schrumpfen oder wachsen und herumbewegen kann, aber nicht andere Aktionen ausführen kann, die im Formfaktor des Geräts nicht möglich wären. Objekte, die der Benutzer zu entfernen versucht, müssen aus dem Bildschirm gezogen werden. Wenn ein Element verschoben wird, befindet sich immer etwas darunter. Alle Objekte haben Masse und Reibung und bewegen sich auf vorhersagbare Weise.

In vielerlei Hinsicht ist Materialdesign eine weitere Verfeinerung der in iOS eingeführten Ideen, um sicherzustellen, dass alle Interaktionen mit der Software in derselben Sprache und Stilrichtung stattfinden. dass Benutzer nie mit widersprüchlichen oder nicht-intuitiven Interaktionsparadigmen umgehen müssen. Die Idee besteht darin, Benutzern zu ermöglichen, sehr leicht die Regeln für die Interaktion mit Software zu erlernen, und darauf vertrauen zu können, dass neue Software auf die Weise funktioniert, wie sie es erwartet.

Die Mensch-Computer-Schnittstellen nähern sich der nächsten großen Herausforderung, die darin besteht, den „Bildschirm“ vom Touchscreen zu entfernen - die Entwicklung von immersiven Schnittstellen, die für VR- und AR-Plattformen wie den Oculus Rift entwickelt wurden (lesen Sie unseren Testbericht Oculus.) Rift Development Kit - Überblick und Gewinnspiel Oculus Rift Development Kit - Überblick und Gewinnspiel Der Oculus Rift ist endlich da und bringt die Köpfe (im wahrsten Sinne des Wortes) in die gesamte Spielegemeinschaft. Wir sind nicht mehr darauf beschränkt, durch ein flaches Fenster in die Spielewelten zu blicken wir lieben… Lesen Sie weiter) und zukünftige Versionen von Google Glass. Berührungsinteraktionen räumlich gestalten, ohne dass die erforderlichen Gesten ermüdend werden (“Gorilla-Arm”) ist ein wirklich hartes Problem, das wir noch nicht gelöst haben. Wir sehen die ersten Hinweise, wie diese Schnittstellen mit Geräten wie Kinect und Leap Motion aussehen könnten (lesen Sie unseren Testbericht Leap Motion Review und Giveaway.) Leap Motion Review und Giveaway. Die Zukunft besteht in Gestensteuerungen sollten alle Ihre Computerbildschirme berühren, Ihre Arme vor Ihrer Xbox bewegen und Ihren Weg zum virtuellen Sportsieg wackeln (mehr lesen), aber diese Geräte sind begrenzt, da der angezeigte Inhalt immer noch an einem Bildschirm hängen bleibt. Dreidimensionale Gesten zur Interaktion mit zweidimensionalen Inhalten zu machen ist zwar nützlich, hat aber nicht die gleiche intuitive Leichtigkeit wie bei der Interaktion unserer 3D-Gesten mit 3D-Objekten, die den Raum physisch mit uns zu teilen scheinen. Wenn unsere Schnittstellen das können, dann haben wir den iPhone-Moment für AR und VR, und dann können wir wirklich anfangen, die Design-Paradigmen der Zukunft ernsthaft auszuarbeiten.

Das Design dieser zukünftigen Benutzeroberflächen wird von der Arbeit mit Touch profitieren: Virtuelle Objekte werden wahrscheinlich Masse und Reibung haben und starre Hierarchien der Tiefe erzwingen. Diese Arten von Schnittstellen haben jedoch ihre eigenen besonderen Herausforderungen: Wie geben Sie Text ein? Wie verhindern Sie die Ermüdung der Arme? Wie vermeiden Sie es, die Ansicht des Benutzers durch fremde Informationen zu blockieren? Wie packst du ein Objekt, das du nicht fühlen kannst??

Diese Probleme werden immer noch geklärt, und die Hardware, die zur Erleichterung dieser Art von Schnittstellen benötigt wird, befindet sich noch in der Entwicklung. Trotzdem wird es bald hier sein: sicherlich weniger als zehn Jahre und wahrscheinlich weniger als fünf. In sieben Jahren könnten wir auf diesen Artikel genauso zurückschauen, wie wir heute auf die iPhone-Keynote zurückblicken, und uns fragen, wie sehr wir uns über solche offensichtlichen Ideen wundern konnten.

Bildnachweise: “SterretjiRadar”, von Ruper Ganzer, “Singular”, von Windell Oskay, “Android isst Apple”, von Aidan

Erfahren Sie mehr über: Touchscreen.