Die neueste Computertechnologie, die Sie sehen müssen, um zu glauben
Das Moore-Gesetz, die Binsenweisheit, dass die Menge an reiner Rechenleistung, die für einen Dollar zur Verfügung steht, sich etwa alle 18 Monate verdoppelt, ist seit 1965 Teil der Computerwissenschaft, als Gordon Moore den Trend zum ersten Mal beobachtete und ein Papier darüber schrieb. Zu der Zeit die “Gesetz” bisschen war ein Scherz. 49 Jahre später lacht niemand.
Im Moment werden Computerchips mit einer immens verfeinerten, aber sehr alten Herstellungsmethode hergestellt. Platten sehr reiner Siliziumkristalle werden mit verschiedenen Substanzen beschichtet, mit hochpräzisen Laserstrahlen graviert, mit Säure geätzt, mit hochenergetischen Verunreinigungen bombardiert und galvanisiert.
Es gibt mehr als zwanzig Schichten dieses Prozesses, die nanoskalige Komponenten mit einer Präzision aufbauen, die ehrlich gesagt irrsinnig ist. Leider können diese Trends nicht ewig andauern.
Wir nähern uns rasch dem Punkt, an dem die Transistoren, die wir gravieren, so klein sein werden, dass exotische Quanteneffekte den Grundbetrieb der Maschine verhindern. Es ist allgemein bekannt, dass die neuesten Entwicklungen der Computertechnologie bis 2020 an die grundlegenden Grenzen von Silizium stoßen werden, wenn Computer etwa sechzehnmal schneller sind als heute. Damit sich der allgemeine Trend des Mooreschen Gesetzes fortsetzen kann, müssen wir uns von Silizium genauso trennen, wie wir es mit Vakuumröhren gemacht haben, und mit dem Bau neuer Chips beginnen, die neue Technologien verwenden, die mehr Raum für Wachstum haben.
4. Neuromorphe Chips
Während sich der Elektronikmarkt in Richtung intelligenterer Technologien bewegt, die sich an die Benutzer anpassen und mehr intellektuelle Grunzarbeit automatisieren, konzentrieren sich viele der Probleme, die Computer lösen müssen, auf maschinelles Lernen und Optimierung. Eine leistungsfähige Technologie, die zur Lösung solcher Probleme verwendet wird, sind "neuronale Netzwerke".
Neuronale Netzwerke spiegeln die Struktur des Gehirns wider: Sie haben Knoten, die Neuronen darstellen, und gewichtete Verbindungen zwischen diesen Knoten, die Synapsen darstellen. Informationen fließen durch das Netzwerk, manipuliert durch die Gewichte, um Probleme zu lösen. Einfache Regeln legen fest, wie sich die Gewichte zwischen Neuronen ändern, und diese Änderungen können genutzt werden, um Lernverhalten und intelligentes Verhalten zu erzeugen. Diese Art des Lernens ist rechenintensiv, wenn es von einem herkömmlichen Computer simuliert wird.
Neuromorphe Chips versuchen dieses Problem zu lösen, indem sie spezielle Hardware verwenden, die das Verhalten und das Training von Neuronen simuliert. Auf diese Weise kann eine enorme Beschleunigung erreicht werden, während Neuronen verwendet werden, die sich mehr wie die echten Neuronen im Gehirn verhalten.
IBM und DARPA haben die Forschung im Bereich der neuromorphen Chips durch ein Projekt namens SyNAPSE angeführt, das wir bereits erwähnt haben, bevor Sie es nicht glauben werden: DARPA Future Research in fortgeschrittene Computer Sie werden es nicht glauben: DARPA Future Research in Advanced Computers DARPA ist einer der faszinierendsten und geheimnisvollsten Teile der US-Regierung. Im Folgenden sind einige der fortschrittlichsten Projekte von DARPA aufgeführt, die die Welt der Technologie verändern sollen. Weiterlesen . Synapse hat das endgültige Ziel, ein System zu schaffen, das einem kompletten menschlichen Gehirn entspricht und in Hardware implementiert ist, die nicht größer ist als ein echtes menschliches Gehirn. In naher Zukunft plant IBM, neuromorphe Chips in seine Watson-Systeme aufzunehmen, um die Lösung bestimmter Teilprobleme in dem Algorithmus zu beschleunigen, der von neuronalen Netzwerken abhängig ist.
Das aktuelle System von IBM implementiert eine Programmiersprache für neuromorphe Hardware, mit der Programmierer vorgelernte Fragmente eines neuronalen Netzwerks ("Corelets") verwenden und diese miteinander verbinden können, um robuste Problemlösungsmaschinen zu erstellen. Wahrscheinlich haben Sie keine neuromorphen Chips in Ihrem Computer für lange Zeit, aber Sie werden höchstwahrscheinlich Web-Services verwenden, die Server mit neuromorphen Chips in wenigen Jahren verwenden.
3. Micron Hybrid Memory Cube
Einer der Hauptprobleme beim aktuellen Computerdesign ist die Zeit, die benötigt wird, um die Daten aus dem Arbeitsspeicher abzurufen, an denen der Prozessor arbeiten muss. Die Zeit, die benötigt wird, um mit den ultraschnellen Registern innerhalb eines Prozessors zu sprechen, ist beträchtlich kürzer als die Zeit, die zum Abrufen von Daten aus dem RAM benötigt wird, was wiederum erheblich schneller ist als das Abrufen von Daten von der schwerfälligen Festplatte.
Das Ergebnis ist, dass der Prozessor häufig nur warten muss, um lange Zeit darauf zu warten, dass Daten eintreffen, so dass er die nächste Berechnungsrunde durchführen kann. Der Prozessor-Cache-Speicher ist etwa zehnmal schneller als der Arbeitsspeicher und der Arbeitsspeicher ist etwa hunderttausendmal schneller als die Festplatte. Anders ausgedrückt: Wenn Sie mit dem Prozessor-Cache sprechen möchten, müssen Sie zum Nachbarn gehen, um Informationen zu erhalten. Wenn Sie mit dem RAM-Speicher sprechen, müssen Sie ein paar Kilometer zum gleichen Speicher gehen, um die gleichen Informationen zu erhalten zum Mond gehen.
Die Micron-Technologie kann die Branche vom regulären Fortschritt herkömmlicher DDR-Speichertechnologie ablösen und sie durch eine eigene Technologie ersetzen, die RAM-Module in Cubes stapelt und Kabel mit höherer Bandbreite verwendet, um die Kommunikation mit diesen Cubes zu beschleunigen. Die Cubes werden direkt auf der Hauptplatine neben dem Prozessor installiert (anstatt in herkömmliche Steckplätze gesteckt zu werden). Die Hybrid-Speicher-Cube-Architektur bietet fünfmal mehr Bandbreite für den Prozessor als der in diesem Jahr erschienene DDR4-RAM und verbraucht 70% weniger Strom. Die Technologie wird voraussichtlich Anfang nächsten Jahres auf den Supercomputer-Markt und einige Jahre später auf den Verbrauchermarkt gelangen.
2. Memristorspeicherung
Ein anderer Ansatz zur Lösung des Speicherproblems besteht im Entwerfen eines Computerspeichers, der den Vorteil von mehr als einer Art von Speicher hat. Im Allgemeinen reduzieren sich die Kompromisse mit dem Speicher auf Kosten, Zugriffsgeschwindigkeit und Volatilität (Volatilität ist die Eigenschaft, dass ständig Energie benötigt wird, um Daten zu speichern). Festplatten sind sehr langsam, aber billig und nicht flüchtig.
Ram ist flüchtig, aber schnell und billig. Cache und Register sind volatil und sehr teuer, aber auch sehr schnell. Die Technologie der Besten aus beiden Welten ist eine Technologie, die nicht flüchtig ist, schnell zugänglich ist und kostengünstig erstellt werden kann. Theoretisch bieten Memristoren einen Weg, dies zu tun.
Memistoren ähneln Widerständen (Vorrichtungen, die den Stromfluss durch eine Schaltung reduzieren), mit dem Haken, dass sie Speicher haben. Lassen Sie den Strom in eine Richtung laufen, und der Widerstand steigt. Lassen Sie den Strom in die andere Richtung laufen, und der Widerstand nimmt ab. Das Ergebnis ist, dass Sie preiswerte, schnelle RAM-Speicherzellen bauen können, die nicht flüchtig sind und kostengünstig hergestellt werden können.
Dies führt zu der Möglichkeit, dass RAM-Blöcke so groß wie Festplattenlaufwerke sind, auf denen das gesamte Betriebssystem und das gesamte Dateisystem des Computers gespeichert sind (wie z. B. eine große, nichtflüchtige RAM-Disk. Was ist eine RAM-Disk und wie können Sie sie einrichten? Was ist ein RAM?) Datenträger und wie Sie ein solches System einrichten können Solid-State-Festplatten sind nicht der erste nicht mechanische Speicher, der in Consumer-PCs vorkommt, RAM wird seit Jahrzehnten verwendet, sondern hauptsächlich als kurzfristige Speicherlösung RAM macht es… Read More), auf die alle mit der Geschwindigkeit des RAM zugegriffen werden kann. Keine Festplatte mehr. Nicht mehr zum Mond gehen.
HP hat einen Computer mit Memristor-Technologie und speziellem Kerndesign entwickelt, bei dem die Vernetzung zwischen Computerelementen mithilfe von Photonik (lichtbasierte Kommunikation) beschleunigt wird. Dieses Gerät (genannt “Die Maschine”) ist in der Lage, eine komplexe Verarbeitung von Hunderten von Terrabytes an Daten in einem Bruchteil einer Sekunde durchzuführen. Der Memristor-Speicher ist 64-128-mal dichter als herkömmlicher RAM, was bedeutet, dass der physische Fußabdruck des Geräts sehr gering ist - und der gesamte Shebang verbraucht weit weniger Strom als die Serverräume, die er ersetzen würde. HP hofft, in den nächsten zwei bis drei Jahren auf The Machine basierende Computer auf den Markt bringen zu können.
1. Graphen-Prozessoren
Graphen ist ein Material, das aus stark gebundenen Gittern aus Kohlenstoffatomen besteht (ähnlich wie Kohlenstoffnanoröhren). Es hat eine Reihe bemerkenswerter Eigenschaften, einschließlich immense physikalische Stärke und nahezu Supraleitung. Es gibt Dutzende von möglichen Anwendungen für Graphen, von Weltraumaufzügen über Körperpanzer bis hin zu besseren Batterien. Die für diesen Artikel relevante ist jedoch ihre potenzielle Rolle in Computerarchitekturen.
Eine andere Möglichkeit, Computer schneller zu machen, als die Transistorgröße zu verringern, besteht darin, diese Transistoren einfach schneller laufen zu lassen. Da Silizium kein sehr guter Leiter ist, wird leider ein erheblicher Teil der durch den Prozessor übertragenen Leistung in Wärme umgewandelt. Wenn Sie versuchen, Silizium-Prozessoren weit über neun Gigahertz hochzuladen, stört die Wärme den Betrieb des Prozessors. Das 9-Gigahertz-Verfahren erfordert außerordentliche Kühlanstrengungen (in einigen Fällen mit flüssigem Stickstoff). Die meisten Verbraucherchips laufen viel langsamer. (Weitere Informationen zur Funktionsweise herkömmlicher Computerprozessoren finden Sie in unserem Artikel Was ist eine CPU und was macht sie, was ist eine CPU und was macht sie.) Abkürzungen für das Rechnen sind verwirrend. Was ist eigentlich eine CPU? Quad- oder Dual-Core-Prozessor? Wie wäre es mit AMD oder Intel? Wir erklären Ihnen den Unterschied! Lesen Sie mehr zum Thema).
Graphen dagegen ist ein hervorragender Leiter. Ein Graphen-Transistor kann theoretisch bis zu 500 GHz ohne Hitzeprobleme laufen - und Sie können ihn auf dieselbe Weise wie Sie Silizium ätzen. IBM hat bereits einfache analoge Graphen-Chips mit traditionellen Chip-Lithographietechniken graviert. Bis vor kurzem gab es zwei Aspekte: erstens, dass es sehr schwierig ist, Graphen in großen Mengen herzustellen, und zweitens haben wir keine gute Möglichkeit, Graphen-Transistoren zu schaffen, die den Stromfluss in ihrem 'Aus' vollständig blockieren ' Zustand.
Das erste Problem wurde gelöst, als der Elektronikriese Samsung ankündigte, dass sein Forschungszweig einen Weg gefunden hatte, ganze Graphenkristalle mit hoher Reinheit in Serie herzustellen. Das zweite Problem ist komplizierter. Das Problem ist, dass die extreme Leitfähigkeit von Graphene zwar aus Sicht der Wärme attraktiv ist, aber es ist auch ärgerlich, wenn Transistoren hergestellt werden sollen - Geräte, die Milliarden von Sekunden pro Sekunde stoppen sollen. Im Gegensatz zu Silizium fehlt Graphen eine „Bandlücke“ - eine Stromflussrate, die so niedrig ist, dass das Material auf null Leitfähigkeit absinkt. Glücklicherweise sieht es so aus, als gäbe es an dieser Front einige Optionen.
Samsung hat einen Transistor entwickelt, der die Eigenschaften einer Silizium-Graphen-Schnittstelle nutzt, um die gewünschten Eigenschaften zu erzeugen, und eine Reihe grundlegender Logikschaltungen damit aufgebaut. Obwohl dies kein reiner Graphen-Computer ist, würde dieses Schema viele der vorteilhaften Wirkungen von Graphen bewahren. Eine andere Option kann die Verwendung eines "negativen Widerstands" sein, um eine andere Art von Transistor aufzubauen, der zum Aufbau von Logikgattern verwendet werden könnte, die mit höherer Leistung arbeiten, jedoch mit weniger Elementen.
Von den in diesem Artikel diskutierten Technologien ist Graphen am weitesten von der kommerziellen Realität entfernt. Es kann bis zu einem Jahrzehnt dauern, bis die Technologie ausgereift genug ist, um Silizium vollständig zu ersetzen. Langfristig ist es jedoch sehr wahrscheinlich, dass Graphen (oder eine Variante des Materials) das Rückgrat der Rechenplattform der Zukunft sein wird.
Die nächsten zehn Jahre
Unsere Zivilisation und ein Großteil unserer Wirtschaft sind auf tiefgreifende Weise von Moore's Law abhängig, und enorme Institutionen investieren enorm viel Geld, um ihr Ende zu verhindern. Eine Reihe kleinerer Verfeinerungen (wie 3D-Chip-Architekturen und fehlertolerantes Computing) wird dazu beitragen, dass Moore's Law seinen theoretischen sechsjährigen Horizont übersteigt, aber so etwas kann nicht ewig dauern.
Irgendwann im kommenden Jahrzehnt müssen wir den Sprung zu einer neuen Technologie machen, und das kluge Geld ist am Graphen. Diese Umstellung wird den Status quo der Computerbranche ernsthaft auf den Kopf stellen und viel Vermögen bringen und verlieren. Selbst Graphen ist natürlich keine dauerhafte Lösung. Es ist sehr wahrscheinlich, dass wir uns in ein paar Jahrzehnten wieder hier finden und darüber debattieren können, welche neue Technologie die Kontrolle übernehmen wird, nachdem wir die Grenzen von Graphen erreicht haben.
Welche Richtung wird Ihrer Meinung nach die neueste Computertechnologie einschlagen?? Welche dieser Technologien hat Ihrer Meinung nach die besten Chancen, Elektronik und Computer auf die nächste Stufe zu bringen?
Bildnachweis: Weibliche Hand in ESD-Handschuhen über Shutterstock
Erfahren Sie mehr über: CPU.