Warum Wissenschaftler glauben, Sie sollten sich über künstliche Intelligenz Sorgen machen
In den letzten Monaten haben Sie möglicherweise die Berichterstattung zu einem Artikel gelesen, der von Stephen Hawking gemeinsam verfasst wurde und die Risiken im Zusammenhang mit künstlicher Intelligenz behandelt. Der Artikel schlug vor, dass KI ein ernstes Risiko für die Menschheit darstellen könnte. Hawking ist nicht alleine dort - Elon Musk und Peter Thiel sind beide intellektuelle Persönlichkeiten des öffentlichen Lebens, die ähnliche Bedenken geäußert haben (Thiel hat mehr als 1,3 Millionen US-Dollar in die Erforschung des Problems und mögliche Lösungen investiert)..
Die Berichterstattung über Hawkings Artikel und Musk's Kommentare war, um es nicht zu fein zu sagen, ein wenig fröhlich. Der Ton war sehr viel "Sehen Sie sich dieses seltsame Ding an, um das sich alle diese Geeks Sorgen machen." Es wird wenig überlegt, ob einige der klügsten Menschen der Erde Sie warnen, dass etwas sehr gefährlich sein könnte, dass es sich lohnt, zuzuhören.
Das ist verständlich - künstliche Intelligenz, die die Welt erobert, klingt sicherlich sehr seltsam und unplausibel, vielleicht aufgrund der enormen Aufmerksamkeit, die bereits Science-Fiction-Autoren dieser Idee gewidmet haben. Also, was hat all diese nominell vernünftigen, rationalen Menschen so erschreckt??
Was ist Intelligenz??
Um über die Gefahr der künstlichen Intelligenz zu sprechen, kann es hilfreich sein, zu verstehen, was Intelligenz ist. Um das Problem besser zu verstehen, werfen wir einen Blick auf eine Spielzeug-KI-Architektur, die von Forschern verwendet wird, die die Theorie des Denkens studieren. Diese Spielzeug-KI heißt AIXI und hat eine Reihe nützlicher Eigenschaften. Die Ziele können beliebig sein, sie lassen sich gut mit der Rechenleistung skalieren und ihr internes Design ist sehr sauber und unkompliziert.
Darüber hinaus können Sie einfache, praktische Versionen der Architektur implementieren, die beispielsweise Pacman spielen, wenn Sie möchten. AIXI ist das Produkt eines KI-Forschers namens Marcus Hutter, der wohl der wichtigste Experte für algorithmische Intelligenz ist. Das ist er im obigen Video.
AIXI ist überraschend einfach: Es hat drei Kernkomponenten: Lerner, Planer, und Hilfsfunktion.
- Das Lerner nimmt Bitfolgen auf, die Eingaben über die Außenwelt entsprechen, und durchsucht Computerprogramme, bis diejenigen gefunden werden, die ihre Beobachtungen als Ausgabe erzeugen. Diese Programme zusammen ermöglichen es, zu erraten, wie die Zukunft aussehen wird, indem einfach jedes Programm vorwärts ausgeführt wird und die Wahrscheinlichkeit des Ergebnisses anhand der Länge des Programms gewichtet wird (eine Implementierung von Occam's Razor)..
- Das Planer Durchsucht mögliche Aktionen, die der Agent ausführen könnte, und verwendet das Lernermodul, um vorherzusagen, was passieren würde, wenn jeder von ihnen ausgeführt würde. Anschließend werden sie danach bewertet, wie gut oder schlecht die vorhergesagten Ergebnisse sind, und sie wählen die Vorgehensweise aus, die die Güte des erwarteten Ergebnisses maximiert, multipliziert mit der erwarteten Wahrscheinlichkeit, es zu erreichen.
- Das letzte Modul, das Hilfsfunktion, ist ein einfaches Programm, das eine Beschreibung eines zukünftigen Zustands der Welt aufnimmt und dafür eine Nutzenbewertung berechnet. Dieser Nutzenwert gibt an, wie gut oder schlecht dieses Ergebnis ist und wird vom Planer zur Beurteilung des zukünftigen Weltzustands verwendet. Die Utility-Funktion kann beliebig sein.
- Zusammen bilden diese drei Komponenten eine Optimierer, was für ein bestimmtes Ziel optimiert, unabhängig von der Welt, in der es sich befindet.
Dieses einfache Modell repräsentiert eine grundlegende Definition eines intelligenten Agenten. Der Agent untersucht seine Umgebung, erstellt daraus Modelle und verwendet diese Modelle, um die Vorgehensweise zu ermitteln, die die Chancen maximiert, dass er erhält, was er will. AIXI ähnelt in seiner Struktur einer KI, die Schach spielt, oder anderen Spielen mit bekannten Regeln - mit der Ausnahme, dass sie in der Lage ist, die Spielregeln durch Spielen abzuleiten, beginnend mit null Wissen.
Wenn genügend Zeit für die Berechnung vorhanden ist, kann AIXI lernen, jedes System für jedes noch so komplexe Ziel zu optimieren. Es ist ein allgemein intelligenter Algorithmus. Beachten Sie, dass dies nicht das Gleiche ist, wie menschliche Intelligenz zu haben (biologisch inspirierte KI ist ein völlig anderes Thema) Giovanni Idili von OpenWorm: Gehirne, Würmer und künstliche Intelligenz Giovanni Idili von OpenWorm: Gehirne, Würmer und künstliche Intelligenz simulieren ein Das menschliche Gehirn ist ein weiter Weg, aber ein Open-Source-Projekt unternimmt wichtige erste Schritte, indem es die Neurologie und Physiologie eines der einfachsten Tiere simuliert, das der Wissenschaft bekannt ist. Mit anderen Worten, AIXI kann in der Lage sein, jeden Menschen bei jeder intellektuellen Aufgabe zu überlisten (mit genügend Rechenleistung), ist sich jedoch möglicherweise nicht dessen Sieg bewusst. Denkmaschinen: Was Neurowissenschaften und künstliche Intelligenz uns über Bewusstsein beibringen können Denkmaschinen: Was Neurowissenschaften und künstliche Intelligenz können uns Wissen über das Bewusstsein vermitteln Können künstlich intelligente Maschinen und Software beim Bau etwas über die Funktionsweise des Bewusstseins und die Natur des menschlichen Geistes selbst lernen? Weiterlesen .
Als praktische KI hat AIXI viele Probleme. Erstens gibt es keine Möglichkeit, die Programme zu finden, die die Ausgabe erzeugen, an der sie interessiert sind. Es handelt sich um einen Brute-Force-Algorithmus, was bedeutet, dass dies nicht praktisch ist, wenn Sie nicht zufällig einen willkürlich leistungsstarken Computer haben. Jede tatsächliche Implementierung von AIXI ist notwendigerweise eine Annäherung und (heute) im Allgemeinen ziemlich grob. AIXI gibt uns dennoch einen theoretischen Einblick, wie eine mächtige künstliche Intelligenz aussehen könnte und wie sie zu denken vermag.
Der Raum der Werte
Wenn Sie mit dem Computerprogrammieren gearbeitet haben Die Grundlagen der Computerprogrammierung 101 - Variablen und Datentypen Die Grundlagen der Computerprogrammierung 101 - Variablen und Datentypen Nachdem ich zuvor etwas über objektorientierte Programmierung beschrieben und darüber gesprochen habe, dachte ich, es sei an der Zeit wir gehen durch die absoluten Grundlagen des Programmierens auf eine nicht sprachspezifische Weise. Dies… Lesen Sie mehr, Sie wissen, dass Computer unangenehm, pedantisch und mechanisch buchstäblich sind. Die Maschine weiß nicht oder kümmert sich nicht, was Sie wollen: Sie tut nur das, was ihnen gesagt wurde. Dies ist ein wichtiger Begriff, wenn es um maschinelle Intelligenz geht.
Stellen Sie sich vor, Sie hätten eine mächtige künstliche Intelligenz erfunden - Sie haben clevere Algorithmen entwickelt, um Hypothesen zu generieren, die Ihren Daten entsprechen, und um gute Kandidatenpläne zu erstellen. Ihre KI kann allgemeine Probleme lösen und dies auf moderner Computerhardware effizient tun.
Nun ist es an der Zeit, eine Utility-Funktion auszuwählen, die die AI-Werte bestimmt. Was solltest du um Wertschätzung bitten? Denken Sie daran, dass die Maschine unangenehm und wortwörtlich ist, was für eine Funktion sie zu maximieren wünscht, und wird niemals aufhören - es gibt keinen Geist in der Maschine, der jemals „aufwacht“ und sich entscheidet, seine Nutzfunktion zu ändern, unabhängig davon, wie viele davon verwendet werden Effizienzverbesserungen, die es nach eigenem Ermessen macht.
Eliezer Yudkowsky hat es so ausgedrückt:
Wie bei jeder Computerprogrammierung besteht die grundlegende Herausforderung und wesentliche Schwierigkeit von AGI darin, dass die KI nicht automatisch den Code überfliegt, die Fehler abschneidet und herausfindet, was wir eigentlich sagen wollten, wenn wir den falschen Code schreiben stattdessen. Nicht-Programmierer stellen sich manchmal ein AGI oder Computerprogramme im Allgemeinen als analog zu einem Diener vor, der fraglos Befehlen folgt. Es ist aber nicht so, dass die KI absolut ist gehorsam zu seinem Code; vielmehr die KI einfach ist der Code.
Wenn Sie versuchen, eine Fabrik zu betreiben, und sagen Sie der Maschine, dass sie Wert auf das Erstellen von Büroklammern legen, und geben Sie ihr dann die Kontrolle über eine Reihe von Fabrikrobotern. Möglicherweise kehren Sie am nächsten Tag zurück und stellen fest, dass jede andere Form von Ausgangsmaterial aufgebraucht ist. tötete alle Ihre Angestellten und machte Büroklammern aus ihren Überresten. Wenn Sie die Maschine in einem Versuch, den Fehler zu korrigieren, umprogrammieren, um einfach alle glücklich zu machen, können Sie am nächsten Tag zurückkehren, um herauszufinden, dass sie Kabel in das Gehirn der Menschen legen.
Der Punkt hier ist, dass Menschen viele komplizierte Werte haben, von denen wir annehmen, dass sie mit anderen Geistern implizit geteilt werden. Wir legen Wert auf Geld, aber wir legen mehr Wert auf das menschliche Leben. Wir möchten glücklich sein, aber wir möchten nicht unbedingt Drähte in unser Gehirn stecken, um dies zu tun. Wir haben nicht das Bedürfnis, diese Dinge zu klären, wenn wir anderen Menschen Anweisungen geben. Sie können diese Annahmen jedoch nicht treffen, wenn Sie die Dienstprogrammfunktion einer Maschine entwerfen. Die besten Lösungen unter der seelenlosen Mathematik einer einfachen Nutzenfunktion sind oft Lösungen, die der Mensch für moralisch erschreckend halten würde.
Wenn eine intelligente Maschine eine naive Hilfsfunktion maximiert, ist dies fast immer eine Katastrophe. Wie der Oxford-Philosoph Nick Bostom sagt,
Wir können nicht ohne weiteres davon ausgehen, dass eine Superintelligenz notwendigerweise die endgültigen Werte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung in Bezug auf die menschliche Wissenschaft verbunden sind - wohlwollende Besorgnis für andere, spirituelle Erleuchtung und Kontemplation, Verzicht auf materielle Erwerbsfähigkeit, ein Verlangen nach verfeinerter Kultur oder nach die einfachen Freuden im Leben, Demut und Selbstlosigkeit und so weiter.
Zu allem Überfluss ist es sehr, sehr schwierig, eine vollständige und detaillierte Liste aller Dinge anzugeben, die die Menschen schätzen. Die Frage hat viele Facetten, und wenn man nur eine Frage vergisst, ist das katastrophal. Selbst unter denen, die wir kennen, gibt es Feinheiten und Komplexitäten, die es schwierig machen, sie als reine Gleichungssysteme aufzuschreiben, die wir einer Maschine als Hilfsfunktion geben können.
Einige Leute kommen beim Lesen zu dem Schluss, dass der Aufbau von AIs mit nützlichen Funktionen eine schreckliche Idee ist, und wir sollten sie einfach anders gestalten. Hier gibt es auch schlechte Nachrichten - Sie können formal beweisen, dass jeder Agent, der nichts Gleichwertiges zu einer Nutzenfunktion hat, keine kohärenten Präferenzen in Bezug auf die Zukunft haben kann.
Rekursive Selbstverbesserung
Eine Lösung des oben genannten Dilemmas besteht darin, den KI-Agenten nicht die Möglichkeit zu geben, Menschen zu verletzen. Geben Sie ihnen nur die Ressourcen, die sie zur Lösung des Problems in der Art und Weise benötigen, in der Sie es lösen wollen, überwachen Sie sie genau und halten Sie sie von Möglichkeiten fern großen Schaden anrichten Leider ist unsere Fähigkeit, intelligente Maschinen zu steuern, äußerst suspekt.
Auch wenn sie nicht viel schlauer sind als wir, besteht die Möglichkeit, dass die Maschine dies tut “Bootstrap” - Sammeln Sie bessere Hardware oder verbessern Sie den eigenen Code, der noch intelligenter ist. Dies könnte es einer Maschine ermöglichen, die menschliche Intelligenz um viele Größenordnungen zu überspringen und den Menschen in dem Sinne zu überlisten, in dem der Mensch Katzen überlistet. Dieses Szenario wurde zuerst von einem Mann namens I. J. Good vorgeschlagen, der im Zweiten Weltkrieg zusammen mit Alan Turing an dem Enigma-Kryptoanalyse-Projekt arbeitete. Er nannte es ein “Intelligenz Explosion,” und beschrieb die Sache so:
Eine ultraintelligente Maschine sei eine Maschine, die alle intellektuellen Aktivitäten eines Mannes weit überbieten kann, egal wie klug sie sind. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine ultraintelligente Maschine noch bessere Maschinen entwerfen. es würde dann zweifellos ein “Intelligenzexplosion,” und die Intelligenz des Menschen würde weit zurückbleiben. Somit ist die erste ultra-intelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug.
Es ist nicht garantiert, dass eine Intelligenzexplosion in unserem Universum möglich ist, aber es scheint wahrscheinlich. Im Laufe der Zeit werden Computer schneller und grundlegende Erkenntnisse über den Aufbau von Intelligenz. Dies bedeutet, dass der Ressourcenbedarf für den letzten Sprung zu einer allgemeinen, aufsteigenden Intelligenz immer niedriger wird. Irgendwann befinden wir uns in einer Welt, in der Millionen von Menschen zu einem Best Buy fahren und die Hardware und technische Literatur abholen können, die sie benötigen, um eine sich selbst verbessernde künstliche Intelligenz aufzubauen, die wir bereits etabliert haben sehr gefährlich. Stellen Sie sich eine Welt vor, in der Sie aus Stöcken und Steinen Atombomben bauen können. Das ist die Art von Zukunft, über die wir sprechen.
Und wenn eine Maschine diesen Sprung macht, könnte sie die menschliche Spezies in Bezug auf die intellektuelle Produktivität sehr schnell übertreffen und Probleme lösen, die eine Milliarde Menschen nicht lösen können, genauso wie Menschen Probleme lösen können, die eine Milliarde Katzen können. ' t.
Es könnte leistungsfähige Roboter (oder Bio- oder Nanotechnologie) entwickeln und relativ schnell die Fähigkeit erlangen, die Welt nach Belieben umzugestalten, und es gibt sehr wenig, was wir dagegen tun könnten. Eine solche Intelligenz könnte die Erde und den Rest des Sonnensystems ohne viel Aufwand auf Ersatzteile ausreissen, um das zu tun, was wir ihm gesagt haben. Es ist wahrscheinlich, dass eine solche Entwicklung für die Menschheit katastrophal wäre. Eine künstliche Intelligenz muss nicht bösartig sein, um die Welt zu zerstören, sondern ist katastrophal gleichgültig.
Wie das Sprichwort sagt, “Die Maschine liebt oder hasst dich nicht, aber du bist aus Atomen gemacht, die sie für andere Dinge verwenden kann.”
Risikobewertung und Risikominderung
Wenn wir also annehmen, dass das Entwerfen einer leistungsstarken künstlichen Intelligenz, die eine einfache Nutzfunktion maximiert, schlecht ist, wie viel Ärger sind wir wirklich? Wie lange ist es noch her, bis es möglich wird, solche Maschinen zu bauen? Es ist natürlich schwer zu sagen.
Entwickler künstlicher Intelligenz machen Fortschritte. 7 erstaunliche Websites, um das Neueste in der künstlichen Intelligenz-Programmierung zu sehen 7 erstaunliche Websites, um das Neueste in der künstlichen Intelligenz-Programmierung zu sehen Künstliche Intelligenz ist noch nicht von der 2001er: The Space Odyssey…. Natürlich könnte es eines Tages so ähnlich sein wie bei den Sci-Fi-Potboilern, die von Hollywood ausgelaugt werden… Mehr lesen Die Maschinen, die wir bauen, und die Probleme, die sie lösen können, sind stetig gewachsen. 1997 konnte Deep Blue mehr Schach spielen als ein menschlicher Großmeister. Im Jahr 2011 konnte Watson von IBM ausreichend und schnell genug Informationen lesen und synthetisieren, um die besten menschlichen Spieler bei einem offenen Frage- und Antwortspiel schlagen zu können, das mit Wortspielen und Wortspielen durchsetzt war. Dies ist ein großer Fortschritt in vierzehn Jahren.
Derzeit investiert Google intensiv in die Erforschung des tiefen Lernens, einer Technik, die den Aufbau leistungsfähiger neuronaler Netzwerke durch den Aufbau von Ketten einfacherer neuronaler Netzwerke ermöglicht. Diese Investition erlaubt es, ernsthafte Fortschritte bei der Sprach- und Bilderkennung zu machen. Ihre jüngste Akquisition in der Region ist ein Deep Learning-Startup namens DeepMind, für das rund 400 Millionen US-Dollar bezahlt wurden. Im Rahmen der Vereinbarung stimmte Google der Einrichtung eines Ethik-Ausschusses zu, um sicherzustellen, dass die KI-Technologie sicher entwickelt wird.
Zur gleichen Zeit entwickelt IBM Watson 2.0 und 3.0, Systeme, die Bilder und Videos verarbeiten und die Schlussfolgerungen verteidigen können. Sie gaben eine einfache, frühe Demo von Watsons Fähigkeit, Argumente für und gegen ein Thema in der Video-Demo unten zu synthetisieren. Die Ergebnisse sind unvollkommen, aber trotzdem ein beeindruckender Schritt.
Keine dieser Technologien ist im Moment selbst gefährlich: Die künstliche Intelligenz als Feld hat immer noch Schwierigkeiten, die Fähigkeiten kleiner Kinder zu meistern. Computerprogrammierung und AI-Design sind sehr schwierige kognitive Fähigkeiten auf höchstem Niveau und werden wahrscheinlich die letzte menschliche Aufgabe sein, die Maschinen beherrschen. Bevor wir an diesen Punkt gelangen, werden wir auch allgegenwärtige Maschinen haben, die fahren können. Hier ist, wie wir zu einer mit fahrerlosen Autos gefüllten Welt kommen. So kommen wir zu einer mit fahrerlosen Autos gefüllten Welt. Fahren ist ein langweiliges, und anspruchsvolle Aufgabe. Könnte es eines Tages durch die fahrerlose Autotechnologie von Google automatisiert werden? Lesen Sie mehr, praktizieren Sie Medizin und Recht und wahrscheinlich auch andere Dinge mit tiefgreifenden wirtschaftlichen Konsequenzen.
Die Zeit, die wir benötigen, um zum Wendepunkt der Selbstverbesserung zu gelangen, hängt nur davon ab, wie schnell wir gute Ideen haben. Es ist bekanntlich schwierig, technologische Fortschritte dieser Art vorherzusagen. Es scheint nicht unvernünftig zu sein, dass wir in zwanzig Jahren in der Lage sein werden, eine starke KI aufzubauen, aber es scheint auch nicht unvernünftig, dass es achtzig Jahre dauern kann. Auf jeden Fall wird es irgendwann passieren, und es gibt Grund zu der Annahme, dass es extrem gefährlich sein wird, wenn es passiert.
Wenn wir damit einverstanden sind, dass dies ein Problem sein wird, was können wir dagegen tun? Die Antwort ist, um sicherzustellen, dass die ersten intelligenten Maschinen sicher sind, so dass sie ein hohes Maß an Intelligenz bieten und uns dann vor unsicheren, später erstellten Maschinen schützen können. Diese "Sicherheit" wird definiert, indem menschliche Werte geteilt werden und die Bereitschaft besteht, die Menschheit zu schützen und ihnen zu helfen.
Da wir uns nicht setzen und menschliche Werte in die Maschine einprogrammieren können, ist es wahrscheinlich notwendig, eine Hilfsfunktion zu entwerfen, bei der die Maschine Menschen beobachten, unsere Werte ableiten und dann versuchen muss, sie zu maximieren. Um diesen Entwicklungsprozess sicherer zu machen, kann es auch nützlich sein, künstliche Intelligenzen zu entwickeln, die speziell entworfen sind nicht Präferenzen über ihre Gebrauchsfunktionen zu haben, die es uns ermöglichen, sie zu korrigieren oder ohne Widerstand auszuschalten, wenn sie während der Entwicklung in die Irre gehen.
Viele der Probleme, die wir lösen müssen, um eine sichere Maschinenintelligenz aufzubauen, sind mathematisch schwierig, aber es gibt Grund zu der Annahme, dass sie gelöst werden können. Eine Reihe verschiedener Organisationen arbeiten an dem Problem, darunter das Future of Humanity Institute in Oxford und das Machine Intelligence Research Institute (von Peter Thiel finanziert)..
MIRI interessiert sich speziell für die Entwicklung der Mathematik, die zum Erstellen einer freundlichen KI erforderlich ist. Wenn sich herausstellt, dass künstliche Intelligenz im Bootstrapping möglich ist, kann die Entwicklung dieser Art von „Friendly AI“ -Technologie bei erfolgreichem Erfolg das Wichtigste sein, was Menschen jemals getan haben.
Halten Sie künstliche Intelligenz für gefährlich?? Sind Sie besorgt über die Zukunft der KI? Teilen Sie Ihre Gedanken in den Kommentaren unten mit!
Bildnachweise: Lwp Kommunikáció Via Flickr, “Neurales Netzwerk“, von fdecomite,” img_7801“, von Steve Rainwater, “Entwickeln”, von Keoni Cabral, “new_20x“, von Robert Cudmore, “Büroklammern“, von Clifford Wallace
Erfahren Sie mehr über: Künstliche Intelligenz, Computerautomatisierung.