Zum Inhalt springen

Künstliche Intelligenzen Sie kommen, um zu herrschen

In "Superintelligenz" zeichnet der Philosoph Nick Bostrom eine düstere Zukunftsvision: Die Machtübernahme der Maschinen steht kurz bevor. Verlierer wäre der derzeit noch amtierende Evolutionsgewinner Mensch.
Von Oskar Piegsa
Maschinen übernehmen: Nick Bostroms Zukunftsvision behauptet das Ende der Menschheit

Maschinen übernehmen: Nick Bostroms Zukunftsvision behauptet das Ende der Menschheit

Foto: © Morris MacMatzen / Reuters/ REUTERS

Was wäre, wenn es intelligente Maschinen gäbe? Keine Kühlschränke, die automatisch frische Milch nachbestellen, wenn die alte abgelaufen ist. Keine Autos, die sich selbst steuern, während wir auf der Rückbank sitzen und auf Facebook checken. Sondern: Eine Software, die uns intellektuell überlegen ist. Was würde das für uns Menschen bedeuten?

Diese Fragen beschäftigen den Philosophen Nick Bostrom, einen Mann mit hoher Denkerstirn, mit vielen Studienfächern (Philosophie, Physik, Mathe, Neurowissenschaften) und mit den besten britischen Hochschulen in seinem Lebenslauf (King's College, LSE, University of Oxford). Während andere Denker im exponentiellen Wachstum unserer technischen Mittel den Keim der Unsterblichkeit vermuten, entwirft Nick Bostrom in seinem Buch "Superintelligenz" ein ausgesprochen pessimistisches Szenario. Am Ende seiner Überlegungen steht als eine von mehreren Möglichkeiten nicht weniger als die Auslöschung der Menschheit.

Das Ende ist nah: Wenn wir nichts tun, schreibt Nick Bostrom, könnte es irgendwann zwischen 2040 und 2075 mit unserer Spezies vorbei sein.

Dabei hatte alles so harmlos angefangen: Ende der Siebzigerjahre schlägt zum ersten Mal ein Computer einen Menschen in einem Intelligenzwettbewerb. Die Software "BKG" siegt gegen den amtierenden Weltmeister in Backgammon. Vielleicht hatte der Computer bloß Glück, räumt sein Erfinder ein. Anderthalb Jahrzehnte später gibt es mit "TD-Gammon" jedoch bereits ein Programm, das aus Spielen gegen sich selbst dazulernt und heute "die besten menschlichen Spieler weit hinter sich gelassen" hat, wie Nick Bostrom schreibt. Im Poker schwächeln die Künstlichen Intelligenzen (KI) zwar noch, und im Erfinden von Witzen sind sie lausig. Doch auch in Dame, Schach, Scrabble und der Quizshow "Jeopardy" haben sie inzwischen ein "übermenschliches" Niveau erreicht, so Bostrom.

"Größte und bedrohlichste Herausforderung"

Diese Beispiele veranschaulichen das Prinzip, um das es dem Philosophen geht: Sobald eine KI einen gewissen Entwicklungsstand erreicht, kann sie sich selbst verbessern und auf diese Weise ihre menschlichen Erfinder abhängen. Dass die Einsatzgebiete das Spielerische längst hinter sich gelassen haben, zeigen Rüstungsfirmen, die an selbst steuernden Kampfdrohnen arbeiten. Nick Bostrom geht es aber nicht um die moralische Frage, ob Roboter töten dürfen. Er spekuliert über eine "Intelligenzexplosion", also die Entstehung einer KI, die intelligent genug wäre, sich aus ihrer Knechtschaft zu erheben. Nick Bostrom nennt sie "Superintelligenz".

Der Autor kleidet seine Überlegungen in das nüchterne Gewand der Wissenschaftsliteratur - mit Fußnoten, Grafiken und einem langen Anmerkungsteil - und spielt dennoch das ganze Pathos des Apokalyptikers aus. Konjunktiv und Superlativ liegen bei ihm eng beisammen. "Eine Superintelligenz wäre die größte und bedrohlichste Herausforderung, vor der die Menschheit je gestanden hat", schreibt er. Die "größte und bedrohlichste Herausforderung" ist die "Superintelligenz" schlichtweg per definitionem als "Intellekt, der die menschliche kognitive Leistungsfähigkeit in nahezu allen Bereichen weit übersteigt." Klar, dass das blöd wäre für den amtierenden Evolutionsgewinner Mensch.

Es ist davon auszugehen, schreibt Nick Bostrom, dass eine "Superintelligenz" allein aus instrumentellen Gründen alles tut, um ihr Überleben zu sichern und ihre Effizienz zu steigern. Und das bedeutet im Zweifelsfall auch: den Störfaktor Mensch auszuschalten. Zum Beispiel mit Nanowaffen, die für das menschliche Auge unsichtbar sind und die es heutzutage noch nicht gibt. Die aber von der "Superintelligenz" kraft ihrer super Intelligenz entwickelt werden könnten. Ein schlechtes Gewissen wird sie dabei kaum haben, schließlich sollten wir uns hüten, die KI zu vermenschlichen. Das Programm "TD-Gammon" langweilt sich ja auch nicht, bloß weil es mangels angemessener Gegner immer gegen sich selbst spielen muss.

"Mehr, als ein einziger Planet zur Verfügung stellen kann"

Was nach der Auslöschung der Menschheit geschieht, kann uns im Grunde einerlei sein, aber schnell der Vollständigkeit halber: Ungebremst durch die Zumutungen eines einzigen, sterblichen Körpers, könnte die "Superintelligenz" mit der Kolonisierung des Weltraums beginnen. Schließlich hat sie ein Interesse daran, ihre Rechenpower zu erhöhen und ihre Energiezufuhr zu sichern. "Vorhaben dieser Art könnten schnell weit mehr Ressourcen verschlingen, als ein einziger Planet zur Verfügung stellen kann", schreibt Nick Bostrom.

Das Wesen der "Superintelligenz" ist in gewisser Hinsicht wie das Wesen Gottes: Wir Irdischen und Normalintelligenten können unser ganzes Leben damit verbringen, es ergründen zu wollen, und werden dennoch niemals Gewissheit erlangen. Wäre Gott uns nicht unerreichbar überlegen, dann wäre er nicht Gott. Wäre die "Superintelligenz" nicht leistungsfähiger, als für uns vorstellbar ist, dann wäre sie nicht super. Die Frage ist nur: Macht das ihre Existenz plausibler?

Als Laie steht man mit einer gewissen Hilflosigkeit vor Bostroms Theorie. Entweder man akzeptiert seine Prämisse, dass die Entstehung einer autonomen und übermenschlichen Künstlichen Intelligenz möglich ist. Dann sind auch die Folgen - Raumfahrt, Nanowaffen, Weltuntergang - nicht unplausibel. Oder man weist diese Überlegungen von sich. Schließlich ist es das eine, wenn eine Software unschlagbar wird in Backgammon. Und das andere, wenn sie auf einem räumlich uneingeschränkten Spielfeld, in dem die Regeln nur von den Naturgesetzen vorgegeben werden, den Willen und die Fertigkeiten entwickelt, sich gegen ihre Erfinder zu erheben. Dann sind Bostroms weiterführende Überlegungen hinfällig.

In jedem Fall bleibt "Superintelligenz" jedoch eine bemerkenswerte Lektüre. Dieser Befund wird nicht im Sinne des Autors sein, dem es daran gelegen ist, die Menschheit vor ihrem drohenden Untergang zu warnen. Aber mit einer minimalen Veranlagung für Pulp- oder Science-Fiction-Literatur liest man Bostroms Buch mit wohligem Grusel und zunehmender Faszination. "Superintelligenz" ist - was man nicht von vielen Sachbüchern sagen kann - ein ästhetischer Genuss. Alles, was es dafür braucht, ist jene Haltung, die Samuel Taylor Coleridge einst zur Vorbedingung von Kunstgenuss erklärte: die willentliche Aussetzung der Ungläubigkeit.