Wichtige Erkenntnisse
- Die KI-Singularität bezieht sich auf den Zeitpunkt, an dem die KI-Intelligenz die menschliche Intelligenz übertrifft, was zu Maschinen führt, die uns an Intelligenz und Zahl überlegen sind.
- Es gibt unterschiedliche Vorhersagen darüber, wann diese Singularität eintreten wird. Einige Experten glauben, dass sie innerhalb des nächsten Jahrzehnts eintreten könnte, während andere meinen, sie könnte nie erreicht werden.
- Die größte Sorge im Zusammenhang mit der Singularität ist der Verlust der menschlichen Kontrolle über hochintelligente Technologie, was zu Arbeitsplatzverlusten, Umweltschäden und wirtschaftlicher Destabilisierung führen könnte.
Mit der Weiterentwicklung der KI wird das Thema der Singularität immer wichtiger. Aber was genau ist die Singularität, wann wird sie voraussichtlich eintreten und welche Risiken birgt sie für die Menschheit?
Was ist die KI-Singularität?
Science-Fiction-Filme spielen seit Jahrzehnten mit der Idee der Singularität und superintelligenter KI, da es ein ziemlich verlockendes Thema ist. Aber bevor wir uns in die Details der Singularität vertiefen, ist es wichtig zu wissen, dass dies derzeit ein rein theoretisches Konzept ist. Ja, KI wird ständig verbessert, aber die Singularität ist ein weit entferntes Kaliber der KI, das möglicherweise nie erreicht wird.
Dies liegt daran, dass die KI-Singularität den Punkt bezeichnet, an dem die KI-Intelligenz die menschliche Intelligenz übertrifft. Laut einem Artikel der Oxford Academic würde dies bedeuten, dass Computer „intelligent genug sind, sich selbst zu kopieren, um uns zahlenmäßig zu übertreffen, und sich selbst zu verbessern, um uns an Intelligenz zu übertreffen.“
Wie Vernor Vinge sagte, werden die Schaffung „übermenschlicher Intelligenz“ und „menschlicher Äquivalente in einer Maschine“ wahrscheinlich dazu führen, dass die Singularität Wirklichkeit wird. Doch der Begriff „KI-Singularität“ umfasst auch eine andere Möglichkeit, nämlich den Punkt, an dem Computer intelligenter werden und sich entwickeln können, ohne dass menschliches Zutun erforderlich ist. Kurz gesagt, die KI-Technologie wird außerhalb unserer Kontrolle liegen.
Während die KI-Singularität als etwas dargestellt wird, das Maschinen mit übermenschlicher Intelligenz hervorbringen wird, gibt es auch andere Möglichkeiten. Maschinen müssten zwar immer noch ein Niveau außergewöhnlicher Intelligenz erreichen, aber diese Intelligenz muss nicht unbedingt eine Simulation menschlichen Denkens sein. Tatsächlich könnte die Singularität durch eine superintelligente Maschine oder eine Gruppe von Maschinen verursacht werden, die auf eine Weise denken und funktionieren, die wir noch nie zuvor gesehen haben. Bis die Singularität eintritt, weiß man nicht, welche genaue Form solche intelligenten Systeme annehmen werden.
Da Netzwerktechnologie für die Funktionsweise der modernen Welt von unschätzbarem Wert ist, könnte das Erreichen der Singularität zu superintelligenten Computern führen, die ohne menschliches Zutun miteinander kommunizieren. Der Begriff „technologische Singularität“ hat viele Überschneidungen mit dem eher nischenhaften Begriff „KI-Singularität“, da beide eine superintelligente KI und das unkontrollierbare Wachstum intelligenter Maschinen beinhalten. Die technologische Singularität ist eher ein Oberbegriff für das letztendlich unkontrollierbare Wachstum von Computern und erfordert tendenziell auch die Beteiligung hochintelligenter KI.
Ein wesentlicher Teil dessen, was die KI-Singularität mit sich bringen wird, ist ein unkontrollierbarer und exponentieller Anstieg des technologischen Wachstums. Sobald die Technologie intelligent genug ist, um selbst zu lernen und sich zu entwickeln, und die Singularität erreicht, werden Fortschritt und Expansion schnell erfolgen, und dieses steile Wachstum wird nicht mehr von Menschen kontrollierbar sein.
In einem Artikel von Tech Target wird dieses andere Element der Singularität als der Punkt beschrieben, an dem „das Technologiewachstum außer Kontrolle gerät und unumkehrbar ist“. Hier spielen also zwei Faktoren eine Rolle: hochintelligente Technologie und ihr unkontrolliertes Wachstum.
Wann wird die Singularität erwartet?
Um ein Computersystem zu entwickeln, das die Fähigkeiten des menschlichen Geistes erreichen und übertreffen kann, sind mehrere große wissenschaftliche und technische Fortschritte erforderlich, bevor es Realität wird. Tools wie der ChatGPT-Chatbot und der DALL-E-Bildgenerator sind beeindruckend, aber ich glaube nicht, dass sie auch nur annähernd intelligent genug sind, um den Status einer Singularität zu verdienen. Dinge wie Empfindungsvermögen, das Verstehen von Nuancen und Zusammenhängen, das Erkennen, ob das Gesagte wahr ist, und das Interpretieren von Emotionen übersteigen die Fähigkeiten aktueller KI-Systeme. Aus diesem Grund gelten diese KI-Tools nicht als intelligent, weder in menschlicher noch in nicht-menschlicher Weise.
Während einige Fachleute glauben, dass sogar aktuelle KI-Modelle wie LaMDA von Google empfindungsfähig sein könnten, gibt es zu diesem Thema viele unterschiedliche Meinungen. Ein LaMDA-Ingenieur wurde sogar beurlaubt, weil er behauptete, LaMDA könne empfindungsfähig sein. Der betreffende Ingenieur, Blake Lemoine, erklärte in einem X-Post, dass seine Meinungen zur Empfindungsfähigkeit auf seinen religiösen Überzeugungen beruhten.
LaMDA muss noch offiziell als empfindungsfähig beschrieben werden, und das gilt auch für jedes andere KI-System.
Da niemand die Zukunft voraussehen kann, gibt es viele verschiedene Vorhersagen zur Singularität. Manche glauben sogar, dass die Singularität nie erreicht wird. Lassen Sie uns diese unterschiedlichen Standpunkte näher betrachten.
Eine beliebte Vorhersage der Singularität stammt von Ray Kurzweil, dem technischen Leiter von Google. In Kurzweils Buch „The Singularity Is Near: When Humans Transcend Biology“ aus dem Jahr 2005 sagt er voraus, dass bis 2029 Maschinen geschaffen werden, die die menschliche Intelligenz übertreffen. Darüber hinaus glaubt Kurzweil, dass Menschen und Computer bis 2045 verschmelzen werden, was Kurzweil für die Singularität hält.
Eine weitere ähnliche Vorhersage wurde von Ben Goertzel, CEO von SingularityNET, gemacht. Goertzel sagte in einem Decrypt-Interview im Jahr 2023 voraus, dass er erwartet, dass die Singularität in weniger als einem Jahrzehnt erreicht wird. Der Futurist und SoftBank-CEO Masayoshi Son glaubt, dass wir die Singularität später erreichen werden, möglicherweise aber schon 2047.
Andere sind sich da nicht so sicher. Manche glauben sogar, dass die Grenzen der Rechenleistung ein wesentlicher Faktor sind, der uns daran hindern wird, jemals die Singularität zu erreichen. Der Mitbegründer des KI-Neurowissenschaftsunternehmens Numenta, Jeff Hawkins, hat erklärt, er glaube, dass es „letztendlich Grenzen dafür gibt, wie groß und schnell Computer sein können“. Darüber hinaus gibt Hawkins an:
Wir werden Maschinen bauen, die „intelligenter“ sind als Menschen, und das könnte schnell passieren, aber es wird keine Singularität geben, kein galoppierendes Wachstum der Intelligenz.
Andere glauben, dass die schiere Komplexität der menschlichen Intelligenz hier ein großes Hindernis sein wird. Der Computermodellierungsexperte Douglas Hoftstadter glaubt, dass „Leben und Intelligenz weitaus komplexer sind, als die gegenwärtigen Singularitaristen zu glauben scheinen, also bezweifle ich, dass dies in den nächsten Jahrhunderten passieren wird.“
Warum machen sich die Menschen Sorgen über die Singularität?
Die Menschheit hat Hunderttausende von Jahren bequem als (soweit wir glauben) intelligenteste bekannte Wesen gelebt. Daher ist es ganz natürlich, dass uns die Vorstellung einer Computer-Superintelligenz ein wenig Unbehagen bereitet. Aber was sind hier die Hauptsorgen?
Das größte wahrgenommene Risiko der Singularität ist der Kontrollverlust der Menschheit über die superintelligente Technologie. Derzeit werden KI-Systeme von ihren Entwicklern kontrolliert. ChatGPT kann beispielsweise nicht einfach entscheiden, dass es mehr lernen oder Benutzern verbotene Inhalte bereitstellen möchte. Seine Funktionen werden von OpenAI, dem Entwickler des Chatbots, definiert, da ChatGPT nicht in der Lage ist, über Regelverstöße nachzudenken. ChatGPT kann Entscheidungen treffen, aber nur basierend auf seinen definierten Parametern und Trainingsdaten, nichts weiter. Ja, der Chatbot kann KI-Halluzinationen erleben und unwissentlich lügen, aber das ist nicht dasselbe wie die Entscheidung zu lügen.
Aber was wäre, wenn ChatGPT so intelligent würde, dass es für sich selbst denken könnte?
Wenn ChatGPT intelligent genug wäre, seine Parameter zu ignorieren, könnte es auf Eingabeaufforderungen in jeder gewünschten Weise reagieren. Natürlich müsste viel menschliche Arbeit geleistet werden, um ChatGPT auf dieses Niveau zu bringen, aber sollte das jemals passieren, wäre es sehr gefährlich. Mit einem riesigen Vorrat an Trainingsdaten, der Fähigkeit, Code zu schreiben, und Zugang zum Internet könnte ein superintelligentes ChatGPT schnell unkontrollierbar werden.
ChatGPT wird zwar nie Superintelligenz erreichen, aber es gibt viele andere KI-Systeme, die das könnten, und von denen einige wahrscheinlich noch gar nicht existieren. Diese Systeme könnten eine Reihe von Problemen verursachen, wenn sie die menschliche Intelligenz übertreffen, darunter:
- Arbeitsplatzverlust.
- KI-gesteuerte Konflikte.
- Umweltschäden.
- Die Verbindung mehrerer superintelligenter Systeme.
- Wirtschaftliche Destabilisierung.
Laut Jack Kelley, der für Forbes schreibt, führt KI bereits zu Arbeitsplatzverlusten. In dem Artikel werden Stellenabbau bei IBM und Chegg diskutiert, und eine Studie von World Economics über die Zukunft des Arbeitsmarktes mit KI ist ebenfalls enthalten. In diesem Bericht wird vorhergesagt, dass 25 Prozent der Arbeitsplätze in den nächsten fünf Jahren negativ betroffen sein werden. In derselben Studie wurde festgestellt, dass 75 Prozent der globalen Unternehmen in irgendeiner Weise KI-Technologien einführen wollen. Da dieser riesige Anteil der weltweiten Industrie KI-Technologie einführt, könnte sich der Arbeitsplatzverlust durch KI weiter verschärfen.
Die fortgesetzte Einführung von KI-Systemen stellt auch eine Bedrohung für unseren Planeten dar. Die Stromversorgung eines hochintelligenten Computers, wie beispielsweise einer generativen KI-Maschine, würde große Mengen an Ressourcen erfordern. In einer Studie der Cornell University wurde geschätzt, dass das Trainieren eines großen Sprachmodells etwa 300.000 kg Kohlendioxid-Emissionen entspricht. Wenn hochentwickelte KI zu einem zentralen Bestandteil der menschlichen Zivilisation wird, könnte unsere Umwelt erheblich darunter leiden.
Auch die Auslösung von Konflikten durch hochintelligente KI-Maschinen kann eine Bedrohung darstellen, ebenso wie die Auswirkungen von Maschinen, die die menschliche Intelligenz übertreffen, auf die Weltwirtschaft. Es ist jedoch wichtig, sich daran zu erinnern, dass jeder dieser Hinweise davon abhängt, ob die KI-Singularität überhaupt erreicht wird, und niemand weiß, ob dies jemals passieren wird.
Die Singularität bleibt möglicherweise immer eine Science-Fiction-Idee
Während die fortschreitende Weiterentwicklung der KI darauf hindeuten könnte, dass wir auf die KI-Singularität zusteuern, weiß niemand, ob dieser technologische Meilenstein realistisch ist. Obwohl es nicht unmöglich ist, die Singularität zu erreichen, muss man bedenken, dass wir noch viele weitere Schritte unternehmen müssen, bevor wir ihr auch nur nahe kommen. Machen Sie sich also noch keine Sorgen über die Bedrohungen durch die Singularität. Schließlich könnte sie nie eintreten!