Geschrieben von Kevin Roose
Eine Gruppe von Branchenführern war Sie wollen am Dienstag warnen, dass die künstliche Intelligenz, die sie entwickeln, eines Tages eine existenzielle Bedrohung für die Menschheit darstellen könnte und als gesellschaftliches Risiko auf Augenhöhe mit Pandemien und Atomkriegen betrachtet werden sollte.
„Das Risiko des Aussterbens verringern.“ KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität haben“, heißt es in einer ein Satz umfassenden Erklärung, die voraussichtlich vom Center for AI Safety, einer gemeinnützigen Organisation, veröffentlicht wird. Der offene Brief wurde von mehr als 350 Führungskräften, Forschern und Ingenieuren unterzeichnet, die im Bereich KI tätig sind.
Zu den Unterzeichnern gehörten Top-Führungskräfte von drei der führenden KI-Unternehmen: Sam Altman, CEO von OpenAI; Demis Hassabis, CEO von Google DeepMind; und Dario Amodei, CEO von Anthropic.
Geoffrey Hinton und Yoshua Bengio, zwei der drei Forscher, die für ihre bahnbrechende Arbeit zu neuronalen Netzen einen Turing Award gewonnen haben und oft als „Paten“ der modernen KI-Bewegung gelten , unterzeichnete die Erklärung, ebenso wie andere prominente Forscher auf diesem Gebiet. (Der dritte Gewinner des Turing-Preises, Yann LeCun, der die KI-Forschungsbemühungen von Meta leitet, hatte bis Dienstag noch nicht unterschrieben.)
Die Erklärung kommt zu einer Zeit wachsender Besorgnis über die möglichen Schäden von KI. Jüngste Fortschritte bei sogenannten großen Sprachmodellen – der Art von KI-Systemen, die von ChatGPT und anderen Chatbots verwendet werden – haben Befürchtungen geweckt, dass KI bald in großem Umfang zur Verbreitung von Fehlinformationen und Propaganda eingesetzt werden könnte oder dass dadurch Millionen von Angestelltenjobs vernichtet werden könnten .
Einige glauben, dass die KI am Ende so mächtig werden könnte, dass sie innerhalb weniger Jahre zu gesellschaftlichen Störungen führen könnte, wenn nichts unternommen wird, um sie zu verlangsamen, obwohl Forscher manchmal nicht erklären, wie das passieren würde.
Werbung
Diese Befürchtungen werden von zahlreichen Branchenführern geteilt, was sie in die ungewöhnliche Lage bringt, zu argumentieren, dass eine Technologie, die sie entwickeln – und in vielen Fällen rasant darum bemüht sind, schneller als ihre Konkurrenten zu entwickeln – große Risiken birgt und strenger reguliert werden sollte .
Diesen Monat trafen sich Altman, Hassabis und Amodei mit Präsident Joe Biden und Vizepräsidentin Kamala Harris, um über die KI-Regulierung zu sprechen. In einer Aussage vor dem Senat nach der Sitzung warnte Altman, dass die Risiken fortschrittlicher KI-Systeme ernst genug seien, um ein Eingreifen der Regierung zu rechtfertigen, und forderte eine Regulierung der KI wegen ihrer potenziellen Schäden.
Dan Hendrycks, geschäftsführender Direktor des Center for AI Safety, sagte in einem Interview, dass der offene Brief ein „Coming-out“ für einige Branchenführer darstellte, die – allerdings nur privat – Bedenken hinsichtlich der Risiken der von ihnen entwickelten Technologie geäußert hatten .
Werbung
„Selbst in der KI-Community gibt es ein weit verbreitetes Missverständnis, dass es nur eine Handvoll Untergangsverderber gibt“, sagte Hendrycks. „Aber tatsächlich würden viele Menschen privat ihre Besorgnis über diese Dinge äußern.“
Einige Skeptiker argumentieren, dass die KI-Technologie noch zu unreif sei, um eine existenzielle Bedrohung darzustellen. Wenn es um heutige KI-Systeme geht, machen sie sich mehr Sorgen über kurzfristige Probleme, wie etwa voreingenommene und falsche Reaktionen, als über längerfristige Gefahren.
Andere argumentieren jedoch, dass sich die KI so schnell verbessert, dass sie in einigen Bereichen bereits die Leistung des Menschen übertroffen hat und in anderen bald übertreffen wird. Sie sagen, dass die Technologie Anzeichen fortgeschrittener Fähigkeiten und eines fortgeschrittenen Verständnisses gezeigt hat, was Anlass zu Befürchtungen gibt, dass dies bei der „künstlichen allgemeinen Intelligenz“ oder AGI, einer Art von KI, die bei einer Vielzahl von Aufgaben mit der Leistung eines Menschen mithalten oder diese übertreffen kann, möglicherweise nicht der Fall ist weit weg.
In einem Blogbeitrag letzte Woche schlugen Altman und zwei andere OpenAI-Führungskräfte mehrere Möglichkeiten vor, wie leistungsstarke KI-Systeme verantwortungsvoll verwaltet werden könnten. Sie forderten eine Zusammenarbeit zwischen den führenden KI-Herstellern, mehr technische Forschung zu großen Sprachmodellen und die Bildung einer internationalen KI-Sicherheitsorganisation, ähnlich der Internationalen Atomenergiebehörde, die den Einsatz von Atomwaffen kontrollieren will.
< p>Altman hat auch seine Unterstützung für Regeln zum Ausdruck gebracht, die von Herstellern großer, hochmoderner KI-Modelle verlangen würden, sich für eine staatliche Lizenz zu registrieren.
Werbung
Im März unterzeichneten mehr als 1.000 Technologen und Forscher einen weiteren offenen Brief, in dem sie zu einer sechsmonatigen Pause bei der Entwicklung der größten KI-Modelle aufriefen und Bedenken hinsichtlich eines „außer Kontrolle geratenen Wettlaufs um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe“ äußerten. „
Dieser Brief, der von einer anderen auf KI ausgerichteten gemeinnützigen Organisation, dem Future of Life Institute, organisiert wurde, wurde von Elon Musk und anderen bekannten Technologieführern unterzeichnet, hatte aber nicht viele Unterschriften von führenden Persönlichkeiten KI-Labore.
Werbung
Die Kürze der neuen Erklärung des Center for AI Safety – nur 22 Wörter – sollte KI-Experten vereinen, die möglicherweise unterschiedlicher Meinung über die Art spezifischer Risiken oder Maßnahmen zur Verhinderung des Auftretens dieser Risiken sind, die aber allgemeine Bedenken darüber teilen leistungsstarke KI-Systeme, sagte Hendrycks.
„Wir wollten nicht auf eine sehr große Auswahl an 30 möglichen Interventionen drängen“, sagte Hendrycks. „Wenn das passiert, verwässert es die Botschaft.“
Werbung
Die Aussage wurde zunächst einigen hochkarätigen KI-Experten mitgeteilt, darunter Hinton, der diesen Monat seinen Job bei Google kündigte, um freier über die potenziellen Schäden der KI sprechen zu können. Von dort gelangte es zu mehreren der großen KI-Labore, wo sich dann einige Mitarbeiter anmeldeten.
Die Dringlichkeit der Warnungen von KI-Verantwortlichen hat zugenommen, da Millionen von Menschen sich zur Unterhaltung an KI-Chatbots gewandt haben. Kameradschaft und erhöhte Produktivität, und da sich die zugrunde liegende Technologie rasant verbessert.
Lesen Sie auch: US-Repräsentantenhaus verabschiedet Schuldenobergrenze Deal, da eine Standardbedrohung droht Der LeT-Terrorist Abdul Salam Bhuttavi, der die Angreifer vom 26.11 -ingo-joseph-109629.jpg?resize=450,250″ />
Deutschland ordnet die Schließung von vier von fünf russischen Konsulaten an…
Chinas junge Menschen können keine Arbeit finden. Xi Jinping sagt, man solle „Bitterkeit essen“.
„Ich denke, wenn diese Technologie schief geht, kann sie ziemlich schief gehen“, sagte Altman dem Unterausschuss des Senats. „Wir wollen mit der Regierung zusammenarbeiten, um das zu verhindern.“