Ist Künstliche Intelligenz (KI) gefährlich?

0
63

Am Montag, den 22. Mai 2023, teilte ein verifizierter Twitter-Account namens „Bloomberg Feed“ einen Tweet mit der Behauptung, es habe eine Explosion im Pentagon gegeben, begleitet von einem Bild. Wenn Sie sich fragen, was das mit künstlicher Intelligenz (KI) zu tun hat: Das Bild wurde von der KI erstellt, der Tweet verbreitete sich schnell viral und löste einen kurzen Börsenrückgang aus. Es hätte viel schlimmer kommen können – eine deutliche Erinnerung an die Gefahren künstlicher Intelligenz.

Gefahren durch künstliche Intelligenz

Es sind nicht nur Fake News, über die wir uns Sorgen machen müssen. Mit KI sind viele unmittelbare oder potenzielle Risiken verbunden, von denen in Bezug auf Datenschutz und Sicherheit bis hin zu Voreingenommenheit und Urheberrechtsproblemen. Wir werden uns mit einigen dieser Gefahren der künstlichen Intelligenz befassen, sehen, was getan wird, um sie jetzt und in Zukunft zu mindern, und fragen, ob die Risiken der KI die Vorteile überwiegen.

Inhaltsverzeichnis

    Fake News

    Als Deepfakes zum ersten Mal auftauchten, gab es Bedenken, dass sie in böser Absicht eingesetzt werden könnten. Das Gleiche gilt für die neue Welle von KI-Bildgeneratoren wie DALL-E 2, Midjourney oder DreamStudio. Am 28. März 2023 verbreiteten sich gefälschte, von der KI generierte Bilder von Papst Franziskus in einer weißen Balenciaga-Pufferjacke, wie er mehrere Abenteuer, darunter Skateboardfahren und Pokern, erlebte, viral. Wenn man die Bilder nicht genau betrachtete, war es schwierig, diese Bilder von der Realität zu unterscheiden.

    Während das Beispiel mit dem Papst zweifellos etwas Spaß gemacht hat, war das Bild (und der dazugehörige Tweet) über das Pentagon alles andere als lustig. Von KI erzeugte gefälschte Bilder können den Ruf schädigen, Ehen oder Karrieren zerstören, politische Unruhen hervorrufen und sogar Kriege auslösen, wenn sie von den falschen Leuten genutzt werden – kurz gesagt, diese KI-generierten Bilder können bei Missbrauch äußerst gefährlich sein.

    Da KI-Bildgeneratoren jetzt für jedermann kostenlos verfügbar sind und Photoshop seine beliebte Software um einen KI-Bildgenerator erweitert, sind die Möglichkeiten, Bilder zu manipulieren und Fake News zu erstellen, größer denn je.

    Datenschutz, Sicherheit und Hacking

    Datenschutz und Sicherheit sind ebenfalls große Bedenken, wenn es um die Risiken von KI geht, da eine Reihe von Ländern ChatGPT von OpenAI bereits verboten haben. Italien hat das Modell aus Datenschutzgründen verboten, da es der Ansicht ist, dass es nicht der europäischen Datenschutz-Grundverordnung (DSGVO) entspricht, während die Regierungen Chinas, Nordkoreas und Russlands es aus Angst vor der Verbreitung von Fehlinformationen verboten haben.

    Warum sind wir so besorgt über den Datenschutz, wenn es um KI geht? KI-Apps und -Systeme sammeln große Datenmengen, um daraus zu lernen und Vorhersagen zu treffen. Doch wie werden diese Daten gespeichert und verarbeitet? Es besteht ein reales Risiko, dass Datenschutzverletzungen, Hackerangriffe und Informationen in die falschen Hände geraten.

    Es sind nicht nur unsere persönlichen Daten, die gefährdet sind. KI-Hacking ist ein echtes Risiko – es ist noch nicht passiert, aber wenn Personen mit böswilliger Absicht in KI-Systeme eindringen könnten, könnte dies schwerwiegende Folgen haben. Beispielsweise könnten Hacker selbstfahrende Fahrzeuge steuern, KI-Sicherheitssysteme hacken, um Zugang zu hochsicheren Orten zu erhalten, und sogar Waffensysteme mit KI-Sicherheit hacken.

    Experten der Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums erkennen diese Risiken und arbeiten bereits am DARPA-Projekt „Garantieing AI Robustness Against Deception“ (GARD), um das Problem anzugehen den Grund auf. Ziel des Projekts ist es, sicherzustellen, dass die Widerstandsfähigkeit gegen Hacking und Manipulation in Algorithmen und KI eingebaut ist.

    Urheberrechtsverletzung

    Eine weitere Gefahr von KI ist die Verletzung des Urheberrechts. Das hört sich vielleicht nicht so ernst an wie einige andere Gefahren, die wir erwähnt haben, aber die Entwicklung von KI-Modellen wie GPT-4 setzt jeden einem erhöhten Risiko von Verstößen aus.

    Jedes Mal, wenn Sie ChatGPT bitten, etwas für Sie zu erstellen – sei es ein Blog-Beitrag zum Thema Reisen oder ein neuer Name für Ihr Unternehmen –, geben Sie ihm Informationen ein, die es dann zur Beantwortung zukünftiger Anfragen verwendet. Die Informationen, die es an Sie zurückmeldet, könnten das Urheberrecht einer anderen Person verletzen. Deshalb ist es so wichtig, einen Plagiatsdetektor zu verwenden und alle von KI erstellten Inhalte zu bearbeiten, bevor Sie sie veröffentlichen.

    Gesellschaftliche und Datenverzerrung

    KI ist nicht menschlich, also kann sie nicht voreingenommen sein, oder? Falsch. Menschen und Daten werden verwendet, um KI-Modelle und Chatbots zu trainieren, was bedeutet, dass voreingenommene Daten oder Persönlichkeiten zu einer voreingenommenen KI führen. Es gibt zwei Arten von Voreingenommenheit in der KI: gesellschaftliche Voreingenommenheit und Datenvoreingenommenheit.

    Was passiert, wenn in der alltäglichen Gesellschaft viele Vorurteile vorhanden sind, wenn diese Vorurteile Teil der KI werden? Die für das Training des Modells verantwortlichen Programmierer könnten voreingenommene Erwartungen haben, die dann Eingang in KI-Systeme finden.

    Oder die zum Trainieren und Entwickeln einer KI verwendeten Daten könnten falsch, voreingenommen oder in böser Absicht erfasst sein. Dies führt zu Datenverzerrungen, die ebenso gefährlich sein können wie gesellschaftliche Verzerrungen. Wenn beispielsweise ein System zur Gesichtserkennung hauptsächlich anhand der Gesichter weißer Menschen trainiert wird, kann es Schwierigkeiten haben, Angehörige von Minderheitengruppen zu erkennen, was die Unterdrückung aufrechterhält.

    Roboter übernehmen unsere Jobs

    Die Entwicklung von Chatbots wie ChatGPT und Google Bard hat eine ganz neue Sorge im Zusammenhang mit KI aufgeworfen: Das Risiko, dass Roboter unsere Jobs wegnehmen. Wir sehen bereits, dass Autoren in der Technologiebranche durch KI ersetzt werden, Softwareentwickler befürchten, dass sie ihre Jobs an Bots verlieren, und Unternehmen, die ChatGPT verwenden, um Blog-Inhalte und Social-Media-Inhalte zu erstellen, anstatt menschliche Autoren einzustellen.

    Laut dem „The Future of Jobs Report 2020“ des Weltwirtschaftsforums wird KI bis 2025 voraussichtlich weltweit 85 Millionen Arbeitsplätze ersetzen. Auch wenn KI nicht Schriftsteller ersetzt, wird sie bereits von vielen als Werkzeug genutzt. Diejenigen in Berufen, bei denen die Gefahr besteht, dass sie durch KI ersetzt werden, müssen sich möglicherweise anpassen, um zu überleben – zum Beispiel können Autoren zu KI-Prompt-Ingenieuren werden, die es ihnen ermöglichen, mit Tools wie ChatGPT für die Inhaltserstellung zu arbeiten, anstatt durch diese Modelle ersetzt zu werden.

    Zukünftige potenzielle KI-Risiken

    Dies sind alles unmittelbare oder drohende Risiken, aber wie sieht es mit einigen der weniger wahrscheinlichen, aber dennoch möglichen Gefahren der KI aus, die wir in der Zukunft sehen könnten? Dazu gehören Dinge wie die Programmierung von KI, um Menschen zu schaden, zum Beispiel autonome Waffen, die darauf trainiert sind, während eines Krieges zu töten.

    Dann besteht das Risiko, dass sich die KI zielstrebig auf ihr programmiertes Ziel konzentriert und destruktive Verhaltensweisen entwickelt, während sie versucht, dieses Ziel um jeden Preis zu erreichen, selbst wenn Menschen versuchen, dies zu verhindern.

    Skynet hat uns beigebracht, was passiert, wenn eine KI empfindungsfähig wird. Auch wenn der Google-Ingenieur Blake Lemoine bereits im Juni 2022 versucht hat, alle davon zu überzeugen, dass LaMDA, der künstlich intelligente Chatbot-Generator von Google, empfindungsfähig war, gibt es glücklicherweise bis heute keine Beweise dafür, dass dies wahr ist.

    Die Herausforderungen der KI-Regulierung

    Am Montag, den 15. Mai 2022, nahm Sam Altman, CEO von OpenAI, an der ersten Kongressanhörung zum Thema künstliche Intelligenz teil und warnte: „Wenn diese Technologie schief geht, kann sie ziemlich schief gehen.“ Der OpenAI CO machte deutlich, dass er eine Regulierung befürwortet, und brachte viele seiner eigenen Ideen in die Anhörung ein. Das Problem besteht darin, dass sich die KI so schnell weiterentwickelt, dass es schwierig ist, zu wissen, wo man mit der Regulierung beginnen soll.

    Der Kongress möchte vermeiden, die gleichen Fehler wie zu Beginn des Social-Media-Zeitalters zu machen, und ein Expertenteam arbeitet zusammen mit dem Mehrheitsführer im Senat, Chuck Schumer, bereits an Vorschriften, die Unternehmen dazu verpflichten würden, offenzulegen, welche Datenquellen sie zum Trainieren von Modellen verwendet haben und wen trainierte sie. Es kann jedoch einige Zeit dauern, bis klar wird, wie die KI genau reguliert wird, und es besteht kein Zweifel, dass es Gegenreaktionen seitens der KI-Unternehmen geben wird.

    Die Bedrohung durch eine künstliche allgemeine Intelligenz

    Es besteht auch das Risiko der Schaffung einer künstlichen allgemeinen Intelligenz (AGI), die alle Aufgaben erfüllen könnte, die ein Mensch (oder ein Tier) ausführen könnte. In Science-Fiction-Filmen oft erwähnt, sind wir von einer solchen Schöpfung wahrscheinlich noch Jahrzehnte entfernt, aber wenn wir tatsächlich eine AGI erschaffen, könnte dies eine Bedrohung für die Menschheit darstellen.

    Viele Persönlichkeiten des öffentlichen Lebens vertreten bereits die Überzeugung, dass KI eine existenzielle Bedrohung für den Menschen darstellt, darunter Stephen Hawking, Bill Gates und sogar der ehemalige Google-CEO Eric Schmidt, der erklärte: „Künstliche Intelligenz könnte existenzielle Risiken für Regierungen darstellen.“ Wir müssen wissen, wie wir sicherstellen können, dass die Technologie nicht von bösen Menschen missbraucht wird.“

    Ist künstliche Intelligenz also gefährlich und überwiegt ihr Risiko ihre Vorteile? Die Entscheidung darüber ist noch unklar, aber wir sehen bereits Hinweise auf einige der Risiken, die uns derzeit umgeben. Andere Gefahren dürften, wenn überhaupt, in absehbarer Zeit weniger zum Tragen kommen. Eines ist jedoch klar: Die Gefahren von KI sollten nicht unterschätzt werden. Es ist von größter Bedeutung, dass wir sicherstellen, dass die KI von Anfang an ordnungsgemäß reguliert wird, um zukünftige Risiken zu minimieren und hoffentlich abzumildern.