Wichtige Erkenntnisse
- KI-Gifte verändern Trainingsdaten, um sie unbrauchbar zu machen oder KI-Modelle zu beschädigen, und fungieren als eine Form des Protests oder des Selbstschutzes von Künstlern.
- Diese Gifte können die Verwendung der Werke von Künstlern verhindern und ihren Kunststil und ihre geistigen Rechte schützen.
- KI-Gifte kommen möglicherweise zu spät, um ihre Ziele zu erreichen, da bestehende Modelle nicht betroffen sind und alternative „ethische“ Datensätze auftauchen.
Science-Fiction-Geschichten haben uns glauben lassen, dass der Krieg zwischen Menschen und KI mehr Explosionen mit sich bringen würde, aber in Wirklichkeit hat der Kampf gegen unsere synthetischen Freunde eine viel subtilere, aber vielleicht ebenso effektive Wendung genommen.
Was ist KI-Gift?
Mit generativer KI wie GPT oder DALL-E entwickeln diese Programme ihre Fähigkeit, Texte, Musik, Videos und Bilder zu erstellen, indem sie aus absolut riesigen Datensätzen lernen.
Auf diese Weise kann ein Programm wie MidJourney jedes beliebige Bild erstellen, das Sie sich wünschen, wie „Ein Zigarre rauchendes Einhorn im Stil von Van Gogh“ oder „Einen Roboter, der Gift trinkt“, wie ich MidJourney etwas ironisch gebeten habe zu zeichnen. Das ist sicherlich eine erstaunliche Fähigkeit für ein Computerprogramm, und die Ergebnisse haben sich sprunghaft verbessert.

Viele der Künstler, deren Werke als Teil dieses Datensatzes verwendet wurden, sind darüber jedoch nicht glücklich. Das Problem ist, dass sich die Verwendung dieser Bilder zum Trainieren von KI-Modellen, zumindest zum Zeitpunkt des Schreibens dieses Artikels, je nach Region entweder in einer rechtlichen Grauzone befindet oder nicht gesetzlich verboten ist. Wie üblich wird die Gesetzgebung einige Zeit brauchen, um mit der Technologie Schritt zu halten, aber in der Zwischenzeit ist eine mögliche Lösung in Form von „KI-Gift“ aufgetaucht.
Ein KI-Gift verändert etwas, das zum Trainieren eines KI-Modells verwendet werden könnte, so, dass es entweder die Daten wertlos macht oder sogar das Modell schädigt und es funktionsunfähig macht. Die Änderungen am Quellmaterial sind so, dass ein Mensch sie nicht bemerken würde. Hier kommen Tools wie Nightshade und Glaze ins Spiel.
Stellen Sie sich vor, Sie haben ein Bild von einem Hund. Ein KI-Poison-Tool könnte die Pixel des Bildes so verändern, dass das Bild für uns immer noch wie ein Hund aussieht, aber für eine KI, die mit diesem „vergifteten“ Bild trainiert wurde, könnte der Hund mit etwas ganz anderem assoziiert werden, wie einer Katze oder einem beliebigen Objekt. Das ist so, als würde man der KI absichtlich die falschen Informationen beibringen.
Wenn ein KI-Modell mit genügend dieser „vergifteten“ Bilder trainiert wird, ist seine Fähigkeit, genaue oder zusammenhängende Bilder auf der Grundlage seiner Trainingsdaten zu erzeugen, beeinträchtigt. Die KI könnte anfangen, verzerrte Bilder oder völlig falsche Interpretationen bestimmter Eingabeaufforderungen zu produzieren.
Warum gibt es KI-Poisons?
Wie ich oben kurz erwähnt habe, gibt es KI-Gift-Tools, die Künstlern (im Fall von visuellen Inhalten) eine Möglichkeit bieten, sich dagegen zu wehren, dass ihre Bilder zum Trainieren von KI-Modellen verwendet werden. Es gibt mehrere Gründe, warum sie besorgt sind, darunter, aber nicht beschränkt auf:
- Angst, durch KI ersetzt zu werden oder Arbeit an sie zu verlieren.
- Dass ihr einzigartiger Kunststil und ihre Identität kopiert werden.
- Das Gefühl, dass ihre geistigen Rechte verletzt wurden, unabhängig von den aktuell geltenden Rechtsvorschriften.
Angesichts der Natur des Internets und der Leichtigkeit, mit der Daten aus dem Web „abgegriffen“ werden können, sind diese Künstler machtlos, die Aufnahme ihrer Bilder in Datensätze zu verhindern. Indem sie sie jedoch „vergiften“, können sie nicht nur die Verwendung ihrer Kunst verhindern, sondern auch das Modell als Ganzes beschädigen.
Diese Vergiftungen könnten also sowohl als praktische Form des Selbstschutzes als auch als Form des Protests angesehen werden.
Ist das zu wenig und zu spät?
Die Idee, KI-Gifte zu verwenden, um zu verhindern, dass KI-Kunstmodelle bestimmte Bilder verwenden, ist zwar interessant, aber es könnte zu spät sein, um die Ziele zu erreichen, die diese Erfindung ursprünglich vorangetrieben haben.
Erstens wirken sich diese Gifte nicht auf bereits vorhandene Bildgenerierungsmodelle aus. Alle Fähigkeiten, die sie bereits haben, bleiben also erhalten. Sie wirken sich nur auf das Training zukünftiger Modelle aus.
Zweitens haben KI-Forscher während der Anfangsphasen des Trainings dieser Modelle viel gelernt. Es gibt jetzt Ansätze zum Trainieren von Modellen, die mit viel kleineren Datensätzen arbeiten können. Sie benötigen nicht mehr die riesige Anzahl von Bildern wie früher, und die Notwendigkeit, riesige Datenmengen aus dem Internet zu extrahieren, wird in Zukunft möglicherweise nicht mehr die Standardpraxis sein.
Drittens ist es jetzt, da die Modelle bereits existieren, möglich, sie anhand von „ethischen“ Datensätzen zu trainieren. Mit anderen Worten, Datensätze, für die eine ausdrückliche Erlaubnis oder Rechte vorliegen, zum Trainieren von KI verwendet zu werden. Dies hat Adobe mit seinem Firefly und seinen „ethisch beschafften“ Daten versucht.
KI-Gifte können zwar sicherlich verhindern, dass Ihre Arbeit in Modelle einfließt oder aus dem Internet zusammengetragene Datensätze als Ganzes unbrauchbar machen, aber es ist unwahrscheinlich, dass sie von nun an etwas an der Weiterentwicklung und Implementierung der Technologie ändern werden.
Leave a Reply
You must be logged in to post a comment.