Während Deepfakes florieren, kämpfen die Länder mit der Reaktion

0
49

Geschrieben von Tiffany Hsu

Deepfake-Technologie – Software, mit der Menschen Gesichter, Stimmen und andere Merkmale austauschen können, um digitale Fälschungen zu erstellen – wurde in den letzten Jahren verwendet, um einen synthetischen Ersatz für Elon Musk herzustellen, der schillte ein Kryptowährungsbetrug, um mehr als 100.000 Frauen auf Telegram digital „auszuziehen“ und Unternehmen Millionen von Dollar zu stehlen, indem sie die Stimmen ihrer Führungskräfte am Telefon nachahmen.

In den meisten Ländern der Welt können die Behörden nicht viel dagegen tun. Auch wenn die Software immer ausgefeilter und zugänglicher wird, gibt es nur wenige Gesetze, um ihre Verbreitung zu steuern.

China hofft, die Ausnahme zu sein. In diesem Monat verabschiedete das Land weitreichende Regeln, die verlangen, dass manipuliertes Material die Zustimmung des Subjekts hat und digitale Signaturen oder Wasserzeichen trägt, und dass Deepfake-Dienstanbieter Möglichkeiten bieten, „Gerüchte zu widerlegen“.

Nur für Abonnenten GeschichtenAlle anzeigen

Deutschlands Zurückhaltung gegenüber Panzern ergibt sich aus seiner Geschichte und seiner Politik

< /figure>Upendra Singh Kushwaha und Nitish Kumar: Eine lange Hassliebe

Für Technologieunternehmen weichen Jahre des leichten Geldes harten Zeiten

Delhi vertraulich: Bollywood-Stars loben PM für die Benennung von Andaman & Nico… Wenden Sie den Neujahrs-Promo-Code SD25

anAber China steht vor den gleichen Hürden, die andere Bemühungen zur Regulierung von Deepfakes behindert haben: Die schlimmsten Missbraucher der Technologie sind in der Regel am schwersten zu fassen, agieren anonym, passen sich schnell an und teilen ihre synthetischen Kreationen über grenzenlose Online-Plattformen. Chinas Schritt hat auch einen weiteren Grund hervorgehoben, warum nur wenige Länder Regeln verabschiedet haben: Viele Menschen befürchten, dass die Regierung die Regeln nutzen könnte, um die freie Meinungsäußerung einzuschränken.

Aber einfach, indem sie ihre Mandate vorantreibt, sagten Technologieexperten in Peking könnten beeinflussen, wie andere Regierungen mit dem maschinellen Lernen und der künstlichen Intelligenz umgehen, die die Deepfake-Technologie antreiben. Da es auf diesem Gebiet nur wenige Präzedenzfälle gibt, suchen Gesetzgeber auf der ganzen Welt nach Testfällen, die sie nachahmen oder ablehnen können.

„Die KI-Szene ist ein interessanter Ort für die globale Politik, weil die Länder miteinander konkurrieren, wer den Ton angibt“, sagte Ravit Dotan, ein Postdoktorand, der das Collaborative AI Responsibility Lab an der University of Pittsburgh leitet. „Wir wissen, dass Gesetze kommen, aber wir wissen noch nicht, was sie sind, daher gibt es viel Unvorhersehbarkeit.“

Werbung

Deepfakes sind in vielen Branchen vielversprechend. Letztes Jahr hat die niederländische Polizei einen kalten Fall aus dem Jahr 2003 wiederbelebt, indem sie einen digitalen Avatar des 13-jährigen Mordopfers erstellt und Aufnahmen von ihm veröffentlicht hat, wie er in der heutigen Zeit durch eine Gruppe seiner Familie und Freunde geht.

Die Technologie wird auch für Parodien und Satire verwendet, für Online-Käufer, die Kleidung in virtuellen Umkleidekabinen anprobieren, für dynamische Museumsdioramen und für Schauspieler, die hoffen, in internationalen Filmveröffentlichungen mehrere Sprachen zu sprechen. Forscher am Massachusetts Institute of Technology Media Lab und UNICEF verwendeten ähnliche Techniken, um Empathie zu untersuchen, indem sie Bilder von nordamerikanischen und europäischen Städten in die vom Krieg in Syrien gezeichneten Landschaften verwandelten.

Aber auch problematische Anwendungen sind reichlich vorhanden. Rechtsexperten befürchten, dass Deepfakes missbraucht werden könnten, um das Vertrauen in Überwachungsvideos, Körperkameras und andere Beweismittel zu untergraben. (Eine manipulierte Aufzeichnung, die 2019 in einem britischen Sorgerechtsfall eingereicht wurde, schien laut dem Anwalt des Elternteils einen Elternteil zu zeigen, der gewalttätige Drohungen ausspricht.)

Werbung

Digitale Fälschungen könnten Polizisten diskreditieren, zu Gewalt anstacheln oder sie auf wilde Verfolgungsjagden schicken. Das Heimatschutzministerium hat auch Risiken wie Cybermobbing, Erpressung, Aktienmanipulation und politische Instabilität identifiziert.

Einige Experten sagen voraus, dass bis zu 90 % der Online-Inhalte innerhalb weniger Jahre synthetisch generiert werden könnten.

p>

Das zunehmende Volumen von Deepfakes könnte dazu führen, dass „Bürger keine gemeinsame Realität mehr haben oder gesellschaftliche Verwirrung darüber stiften, welche Informationsquellen zuverlässig sind; eine Situation, die manchmal als „Informationsapokalypse“ oder „Realitätsapathie“ bezeichnet wird“, schrieb die europäische Strafverfolgungsbehörde Europol letztes Jahr in einem Bericht.

Britische Beamte zitierten letztes Jahr Drohungen wie eine Website, die „praktisch zieht Frauen nackt aus“ und wurde in den ersten acht Monaten des Jahres 2021 38 Millionen Mal besucht. Aber dort und in der Europäischen Union müssen Vorschläge, Leitplanken für die Technologie zu setzen, noch Gesetz werden.

Versuche in den Vereinigten Staaten, eine Bundesarbeitsgruppe zur Untersuchung der Deepfake-Technologie einzurichten, sind ins Stocken geraten. Die Abgeordnete Yvette D. Clarke, D-N.Y., schlug 2019 und erneut 2021 einen Gesetzentwurf vor – den Defending Every and Every Person From False Appearances by Keeping Exploitation Subject to Accountability Act – über den noch abgestimmt werden muss. Sie sagte, sie plane, den Gesetzentwurf dieses Jahr wieder einzuführen.

Werbung

Clarke sagte, ihr Gesetzentwurf, wonach Deepfakes Wasserzeichen oder Kennzeichnungen tragen müssten, sei „eine Schutzmaßnahme“. Im Gegensatz dazu beschrieb sie die neuen chinesischen Regeln als „eher einen Kontrollmechanismus.“

„Viele der hochentwickelten Zivilgesellschaften erkennen, wie dies bewaffnet und zerstörerisch sein kann“, sagte sie und fügte hinzu, dass die Vereinigten Staaten mutiger sein sollten, ihre eigenen Standards zu setzen, anstatt einem anderen Spitzenreiter hinterherzuhinken.

Werbung

“ Wir wollen überhaupt nicht, dass die Chinesen unser Mittagessen im Technologiebereich essen“, sagte Clarke. „Wir möchten in der Lage sein, die Basis für unsere Erwartungen in Bezug auf die Technologiebranche und den Verbraucherschutz in diesem Bereich festzulegen.“

Beamte der Strafverfolgungsbehörden haben jedoch erklärt, dass die Branche immer noch nicht in der Lage ist, Deepfakes zu erkennen, und Probleme hat, die böswillige Verwendung der Technologie zu verwalten. Ein Anwalt in Kalifornien schrieb 2021 in einer juristischen Fachzeitschrift, dass bestimmte Deepfake-Regeln „ein fast unüberwindbares Machbarkeitsproblem“ hätten und „funktional nicht durchsetzbar“ seien, weil (meist anonyme) Täter ihre Spuren leicht verwischen könnten.

Werbung

Die in den Vereinigten Staaten existierenden Regeln zielen größtenteils auf politische oder pornografische Deepfakes ab. Marc Berman, ein Demokrat in der kalifornischen Staatsversammlung, der Teile des Silicon Valley vertritt und solche Gesetze gesponsert hat, sagte, er sei sich keiner Bemühungen bewusst, seine Gesetze durch Klagen oder Geldstrafen durchzusetzen. Aber er sagte, dass eine Deepfaking-App aus Respekt vor einem seiner Gesetze die Fähigkeit, Präsident Donald Trump nachzuahmen, vor den Wahlen 2020 entfernt habe.

Nur eine Handvoll anderer Bundesstaaten, einschließlich New York, schränken Deepfake-Pornografie ein. Als der Bürgermeister von Houston 2019 zur Wiederwahl kandidierte, sagte er, eine kritische Anzeige eines Mitkandidaten verstoße gegen ein texanisches Gesetz, das bestimmte irreführende politische Deepfakes verbietet.

„Die Hälfte des Wertes führt dazu, dass mehr Menschen ein bisschen mehr sind skeptisch gegenüber dem, was sie auf Social-Media-Plattformen sehen, und ermutigen die Leute, nicht alles für bare Münze zu nehmen“, sagte Berman.

Aber selbst wenn Technologieexperten, Gesetzgeber und Opfer einen stärkeren Schutz fordern, mahnen sie auch zur Vorsicht. Deepfake-Gesetze, sagten sie, laufen Gefahr, sowohl übertrieben als auch zahnlos zu sein. Das Aufzwingen von Labels oder Haftungsausschlüssen auf Deepfakes, die als gültige Kommentare zu Politik oder Kultur konzipiert sind, könnte den Inhalt auch weniger vertrauenswürdig erscheinen lassen, fügten sie hinzu.

Gruppen für digitale Rechte wie die Electronic Frontier Foundation drängen Gesetzgeber, Deepfake-Überwachung aufzugeben Technologieunternehmen zu nutzen oder einen bestehenden Rechtsrahmen zu nutzen, der Probleme wie Betrug, Urheberrechtsverletzungen, Obszönität und Verleumdung anspricht.

„Das ist das beste Mittel gegen Schäden, eher als die staatliche Einmischung, die bei ihrer Umsetzung fast immer Material erfasst, das nicht schädlich ist, das die Menschen von legitimen, produktiven Reden abhält“, sagte David Greene, ein Anwalt für Bürgerrechte bei der Electronic Frontier Foundation.

Vor einigen Monaten hat Google damit begonnen, Menschen zu verbieten, seine Colaboratory-Plattform, ein Datenanalysetool, zu verwenden, um KI-Systeme für die Generierung von Deepfakes zu trainieren. Im Herbst brachte das Unternehmen hinter Stable Diffusion, einem Tool zur Bildgenerierung, ein Update auf den Markt, das laut The Verge Benutzer beim Versuch, nackte und pornografische Inhalte zu erstellen, behindert. Meta, TikTok, YouTube und Reddit verbieten Deepfakes, die irreführend sein sollen.

Gesetze oder Verbote können jedoch Schwierigkeiten haben, eine Technologie einzudämmen, die darauf ausgelegt ist, sich kontinuierlich anzupassen und zu verbessern. Wie schwierig es sein kann, Deepfakes zu identifizieren, demonstrierten im vergangenen Jahr Forscher der RAND Corp., als sie mehr als 3.000 Testpersonen eine Reihe von Videos zeigten und sie aufforderten, die manipulierten zu identifizieren (z. B. ein Deepfake der Klimaaktivistin Greta Thunberg). die Existenz des Klimawandels leugnend).

Die Gruppe lag in mehr als einem Drittel der Fälle falsch. Sogar eine Untergruppe von mehreren Dutzend Studenten, die maschinelles Lernen an der Carnegie Mellon University studieren, lag in mehr als 20 % der Fälle falsch.

Initiativen von Unternehmen wie Microsoft und Adobe versuchen nun, Medien zu authentifizieren und Moderationstechnologie zu trainieren, um sie zu erkennen die Inkonsistenzen, die synthetische Inhalte kennzeichnen. Aber sie kämpfen ständig darum, die Deepfake-Ersteller abzuhängen, die oft neue Wege finden, um Fehler zu beheben, Wasserzeichen zu entfernen und Metadaten zu ändern, um ihre Spuren zu verwischen.

„Es gibt ein technologisches Wettrüsten zwischen Deepfake-Erstellern und Deepfake-Detektoren “, sagte Jared Mondschein, ein Physiker bei RAND. „Bis wir anfangen, Wege zu finden, um Deepfakes besser zu erkennen, wird es wirklich schwierig für jede Menge Gesetzgebung sein, Biss zu haben.“

Dieser Artikel erschien ursprünglich in der New York Times.

© IE Online Media Services Pvt Ltd