Ist es möglich, sich vor Deepfakes zu schützen, die für böswillige Zwecke wie unerlaubte Pornoproduktion und Finanzbetrug eingesetzt werden?

Merve Kara-Kaşka
BBC Türkisch

Jetzt kann jeder zum Ziel werden, dass seine Stimme und sein Bild gegen seinen Willen für schändliche Zwecke missbraucht werden. Wie können Nutzer also vor potenziellen Angriffen geschützt werden?

Neue Inhalte, die Ton und Bilder verwenden, scheinen eine neue Ära des Betrugs mit generativer künstlicher Intelligenz (Generative AI) eingeläutet zu haben.

Während verdächtig aussehende E-Mails durch Software ersetzt werden, die Sie mit der Stimme und dem Bild Ihrer Verwandten anruft und um Geld bittet, nimmt die Zahl der Fälle, in denen von unerwünschten Bildern profitiert wird, von Tag zu Tag zu.

Obwohl Tools gegen Deepfake-Betrügereien entwickelt wurden, die menschliche Stimmen und Anblicke imitieren, könnten schnelle Fortschritte in der Technologie „eine ewige Ära des Katz-und-Maus-Spiels“ eingeläutet haben.

Was ist Deepfake und wie wird es verwendet?

Deepfake ist eine Technologie, deren Einsatzgebiete sich von Tag zu Tag erweitern und weiterentwickeln. Es ermöglicht die Produktion realistischer Bilder oder Töne mit künstlicher Intelligenz.

Heutzutage werden weiterhin verblüffend schöne Einsatzmöglichkeiten von Deepfake entwickelt.

Beispielsweise ermöglichten Forscher der University of California San Francisco und Berkeley in den Vereinigten Staaten (USA) in diesem Sommer einem seit 18 Jahren gelähmten Patienten mithilfe eines Gehirnimplantats und einer künstlichen Beatmung erstmals das „Sprechen“. Intelligenz.

Das Team synthetisierte die Stimme der Patientin erneut anhand eines Bildes, das bei ihrer Hochzeit im Jahr 2005 aufgenommen wurde.

Trotz der vielversprechenden Studien scheint Deepfake eine neue Ära für böswillige Nutzungen einzuläuten.

Bei einem Betrugsvorfall, der sich im Mai im Norden Chinas ereignete, gab die Stadtpolizei von Baotou bekannt, dass ein Angreifer, der Deepfake nutzte, sich als Freund des Opfers ausgab und mit einem ungültigen Videoanruf eine Geldüberweisung im Wert von 622.000 Dollar tätigte.

Das Opfer sagte, er habe das Geld überwiesen, weil er glaubte, sein Freund müsse während des Bieterverfahrens eine Anzahlung leisten.

Der Einsatz von Deepfake bei Finanzfehlern ist wertvoll, da er zeigt, dass die Zielgruppe der Angriffe nicht nur die digitale Leserschaft ist.

Wer könnte das Ziel sein?

Heutzutage ist es möglich, eine Deepfake-Software herunterzuladen und innerhalb weniger Stunden ein ungültiges Bild oder einen ungültigen Ton zu erzeugen.

Prominente, deren Bilder oder Stimmen im Internet zugänglich sind, Social-Media-Phänomene oder Personen, die mit den von ihnen produzierten Inhalten Geld verdienen, könnten das erste Ziel von Deepfake-Razzien sein.

Allerdings betreffen böswillige Nutzungen ein viel breiteres Publikum und betreffen nicht alle gleichermaßen.

Beispielsweise scheinen Frauen einem größeren Risiko hinsichtlich der Produktion unfreiwilliger privater Bilder ausgesetzt zu sein.

Prof. beantwortet die Fragen von BBC Turkish und ist Experte für Ethik und Gesetze der künstlichen Intelligenz am Oxford University Internet Institute. Sandra Wachter macht auf die Geschlechterdimension des böswilligen Einsatzes von Deepfakes aufmerksam:

„Technologie wird oft missbraucht, um unerwünschte, intime Bilder von Frauen zu verbreiten und für diffamierende Kampagnen, die ihr Ansehen schädigen.“

Auch Kleinkinder und Mädchen im schulpflichtigen Alter sind von Angriffen betroffen.

Familien, die Opfer gefälschter Nacktbilder von Mädchen wurden, die Anfang dieser Woche an zwei verschiedenen Schulen im Osten und Westen der USA produziert und verbreitet wurden, sagen, dass sie strengere rechtliche Maßnahmen gegen die Schäden künstlicher Intelligenz wünschen.

Neben gefälschten Bildern werfen Entwicklungen in der gefälschten Audioproduktion auch Fragen nach neuen Sicherheitslücken auf.

Beantwortung der Fragen von BBC Turkish, Prof. Leiter des Computer Vision and Analysis Clusters an der Ludwig-Maximilians-Universität München in Deutschland. Björn Ommer sagt, dass gefälschte Audiodaten eine „besonders problematische Art von Angriff“ darstellen können, da sie dem Empfänger relativ begrenzte Möglichkeiten zur Überprüfung der Neuheit lassen.

Mit Deepfake erzeugte gefälschte Stimmen bedrohen heute auch Unternehmen, die Sprachauthentifizierungssysteme verwenden.

Forscher der University of Waterloo in England gaben bekannt, dass sie bei ihren Versuchen, Sprachauthentifizierungssysteme mithilfe der von ihnen erzeugten Stimme mit Deepfake zu täuschen, in nur sechs Versuchen eine Erfolgsquote von 99 Prozent erreichten.

Forscher haben gewarnt, dass Unternehmen, die zur Überprüfung der Identität nur die Stimmen ihrer Kunden nutzen, strengere Maßnahmen ergreifen müssen.

Darüber hinaus ist die ältere Bevölkerungsgruppe möglicherweise einem größeren Risiko durch Angriffe ausgesetzt, bei denen Deepfakes verwendet werden, um die Stimmen ihrer Verwandten zu erzeugen und sie um Geld zu bitten.

Prof. „Hier geht es nicht um Personen mit hoher Reputation, sondern um Personen mit minimaler Medien-/Digitalkompetenz“, sagt Ommer.

Prof. Ommer erklärt dies damit, dass sich die jüngsten Fortschritte in der Sprachsynthese darauf konzentrierten, Modelle mit nur wenigen Samples zu trainieren, anstatt stundenlange Audioaufnahmen zu verwenden.

Deepfake kann auch Teil von Desinformationskampagnen sein, die sich in sozialen Medien rasant verbreiten und somit fast alle Internetnutzer betreffen.

Prof. von der Universität Oxford. „Und das Problem ist, dass alle davon betroffen sind“, sagt Sandra Wachter.

„Politiker und Staatsoberhäupter sind potenzielle Ziele von Desinformation und Einflussnahme auf Wahlprozesse.

„Technologie wird eingesetzt, um ungültige Nachrichten und Verschwörungstheorien über Kriege zu verbreiten, die Frieden und Demokratie beeinträchtigen.

„Wir befinden uns zweifellos in einer Integritätskrise. Auch wenn es nichts Neues ist, zwischen Fakten, Fiktion und Fälschung unterscheiden zu müssen, hatten wir noch nie eine Technologie, die unsere Augen und Ohren so überzeugend täuscht.“

Kann man sich vor Deepfake-Betrug schützen?

Es gibt Online-Tools, die angeblich Internetnutzer davor schützen, ungültige Töne oder Szenen zu erzeugen oder gefälschte Bilder zu erkennen.

Allerdings ist es schwierig zu sagen, ob die meisten dieser Tools benutzerfreundlich sind oder sich weit verbreitet haben.

Darüber hinaus ist nach Ansicht von Experten heute eine der wichtigsten Herausforderungen die Entwicklungsgeschwindigkeit der künstlichen Intelligenz.

Assistenzprofessor für Informatik und Ingenieurwesen an der Washington University in St. Louis, der eine Software zum Schutz vor Deepfake-Software entwickelt hat, die gefälschte Geräusche erzeugt. Assoc. DR. „Es gibt kein System, das vollkommen sicher ist“, sagt Ning Zhang gegenüber BBC Turkish.

„Angesichts neuer Technologien, die Schall mit einer völlig anderen Theorie synthetisieren, muss die Naturschutzpraxis unbedingt entsprechend angepasst werden“, fügt er hinzu.

Das gleiche Szenario gilt für Software mit künstlicher Intelligenz, die ungültige Bilder erzeugt, und ungültige Inhalte werden immer überzeugender.

Prof. von der Universität Oxford. „Ich denke, wir betreten eine Ära eines ewigen Katz-und-Maus-Spiels, in dem einige gefälschte Inhalte erstellen und andere Technologien entwickeln, um diese Inhalte zu erkennen und zu kennzeichnen“, sagt Wachter.

Prof. Wachter glaubt, dass „es niemals möglich sein wird, ein hundertprozentig robustes System zu haben, das gefälschte Inhalte erkennen kann“ und fügt hinzu:

„Aber das sollte uns nicht abschrecken. Immer wenn jemand eine Mauer baut, wird der andere darüber springen wollen.“

„Alles, was wir tun können, ist, in (gefälschte) Erkennungssoftware zu investieren, wachsam und kritisch zu bleiben.“

Kritisches und hinterfragendes Verhalten kann neben der Verbreitung gefälschter Inhalte, die wir im Internet sehen, auch verhindern, dass eine Person, die einen verdächtigen Anruf von der Stimme eines Verwandten erhält, diesen Anruf verifiziert und möglicherweise das Geld verliert, das sie im Laufe ihres Lebens gespart hat in die falschen Hände geraten.

Individuelle Bemühungen müssen durch gesetzliche Regelungen unterstützt werden, die die Menschen vor den möglichen Schäden gefälschter Inhalte schützen.

Prof. „In Zukunft wäre es auch sinnvoll, die Anbringung von Wasserzeichen für KI-Inhalte gesetzlich vorzuschreiben und für die Entfernung dieser Markierungen Geldstrafen zu verhängen“, sagt Wachter.

In diesem Jahr haben verschiedene Gruppen von der Europäischen Union bis zu den USA und Technologieunternehmen wie OpenAI und Google versprochen, ihre Inhalte im Bereich der künstlichen Intelligenz mit Wasserzeichen zu kennzeichnen.

Der Online Security Act, der derzeit im britischen Oberhaus erörtert wird, macht es illegal, unerwünschte Deepfake-Pornobilder zu teilen.

Allerdings bleibt unklar, ob gesetzliche Regelungen mit der Entwicklungsgeschwindigkeit der Künstlichen Intelligenz mithalten können.

 

T24

DeepfakeFakekünstliche IntelligenzSingleStimme
Comments (0)
Add Comment