Aufruf an die Regierung in England: Gegen durch künstliche Intelligenz produzierte Bilder von Kindesmissbrauch muss vorgegangen werden

Internet Watch Foundation, die Studien zur Internetsicherheit von Kindern im Vereinigten Königreich durchführt  (IWF) machte auf die durch künstliche Intelligenz erzeugten Bilder über den sexuellen Missbrauch von Kindern aufmerksam und forderte die Regierung auf, in dieser Angelegenheit Maßnahmen zu ergreifen.

Die Stiftung, die die Bilder untersucht und die missbräuchlichen Bilder entfernt, weist darauf hin, dass die mit künstlicher Intelligenz erzeugten Bilder zunehmen.

Die Stiftung wird im Herbst am ersten globalen KI-Sicherheitsgipfel Großbritanniens teilnehmen, der vom Premierminister ausgerichtet wird. Rishi-AltarEr möchte in dieser Angelegenheit Schritte unternehmen.

Das IWF hat letzten Monat erstmals mit der Auflistung von Bildern begonnen, die mit künstlicher Intelligenz erstellt wurden.

Es wird angegeben, dass solche Bilder in Alben aus vielen Teilen der Welt geteilt werden und einige von ihnen so realistisch aussehen wie Fotos.

Susie, CEO der Stiftung Hargreaves, „Wir sehen diese Szenen derzeit nicht in großer Zahl, aber es besteht für die Täter die Möglichkeit, sehr realistische Bilder von sexuellem Kindesmissbrauch zu produzieren.“sagte.

Er zeigte der BBC Beispiele redigierter Versionen von Bildern, die fünfjährige Mädchen zeigen, die nackt in sexuellen Situationen posieren.

IWF ist eine von nur drei Wohltätigkeitsorganisationen weltweit, die berechtigt sind, aktiv online nach Inhalten über Kindesmissbrauch zu suchen.

Die Stiftung, die am 24. Mai damit begann, mit künstlicher Intelligenz erstellte Bilder aufzulisten, durchsuchte innerhalb von fünf Wochen 29 Websites und identifizierte sieben Webseiten, auf denen Galerien mit Bildern aus künstlicher Intelligenz geteilt wurden.

Obwohl die genaue Anzahl der Bilder nicht genannt wurde, wurde festgestellt, dass Dutzende von Bildern, die durch künstliche Intelligenz erzeugt wurden, mit echtem Ausbeutungsmaterial vermischt waren, das auf illegalen Websites geteilt wurde.

Dabei handelte es sich teilweise um Szenen mit Geschlechtsverkehr, die Experten der Kategorie A zuordnen.

In fast allen Ländern ist es illegal, Szenen zu schaffen, in denen Kindesmissbrauch gezeigt wird.

Mit künstlicher Intelligenz erstellte Bilder nehmen zu

Laut Hargreaves, „Wir haben jetzt die Chance, dieser sich entwickelnden Technologie einen Schritt voraus zu sein, aber die Gesetzgebung muss dies berücksichtigen und angesichts dieser neuen Bedrohung auf dem richtigen Weg sein.“

Premierminister Sunak kündigte Pläne an, dass Großbritannien im Juni den weltweit ersten globalen Gipfel zur Sicherheit künstlicher Intelligenz ausrichten wird.

Ziel der Regierung ist es, Experten und Gesetzgeber zusammenzubringen, um die Risiken künstlicher Intelligenz zu bewerten und zu diskutieren, wie diese durch international koordinierte Aktionspläne verringert werden können.

Als ein Modul ihrer Arbeit erfassen IWF-Analysten Trends bei Missbrauchsbildern. So kommt es in letzter Zeit vermehrt zu Missbrauchsinhalten, bei denen Kinder gezwungen werden, Bilder oder selbst aufgenommene Bilder zu versenden.

Die Stiftung ist besorgt über die Zunahme der durch künstliche Intelligenz erzeugten Bilder.

Im Jahr 2022 hat die IWF mehr als 250.000 Webseiten mit Bildern von sexuellem Kindesmissbrauch erfasst und versucht, diese offline zu schalten.

Experten zeichneten auch Gespräche in den Foren zwischen Personen auf, die Tipps gaben, wie man möglichst realistische Bilder von Kindern erstellt.

Sie stießen auf Beschreibungen, wie man KI manipuliert, um Bilder der Ausbeutung zu erzeugen, wie man Open-Source-KI-Modelle herunterlädt und wie man Sicherheitsbarrieren beseitigt.

Während die meisten KI-Bildgeneratoren strenge Regeln enthalten, um zu verhindern, dass Benutzer Inhalte mit verbotenen Wörtern oder Phrasen erstellen, können Open-Source-Tools kostenlos heruntergeladen und nach Wunsch des Benutzers geändert werden.

„Bilder können ernsthaften Schaden anrichten“

Die BBC sprach mit einem KI-Landschaftsgenerator, der eine spezielle Version von Stable Diffusion verwendet, um sexualisierte Bilder von Mädchen im Teenageralter zu erstellen.

Der Japaner verteidigte die von ihm produzierten „süßen“ Bilder und sagte, dass „zum ersten Mal in der Geschichte Bilder von Kindern gemacht werden können, ohne echte Kinder auszubeuten“.

Allerdings sagen Experten, dass Bilder erheblichen Schaden anrichten können.

Dr., Experte für Sexualstraftäter und Pädophile in den USA. Michael Bourke, „Ich habe keinen Zweifel daran, dass KI-generierte Landschaften diese Tendenzen verstärken, diese Perversion verstärken und das Risiko für weiteren Schaden für Kinder auf der ganzen Welt bergen werden.“sagte.

Professor, einer der Entwickler von Stable Diffusion Björn Ommer, verteidigte im August 2022 seine Entscheidung, die Plattform als Open Source zu veröffentlichen, und sagte, dass seitdem Hunderte von akademischen Forschungsprojekten entstanden seien.

Ommer argumentiert, dass dies seine Entscheidung und die seiner Gruppe rechtfertige und dass ein Stopp der Forschung nicht gerechtfertigt sei.

Ommer, „Wir müssen der Tatsache ins Auge sehen, dass es sich um eine weltweite, globale Entwicklung handelt. Dies zu stoppen wird nicht die globale Entwicklung dieser Technologie in nichtdemokratischen Ländern stoppen. Wir müssen diese Entwicklung, die unserer Meinung nach schnell voranschreitet, berücksichtigen und.“ Maßnahmen ergreifen, um die Risiken zu beseitigen.“sagt

Stability AI, das die Entwicklung des Modells finanziert hat, ist eines der Unternehmen, die neue Versionen von Stable Diffusion entwickeln. Das Unternehmen lehnte die Interviewanfrage ab, erklärte jedoch zuvor, dass es den Missbrauch seiner Versionen künstlicher Intelligenz für illegale oder unmoralische Zwecke verbiete.

 

T24

AusbeutungKindkünstliche IntelligenzSehenswürdigkeitenSexuell
Comments (0)
Add Comment