Südkoreanische Forscher trainieren künstliche Intelligenz im Dark Web

Eine Gruppe von Forschern in Südkorea hat eine Studie gestartet, um die von künstlicher Intelligenz im Dark Web verwendete Sprache zu trainieren.

Forscher, die an einem neuen Modell für künstliche Intelligenz namens DarkBert arbeiten, wollen der künstlichen Intelligenz auf diese Weise den im Dark Web verwendeten Slang und die Straßensprache beibringen.

Laut den Nachrichten von Independent Turkish; Auch wenn es auf den ersten Blick wie eine unglückliche Entwicklung erscheinen mag, glauben Forscher, dass künstliche Intelligenz auf diese Weise Synonyme für illegale oder böswillige Handlungen lernen kann, was Cyber-Straftaten neue Dimensionen verleihen kann.

Dieser Schritt, der unternommen wurde, weil das Dark Web nicht von Suchmaschinen wie Google indexiert wird, wurde von den Forschern auch in einem Artikel mit dem Titel „DarkBERT: Ein Sprachmodell für die dunkle Seite des Internets“ detailliert beschrieben.

Die Forscher enthüllten ihre neuen „großes Sprachmodell“ Er wies darauf hin, dass es im Vergleich zu seinen Vorgängern wesentlich bessere Ergebnisse lieferte. Zu den bisherigen Gegenstücken gehört das von Facebook-Forschern entwickelte RoBERTa-Modell.

ROBERTA wurde auf der Grundlage eines Modells zur Annahme von Bedeutungen entwickelt, die bewusst in einem Text verborgen sind.

Die südkoreanische Gruppe sagt, dass DarkBERT es in einigen Cybersicherheitsprozessen verwenden kann, um Websites zu erkennen, die Ransomware verkaufen oder unbekannte Informationen durchsickern lassen.

Es wird auch angegeben, dass das neue Modell durch Beobachtung zahlreicher Foren im Dark Web an Änderungen zu illegalen Informationen angepasst werden kann.

T24

DunkelForscherModel
Comments (0)
Add Comment