ChatGPT, ein Bot für künstliche Intelligenz, der kürzlich in unser Leben getreten und ziemlich populär geworden ist, steht in Australien vor einer Klage wegen Verleumdung.
Laut dem Bericht des IndependentGemeindevorsteher des Bezirks Hepburn Gehirnhaube argumentierte, dass ChatGPT falsche Informationen über sich selbst gegeben habe. Laut der These sagt die künstliche Intelligenz aus, dass Hoods Name in der Vergangenheit in einen Bestechungsskandal verwickelt war und er deshalb im Gefängnis gelandet sei.
Angeblich teilte ChatGPT die Information mit, dass Brain Hood Anfang der 2000er Jahre im Zentralbankskandal erwähnt wurde. Aber Hood war derjenige, der diesen Skandal den Behörden gemeldet hat.
Hood sagte, wenn ChatGPT diese Fehlinformationen nicht entfernt, wird es das erste Mal sein, dass ein KI-Bot strafrechtlich verfolgt wird.
Präsident Hood kündigte an, dass er diese Klage einreichen würde, weil er befürchtete, dass die Öffentlichkeit ChatGPT nach ihm fragen und falsch über ihn informiert werden würde, und er befürchtete, dass dies seinem Beruf und seinem Ruf schaden würde.
Die für den Fall zuständigen Anwälte schickten am 21. März einen Brief an ChatGPT. Die Anwälte, die die Korrektur des Fehlers in dem Schreiben forderten, setzten ChatGPT eine Frist von 28 Tagen. Berichtet, dass ChatGPT jetzt nicht antwortet.
Ein Beamter der Anwaltskanzlei, die den Fall verfolgte, erklärte, dass das IT-Gesetz nach den jüngsten Entwicklungen bei Studien zur künstlichen Intelligenz erneuert werden müsse.
Nach australischem Recht kann der Entschädigungspreis für Verleumdungsdelikte bis zu 400.000 australische Dollar erreichen. Es wurde berichtet, dass Brain Hood 200.000 Dollar Entschädigung fordern könnte, je nachdem, wie viele Menschen auf die Fehlinformationen über das Wort zugegriffen haben.
Letzte Woche ging ChatGPT in einem Blogbeitrag auf das Problem der Fehlinformationen ein. Die folgenden Wörter wurden in den Blog aufgenommen: „Benutzer werden transparent darüber informiert, dass die in ChatGPT enthaltenen Informationen nicht immer ungenau sein können. Die Öffentlichkeit muss über aktuelle KI-Entwicklungen aufgeklärt werden, und wir erkennen, dass wir mehr tun müssen.“
T24