„Existenzielles Risiko“-Warnung für künstliche Intelligenz von den Entwicklern von ChatGPT: Eine Organisation wie die Inter-Country Atomic Power Corporation wird benötigt

T24 Auslandsnachrichten
Künstliche Intelligenz von ChatGPT von Software Führungskräfte von OpenAI sagten, dass eine Regulierung für „superintelligente“ Anwendungen der künstlichen Intelligenz erforderlich sei. Manager argumentierten, dass für künstliche Intelligenz eine der Internationalen Atomenergiebehörde gleichwertige Institution geschaffen werden sollte, um der Gefahr einer Bedrohung der Menschheit entgegenzuwirken.
Den Nachrichten im Guardian zufolge teilten die Gründer dies auf der OpenAI-Website mit. Greg Brockman Ilja Sutkkeverund CEO Sam Altman hat eine Regulierung gefordert, um künstliche Intelligenz zu prüfen, ihre Einhaltung von Sicherheitsstandards zu testen und die notwendigen Beschränkungen durchzusetzen. Führungskräfte von OpenAI sagten, die fraglichen Systeme könnten andernfalls „existentielle Probleme“ für die Menschheit darstellen.
In der Erklärung fügte er hinzu, dass die „Superintelligenz“ voraussichtlich stärker sein werde als alle bisher von der Menschheit entwickelten Technologien, und fügte hinzu: „Wir können eine wesentlich stärkere Zukunft haben, aber um an diesen Punkt zu gelangen, müssen wir ein Risiko bewältigen.“ Wir können nicht passiv handeln, wenn wir ein existenzielles Risiko eingehen.“
OpenAI-Führungskräfte schlugen als kurzfristige Maßnahme eine gewisse Angleichung der Unternehmen vor, die KI-Forschung betreiben.
Manager, die vorschlugen, Risiken zu managen und gleichzeitig von den Vorteilen der künstlichen Intelligenz zu profitieren, schlugen auch eine Organisation wie die International Atomic Power Corporation vor.
T24