Forschung: Künstliche Intelligenz könnte der „große Filter“ sein, der die Menschheit zerstören wird

Eine neue Studie warnt davor, dass fortschrittliche künstliche Intelligenz eine katastrophale Gefahr für die Menschheit darstellen und ganze Zivilisationen zerstören könnte.

Laut den Nachrichten von Independent Turkish; Die auf dem Preprint-Server ArXiv veröffentlichte und jetzt von Experten begutachtete Studie legt nahe, dass die Antwort auf den „Großen Filter“ des Fermi-Paradoxons möglicherweise in künstlicher Intelligenz verborgen sein könnte, mit dem Potenzial, intelligentes Leben im Universum zu zerstören, bevor es in Kontakt kommt mit anderen.

„Wo sind alle?“ Das Fermi-Paradoxon, zusammengefasst in der sogenannten Fermi-Paradoxon-Form, verwirrt Wissenschaftler seit Jahrzehnten. Das Fermi-Paradoxon spricht von der beunruhigenden Vorstellung, dass, wenn es die Möglichkeit außerirdischen Lebens im Universum gibt, warum die Menschen diesem nicht jetzt begegnen?

Bisher wurden viele Theorien aufgestellt, die unterschiedliche Erklärungen für unser einsames Dasein im Kosmos bieten.

Obwohl Wahrscheinlichkeitsberechnungen wie die beliebte Drake-Gleichung darauf hindeuten, dass es in der Galaxie möglicherweise viele intelligente Zivilisationen gibt, herrscht immer noch eine verwirrende kosmische Stille.

Eine bekannte Hypothese, bekannt als der Große Filter, legt nahe, dass einige Ereignisse, die für die Entstehung intelligenten Lebens erforderlich sind, praktisch unmöglich sind, was zu kosmischer Stille führt.

Ein logisches Gegenstück zu dieser Theorie ist, dass einige katastrophale kosmische Phänomene die Ausbreitung des Lebens auf der ganzen Welt verhindern könnten.

Der Autor der Studie stammt von der National Intelligence University (NIU). Mark Baileyer schrieb.

Die neue Forschung geht davon aus, dass die Weiterentwicklung der künstlichen Intelligenz ein verheerendes Risikoereignis sein könnte, das das Potenzial hat, die gesamte Zivilisation zu zerstören.

In der Studie hat Dr. Bailey betrachtet den Great Filter-Kontext als das potenzielle langfristige Risiko von Technologien, die wir nicht vollständig verstehen, wie etwa künstliche Intelligenz.

NIU-Wissenschaftler, „Menschen sind schrecklich darin, langfristige Risiken intuitiv einzugehen“sagte, und obwohl wir künstliche Intelligenz, diese Technologie, nicht vollständig verstehen „Dass es schnell in unser Leben eingedrungen ist“hinzugefügt.

DR. Bailey, „Künftige KI wird sich wahrscheinlich in Richtung generalisierbarerer, zweckorientierter Systeme mit aussagekräftigeren Kontrollen bewegen, bei denen die Folgen unbeabsichtigter Folgen deutlich gravierender werden.“er warnte.

DR. Bailey, „zweites medizinisches Argument“Er kam auf die Idee, die er „KI“ nannte, und stellte die Möglichkeit in Aussicht, dass fortschrittliche künstliche Intelligenz letztendlich de facto als „zweite intelligente Spezies“ fungieren könnte, mit der wir diesen Planeten teilen werden.

Wenn man bedenkt, was geschah, als moderne Menschen und Neandertaler in der Mitte der Erde lebten, sagten die NIU-Forscher, die „möglichen Auswirkungen seien besorgniserregend“.

DR. Bailey, im Arbeitszimmer, „Es macht Sinn, dass eine unkontrollierbare Technologie, insbesondere eine speziell entwickelte Technologie wie künstliche Intelligenz, ein starker Kandidat für einen großen Filter wäre.“er schrieb.

T24

Baileykünstliche Intelligenz
Comments (0)
Add Comment