EU-Kriterien für künstliche Intelligenz

Mit der Unterzeichnung eines Grundsatzes bereitet sich die Europäische Union (EU) darauf vor, Regeln für die sich rasch verbreitenden Technologien der künstlichen Intelligenz zu erlassen.
Der Gesetzentwurf mit dem Namen „EU-Gesetz über künstliche Intelligenz“, der erstmals weltweit die umfassendsten gesetzlichen Regelungen in diesem Bereich vorsieht, steht diese Woche auf der Tagesordnung des Europäischen Parlaments.
Textgenerator, Chatbot ChatGPTSam Altman, CEO von OpenAI, das .
Altman drohte sogar damit, seine Aktivitäten in Europa einzustellen, wenn die neuen Vorschriften nicht mit ihnen in Einklang stünden. Später milderte er seine Aussprache mit den Worten: „Natürlich haben wir keine Pläne, das Land zu verlassen“, und trat einen Schritt zurück.
Sam Altman ist ein gefragter Name in der Welt der künstlichen Intelligenz. Es wurde sogar in Berlin von Bundeskanzler Olaf Scholz empfangen.
OpenAI-CEO Altman sagte, man fände die Festlegung von Regeln für künstliche Intelligenz grundsätzlich positiv, meinte aber: „Wir brauchen aber Klarheit.“
Die Erwartung der Einhaltung europäischer Standards
Der sozialdemokratische Abgeordnete des Europäischen Parlaments, René Repasi, nimmt diese hochrangige Lobbyarbeit und Warnungen von OpenAI oder seiner Muttergesellschaft Microsoft eher gelassen an.
Repasi betonte, dass der europäische Markt für KI-Anbieter „zu attraktiv sei, um ihn zu ignorieren“, und sagte: „Jeder, der seine KI hier verkaufen möchte, muss sich an unsere Standards halten.“
Repasi erklärte, dass auch der US-Kongress Regelungen zu diesem Thema vorbereite und mit den amerikanischen Kongressabgeordneten in Kontakt stehe: „Schließlich wollen wir sinnvolle Standards schaffen, unser Ziel ist nicht, miteinander zu konkurrieren.“ „
Während der Europaparlamentarier darauf hinwies, dass amerikanische Technologieunternehmen über zu viel Kapital, enormes Wissen und den Vorteil verfügen, den sie bis zum Ende verteidigen wollen, „ist die Tatsache, dass so viele Technologiegiganten in den USA ansässig sind, keine Frage der Frage, wo die größeren Innovationen liegen.“ Es gehe eher um Monopolisten. „Diese Situation hängt mit den schlechten Marktbedingungen zusammen, unter denen das Unternehmen tätig ist“, sagte er.
René Repasi betonte zudem, dass die neuen Regeln, die die EU akzeptieren will, qualifizierte Start-ups in Europa nicht davon abhalten werden, künstliche Intelligenz weiterzuentwickeln.
Warnungen von KI-Pionieren
Geoffrey Hinton, ein ehemaliger Google-Mitarbeiter und Pionier der künstlichen Intelligenz, warnte in jüngsten Interviews vor den Gefahren dieser Technologien, an deren Entwicklung er maßgeblich beteiligt war.
Hinton wies darauf hin, dass produktive künstliche Intelligenz in naher Zukunft über eine fortschrittlichere Intelligenz verfügen könnte als die Menschen, die diese Technologien herstellen, und wies auch darauf hin, dass die erwartete Veränderung des Arbeitsmarktes durch diese Technologien unvorhersehbar sei.
Die Entwickler dieser Systeme sowie Führungskräfte von Microsoft und Google gaben zu, dass sie nicht mehr genau wissen, wie Anwendungen der künstlichen Intelligenz funktionieren.
In einem offenen Brief riefen Forscher und Unternehmer, darunter Twitter-Inhaber Elon Musk, dazu auf, bis Ende des Jahres zu warten, um der Entwicklung künstlicher Intelligenz Grenzen zu setzen.
Die EU hingegen will mit dem seit zwei Jahren in Vorbereitung befindlichen Gesetz möglichen Risiken und Gefahren vorbeugen.
Was sieht die EU-Verordnung vor?
Grundsätzlich legen Vorschriften die Einstufung von Anwendungen der Künstlichen Intelligenz hinsichtlich der Risiken fest.
Systeme, die das Sozialverhalten von Menschen in unzulässiger Weise analysieren und aufgrund dieser Analysen Vorhersagen über ihr zukünftiges Verhalten treffen, werden als „hohes Risiko“ eingestuft und verboten. Systeme, die ein Risiko darstellen, unterliegen Regeln und Einschränkungen. Einfachere Implementierungen, möglicherweise ChatGPT, werden dies tun einbezogen werden. wird keinen wesentlichen Einschränkungen unterliegen.
Allerdings werden alle von künstlicher Intelligenz bereitgestellten Dienste mit einem Tag versehen. Wer diesen Dienst in Anspruch nimmt, weiß, dass es sich bei dem Adressaten, dem Dienstleister, um eine künstliche Intelligenz handelt.
Als Beispiel nannte der Parlamentarier René Reparsi die Antragsprozesse für Konsumentenkredite. Reparsi wies darauf hin, dass Anwendungen mittlerweile größtenteils durch künstliche Intelligenz gesteuert werden, und sagte: „Wenn das Ergebnis anders ist, sollte die Steuerung durch einen Menschen beantragt werden.“ Eigentlich muss man wissen, dass man schon einmal mit einer künstlichen Intelligenz zusammengetroffen ist. „
Wann tritt EU-Recht in Kraft?
Das Inkrafttreten des EU-Rechts wird einige Zeit in Anspruch nehmen, sogar Anfang 2025. Damit es in Kraft treten kann, bedarf es nach der Zustimmung des Europäischen Parlaments der Zustimmung von 27 Mitgliedstaaten.
Axel Voss, einer der christdemokratischen Abgeordneten des Europäischen Parlaments, wies darauf hin, dass es, als dieses Gesetz vor zwei Jahren erstmals auf die Tagesordnung gesetzt wurde, noch keine Anwendungen wie ChatGPT gab und dass in diesem Bereich künftig noch viel größere Fortschritte erzielt werden das Gesetz tritt in Kraft. Voss fügte hinzu, dass aufgrund der schnellen Veränderungen, die bei Inkrafttreten des Gesetzes stattfanden, einige Elemente möglicherweise nicht den aktuellen Bedingungen entsprechen.
Voss, der sich seit Jahren mit künstlicher Intelligenz beschäftigt und zu den Urhebern des EU-Rechts gehört, ist der Meinung, dass sehr strenge Verbote vermieden werden sollten.
„Eigentlich brauchen wir eine stärkere und optimistischere Stimmung in der KI wegen der Konkurrenz und weil wir in diesem Bereich grundsätzlich im Rückstand sind“, sagte Voss.
Datenschutzbeauftragte der EU-Mitgliedsstaaten haben eine unabhängige Prüfung von Anwendungen künstlicher Intelligenz und eine weitere Regulierung des Datenschutzrechts gefordert.
Der sozialdemokratische Abgeordnete René Reparsi hingegen plädierte dafür, dass das Gesetz flexibel sein sollte und dass die Festlegungen darüber, welche Praktiken ein hohes Risiko darstellen, in die Anhänge und nicht in den Gesetzestext aufgenommen werden sollten. Reparsi stellte fest, dass auf diese Weise Änderungen schneller durchgeführt und einfacher an Veränderungen angepasst werden können.
Kann der TÜV Vertrauen schaffen?
Das neue Gesetz wird denjenigen, die riskante KI-Anwendungen in Europa verkaufen wollen, strenge Verpflichtungen auferlegen. Darüber hinaus müssen diese Unternehmen ein Risikomanagement für ihre Arbeiten einrichten.
Personen, deren Daten verwendet werden, müssen die Zwecke angeben, für die ihre Daten verwendet werden.
Die italienische Datenschutzbehörde verbot ChatGPT im April wegen Datenschutzmängeln kurzzeitig, der Hersteller OpenAI hob dieses Verbot nach einigen Änderungen auf.
Auch in Deutschland erwägen die entsprechenden Institutionen, das Bundesamt für Sicherheit in der Informationstechnik und das Fraunhofer-Institut, ein spezielles Zertifikat für Anwendungen der Künstlichen Intelligenz zu erlassen.
So wie ein Auto zum TÜV muss, gilt künstliche Intelligenz bei den Prüfern als technisch zertifiziert. So kann der Glaube an selbstfahrende Fahrzeuge oder Roboter begründet werden, die beispielsweise Operationen im medizinischen Bereich durchführen.
T24