Ursprünglich war die von der Europäischen Kommission im April 2021 vorgeschlagene Regulierung nicht dafür gedacht, aber auf dem langen und beschwerlichen Weg des europäischen Gesetzgebungsprozesses sind diese Modelle der künstlichen Intelligenz explodiert und alle EU-Institutionen glauben jetzt, dass sie angegangen werden müssen.
Während in Brüssel die Diskussionen weitergehen, hat Italien vorerst die Nutzung von ChatGPT verboten, da OpenAI – das Unternehmen, das dieses Werkzeug erstellt und weiterentwickelt – nicht der Europäischen Datenschutz-Grundverordnung (DSGVO) entspricht.
Die italienischen Behörden werfen dem Unternehmen mangelnde Transparenz bei der Sammlung persönlicher und bankbezogener Daten der Nutzer und das Fehlen eines Systems zur Altersverifizierung der ChatGPT-Nutzer vor, obwohl es für Personen über 13 Jahren bestimmt ist, und haben ihm bis zum 30. April Zeit gegeben, sich an das Gesetz anzupassen.
Die spanische Datenschutzbehörde hat am Donnerstag ebenfalls eine Untersuchung gegen das Unternehmen wegen eines “möglichen Verstoßes” gegen die DSGVO eingeleitet, und der Europäische Datenschutzausschuss hat eine Arbeitsgruppe gegründet, um Informationen mit allen zuständigen Behörden der EU, Islands, Liechtensteins und Norwegens auszutauschen, die Bedenken haben.
Der grüne Europaabgeordnete Marcel Kolaja ist überzeugt, dass OpenAI ein Interesse daran hat, diese Fragen zu klären, meint aber, dass diese Modelle weiter reguliert werden müssen, wie er EFE mitteilt.
Zudem “sind einige der Bedenken, die diese Systeme aufwerfen können, nicht mit der Privatsphäre verbunden”, erklärt der liberale Europaabgeordnete Dragos Tudorache, einer der Berichterstatter des KI-Gesetzes im Europaparlament, EFE.
Er erwähnt die Möglichkeit, dass diese Modelle, die fähig sind, menschliche Gespräche zu simulieren – welche auch von anderen Unternehmen wie Google entwickelt werden – Antworten auf Basis von urheberrechtlich geschützten Informationen geben, das Risiko der Verbreitung von Fake News oder den Einfluss, den sie auf verletzliche Personen haben können.
In diesem Zusammenhang erinnert er an den kürzlichen Selbstmord eines jungen Belgiers in den Dreißigern nach intensiven Gesprächen über sechs Wochen mit dem Chatbot Eliza des amerikanischen Unternehmens Chai über seine Sorgen bezüglich des Klimawandels.
Wie sie derzeit formuliert ist, verbietet das KI-Gesetz Echtzeit-Massenaufsichtssysteme in öffentlichen Räumen – außer zur Verhinderung von Straftaten und zur Lokalisierung möglicher Opfer – und untersagt Modelle, die subliminale Techniken verwenden, um das Verhalten einer Person “erheblich” zu verändern, ohne dass sie sich dessen bewusst ist.
Zudem stuft es eine ganze Reihe von KI-Systemen mit sehr spezifischen Anwendungen, die nur auf den Markt gebracht werden dürfen, wenn sie die Grundrechte und Werte der EU respektieren, als hochriskant ein.
Zum Beispiel solche, die von Unternehmen zur Auswahl von Bewerbern für einen Arbeitsplatz, von Finanzinstituten zur Bewertung der Kreditwürdigkeit einer Person oder zur Gewährleistung der Sicherheit der Wasser-, Gas- und Stromversorgung verwendet werden.
Aber jetzt, “sind viele von uns einig, dass wir es uns nicht leisten können, nichts im Text” des Gesetzes zu haben, um Systeme wie ChatGPT zu regulieren, betont Tudorache.
Sowohl er als auch der Sozialdemokrat Brando Benifei, ebenfalls Berichterstatter des Gesetzes, möchten, dass Entwickler transparent darüber sind, wie sie ihre Modelle trainieren, dass eine menschliche Aufsicht existiert und die Verbreitung illegalen Inhalts verboten wird.
Die Verhandlungen zwischen den politischen Gruppen, um die Kriterien festzulegen, beginnen diesen Montag, und weder Benifei noch Tudorache wagen es bisher zu sagen, wie sie enden werden, da sie parteiinterne Spaltungen zugeben.
Der Europaabgeordnete der EVP Axel Voss setzt zuerst darauf, zu “verstehen”, wie ChatGPT funktioniert, und fordert von OpenAI Erklärungen über seine Zuverlässigkeit, wie er EFE mitteilt. In jedem Fall befürwortet er eher eine Selbstregulierung des Sektors als das Verfassen neuer Gesetze, die Jahre zur Verabschiedung benötigen könnten.
“In drei Jahren haben wir vielleicht völlig andere Probleme. Man weiß nie, ob ChatGPT dann noch existiert”, sagt er.
Andererseits erkennt die Europäische Kommission auch “die Notwendigkeit, spezifische Regeln” für diese Art von Werkzeugen in Betracht zu ziehen, wie Quellen aus dem Kabinett des Kommissars für Binnenmarkt, Thierry Breton, EFE erklären, und ebenso sieht es der Rat der EU.
Jedoch befürwortet keiner der befragten Europaabgeordneten eine sechsmonatige Pause in der Ausbildung dieser Systeme, wie sie von mehr als 2.000 Experten, Akademikern und Geschäftsleuten vorgeschlagen wurde, um Zeit für die Entwicklung von Protokollen zu haben, die die Sicherheit der künstlichen Intelligenz garantieren.
“Es ist nicht machbar, die Entwicklung zu stoppen, vielmehr ist es wichtig, eine globale Anstrengung zu beschleunigen, um sie richtig zu regulieren”, meint Benifei, der glaubt, dass Anstrengungen bei den Vereinten Nationen, dem G20 oder der OECD gebündelt werden müssen.
No Responses