Eine Flut von Klagen vor einem Bundesgericht in New York wird die Zukunft von ChatGPT und anderen Produkten der künstlichen Intelligenz auf die Probe stellen, die sich aus großen Mengen von urheberrechtlich geschützten menschlichen Werken ernährt haben, um die Eloquenz zu erreichen, die ihre Chatbots auszeichnet.
Der Fortschritt öffnet jedoch eine Kluft zwischen der Technologie und den Fachleuten sowie den Medien. Die Frage, die durch die Gesetze zur Regulierung der Nutzung künstlicher Intelligenz geklärt werden muss, ist: Verstoßen diese weit verbreiteten Produkte, die von OpenAI und ihrem Geschäftspartner Microsoft hergestellt werden, gegen Urheberrechts- und faire Wettbewerbsgesetze?
“Ich würde gerne im Namen der Autoren optimistisch sein, aber das bin ich nicht. Ich denke, sie haben einen harten Kampf vor sich”, sagt die auf Urheberrecht spezialisierte Anwältin Ashima Aggarwal, die für den Verlagsriesen John Wiley & Sons gearbeitet hat.
Eine der Klagen kommt von The New York Times. Eine weitere von einer Gruppe renommierter Romanautoren wie John Grisham, Jodi Picoult und George R.R. Martin. Eine dritte von erfolgreichen Sachbuchautoren, einschließlich des Autors der mit dem Pulitzer-Preis ausgezeichneten Biografie, auf der der preisgekrönte Film Oppenheimer basiert.
Jede der Klagen präsentiert unterschiedliche Argumente, aber alle konzentrieren sich darauf, dass das in San Francisco ansässige Unternehmen OpenAI “dieses Produkt aus dem geistigen Eigentum anderer Leute erstellt hat”, erklärt der Anwalt Justin Nelson, der die Sachbuchautoren vertritt und dessen Kanzlei auch The New York Times vertritt. “Was OpenAI sagt, ist, dass es freie Hand hat, das geistige Eigentum von jemand anderem seit Anbeginn der Zeit zu übernehmen, solange es im Internet zu finden ist”, sagt er.
The New York Times reichte im Dezember eine Klage ein, in der behauptet wurde, dass ChatGPT und der Chatbot Copilot von Microsoft mit den gleichen Medien konkurrieren, mit denen sie trainiert werden, und den Webverkehr von der Zeitung und anderen Urheberrechtsinhabern ablenken, die auf die Werbeeinnahmen ihrer Websites angewiesen sind, um ihren Journalismus weiter zu produzieren. Es wurden auch Beweise vorgelegt, dass die Chatbots Artikel der Times Wort für Wort wiederholten. In anderen Fällen schrieben die Chatbots dem Blatt fälschlicherweise Fehlinformationen zu, was seinem Ruf schadet.
Ein Bundesrichter leitet bisher alle drei Fälle sowie einen vierten von zwei weiteren Sachbuchautoren, die letzte Woche eine weitere Klage einreichten. Der Bundesbezirksrichter Sidney H. Stein leitet das Gericht in Manhattan seit 1995, als er vom damaligen Präsidenten Bill Clinton ernannt wurde.
OPENAI BLEIBT GLAUBWÜRDIGKEIT AUS DEN KLAGEN
OpenAI und Microsoft haben bisher keine formellen Gegenargumente zu den New Yorker Fällen vorgebracht, doch OpenAI hat diese Woche in einer öffentlichen Erklärung die Klage der New York Times als “unglaubwürdig” bezeichnet und angegeben, dass die Fälle, in denen der Chatbot einige Artikel wörtlich wiederholte, ein “ungewöhnlicher Fehler” waren.
“Das Training von KI-Modellen mit öffentlich zugänglichen Materialien im Internet ist eine legitime Nutzung, wie durch ältere und weitgehend akzeptierte Präzedenzfälle belegt”, erklärte das Unternehmen am Montag in seinem Blog. Es deutete auch an, dass die New York Times “das Modell angewiesen hat, es zu reproduzieren, oder seine Beispiele aus vielen Versuchen ausgewählt hat”.
OpenAI bezog sich auch auf Lizenzvereinbarungen, die es letztes Jahr mit der Associated Press, dem deutschen Medienunternehmen Axel Springer und anderen Organisationen unterzeichnet hat, als Beispiele dafür, wie das Unternehmen versucht, ein gesundes Nachrichtenökosystem zu unterstützen. OpenAI zahlt einen nicht offengelegten Betrag für die Lizenz des Nachrichtenarchivs der AP. Die New York Times führte ähnliche Gespräche, bevor sie sich entschied zu klagen.
OpenAI behauptete, der Zugang zum “Archiv von hochwertigen und faktenbasierten Texten” der AP würde die Fähigkeiten seiner KI-Systeme verbessern. Aber in seinem Blogbeitrag dieser Woche spielte es die Bedeutung von Nachrichteninhalten für das KI-Training herunter und argumentierte, dass große Sprachmodelle aus einem “riesigen Korpus menschlichen Wissens” lernen und dass “jede einzelne Datenquelle — einschließlich der New York Times — für das beabsichtigte Lernen des Modells nicht signifikant ist”.
Ein großer Teil des Arguments der KI-Industrie basiert auf der Doktrin der “fairen Nutzung” des Urheberrechtsgesetzes der USA, die begrenzte Verwendungen urheberrechtlich geschützter Materialien für Lehre, Forschung oder die Transformation des geschützten Werks in etwas anderes erlaubt.
Als Antwort schrieb das Rechtsteam, das die New York Times vertritt, am Dienstag, dass das, was OpenAI und Microsoft tun, “unter keinem Konzept faire Nutzung” ist, da sie die Investition der Zeitung in ihren Journalismus nutzen, “um Ersatzprodukte ohne Erlaubnis oder Bezahlung zu erstellen”.
KRIEG IN DEN GERICHTEN
Bislang haben sich die Gerichte überwiegend auf die Seite der Technologieunternehmen gestellt, wenn es darum ging, zu interpretieren, wie die Urheberrechtsgesetze mit KI-Systemen umgehen sollten. In einer Niederlage für visuelle Künstler wies ein Bundesrichter in San Francisco letztes Jahr einen Großteil der ersten großen Klage gegen KI-Bildgeneratoren ab. Ein anderer Richter in Kalifornien lehnte die Argumente der Komikerin Sarah Silverman ab, dass das Mutterunternehmen von Facebook, Meta, die Rechte an ihrer Autobiografie verletzt hatte, um ihr KI-Modell zu erstellen.
Die jüngsten Klagen haben detailliertere Beweise für die behaupteten Schäden vorgelegt, aber Aggarwal betont, dass, wenn es darum geht, urheberrechtlich geschützte Inhalte zum Trainieren von KI-Systemen zu verwenden, die den Nutzern “einen kleinen Teil dieser Inhalte zur Verfügung stellen, die Gerichte nicht geneigt zu sein scheinen, dies als eine Verletzung des Urheberrechts zu betrachten”.
Technologieunternehmen zitieren den Erfolg von Google bei der Zurückweisung rechtlicher Einwände gegen seine digitale Buchbibliothek als Präzedenzfall. Im Jahr 2016 bestätigte der Oberste Gerichtshof der Vereinigten Staaten die Entscheidung eines untergeordneten Gerichts, das die Behauptung der Autoren zurückwies, dass die Digitalisierung von Millionen von Büchern durch Google und die öffentliche Darstellung von Ausschnitten derselben eine Urheberrechtsverletzung darstellte.
Aber die Richter interpretieren die Argumente des fairen Gebrauchs von Fall zu Fall und “es hängt wirklich sehr von den Fakten ab”, abhängig von der wirtschaftlichen Auswirkung und anderen Faktoren, sagt Cathy Wolfe, eine Führungskraft des niederländischen Unternehmens Wolters Kluwer, die auch Teil des Vorstands des Copyright Clearance Center ist, das dabei hilft, Lizenzen für gedruckte und digitale Medien in den Vereinigten Staaten auszuhandeln.
“Nur weil etwas kostenlos im Internet auf einer Webseite verfügbar ist, bedeutet das nicht, dass du es kopieren und per E-Mail versenden kannst, geschweige denn es für kommerzielle Geschäfte verwenden kannst”, sagte Wolfe. “Wer wird gewinnen? Ich weiß es nicht, aber ich bin definitiv dafür, das Urheberrecht für alle zu schützen. Das fördert die Innovation.”
Einige Medien und andere Inhaltschöpfer blicken über die Gerichte hinaus und fordern die Gesetzgeber oder das Urheberrechtsamt der Library of Congress der Vereinigten Staaten auf, den Urheberrechtsschutz im Zeitalter der KI zu stärken. Eine Gruppe des Rechtsausschusses des US-Senats wird diesen Mittwoch die Aussagen von Führungskräften und Medienverteidigern in einer Anhörung zum Effekt der KI auf den Journalismus hören.
Roger Lynch, der CEO des Zeitschriftenverlags Condé Nast, plant, den Senatoren zu sagen, dass generative KI-Unternehmen “unser geistiges Eigentum gestohlen verwenden, um Ersatzwerkzeuge zu bauen”.
“Wir glauben, dass die gesetzgeberische Lösung einfach sein kann: klarstellen, dass die Nutzung von urheberrechtlich geschützten Inhalten in Verbindung mit kommerzieller generativer KI kein fairer Gebrauch ist und eine Genehmigung erfordert”, sagt eine Kopie der von Lynch vorbereiteten Aussagen.
No Responses