Das Schuljahr 2022-2023 wird als die weltweite Erschütterung in Erinnerung bleiben, die ChatGPT, das Gesprächsprogramm, das Klassenzimmer und Wissenserwerb auf den Kopf gestellt hat, verursacht hat. Die künstliche Intelligenz von OpenAI verfasst Texte von hoher Qualität im Handumdrehen, beantwortet jede Frage, löst Probleme… was auch immer du von ihr verlangst. Ihr Auftritt hat Schulen und Universitäten überrascht. Die Schulen in New York verboten es sofort.
“Es fördert nicht das kritische Denken oder Problemlösungsfähigkeiten, die für akademischen Erfolg und das Leben wesentlich sind”, warnte die Sprecherin Jenna Lyle. Es war eine hitzige Reaktion, aber im Mai wurde das Verbot aufgehoben. “Der instinktive Angst machte es schwer, das Potenzial künstlicher Intelligenz für das Lernen zu erkennen”, entschuldigte sich David Banks, Leiter des größten Schulbezirks der USA. Diese Korrektur verdeutlicht die Spaltung in der Bildungswelt: Während einige eine Chance sehen, befürchten andere eine Falle für Betrügereien. Und die Schüler nutzen es bereits in Massen.
Es wurde im November eingeführt und hatte im April bereits über 187 Millionen Nutzer und 1,9 Milliarden monatliche Besuche übertroffen. Noch nie zuvor ist eine Plattform so schnell gewachsen. Das nächste Schuljahr wird entscheidend sein, wenn eine Legion neuer KI-Modelle landet, die laut dem Technologiejournalisten Matteo Wong “die aktuelle Version von ChatGPT obsolet machen werden, da sie multimodal sein werden und nicht nur Text erzeugen, sondern auch Bilder, Audio und Video verarbeiten werden”. Sollte man diese Technologie verbieten, regulieren oder die Chancen nutzen, die sie bietet?
Systeme mit “hohem Risiko”
Die UNESCO hat die Regierungen weltweit aufgefordert, sich zu mobilisieren, um eine koordinierte Antwort darauf zu finden, wie ChatGPT in Lehrpläne integriert werden kann, wobei “Sicherheit und Transparenz” prioritär sind, um die Risiken dieser Technologien, wie ihre Neigung zu tendenziösen oder offensichtlich falschen Informationen, zu mildern. Sie stellte fest, dass nur jede zehnte Schule und Universität bereits einen Plan dazu hat.
In Spanien finden Seminare und Reflexionsgruppen statt. Es gibt Lehrfreiheit, aber man wird sich zu einer potenziell disruptiven Technologie positionieren müssen. In Galicien beispielsweise wurde angekündigt, dass zwei neue Kurse über künstliche Intelligenz in der Sekundarstufe und im Abitur mit einem spezifischen Block über ChatGPT unterrichtet werden sollen.
Zu diesem verwirrenden Bild kommt die kürzliche Verabschiedung der europäischen Verordnung über künstliche Intelligenz im Juni hinzu. Das Time-Magazin enthüllte, dass Sam Altman, Mitbegründer von OpenAI, die europäischen Parlamentarier gedrängt hatte, eine bevorzugte Behandlung zu erhalten; und er bekam sie, denn ChatGPT wurde nicht unter die “hochriskanten” Systeme aufgenommen.
Andere Länder arbeiten ebenfalls an Vorschriften, wie die USA und China. In Japan macht man sich Sorgen, dass die Arbeitsmoral verloren geht. Die australischen Universitäten kehren zu Prüfungen mit Papier und Stift zurück. Es wird auch darüber nachgedacht, mehr mündliche Prüfungen durchzuführen… Andere setzen darauf, Originalität zu bewerten und es reicht nicht aus, nur einen makellosen Aufsatz zu schreiben, um zu bestehen.
Der Lehrer bleibt entscheidend
Aber wird nur die Art und Weise der Bewertung überdacht oder wird auch die Art zu unterrichten umgekrempelt? Das wird nicht einfach sein, weil große Trägheit bestehen bleibt, warnt Senén Barro, Direktor des Forschungszentrums für intelligente Technologien an der Universität Santiago de Compostela. “ChatGPT ist das Erstaunlichste, was wir seit Jahren gesehen haben. Aber die Frage sollte nicht sein, wie man verhindert, dass uns unsere Schüler täuschen, sondern wie man diese Werkzeuge sowohl für Lehrende als auch Lernende einsetzen kann, um das Lernen zu verbessern.
Die beste Bildung wird weiterhin in den Händen der besten Lehrer liegen, aber diese Systeme werden Teil des Lebens der jungen Menschen und ihrer Arbeit sein. Und wir dürfen nicht vergessen, dass wir Menschen die Fragen stellen, auch wenn die Maschinen uns immer bessere Antworten geben”.
Einige Bildungsplattformen wie Duolingo und Khan Academy haben bereits ChatGPT integriert. Der Gründer von letzterem, Salman Khan, ist ein Enthusiast: “Künstliche Intelligenz kann die Rolle eines digitalen Tutors für Millionen von Schülern übernehmen, die keine Möglichkeit haben, Nachhilfeunterricht oder individuelle Unterstützung zu erhalten. Sie zu verbieten wäre ein Fehler. Es ist eine Technologie, die da ist, man kann sie nicht “un-erfinden”.
Jede Generation hatte ihre eigenen Auseinandersetzungen mit Technologie. Taschenrechner, Textverarbeitungsprogramme und sogar Wikipedia wurden angezweifelt. Warum ist es jetzt anders?
Es gibt keinen Anti-Plagiatsmechanismus
Für einige ist gerade die Architektur von ChatGPT am beunruhigendsten. Es wurde mit einem Datensatz trainiert, der den größten Teil des verfügbaren menschlichen Wissens im Internet abdeckt, Jahrhunderte der Wissenschaft und Literatur, aber auch Gespräche und Kommentare in Foren und sozialen Netzwerken… Alles wurde zu einem Brei zermahlen, der ohne Autoren und Referenzen auskommt. Die Maschine wandelt Wörter und Sätze in numerische Werte (sogenannte ‘Tokens’) um und sucht nach den häufigsten Sequenzen.
Es wird als “neuronales Netzwerk” bezeichnet, weil es die Verbindungen von menschlichen Neuronen nachahmt, aber nicht denkt. Es errät die Zahlen, die am wahrscheinlichsten auftauchen; zunächst probiert es zufällig, aber nachdem es 175 Millionen Parameter bewertet hat, verfeinert es sich immer weiter, obwohl es nicht immer richtig liegt. Daher hat es die berühmten Halluzinationen oder Fehler. Dann wandelt es die Zahlen wieder in Wörter um…
Das Ergebnis ist immer originell, weil es nicht einfach kopiert und einfügt, sondern umgestaltet und kombiniert. Daher sind herkömmliche Anti-Plagiatsprogramme nutzlos. Dennoch entwickelt OpenAI bereits eine Art Wasserzeichen, das die Autorschaft von ChatGPT identifiziert. Es verwendet Muster in der Wortverteilung, die für Menschen nicht zu unterscheiden sind, aber ihre Herkunft offenbaren, wenn sie mit einer Anwendung analysiert werden. Ist das gelöst?
Nicht so schnell. Die Jagd auf Betrüger hat oberste Priorität, aber die eigentliche Frage ist, dass wir auf eine Welt zusteuern, in der Wahrheit und Falschheit kaum zu unterscheiden sein können. “Eine Informatikerin sagte mir, dass sie befürchtet, dass ihre älteren Eltern eines Tages am Telefon ihre Stimme hören werden, die um Hilfe oder Geld bittet. Es wird eine künstlich generierte Stimme sein, die genau wie sie klingt und sie betrügt”, warnt Adrienne LaFrance, Chefredakteurin von The Atlantic.
“Ein Gespräch mit künstlicher Intelligenz ist eindimensional, eine Illusion der Verbindung. Bald könnte ein Kind nicht nur einen Freund haben, der eine Maschine ist, sondern mehr Chatbot-Freunde als menschliche. Diese Begleiter werden nicht nur von Technologieunternehmen entworfen, um die Menschen, die sie nutzen, zu überwachen, sondern auch mit dem Ziel, auf ihre Kosten Gewinne zu erzielen”.
No Responses