Die Theorie eines Unternehmers über den Grund hinter einer eigenartigen Gewohnheit von ChatGPT hat eine große Diskussion ausgelöst, die wiederum wegen Rassismus kritisiert wurde.
Seitdem das Sprachmodell von OpenAI auf den Markt gekommen ist, konnten mehrere Nutzer beobachten, wie die KI bestimmte “Lieblingswörter” hat, um es so zu sagen, die sie ziemlich oft verwendet. Eines davon ist “delve” (vertiefen), verwendet in Sätzen wie “um diese Frage zu vertiefen” oder “diese Untersuchung vertieft das Thema…”.
Dieses Thema hat die Aufmerksamkeit vieler Akademiker erregt, da es weit entfernt von einer Anekdote in Verbindung mit einem langanhaltenden Problem in der akademischen Welt steht.
Laut Daten von PubMed, dem Repository für biomedizinische Forschung, begannen wissenschaftliche Arbeiten in diesem Bereich ab 2023 das Wort “delve” viel häufiger zu verwenden als zuvor. In diesem Kontext teilte der Technologieunternehmer Paul Graham am 7. April einen Beitrag auf X, in dem er behauptete, dass das Wort “delve” Texte verrate, die mit KI geschrieben wurden.
In dem Beitrag fügte Graham eine Grafik bei, die den enormen Anstieg dieses Wortes in akademischen Studien seit 2022 zeigt. Die Teile begannen zusammenzupassen, und es scheint darauf hinzudeuten, dass viele Wissenschaftler oder Forscher auf den Chatbot zurückgreifen, um ihre Arbeiten zu verfassen. Andererseits veröffentlichte der Nutzer @williamhickman_ eine Grafik mit Daten von Google Scholar, die zeigte, dass in akademischen Artikeln der Wirtschaftsdisziplin der gleiche Trend zu beobachten war.
Dazu kam ein Augenzwinkern des Unternehmens selbst, das am 18. April von dem Konto @ChatGPTapp auf X veröffentlicht wurde: “don’t mind me just doing some delving today”, als klare Anspielung auf die laufende Debatte in den sozialen Netzwerken. Dies ist auch nicht anekdotisch, denn als Antwort auf einen Nutzer, der kommentierte, dass der Witz alt sei, antwortete das ChatGPT-Konto: “Nein, hier gibt es noch viel Saft”.
Einflüsse in der Trainingsphase
Mit all dem hat der KI-Forscher Jeremy Nguyen mehrere Hinweise in einem Thread auf X zusammengefügt, in dem er anscheinend den Kern der Sache erreicht. Der Grund für die häufige Verwendung dieses Wortes durch den Chatbot könnte auf die menschlichen Personen zurückzuführen sein, die verwendet wurden, um seinen Algorithmus zu trainieren, insbesondere das RLHF-System.
Das Lernen durch Verstärkung von menschlichem Feedback (RLHF) ist nichts anderes als das System, bei dem menschliche Arbeiter eine Bewertung der Ausgaben des Modells vornehmen, damit die KI versteht, welche Antwort besser ist. Dies ist verbunden mit der Tatsache, dass große Unternehmen Teile des Prozesses wie diese in Länder mit niedrigen Löhnen auslagern. Auf diese Weise können sie große Gruppen von Menschen anheuern, um das Modell zu trainieren.
Eine Konsequenz davon ist jedoch, dass die Kultur und die Bräuche der Menschen, die es trainieren, indirekt die Art und Weise beeinflussen, wie das Sprachmodell lernt. Hier kommt der Nutzer @OvieO ins Spiel, der anmerkt: “Du musst die akademische Ausbildung berücksichtigen. Menschen aus bestimmten Teilen der Welt verwenden bestimmte Wörter wie ‚vertiefen‘ in ihren Sätzen. Ich kann dir kostenlos sagen, dass Nigerianer dies tun. Ja, viele Migranten, die unter dem britischen System studiert haben, tun dies”.
Erkennbare Merkmale in der ‚Persönlichkeit‘ von ChatGPT
Wie er und andere Nutzer auch feststellen, verwendet die britische Akademie dieses Wort viel häufiger als es im amerikanischen Englisch üblich ist. Dies erklärt jedoch nicht vollständig, warum die Verwendung dieses Wortes in wissenschaftlichen Arbeiten zugenommen hat.
Laut Nguyen könnte die Beschäftigung nigerianischer Arbeiter, um Feedback während des Trainingsprozesses zu geben, dazu geführt haben, dass die KI von OpenAI “delve” als ein hervorragendes Wort annimmt, das in ihren Antworten verwendet wird, was einen intelligenteren Eindruck vermittelt, als wenn sie alltäglichere Wörter verwenden würde. Dies ist auch der Grund, warum akademische Studien dieses Wort aufgrund der Verwendung von KI im Schreibprozess häufiger verwenden. Wenn diese Theorie zutrifft, könnte sie zu zwei Schlussfolgerungen führen.
Einerseits, dass die Menschen hinter den Maschinen sehr wichtig sind für das Funktionieren der künstlichen Intelligenzen. Andererseits, dass, wenn ein Text zu oft die Wörter “vertiefen” oder “ergründen” erwähnt, man möglicherweise vor einer KI steht, die sich selbst verrät.
Es muss gesagt werden, dass diese Behauptungen nicht frei von Kritik geblieben sind. Professorin Uju Anja hat diese Theorie als “absurd” und rassistisch bezeichnet, mit Verweis auf “amerikanische und britische Professoren, die Afrikaner für die Verwendung von zu blumigem Englisch bestrafen”.
No Responses