Amazon weiß es nur zu gut: Es werden so viele Bücher von KI geschrieben, dass sie die Selbstveröffentlichung einschränken mussten. Die Fähigkeit von generativen KI-Modellen wie ChatGPT, Texte zu verfassen, ist so bemerkenswert, dass viele sie nicht nur nutzen, um diese Bücher zu schreiben und damit Geld zu verdienen, sondern sie beginnen auch, sie in medizinischen und wirtschaftlichen Studien zu verwenden.
Die KIs, die schreiben, zu entdecken, ist fast unmöglich. Es wird immer schwieriger zu erkennen, ob eine KI der Autor eines Textes ist, und selbst das von OpenAI vorgeschlagene Werkzeug scheint nicht viel zu nützen. Dennoch gibt es Möglichkeiten, solche Texte zu erwischen, und eine davon liegt gerade in der Art und Weise, wie sie unseren Wortschatz nutzen.
Dieses Wort klingt seltsam. Genau das haben einige Experten getan, die die Verwendung seltsamer Wörter in einigen medizinischen oder wirtschaftlichen Studien analysiert haben. Sie sammeln Texte von Diensten wie Google Scholar mit zahlreichen medizinischen und wirtschaftlichen Studien, klassifizieren sie nach Jahren und suchen dann nach “seltsamen” Wörtern, die in diesen Texten selten verwendet werden. Zum Beispiel tritt das Wort “delve” auf Englisch (“eintauchen”) auf, das von ChatGPT anscheinend besonders verwendet wird, statt anderen gängigeren wie “explore” oder “research” (“erkunden”, “forschen”).
Das riecht nach KI. Jeremy Nguyen, ein Experte auf diesem Gebiet, hat zum Beispiel festgestellt, wie die Verwendung dieses Wortes in den Jahren 2023 und vor allem in 2024 sprunghaft anstieg: Wir haben gerade erst ein Viertel dieses Jahres abgedeckt, und das Auftauchen des Wortes “delve” ist fast so hoch wie im gesamten Jahr 2023, in dem es bereits ungewöhnlich hoch war.
Und auch in wirtschaftlichen und mathematischen Texten. Ein anderer Benutzer namens William Hickman enthüllte ein sehr ähnliches Ereignis in wirtschaftlichen und mathematischen Texten, in denen die Häufigkeit des Begriffs “delve” ebenfalls absurd hoch war nach der Veröffentlichung von ChatGPT im November 2022. Es gibt andere “seltsame” und im allgemeinen Sprachgebrauch wenig verwendete Wörter, die in diesen Texten erscheinen und eine KI als Autor verraten könnten. Zum Beispiel “mosaic” (“Mosaik”) oder “notable”, die vielleicht nicht von so vielen Autoren verwendet werden, aber von einigen genutzt werden könnten, was die “Erkennung” erschwert.
Das ist nicht notwendigerweise schlecht. Wie Nguyen erklärte, ist die Verwendung von ChatGPT für diese Studien nicht notwendigerweise schlecht. Diese generativen KI-Modelle können, wie in anderen Fällen, interessante Werkzeuge für Forscher sein, die so Zeit beim Verfassen der Studien sparen und mehr in deren Überprüfung investieren können, um sicherzustellen, dass alles korrekt ist. Nguyen selbst gab an, dass er GPT-4 verwendet, um einige Texte zu bearbeiten und zum Programmieren, und er weist in jeder der von ihm veröffentlichten Studien darauf hin. Forscher von Microsoft haben auch kürzlich zugegeben, Studien “mit der Hilfe von ChatGPT” verfasst zu haben.
Aber es gibt auch Fehltritte. Andere Autoren jedoch nutzen diese Werkzeuge, ohne es zuzugeben, und werden auf frischer Tat ertappt mit trivialen Fehlern wie dem direkten Kopieren und Einfügen der Antworten von ChatGPT. Einschließlich, zum Beispiel, Sätzen, die klar machen, dass es das KI-Modell ist, das alles schreibt. In einem kürzlichen Beispiel begann eine Studie mit einem “Klar, hier hast du eine mögliche Einführung zum Thema:” und dann folgte der Rest des Textes, der vom Chatbot generiert wurde.
Und einige noch schlimmere. In anderen Fällen verrät die Studie sich selbst noch offensichtlicher, wenn im Text jene typische Ausrede von ChatGPT erscheint, wenn es auf etwas nicht antworten kann und sagt: “Es tut mir wirklich leid, aber ich habe keinen Zugang zu Echtzeitinformationen…”.
Es gibt sogar Studien darüber. Die Beliebtheit von ChatGPT in solchen Bereichen wird durch Studien wie die vor einigen Tagen vom Forscher Andrew Gray vom University College London veröffentlichte unter Beweis gestellt. Darin sprach er von der “Verunreinigung” durch ChatGPT und wie dieser Chatbot zu einer “unverhältnismäßigen” Präsenz in der akademischen Literatur geworden ist.
No Responses