Sie fand heraus, dass ein Teil dieser Inhalte von dem Chatbot ChatGPT generiert worden war. Inmitten eines Vorlesungstextes zum Fach "Organisationsverhalten" befand sich ein Dialog zwischen dem Professor und dem Chatbot, in dem dieser um eine ausführliche Beschreibung von Führungsmodellen bat.
Der Text selbst enthielt zahlreiche Rechtschreibfehler. Weitere Anzeichen für KI-Nutzung wurden ebenfalls entdeckt - etwa, dass Personen in der Präsentation zusätzliche Arme hatten. Ella Stapleton war mit dieser Situation unzufrieden. Darüber hinaus behauptet sie, dass der Professor namens Rick Arrowood den Studierenden die Nutzung von KI untersage, während er selbst auf neuronale Netzwerke zurückgreife, ohne die Inhalte zu überprüfen.
Die Studentin reichte eine offizielle Beschwerde bei der Northeastern University ein und forderte eine Rückerstattung der Studiengebühren für das betreffende Fach, die über 8.000 US-Dollar betrugen. Die Universitätsverwaltung lehnte ihre Forderung ab.
Professor Rick Arrowood unterrichtet seit fast zwanzig Jahren. Er gab zu, dass er mithilfe künstlicher Intelligenz seine Lehrmaterialien "auffrischen" wollte. Dafür nutzte er ChatGPT, Perplexity und Gamma. Seinen Angaben zufolge wirkten die von ihm erstellten Vorlesung und Präsentation auf den ersten Blick überzeugend. Rückblickend bedauerte er jedoch, dass er sie nicht sorgfältiger überprüft habe. Der Professor zeigte sich reumütig über den Vorfall und betonte, dass Lehrkräfte KI mit besonderer Vorsicht und Konzentration einsetzen sollten - und dass sie Studierende darüber informieren müssten.
Die Northeastern University veröffentlichte ein offizielles Dokument, das die Richtlinien der Universität im Umgang mit KI festlegt. Darin heißt es, dass bei der Nutzung neuronaler Netzwerke die Datenquellen angegeben und auf ihre Genauigkeit geprüft werden müssen. Gleichzeitig erklärten Vertreter der Hochschule, dass sie künstliche Intelligenz nutzen, um alle Aspekte der Lehre zu verbessern und tiefgründigere Forschung zu ermöglichen.
Doch dieser Fall ist kein Einzelfall. Studierende an zahlreichen US-amerikanischen Hochschulen beschweren sich über KI-generierte Lehrmaterialien, Vorlesungen und Präsentationen. So schrieb etwa im vergangenen Herbst eine Studentin der Southern New Hampshire University namens Mary ein Essay für ein Anthropologie-Seminar und erhielt die Note A. Im Kommentarfeld bemerkte sie, dass der Professor versehentlich den Chatverlauf mit einem Chatbot veröffentlicht hatte, in dem er ChatGPT bat, die Arbeit der Studentin zu bewerten und eine positive Rückmeldung zu geben. Mary ist überzeugt, dass der Professor ihr Essay gar nicht gelesen hat.
Dozierende wiederum argumentieren, dass Chatbots ihnen helfen, eine übermäßige Arbeitsbelastung zu bewältigen und viele Prozesse zu automatisieren. Dennoch sind sich die meisten einig, dass KI-generierte Informationen überprüft und die resultierenden Materialien unbedingt redigiert werden müssen.