Forscher der University of Reading haben interessante Forschungsergebnisse erzielt, indem sie Antworten von KI-Studenten in Prüfungen einreichten. Die Ergebnisse waren erstaunlich besser als die menschlicher Studenten, und die Professoren waren nicht in der Lage, KI-Antworten von menschlichen Antworten zu unterscheiden.

Die Forscher erstellten 33 gefälschte Studentenidentitäten, um unbearbeitete, KI-generierte Antworten einzureichen. Die Antworten wurden mithilfe von ChatGPT-4 für Online-Bewertungen von Psychologietests für Studenten im Grundstudium generiert. Die Forscher reichten KI-Antworten für 63 Fragen in Kurz- und Aufsatzform ein, während die Professoren, die die Arbeiten korrigierten, nicht über die Forschung informiert wurden.

Institute wollen nicht zu handschriftlichen Prüfungen zurückkehren

Die uninformierten Universitätsprofessoren erkannten nur eine der 33 Prüfungsaufgaben als von der KI verfasst. Die anderen 32 Aufgaben blieben jedoch unentdeckt und erhielten bessere Noten als echte Studenten. In Zahlen ausgedrückt erhielten 83 % der von der KI verfassten Aufgaben bessere Noten als menschliche Studenten.

Lesen Sie auch: Chinesische KI-Lern-Apps erobern den Markt in den USA

Die Forschungsstudie wurde von Professor Etienne Roesch und Associate Professor Peter Scarfe geleitet. Scarfe sagte, ihre Forschung zeige, dass sie von internationaler Bedeutung für die Integrität akademischer Bewertungen sei und wie sich KI auf sie auswirken werde. Er sagte:

„Wir werden nicht unbedingt vollständig zu handschriftlichen Prüfungen zurückkehren – aber der globale Bildungssektor wird sich angesichts der KI weiterentwickeln müssen.“

Scarfe erwähnte, dass die meisten Institutionen von traditionellen Verfahren abgewichen seien, um gerechtere Beurteilungen zu gewährleisten. Beide Professoren betonten, dass ihre Forschungsergebnisse ein „Weckruf für Pädagogen“ seien.

KI-Aufsätze haben eine niedrige Erkennungsrate

Die Forscher stellten fest, dass KI-Aufsätze fast nicht erkennbar waren, da 94 % von ihnen bei den Prüfern keine Bedenken hervorriefen. Das Journal Plos One, das die Studie veröffentlichte, sagte, dass die niedrigere Erkennungsrate wahrscheinlich eine Überschätzung sei. Es hieß:

„Das ist besonders besorgniserregend, da die von KI eingereichten Arbeiten deutlich bessere Noten erhielten als die von echten Studenten eingereichten Arbeiten“,

Die Zeitschrift stellte auch fest, dass Studenten mithilfe von KI schummeln und damit durchkommen können. Sie könnten auch bessere Noten bekommen als die ehrlichen Studenten, die keine KI verwenden. Für die Studie wurden KI-generierte Antworten für Module vom ersten bis zum dritten Studienjahr unter falschen Identitäten eingereicht. KI war im ersten und zweiten Modul den menschlichen Studenten überlegen.

Allerdings schnitten Menschen in den Prüfungen des dritten Jahres besser ab. Die Forscher sagten, dies stehe im Einklang mit der Annahme, dass KI zumindest in ihrem gegenwärtigen Zustand nicht gut im „abstrakten Denken“ sei.

Der KI fehlt immer noch die Fähigkeit zum logischen Denken

Die Studie stellte auch fest, dass die Fähigkeit der KI zum logischen Denken mit der Zeit zunehmen und ihre Erkennbarkeit abnehmen wird. Dies wird es schwieriger machen, die akademische Integrität aufrechtzuerhalten. Die Forscher sagten, dass die Studie möglicherweise dazu führen könnte, dass Prüfungen, die man zu Hause ablegt oder die nicht beaufsichtigt werden, ein Ende haben.

Prof. Roesch sagte, der Bildungssektor müsse sich darauf einigen, wie Studierende KI bei ihrer Arbeit einsetzen können. Er betonte, das Gleiche gelte für den Einsatz von KI in anderen Bereichen, um das Vertrauen in der Gesellschaft aufrechtzuerhalten.

Lesen Sie auch: Es entstehen technische Lösungen, um den Einschreibungsknick an Hochschulen zu bewältigen

Die Prorektorin für Bildung in Reading, Professor Elizabeth McCrum, sagte, dass die Universität die Zahl der Prüfungen, die man zu Hause mitnehmen kann, einschränke. Er sagte, dass die Universität an der Entwicklung anderer Methoden arbeite, bei denen Wissen in realen Situationen, „oft arbeitsplatzbezogenen Szenarien“, angewendet werden müsse.

McCrum stellte klar, dass die Studierenden bei einigen Prüfungen KI einsetzen dürfen, damit sie wissen, wie sie diese ethisch korrekt einsetzen können. Bei anderen Aufgaben ist der Einsatz von KI-Tools jedoch nicht erforderlich. Der Professor sagte, dies werde dazu beitragen, die KI-Kompetenz der Studierenden zu verbessern und sie auf die Anforderungen der modernen Arbeitswelt vorzubereiten.

Cryptopolitan-Berichterstattung von Aamir Sheikh