Mark Yin, laureato all’Università di Melbourne e dottorando all’Università di Cambridge, pubblica sul magazine online Overland un articolo dal titolo AI “cheating”, anti-intellectualism and the carceral, nel quale analizza le motivazioni degli studenti a “barare” negli studi attraverso l’uso dell’AI generativa.
If nothing else, a criminology degree teaches you that moral transgression, fault and blame are complicated. The notion that individuals are solely responsible for their actions belies the relationships and politics through which those actions might have been learned, proscribed as transgressive, or even felt as desirable in the face of oppression.
Mark Yin parte da una posizione chiara: l’uso della GenAI per completare compiti accademici è intellettualmente disonesto e ha conseguenze negative (ambientali e formative), ma la sua analisi si spinge oltre la condanna morale individuale per esplorare il contesto sociale che rende tale comportamento comprensibile. L’autore chiede, e si chiede, perché gli studenti ricorrono all’AI: spesso lo fanno per svolgere compiti percepiti come noiosi o privi di senso, o perché l’insegnamento non fornisce spiegazioni adeguate. Queste risposte non vanno prese come attacchi personali agli insegnanti, ma come segnali di un sistema educativo che è stato progressivamente svuotato di valore e risorse.
Punto centrale del pensiero di Yin è la critica all’approccio carcerale adottato dalle istituzioni: sorveglianza tecnologica, strumenti di detection e politiche punitive che cercano di reprimere l’uso dell’AI invece di affrontarne le cause. Egli paragona la dinamica universitaria a una cultura più ampia che preferisce investire in punizione “a valle” piuttosto che in prevenzione “a monte”, cioè in un’istruzione ben finanziata e significativa. Inoltre lega l’uso dell’AI da parte degli studenti con la diffusa percezione che il successo accademico sia strettamente legato al voto, e non a quanto si fa proprio di ciò che si studia.
Per risolvere il problema l’autore propone di ripensare insegnamento e valutazione: più compiti autentici, valutazioni collettive, discussioni in tempo reale e forme di esame meno replicabili tramite AI. Queste misure mirano a rendere visibile la natura collettiva del lavoro accademico e a ridurre l’incentivo alla frode, invece di affidarsi esclusivamente a software di detection e a sanzioni.


Commenta qui sotto e segui le linee guida del sito.