-
Attenzione ai "Compari" di Calaf: insegnamento dalle Fiandre
L’episodio della rettrice dell’Università di Gand datato 19 settembre 2025 offre un esempio cristallino di ciò che accade quando un algoritmo genera testo senza la dovuta supervisione critica. Petra De Sutter ( medico di vaglia in medicina riproduttiva , politica di rilievo europeo, già membro del Parlamento europeo e prima ministra apertamente transgender in un governo europeo , il Belgio, , figura molto nota non solo in ambito accademico ma anche pubblico) utilizzò la AI per il discorso inaugurale, con alcune citazioni inesistenti nella realtà. Queste “hallucinations” dell’intelligenza artificiale includevano frasi attribuite ad Albert Einstein e altri pensatori, che non trovavano alcun riscontro nelle fonti originali.
Il fatto, emerso pubblicamente il 8 gennaio 2026 grazie ad un'indagine giornalistica, portò De Sutter a ritirarsi da un imminente conferimento di laurea honoris causa presso l’Università di Amsterdam, a scusarsi ponendo l’accento sulla necessità di maggiore alfabetizzazione critica verso l’uso delle AI. Data "la personaggia" coinvolta, lo scandalo fu rapidamente smorzato con spiegazioni istituzionali di circostanza. Si, uno studente "normale" , per un fatto analogo, avrebbe affrontato sanzioni accademiche molto più severe. L'esclusione, per esempio.
Da questo si conferma un principio semplice ma non banale: l’AI non sa, produce plausibilità. Il suo obiettivo non è la verità, bensì la coerenza, la fluidità, la persuasione...per soddisfare "il cliente".
Un testo ben scritto convince indipendentemente dalla fondatezza dei contenuti, ed è proprio qui che si nasconde il pericolo: l’errore appare credibile perché elegantemente formulato.
L’uso corretto dello strumento richiede lavoro ingegneristico e disciplina: definire con precisione le richieste, guidare l’elaborazione, controllare puntigliosamente ogni risposta. Ogni citazione va ricondotta alla fonte primaria; ogni riferimento va verificato. Idem per i dati. L’AI può essere un assistente potente, ma senza supervisione umana resta un narratore di comodo, un cortigiano ossequioso, non un notaio affidabile.
In altri termini: più l’algoritmo è efficiente, persuasivo, veloce... più l’umano deve essere lento, metodico, scrupoloso.
Il lavoro non si riduce, si sposta: non tanto dal testo alla verifica, quanto dal testo ben scritto alla garanzia della sua autenticità informativa. Gand ce lo ricorda: il fascino dell’eleganza linguistica non può sostituire la disciplina della verificazione.
Chi firma deve aver controllato.
Chi non controlla NON abdica alla propria responsabilità.
E allora?
Ecco, per il pronto-impiego, una Check‑list per l’uso critico di AI nella redazione di testi e citazioni
1. Definizione precisa dell’obiettivo
2. Identificazione delle fonti richieste
3. Verifica preventiva della plausibilità (Controllare che l’AI abbia compreso correttamente il contesto, chiedere più versioni della stessa risposta per confronto.)
4. Controllo puntuale dei riferimenti (Ogni citazione va verificata in fonte primaria o database accademici affidabili.)
5. Validazione dei dati e delle affermazioni (Verificare nomi, date, eventi, dati numerici)
6. Revisione umana finale
7. Consapevolezza della responsabilità
Permessi di Scrittura
- Tu non puoi inviare nuove discussioni
- Tu non puoi inviare risposte
- Tu non puoi inviare allegati
- Tu non puoi modificare i tuoi messaggi
-
Regole del Forum