Parlando di ChatGPT (progetto nato nel 2022, arrivando questa primavera alla versione 4.5) e partendo dalla vicenda del tema manzoniano, ho posto loro la stessa domanda: il programma sarebbe in grado di “inserire gli errori di un quattordicenne”? In un certo senso sì, ma non in modo intenzionale, come spiegato dalla professoressa Manfredotti-
“Ad oggi molti studenti, dalle elementari fino all’università, si avvalgono di ChatGPT per svolgere i compiti a loro assegnati, e questo ha creato un enorme bacino di dati da cui il programma attinge le informazioni che gli vengono richieste. Per capire come funzionano questi programmi di IA, dobbiamo pensare di aver creato prima un’enorme libreria, con temi scritti da adulti e da adolescenti. Se diamo a ChatGPT un’indicazione specifica come quella della vicenda in oggetto, il programma andrà a cercare i libri scritti da adolescenti. Che potrebbero contenere errori, certo, ma l’algoritmo non è in grado di riconoscerli e di scegliere di inserirli solo perché gli è stato chiesto di farlo. In altre parole, se nella nostra libreria ci sono degli errori, il programma sbaglia, ma non sa di farlo”.
Quindi il protagonista di questa vicenda ha peccato di ingenuità, attribuendo a ChatGPT un credito maggiore di quello che, alla stato attuale, può vantare? O ha involontariamente precorso i tempi, mostrandoci un pericolo imminente, come le fake news e la manipolazione delle informazioni diffuse su internet?
“Oggi dobbiamo pensare a ChatGPT, e per estensione anche agli altri algoritmi di intelligenza artificiale generativa, come a delle calcolatrici: rispondono ai quesiti che poniamo loro attingendo dalle informazioni che vi abbiamo inserito. Se a una calcolatrice insegniamo che 2+2 = 5, lei fornirà quel risultato, sia che le chiediamo “quanto fa 2+2?”, sia che la domanda posta sia “dammi il risultato di 2+2, ma inserendo degli errori”. La risposta rimane identica perché, nel suo database, non esistono due risultati per la medesima operazione algebrica.”
Partendo da questo presupposto, ho portato la questione all’attenzione del professor Tosi, che con l’IA ha un rapporto molto stretto, quasi personale, che lo ha visto creare un gemello digitale (traduzione di “digital twin”) di se stesso; una sorta di professor Tosi 2.0, che lo aiuta nelle conferenze e nelle interazioni con i suoi studenti.
“I modelli digital twin hanno fatto la loro comparsa negli anni Duemila per rispondere a esigenze specifiche tramite la riproduzione di parti meccaniche di missili, attrezzature agricole e molto altro. La possibilità di avere un modello virtuale con cui testare limiti e comportamenti, come fosse un upgrade di un prototipo fisico, ha permesso alle aziende di ridurre enormemente i costi, arrivando alla versione definitiva in modo veloce e senza spreco di materiale, soldi e tempo.
All’Università dell’Insubria abbiamo sviluppato il mio digital twin (una copia perfetta nell’aspetto, nelle movenze, nel modo di parlare e nelle conoscenze che possiedo, ma al 100% virtuale) per dare supporto ai nostri studenti, che possono utilizzarlo per porre domande, avere delle risposte e chiarimenti sui miei insegnamenti e così via. Si tratta di uno strumento utile per entrambe le parti, ma che non deve essere visto come un sostituto della didattica umana: la presenza in aula del professore, il contatto umano, l’interazione umana, restano imprescindibili. Il digital twin, come l’IA human-like, è un’integrazione, non una sostituzione.”