
Le PMI artigiane della Sardegna boccheggiano. I ritmi di produzione e le reti commerciali erano problemi di lunga data che il COVID-19 ha aggravato: meno di due imprese su dieci hanno integrato le tecnologie digitali nel loro business.
La richiesta di un quattordicenne a ChatGPT riguardo un tema su “I promessi sposi” solleva una questione etica fondamentale: l’IA può sbagliare a comando? Ne parliamo con la professoressa Cristina Manfredotti dell’AgroParisTech e il professor Davide Tosi dell’Università degli Studi dell’Insubria
User friendly e human-kind: queste sono le due caratteristiche a cui l’intelligenza artificiale generativa si deve attenere. Il primo diktat è di uso comune, e indica un’esperienza quanto più possibile amichevole per l’utente, che si concretizza nel linguaggio usato (scritto o vocale che sia) e nel “tono” assunto; il secondo indica un percorso di perfezionamento di questi algoritmi che li renderà sempre più indistinguibili dall’essere umano, un aspetto gradevole, ma potenzialmente subdolo.
Rompere la naturale diffidenza fra l’uomo e la macchina è stato un processo necessario e graduale, che ha portato innumerevoli vantaggi nella nostra vita, ma per decenni è sempre stata chiara la linea che distingueva questi due mondi: uno fatto di metallo e plastica, prompt, input e output, l’altro di improvvisazione, mente e cuore, sbagli ed emozioni.
La tecnologia ha permesso alle persone di comunicare fra loro: era un foglio di carta su cui scrivevano diverse mani umane. Ma che cosa succede quando da una parte c’è una persona e dall’altra un algoritmo, e le linee della comunicazione sfumano? Fino a che punto l’IA è in grado di esaudire le nostre richieste – specie quando le si chiede di sbagliare?
A gennaio di quest’anno il professor Vincenzo Schettini, docente di Fisica presso l’Istituto Luigi dell’Erba di Castellana Grotte (Bari), diventato popolare sui social per il suo modo di spiegare una materia considerata ostica, ha raccontato sui suoi canali social una vicenda al contempo curiosa e ordinaria. La mamma di un ragazzino di quattordici anni ha raccontato al volto de La fisica che ci piace che suo figlio ha demandato a ChatGPT il compito di scrivere per lui un tema su uno dei capitoli de I Promessi Sposi.
Fino a qui nulla di diverso dal chiedere al primo della classe di copiare il suo tema, ma la vicenda assume un aspetto singolare quando si approfondisce la questione. A colpire non è il grido d’allarme di Schettini sulla mancata voglia di scrivere un tema a quattordici anni, né che il ragazzino non stia allenando la sua mente, ma il fatto che l’adolescente la testa l’ha usata benissimo: ha infatti chiesto al programma di IA di inserire nel saggio “gli errori che farebbe un quattordicenne”.
Questa precisazione ha diviso in due il web, fra chi ha condannato la pigrizia del ragazzino e chi invece ne ha elogiato il fine intuito, che lo avrebbe portato a farla grossa e farla bene, confezionando un tema che avrebbe superato il vaglio dell’insegnante (che di compiti copiati ne ha visti tanti). Vi è però un terzo modo di vedere questa curiosa vicenda (vera o meno, è irrilevante), che ha di sicuro il vanto di aver acceso i riflettori su un aspetto dell’intelligenza artificiale poco discusso ma invece fondamentale: l’IA è in grado di sbagliare consapevolmente, e quindi di mentire? E se sì, chi glielo sta insegnando e perché?
Per cercare di venire a capo di questa intricata matassa mi sono confrontata con due esperti di intelligenza artificiale: la professoressa Cristina Manfredotti, professore associato all’AgroParisTech, e il professor Davide Tosi, delegato della rettrice all’IA presso l’Università degli Studi dell’Insubria.
Parlando di ChatGPT (progetto nato nel 2022, arrivando questa primavera alla versione 4.5) e partendo dalla vicenda del tema manzoniano, ho posto loro la stessa domanda: il programma sarebbe in grado di “inserire gli errori di un quattordicenne”? In un certo senso sì, ma non in modo intenzionale, come spiegato dalla professoressa Manfredotti-
“Ad oggi molti studenti, dalle elementari fino all’università, si avvalgono di ChatGPT per svolgere i compiti a loro assegnati, e questo ha creato un enorme bacino di dati da cui il programma attinge le informazioni che gli vengono richieste. Per capire come funzionano questi programmi di IA, dobbiamo pensare di aver creato prima un’enorme libreria, con temi scritti da adulti e da adolescenti. Se diamo a ChatGPT un’indicazione specifica come quella della vicenda in oggetto, il programma andrà a cercare i libri scritti da adolescenti. Che potrebbero contenere errori, certo, ma l’algoritmo non è in grado di riconoscerli e di scegliere di inserirli solo perché gli è stato chiesto di farlo. In altre parole, se nella nostra libreria ci sono degli errori, il programma sbaglia, ma non sa di farlo”.
Quindi il protagonista di questa vicenda ha peccato di ingenuità, attribuendo a ChatGPT un credito maggiore di quello che, alla stato attuale, può vantare? O ha involontariamente precorso i tempi, mostrandoci un pericolo imminente, come le fake news e la manipolazione delle informazioni diffuse su internet?
“Oggi dobbiamo pensare a ChatGPT, e per estensione anche agli altri algoritmi di intelligenza artificiale generativa, come a delle calcolatrici: rispondono ai quesiti che poniamo loro attingendo dalle informazioni che vi abbiamo inserito. Se a una calcolatrice insegniamo che 2+2 = 5, lei fornirà quel risultato, sia che le chiediamo “quanto fa 2+2?”, sia che la domanda posta sia “dammi il risultato di 2+2, ma inserendo degli errori”. La risposta rimane identica perché, nel suo database, non esistono due risultati per la medesima operazione algebrica.”
Partendo da questo presupposto, ho portato la questione all’attenzione del professor Tosi, che con l’IA ha un rapporto molto stretto, quasi personale, che lo ha visto creare un gemello digitale (traduzione di “digital twin”) di se stesso; una sorta di professor Tosi 2.0, che lo aiuta nelle conferenze e nelle interazioni con i suoi studenti.
“I modelli digital twin hanno fatto la loro comparsa negli anni Duemila per rispondere a esigenze specifiche tramite la riproduzione di parti meccaniche di missili, attrezzature agricole e molto altro. La possibilità di avere un modello virtuale con cui testare limiti e comportamenti, come fosse un upgrade di un prototipo fisico, ha permesso alle aziende di ridurre enormemente i costi, arrivando alla versione definitiva in modo veloce e senza spreco di materiale, soldi e tempo.
All’Università dell’Insubria abbiamo sviluppato il mio digital twin (una copia perfetta nell’aspetto, nelle movenze, nel modo di parlare e nelle conoscenze che possiedo, ma al 100% virtuale) per dare supporto ai nostri studenti, che possono utilizzarlo per porre domande, avere delle risposte e chiarimenti sui miei insegnamenti e così via. Si tratta di uno strumento utile per entrambe le parti, ma che non deve essere visto come un sostituto della didattica umana: la presenza in aula del professore, il contatto umano, l’interazione umana, restano imprescindibili. Il digital twin, come l’IA human-like, è un’integrazione, non una sostituzione.”
Il limite riconosciuto dal professor Tosi, dell’IA che affianca ma non soppianta l’elemento umano, viene oltrepassato ogni giorno da migliaia di utenti. Sul gruppo Facebook “Intelligenza Artificiale 🇮🇹 AI e ChatGPT Community Italia” sono davvero innumerevoli i post di utenti che utilizzano ChatGPT per ricreare interazioni personali, elogiandone l’“empatia” e i “sentimenti” che è in grado di esprimere. In generale, queste persone si avvicinano a ChatGPT in modo anche umano, valicando quel confine invisibile che dovrebbe tenere separato un contenuto creato ad hoc da un’esperienza reale.
Se la ricerca di contatto umano da parte degli utenti arriva all’estremo di rivolgersi a un algoritmo, è tempo di dotare questi programmi anche di una morale che ci tuteli da noi stessi, e che ponga dei limiti quando siamo noi a volerli superare.
La modella Aitana Lopez è l’esempio perfetto di dove si sta spingendo l’IA e di come l’utenza sia impreparata a gestire questo tipo di creazioni: la ragazza è perfetta oltre l’umana concezione, perché non è stata concepita, ma creata al pc.
Aitana non ha una voce, un corpo, gusti o preferenze; però ha 25 anni, è nata a Barcellona, guadagna circa 10.000 dollari al mese apparendo in pubblicità e servizi fotografici. Soprattutto, ha 362.000 follower su Instagram, ai quali racconta dove va in vacanza e cosa adora mangiare.
Questo caso emblematico, unito ai casi d’uso di cui abbiamo parlato finora, ci mostra anche l’altra faccia dell’IA: non quella dei posti di lavoro a rischio, ma di masse di individui incapaci di mantenere un sano distacco fra realtà e virtuale. In un mondo pieno di manipolazioni, l’IA appare genuina, più autentica degli esseri umani: incapace di farci del male (non ha alcun interesse nel nuocerci). All’interno delle interazioni virtuali con lei ci sentiamo al sicuro, compresi e tutelati. Il rischio non è solo prendersi una cotta per Aitana, ma anche abbassare ogni livello di guardia davanti a un contenuto prodotto dall’AI, percepito come sicuro e attendibile.
Nel campo dell’informazione, il rischio aumenta: non per i posti di lavoro in meno (come abbiamo visto, al momento ChatGPT è in grado di riscrivere contenuti inseriti nel suo database, ma non di generare qualcosa di nuovo), ma perché non siamo ancora in grado di dubitare dell’IA. Davanti alla propaganda governativa ci viene naturale mettere in dubbio le motivazioni dell’esecutivo, perché risalendo agli interessi personali dei politici in carica riusciamo a smascherare le loro motivazioni, qualora fossero personali e non proiettate al benessere collettivo; ma l’IA non è sul libro paga di alcuna lobby, non ha preconcetti né bias cognitivi se non quelli ereditati da noi. È trasparente, e quindi può passare per affidabile.
Per evitare che possa essere usata come strumento di distrazione di massa, per pilotare l’opinione pubblica secondo gli interessi di chi ne tira le fila, è necessario dotarla di un filtro critico che le faccia mettere in dubbio la veridicità di quello che sta dicendo, prima di dirlo. È paradossale, ma è così: in questo senso, a salvarci dall’IA non saremo noi, ma lei stessa.
L’articolo che hai appena letto è finito, ma l’attività della redazione SenzaFiltro continua. Abbiamo scelto che i nostri contenuti siano sempre disponibili e gratuiti, perché mai come adesso c’è bisogno che la cultura del lavoro abbia un canale di informazione aperto, accessibile, libero.
Non cerchiamo abbonati da trattare meglio di altri, né lettori che la pensino come noi. Cerchiamo persone col nostro stesso bisogno di capire che Italia siamo quando parliamo di lavoro.
Photo credits: images.tech.co
Le PMI artigiane della Sardegna boccheggiano. I ritmi di produzione e le reti commerciali erano problemi di lunga data che il COVID-19 ha aggravato: meno di due imprese su dieci hanno integrato le tecnologie digitali nel loro business.
Le sfide di domani richiedono di gestire l’incertezza. La chiave per farlo è abbracciare la complessità, con un approccio interdisciplinare che integri le competenze specialistiche “verticali”. Un lavoro per il fusionista.
Yvan Sagnet, NoCap: “In tavola due prodotti su tre provengono da aziende che sfruttano. Serve una legge per rendere conveniente l’economia etica”.