C’è un altro passaggio del suo intervento che vale la pena notare, perché inchioda al muro uno degli effetti più dirompenti e incombenti della rivoluzione artificiale. È questo: «La tecnologia rappresenta sempre una forma di ordine nelle relazioni sociali e una disposizione di potere, che abilita qualcuno a compiere azioni e impedisce ad altri di compierne altre».
L’ordine delle relazioni sociali è affidato alle leggi, ma è anche basato su una tacita attestazione di fiducia che la collettività attribuisce a chi la governa; è correlato alla concentrazione di potere, che, nel caso di Big Tech, appare enormemente sbilanciato a favore di quest’ultima. Serve, dunque, porre attenzione a non superare la soglia che delimita il confine tra uno sviluppo tecnologico sano e un altro foriero di potenziali implosioni dell’ordine sociale.
A questo dovrebbe servire AI Act, il super regolamento europeo sull’IA. Prima del voto europeo, The Good Lobby Italia e Hermes Center hanno pubblicato un policy paper sui vuoti normativi di AI Act e sui rischi intrinsechi che comporta per i diritti umani e la data justice nelle tecnologie di IA. Contiene raccomandazioni concrete per orientare al bene comune l’applicazione del regolamento in Italia e solleva questioni che riguardano tutti noi.
Riguardo i sistemi di riconoscimento biometrico negli spazi pubblici, ad esempio (sui quali AI Act lascia ampio spazio, più di quello che si è raccontato) invita a «considerare le conseguenze impreviste dalla posa di un’infrastruttura tecnologica di tale portata: ciò che oggi ci appare come implausibile e distante dai valori comuni condivisi – sorveglianza di massa, sorveglianza di specifiche minoranze – non è detto che diventi in futuro una pratica invece accettata e, con l’infrastruttura già presente, immediatamente attuabile».
In relazione agli algoritmi per la gestione dei flussi migratori, inoltre, raccomanda che «la gestione dei database, come AFIS, che raccolgono dati biometrici di persone appartenenti a categorie vulnerabili come i migranti, i rifugiati e i richiedenti asilo, così come il funzionamento degli algoritmi utilizzati dal sistema SARI della Polizia di Stato, siano trasparenti e accessibili a giornalisti, organizzazioni non governative e osservatori nazionali e internazionali per i diritti umani».
I fronti di potenziale vulnerabilità dell’ordine delle relazioni sociali, infatti, con l’intelligenza artificiale si ampliano, non si restringono, e l’intervento del pontefice lo ha ricordato ai grandi della Terra. Lo ascolteranno?
Sarebbe già abbastanza se avessero chiaro che il progresso non è mai gratuito. La civiltà, sì.
L’articolo che hai appena letto è finito, ma l’attività della redazione SenzaFiltro continua. Abbiamo scelto che i nostri contenuti siano sempre disponibili e gratuiti, perché mai come adesso c’è bisogno che la cultura del lavoro abbia un canale di informazione aperto, accessibile, libero.
Non cerchiamo abbonati da trattare meglio di altri, né lettori che la pensino come noi. Cerchiamo persone col nostro stesso bisogno di capire che Italia siamo quando parliamo di lavoro.
Sottoscrivi SenzaFiltro
Photo credits: fotogramma dallo streaming dell’intervento di papa Francesco al G7, dal canale YouTube di Giorgia Meloni