Il fenomeno del supporto psicologico su piattaforme digitali si è diffuso negli ultimi anni, complice la pandemia e l’aumento dei disturbi mentali. È lecito chiedersi se funzioni: per questo l’abbiamo chiesto a chi l’ha provato e allo psichiatra Vittorio Schiavone.
Profili falsi, pericolo reale. La reputazione delle aziende nel far west della rete
A quali pericoli reputazionali sono esposte le imprese nell’era digitale, e come si combatte un attacco basato sulle fake news? Scopriamolo con i contributi di Luigi Corsaro, Andrea Barchiesi e Paolo Benanti,
Nel 2017 due bot – programmi che accedono al web attraverso lo stesso tipo di canali usati dagli utenti, in grado di fargli credere di star comunicando con un’altra persona – hanno iniziato a parlare tra loro una lingua senza alcuna regola sintattica su Facebook. Si trattava in realtà di un esperimento, subito interrotto, da parte dei gestori della piattaforma.
Alcuni analisti, forse troppo appassionati di cinema fantascientifico, hanno iniziato a pensare che le macchine si stessero ribellando: era giunta l’apocalisse e l’insurrezione dell’intelligenza artificiale. Subito i gestori del più noto social network al mondo si sono affrettati a spiegare che non c’era nulla di cui preoccuparsi, che sono cose che capitano. Proprio così. Due profili falsi, programmati per commentare con frasi generate da un algoritmo, hanno iniziato a dialogare tra loro.
Un anno prima un altro campanello d’allarme era suonato: il 16% dei tweet sulle elezioni americane era prodotto da bot. Secondo molti analisti politici questi profili avrebbero potuto influenzare il risultato finale della competizione elettorale nel Paese più importante del mondo. Con una semplificazione giornalistica si può dire che l’intelligenza artificiale potrebbe eleggere il presidente degli Usa, ma c’è il rischio di scivolare nelle teorie del complotto. Anzi, qualcuno c’è già scivolato.
Profili falsi, pericolo reale. A che pericoli reputazionali sono esposte le aziende?
C’è chi ha sviluppato una teoria secondo la quale internet ormai sarebbe un mondo composto soltanto da falsi profili. Insomma, non esisterebbe un internet reale.
Tutto è partito da un misterioso forum nel quale un utente avrebbe ipotizzato che tra il 2016 e il 2017 la rete si sarebbe progressivamente svuotata di contenuti reali, per lasciare spazio ai bot. La deduzione ha preso il via dalla serialità con la quale apparivano messaggi identici sulle grandi piattaforme. Da lì se n’è desunto che un complotto governativo tramite i bot avrebbe annullato il web, per renderci spettatori passivi del pensiero unico.
Che si tratti di una fake news, per restare in tema, è acclarato, ma è vero che ormai le piattaforme sono popolate di falsi profili in grado di indirizzare il pensiero e i gusti di una parte degli utenti. Non solo quando si parla di politica, ma anche quando di parla di brand reputation a livello aziendale. La capacità di moltiplicare una notizia falsa, anche con falsi profili può causare danni alle imprese senza che se ne accorgano.
«In ogni caso – dice Luigi Corsaro della A Company, società che si occupa di sicurezza informatica – va studiata una strategia. Oggi è necessario non essere presi alla sprovvista in questo campo; con la velocità con la quale circolano le notizie potrebbe essere troppo tardi. Anche perché difendersi per vie legali è praticamente impossibile. Ci sono aziende con sede all’estero che vendono profili falsi irrintracciabili e che non si potranno mai perseguire».
Anche in un ipotetico processo per diffamazione ottenere una rogatoria nei confronti di un’azienda che ha sede in una sperduta repubblica dell’Est sarebbe molto difficile, e poi i tempi di risposta – ammesso che ce ne sia una – sarebbero biblici. Quindi tanto vale organizzarsi.
«Si va da profili falsi che minacciano gli utenti di furti di dati ricattandoli fino a chi esplicitamente genera campagne denigratorie. In questo caso l’unico modo di difendersi è quello di avere una strategia comunicativa pronta. Per una multinazionale è senza dubbio più facile, sebbene anche un colosso come Ikea si sia trovato danneggiato da fake news, ma per una piccola realtà commerciale o industriale le notizie false o denigratorie possono essere letali. Anche perché spesso le piccole e medie aziende italiane sottovalutano il problema: pensano che una storia alle spalle, una reputazione solida e la capacità di lavorare bastino ad accreditarsi».
E invece no, anche perché i danni non riguardano solo i rapporti con i clienti, ma ad esempio anche con i fornitori. «Una falsa notizia – continua Corsaro – può far scappare i fornitori, specialmente se si tratta di un’accusa di comportamenti scarsamente etici e ci si trova a lavorare con società dagli stringenti regolamenti interni. Per difendersi bisogna essere convinti e consci del proprio prodotto e poi rispondere con una campagna comunicativa a tappeto che abbia efficacia. È qui che entrano in gioco le unità di crisi e gli esperti in comunicazione. Al momento gli effetti di questi meccanismi non si sono ancora visti, perché sono poche le aziende che hanno deciso di danneggiare in questo modo i concorrenti».
Andrea Barchiesi, Reputation Manager: “Le aziende non sono preparate ad attacchi alla loro reputazione”
Ci sono società che ormai sono specializzate nella difesa della reputazione online delle aziende, che sono in grado di preparare dei veri e propri piani di battaglia per vere e proprie guerre virtuali. È il caso della Reputation Manager di Andrea Barchiesi.
«Dietro ogni intelligenza artificiale – spiega Barchiesi – si nascondono sempre delle persone. Non basta comprare i troll, c’è bisogno anche di chi tira le fila. In questa dinamica c’è innanzitutto una responsabilità delle piattaforme che spesso fanno soltanto finta di rispondere alle regole. La collaborazione delle piattaforme social è il primo passo: devono utilizzare sistemi ad alto monitoraggio. Per difendersi bisogna essere preparati prima che arrivi l’attacco dei troll. È come essere nella foresta: bisogna accorgersi del leone quando è a cinquecento metri, non quando è a tre.»
«Il monitoraggio è il primo passo. Bisogna capire quando arriva il primo troll, nel giro di poco le notizie false rischiano di diventare virali, perché le riprendono anche persone in buona fede. Finché i troll sono dieci va bene rispondere accusandoli di scrivere notizie false e fare una giusta controinformazione, facendo anche delle segnalazioni, in modo da rompere la sequenzialità d’attacco.»
E poi c’è la questione dei tempi lunghi. Anni fa la Mutti, società nota per la produzione di pomodori, fu oggetto di un falso comunicato del ministero della Salute che girava in rete nel quale si diceva che i loro prodotti contenevano arsenico.
«In un caso del genere bisogna intervenire anche sui motori di ricerca», prosegue Barchiesi, «con un altro tipo di squadra e altre tecnologie. I social sono importanti, ma sono come la prima e le seconda marcia di un’auto: si bruciano subito. Il 99,9% periodico dei contenuti decade dopo poco. Questi troll fanno azioni simili alla carta quando brucia: tanto fuoco, ma si spegne subito. È la rete che arde a lungo come la legna. Le aziende in generale non sono preparate a contrastare le nuove tecnologie come il GPT3, che è in grado di scrivere anche piccoli testi complessi da solo, del tutto simili a testi scritti da un essere umano, generando campagne denigratorie in automatico». Alle cui fonti difficilmente possono risalire anche le autorità.
Paolo Benanti, eticista della tecnologia: “Ogni artefatto tecnologico è una forma di potere”
Quando le leggi non bastano e si deve ricorrere all’autodifesa ci sono due alternative: o il far west o l’etica.
«Nessun artefatto tecnologico è neutro», spiega Paolo Benanti, docente di teologia morale fondamentale alla Pontificia Università Gregoriana di Roma, dove tra l’altro tiene corsi di neuroetica, «ma ognuno è una forma di potere. L’eticista della tecnologia di fronte all’innovazione dell’intelligenza digitale si chiede che tipo di struttura di potere sia. Si deve cercare di capire in che senso le intelligenze artificiali modifichino i processi decisionali e aziendali. Una prima questione riguarda il modello con il quale vengono prese le decisioni, perché l’intelligenza artificiale si interfaccia alla parte cognitiva e cambia il modo di comporre la decisione. La decisione umana non è surrogabile da un valore numerico. Voi affidereste le decisioni sulla vostra azienda a un fornitore esterno di cui non conoscete i processi decisionali?».
Di fatto però ormai è quello che molte società fanno, affidandosi a piattaforme che vendono i like e che agiscono nel bene e nel male su una parte del cervello che privilegia l’immediatezza. «L’innovazione tecnologica spinge il sistema cognitivo verso l’intuizione», conclude Benanti. «Per questo ci vuole una modalità di innovazione compatibile con l’essere umano, altrimenti perdiamo le nostre capacità».
Anche la mente più brillante, dunque, se stimolata in un certo modo in un contesto di informazioni rapide, rischia di cadere in fallo e credere notizie false. E questo rende ancora più pericolose le azioni denigratorie sul web.
L’articolo prende spunto dal JobX “Etica digitale” di Paolo Benanti, che puoi seguire cliccando qui.
In copertina: Paolo Benanti durante il suo JobX “Etica digitale” sul palco di Nobìlita 2021 – Ivrea.
Credits: Domenico Grossi
Leggi anche
Come si cerca una badante, tramite agenzia o in autonomia? Le differenze tra i due approcci e alcuni suggerimenti per orientarsi nella scelta.
La sicurezza diventa virale con una nuova piattaforma online che diffonde e consiglia comportamenti a prova di incidente sul lavoro. Le opinioni di Davide Scotti, segretario generale della Fondazione LHS, e l’esperto Leandro Herrero.