Quindicinale n.43, 14 febbraio 2017

E’ la lingua dei robot che programma gli umani

I robot ragionano troppo e hanno bisogno di memoria, gli umani seguono l'istinto e le situazioni nuove. Chi la spunta?
E' la lingua dei robot che programma gli umani
Shares

I robot ci ascoltano, ci parlano, ci capiscono e, nelle moderne versioni antropomorfe, ci somigliano anche. Ma se domani dovessimo arrivare in ufficio annunciando al nuovo collega automa “Che bella giornata, oggi!”, è molto probabile che l’intelligenza artificiale — avendo interpretato in senso testuale come espressione di contentezza per il cielo azzurro e l’aria tiepida quella che invece è una dichiarazione sarcastica — proseguirebbe la conversazione fornendo le previsioni meteo per il giorno successivo. Ancora oggi, invece, se ci dovessimo sedere alla scrivania pronunciando la stessa frase con l’umano collega, a questi forse basterebbe un’occhiata per percepire l’amarezza di una giornata difficile da concludere con una pacca sulla spalla.

Nella comunicazione tra esseri umani l’efficacia del linguaggio naturale deriva dall’innata abilità nel gestire anche le ambiguità in modo efficiente — utilizzando un insieme di percezioni ed informazioni relative anche al contesto situazionale ed emotivo — per dedurre il senso del messaggio in maniera molto più completa di quanto non si possa fare utilizzando la sola analisi testuale delle parole.

Le macchine, invece, interagiscono con gli umani utilizzando solo formalmente il linguaggio naturale, poiché esse hanno l’unica possibilità di ragionare per stato: spento o acceso. Da qui la necessità, per gli umani, di programmare i computer utilizzando il linguaggio binario, un sistema che adopera una sorta di alfabeto semplificato con soli due simboli (1 e 0, corrispondenti ad acceso e spento) a partire dai quali sono organizzate le parole che a loro volta costituiscono frasi e quindi istruzioni.

Le macchine, quindi, che pure negli ultimi anni si sono evolute in maniera esponenziale nella velocità di esecuzione, nella riduzione di peso e costo e nella precisione, scontano ancora il gap della rigidità che deriva dalla loro impostazione di ragionamento: ad un dato input corrisponde sempre meccanicamente un output. Questo comporta che sono gli ambienti a dover essere pianificati come semplici e prevedibili per favorire la funzionalità delle macchine. Una visualizzazione di come questo avvenga è, ad esempio, il modo in cui inseriamo piatti e bicchieri in una lavastoviglie, dove ogni cosa deve essere collocata in un posto specifico per consentire la detersione da parte della macchina.

E, poiché degli ambienti non fanno parte soltanto le infrastrutture logistiche ma anche gli umani, il rischio è che si proceda anche in tal caso secondo una logica adattativa per favorire l’efficienza dei robot.

Il trait d’union che facilita l’interazione tra l’uomo e la macchina è il pensiero, il linguaggio computazionale, una tipologia di processo mentale per la risoluzione di problemi che utilizza metodi precisi per definire procedure che vengono poi attuate da un esecutore, che opera nell’ambito di un contesto prefissato per raggiungere degli obiettivi assegnati.

E fin qui nulla di male. Il pensiero computazionale ha effettivamente una serie di vantaggi perché — creando le condizioni affinchè tutto sia comprensibile ed eseguibile anche da una macchina — abitua a decomporre i problemi in parti più piccole e affrontabili, valorizza l’astrazione e quindi la riduzione della complessità per far emergere l’idea principale tralasciando gli aspetti secondari, permette di condividere soluzioni che non sono più basate sull’intuito individuale bensì sulla sequenza logica.

Il rischio, però, è che si riduca il mondo a paradigmi logico-matematici, escludendo forme alternative di pensiero. Pur senza affrontare in questa sede i margini nei quali verrebbero relegati la creatività, il pensiero critico e la libertà individuale, i presupposti sembrerebbero convergere verso un futuro nel quale proprio l’eccesso di innovazione tecnologica — e l’omologazione che dovrebbe favorirla — potrebbe portare alla riduzione della capacità di interpretare problemi e quindi alla contrazione dell’innovazione stessa.

E questo rischia di riguardare non solo le mansioni — come quelle legate alle linee di produzione — che per meccanicizzazione e ripetitività sembrano già all’origine progettate per automi, ma anche le attività manageriali, per la evoluta gestione delle quali si stanno utilizzando tecniche formative peculiari.

È il caso, ad esempio, dell’orienteering — nato come sport ma di recente molto utilizzato nella formazione di quadri e dirigenti — che consiste nel raggiungere nel minor tempo possibile, con l’ausilio di una bussola e di una mappa, una sequenza di punti chiamati lanterne situati in un ambiente naturale ma sconosciuto. L’orienteering tende ufficialmente a sviluppare controllo dell’emotività, problem solving, presa di decisione rapida in situazioni complesse ma — in maniera speculare — il rischio è che sviluppi anche l’accettazione dell’ineluttabilità che siano stati altri a decidere dove posizionare gli obiettivi da raggiungere, la necessità di individuare obiettivi a breve termine senza che ci sia anche visione complessiva e di profondità, l’attenzione alla velocità nel raggiungimento degli obiettivi senza chiedersene l’utilità. In sintesi, quindi, indirizzerebbe lo stile manageriale verso la ricerca di soluzioni immediate a situazioni date piuttosto che verso curiosità, creatività, visioni non agonistiche e di prospettiva e uso produttivo dell’errore. Qualità, queste ultime, che invece forse consentirebbero di agire meglio in contesti nuovi e destrutturati che richiedono capacità di guidare oltre che di gestire l’innovazione. È il tendere verso quella mediocrazia che, dice il filosofo canadese Deneault, non è mediocrità intesa come incompetenza, bensì come “medietà”, cioè standardizzazione di comportamenti dove la media diventa la norma, in un sistema che sembra incoraggiare l’ascesa di coloro che abbiano una competenza utile a far funzionare gli ingranaggi ma senza mai metterli in discussione.

Processi mentali basati su algoritmi di costi-risparmi-guadagni, comunicazioni brevi, output programmati che non si discostino dall’input inserito sembrerebbero muovere gli uomini verso il pensiero delle macchine rischiando di non vedere che la cosa nella quale le macchine non hanno fatto grandi progressi è proprio la capacità di affrontare situazioni nuove. Mentre gli umani hanno l’abilità di connettere elementi in apparenza non connessi e a trovare soluzioni a problemi che non hanno mai affrontato in precedenza, le macchine — anche quelle intelligenti capaci di imparare dall’esperienza — hanno bisogno di immagazzinare grandi quantità di dati prima di poter ritarare i propri output e quindi difficilmente possono fornire soluzioni per problemi per i quali non ci sia già una casistica. Quasi da giustificare le riflessioni del fisico israeliano Haim Harari che, a fronte della paura diffusa di un mondo controllato da macchine pensanti, afferma che c’è da essere maggiormente preoccupati di un mondo in mano a persone che pensano come macchine.

 

(Credits Photo: www.designmadeingermany.de)

Shares

Tags: , , , ,



Autore
Curiosa dell’impatto dell’innovazione tecnologica nel mondo del lavoro, convinta della necessità di non prescindere dalla centralità dei lavoratori e da una pubblica amministrazione moderna in grado di accompagnare i mutamenti della società, ha coordinato interventi complessi nell’ambito del sostegno comunitario alle politiche attive del lavoro e alla gestione degli impatti occupazionali delle crisi aziendali. Attualmente studia la lingua russa e il cinese ed effettua ricerche sull’utilizzo di strumenti digitali nelle metodologie di incrocio domanda/offerta di lavoro in Africa, Asia ed America Centrale.
Commenta questo articolo