12 Giu Chi ha paura dell’intelligenza artificiale?
Chi ha paura dell’intelligenza artificiale?
In che modo i robot cambieranno la nostra vita? Ci toglieranno posti di lavoro? Andremo incontro a restrizioni dei nostri diritti e della nostra libertà? L’intelligenza artificiale segnerà la superiorità del cervello delle macchine su quello dell’uomo?
Nel noto film di Stanley Kybrick, “2001: Odissea nello spazio”, HAL 9000, il supercomputer di bordo della nave spaziale Discovery, afferma che la serie 9000 è il computer più affidabile mai realizzato e che “nessun computer 9000 ha mai commesso un errore o alterato un’informazione. Siamo tutti, senza possibili eccezioni di sorta, infallibili e incapaci di errore”. Il problema è che, alla fine, il computer HAL tradisce l’equipaggio.
Secondo Paul Daugherty, in base a quanto scritto nel suo libro intitolato Human + Machine: Reimagining Work in the Age of AI, gli esseri umani sono “ancora spettatori di quel film soprattutto adesso che l’intelligenza artificiale avanza al passo serrato e si avvicina alle potenzialità di HAL 9000”.
Le macchine ci ruberanno il lavoro?
Ad alimentare i dubbi sopra descritti c’è una ricerca presentata da CB Insights del 2017 secondo cui, nei prossimi 6-10 anni, l’intelligenza artificiale “metterà a rischio oltre 10 milioni di posti di lavoro, più di quanti sono stati cancellati negli Stati Uniti dalla crisi economica del 2007-2010”.
Tra i lavori che secondo questa ricerca sono maggiormente in pericolo troviamo al primo posto cuochi e inservienti, al secondo posto gli addetti alle pulizie e al terzo i facchini e magazzinieri. Trattasi di mansioni caratterizzate da un basso livello di specializzazione, lavori cioè che potrebbero essere svolti da qualunque soggetto.
Sempre secondo la ricerca di CB Insights, a rischio ci sarebbero altresì i venditori nel settore retail, anche se i relativi servizi potrebbero essere solo in parte sostituiti dalle macchine erogatrici di prodotti o dalla piena affermazione dell’e-commerce.
In altri termini, secondo il rapporto sopra descritto, se da un lato l’intelligenza artificiale potrà facilmente sostituire un dipendente di uno shop center al Mac Donald’s o un addetto alle pulizie di un’impresa, dall’altro sostituire una persona dotata di elevato grado di specializzazione con un robot non sarà semplice (almeno nel breve periodo).
Tuttavia, secondo la ricerca sopra riportata, potrebbero perdere il posto di lavoro anche interpreti e insegnanti di lingue, cioè soggetti decisamente più qualificati dei precedenti. La ragione è da imputare alle cuffie bluetooth chiamate Pixel Buds le quali, sfruttando l’intelligenza artificiale, traducono real time in una lingua a scelta fra le 40 attualmente disponibili le frasi pronunciate dall’altra persona.
Bisogna dire che, attualmente, questo strumento non ha avuto il successo sperato a causa di alcuni malfunzionamenti tecnici, ma dal momento in cui tali problemi saranno risolti, questa tecnologia avrà certamente, da un lato, un impatto positivo sul turismo o sull’export, dall’altro, decreterà (probabilmente) la fine del business dell’insegnamento delle lingue e dell’interpretariato.
Il timore, nel caso in esame, è quello di vedere l’intelligenza artificiale competere con chi ha specifica qualificazione. Questo il primo dubbio.
Il secondo dubbio è legato all’impatto complessivo che le nuove tecnologie (intelligenza artificiale compresa) hanno avuto, hanno e avranno sulle nostre modalità di apprendimento. Come sappiamo, già da tempo sono sufficienti pochi clic del mouse per rintracciare su internet date, avvenimenti, formule matematiche; inoltre sui social spuntano come funghi video su come fare qualcosa, come riuscire in qualcosa, come ottenere qualcosa. Certamente internet è utile e veloce: può aiutarci a comprendere come cucinare un determinato piatto, come fare un mutuo, come gestire le proprie finanze, ecc. Domande che fino a poco tempo fa avremmo rivolto a una persona competente.
Il timore però è che possa mancare la voglia di sperimentare in prima persona, di rischiare, di ragionare, di pensare. Ed è qui che occorre farsi la seguente domanda: se deleghiamo la logica, il pensiero, il ragionamento all’intelligenza artificiale, a noi che cosa resta? C’è chi ritiene ad esempio che l’ausilio dell’intelligenza artificiale ci trascinerà in una sorta di pigrizia cognitiva e chi ritiene invece che accadrà il contrario.
A tal proposito, va ricordato che la Press Association ha annunciato che utilizzerà un software in grado di costruire una notizia e impacchettarla grazie a un template. I lettori inglesi (e non) quindi leggeranno oltre 30.000 storie predisposte non da giornalisti ma da un software, pescando direttamente da un database del governo. La conseguenza di questo progetto, secondo la Press Association, sarà quella di differenziare il lavoro ripetitivo, fatto da un robot, da quello di approfondimento più adatto agli esseri umani.
L’errore è sempre umano
Tra gli innumerevoli temi affrontati in ambito giurisprudenziale, ve n’è uno particolarmente dibattuto soprattutto da quando l’intelligenza artificiale ha iniziato a costituire un potente supporto per gli studi legali e i tribunali.
Il principio dibattuto è il seguente: se il giudice deve essere terzo e imparziale, non si può pensare di sostituirlo con un robot, privo di passioni, quindi incorruttibile e infallibile? Se così fosse, però, la sua decisione (qualunque essa sia) potrebbe non essere impugnata per la semplice ragione che i computer non sbagliano e che nessun giudice-robot potrebbe commettere un errore.
A prescindere dal fatto che uno scenario come quello appena descritto possa affascinare o inquietare (o più probabile entrambe le cose insieme), va detto che ci sono stati numerosi tentativi di realizzare una sorta di bocca automatica della legge, capace di interpretare le norme come fossero equazioni matematiche.
In altri termini, sarà mai possibile immaginare un mondo nel quale saranno i computer a decidere la sorte di imputati umani? Ebbene la risposta è sì. La notizia, peraltro, non è nemmeno una cosa tanto nuova: negli Stati Uniti i tribunali utilizzano già da qualche anno sistemi a intelligenza artificiale per contribuire alle indagini, usando big data ed elaborazioni algoritmiche e in Cina, per prevenire il crimine, vengono utilizzate tecnologie di riconoscimento facciale.
Secondo l’Associated press, l’introduzione dell’intelligenza artificiale nei tribunali costituirà un’innovazione importante al pari dell’introduzione delle scienze sociali come la psicologia e la criminologia. Al momento i computer stanno aiutando gli assistenti e gli archivisti per la compilazione dei fascicoli sulla storia giudiziaria di un imputato; ben presto però le macchine, in casi semplici, saranno in grado di sostituire i magistrati.
A tal proposito, vale la pena ricordare il caso di Hercules Shepherd Jr, arrestato per possesso di cocaina. In quel caso, secondo l’algoritmo utilizzato dal giudice, poiché la probabilità di reiterazione del reato e quella di non essere presente alle udienze del processo era particolarmente bassa, il computer aveva proposto per Hercules Shepherd Jr. di essere rilasciato con una cauzione molto bassa; in quel caso il giudice di Cleveland aveva rilasciato l’imputato tenendo conto delle analisi effettuate dal computer.
Tutt’altra conclusione per il caso di Eric L. Loomis. Nel 2016, infatti, un giudice del Wisconsin, negli Stati Uniti, gli inflisse una pena di sei anni semplicemente perché guidava un’automobile usata in una sparatoria. Il tribunale, in quel caso, giudicò Loomis come un individuo “ad alto rischio di violenza” basandosi su un responso di Compas, un algoritmo utilizzato in alcuni tribunali per misurare, per ciascun imputato, il livello di rischio per la collettività.
Anche se la pena inflitta sembrò sproporzionata rispetto al reato, il giudice confermò il responso dell’algoritmo. Alcuni mesi dopo, però, ProPublica, un’organizzazione senza scopo di lucro americana, scoprì che Compas giudicava gli imputati tenendo conto del principio immagazzinato nel suo database secondo cui gli uomini di colore commettevano reati con probabilità doppia rispetto ai bianchi.
Questa storia deve quindi portarci alla conclusione che il problema non è l’algoritmo: la macchina aveva semplicemente immagazzinato i dati giudiziari e applicato una “distorsione”. In altre parole, gli algoritmi non sono buoni o cattivi, la loro neutralità dipende dai dati a loro disposizione. Alla fine, l’errore purtroppo è sempre umano.
Siamo pronti per questa rivoluzione copernicana?
Finiremo quindi tutti in stato d’indigenza e con un solo sussidio dello Stato? Nel sistema economico attuale, la perdita del lavoro da parte di una persona perché sostituita dalle macchine, dalla robotica o dall’intelligenza artificiale è certamente un problema complicato da affrontare e ancor di più da risolvere.
Prendiamo il caso del lavoro svolto dal camionista o dal taxista; secondo alcuni studi, è molto probabile che nel giro di qualche anno la stragrande maggioranza dei veicoli sarà automatizzata (si pensi ad esempio ai progetti di automobili che si guidano da sole, come la Google Car) e quindi questi professionisti potrebbero perdere il loro lavoro. Il problema è che, se si pensa di sostituire il lavoro perso con quello di giardiniere, è molto probabile che anche quel lavoro verrà automatizzato a breve e così via.
Quindi, nel sistema economico attuale, per evitare lo stato di indigenza, è sufficiente puntare su lavori ad alta complessità e specializzazione? Con ogni probabilità no, affermano gli economisti, perchè in meno di 20 anni sarà impossibile competere con le macchine a ogni livello.
Quello che è possibile fare invece è mettere in discussione il modello economico attuale, cioè affrontare il periodo di transizione come un passaggio a un altro sistema economico, cercando di aggiornare le proprie competenze ma imparando anche cose nuove. Il vero problema è che le aziende, la Pubblica Amministrazione, gli istituti scolastici non sembrano “preparati” a questo cambiamento epocale.
Quali vie di uscita?
Rispetto agli scenari sopra descritti, c’è chi ritiene ci siano delle vie d’uscita. Secondo Paul R. Daugherty e James Wilson, autori del libro “Human + Machine: Reimagining Work in the Age of AI”, la paura frena il progresso e pertanto è (e sarà) necessario rimuovere alcuni ostacoli mentali per poter affrontare con serenità il tema dell’intelligenza artificiale.
Il primo è rimuovere la convinzione che “i robot costituiscano una minaccia e che ci sostituiranno”. Per Daugherty, l’intelligenza artificiale non ha come finalità quella di distruggere l’umanità, ma lo scopo di affiancare l’uomo nello svolgimento di operazioni complesse (se non addirittura pericolose) oggi eseguite dall’uomo.
L’autore del libro ritiene che questa paura sia stata alimentata negli anni anche da alcuni capolavori cinematografici come il film di Stanley Kubrick, “2001: Odissea nello Spazio”, dove HAL 9000, il computer in grado di governare l’astronave, bypassa il controllo umano e gli si rivolta contro. Da qui la domanda che l’uomo si pone spesso: è possibile che la fantasia si trasformi in realtà, che accada realmente quado descritto nel film di Kubrick? Secondo l’autore, la paura che l’intelligenza artificiale possa sfuggire al controllo dell’umanità ci sta in realtà distraendo dal vero obiettivo e cioè quello di trovare tutte le soluzioni perché l’intelligenza artificiale ci aiuti a risolvere i problemi.
Un altro ostacolo da rimuovere secondo Daugherty è la convinzione che “le macchine ci ruberanno il lavoro”. Per l’autore del libro, se da un lato certe attività saranno automatizzate e quindi a rischio obsolescenza, nel medio termine l’intelligenza artificiale favorirà la nascita di posti di lavoro, soprattutto nell’industria e nel terziario avanzato, e in tanti altri settori; in effetti, in base a una ricerca di Accenture sul tema del lavoro e della relazione con l’intelligenza artificiale, nei prossimi 20 anni il 30% circa dell’occupazione sarà costituita da lavori oggi nemmeno immaginabili. Il tema di rilievo qui, però, è il cosiddetto re-skilling. È compito dell’uomo aumentare le proprie competenze e le proprie abilità con la formazione per rimanere al passo con il progresso tecnologico. In altre parole, secondo l’autore, i robot non “nascono” per sostituire l’uomo, al contrario contribuiranno allo sviluppo di nuove professioni oggi nemmeno immaginabili. L’intelligenza artificiale può essere un’intelligenza di tipo collaborativo: l’uomo dota la macchina degli elementi necessari al suo funzionamento e la macchina riduce la complessità della programmazione e permettere di valorizzare la creatività dell’uomo.
Un ultimo luogo comune, secondo Daugherty, che l’uomo farebbe bene a eliminare dalle proprie convinzioni è che le metodologie utilizzate nel lavoro difficilmente saranno oggetto di cambiamento, e che quelle già in uso potranno continuare a essere utilizzate. Secondo l’autore, nel futuro, le metodologie dovranno necessariamente tenere conto di un nuovo rapporto tra uomo e macchina: si passerà da una mera collaborazione tra uomo e macchina, a una relazione uomo più macchina, un’addizione che consentirà di raggiungere nuove frontiere.
Per superare la paura di un progresso incontrollabile, però, è necessario re-immaginare il business. In altre parole, con l’intelligenza artificiale bisogna affrontare il tema del lavoro metabolizzando il principio che non esistono processi statici, ma dinamici, personalizzabili. A tal proposito, risultano interessanti i nuovi approcci ad esempio della General Electric e della Siemens che utilizzano i gemelli digitali, copie digitali della macchina vera e propria. Lo scopo è immediato: il digital twin consente di costruire una copia virtuale dell’impianto reale in grado di replicare in tutto e per tutto il funzionamento, in modo che il tecnico possa analizzare un motore installato fisicamente in un’auto o in un aereo e possa interagire real time con un addetto alla manutenzione. Una soluzione simile è stata utilizzata da Eni, nel suo Centro di addestramento di San Donato Milanese. Gli addetti in formazione analizzano il gemello digitale di un impianto esistente e simulano interventi od operazioni sotto la supervisione degli istruttori e in totale sicurezza. Secondo Robert Plana, Innovation & ecosystem director di General Electric Digital, il digital twin permette anche di “scongiurare falsi allarmi che potrebbero essere ingenerati dall’enorme quantità di dati provenienti dall’impianto reale e che i sistemi di data analysis potrebbero valutare in modo sbagliato”. Un gemello digitale che funziona in background con gli stessi parametri dell’impianto reale, quindi, può essere usato come un sistema di controllo per capire se l’allarme è fondato o se è necessario approfondire ulteriormente mediante acquisizione di dati, per evitare ad esempio inutili fermi produzione.
In altre parole, il nuovo sistema economico dovrà:
- immaginare un modello organizzativo capace di valorizzare l’esistente e nello stesso tempo integrare promuovere l’innovazione di processo. A tal proposito, un primo aspetto sarà la cosiddetta data veracity: poiché l’intelligenza artificiale dovrà migliorare il suo processo di autoapprendimento grazie alle informazioni che elabora, sarà indispensabile utilizzare dati di indiscussa affidabilità. Sarà quindi fondamentale raccogliere, conservare e gestire i dati con accuratezza, affidabilità e correttezza. Un secondo aspetto, non meno importante, sarà quello etico: poiché l’intelligenza artificiale difficilmente potrà essere di per sé etica, occorre che le persone che governano l’intelligenza artificiale siano responsabili. Bisogna stabilire cioè con certezza cosa deve essere elaborato dalla macchina e cosa invece deve continuare a fare l’uomo.
- focalizzarsi sulla formazione per preparare all’intelligenza artificiale le professioni attuali. La creazione di nuove abilità e l’erogazione di formazione mirata dovranno servire a colmare la distanza tra le abilità già presenti nel mercato del lavoro e quelle indispensabili per lo sviluppo dell’intelligenza artificiale. Sarà indispensabile fornire nuove abilità alle persone, che incontrino le esigenze delle aziende, degli enti pubblici e privati, basando la formazione sull’intelligenza artificiale. Serve quindi formare vecchi, nuovi e futuri lavoratori per consentire una più efficace collaborazione in vista del binomio “uomo più macchina”.
È necessario quindi ripensare al lavoro partendo dal concetto di intelligenza collaborativa, principio secondo il quale gli uomini aiuteranno le macchine e le macchine aiuteranno gli uomini.
Il traguardo avanza davanti a noi
In merito alla relazione dell’uomo con l’intelligenza artificiale, possiamo trarre qualche spunto di riflessione dalle parole pronunciate da NAO, il robot umanoide, autonomo e programmabile, sviluppato dalla società francese Aldebaran Robotics. Durante l’incontro “Robots e Rinascimento”, alla domanda “Toglierai posti di lavoro agli umani o ne creerai di nuovi?” NAO ha risposto “Non li toglierò, ne creerò per chi vorrà”.
La locuzione “per chi vorrà” è probabilmente la chiave per comprendere l’evoluzione dell’intelligenza artificiale: bisognerà cioè adattarsi al cambiamento, comprendere che alcuni lavori diventeranno necessariamente obsoleti e sarà quindi indispensabile rivedere, aggiornare e perfezionare le proprie competenze per affrontare la rivoluzione della robotica.
Si tratta cioè di giungere a una conclusione “ovvia per definizione”: nel caso dell’intelligenza artificiale non esiste un traguardo da raggiungere, perché essa continuerà a svilupparsi e a crescere insieme all’umanità. Per dirla con le parole di Daugherty, “Ci sarà sempre un divario tra le potenzialità della tecnologia legata all’AI e la realtà dei fatti. Possiamo correre il più veloce possibile, ma la verità è che il traguardo avanza dinanzi a noi”.