No, non siamo vicini alla creazione di una macchina senziente, anzi. Per alcuni studiosi forse è ora di rispolverare l’intelligenza artificiale “vecchia maniera”
“L’intelligenza artificiale è una delle cose più importanti sulle quali l’umanità stia lavorando: è più pervasiva dell’elettricità o del fuoco”. La frase pronunciata qualche mese fa da Sundar Pichai, amministratore delegato di Google, rende bene l’idea di quali e quante siano le aspettative riposte nelle potenzialità del deep learning: una tecnologia in grado già oggi di affiancare i medici nelle diagnosi delle malattie, di collaborare con gli studi legali per l’analisi dei documenti, di tradurre da una lingua all’altra con precisione sempre crescente, di classificare correttamente le immagini presenti nei video e nelle fotografie e, come noto, di sconfiggere il campione mondiale di un gioco estremamente complicato come il Go.
Abilità impressionanti, ma che impallidiscono di fronte alle promesse di un futuro (che potrebbe distare solo pochi anni) in cui i software di deep learning saranno in grado di prevedere i terremoti o lo sviluppo di alcune malattie, guidare le auto autonome e intrattenere conversazioni con gli esseri umani.
Un futuro di cui abbiamo già avuto un assaggio proprio grazie a Google, che ha mostrato a una platea sbalordita come il suo programma Duplex fosse in grado di telefonare a un parrucchiere e prenotare un appuntamento, senza che la persona all’altro capo del telefono si rendesse conto di avere a che fare con un robot.
Questa dimostrazione, però, ha sollevato parecchie preoccupazioni: come faremo, in futuro, a essere sicuri che una AI non ci inganni fingendo di essere un umano? Non dovremmo obbligare i software a dichiarare la loro origine artificiale? Stiamo andando incontro a un futuro in cui le intelligenze artificiali saranno indistinguibili dalle persone e magari in grado di sviluppare una coscienza? Domande che – purtroppo o per fortuna – perdono buona parte del loro fascino nel momento in cui si analizza più attentamente il funzionamento di Duplex: “Il software di Google non rappresenta un passo verso una AI intelligente, come molti invece sostengono”, ha scritto il docente di Scienze Neurali Gary Marcus sul New York Times.
“Leggendo le dichiarazioni di Google si scopre che lo scopo iniziale del progetto è sorprendentemente limitato. Duplex può svolgere solo tre compiti: aiutare gli utenti a riservare un posto a ristorante, prenotare un appuntamento dal parrucchiere e scegliere le proprie ferie”.
Non solo, prosegue Marcus: “Google Duplex non è così limitato perché sta compiendo i primi passi verso obiettivi ben più ambiziosi; la verità è che gli esperti di intelligenza artificiale non hanno nessuna idea di come riuscire a fare meglio di così”. Questo software, infatti, è in grado di dialogare in maniera realistica solo se la conversazione si svolge all’interno di confini ben definiti; e solo dopo essere stata addestrato a lungo e utilizzando centinaia di migliaia di dati. “Le conversazioni non predefinite in cui si affrontano una vasta gamma di argomenti non sono ancora nemmeno in vista”, conclude Marcus.
In poche parole, Duplex non è l’inizio di un percorso che porterà alla nascita di intelligenze artificiali generali – ovvero AI in grado di sviluppare un’intelligenza di tipo umano – ma rischia di essere la fine della strada. Il sospetto che si sta diffondendo nella comunità scientifica, insomma, è che le capacità del deep learning possano arrivare solo fino a un certo punto; indipendentemente dalla quantità di big data che si possono dare in pasto ai software e dal potere di calcolo crescente dei computer. Un timore che si fa più forte osservando le difficoltà a cui stanno andando incontro le auto autonome.
Pochi mesi fa, una self-driving car di Uber ha travolto e ucciso una donna che, nel buio, stava attraversando la strada spingendo una bicicletta. Secondo le ricostruzioni, il software dell’automobile prima non è stato in grado di identificare quale fosse l’ostacolo, poi vi ha visto un altro veicolo e infine si è accorto solo della presenza di una bicicletta. E sono proprio queste indecisioni che potrebbero aver causato l’incidente. Poche settimane fa, invece, una Model X ha accelerato prima dell’impatto contro una barriera, per ragioni che non sono ancora chiare.
Questi sono solo due dei vari incidenti che si sono succeduti nel corso del tempo; con una frequenza che non si può definire allarmante, ma che solleva parecchi dubbi sull’effettiva possibilità che le auto autonome possano entrare in commercio nel giro di pochi anni. Il punto è uno: siamo sicuri che i limiti odierni di queste auto siano solo le inevitabili difficoltà a cui si va incontro durante le fasi di sperimentazione?
“Ogni incidente in cui è stata coinvolta una self-driving car è parso essere un caso limite, il tipo di cose che gli ingegneri non possono prevedere in anticipo”, spiega The Verge. “Quasi tutti gli incidenti automobilistici, però, includono delle circostanze non prevedibili; senza la capacità di generalizzare, le auto autonome dovranno affrontare tutti questi imprevisti come se fosse sempre la prima volta. Il risultato è che questi sfortunati incidenti potrebbero non diventare meno comuni o meno pericolosi con il passare del tempo”.
Come nel caso di Duplex, anche per quanto riguarda le auto autonome il problema riguarda l’incapacità del deep learning di compiere generalizzazioni; una qualità fondamentale dell’intelligenza umana: “Anche delle piccolissime modifiche a un’immagine possono cambiare completamente il giudizio del sistema”, prosegue The Verge. “Un algoritmo non è in grado di riconoscere una lince a meno che non abbia visto migliaia di foto di questo animale; anche se ha imparato a distinguere gatti e giaguari e anche se sa che le linci si trovano più o meno a metà strada. Il processo per la generalizzazione richiede una gamma di abilità completamente differenti”.
Non essendo dotate dell’abilità di generalizzare e di ragionare astrattamente, le intelligenze artificiali potrebbero non essere in grado di far fronte a imprevisti anche solo leggermente diversi da quelli già affrontati, e nemmeno di sostenere dialoghi che non siano estremamente circoscritti. Peggio ancora, non è affatto detto che nel futuro il deep learning – che si basa esclusivamente su calcoli statistici – possa conquistare questa forma di ragionamento.
Il tema è stato recentemente sollevato sull’Atlantic da un pioniere della AI come Judea Pearl: “Per come la vedo io, lo stato dell’arte dell’intelligenza artificiale di oggi è soltanto una versione potenziata di ciò che le macchine potevano fare già una generazione fa: trovare le regolarità nascoste in un ampio set di dati. Tutte le impressionanti conquiste del deep learning ammontano a un semplice curve fitting (il processo matematico che – come spiega Wikipedia – permette di costruire una curva che corrisponda nel modo migliore a una serie di punti assegnati)”.
In termini più intuitivi, la tecnologia del deep learning fa molta fatica quando deve affrontare territori non chiaramente definiti, in cui giocano un ruolo importante il ragionamento, il buon senso e il significato. “Non siamo in presenza di nessuna vera forma di intelligenza”, ha sostenuto il professor Michael I. Jordan in un recente saggio. “La fiducia verso questi algoritmi brute force potrebbe essere decisamente mal riposta”.
Un’ulteriore conferma della legittimità di questi dubbi si è avuta grazie a uno studio di DeepMind (una della società più evolute nel settore del deep learning, di proprietà di Google): la ricerca aveva lo scopo di misurare la capacità di ragionamento e astrazione di questi software e ha invece dimostrato, ancora una volta, come sia sufficiente apportare delle piccole modifiche agli oggetti analizzati per mandare completamente in tilt questi sistemi.
Forse è ora di tornare alla vecchia intelligenza artificiale
Ma se i critici del deep learning hanno ragione, qual è la strada per arrivare a una vera intelligenza artificiale; o almeno per superare gli ostacoli più immediati che questo settore si trova davanti? Sorprendentemente, alcuni scienziati stanno nuovamente valutando le potenzialità della cosiddetta “intelligenza artificiale vecchia maniera”. Invece di sfruttare i big data e un meccanismo di tentativi ed errori, la AI simbolica (in voga fino agli anni ’80) prevede di instillare nelle macchine tutta la conoscenza necessaria a svolgere il compito che le è stato dato. Per imparare a giocare a scacchi, quindi, non sarebbe necessario fare centinaia di migliaia di partite (imparando dall’esperienza), ma è sufficiente che nel software “vecchia maniera” vengano codificate tutte le regole degli scacchi. Insomma, una forma di AI in cui la conoscenza viene inculcata dall’alto invece di essere conquistata attraverso l’esperienza.
Questo tipo di AI ha dimostrato di funzionare molto bene quando si tratta di portare a termine compiti che hanno regole estremamente chiare, come avviene, appunto, nel gioco degli scacchi; ma fallisce miseramente in settori ricchi di ambiguità (come il linguaggio). “È un lavoro che si è dimostrato molto difficile e che non è mai stato portato a termine, ma questo non significa che fosse sbagliato”, spiega ancora Gary Marcus. “Se il deep learning e i big data non possono portarci oltre le prenotazioni dei ristoranti, anche quando sono nelle mani dell’azienda più evoluta del mondo, significa che è giunto il momento di ripensare la nostra strategia”.
FONTE