domenica 11 febbraio 2018

ROBINSON Se l’intelligenza è troppo artificiale

Nell’era del “deep learning” le Ai diventano sempre più smart. Ma c’è una cosa che mai potranno imparare. È qui il di più della cultura?
di Jaime D’Alessandro
« Non possiamo insegnare ai nostri bambini a competere con le macchine. Le macchine sono più veloci, non si stancano, non provano rabbia. Dobbiamo invece insegnare ai ragazzi qualcosa di unico. In questo modo, fra trent’anni, avranno una possibilità». Jack Ma, fondatore del colosso del commercio elettronico cinese Alibaba, a quel che resta dell’umanità ci tiene. Durante l’ultimo World Economic Forum a Davos, in Svizzera, è tornato su uno degli argomenti a lui cari: restare umani al tempo dell’automazione e dell’intelligenza artificiale. Il problema è ora capire cosa sia quel fattore “unico” che dovremmo insegnare ai nostri figli. Cosa, in pratica, le macchine non sapranno mai fare, visto che sanno fare sempre più cose. Cosa ci definisce e ci differenzierà dai replicanti di Blade Runner oltre ai ricordi posticci. Dieci anni fa Gary Wolf e Kevin Kelly, figure di primo piano della rivista Wired, diedero il via al movimento del Quantified Self. Mettere in numeri la propria vita grazie a computer indossabili e sensori non era un’idea nuova. Ma divenne strada praticabile grazie alla diffusione di braccialetti intelligenti e soprattutto grazie agli smartphone che di noi sanno molto. Per dirla con Gary Wolf: «Ogni cosa che facciamo genera ormai dei dati » . Per addestrare una rete neurale, la base delle nuove intelligenze artificiali (Ai), serve molta potenza di calcolo e soprattutto una grande quantità di dati, poco importa che si tratti di fargli imparare a giocare a scacchi o a riconoscere il linguaggio parlato. La tecnica più all’avanguardia è il deep learning,un sistema di reti neurali artificiali a strati che funziona un po’ come la divisione del lavoro: ognuno svolge un preciso compito per giungere all’obiettivo, e grazie a ciò sono anche in grado di apprendere nel loro campo specifico. L’evoluzione delle Ai che tanto spaventa Elon Musk a capo di Tesla o SpaceX, o l’astrofisico Stephen Hawking, nasce dalla loro crescita esponenziale grazie alle informazioni che ormai hanno a disposizione in grande quantità e che ci riguardano. Tanto da spingere un uomo cauto nelle dichiarazioni come sir Christopher Pissarides, professore alla London School of Economic e Nobel per l’economia, a dirci che « automazione e Ai rappresentano la prima rivoluzione industriale che colpirà anche i lavori più qualificati delle élite, dagli avvocati ai medici». Mentre il sociale si riduce al social e trasforma in byte le nostre interazioni, per usare il mantra di uno “ tecno scettico” come Geert Lovink, e mentre una scienziata come Cathy O’Neil scrive di Armi di distruzione matematica (Bompiani) nel suo ultimo saggio accusando l’ideologia degli algoritmi di non tener conto di variabili fondamentali e di non essere modelli matematici oggettivi e trasparenti, la richiesta di insegnare ai bambini qualcosa di unico diventa materia sempre più complicata. Una risposta prova a darla Luciano Floridi, professore di filosofia ed etica dell’informazione all’Università di Oxford. «Se devo dare una sola indicazione direi che le macchine non avranno mai il buon senso. Inteso come quella cosa che mi fa subito capire che l’oggetto appena comparso nel mezzo della strada non è un masso arrivato dal nulla ma una busta di plastica; il sapere che “oggi con il mio amico è meglio che certi argomenti non li tratto”; intuire che per inchiodare una puntina sul muro posso anche usare il dorso di un libro. O ancora: sto perdendo la partita a scacchi (o a Go, o a scopone scientifico…) con il computer davanti a me, ma non me ne importa niente perché è scattato l’allarme antincendio e stiamo tutti correndo verso l’uscita mentre il computer sta ancora calcolando la prossima mossa, incatenato al suo destino». La soluzione quindi è in parte nella nostra abilità di applicare una conoscenza, acquisita in un certo campo, in un altro. O usare uno strumento pensato per una certa funzione per qualcosa di completamente diverso. Immaginare che se una mela cade grazie alla legge di gravità, è probabile che potremmo scivolare su un declivio se abbiamo a diposizione una tavola sulla quale sederci. Questo le macchine non lo sanno fare. Non ancora almeno. Ed è una abilità umana legata alla creatività alla quale siamo sempre così attaccati quando si tratta di tracciare il confine fra noi e loro, le macchine. Ma c’è qualcos’altro, almeno per Stefano Diana, veterano della tecnologia e autore di un libro intitolato Noi siamo incalcolabili (Stampa alternativa). «È l’empatia, intesa come abilità scientificamente misurabile » , racconta. « Quando parliamo di qualità umane, intelligenza o creatività, sono categorie filosofiche. In realtà a determinarci sono molto più quelle chimiche, fisiche e legate al nostre corpo, l’oggetto più complesso al mondo. Delle dieci aree del cervello che creano l’empatia, quattro sono destinate a comprendere l’espressione degli occhi dell’altro. Hanno un’origine evolutiva precedente alle parole e immaginarle tradotte in numeri è impossibile».
Impossibile, o forse improbabile. Dieci anni fa nessuno credeva possibile per una macchina tradurre in tempo reale una conversazione dal cinese all’italiano. Oggi invece è realtà. Ma c’è una consolazione. L’evoluzione delle macchine non è progressiva come in genere si pensa. Al pari di qualsiasi altra disciplina procede per balzi, per scoperte. Ora si è arenata sull’incapacità di tradurre una conoscenza in intuizione applicabile a campi differenti. Ed è ancor più distante dal decodificare un universo come quello dell’empatia. Finché la situazione resterà questa, avremo qualcosa di unico da insegnare ai nostri figli. ?

© RIPRODUZIONE RISERVATA

Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.