Intelligenza Artificiale di Facebook: cosa è successo davvero

In questi giorni quasi tutti i quotidiani e i blog tecnici titolano “Facebook interrompe i test sull’intelligenza artificiale. Due bot hanno dialogato in una lingua sconosciuta agli umani“. Quel che è successo, come al solito, è che una testata ha riportato la notizia e tutte le altre si sono buttate a pesce gonfiando i titoli per attirare traffico (la migliore è stata “gli ingegneri di Facebook nel panico disconnettono l’intelligenza artificiale“). Si sono sprecati i riferimenti ad un futuro apocalittico, con robot senzienti che schiavizzano gli umani, la creazione di un novello mostro di Frankenstein, morti che escono dalle fosse, sacrifici umani, cani e gatti che vivono insieme! Googlate voi stessi per vedere gli scenari apocalittici dell’arrivo imminente di Skynet.

Anche i recenti screzi via Twitter tra Elon Musk e Mark Zuckerberg a proposito dei rischi su uno sviluppo incontrollato dell’intelligenza artificiale han contribuito a gettare benzina sul fuoco.
Ma cosa è realmente successo? Dobbiamo prepararci ad un futuro distopico a metà strada tra Matrix e Terminator?

Risposta breve: ovviamente no.

Grazie ad un’avanzatissimo algoritmo di intelligenza naturale possiamo riproporvi un’estratto della conversazione tra i due bot che presto decimeranno la popolazione mondiale:

Bob: I can i i everything else
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else
Alice: balls have a ball to me to me to me to me to me to me to me to me

Pauroso! han titolato i giornali.

Torniamo indietro al 14 Giugno, quando sul blog degli sviluppatori di Facebook AI Research (FAIR) compare un articolo che illustra le recenti ricerche fatte sui chat bot in ambito commerciale. Per chi non lo sapesse un chat bot è un software che cerca di imitare il linguaggio umano, ma fondamentalmente sostituisce un’interfaccia grafica. Per dirla breve, invece di riempire delle caselline per scoprire cosa comprare su Amazon, grazie ai chatbot, avete la possibilità di “dialogare” col software dicendogli ad esempio “Ciao! Vorrei comprare delle mutande a forma di elefante”, il chatbot controlla la disponibilità di “mutande elefante” in magazzino, esattamente come faceva un programma degli anni ’70, e risponde con un “Certo, ne abbiamo ancora! Di che colore le vuoi?” invece di presentarvi un’interfaccia da cui selezionare le vostra scelta del colore.

Fast forward all’incidente di Facebook. I due chatbot stavano semplicemente “allenandosi” a trovare un buon accordo su come spartirsi un gruppo di oggetti fittizi di un dato valore, un task relativamente semplice per una rete neurale e che Facebook AI Research ha confermato funzionare con risultati piuttosto simili a quelli umani. La questione complicata è far utilizzare ai chatbot un linguaggio naturale, in modo da renderli più piacevoli ad una clientela umana.

Nel caso specifico i chatbot erano programmati in modo da imparare a dialogare utilizzando come insegnamento l’inglese degli utenti stessi che li avrebbero utilizzati. Più alto il numero di converazioni intrattenute, più alta la naturalezza del loro linguaggio.
Qualcuno ha pensato bene che invece di allenare i chatbot con dei dialoghi con utenti veri, sarebbe stato più veloce far dialogare due chatbot tra di loro. Peccato che i due chatbot, senza input umani, non hanno creato un nuovo linguaggio segreto, ma hanno semplicemente utilizzato in modo errato dei modi di dire. L’esempio che ha fatto Dhruv Batra del Facebook AI Research è stato il seguente:

Se io, parlando con un commesso di un negozio, dico : “vorrei questo, e questo…e questo” indicando 3 oggetti diversi, non sto creando un nuovo linguaggio, sto semplicemente usando un modo di dire che non è propriamente corretto, ma che in quel contesto è accettabile.

Facebook a seguito di quanto accaduto ha effettivamente concluso gli esperimenti che prevedevano più chatbot dialogare tra di loro, ma non per il timore di scatenare una guerra termonucleare globale, semplicemente perchè due bot che dialogano tra loro non sarà mai uno scenario realistico. Tutto il sistema è studiato perchè un chatbot interagisca usando un linguaggio naturale e riconoscibile da un interlocutore umano.
L’evento può accendere discussioni sull’uso dell’intelligenza artificiale nel futuro prossimo, ma sicuramente non nei termini apocalittici che ci han presentato i quotidiani. Tant’è che, una volta spiegato il “malfunzionamento”, le frasi dei bot assumono un significato meno criptico di quanto raccontato. In questo caso l’unico funzionamento “intelligente” sviluppato dal software è stato quello di trovare un metodo più conciso per dire che una pallina non aveva valore mentre gli altri oggetti si.

Alice: balls have zero to me to me to me to me to me to me to me to me to

Ci sono molteplici usi per l’intelligenza artificiale ed il machine learning, ma fondamentalmente si riducono tutti alla possibilità di fare enormi quantità di calcoli, confronti e prendere decisioni in base all’enorme mole di esempi analizzati. Questa capacità, non comune negli esseri umani, ci illude che alle spalle della AI ci sia davvero una forma di intelligenza superiore o pericolosa, in realtà il nome più corretto per queste tecnologie (specialmente il machine learning) sarebbe banamente “esperienza artificiale”.

Se esiste un problema con la veloce informatizzazione e robotizzazione è quella relativa ai lavori ripetitivi che non richiedono uno sforzo intellettuale, essendo i computer dei “cretini velocissimi” avranno probabilmente la meglio sugli esseri umani.

Continua su International-post.it