Anna Maria Ciardullo | 6 settembre 2017
SCENARI

Intelligenza artificiale: corsa all’umanizzazione della tecnologia

Quanto ne sappiamo davvero sulle potenzialità ma, soprattutto, sui rischi legati all’evoluzione dell’intelligenza artificiale? Dipende, sappiamo che il mondo del tech è in pieno fermento, che l’AI è già ovunque intorno a noi e che la utilizziamo in moltissime attività, talvolta senza neppure saperlo.

Sappiamo che le opportunità legate a questa tecnologia sono innumerevoli e che, mai come oggi, moltissime sue applicazioni non sono più solo elucubrazioni hollywoodiane che animano qualche film di fantascienza. Quel che risulta meno evidente sono i possibili risvolti negativi di un’evoluzione che, agli occhi di molti, appare come incontrollabile e che potrebbe sopraffare persino coloro che la creano.

 

Intelligenza artificiale e discordie

Basti pensare al founder di Tesla e SpaceX, Elon Musk, che la ritiene persino una papabile causa scatenante della prossima guerra mondiale. Opinione che gli è costata uno “scontro di cinguettii” con il padre di Facebook, Mark Zuckerberg, il quale da ottimista dell’AI, in un post su Twitter ha sentenziato di non capire una presa di posizione del genere, che considera negativa e persino irresponsabile. Per Zuckerberg non ci sono dubbi, l’AI migliorerà semplicemente le nostre vite.

In questo scenario apocalittico misto a chiacchiere da bar (spesso ciò di cui si discute è ben lontano dalla tecnologia effettivamente disponibile e in via di sviluppo) in molti si preoccupano e si incuriosiscono di una sfumatura in particolare: gli sforzi di rendere l’AI sempre meno artificiale ma il più possibile “umana”.

Questa tendenza a rincorrere un’umanizzazione dell’intelligenza, affinché somigli sempre più a noi e non a un robot, un algoritmo o a qualcosa di intangibile, freddo e distaccato è tra i primi obiettivi di tutti coloro che lavorano alla sua evoluzione. Vale, ad esempio, pensando al fatto che i robot sono quasi sempre progettati come “umanoidi”, ossia dalle sembianze umane, ma vale anche, ad esempio, per i chatbot e per tecnologie intelligenti più semplici con le quali abbiamo già a che fare nel quotidiano.

Per molti, quest’aspetto rappresenta uno dei pericoli davanti ai quali ci troveremo a combattere in un futuro (non più così lontano) nel quale sarà sempre più difficile marcare il confine che separa l’uomo dalla macchina, l’intelligenza naturale da quella che la imita. Per altri, è un terreno fertile da battere e sul quale investire per offrire servizi sempre più personalizzati.

 

Siri cambia voce

Tutta la famiglia felice di assistenti vocali che abita i nostri smartphone ne è un esempio lampante. Prendiamo Siri, l’assistente vocale di Apple. Ne è passata di acqua sotto i ponti dalla sua prima versione a oggi e non è più necessario comporre particolari query per farsi capire. L’intelligenza artificiale di cui è dotata è in grado di decifrare pressoché tutte le domande. E, dunque, quale potrebbe essere il passo successivo? Il colosso di Cupertino ha annunciato che la prossima novità riguarderà la sua voce. Facile indovinare l’obiettivo: diventerà molto più umana. A partire da iOS 11, dunque, la voce di Siri verrà migliorata per risultare più naturale, più liscia e piacevole, insomma, per rendere ancor più forte la sensazione di parlare con un’amica o con un’addetta al customer service che dir si voglia, ma in carne e ossa.

Quando si parla di scenari apocalittici, per essere chiari, non si parla di sapere se Alexa stia ascoltando le nostre conversazioni o se Siri sappia troppo del nostro calendario e dei nostri dati di localizzazione. C’è una differenza enorme tra un assistente digitale abilitato alla voce e un’intelligenza artificiale. Queste piattaforme di assistenti digitali sono solo glorificati strumenti di ricerca web e d’interazione vocale. Il livello di “intelligenza” è minimo rispetto a una vera e propria intelligenza artificiale di machine learning. Siri e Alexa non possono competere con Watson di IBM, per intenderci. Ma non vanno comunque sottovalutate.

 

Facebook lancia i bot espressivi

Intanto, parlando di “sembianze umane” arrivano news anche da casa Facebook . Solo il mese scorso, le cronache del tech hanno avuto come protagonisti gli sviluppatori della piattaforma, i quali erano stati costretti ad interrompere un esperimento di intelligenza artificiale – nel quale due robot avrebbero dovuto dialogare tra loro – perché l’AI stava creando un suo linguaggio unico incomprensibile agli esseri umani. I ricercatori del laboratorio di ricerca AI di Facebook (FAIR) hanno scoperto, infatti, che i bot si erano discostati dallo script e stavano comunicando in un nuovo linguaggio sviluppato senza l’apporto umano. È tanto interessante quanto sorprendente – allo stesso tempo un assaggio del potenziale impressionante (e pericoloso?) dell’AI.

Naturalmente, questo episodio non ha rallentato gli esperimenti del laboratorio del social network che si occupa di intelligenza artificiale e, proprio oggi, Facebook ha annunciato il rilascio di un “bot espressivo”, ossia un’animazione basata su un software in grado di rispondere a conversazioni con esseri umani non solo sul piano verbale ma anche con adeguate espressioni facciali.

L’addestramento è avvenuto con ore di filmati di Skype e YouTube. Il bot realizzato è una sorta di avatar animato in grado di interagire automaticamente con le persone, modulando le sue risposte.

Tale sistema, spiegano i ricercatori in uno studio appena pubblicato, ha imparato a riconoscere e a imitare la comunicazione non verbale tra interlocutori umani, fatta non solo di parole ma anche di sorrisi, bronci, inarcamenti di sopracciglia, smorfie e quant’altro. Grazie a questo bagaglio d’informazioni il sistema basato su intelligenza artificiale ha superato i test quasi come un essere umano. Il software, ad esempio, è stato capace di guardare un video di una persona che parla e di scegliere in tempo reale le espressioni facciali di volta in volta più appropriate.

 

Un bot non è un essere umano

Che le aziende si sforzino di umanizzare i propri bot è dunque un dato di fatto. Secondo molti esperti, però, i risvolti di questo obiettivo non sono necessariamente positivi. Se da un lato possono migliorare l’esperienza e l’interazione degli utenti in svariati ambiti, dall’altro potrebbero generare confusione, illusioni dannose con eventuali ripercussioni a livello psicologico, ad esempio.

Quindi, se forse è un po’ eccessivo parlare di guerre mondiali, pur rimanendo nella sfera dei chatbot e delle tecnologie che imitano il linguaggio naturale, nessuna innovazione è esente dal rischio di grosse ripercussioni. In questo scenario, si può citare una moda che circola da qualche anno tra gli sviluppatori. Alcuni hanno utilizzato l’intelligenza artificiale per conservare i tratti peculiari del linguaggio delle persone defunte. Attraverso i loro post su Facebook, per esempio, oppure leggendo i loro SMS inviati, il loro modo di parlare, viene ricreato artificialmente e racchiuso all’interno di un “bot avatar” con cui continuare a parlare come se la persona, anziché essere defunta, fosse semplicemente dall’altra parte del mondo. Un alter ego digitale che, anche dopo mesi dalla sua dipartita, può continuare a parlare, a esprimersi e, nelle intenzioni degli sviluppatori, a “confortare” chi è rimasto.

Forse si tratta di un esempio un po’ estremo, ma in realtà è un discorso molto più ampio e che rientra, ad esempio, anche nella sfera del marketing. Interagire con un bot dovrebbe essere un’azione chiara e lineare. Ossia, le aziende dovrebbero palesare il fatto che si tratta di un interazione artificiale e non umana e non tentare di farla passare come tale. Il rischio, al contrario, sarebbe di creare troppe aspettative e di confondere il destinatario anziché aiutarlo. Del resto i chatbot non sono (e probabilmente non saranno mai) in grado di elaborare dialoghi molto complessi, per cui forzarli potrebbe risultare controproducente sul piano della customer satisfaction. L’ideale sarebbe limitare le interazioni a degli ambiti circoscritti, dando sempre un’alternativa umana per eventuali approfondimenti.

Ciascuno di questi esempi mostra fino a che punto si può arrivare con gli algoritmi di intelligenza artificiale. Se i ricercatori dovessero avere più successo nello sviluppo dell’AI generalizzata, questo potrebbe cambiare tutto e rendere particolarmente labile l’equilibrio umani-macchine, ma per ora ci sono cose che le persone possono fare facilmente e che sono molto più difficili da insegnare a un algoritmo, proprio perché nel nostro apprendimento non ci limitiamo a una serie di compiti definiti. E va benissimo così.

Nessuna risposta a "Intelligenza artificiale: corsa all’umanizzazione della tecnologia"