Marcello Pelillo, professore di Intelligenza artificiale e direttore Eclt

‘Correggere’ l’intelligenza artificiale, a Venezia un osservatorio europeo

E se l’intelligenza artificiale non fosse poi così intelligente? Chi si occupa di verificare che gli algoritmi servano davvero a migliorare la qualità della vita in modo etico, sicuro, accettabile e comprensibile?

Per rispondere a queste ed altre domande sulla tecnologia che già pervade e rivoluziona la nostra vita quotidiana, da gennaio 2019 ha preso il via AI4EU, un grande progetto europeo (79 partner, 20 milioni di finanziamento Horizon 2020) che intende coinvolgere tutti i ricercatori, gli innovatori e i talenti europei che si occupano di intelligenza artificiale.

L’obiettivo è quello di rafforzare le competenze, promuovere nuove scoperte, ma anche dirimere le questioni etiche e valoriali che lo sviluppo di tanta dirompente innovazione può sollevare. L’Università Ca’ Foscari Venezia, attraverso lo European Centre for Living Technologies, si occuperà proprio di creare un osservatorio sull’etica dell’intelligenza artificiale in collaborazione con alcuni tra i massimi esperti, come Luc Steels, visiting professor a Ca’ Foscari.

“Compito dell’osservatorio sarà proteggere la società europea dai possibili abusi di questa tecnologia - spiega Marcello Pelillo, professore di Intelligenza artificiale a Ca’ Foscari e direttore di Eclt - assicurando il rispetto dei valori umani e delle regole europee, fornendo alla comunità di esperti e alle autorità europee informazioni aggiornate sulle conseguenze degli abusi”.

A complicare la sfida, spiega Pelillo in un articolo per SciTech Europa, ci sono tre aspetti critici legati all’intelligenza artificiale: opacità, neutralità e stupidità.

L’opacità degli algoritmi di machine learning, argomenta il professore cafoscarino, va di pari passo con la loro precisione. Più l’intelligenza della macchina riesce ad estrarre da una mole enorme di dati quelli che le sono utili e apprendere come migliorare la propria performance, più questa operazione sarà oscura per gli utenti, ma anche per gli esperti che volessero correggerla.

“L’applicazione della AI in campi in cui si trattano dati sensibili - conclude Pelillo - può essere frenata dalla difficoltà degli utenti a comprendere la logica sottesa al lavoro degli algoritmi”.

Inoltre, gli algoritmi, come tutta la tecnologia, non sono neutrali, bensì risentono dei pregiudizi, degli errori e delle distorsioni di chi li crea e gestisce. Celebre il caso di Tay, un software di Microsoft capace di gestire in modo automatico delle conversazioni su Twitter, che fu spento dopo sole 24 ore perché iniziò a rispondere ‘a tono’ a delle provocazioni, diffondendo messaggi razzisti e a sfondo sessuale.

Per spiegare il comportamento stupido dell’intelligenza artificiale, Pelillo cita la terza legge della stupidità umana dell’economista Cipolla: una persona stupida è una persona che causa un danno ad un'altra persona o gruppo di persone senza nel contempo realizzare alcun vantaggio per sé od addirittura subendo una perdita.

“Un ricercatore diede in esame l'immagine di un autobus a un potente algoritmo, che la identificò subito - è l’aneddoto che racconta Pelillo - poi alterò qualche pixel e l’immagine che per un occhio umano era ancora un autobus, per il computer diventò uno struzzo. Immaginiamo quanto potrebbe essere pericolosa questa ‘stupidità’ dell’AI se applicata, ad esempio, alla guida autonoma”.

Enrico Costa