Chat GPT è davvero intelligente? Ne parliamo con Marcello Pelillo

condividi
Prof. Marcello Pelillo (Dipartimento di Scienze Ambientali, Informatica e Statistica)

ChatGPT, o chat Generative Pre-trained Transformer, è diventata un vero caso mediatico. Uno dei modelli più famosi di intelligenza artificiale sviluppato dall’azienda OpenAI sta polarizzando le opinioni della comunità scientifica e non. La sua gamma di potenziali applicazioni è vasta, e va dalla traduzione dei testi al servizio clienti o alle indagini di mercato. In molti però si interrogano sull’impatto che questo strumento può avere sulla società e sul mercato del lavoro. In Italia il Garante per la Privacy ha bloccato il servizio dal 1 aprile, e qualche tempo fa circa 1.000 esperti hanno lanciato un allarme sui rischi dell’intelligenza artificiale, chiedendo uno stop allo sviluppo. Tra loro Elon Musk - co-fondatore di OpenAI – che sembra però essere già al lavoro per creare un sistema competitivo. Ma che cos’è esattamente l’intelligenza artificiale (AI) e quali sono i vantaggi e i rischi? Ne abbiamo parlato con un esperto, Marcello Pelillo, professore di informatica al Dipartimento di Scienze Ambientali, Informatica e Statistica di Ca’ Foscari, che da trent’anni lavora nel campo dell’AI.

Professore, cos’è l’Intelligenza Artificiale?

Nella nostra comunità scientifica c’è ancora un dibattito intenso su questa domanda. Anche solo definire il termine ‘intelligenza’ non è semplice. In generale, con AI ci si riferisce a un’area dell’informatica e dell’ingegneria che cerca di realizzare algoritmi o macchine che abbiano un comportamento ‘intelligente’, ovvero che si comportano come esseri umani. La capacità di percepire il mondo come gli esseri umani, per esempio, oppure applicare una strategia – come nei giochi complessi - sono tra le abilità tipicamente umane che cerchiamo di trasferire. 

Come funziona chatGPT, e dove prende le informazioni che ci restituisce?

E’ un software proprietario di OpenAI, aperto a tutti, che genera risposte simili a quelle umane su input degli utenti. Dal punto di vista scientifico e tecnologico, Chat GPT non è particolarmente innovativo. E’ però un sistema ben ‘confezionato’, con il quale è quasi impressionante interagire, ma è soprattutto una grande operazione commerciale. Si tratta dell’ultimo modello di AI che utilizza le reti neurali per imitare la struttura del cervello simulando il comportamento umano. Le reti neurali hanno una storia antica, se ne parla già da prima degli anni ’50, data di nascita ufficiale dell’AI. Da una decina di anni però il fenomeno è esploso con l’evoluzione delle ‘deep neural networks’, reti neurali profonde, ovvero modelli ispirati al cervello, che imparano da grandi quantità di dati. Chat GPT ha accesso a una quantità di dati infinita e usa il Large Language Model (LLM), che rispetto ai modelli precedenti è capace di focalizzare l’attenzione su specifiche parti del testo, come capita a noi umani quando ci concentriamo sui dettagli di quello he guardiamo. 

Quali sono i limiti di questo strumento?

Uno dei limiti evidenti che, ad oggi, caratterizza tutti i sistemi di AI, è quello della mancanza di senso comune. Questo è un esempio di dialogo con ChatGPT: ‘puoi generare un numero a caso tra 1 e 10, che provo a indovinarlo?’ ‘Certo. Sette, prova a indovinarlo’ ‘Per caso è sette?’ ‘Bravissimo!’. In queste poche righe, condivise tra noi colleghi, si capisce il limite intrinseco di questi sistemi: la mancanza di comprensione profonda dell’argomento di cui si discute e la mancanza di senso comune. Se l’intelligenza è anche capacità di fare ragionamenti logici, di comprendere il significato profondo di una frase e di ‘ancorarla’ alla realtà, allora ChatGPT non è intelligente. È però molto abile a unire in maniera coerente e convincente ‘pezzi’ di testi. Ha accesso a miliardi di testi, è addestrata a completare testi, e quindi costruisce un discorso più o meno coerente. 

Quali vantaggi (o svantaggi) vede in questo sistema? 

Vedo più svantaggi. Personalmente ritengo che ci siano applicazioni ben più interessanti dell’AI, per esempio in campo medico. L’AI produce sistemi di analisi mediche avanzate che riescono a vedere dettagli invisibili all’occhio umano, fondamentali per una diagnosi corretta e un percorso di cura. Queste macchine, capaci anche di analizzare un’enorme quantità di dati, possono portare un reale progresso nella medicina. Però, fanno meno notizia di Chat GPT. 

Pensiamo invece all’ambito della giustizia penale, dove sistemi di Intelligenza Artificiale sono già utilizzati negli USA, e iniziano a esserlo anche in Europa. Alcune sentenze sono state prodotte con il supporto di software basati sull’AI, in grado di predire il livello di recidiva di un imputato. In questi casi stiamo dando una grande responsabilità ad un algoritmo, che – ricordiamolo - appartiene ad aziende private che non garantiscono la trasparenza. Siamo di fronte a uno strumento tecnologico che di per sé è neutrale, ma che possiamo utilizzare in modo corretto o meno. Così è anche per ChatGPT. Può essere un valido assistente ma può nascondere delle insidie.

Blocco (in Italia) del Garante della Privacy, appelli per ‘fermarsi e riflettere’, primi casi di intelligenza artificiale ‘hackerata’. In alcune Università sorgono dubbi sulla stesura di qualche tesi. La paura è giustificata?  

I rischi sono un problema generale dell’AI. Personalmente ho trovato poco sensato l’appello di Elon Musk, che è uno dei creatori di Open AI, a fermare tutto per sei mesi. E infatti pare che abbia dato vita a una nuova società di AI (ricordiamo che Open AI è sostanzialmente posseduta da Microsoft). Come si può fermare la ricerca a livello mondiale? Non c’è nessuna autorità che abbia questo potere, e sei mesi sarebbero comunque un periodo irrisorio. Uno studio approfondito e interdisciplinare non si potrebbe condurre in pochi mesi.

I rischi principali secondo me sono due. Il primo è la velocità con cui nascono e si applicano questi nuovi strumenti. Questo ritmo non ci dà la possibilità di riflettere in maniera approfondita sulle conseguenze. Il secondo è legato alla proprietà intellettuale delle ricerche in ambito AI. Fino a pochi anni fa l’AI era patrimonio dell’Università. La ricerca era svolta in partnership con aziende, ma in sostanza era ricerca accademica. Negli ultimi dieci anni lo scenario è cambiato in maniera radicale e, probabilmente, irreversibile. Ora, pur avendo risvolti etici e implicazioni sociali importanti, con forte impatto sulle società e sulle politiche degli Stati, la ricerca è condotta interamente da grosse aziende, come Google, Facebook, Amazon, Microsoft, etc.

Cosa si dovrebbe fare per regolamentare questo sviluppo?

Non dobbiamo perdere il controllo di ciò che creiamo, come è successo nella famosa storia dell’Apprendista stregone. Per quanto questi sistemi siano creati da noi umani, sono gigantesche macchine governate da miliardi e miliardi di numeri che diventano inaccessibili. La questione su trasparenza e privacy nell’AI è prioritaria ed è già dibattuta a livello europeo ma anche negli Stati Uniti. Ci sono linee guida che definiscono come operare in modo corretto e un intero campo di studi dedicato a un ‘explainable AI’.

Per tornare alle soluzioni: non è percorribile l’idea di Musk di fermarci e riflettere. Chi decide e chi si deve fermare? E anche se lo facessimo, chi ci garantisce che un’azienda o uno stato totalitario non potrebbe andare avanti, acquisendo un vantaggio competitivo? Già anni fa, in un’intervista, Putin ha dichiarato che chi governerà l’AI governerà il mondo. 

Credo invece che si debba avere buonsenso e cercare di rendere questa disciplina più trasparente e democratica. Un primo passo sarebbe quello di imporre che i sistemi di AI siano aperti e ispezionabili da tutti. Chat GPT per esempio è un software proprietario, quindi nessuno al di fuori di Open AI sa esattamente come funziona.

Tutti ricordiamo le foto del ‘finto’ arresto di Trump e le reazioni che hanno suscitato appena pubblicate. Senza la consapevolezza, rischiamo di creare una società del sospetto e della sfiducia. Ogni volta che vedremo qualcosa in rete ci dovremo chiedere: è originale? Ogni volta che riceveremo una mail sospetteremo che sia un Chatbot. 

Federica Scotellaro