INTELLIGENZA ARTIFICIALE: RISORSA O MINACCIA?

0
518

di ADRIANA STANZIOLA

Nuove frontiere di Etica e Società – INTERVISTA A CRISTIANO DE NOBILI (Fisico e AI Scientist)

L’Intelligenza Artificiale porta inevitabilmente nell’immaginario collettivo un retaggio adolescenziale fantascientifico.

Per chi, come me, è cresciuta/o negli anni 90 è quasi automatica l’associazione a “Io Robot” con Will Smith, alla sua diffidenza nei confronti di questi aiutanti meccanici o ai cyborg di “The Terminators”, alla rivoluzione cibernetica contro l’umanità. Al di là di queste ricostruzioni fantascientifiche ormai è sotto gli occhi di tutti la trasformazione che l’Intelligenza Artificiale ha portato nel nostro quotidiano, nelle interazioni, in ambito lavorativo e in generale nelle diverse sfere esistenziali.

Emergono, pertanto, interrogativi inquietanti del tipo: “Verso quale società stiamo andando? Cosa ci attende? Che impatto avrà sulla società l’IA? C’è bisogno di una regolamentazione a riguardo?

Queste sono solo alcune delle innumerevoli domande che sorgono nell’attuale dibattito globale che vede protagonisti esponenti del settore, come, ad esempio, Elon Musk (CEO e CTO di Space Exploration Technologies Corporation, CEO di Tesla Motors e CEO di Neuralink), il quale in un commento su “Edge.org” afferma che: “Il ritmo dei progressi nell’Intelligenza Artificiale (non mi riferisco all’IA ristretta) è incredibilmente veloce. […], non hai idea di quanto velocemente stia crescendo ad un ritmo vicino all’esponenziale. Il rischio che succeda qualcosa di gravemente pericoloso è dentro cinque anni di tempo. 10 anni al massimo.”

Proviamo, dunque, ad esplorare questo mondo per comprendere qualcosa in più grazie all’aiuto di Cristiano De Nobili (Fisico e AI Scientist), al quale ho rivolto alcune domande.

D: Benvenuto Cristiano, si parla spesso di AI senza cognizione di causa, in maniera un po’ astratta. Se dovesse spiegarlo brevemente: “Che cos’è l’Artificial Intelligence?”

Cristiano De Nobili

R: L’AI è una tecnologia nata dalla curiosità dell’uomo di far risolvere a una macchina problemi e compiti che richiedono generalmente competenze e caratteristiche umane, come la comprensione del linguaggio, le capacità visive e percettive, pensiero strategico e anche ragionamento. Oggi l’AI trova la sua realizzazione in algoritmi chiamati Machine Learning o Deep Learning. Questi algoritmi – che hanno alla loro base principi matematici, fisici o neuroscientifici – sono molto flessibili, capaci di imparare dai dati e a riconoscere pattern non banali. In particolare, taluni algoritmi sono stati addestrati su così tanti dati, come i Large Language Models (es: ChatGPT), che non solo sono in grado di generare contenuti quasi umani ma mostrano varie altre abilità emergenti come alcune competenze matematiche.

D: In che modo trasformerà le nostre vite e la società in cui viviamo? Ci sono pro e contro?

R: Possiamo con certezza dire che algoritmi di AI già oggi hanno trasformato le nostre vite essendo presenti in qualsiasi strumento digitale, dal personal computer allo smartphone usati quotidianamente. Non solo, sono presenti spesso anche nelle nostre scelte di acquisto o all’interno delle macchine o aerei su cui voliamo. Gran parte dell’automazione che oggi vediamo, anche e soprattutto quella utile, è alimentata da modelli di AI. L’AI stessa giocherà un ruolo fondamentale nell’adattamento e mitigazione del cambiamento climatico oppure come ausilio nell’educazione delle generazioni. Allo stesso tempo, è la prima tecnologia sviluppata nella storia dell’umanità ad aver raggiunto competenze di linguaggio e operatività pari a quella umana. Se non regolamentata o gestita con una forte visione, l’AI pone già oggi e porrà moltissime implicazioni sociali. Può infatti far aumentare la disoccupazione, contribuire a condizionare scelte politiche, creare enormi differenze sociali tra chi la sa utilizzare a proprio vantaggio e chi invece non ha questa opportunità.

D: Regolamentazione dell’utilizzo dell’intelligenza artificiale: siamo in ritardo? Se sì, perché? Quali potrebbero essere le conseguenze?

R: Qualche giorno fa lo stesso Sam Altman (CEO di OpenAI) ha dichiarato ai senatori degli Stati Uniti che è sempre più urgente iniziare una serie discussione sulla regolamentazione dei sistemi di AI. Oggi siamo ancora in tempo, tuttavia, se non iniziamo subito questa discussione, vista la rapidità di sviluppo e diffusione di questa tecnologia, saremo presto in estremo ritardo. L’Europa, come una saggia capolista, ha iniziato per prima con l’”AI Act” che proprio in questi giorni verrà approvato. Valuta l’AI con un approccio basato sul rischio e non sulla particolare tecnologia. Questo permette alla regolamentazione di essere sopra le parti, quindi, valida indipendentemente dalla veloce diffusione degli specifici algoritmi. Lo scopo è, inoltre, non limitarne lo sviluppo tecnico ma portarlo invece su rotte sicure e inclusive per la società. Sicuramente i vari paesi del mondo devono trovare degli accordi, così come è stato fatto in altri settori (nucleare, studio dei virus). Se invece l’AI non sarà regolamentata ma verrà lasciata al libero mercato allora potrebbe avere conseguenze imprevedibili per la società. Non sto dicendo che avrebbe la capacità di prendere vita e annientare gli esseri umani ma più semplicemente che disporrebbe dei mezzi per essere una fonte inesauribile di falsità (fake-news), bias (distorsione), discriminazioni, utilizzabile anche per ottimizzare pratiche criminali o truffaldine, così come potrebbe creare un impatto incontrollato nel mondo del lavoro.

D: Quali sono i campi in cui è già applicata in maniera efficace ed efficiente?

R: L’AI – come più in generale la tecnologia – quando non è sviluppata seguendo soltanto i dettami del capitalismo, porta con sé applicazioni estremamente positive. Tra le più efficaci vi sono quelle che aiutano in campo medico o addirittura nell’adattamento e la mitigazione del cambiamento climatico. Recentemente ho lavorato proprio sulla comprensione dei fattori che determinano gli incendi boschivi grazie a immagini del progetto “Copernicus” della ESA, in una collaborazione che ha coinvolto Pi School e il National Observatory of Athens (NOA, Orion Lab). È impossibile non citare i recenti sviluppi nel settore dell’”AI Generativa”, come il Large Language Models. Questi modelli, una volta perfezionati e se vogliamo anche regolamentati, saranno un’enorme risorsa per ogni professionista, ricercatore o azienda.

Ringrazio Cristiano per la disponibilità e le risposte chiare ed esaustive!

(Per la dicitura di accompagnamento alla foto: Cristiano De Nobili, fisico e AI scientist
per approfondimenti sul tema del contrasto tra Natura/Tecnologia e parlo anche degli impatti sulla società. Ig: @denocris )