Intelligenza artificiale tra hype e apocalisse, qual è la realtà? Da una parte c’è chi sostiene che AI renderà l’uomo immortale, “perché potremmo caricare tutto il contenuto della nostra mente su un hardware e quell’hardware vivrà per noi anche quando il nostro hardware biologico ci lascerà del tutto”. Dall’altra parte, invece, chi è convinto che AI “prenderà il lavoro di tutti” o che, peggio ancora, “diventerà talmente potente che la monteremo sulle armi o si monterà da sola, e a quel punto o ci mette tutti in galera o ci ammazza a tutti”. È veramente così, tutto bianco o tutto nero? E AI è veramente già così diffusa come sembrerebbe?
Di questo e altro ha parlato Mariarosaria Taddeo, professoressa di Etica digitale e Tecnologie di difesa presso l’Oxford Internet Institute dell’Università di Oxford, in apertura del XVIII convegno nazionale di Asstra a Roma il 15 aprile 2024. Taddeo con dati, studi e analisi ha sfatato alcuni falsi miti – “fantascienza” e “gossip della tecnologia” li ha definiti – che circolano sull’AI, per poi riportare la discussione sulle molteplici opportunità (“non ci sono solo problemi”) e i rischi (“capirli e limitarli”). In particolare sul perché “AI sta diventando una infrastruttura e perché serve l’etica per mettere a terra questa infrastruttura”. Riportiamo una parte di queste riflessioni.
Intelligenza artificiale tra hype e apocalisse: cosa è AI
“AI non è una tecnologia, ma una categoria della tecnologia – ha esordito Taddeo -. AI non è lì per incarcerarci, per renderci immortali o per innamorarsi per noi come il replicante di Blade Runner. L’intelligenza artificiale non è uno strumento, è un agente, qualcosa che interagisce con l’ambiente e sull’ambiente, e può essere utilizzata per eseguire compiti che altrimenti richiederebbero l’intelligenza umana per essere eseguiti con successo”.
Uno degli argomenti di cui si sente parlare spesso sull’AI è l’impatto che questa avrà sul mondo del lavoro. Le previsioni più catastrofiche parlano di 300 milioni di posti di lavoro persi. Taddeo invita alla calma. “Il mondo del lavoro è un sistema complesso”, e come tutti i sistemi complessi le previsioni su di essi si rivelano spesso sbagliate.
La questione semmai è un’altra: “Non è quanto saremo occupati o quante professioni verranno cancellate e quante invece emergeranno. Il rischio vero nel delegare ad AI il compito di guidare un aereo, leggere una radiografia se siamo un medico, correggere un saggio se siamo un professore o una professoressa è perdere la capacità di eseguire lo stesso compito. Se perdiamo questa capacità perdiamo la capacitò di capire quando AI sbaglia. L’aereo può atterrare e decollare il 99% delle volte grazie ad AI, ma il pilota deve essere ancora capace di farlo quando AI non funziona. E le AI spesso non funzionano”.
Intelligenza artificiale tra hype e apocalisse: i numeri
La professoressa Taddeo ha poi illustrato i dati relativi alla diffusione di alcune tecnologie. “I numeri dell’adozione di Voice assistant negli Stati Uniti mostrano una crescita costante che al 2026 è del 45,5%, quasi la metà della popolazione americana. Gboard, invece, conta un miliardo di utenti (un ottavo della popolazione mondiale); mentre ad agosto 2023 ChatGPT (OpenAI) aveva più di 180,5 milioni di utenti. Questi numeri dicono che qualcosa sta cambiando, ma c’è una discrepanza tra i nostri comportamenti su base individuale e quello che avviene nelle aziende”.
“Solo il 28% delle aziende sta adottando AI in modo strutturale”
Lo dimostra un report del 2023 con le interviste a 1500 decision makers di aziende con più di 250 dipendenti: “Rispetto all’adozione di AI risulta che il 70% di queste aziende ha un progetto basato su AI, ma solo il 28% di queste la sta adottando in modo strutturale”. Questo significa che nelle realtà “al di là dell’hype o dell’uso individuale da parte ciascuno di noi, stiamo andando molto più a rilento”. “E questo perché l’adozione dell’AI non avviene all’improvviso ma fa parte di una transizione più complessa, quella digitale, e la transizione digitale di cui parliamo da almeno dieci anni non è così capillare come ci piace pensare”.
A questo proposito Taddeo ha citato un piano dell’Europa che propone di raggiungere entro il 2030 alcuni obiettivi: più del 90 per cento delle imprese con un minimo di digitalizzazione e 75% delle aziende in EU che utilizzino uno o più tra cloud, AI e data. “Ma nella realtà oggi siamo molto più lontani”.
Il problema non è di poco conto: “Se siete una grande impresa e la vostra filiera non è digitalizzata potete avere tutta l’AI che volete, ma se c’è una piccola media impresa della vostra filiera che non è digitalizzata, la vostra filiera si interrompe”. Riassumendo, “non vuol dire che il passaggio ad AI non c’è, ma che questo sta arrivando un po’ più piano”. La cosa non è per forza un male. Anzi, in un certo senso è “una buona notizia, così possiamo pensare un po’ di più e capire in che direzione farla andare”.
Intelligenza artificiale e le sue applicazioni
“AI funziona bene perché funziona con i dati e noi ne produciamo tantissimi: solo quest’anno l’equivalente di 21 miliardi di dvd”. Una valanga di informazioni che solo AI può leggere nella sua totalità ed elaborare, diventando così una opportunità. I campi di applicazione sono molteplici: “Dove c’è un sistema complesso che richiede integrazione di molti dati, collaborazione e dove entrano in gioco più variabili, AI ci aiuta a gestire meglio la situazione”. Solo un esempio: grazie ai dati che ci arrivano dai sensori sulle strade o dalle telecamere è possibile oggi “prevedere la possibilità di incidenti con una accuratezza del 90%”.
I rischi e le sfide dell’intelligenza artificiale
“Il primo è la discriminazione. AI favorisce gli errori umani: rischia di perpetrare il nostro errore, ma in maniera molto più efficiente”. Secondo rischio: “È una tecnologia che controlliamo poco perché poco trasparente: dato un imput e dato un output non possiamo dire come quell’output è stato creato. E se non possiamo dire come è stato creato allora non possiamo dire se è stato creato senza errore”.
Un altro problema è la rimozione della responsabilità umana (removing human responsability): “Stiamo delegando alle macchine compiti molto importanti, tutto questo senza aver trovato un modo per attribuire di chi sia la responsabilità per l’azione delle macchine stesse”. E ancora, rimozione delle human skills. “AI è una tecnologia che si interpone tra noi e l’ambiente, in questo facilita la nostra interazione aiutandoci a fare delle scelte. Ma a che punto questo aiuto non inizia a erodere la nostra capacitò di fare scelte in autonomia?”.
Intelligenza artificiale e il Panopticon digitale
Ultimo ma non ultimo la sicurezza e il rischio che si venga a creare un “Panopticon digitale”, “una struttura di massima sorveglianza”. Ad esempio: un sistema per migliorare la gestione del traffico incamera i dati sulle vetture e sull’infrastruttura, ma anche quelli delle persone in viaggio.
Si parla inoltre di una tecnologia di “una vulnerabilità estrema”: “AI ha cambiato il modo di fare cyber security, perché ci ha permesso di sviluppare nuovi programmi per difenderci, ma ha dato anche possibilità nuove a chi vuole attaccarci. Immaginate un sistema di AI utilizzato per far atterrare un aereo che improvvisamente si comporta in maniera differente. Non è fantascienza, sono tipi di attacchi riportati in letteratura”. Non solo. AI può essere in un certo senso manomessa con semplici frasi del linguaggio naturale.
Taddeo ha spiegato che bisogna pensare a AI come a una infrastruttura e non a un servizio. “È ciò che ci permette di fare leva sul potenziale dei dati, potenziali positivi, ma tenendo presente al tempo stesso che ci sono dei rischi”. Per evitare questi rischi servono “misure di controllo e forme di governance appropriate”. Che non vuol dire mettere dei vincoli, ma trovare “un equilibrio tra interessi contrapposti, diversi ma legittimi”. E qui entra in campo l’etica come strategia. Un percorso che richiedere tempo e risorse, ma che va fatto adesso che siamo all’inizio.
Intelligenza artificiale: hype o apocalisse, quindi?
“E’ importante avere l’etica digitale nella fase iniziale di sviluppo per essere sicuri che quando adottiamo AI tutti i giorni abbiamo già rispettato a monte i valori di società che vogliamo sviluppare come democratiche, pluraliste, sostenibili, pacifiste”.
Leggi anche: Nuovi materiali per auto e aerospazio da scarti di fibra di carbonio: il progetto Maris