2 Luglio 2025 - Come recentemente riportato anche dalla rivista specializzata Wired, la "Immigration and customs enforcement" (Ice), l'agenzia del governo statunitense responsabile del controllo delle frontiere, ha affidato alla società di big data Palantir lo sviluppo di uno strumento che garantisca una "visibilità quasi in tempo reale" sui migranti irregolari che accettano di auto-espellersi dal paese. E, in particolare, una funzione svolta a "snellire" le operazioni di "selezione" e cattura degli stranieri illegali.
Quella dell'applicazione della tecnologia e della cosiddetta "Intelligenza artificiale" (Ia) anche in alcune azioni amministrative ad alto impatto sociale ed economico - oltre al "caso Palantir", ad esempio se ne parla per la selezione degli aventi diritto a determinate prestazioni di welfare - è una delle "zone d'ombra" più delicate intorno al grande tema della Ia: saranno davvero "intelligenti" le scelte degli algoritmi che animano questi sistemi? Proponiamo una riflessione di Andrea Ciucci.
Algoritmo decide espulsione di una persona (generata con IA)[/caption]
Non è che questa tecnologia ci renderà meno intelligenti?
Qualche giorno fa un articolo pubblicato su una dotta rivista scientifica a cura di alcuni scienziati del prestigioso MIT di Boston ha guadagnato le prime pagine dei giornali di tutto il mondo. Intitolato Il tuo cervello su ChatGPT, l’articolo presenta i risultati di un esperimento volto a studiare l’influenza dei sistemi di intelligenza artificiale generativa sui processi cognitivi umani. Gli scienziati hanno chiesto a 54 volontari di scrivere un testo, dividendoli però in tre gruppi. Il gruppo denominato “brain only” (solo cervello) non poteva usare alcun strumento e risorsa digitale, il secondo poteva utilizzare solo un motore di ricerca, il terzo aveva accesso a ChatGPT. L’analisi delle attività celebrali e dei risultati prodotti dai tre gruppi è stata clamorosa: gli studiosi hanno registrato connettività e attività celebrali significativamente differenti in aree dell’encefalo diverse; i testi prodotti dai brain only sono apparsi decisamente più originali e articolati, a differenza di quelli degli utilizzatori dell’intelligenza artificiale che erano tutti più omogenei e piatti; anche il grado di appropriazione dei concetti espressi era significativamente maggiore in chi non aveva utilizzato alcun strumento digitale. I risultati ottenuti hanno portato gli studiosi a parlare di un vero e proprio debito cognitivo presente negli utilizzatori di sistemi di intelligenza artificiale. Anche molti giornali e commentatori hanno sottolineato questo aspetto, trovando nell’articolo la prova scientifica di un sospetto che abita testa e cuori di molti: non è che questa tecnologia ci renderà meno intelligenti? Le persone intelligenti sanno che bisogna leggere sempre tutto il testo, anche quando, come nel caso dell’articolo del MIT, è lungo quasi 200 pagine. In una seconda fase dell’esperimento, infatti, i ricercatori hanno invertito i ruoli, chiedendo ai tre gruppi di produrre un secondo testo. Mentre gli orfani dell’intelligenza artificiale non hanno mostrato un’adeguata attività cerebrale e hanno prodotto testi identici a quelli precedenti, chi invece la usava per la prima volta ha potuto integrare questo ulteriore supporto in una attività cerebrale già avviata, producendo materiale particolarmente originale e strutturato. Che cosa allora prova scientificamente questo esperimento? Che la via più intelligente e proficua non è quella di limitare o addirittura rifiutare queste tecnologie, ma quella di utilizzarle con saggezza, a supporto dell’esperienza umana e non in una sostituzione tanto comoda quanto becera. C’è un modo di utilizzare l’IA che non solo riduce i rischi ma produce un miglioramento dell’esperienza umana positivo e proficuo. Negli stessi giorni dell’uscita sui giornali dell’articolo, papa Leone ha mandato un messaggio a un congresso di specialisti del settore in cui si legge: L’IA, in particolare l’IA generativa, ha aperto nuovi orizzonti a molti livelli diversi, […] ma solleva anche interrogativi inquietanti sulle sue possibili ripercussioni sull’apertura dell’umanità alla verità e alla bellezza, sulla nostra capacità distintiva di cogliere ed elaborare la realtà. […] L’accesso ai dati – per quanto vasto – non deve essere confuso con l’intelligenza, che necessariamente «implica l’apertura della persona alle domande ultime della vita e riflette un orientamento verso il Vero e il Bene». L’intelligenza artificiale può aiutarci a cercare il Vero e il Bene, cioè a essere davvero umani. A patto di costruirla e usarla bene. Papa Leone invoca, alla fine del messaggio un “necessario apprendistato intergenerazionale”. Sì, dobbiamo attivare un apprendistato: non possiamo lasciare che la trasformazione tecnologica accada in modo insensato e sregolato. (fonte: Andrea Ciucci/SIR) [caption id="attachment_61289" align="aligncenter" width="1024"]
Algoritmo decide espulsione di una persona (generata con IA)[/caption]