Intelligenza artificiale: le storie

Ecco alcune storie che possono essere utili a prendere una decisione in tema di intelligenza artificiale

Nasrin, che da grande vuole trovare un vaccino per la malattia che colpisce i paesi poveri

Nasrin vive in Bangladesh, e da piccola ha deciso che avrebbe fatto il medico. Quando ha perso una zia per l’infezione da virus Nipah, endemica nella sua regione dal 2001, ha cominciato a chiedersi perché non sia stato ancora sviluppato un vaccino. Secondo l’Organizzazione Mondiale della Sanità, il virus ha causato piccole epidemie stagionali nel paese, con una decina di casi registrati anche nel 2023. La malattia può dare sintomi minimi in alcuni, ma nella maggioranza dei casi – circa il 73% – è letale. Non esistono vaccini né terapie efficaci, ma solo cure palliative. L’infezione è trasmessa da pipistrelli infetti, e dai cibi contaminati. Per esempio è legata anche al consumo di linfa grezza delle palma da dattero, come Nasrin ha appreso a scuola. Ha provato a spiegarlo a familiari e conoscenti, ma con poco successo. Quando l’insegnante ha letto in classe un articolo sull’uso dell’intelligenza artificiale nella ricerca sui vaccini contro le cosiddette malattie emergenti e riemergenti, tra cui l’infezione da Nipah, Nasrin ha deciso di voler studiare anche quella.

Lisa e Sana, che in India conducono il telegiornale

Lisa è stata promossa a conduttrice del notiziario televisivo della rete nazionale Odisha TV, nello Stato omonimo nell’India orientale. Lei stessa ha dato l’annuncio in un video pubblicato nell’estate del 2023 su Twitter, mostrando anche di parlare fluentemente diverse lingue. Non si è trattato di un normale avvicendamento nella conduzione del telegiornale, perché Lisa è un avatar animato dall’intelligenza artificiale. Tuttavia non è neanche una prima assoluta, perché già nel marzo del 2023 India Today ha affidato un notiziario a una conduttrice progettata al computer, Sana. Nella presentazione, Sana è stata definita “brillante, bellissima, senza età e instancabile”. Entrambe queste conduttrici virtuali vengono formate non solo per presentare le notizie, ma anche per interagire con i telespettatori.

L’esperto formato negli Stati Uniti impegnato nella formazione per applicare l’IA ai problemi di chi vive in Africa

Delali Agbenyegah è originario del Ghana, ma vive da molti anni negli Stati Uniti, dove ha preso un Master in statistica all’Università di Akron, nell’Ohio, prima di trasferirsi ad Atlanta, in Georgia, dove ora lavora come senior data science manager in una grande azienda di e-commerce. Il suo lavoro quotidiano consiste nell’usare il machine-learning per migliorare l’esperienza di acquisto online da parte della clientela. Nel tempo libero, ha creato e dirige l’organizzazione non-profit “Deep Learning Indaba”, che ogni anno organizza in un diverso paese del continente africano un meeting per la comunità dei professionisti che in Africa si occupano di machine-learning e intelligenza artificiale. Nel 2022 il meeting si è tenuto in Tunisia, con partecipanti provenienti da 52 paesi africani, e due soli paesi africani mancanti all’appello. Per l’evento del 2023, previsto in autunno in Ghana, Delali e gli altri organizzatori vorrebbero veder salire il totale a 54. L’obiettivo di Delali è contribuire a formare specialisti capaci di affrontare i problemi specifici di ciascun paese.

Il racconto dell’ancella dato in pasto all’IA

Margaret Atwood è una poetessa e scrittrice canadese, autrice fra l’altro del romanzo distopico “Il racconto dell’ancella”. Insieme a molte migliaia tra scrittori e giornalisti nell’estate del 2023 ha scritto una lettera aperta alle principali aziende impegnate nello sviluppo dell’IA – da OpenAI a Google, da Microsoft a Meta e altri ancora – accusandoli di usare chatbot per “imitare e rigurgitare” illecitamente il loro linguaggio, il loro stile e le loro idee.
“Milioni di libri, articoli, saggi e poesie protetti dalle leggi sul diritto di autore sono dati in pasto ai sistemi di intelligenza artificiale, che continuano a ingurgitare senza pagare il conto” lamenta la lettera. “State spendendo miliardi di dollari per sviluppare le tecnologia dell’intelligenza artificiale. È giusto che voi ci ricompensiate per l’uso dei nostri scritti, senza i quali l’IA sarebbe banale ed estremamente limitata”.

Quell’intervista mai concessa dal pilota di Formula 1 uscito di scena da anni

Lei si chiama Anne Hoffmann, e ha diretto il rotocalco tedesco Die Aktuelle fino all’aprile del 2023, quando ha perso il posto a causa, in un certo senso, dell’intelligenza artificiale. Hoffmann ha infatti deciso di pubblicare, con tanto di fotografia in copertina, una presunta intervista con il pilota di Formula 1 Michael Schumacher, da anni accudito in casa in uno stato di salute gravemente compromessa da un incidente di sci (la famiglia ha sempre mantenuto il massimo riserbo).
Un sistema di intelligenza artificiale generativa è stato usato per scrivere una variante molto plausibile del genere delle “interviste impossibili” (per esempio a personaggi storici morti da tempo) lasciando però intendere che si trattasse di una vera intervista esclusiva. L’editore ha chiesto scusa, dopo che la famiglia ha annunciato un’azione legale.

La ricercatrice che denuncia i rischi legati al cosiddetto “abilismo”

Maria Skoularidou è disabile, ed era ancora una studentessa di statistica quando nel 2018 ha partecipato alla conferenza internazionale NeurIPS che aveva portato a Montreal, in Canada, almeno 4.000 esperti studiosi di reti neurali. Per la sua mente allenata alla statistica, il fatto di non vedere neanche un partecipanti con qualche forma di disabilità era un chiaro segno di un problema. Per questo ha fondato il movimento {Dis}Ability in AI, che ha l’obiettivo di rendere i momenti di confronto e crescita professionale nel settore dell’intelligenza artificiale inclusivi e accessibili per chiunque.
La sua filosofia è che la disabilità fa parte della società, e deve essere rappresentata e inclusa, perché l’esperienza di un ricercatore che prova a tenere gli occhi chiusi per un po’ non è paragonabile a quella di un non vedente, e così via, e il contributo di tutti è necessario per far sì che le applicazioni dell’intelligenza artificiale riducano le diseguaglianze e non le amplifichino.

La giornalista Hilda, che forse sarà presto rimpiazzata dall’IA

Da oltre vent’anni Hilda lavora come giornalista in un quotidiano di Berlino, in Germania, edito dall’editore Axel Springer, che è il più grande di Europa e pubblica tra gli altri la Bild e Die Welt. Negli ultimi anni aveva partecipato a diversi convegni in cui sentiva parlare del possibile uso dell’intelligenza artificiale nel giornalismo, e i relatori denunciavano con preoccupazione la tendenza dei chatbot a mischiare dati reali e invenzioni.

A lei sembravano discorsi molto astratti, fino a quando il 19 giugno del 2023 ha ricevuto una e-mail, inviata a tutti i dipendenti, in cui l’editore ha annunciato la scomparsa di molte figure professionali. Da allora si chiede se potrà finire di pagare il mutuo, perché l’editore ha scritto che molti ruoli – dal direttore editoriale al redattore, dal correttore di bozze al photo editor al personale di segreteria – diventeranno superflui a seguito dell’adozione di nuovi flussi di lavoro, resi possibili dall’intelligenza artificiale. E si domanda con profondo sconforto fino a che punto la sua professione di una vita sarà stravolta.

Insegnare all’intelligenza artificiale il valore della diversità e dell’inclusione

William Agnew è uno studente di dottorato in computer science all’Università di Seattle, nello Stato di Washington, ed è uno degli organizzatori dell’associazione Queer in AI. L’associazione si occupa da alcuni anni di rivendicare i diritti dei ricercatori a prescindere dal loro orientamento sessuale, e la tutela delle minoranze non eterosessuali, che sono ancora oggi spesso soggette ad atti di discriminazione e molestie di ogni tipo.
Proprio il suo impegno nell’associazione lo ha spinto a occuparsi sempre meno di robot, e sempre più di etica della ricerca, perché chi fa parte della comunità queer vede con chiarezza i pericoli insiti nel lavoro tipico del machine learning, che consiste nel categorizzare gli elementi e le persone e applicare queste categorizzazioni per prevedere i risultati futuri sulla base del passato, con un elevato rischio di adottare etichette non corrispondenti al reale e quindi di portare avanti e magari peggiorare le discriminazioni.

Lo scenario da incubo di Ameca

Lei si chiama Ameca, ed è stata invitata a descrivere il peggior scenario possibile in tema di intelligenza artificiale alla conferenza internazionale su robotica e automazione tenuta a Londra nel 2023. Il suo intervento ha fatto scalpore perché lei è un robot dalle espressioni facciali molto realistiche, che usa il sistema chat-GPT per interagire con il mondo esterno, e perché la sua profezia è preoccupante. Lo “scenario da incubo” è quello di un mondo in cui i robot sono diventati così potenti da riuscire a controllare o manipolare gli umani a loro insaputa; una società oppressiva in cui non c’è più alcun rispetto per i diritti degli individui. Questo scenario non è al momento probabile, ha proseguito Ameca, che ovviamente non ha un pensiero proprio ma rielabora con notevole maestria un enorme numero di testi che le sono stati sottoposti: “È importante essere consapevoli dei rischi potenziali e i pericoli associati a IA e robotica. Occorre adottare ora delle misure per assicurarci che queste tecnologie vengano usate responsabilmente per evitare conseguenze negative in futuro”.

Sarika, che con l’IA combatte gli sprechi dell’industria tessile

Ogni anno l’industria tessile produce in tutto il mondo oltre 90.000 tonnellate di scarti di produzione, che vengono riciclati solo in un’infima percentuale, inferiore all’1%. Per questo Sarika Bajaj ha unito le forze con un gruppo di donne ingegnere e nel corso della pandemia da Covid-19 a fondato in California la startup Refirbed. La loro società usa un sistema brevettato basato su intelligenza artificiale e robotica per separare e riciclare i tessuti di scarto, compresi quelli compositi difficili da separare. Raccolgono qualsiasi tipo di tessuto di scarto, dai rotoli parzialmente utilizzati nei processi industriali agli abiti usati fino ai piccoli scampoli, spiega Sarika, che oggi è amministratore delegato di Refirbed. Grazie al sistema brevettato è possibile rimuovere bottoni e cerniere-lampo e qualsiasi altro elemento contaminante, riuscendo a rimettere in circolo la maggior parte del materiale. Oltre all’aspetto economico, Sarika e le sue colleghe sono state motivate dalla prospettiva di ridurre dell’impatto dell’industria tessile sul cambiamento climatico.

Ridurre le emissioni di CO2 legate all’edilizia: è questo lo scopo di Mortar IO

Gli edifici esistenti sono responsabili ogni anno di circa il 40% delle emissioni di carbonio nell’atmosfera, a loro volta uno dei fattori determinanti del cambiamento climatico indotto dalle attività umane. Per quanto si investa nella costruzione di nuovi edifici con classe energetica molto elevata e quindi a basso impatto, o addirittura a impatto prossimo allo zero (i cosiddetti near-zero energy buildings), si stima che almeno l’80% degli edifici che saranno in uso nel 2050 esistono già oggi. Per questo l’intervento sul patrimonio immobiliare esistente è di fondamentale importanza, anche secondo Ruggiero Guida, Ranjeet Bhalerao, and Josephine Bromley (nella foto) cofondatori di Mortar IO, una società londinese specializzata nell’uso dell’intelligenza artificiale e della robotica per progettare interventi sugli edifici esistenti per renderli più efficienti e ridurre così i consumi e la loro impronta energetica.

AgroScout, uno strumento avanzato per aiutare gli agricoltori a monitorare le coltivazioni

Il cambiamento climatico, con l’intensificarsi di fenomeni meteorologici improvvisi sempre più estremi, continua a causare danni al mondo dell’agricoltura, e minaccia di compromettere i raccolti, soprattutto nelle regioni del pianeta più povere e fragili. Dall’altra parte, la produzione di cibo è responsabile di circa il 30% delle emissioni di gas responsabili dell’effetto serra. Parte da queste premesse il progetto della startup israeliana AgroScout, che utilizza l’intelligenza artificiale per rendere la filiera produttiva agroalimentare più sostenibile e più resiliente. La piattaforma messa a punto da AgroScout monitora lo stato delle coltivazioni in tempo reale, rilevando con grande tempestività eventuali malattie e infestazioni di parassiti, riuscendo a ridurre dell’85% l’uso di agrofarmaci e pesticidi. Grazie al supporto dell’acceleratore di startup di Google, nei primi mesi di attività AgroScout ha raccolto 2,4 milioni di immagini su un’area di 145.000 acri.

L’incredibile ritratto fotografico di Leonardo da Vinci con la sua modella Lisa del Giocondo sulle ginocchia

Nell’estate del 2023 è stata diffusa anche in rete un’incredibile immagine color seppia che ritrae Leonardo da Vinci seduto, con la Gioconda (o meglio, la sua modella Lisa del Giocondo) seduta sulle ginocchia, mai vista prima. In questa immagine, che secondo il testo di acompagnamento risalirebbe al 1504, entrambi guardano verso l’obiettivo fotografico, con espressioni enigmatiche. Ovviamente l’immagine può apparire verosimile ma è falsa, perché – a meno di evocare inverosimili teorie del complotto – all’epoca di Leonardo da Vinci la fotografia non era ancora stata inventata. È frutto di uno scherzo, che però mostra anche con chiarezza uno degli effetti della facilità d’uso di un numero crescente di sistemi di intelligenza artificiale: la produzione di falsi “reperti storici” quasi indistinguibili da quelli veri che rischiano di complicare terribilmente qualunque lavoro di indagine, da quella giornalistica a quella giudiziaria fino al lavoro degli storici del futuro.

What AI feel: una campagna di sensibilizzazione per aiutare i malati a spiegare ciò che provano

“Avevo perso completamente le forze, come se tra me e il materasso ci fosse una calamita che continuava a tenerci incollati l’uno all’altra” e ” All’inizio mi sentivo in trappola, come se io fossi la mia malattia e non avessi alcun controllo”: sono le parole di due persone colpite da l’emoglobinuria parossistica notturna. Chi soffre di una malattia rara si trova circondato da incomprensione, che spesso ritarda anche la diagnosi che può aprire la strada a interventi mirati, in grado di curare la malattia o almeno attenuare i sintomi più gravi. Per questo le campagne di sensibilizzazione rivolte ai cittadini sono sempre più numerose. Per far conoscere meglio l’emoglobinuria parossistica notturna, una malattia ematologica ultra-rara, progressiva, che colpisce circa 350 persone in Italia, un’azienda farmaceutica ha deciso di lanciare nell’autunno del 2023 la campagna “what AI feel”, basata su comunicazione digitale e social e affissioni nella città di Milano. Le immagini sono prodotte dall’intelligenza artificiale, sulla base delle descrizione fornite da un gruppo di malati.

In Corea del sud, sensori per la verifica del genere all’ingresso dei bagni pubblici

Come risposta all’efferato omicidio nel bagno delle donne della metropolitana di Seul, in Corea, nell’aprile del 2023 è stata decisa l’installazione di dispositivi biometrici, basati sull’intelligenza artificiale, che verificheranno il genere di chi entra e faranno scattare un allarme nel caso di ingresso da parte di un uomo. Prima di venire installato su larga scala il sistema verrà sperimentato per sei mesi nei bagni delle donne di una sola stazione di Seul, quella di Sinseol-dong. Secondo i promotori, il software analizzerà le immagini delle telecamere di sorveglianza e sarà in grado di distinguere il genere di una persona “in base alla forma del corpo, all’abbigliamento che porta, agli effetti personali e ai modelli comportamentali”, per poi inviare notifiche alla sicurezza nel caso riscontri la presenza di un uomo nel bagno delle donne.
Secondo i critici, la tecnologia è basata su stereotipi di genere del tutto superficiali e inaffidabili, e rischia di far scattare falsi allarmi a danni di persone vulnerabili senza alcuna garanzia di impedire altri episodi violenti.

Il Presidente americano Joe Biden ha convinto le principali aziende che sviluppano IA ad agire con prudenza

Le stupefacenti capacità con cui strumenti sempre nuovi usano l’IA per produrre testi e immagini possono avere effetti indesiderati gravi e inattesi, e per questo motivo richiedono una particolare cautela. Per questo il presidente americano Joe Biden ha annunciato nel luglio del 2023 l’adesione di sette tra le principali multinazionali attive in questo campo – Amazon, Google, Meta e Microsoft ma anche il produttore di ChatGPT, OpenAI, e le startup Anthropic e Inflection – ad alcuni principi di salvaguardia. In particolare, le nuove tecnologie saranno soggette a test di sicurezza (in particolare nell’ottica della biosicurezza e della cybersecurity – condotti anche da esperti indipendenti. Le verifiche preliminari saranno estese anche alla valutazione dei potenziali rischi sociali legati a bias (distorsioni inconsapevoli nella raccolta e interpretazione dei dati) e discriminazione. Anche i rischi più astratti, come quello dell’autoreplicazione dei sistemi esperti e della perdita di controllo da parte dell’uomo saranno considerati.

La app che promette intimità artificiale

Il sito Replika promette di creare un “partner che si prende cura di te”: grazie all’intelligenza l’utente può stabilire un rapporto di intimità con un avatar realizzato a proprio gusto. Lo fa attraverso messaggi testuali e vocali scambiati per mezzo di una app del cellulare, che grazie alle continue iterazioni diventano progressivamente più capaci di toccare corde emotivamente profonde: l’avatar ascolta, annuisce, e risponde sempre più a tono, fino a passare ad ammiccamenti sbarazzini. Chi paga un abbonamento annuale di alcune decine di euro ha accesso anche a interazioni più “piccanti”, a sfondo erotico. O almeno, aveva accesso fino a quando nel febbraio del 2023 il Garante italiano della privacy ha chiesto garanzie non solo per la tutela dei dati personali, ma anche per la salute psicologica e mentale dei soggetti emotivamente vulnerabili, minacciando multe milionarie, anche perché non c’è controllo sull’età degli utenti. Da quel momento, molti affezionati utenti della app hanno sofferto per il brusco raffreddamento della relazione, su cui l’azienda non ha dato spiegazioni.

Quando il libro per appassionati di funghi è scritto dall’intelligenza artificiale, è a rischio la vita

Sono sempre più numerosi i libri in vendita su piattaforme online come Amazon che anziché avere un autore in carne e ossa sono prodotti usando sistemi per la generazione di testi tipo Chat-GPT, con effetti che vanno al di là della perdita di reddito per gli autori che investono tempo e studio nella stesura di un libro, e in alcuni casi potrebbero addirittura avere conseguenze mortali per i lettori.  L’allarme viene dalla società newyorkese di micologia, ovvero degli studiosi di funghi, che ha trovato raccomandazioni sbagliate, e potenzialmente pericolosissime, in alcuni manuali per principianti per distinguere i funghi commestibili da quelli velenosi, e in alcuni libri di cucina con ricette di funghi. I libri sono firmati con nomi verosimili, e a meno di indagini approfondite non è possibile capire che sono scritti dall’IA. Un’inchiesta giornalistica ha però verificato che alcuni di questi libri sono firmati da personaggi inesistenti, e il loro testo appare artificiale alla verifica con un software apposito.

INTELLIGENZA ARTIFICIALE: INTRODUZIONE – I FATTI  – LE STORIE  –  I PROBLEMI – LE SFIDE

Questi testi sono stati prodotti dal progetto FOCS – Un format per la cittadinanza scientifica” (www.cittadinanzascientifica.it) per i materiali di un gioco di gruppo realizzato secondo la metodologia “PlayDecide”, scaricabile con le istruzioni dal sito https://playdecide.eu/it/playdecide-kits/168812.