Identikit con ChatGPT

copertina.png

Se pensiamo ai grandi casi di cronaca nera, le immagini che ci restano impresse non sono quasi mai le foto segnaletiche sgranate, ma quegli schizzi a carboncino, a volte inquietanti, che tappezzano le bacheche dei commissariati nei film noir o nelle serie true crime, soprattutto se il ricercato in questione non è persona nota.

È quel foglio di carta che dà il via alla caccia all'uomo, con giornali e rotocalchi pronti a ripubblicare il disegno per aiutare l'indagine, ma soprattutto per vendere più copie.

Il testimone, ancora sotto shock o nel pieno dello sforzo mnemonico, cerca di descrivere l'indescrivibile " era basso, non aveva capelli, non mi ricordo il colore degli occhi, corporatura media". L'artista non interroga, ma guida, infondo non si tratta di disegnare una fotografia, ma di disegnare un ricordo, quasi sempre di una persona confusa.

Spesso vengono usati giovani artisti dell'accademia o poliziotti appassionati perché possiedono quella sensibilità necessaria a interpretare termini vaghi come "uno sguardo cupo" o "un volto scavato", trasformandoli in ombreggiature e chiaroscuri.

E se vi dicessi che la polizia ha assunto un nuovo disegnatore per gli identikit? Non un artista forense, ma un’intelligenza artificiale. Il suo nome è ChatGPT. Sembra una battuta, ma non lo è affatto. Ad Avondale (Arizona), le forze dell’ordine stanno utilizzando l’intelligenza artificiale generativa per trasformare i classici schizzi a matita in immagini fotorealistiche dei sospettati. L’obiettivo dichiarato? Non tanto l’accuratezza, quanto l’engagement.

Un’immagine fotorealistica attiva i nostri bias cognitivi, appare più credibile di un disegno e crea una pericolosa illusione di accuratezza. L’idea che “quello sia davvero il volto del ricercato”. Non stupisce, quindi, che questi strumenti non portino a risultati concreti: non è un bug, è una caratteristica strutturale dell’algoritmic bias.

Secondo il dipartimento di polizia, i tradizionali identikit non funzionano più sui social network: attirano poca attenzione, vengono ignorati, non generano interazioni. Le immagini iperrealistiche, invece, colpiscono l’occhio, soprattutto quello dei più giovani, e moltiplicano like, commenti e condivisioni. La caccia al sospetto, insomma, si fa a colpi di engagement.

Il processo è apparentemente rassicurante: si parte da un identikit tradizionale, basato sulla testimonianza di un testimone, che viene poi “raffinato” dall’intelligenza artificiale. Per la polizia non si tratta di una falsificazione, ma di un semplice miglioramento tecnologico. I risultati, in termini di visibilità, sono evidenti: tantissime segnalazioni e un’enorme interazione online. C’è però un dettaglio non trascurabile: a oggi, nessun arresto è avvenuto grazie a queste immagini generate dall’IA.

Questo caso, per quanto ancora isolato, si inserisce in un trend molto più ampio e preoccupante: l’adozione acritica di tecnologie di intelligenza artificiale da parte delle forze dell’ordine, spesso senza una reale comprensione dei loro limiti, dei rischi e delle implicazioni etiche. Qui il problema è doppio. Da un lato, l’identikit è già di per sé uno strumento fragile, basato sulla memoria umana, notoriamente imprecisa. Dall’altro, l’intelligenza artificiale generativa è intrinsecamente affetta da bias e pregiudizi.

Il parallelo con il riconoscimento facciale è inevitabile. Anche lì abbiamo visto arresti documentati di persone completamente innocenti, a Detroit, New York, Atlanta. Quando si adottano strumenti senza comprenderne i limiti sistemici, gli errori non sono incidenti: sono conseguenze prevedibili.

Ancora più inquietante è la giustificazione basata sull’engagement. Like e commenti diventano più importanti del rigore investigativo. È una vera e propria gamification della giustizia, una forma di “security theater”: si dà l’impressione di essere moderni ed efficienti, mentre si mette in scena uno spettacolo tecnologico potenzialmente dannoso.

Il vero pericolo è il falso senso di certezza che queste immagini generano, nel pubblico e nelle stesse forze dell’ordine: un disegno fatto a mano, da un essere umano, trasmette al pubblico qualcosa ancora in itinere, una rappresentazione parziale di un sospettato che potrebbe cambiare con il proseguire delle indagine, mentre una foto realistica generata con una AI è troppo precisa e potrebbe essere scambiata come una vera foto del colpevole, magari sviando completamente le indagini.

Insomma, questo sembra essere l'ennesimo esempio di come queste nuove tecnologie AI vengono usate senza valutarne i rischi, ma solo in ricerca dell'approvazione del grande pubblico.

Grazie dell'attenzione e alla prossima.



0
0
0.000
1 comments
avatar

Già immagino chatgpt col suo politicamente corretto generare una foto di un africano con pelle bianca per non risultare razzista...

0
0
0.000