Chi rompe paga !

Se entrate in una cristalleria con il vostro cane, magari di grossa taglia, e il canide in questione vede un gatto provocatorio dalla vetrina del negozio, e tutto d'un tratto inizia a correre, nella speranza di acciuffare il felino, facendovi partire il guinzaglio di mano, e facendo partire anche una teca piena di cristalli preziosi che finisce rovinosamente a terra, sfracellandosi in mille pezzi, beh.... mi dispiace, ma i responsabili siete voi, e il danno lo dovete saldare voi, nella speranza che magari abbiate fatto un bella assicurazione per il vostro animale domestico, ma si sa, le assicurazioni sono molto furbe, e da quì scaturisce il tema di questo post.
Infatti il molosso in questione si chiama Intelligenza Artificiale, AI per dirla all'inglese, e tutte le aziende, prese da un terribile attacco di FOMO (Fear of missing out), la stanno mettendo dovunque, dalla lavatrice al tostapane, dal frigo all'automobile, questa Ai ce la ritroviamo tra i piedi qualsiasi cosa facciamo, ma se questa AI sbaglia, chi pagai danni ?
Domanda molto interessante, e con una risposta per niente scontata...
Fino a ieri la risposta era semplice: l’assicurazione. Oggi, sempre più spesso, la risposta rischia di essere: nessuno
Infatti, le più grandi compagnie assicurative del mondo stanno infatti iniziando a riscrivere i contratti per escludere esplicitamente i danni causati dall’intelligenza artificiale. Colossi come IG, Great American e Berkley stanno chiedendo ai regolatori statunitensi di approvare clausole che eliminano la copertura AI dalle polizze aziendali. Non si tratta di un cavillo tecnico, ma di un segnale enorme: l’industria che per definizione monetizza e gestisce il rischio sta alzando bandiera bianca.
Il motivo è tanto semplice quanto inquietante. L’intelligenza artificiale è una scatola nera: opaca, non deterministica, difficile da spiegare e da prevedere. Per un assicuratore, il rischio deve essere calcolabile. Se non è possibile stimare con precisione probabilità e impatto di un errore, quel rischio diventa, di fatto, non assicurabile. E l’AI oggi rientra esattamente in questa categoria.
Non parliamo però di scenari teorici. I disastri costosi sono già realtà. In Canada, un tribunale ha obbligato una compagnia a onorare uno sconto completamente inventato da un chatbot. Il gruppo di ingegneria Arup ha perso circa 25 milioni di dollari a causa di un deepfake che simulava un dirigente e ordinava bonifici fraudolenti. Il vero incubo, però, non è il singolo incidente, ma il rischio sistemico: un errore di un modello di AI diffuso potrebbe causare migliaia di perdite contemporanee, generando un disastro correlato e aggregato capace di mettere in crisi l’intero sistema assicurativo.
Attenzione anche alle soluzioni apparentemente rassicuranti. Alcune compagnie offrono endorsement che promettono copertura, ad esempio per le multe dell’AI Act europeo, ma limitandosi a percentuali irrisorie del massimale ( si parla addirittura dell' 1%). Non è gestione del rischio: è risk theater, puro teatro di una finta sicurezza paventata.
Le conseguenze sono profonde. Se l’AI non è assicurabile, diventa un lusso per i giganti tech che possono autoassicurarsi. Le piccole e medie imprese restano sole, con il cerino in mano, non potendosi prendere rischi così grossi, una class action o una multa milionaria , o le sole spese legale per difendersi, manderebbero al tappeto qualsiasi azienda medio-piccola.
Nasce così un nuovo AI divide, non basato sull’accesso alla tecnologia, ma sulla capacità di sostenere il rischio, e un mercato in cui il rischio diventa una barriera d’ingresso non è un mercato libero.
Sembra quasi che, come spesso succede, i giganti Big Tech riescano a guadagnare anche dalle situazioni apparentemente difficili, riuscendo a schiacciare la concorrenza, e facendoci immaginare un futuro sempre più caratterizzato da monopoli e concentrazioni di potere in mano a pochi colossi.
Grazie dell'attenzione e alla prossima.
Immagine realizzata con ChatGPT