Assicurare l’imprevedibile: le polizze per i rischi da intelligenza artificiale

L’uso dell’intelligenza artificiale comporta diversi rischi per le aziende. Ci sono polizze per coprirli o ne servono di nuove? Le compagnie assicurative dovranno pensare nuove soluzioni, mentre l’Europa prevede la possibilità di polizze obbligatorie

Pubblicato il 06 Mag 2024

L’intelligenza artificiale (IA) sta rapidamente permeando vari settori economici. Dai servizi finanziari e assicurativi al life science, passando per ambiti diversi come la vendita al dettaglio, l’industriale, l’immobiliare, il media e lo sport, l’IA sta rimodellando i paradigmi tradizionali e segnando un cambiamento nel modo in cui le imprese operano e innovano.

Solo per fare qualche esempio, nel settore dei servizi finanziari le tecnologie di IA sono impiegate per potenziare il servizio clienti, semplificare la valutazione del merito creditizio e rafforzare i meccanismi di rilevamento delle frodi. I modelli di IA stanno trasformando anche le operazioni assicurative nella gestione dei sinistri, nella sottoscrizione, nel servizio clienti e nella valutazione del rischio, migliorando il processo decisionale. Nel life science l’IA sta alimentando il progresso nella ricerca e sviluppo, facilitando la scoperta di nuovi farmaci, l’assistenza personalizzata ai pazienti e innovando i metodi diagnostici e terapeutici. Anche il comparto industriale sta sfruttando le potenzialità dell’IA per ottimizzare l’efficienza operativa e migliorare la resilienza organizzativa rispetto a fluttuazioni e perturbazioni di mercato.

Secondo il Global AI Governance Report di DLA Piper dello scorso settembre le grandi e medie imprese stanno adottando l’IA in modo consistente. Il 96% delle imprese intervistate ha dichiarato di avere almeno quattro progetti di IA in corso di realizzazione e l’83% di aver delineato una strategia di IA, inclusa l’adozione di linee guida per governare le proprie iniziative di IA. Il Report suggerisce anche che le imprese stiano compiendo passi significativi verso un uso conforme ed etico dell’IA, ma che saranno necessarie misure molto più incisive per affrontare la portata delle problematiche sollevate.

Intelligenza artificiale, vantaggi e rischi

Nonostante il potenziale dell’IA nel trasformare le pratiche aziendali e nel favorire una creazione di valore senza precedenti, il suo percorso di integrazione può presentare parecchie insidie. Quando il Regolamento europeo sull’IA (“AI Act”) entrerà in vigore, verosimilmente prima dell’estate, le imprese avranno 24 mesi di tempo (con alcune eccezioni) per conformarsi. Tuttavia, normativa e regolamentazione di settore esistenti pongono già diverse problematiche da considerare e il rischio attuale di sanzioni e azioni giudiziarie non è affatto da sottovalutare.

La mancanza di trasparenza, soprattutto in modelli complessi di deep learning, come gli LLM (Large Language Models), è una delle principali criticità da gestire. Da un lato rende più complicata per gli utenti la comprensione dei meccanismi decisionali dei sistemi di IA, favorendo sfiducia e resistenza alla loro adozione. Dall’altro lato può ostacolare l’identificazione e la correzione dei bias (pregiudizi) dell’IA, proprio a fronte della difficoltà di esaminare i processi decisionali sottostanti. Inoltre, la mancanza di trasparenza è da considerare anche in relazione all’adeguamento normativo e alla supervisione, poiché può rendere meno agevole determinare se i sistemi di IA siano conformi a leggi, regolamenti e standard.

I pregiudizi dell’IA nel settore assicurativo

I sistemi di IA sono potenzialmente in grado di propagare i bias della società, dando luogo a discriminazioni. Ciò si verifica quando i dati utilizzati per l’addestramento dei modelli di IA rispecchiano talune inclinazioni sociali radicate, come quelle legate all’appartenenza etnica, al sesso o allo status socioeconomico. Se i dati di addestramento presentano pregiudizi, il sistema di IA potrebbe interiorizzarli e perpetuarli nei suoi processi decisionali.

Ad esempio, nel settore assicurativo, se i dati storici utilizzati per addestrare uno strumento di valutazione del rischio basato sull’IA dimostrano un pregiudizio nei confronti di alcuni gruppi demografici, il sistema di IA potrebbe inconsciamente perpetuare questo pregiudizio, fissando premi iniqui per le polizze o negando la copertura a persone appartenenti a specifici gruppi, aggravando così le disparità esistenti nell’accesso alle coperture assicurative.

La protezione dei dati e la sicurezza informatica

Altre questioni riguardano la protezione dei dati e la sicurezza informatica. I sistemi di IA si basano su grandi moli di dati, utilizzati per addestrare gli algoritmi e migliorarne le prestazioni. Dati che comprendono una vasta gamma di informazioni e possono includere dati personali come nomi, indirizzi, informazioni finanziarie e informazioni sensibili, ad esempio in relazione allo stato di salute. Dati che potrebbero essere esposti a un maggior rischio di accesso e trattamento non autorizzato, come anche di data breach. Inoltre, l’adozione di sistemi di IA può portare con sé vulnerabilità e minacce specifiche anche sotto il profilo della sicurezza informatica, tra cui potenziali violazioni, manipolazione dei dati, attacchi “adversarial” e, in generale, sfruttamento dei sistemi di IA per scopi malevoli.

La proprietà intellettuale e la tutelabilità degli output dell’AI

L’IA pone, oltretutto, una serie di sfide per la proprietà intellettuale, in particolare per quanto concerne l’addestramento di modelli di IA su dataset di terzi e la tutela dei risultati generati dall’IA. L’addestramento di modelli di IA utilizzando dataset di terzi può tradursi in una violazione dei loro diritti di proprietà intellettuale, aprendo la via a potenziali controversie in materia di diritto d’autore, segreto commerciale o altri diritti di proprietà intellettuale. Un altro importante tema riguarda la tutelabilità degli output generati dall’IA, ossia codice software, testo, immagini o altri contenuti. Soprattutto ove si tratti di combinare e trasformare opere già esistenti, determinare se l’output dell’IA sia proteggibile e definire i confini di un’eventuale tutela può risultare un’operazione complessa.

Le responsabilità che l’AI comporta per le aziende

I rischi appena elencati, ma non solo, possono esporre le imprese che adottano l’IA a gravi responsabilità nei confronti di clienti, partner e altri stakeholder. Per mitigarli – oltre a conformarsi requisiti e gli obblighi che si applicheranno in base all’AI Act e che già si applicano in base a normative e regolamenti attuali – le imprese dovrebbero adottare solide policy e linee guida interne per governare lo sviluppo, l’implementazione e l’utilizzo dei sistemi di IA. Dovrebbero anche avvalersi di clausole contrattuali robuste negli accordi con fornitori e altri stakeholder per delineare con precisione obblighi e responsabilità legati all’utilizzo dell’IA. Per proteggere i dati e i sistemi di IA da violazioni ed accessi non autorizzati, dovrebbero inoltre adottare misure tecniche come, ad esempio, la crittografia, il controllo degli accessi, un’efficace supervisione e meccanismo di rilevamento delle anomalie. Inoltre, l’adozione di misure organizzative, come programmi continuativi di formazione e sensibilizzazione di dipendenti e collaboratori, potrebbe facilitare la creazione di una cultura aziendale basata su responsabilizzazione e conformità ai requisiti normativi e agli standard etici nell’impiego dell’IA.

Ci sono le polizze per i rischi da AI o ne servono di nuove?

Oltre a queste misure, di natura legale, tecnica e organizzativa, le aziende di vari settori stanno valutando con i loro broker se i rischi derivanti dall’utilizzo dei sistemi di IA possano essere ricompresi nelle coperture assicurative esistenti o debbano essere affrontati con nuove polizze.

Sebbene alcune polizze esistenti, come l’assicurazione PL/PI, la cyber e la RC, possano coprire alcuni rischi legati all’IA, sono emerse lacune significative che richiedono un ripensamento delle stesse e la possibile creazione di nuove soluzioni a seconda delle situazioni specifiche.

Come noto, alla base del contratto di assicurazione vi è sempre la valutazione del rischio. E il rischio può essere assicurato se origina una perdita definitiva che ha luogo in un momento determinato, in un luogo preciso e che deriva da alcune cause specifiche; il danno causato è accidentale; le perdite sono prevedibili (la prevedibilità consente di valutare la frequenza e la gravità) e i sottoscrittori possono offrire premi ragionevoli. Effettuare un’accurata valutazione del rischio risulta fondamentale sia per i sottoscrittori che per gli assicurati. Infatti, da un lato, i sottoscrittori possono escludere o limitare alcuni rischi specifici e, dall’altro, gli assicurati possono definire la copertura più appropriata contro determinati sinistri.

Intelligenza artificiale, come assicurare l’imprevedibile

Nel caso della responsabilità civile per l’uso di IA la valutazione del rischio è una nuova frontiera da esplorare. In questo caso, l’assicurazione non è un concetto statico: potrebbe essere molto difficile valutare l’aggravamento o la riduzione dei rischi, che possono mutare rapidamente.

Le primissime polizze disponibili sul mercato che garantiscono una certa copertura contro i rischi di terzi derivanti dall’IA consistono in soluzioni per adattare le assicurazioni esistenti alle sfide poste dall’IA, quali esclusioni e franchigie specifiche, assunzione del rischio in coassicurazione, limiti/sottolimiti di copertura specifici che possono trasformare rischi sottostanti non quantificabili in esposizioni determinate.

Nel prossimo futuro alcuni rischi attualmente coperti potrebbero non essere più assicurabili, almeno non senza un premio più elevato. Allo stesso tempo, potrebbe accadere che alcuni rischi attualmente non coperti siano meglio compresi e diventino assicurabili a prezzi accessibili. Un numero maggiore di rischi rispetto al passato potrebbe essere ammesso alla copertura a condizioni ragionevoli, sulla base di valutazioni personalizzate.

Indicazioni più precise potrebbero essere fornite dall’UE. L’Unione Europea è intervenuta con una proposta di direttiva (la Direttiva IA), con l’obiettivo di armonizzare il regime di responsabilità extracontrattuale in caso di danni causati dai sistemi di IA, e con il già citato AI Act, che i danni mira principalmente a prevenirli. In particolare, l’articolo 5 della Direttiva IA stabilisce che in una seconda fase di applicazione della stessa l’UE prenderà in considerazione la possibilità di imporre una copertura assicurativa obbligatoria. Tuttavia, la norma non chiarisce chi sarebbe soggetto a tale obbligo: le imprese che utilizzano l’IA? Le imprese che producono sistemi di IA? Le imprese che distribuiscono sistemi di IA? Tutte?

Di fronte a questa incertezza, una cosa è però certa: che le coperture assicurative costituiranno uno degli strumenti fondamentali – assieme ad altri che in parte abbiamo citato in questo articolo – per creare le condizioni di un utilizzo più sicuro e controllato dell’IA in tutti i settori economici.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

L
Giacomo Lusardi, Senior Lawyer
T
Karin Tayel, Legal Director

Articolo 1 di 4