L'AI Act frenerà l'innovazione nelle banche europee?

L'Intelligenza Artificiale ha il potenziale di trasformare il settore bancario, ad esempio rivoluzionando la valutazione del credito. Ma questa onda di innovazione potrebbe rallentare significativamente? Con l'AI Act, l'Unione Europea diventa la prima regione al mondo a regolamentare il campo emergente dell'AI. Questa regolamentazione ha senza dubbio uno scopo nobile: proteggere i cittadini europei dai rischi legati a un utilizzo scorretto dell'AI, come la mancanza di trasparenza, il bias algoritmico e altro ancora. Tuttavia, arrivando così presto nel ciclo di sviluppo dell'AI, ci siamo chiesti se questa regolamentazione rallenterà l'adozione delle tecnologie emergenti in Europa e, in particolare, nel settore bancario.

| minuti di lettura

L'AI Act stabilisce un quadro normativo per l'uso dell'intelligenza artificiale, risultato di lunghi dibattiti. I lavori iniziali sono partiti nel 2017. Si è arrivati a una bozza di testo nell'aprile del 2021 e, infine, il regolamento è entrato in vigore il 1° agosto 2024. Questo lasso temporale è decisamente lungo nel mondo dell'AI nel quale la tecnologia evolve ad altissima velocità. L'ascesa rapida dell'AI generativa, proprio mentre il testo stava per essere finalizzato alla fine del 2022, dimostra quanto sia difficile legiferare su un campo in continua evoluzione.

Appena adottato, l'AI Act è da subito stato oggetto di divisioni: alcuni lo hanno trovato troppo generale, mentre altri lo hanno criticato per essere troppo rigoroso rispetto ad approcci più flessibili, come quelli favoriti dagli Stati Uniti.

Nella pratica, l'AI Act sembra richiedere un livello di conformità che le banche possono facilmente soddisfare. Secondo Denis Beau, Vice Governatore della Banque de France, i requisiti per i cosiddetti sistemi di AI "ad alto rischio" si allineano a pratiche ben consolidate, come la gestione del rischio, la governance dei dati e la cybersecurity. In sostanza, la regolamentazione non introduce nulla di radicalmente nuovo per il settore finanziario.

Settore bancario: 4 impatti chiave dell'AI Act da anticipare

L'impatto dell'AI Act dovrebbe essere ridotto al minimo e visto come un'aggiunta alle normative esistenti? Sarebbe una conclusione prematura. Anche se non è rivoluzionario, l'AI Act richiede un monitoraggio rigoroso e operativo delle soluzioni di AI:

1. Divieto di "usi pericolosi"

A partire da febbraio 2025, l'AI Act ha vietato le applicazioni AI ritenute pericolose dai legislatori. Per esempio, qualsiasi trattamento che possa portare a discriminazioni o svantaggiare un individuo in base alla classificazione assegnata dall'AI sarà vietato. Allo stesso modo, la regolamentazione vieta all'AI di "prevedere la probabilità che una persona commetta un reato esclusivamente in base al profiling o alla valutazione di tratti o caratteristiche della personalità."

In pratica, le banche non sono coinvolte in questi usi vietati.

2. Regolamentazione degli "usi ad alto rischio"

Tuttavia, entro agosto 2026, le banche dovranno conformarsi ai requisiti dell'AI Act per i casi d'uso "ad alto rischio".

Per il settore finanziario, questi casi d'uso riguardano nello specifico le valutazioni di solvibilità per la concessione di prestiti a persone fisiche e la determinazione dei premi nelle assicurazioni vita e salute. Che si tratti di fornitori di sistemi AI che sviluppano i modelli o di "distributori" che li utilizzano, entrambi saranno responsabili di garantire sicurezza e trasparenza: processi di gestione del rischio, documentazione tecnica, monitoraggio della qualità dei dati e supervisione continua. I sistemi di AI devono rispettare rigorosi controlli per prevenire discriminazioni o pregiudizi, essere tracciabili e rimanere sotto la supervisione umana.

Questo quadro non costituisce una discontinuità, ma si basa su normative esistenti, come le raccomandazioni del 2022 sulla concessione e il monitoraggio dei crediti, che avevano già stabilito il diritto alla riesamina delle decisioni guidate dall'AI. Tuttavia, l'AI Act va oltre, standardizzando e rafforzando queste normative a livello europeo.

3. Aumento delle sanzioni

L'aspetto delle sanzioni rafforza l'importanza di affrontare proattivamente i requisiti della regolamentazione. Le sanzioni dell'AI Act sono particolarmente severe, arrivando fino al 7% del fatturato annuo globale o a 35 milioni di euro.

L'AI Act: un quadro essenziale per le banche di domani

Sebbene l'AI Act non rappresenti una grande rivoluzione, stabilisce una base regolatoria che il settore bancario non può ignorare. Per le banche, la conformità non riguarda solo il soddisfacimento dei requisiti, ma l'anticipazione degli stessi. Ciò significa seguire attivamente le raccomandazioni del regolatore, adottando al contempo misure concrete per allinearsi a questo nuovo quadro. Le azioni chiave includono sensibilizzare tutte le parti interessate sui nuovi obblighi, definire i ruoli secondo i concetti di "fornitori" e "distributori", e identificare e classificare sistematicamente i casi d'uso dell'AI.

Sopra Steria è impegnata a supportare le banche nella trasformazione delle sfide dell'AI Act in opportunità. Oltre alla nostra esperienza in governance, audit tecnici e conformità normativa, mettiamo le persone al centro di questa transizione. Offriamo programmi di formazione personalizzati per guidare i team nell'apprendimento dei nuovi obblighi. Combinando innovazione, sicurezza ed etica, aiutiamo le banche a sviluppare un'AI responsabile, rafforzando la fiducia tra dipendenti e clienti.

 

Vuoi ricevere i nostri aggiornamenti sul mondo della tecnologia e suggerimenti su come digitalizzare il tuo business?

ISCRIVITI ALLA NOSTRA NEWSLETTER

 

 

Search