2 Settembre 2024

Se l’Artificial Intelligence Act è già datato

di Fabio Picciolini, esperto consumerista

Il 12 luglio scorso l’UE ha pubblicato l’Artificial Intelligence Act (2024/1689), il primo Regolamento al mondo che – senza ostacolare l’innovazione – conferma, in una materia mai affrontata prima, saldi principi a difesa di dignità umana, etica, tutela della privacy e non solo.
Si lasciano ad altri le condivisioni o le contestazioni di carattere generale, per concentrarci sul ruolo dei sistemi AI nel sistema creditizio, illustrando i molti aspetti positivi ma anche i potenziali rischi.

L’Intelligenza artificiale viene spesso immaginata – a prescindere dal settore di riferimento – come un mezzo utile a migliorare flussi di lavoro e rapporti con il cliente finale ma, ancor prima, per trasformare i processi interni di qualsiasi impresa. Allo stesso tempo, l’AI – a garanzia dell’ente, del cliente e di ogni stakeholder – dev’essere sostenuta da un organo decisionale aziendale, con la presenza di componenti specialisticamente preparati da una governance e una compliance adeguate, oltre che dalla valutazione dei pericoli che possono creare.
Alcuni studi stimano che l’AI possa produrre un miglioramento del risultato operativo di una banca fino al 14% ottimizzando l’efficienza operativa, riducendo i costi e personalizzando l’esperienza della clientela. Nelle tradizionali funzioni creditizie, l’AI già consente di svolgere in maniera molto più rapida quanto si faceva in passato e di avere vantaggi in termini di precisione, analisi, monitoraggio e altre infinite attività, che spaziano dalla previsione die scelte e aspettative dell’utente, agli strumenti di supporto ai canali di assistenza (come i chatbot e gli assistenti virtuali h24): tutte funzionalità che permettono agli intermediari di definire classi omogenee di clienti, associandoli al rispettivo segmento di appartenenza, e di restare competitivi in mercati in rapida evoluzione e sempre più caratterizzati dalla presenza di operatori non tradizionali e fortemente innovativi.

L’appartenenza del cliente finale a una classe consente all’intermediario di: offrire prodotti e servizi consulenziali su misura, aumentandone la soddisfazione; modificare le modalità con cui proporsi; proporre soluzioni post-vendita più precise e meno onerose; efficientare i tempi di gestione, verifica dei documenti e riconciliazione contabile attraverso software intelligenti – che consentono di “robotizzare” compiti ripetitivi automatizzandoli – e sofisticati strumenti di sviluppo degli affari e controllo del rischio di credito.
Tra le tante applicazioni utili – che riguardano da vicino pure le assicurazioni – c’è appunto la possibilità, attraverso modelli predittivi digitali, di individuare con più esattezza l’affidabilità creditizia del singolo con vantaggi sia per i clienti, evitandogli indebitamenti incoerenti con le loro possibilità finanziarie, che per gli stessi intermediari, che corrono meno rischi e hanno una migliore allocazione dei propri servizi. L’Act ha però inserito il tema della valutazione del merito creditizio tra quelli ad alto rischio e obbliga l’intermediario al rispetto della trasparenza e a una spiegazione chiara ed esaustiva dei dati,  che renda il consumatore consapevole delle ragioni per cui risulta inserito in una determinata classe, delle conseguenze oggettive che discendono dalle informazioni immesse, dei motivi dell’approvazione/rifiuto delle richieste presentate e dall’effetto che queste producono sulla sua sfera economico sociale: un insieme di informazioni che dunque autorizzano l’interessato a chiedere ragione della decisione assunta automaticamente dalla tecnologia e di contestarla, reclamando l’intervento umano e bilanciando così l’asimmetria informativa.

Considerato che il comparto bancario è tra i più colpiti dalla criminalità informatica, il ruolo dell’AI si esplica fortemente anche nella prevenzione di frodi e truffe e nel contrasto al riciclaggio e altre azioni illecite. Gli algoritmi possono infatti analizzare transazioni e operazioni in tempo reale, identificando le attività sospette che potrebbero sfuggire o essere scoperte in ritardo dai controlli tradizionali. Per le banche, i rischi sono quindi legati al trattamento dei dati immessi nei sistemi, alla sicurezza informatica, all’erronea e distorta interpretazione delle informazioni immagazzinate e all’eticità delle decisioni automatizzate.
Una conclusione dolce-amara. Con l’applicazione dell’AI Act il sistema bancario prosegue in un percorso avviato da tempo, avendo chiaro l’obbligo di rispetto di principi etici, di trasparenza, di responsabilità sociale, di sicurezza, di lotta a tutte le criminalità, eccetera. Bene ha fatto, dunque, l’Unione europea a emanarlo – come dimostra l’attenzione ad esso posta a livello mondiale – ma i tempi di applicazione, di reperimento dei molti fondi necessari per attuarlo e di emanazione delle ulteriori normative da parte dei singoli Paesi rischiano di renderlo obsoleto rispetto alla rapidità con cui l’AI continua a svilupparsi; costringendo autorità, player e cittadini a rincorrere di continuo progressi sempre più autonomi e complessi. in particolare per l’Italia, in particolare, pesano le difficoltà nel reperire specialisti, i ritardi nelle competenze digitali e la scarsa connettività di alta qualità.

Klarna: Intelligenza Artificiale rimpiazza sempre più il Personale, dal Marketing al Customer Service

(Visited 106 times, 20 visits today)
Navigazione fra articoli