‘Attenzione a come vengono costruiti gli algoritmi’ (Il Sole 24 Ore Radiocor Plus) – Roma, 05 mag – Il merito di credito di un individuo elaborato attraverso algoritmi di intelligenza artificiale puo’ discriminare e creare “problemi con implicazioni etiche e valoriali molto rilevanti”. Cosi’ Alessandra Perrazzelli, Vice Direttrice generale della Banca d’Italia, nel corso di un webinar nel quale ha illustrato i primi passi di ‘Milano Hub’ l’hub di innovazione digitale della Banca d’Italia. Il problema, racconta Perrazzelli, e’ emerso dalle analisi realizzate negli Stati Uniti dalle Autorita’ di vigilanza. “L’algoritmo che determinava il merito credito discriminava i cittadini per cluster di origine o di gender o anche per esempio per un codice di avviamento postale non considerato premiante dallo stesso algoritmo perche’ riferito a una periferia”. L’esponente della Banca d’Italia aggiunge che “i modelli di valutazione basati su machine learning rischiano di reiterare, sulla base di un’oggettivita’ presunta, i problemi analoghi a quelli propri delle valutazioni fatte da persone, senza peraltro garanzia sulla coerenza con la sana e prudente gestione del credito e l’obiettivo di prevenzione del sovraindebitamento”.
Da qui per le Autorita’ come la Banca d’Italia la necessita’, osserva Perrazzelli, di rafforzare la capacita’ di analisi sull’innovazione nei settore bancario e finanziario.