De Financial Stability Board (FSB) heeft een rapport gepubliceerd, waarin beschreven wordt wat de gevolgen zullen zijn van de steeds bredere inzet van kunstmatige intelligentie (AI) en zelflerende systemen in de financiële dienstverlening.
Financiële instellingen gebruiken steeds meer AI en machine learning in allerlei toepassingen, zoals bij het beoordelen van de kredietwaardigheid, het beprijzen en marketen van verzekeringscontracten en het automatiseren van interacties met de klant. AI optimaliseert de allocatie van schaars kapitaal en analyseert de marktimpact van het handelen in grote posities. Hedge funds en broker-dealers zetten AI-technologie in om niet voor de hand liggende kansen op hogere rendementen te pinpointen en om de bijbehorende (flits)transacties te faciliteren en optimaliseren. Zowel publieke als private instellingen gebruiken de technologieën voor toezicht, compliance management, beoordelen van de kwaliteit van gegevens en de opsporing van fraude.
Uit de analyse destilleert de FSB zowel kansen als risico’s voor de aan haar toevertrouwde stabiliteit. die zorgvuldige monitoring behoeven:
- Efficiëntere gegevensverwerking, bijvoorbeeld bij kredietbeslissingen, financieel beleid, verzekeringen en crm, kan bijdragen aan een efficiënter financieel systeem. AI en zelflerende systemen kunnen toezichthouders en wet- en regelgeving helpen bij het verbeteren van (de naleving van) wet- en regelgeving en het vergroten van de effectiviteit van toezicht.
- De nieuwe technologie kan nieuwe en onverwachte verbanden en verbintenissen creëren, bijvoorbeeld door het delen en gebruiken door verschillende instanties van niet eerder gekoppelde gegevens(bronnen).
- Netwerkeffecten en de schaalbaarheid van de nieuwe technologieën kunnen (on)gewenste wederzijdse afhankelijkheden veroorzaken. Een risico daarbij is dat men (‘het systeem’) afhankelijk wordt van spelers die buiten het zicht of de reikwijdte van het normale toezicht vallen.
- Gebrekkig inzicht in de werking en achterliggende algoritmes van AI en zelflerende systemen, en daaruit volgende gebrekkige auditability, kan een risico op macroniveau worden. Brede inzet van ondoorzichtige beslismodellen kan onbedoelde gevolgen hebben.
Zoals bij elk nieuw product of elke nieuwe service, is het verstandig om de mogelijkheden, risico’s en beperkingen van AI en zelflerende systemen zorgvuldig te wegen, inclusief de toetsing op relevante regelgeving inzake juridische haalbaarheid, privacy en cybersecurity. Er moet bovendien zekerheid bestaan dat dergelijke systemen getest en ‘getraind’ worden op basis van neutrale, onbevooroordeelde data- en feedbackmechanismen, wil men enige zekerheid hebben dat zij doen waarvoor ze zijn bedoeld.