Het Turks kent geen verschillen tussen hij en zij, alles is ‘o’. Als Google Translate een Turkse zin vertaalt, moet het dus uit de context opmaken of het gezegde over een vrouw of een man gaat. U raadt het al: Google  vertaalt “O cesur” steevast met ‘hij is dapper’ en “O iyidir” met “zij is lief”.

Kunstmatige intelligentie, gemaakt door mensen, is met andere woorden niets menselijks vreemd. Op zijn best kun je constateren, dat zelflerende machines net als mensen ‘leren’: als ze van de 100 keer dat er over ‘dapper’ gesproken wordt een man beschreven wordt, vat in de chips of de cloud het idee post, dat vooral mannen dapper zijn. Als het gaat om leren van situaties met in gebreke blijvende debiteuren kan dat tot akelige vormen van ‘bias’ leiden…

Steeds vaker zullen organisaties zich bij besluitvorming laten ondersteunen door dergelijke systemen, en idealiter zouden die geen vooroordelen mogen hebben, laat staan versterken, als hun gevraagd wordt grote hoeveelheden beschikbare data te analyseren. Tegelijk wordt wel van die systemen verwacht, dat zij ‘patronen’ herkennen, en daar bruikbare informatie van fabrieken. Dat noemt men ‘predictive modelling’: uit aangeboden trainingsgegevens destilleert de machine waarschijnlijke scenario’s voor de toekomst. Alleen al vanwege de snelheid waarmee tot conclusies gekomen moet worden, kunnen we hoe dan ook vaststellen, dat ‘algorithmic bias’ een groot risico creëert. Zeker als dergelijke vooroordelen verborgen blijven, kunnen ze tot kostbare vergissingen leiden, en hele organisaties op het verkeerde been zetten.

Neem bijvoorbeeld kredietwaardigheidsbeoordelingen voor hypotheken. Het systeem zal cliënten die trouw al 15 jaar rente en aflossing betaald hebben als ‘low risk’ bestempelen. Maar nu komt er een nieuwe regering die de bijbehorende belastingvoordelen afschaft. Dáár had de zelflerende kredietbeoordelaar geen rekening mee gehouden…

Het is logisch dat een systeem dat gedrag voorspelt en zich daarbij baseert op historische gegevens alleen maar oude vooroordelen zal bevestigen. Dat kan funest zijn voor strategische besluiten – de kunstmatige intelligentie houdt geen rekening met plotselinge veranderingen, denk aan disruptieve nieuwe technieken dan wel politieke bewegingen!  Maar denk ook aan de toenemende  maatschappelijke bubbelvorming door social media en de algoritmes die alleen niet-kwetsende  (en vooroordeel bevestigende) nieuwtjes en informatie doorlaten.

Daarnaast moeten we nog steeds vaststellen, dat de kwaliteit van de beschikbare data heel vaak niet al te best is. Hoe iemands kredietwaardigheid te beoordelen, als deze onder 17 verschillende namen en 5 adressen gevonden wordt?

Ook AI kan niet zonder een menselijke moderator, moeten we concluderen.

Véél meer over de gevaren van en oplossingen voor ‘algorithmic bias’ leest u via

https://www.mckinsey.com/business-functions/risk/our-insights/controlling-machine-learning-algorithms-and-their-biases?