Angst voor algoritmes biedt juist kansen voor innovatie

De Autoriteit Persoonsgegevens (AP) laat een nieuwe directie Coördinatie Algoritmes toezicht houden op ‘discriminerende algoritmes’. Foto: ANP

Discriminerende algoritmes zijn volop in het nieuws. IT-leveranciers hebben uit te leggen hoe hun algoritmes werken, schrijft organisatievernieuwer Laurens Waling op EW Podium. Wanneer zij blootleggen hoe data vóór jou werken en hoe jij de regie houdt over jouw data, gaat er een wereld aan mogelijkheden open.

De Autoriteit Persoonsgegevens (AP) laat een nieuwe directie Coördinatie Algoritmes toezicht houden op ‘discriminerende algoritmes’. Dit doet de privacywaakhond naar aanleiding van onder meer de toeslagenaffaire.

Laurens Waling (1983) is spreker, trendwatcher en Chief Evangelist bij 8vance Matching Technologies, een bedrijf dat onder meer met algoritmes vacatures koppelt aan de beste kandidaten.

EW Podium publiceert opinies van (vooral jonge) schrijvers, die vanuit eigen onderzoek, expertise of werkervaring bijdragen aan het debat. Plaatsing hoeft geen redactionele instemming te betekenen.

We weten niet hoe groot het discriminatieprobleem is bij algoritmes. Ook heeft niemand onderzocht hoe dit probleem zich verhoudt tegenover (onbewust) discriminerende personen die werken zonder algoritmes. Toch is alle publiciteit welkom voor leveranciers van innovatieve algoritmes. Zij kunnen tonen hoe zij met algoritmes diversiteit en inclusie juist maximaliseren en de gebruiker aan het stuur zetten. En de nieuwe AP-directie kan de juiste algoritmes promoten.

Geef gebruiker zelf beheer over hun persoonsgegevens

Door de wildgroei aan IT-applicaties heeft elk systeem heeft zijn eigen database. Een flink probleem. Wie op zoek is naar een baan, moet zijn cv uploaden naar verschillende platforms en raakt vervolgens de regie over die data helemaal kwijt. Technologiebedrijven realiseren zich dat dit voor niemand handig is. Kosten stijgen, data verouderen en de aantrekkelijkheid van applicaties neemt af.

De trend is dan ook om eindgebruikers zelf het beheer te geven over hun ‘data pod’. Dat is een persoonlijke datakluis, waarmee gebruikers bepalen welke apps op welk moment hun data mogen lenen. MijnOverheid hanteert al een dergelijke opzet. Daar bepalen burgers welke instanties toegang krijgen tot hun data. En diverse neutrale initiatieven als het Solid-project van internetgrondlegger Berners-Lee helpen IT-leveranciers data los te koppelen van hun applicatie. Zo houden gebruikers altijd de controle en kunnen zij verschillende applicaties toegang geven tot dezelfde databron.

Laat zien hoe algoritmes werken

Een tweede uitdaging is dat algoritmes niet transparant werken. Gelukkig proberen overheidsorganisaties al steeds meer transparantie te bieden. Maar honderd procent transparantie is vrijwel onmogelijk. Onder water worden ontzettend veel bewerkingen op data uitgevoerd om ermee te kunnen ‘rekenen’. Bij honderdprocent transparantie zou dan een eindeloze verantwoording moeten worden aangeleverd. Het is voor gebruikers zelden relevant hoe zo’n berekening plaatsvindt, zolang de resultaten maar (verrassend) goed zijn.

Wel wil je erop kunnen vertrouwen dat ongewenste variabelen als leeftijd, geslacht, religie of naam niet worden gebruikt. De leverancier kan in de applicatie inbouwen dat zulke variabelen niet worden meegenomen en kan dit tonen aan gebruikers. Leveranciers die ‘privacy by design’  hanteren, laten gebruikers zelf bepalen of bijvoorbeeld hun locatie en opleidingsniveau worden meegenomen of juist worden uitgesloten, om zo potentiële discriminatie te voorkomen.

Toon de diversiteit achter de algoritmes en hun bouwers

Er zijn nog twee punten van belang voor IT-leveranciers als zij het vertrouwen willen winnen voor hun algoritmes. Wie bouwen de algoritmes? En op welke data zijn de algoritmes getraind?

Een terugkerend geluid: een groep ‘witte, jonge, mannelijke programmeurs’ kan zich beperkt inleven in kwesties rond diversiteit en inclusie. En dus bouwen zij algoritmes die daar beperkt rekening mee houden. Maar leveranciers kunnen tonen dat zij een divers team en een inclusieve cultuur hebben om dit te voorkomen. Daarnaast dienen leveranciers hun data ook te trainen op een zo groot en divers mogelijke dataset. Hun AI-leveranciers kunnen hen hierbij helpen.

Objectief systeem en subjectieve mens kunnen niet zonder elkaar

Systemen kunnen niet alles oplossen. Een wervingsapp kan volstrekt onbevooroordeeld de beste kandidaat voorstellen. Maar werkgevers krijgen in het sollicitatiegesprek alsnog een beeld van naam, leeftijd, geslacht en opleidingsniveau en gaan hier ook op selecteren. Bedrijven doen er verstandig aan managers en recruiters erin te trainen dat zij de objectieve berekeningen van de app de voorkeur gaan geven boven hun eigen bevooroordeeldheid.

Algoritmes kunnen fantastisch helpen om te komen tot meer kandidaten en een betere selectie. Toch dient de mens het eindoordeel in handen te houden over de vraag of iemand past in het team. Ook tech-idealisten zien dit in. Zaken als een ‘klik’ zijn nu eenmaal ongrijpbaar. Zoals de mens met zijn onbewuste vooroordelen een objectief systeem nodig heeft, zo heeft een lerend systeem de feedback van de mens nodig. Hand in hand ontstaat de magische 1+1=3.