Inge Strijker is docent opleiding HBO-ICT, onderzoeker lectoraat Digital Business & Society bij Hogeschool Windesheim
In mijn vorige artikel heb ik beschreven hoe je ongewenste bias in algoritmes kunt tegengegaan door te acteren op de niveaus: proces, technologie en mens. Vanuit dit model is het idee ontstaan om samen met studenten bij het lectoraat Digital Business & Society (Hogeschool Windesheim) te onderzoeken in hoeverre we echt stappen kunnen zetten om te komen tot minder bias in informatiesystemen. We hebben hierbij, door onze samenwerking met I-Partnerschap, een partner gevonden in Dienst Toeslagen. Met hen zijn we een onderzoek gestart naar het tegengaan van ongewenste bias.
Het gebruik van algoritmes voor de dienstverlening van de overheid ligt al een tijd onder een vergrootglas. Mede daarom doet Dienst Toeslagen veel kwaliteitscontroles in het voortbrengingsproces om te komen tot informatieproducten. Het voortbrengingsproces zet ruwe data via een algoritme om tot bruikbare informatieproducten. Het proces bestaat uit: intake, ontwikkeling van het algoritme, het testen en het in gebruik nemen van de informatieproducten. De kwaliteitscontroles behelzen een groot aantal afvinklijsten, richtsnoeren en andere verantwoordingsproducten.
Dit is het eerste deel van een artikel uit Od 35: Buitenland. Verder lezen? Meld je dan hier aan voor een abonnement of vraag een gratis presentexemplaar op.
Beeld: Pexels