Column: Twitter en je andere favoriete platformen zijn (onbedoeld) racistisch

Erwin Vogelaar
26 september 2020, 10:12
3 min leestijd
Column: Twitter en je andere favoriete platformen zijn (onbedoeld) racistisch

Twitter, Zoom en waarschijnlijk bijna al je andere favoriete platformen zijn racistisch en mogelijk ook seksistisch. En het is niet eens met opzet.

Twitter racistisch?

Inmiddels zijn we allemaal gewend aan videobellen met Zoom of één van de andere diensten. We spelen met digitale achtergronden om de zoveelste energievretende meeting nog een beetje dragelijk te maken. Niemand kijkt meer op als jij updates over je doelstellingen deelt vanaf een tropisch eiland of vanuit The Millennium Falcon. Maar niet voor iedereen is die ervaring hetzelfde.

PhD-student Colin Madland merkte dat het hoofd van één van zijn collega’s telkens verdween bij het gebruik van een virtuele achtergrond. Het bleek dat de gezichtsherkenning van Zoom de voorkeur gaf voor een globe op de achtergrond, dan het hoofd van de zwarte man die er voor stond. Toen hij foto’s daarvan op Twitter plaatste werd een ander groot probleem duidelijk.

Twitter snijdt afbeeldingen die worden gedeeld via het sociale netwerk automatisch bij. Daar is een heel algoritme voor gemaakt, dat het beste gedeelte van de afbeelding selecteert om die uit te lichten. Wat blijkt: op elke foto die Madland deelde met hemzelf en zijn collega erin, werd enkel het hoofd van Madland in beeld gezet. Madland is wit. 

Excuses

Als je op Twitter zit heb je het gevolg waarschijnlijk wel meegekregen. Mensen gingen het algoritme testen, met afbeeldingen waar een wit en zwart persoon op staat. Twitter koos er consequent voor om de witte persoon in beeld te laten. Zelfs in allerlei verschillende volgordes, hoeveelheden en groottes koos het algoritme van Twitter bijna altijd consequent voor de witte persoon. 

Twitter heeft zijn excuses aangeboden. Het bedrijf stelt testen te hebben gedaan om te zien of er eventueel vooroordelen te zien waren rond gender en ras, maar dat was niet het geval. Het bedrijf gaat nu weer kijken en actie ondernemen. 

Twitter is niet het eerste bedrijf dat hier tegenaan loopt en zal ook ongetwijfeld niet de laatste zijn. Het gebeurt niet eens opzettelijk. Het is niet zo dat de mensen bij Twitter specifiek in het algoritme hebben geschreven dat zwarte mensen uit foto’s geknipt moeten worden. In het geval van Twitter lijkt het te gaan om een voorkeur voor het meeste licht en contrast in een foto. Maar die voorkeur zorgt vanzelf voor dit probleem, wat ontdekt had kunnen worden door genoeg te testen.

Algoritme van je hart

Steeds meer wordt via algoritmes geregeld voor het maken van kleine en grote beslissingen. Deze algoritmes worden gecreëerd door specifieke mensen en gevoed met specifieke data. Ze zijn voornamelijk bedoeld om ons meer te laten klikken, liken en kopen. Als de mensen die het algoritme maken homogeen zijn, of als de data die het algoritme wordt gevoed niet divers genoeg is, ontstaan vanzelf scheve verhoudingen. Als het gaat om mensen worden algoritmes daarom al snel racistisch of seksistisch.

Dat kun je overdreven vinden, maar algoritmes bepalen steeds meer in ons leven. Ze bepalen tegenwoordig niet alleen meer naar welke muziek we luisteren, wie we daten, welke reclames je ziet of welke producten je webshop jouw aanraadt. Algoritmes zijn ook terug te vinden in ziekenhuizen, de politie en scholen. Algoritmes bepalen waar een zelfrijdende auto voor stopt. 

Bedrijven moeten beter zijn dan dit. Dat betekent onder andere dat een meer diverse groep werknemers nodig is en er veel meer getest moet worden. Als gebruikers kunnen we niet zoveel doen, maar meer bewustzijn over de algoritmes die ons leven beheersen lijkt een must.

Meer columns

Elke zaterdag lees je op Android Planet een nieuwe column. Check ook onze vorige edities.

Heeft dit artikel je geholpen?
Reageer

Lezersreacties

Deel je kennis of stel een vraag. Dat kan anoniem of met een Disqus account.

Het laatste nieuws, tips en meer Android in je inbox

Menu