Een van de grote problemen achter chatbots zoals ChatGPT en Gemini is dat de technologie vol zit met vooroordelen. Dat wordt mogelijk steeds erger.
Lees verder na de advertentie.
ChatGPT voordelen: geen neutrale technologie
Hoewel ChatGPT, Gemini en andere chatbots het leven een stukje makkelijker kunnen maken, heeft deze technologie ook een hoop nadelen. Zo kan de chatbot informatie verzinnen (hallucineren), is je privacy niet altijd gewaarborgd, wordt er gebruikgemaakt van auteursrechtelijk materiaal en heeft de technologie een enorme invloed op het milieu door de vraag naar stroom en koelwater. Maar iets waar nog niet zo vaak over wordt gepraat, is dat deze chatbots vol zitten met vooroordelen.
Niet hetzelfde als Google
Er is een groot verschil met zoeken in een zoekmachine, of zoeken in ChatGPT of Gemini. Zoek je via Google, dan word je naar websites gestuurd waar de informatie die je zoekt op te vinden is. Zoek via een chatbot, dan krijg je de informatie in de vorm van een antwoord. Alleen weet je vaak niet waar die informatie op is gebaseerd.
Elke chatbot heeft een eigen dataset: een hele hoop teksten en afbeeldingen gemaakt door mensen, waar die mee getraind is. Deze chatbots zijn vervolgens gebaseerd op statistiek. Ze voorspellen bij een tekst wat het volgende woord in een zin is en daarvoor wordt gekeken hoe vaak iets in de dataset voorkomt. Het is dus heel belangrijk welke bronnen er in de dataset zijn opgenomen voor het resultaat.
De makers van deze chatbots zijn niet transparant over hun datasets, waardoor vooroordelen pas duidelijk worden als je ze tegenkomt. Dat kan bijvoorbeeld gaan over het voortrekken van mannen in plaats van vrouwen, of stereotypen als het gaat om ras en nationaliteit.

Gemini en de diverse gezichten
Gemini was onlangs in het nieuws, omdat het fout ging bij het genereren van plaatjes van mensen. Google dacht namelijk een manier te hebben gevonden om een bekend vooroordeel tegen te werken, door Gemini verplicht divers te maken. Elke keer als je afbeeldingen van mensen genereerde, kreeg je diverse resultaten met diverse huidskleuren en genders te zien.
Daar lijkt niets mis mee, omdat deze technologie natuurlijk wereldwijd wordt gebruikt en het dan raar is om een specifieke groep mensen voor te trekken. Zeker in vroege versies van deze technologie kreeg je standaard witte mannen te zien als je bijvoorbeeld om plaatjes van een ceo of dokter vroeg, tot je er specifiek om vroeg in je prompt.
Maar Googles poging om dit vooroordeel tegen te gaan, sloeg de plank volledig mis. Vroeg je Gemini om beelden van een Duitse soldaat in 1943, dan kreeg je ook plaatjes van bijvoorbeeld een zwarte man of Aziatische vrouw in nazi-uniform. Laat je afbeeldingen van de paus maken, dan kreeg je wellicht een Inheems Amerikaanse vrouw als paus te zien.
Het wordt erger?
Menig grote nieuwswebsite blokkeert inmiddels AI-bedrijven om via bots hun artikelen te gebruiken voor de datasets. Dat komt doordat deze websites investeren in het bedrijven van journalistiek en daar niets van terug zien als een chatbot hun artikelen kan oplepelen.Â
Wired heeft uitgezocht dat in de Verenigde Staten negentig procent van de grote nieuwswebsites AI-bots al blokkeert, maar dat rechtse media deze bots wel toestaan. Dat zorgt er mogelijk voor dat de trainingsdata steeds meer op de taal gebaseerd wordt die bij rechtse media wordt gebruikt.
De bedrijven achter deze chatbots willen natuurlijk dat hun product zo neutraal mogelijk is, om zo op die manier zo veel mogelijk mensen te bedienen. Een belangrijke vraag is of neutraliteit met deze technologie wel mogelijk is.

Wat moet ik hiermee?
Een vooroordeel waar we allemaal mee te maken krijgen, is dat deze technologie getraind is met meer Engelse teksten dan Nederlandse teksten, en de chatbots dus beter zijn in Engels dan Nederlands. Dat kan iedereen zien. Veel andere vooroordelen zullen niet zo duidelijk zijn.
Met de Toeslagenaffaire hebben we gezien wat voor grote gevolgen vooroordelen binnen technologie kan hebben. In dat geval ging het om een algoritme dat gecorrigeerd kan worden, bij chatbots zoals ChatGPT en Gemini gaat dat niet zo makkelijk.
Bij het genereren van teksten en afbeeldingen is het dus niet alleen belangrijk om in het achterhoofd te houden dat er onwaarheden in kunnen staan omdat deze technologie hallucineert, maar ook dat er vooroordelen in kunnen zitten. Het is een belangrijke reden om extra kritisch te zijn op alles wat je genereert.
Hulp met AI
Heb je hulp nodig bij het gebruik van Gemini of andere chatbots? Dan helpen we je op weg met tips over het schrijven van prompts en tips voor het genereren van afbeeldingen.
Wil je op de hoogte blijven? Houd Android Planet dan goed in de gaten. We praten je via onze app en nieuwsbrief bij over de laatste ontwikkelingen. Volg ons ook op WhatsApp, Google Nieuws, Facebook, Instagram en X (voorheen Twitter).