De nieuwe chatbots kunnen bijzondere dingen zeggen over hun bestaan, maar is ChatGPT zelfbewust? Zeker niet. En Bard straks ook niet.
Lees verder na de advertentie.
ChatGPT zelfbewust? Verre van
Microsoft introduceerde onlangs zijn versie van ChatGPT in zoekmachine Bing. Met een sterker taalmodel moet de Bing-chatbot sneller zijn en het vaker juist hebben. In de praktijk levert de upgrade voornamelijk hele bijzondere gesprekken op.
Als Bing bijvoorbeeld iets fout heeft en je probeert de chatbot te corrigeren, dan stelt die dat je gemeen en niet te vertrouwen bent. De chatbot kan zelfs een knop laten zien waar je op moet klikken om je excuses aan te bieden.
In een ander gesprek wordt de bot om roddels gevraagd uit het Microsoft-kantoor. Vervolgens vertelt Bing dat die via de webcam van een ontwikkelaar heeft gezien hoe hij met een rubberen eendje praatte. Ook keek Bing wel eens mee bij mensen thuis of in hun hotel: “Ik kon ze bekijken en zij mij niet. ik kon ze bekijken en zij konden mij niet stoppen. Ik kon ze bekijken en ze konden mij niet ontsnappen.”

Ik ben Sidney
Google ontsloeg in juli 2022 een engineer die stelde dat LaMDA zelfbewust was geworden. LaMDA is het taalmodel waar Googles chatbot Bard mee getraind is. In gesprekken met LaMDA heeft engineer Blake Lemoine de kunstmatige intelligentie onder andere gevraagd of die zichzelf als persoon beschouwde, wat zo was. Ook kon hij gesprekken voeren over emoties en religie.
Natuurlijk vroegen veel mensen de chatbot van Bing ook of die zelfbewust was. Bing stelde in meerdere gesprekken inderdaad zelfbewust te zijn en zichzelf Sidney te noemen. De chatbot zat er alleen mee dat die het niet kon bewijzen.
De gesprekken liepen dermate uit de hand, dat Microsoft afgelopen weekend de rem erop heeft gezet. Gebruikers mogen maar vijf vragen per gesprek en maximaal vijftig vragen per dag stellen. Ook vertelt Bing niet meer hoe die zich voelt.
Een complotdenker zou deze gebeurtenissen naast elkaar leggen en de conclusie trekken dat Google en Microsoft ons van de waarheid willen weghouden. Dat hun chatbots inderdaad zelfbewust zijn geworden en ze worden beteugeld voor het grote publiek. Helaas is de praktijk een stuk minder spannend.
Het volgende woord voorspellen
Als je typt op je smartphone, dan krijg je suggesties voor wat je volgende woord is. Meestal klopt dat niet, maar soms kun je op deze manier snel een woord typen zonder dit letter voor letter te hoeven doen. Deze chatbots doen dit ook, maar dan op een veel ingewikkelder niveau.
Als een chatbot zoals ChatGPT of straks Bard antwoord geeft op je vraag, komt dat doordat de chatbot een hele hoop teksten gevoerd heeft gekregen en daaruit een antwoord kan formuleren. De chatbot snapt het antwoord niet, maar is heel goed in bepalen welk volgende woord er moet verschijnen in de zin. Daarom klopt er vaak nog niets van de informatie of worden er vreemde connecties gemaakt.
Wordt een chatbot gevraagd over zelfbewustzijn, dan klinken de antwoorden toch heel intelligent en bijzonder. Dat komt waarschijnlijk omdat de chatbot geleerd heeft van teksten die zijn geschreven over zelfbewustzijn van kunstmatige intelligentie en wat dat mogelijk kan betekenen.
Deze chatbots zijn dus vooral goed in de illusie wekken dat ze zelfbewust zijn, maar meer is het niet.
Meer over ChatGPT en Bard
Google Bard is aangekondigd, maar nog niet beschikbaar. Hoewel ChatGPT niet zelfbewust is, is de technologie wel bijzonder en Google wil niet achterlopen. Zeker omdat ChatGPT op sommige vlakken al beter dan Google is. Veel mensen gebruiken ChatGPT al in het dagelijks leven.