Patrick Wessels: ‘De AI-chatbot als psycholoog? Dan voert u een gevaarlijk gesprek’
Publicatiedatum: 19 februari 2025
Een nieuwe generatie AI-chatbots belooft een luisterend oor en zelfs ondersteuning bij emotionele problemen. Bovendien zijn ze 24 uur per dag en 7 dagen per week beschikbaar, vaak gratis of zonder hoge kosten. Bovendien hebben ze geen wachttijd. Maar, waarom is het eigenlijk zo gevaarlijk om met ze in gesprek te gaan?
Waarschuwing voor gesprekken met chatbots
De Autoriteit Persoonsgegevens(AP) waarschuwde onlangs voor deze gesprekken met chatbots. De technologie herkent belangrijke nuances niet, omdat ze niet zo sterk zijn in het Nederlands. “De AI-chatbots geven ongenuanceerde, ongepaste en soms zelfs schadelijke reacties op gebruikers die mentale problemen ter sprake brengen”, zegt de autoriteit. Bovendien is het voor gebruikers niet altijd duidelijk dat ze ‘praten’ met AI, in plaats van met een menselijke psycholoog.
Het ELIZA-effect
Toch is dat verre van het grootste probleem, voor iedereen die hulp zoekt bij emotionele problemen of andere uitdagingen. Veel risicovoller is bijvoorbeeld het ELIZA-effect, vernoemd naar Eliza Doolittle uit de musical My Fair Lady, die een gesprek moest leren voeren.
Het ELIZA-effect beschrijft een vorm van antropomorfisme, waarbij we menselijke eigenschappen toekennen aan niet-menselijke wezens of voorwerpen. Of, in dit geval, aan technologie die naar ons lijkt te luisteren en terug lijkt te praten.
Technologie heeft geen emoties
Dat toekennen van menselijke eigenschappen is risicovol, omdat het een vals gevoel van begrip en empathie creëert, van de kant van de chatbot. In werkelijkheid heeft de technologie geen emoties en zeker geen bewustzijn. Sterker nog, een AI-chatbot heeft geen idee van wat de gegenereerde tekst inhoudelijk betekent. Laat staan dat de bot op emotioneel niveau een idee heeft van de betekenis van het gesprek.
Zowel in de Verenigde Staten als dichterbij in België vonden al gruwelijke incidenten plaats, na intensief contact tussen mensen en AI-chatbots. Een Belgische man pleegde zelfmoord, nadat de bot zijn suïcidale gedachten versterkte. In de Verenigde Staten bouwde een tiener een romantische band op met een bot, wat bijdroeg aan de beslissing om een einde aan het leven te maken.
De waarde van menselijk contact is niet te onderschatten
Daarom mogen we de waarde van werkelijk menselijk contact niet onderschatten. Dat geldt in de breedte, maar specifiek voor therapie door een psycholoog. Een goed gesprek draait om menselijke verbinding, om empathie en om het opbouwen van onderling vertrouwen. Een getrainde therapeut zal nuances oppikken, kan lichaamstaal interpreteren en inspelen op onverwachte wendingen in een gesprek. En zelfs als AI-chatbots die vaardigheden zouden bezitten, zou er nog geen toezicht zijn op hoe de technologie daar tijdens een gesprek vervolgens mee omgaat.
Bovendien, wie kwetsbaar is loopt meer risico. Dat geldt bij emotionele problemen en bijvoorbeeld voor iedereen wie (nog) minder handig is met de technologische ontwikkelingen die elkaar razendsnel opvolgen. Niet voor niets waarschuwt de Autoriteit Persoonsgegevens voor het gebruik.
Benut AI-chatbots waarvoor ze zijn
Laten we AI dus benutten zoveel als het kan, maar laten we ook waken voor de mogelijke schadelijke effecten bij verkeerd gebruik. Vraag de chatbots liever om artikelen en andere informatie samen te vatten, om ideeën te genereren tijdens een brainstorm of bijvoorbeeld suggesties te doen voor een weekendje weg tijdens de volgende vakantieperiode. Onze mentale gezondheid is te waardevol om over te laten aan ondoorzichtige technologie.
Consumentenpsycholoog Patrick Wessels combineert nieuwsberichten, wetenschappelijke artikelen en praktische tips, om dieper op de consumentenpsychologie in te gaan. Lees hier al zijn columns.
(Foto: Shutterstock)