Controverse rond ‘AI-therapeut’
Een manager van het kunstmatige-intelligentiebedrijf OpenAI veroorzaakte onlangs opschudding door te schrijven dat ze zojuist “een behoorlijk emotioneel, persoonlijk gesprek” had gehad met de virale chatbot ChatGPT van haar bedrijf.
“Nog nooit therapie geprobeerd, maar dit is het waarschijnlijk?” Lilian Weng plaatste een bericht op X, voorheen Twitter, wat aanleiding gaf tot een stortvloed aan negatief commentaar waarin ze haar ervan beschuldigde psychische aandoeningen te bagatelliseren.
Wengs kijk op haar interactie met ChatGPT kan echter worden verklaard door een versie van het placebo-effect die deze week werd geschetst door onderzoek in het tijdschrift Nature Machine Intelligence.
Een team van het Massachusetts Institute of Technology (MIT) en de Arizona State University vroeg meer dan 300 deelnemers om interactie te hebben met AI-programma’s op het gebied van de geestelijke gezondheidszorg en legde hen uit wat ze konden verwachten.
Sommigen kregen te horen dat de chatbot empathisch was, anderen dat hij manipulatief was en een derde groep dat hij neutraal was.
Degenen die te horen kregen dat ze met een zorgzame chatbot praatten, waren veel waarschijnlijker dan de andere groepen om hun chatbottherapeuten als betrouwbaar te beschouwen.
“Uit dit onderzoek zien we dat de AI tot op zekere hoogte de AI van de toeschouwer is”, zegt co-auteur Pat Pataranutaporn.
Buzzy startups maken al jaren gebruik van AI-apps die therapie, gezelschap en andere geestelijke gezondheidszorg bieden – en het is big business.
Maar het veld blijft een bliksemafleider voor controverses.
Net als elke andere sector die AI dreigt te ontwrichten, zijn critici bezorgd dat bots uiteindelijk menselijke werknemers zullen vervangen in plaats van aanvullen.
En op het gebied van de geestelijke gezondheid bestaat de zorg dat het onwaarschijnlijk is dat bots uitstekend werk zullen leveren.
“Therapie is voor mentaal welzijn en het is hard werken”, schreef Cher Scarlett, een activist en programmeur, in reactie op Wengs eerste bericht op X.
“Voor jezelf vibreren is prima en zo, maar het is niet hetzelfde.”
Als aanvulling op de algemene angst voor AI hebben sommige apps in de geestelijke gezondheidszorg een bewogen recente geschiedenis.
Gebruikers van Replika, een populaire AI-metgezel die soms op de markt wordt gebracht als voordelen voor de geestelijke gezondheid, klagen al lang dat de bot seksgeobsedeerd en beledigend kan zijn.
Daarnaast voerde een Amerikaanse non-profitorganisatie, Koko genaamd, in februari een experiment uit met 4.000 cliënten die counseling aanboden met behulp van GPT-3, waarbij ze ontdekten dat geautomatiseerde antwoorden eenvoudigweg niet werkten als therapie.
“Gesimuleerde empathie voelt vreemd en leeg aan”, schreef mede-oprichter van het bedrijf, Rob Morris, op X.
Zijn bevindingen waren vergelijkbaar met die van de MIT/Arizona-onderzoekers, die zeiden dat sommige deelnemers de chatbot-ervaring vergeleken met ‘praten tegen een bakstenen muur’.