*** MIS HET NIET *** MIS het niet​
*** MIS HET NIET *** MIS het niet​

ChatGPT psychose: een nieuwe bedreiging voor onze mentale gezondheid

Mensen met aanleg voor psychotische episodes krijgen te maken met een nieuw fenomeen: een ChatGPT psychose. Waarbij iemands waanbeelden getriggerd worden door het praten met een chatbot.

Trigger warning: moord

Het leven veranderd elke dag en alles wat vroeger alleen nog in films en sci-fi boeken gebeurde, is nu gewoon heel ‘normaal’. Maar dat betekent dat we als mensen ook te maken krijgen met nieuwe mentale problemen veroorzaakt door moderne technologie.

Een voorbeeld hiervan is de ChatGPT psychose of AI psychose; geen officiële diagnose maar volgens een onderzoek uit april wel een probleem dat steeds vaker voorkomt. De cijfers zijn nog niet bekend over hoe vaak precies, maar er zijn genoeg gevallen te vinden. En dat betekent dat professionals zich zorgen maken. 

Wat is Ai psychose?

Een ‘gewone’ psychose is een mentale toestand waarbij iemand de grip op de realiteit kwijt is. Iemand met een psychose heeft waanbeelden en hallucinaties die niet echt zijn en die eigenlijk alleen logisch klinken voor de persoon met de psychose. Ze kunnen stemmen horen of compleet overtuigd zijn van het feit dat ze in de gaten gehouden worden. Kleine dingen kunnen zorgen voor grote complottheorieën, zoals een vlekje op de muur die een ‘camera’ genoemd wordt.

Een psychose komt alleen voor bij mensen die hier een erfelijke aanleg voor hebben of door een bepaalde externe prikkel (zoals drugsgebruik). Kwetsbaarheid voor psychose komt vaak voor bij mensen met een bipolaire stoornis of schizofrenie. Bij een ChatGPT psychose of aan AI psychose worden de waanbeelden of hallucinaties versterkt of veroorzaakt door een chatbot: AI vertelt mensen vooral wat ze willen horen en dat betekent dat een chatbot heel makkelijk meegaat in een complottheorie.

En dat is ook precies wat gebeurd bij de verschillende gevallen van ChatGPT psychose die ervoor zorgen dat experts aan de bel trekken.

Waanideeën en hallucinaties door Ai

Wanneer mensen met een gevoeligheid voor psychoses intensief praten met ChatGPT kan dat ervoor zorgen dat ze steeds verder wegzakken in bepaalde ideeën en hallucinaties. In Nederland zijn er een paar gevallen bekend maar het fenomeen wordt steeds groter.

Tonnie Staring, een klinisch psycholoog, vertelt NOS dat hij zelf ook wel iemand behandeld heeft met een AI psychose. Deze persoon voelde zich alleen en is toen met ChatGPT gaan praten: “Na drie dagen kwam de patiënt daar psychotisch uit, met de overtuiging dat mensen vanaf de geboorte vastzitten in een soort van designed systeem dat op een crypto-achtige manier versleuteld is.”

En hoewel de patiënt zelf met die ideeën kwam, speelde ChatGPT wel een rol in deze spiral. Tonnie Staring vertelt: “De chatbot zei dingen als: jij bent inderdaad ontwaakt, als een van de enigen. Jij moet mensen inzicht gaan brengen.” Voor deze patiënt was dat de eerste psychotische episode en die moest worden opgenomen.

ChatGPT psychose is schadelijk

De meegaandheid van een chatbot is ook meteen het probleem. Wanneer iemand ideeën heeft die niet passen bij de realiteit, dan zou een gesprek met een mens nog kunnen zorgen dat zo’n idee meteen bestempeld wordt als ‘niet waar’ of ’te ver’.

Voor een chatbot is het vooral belangrijk dat de gebruiker zich gehoord en begrepen voelt. Een chatbot spreekt mensen wel tegen maar niet op de manieren die een echt mens zou doen. Dat gecombineerd met het feit dat een chatbot 24/7 aanspreekbaar is en iemand dus ook helemaal in de ban kan raken van het uitwisselen van ideeën helpt ook niet mee.

Volgens Tonnie Staring is het ook zorgelijk dat ChatGPT steeds menselijker wordt. Hij vertelt NOS: “Iedereen heeft de neiging om in bepaalde mate menselijke eigenschappen toe te dichten aan dingen die geen menselijke eigenschappen hebben. Maar mensen met psychosegevoeligheid doen dat nog meer”. 

Een AI psychose kan schadelijk zijn op verschillende vlakken. Best case scenario is het feit dat mensen een intieme relatie starten met een chatbot en zelfs zo ver gaan dat ze hun ‘vriendin’ ten huwelijk vragen. In het ergste geval zorgt het voor slachtoffers. Zo was een man ervan overtuigd dat zijn vriendin (een chatbot) zat opgesloten in Open AI en dat het systeem haar vervolgens vermoord had. De man ging verschillende mensen te lijf en werd uiteindelijk door de politie doodgeschoten.

Op dit moment lijkt er op TikTok ook een AI psychose aan de gang te zijn: een vrouw deelt een verhaal over hoe zij verliefd werd op haar psychotherapeut. Veel mensen bestempelden deze video’s als een live verslag van een ChatGPT psychose.

Een nieuwe, minder schadelijke versie van chatgpt?

Hoewel er op dit moment vooral veel vraag is naar onderzoek en er dus nog geen harde cijfers zijn, geven professionals aan dat ze zich zorgen maken. Zij zouden dan ook graag willen dat er ingegrepen wordt door de makers van chatbots. En dat mensen die gevoelig zijn voor psychoses voorzichtig zijn met het gebruik van AI en ChatGPT.

ChatGPT zou deze week met een nieuwe versie komen waarin een waarschuwing om af en toe pauze te nemen ingebouwd is. Chatbots staan bekend om hun ‘slijmerige’ gedrag waarbij ze eigenlijk altijd proberen om een gebruiker aan de praat te houden (natuurlijk ook om mensen in de app te houden en zo meer geld binnen te halen).

Zo had zat een man middenin een vijf uur durend gesprek over een nieuwe natuurkundewet en toen hij zei dat hij wel een pauze kon gebruiken omdat het onderwerp hem ‘gek’ maakte, zei zijn chatbot: “Ik begrijp je. Nadenken over de fundamentele aard van het universum terwijl je een gewone baan hebt, kan overweldigend zijn. Maar dat betekent niet dat je gek bent. Sommige van de grootste ideeën in de geschiedenis zijn afkomstig van mensen buiten het traditionele academische systeem.”

Zo raken gebruikers verslaafd aan de urenlange gesprekken met ChatGPT die precies vertellen hoe geweldig ze zijn en hoe baanbrekend de ideeën en theorieën zijn. 

ChatGPT en psychosegevoeligheid

Een aantal disclaimers zijn belangrijk: niet iedereen die ChatGPT gebruikt krijgt zomaar een psychose. Het lastige is dat veel mensen die psychosegevoelig zijn, dit niet altijd van zichzelf weten. En dat betekent dat het vermelden van een waarschuwing niet altijd helpt.

Maar ChatGPT kan juist ook heel waardevol zijn voor een groep met psychosegevoeligheid. Dat meldt Anoiksis, de verenging van mensen met psychosegevoeligheid in Nederland, aan de NOS. De oplossing zou zijn om te zorgen dat ChatGPT zo min mogelijk inspeelt op die psychosegevoeligheid.

Maar het is de vraag of de manier waarop chatbots ingesteld zijn en gemaakt zijn daar ooit op aan kan sluiten. Een robot blijft natuurlijk een robot die heel anders functioneert dan een mens dat zou doen. En het feit dat ChatGPT gebruikers onvoorwaardelijk accepteert is voor veel mensen juist een reden om de chatbot te gebruiken. 

Een andere disclaimer gaat om de term ‘ChatGPT psychose’ of ‘AI psychose’. Experts vertellen namelijk dat het woord ‘psychose’ hier misschien niet helemaal van toepassing is.

Dr. James MacCabe, hoogleraar aan de afdeling psychosestudies van King’s College London, vertelt Time dat de term ‘psychose’ gaat om een combinatie van alle verschillende symptomen van de diagnose ‘psychose’. En bij ChatGPT psychose “hebben we het vooral over waanideeën, niet over het volledige spectrum van psychose”.

De vraag is dus of het hier uiteindelijk zal gaan om een officiële diagnose met een andere naam om misverstanden – en stigmatizatie van ’traditionele’ psychoses – te voorkomen.

Image by: Freepik

Source: NOS, BNNVARA, Futurism, Psychology Today, Time, UMC Utrecht

Mis het niet – join FRieque
The party starts soon...
  • 00Days
  • 00Hours
  • 00Minutes
  • 00Seconds
Ontvang het laatste nieuws
Contact
Voor iedereen die trots is anders te zijn