Kan AI helpen als ik psychische problemen heb of zingeving zoek?

Steeds meer mensen kloppen aan bij kunstmatige intelligentie voor antwoorden, advies en zelfs troost. Wat begon als een handige tool om teksten te schrijven of informatie op te zoeken, groeit uit tot een digitale vertrouwenspersoon. Vooral jongeren delen hun zorgen met chatbots, soms over zware thema’s zoals depressie of zelfdoding. Maar hoe veilig is dat? En welke verantwoordelijkheid dragen AI-bedrijven als het misgaat?

Steeds meer mensen gebruiken AI-tools voor allerlei taken en ook mentale problemen worden steeds vaker gedeeld met chatbots. Volgens een Nederlands onderzoek chat 1 op 10 jongeren met AI over mentale klachten.

Een recent rapport van OpenAI, het bedrijf achter ChatGPT, relativeert die cijfers. Daarin wordt gesteld dat gesprekken waarin signalen van psychose, manie of zelfdodingsgedachten voorkomen “uiterst zeldzaam” zijn. Zo een 0,15 procent van de wekelijkse gebruikers vertoont potentiële gedachten rond zelfdoding. Dat lijkt niet veel, maar ChatGPT telt wekelijks ongeveer 800 miljoen gebruikers. Dus in absolute cijfers komt dat neer op 1,2 miljoen mensen. Een kleinere groep van ongeveer 160.000 gebruikers vertonen zelfs tekenen van emotionele afhankelijkheid aan de chatbot.

Dat mensen hulp zoeken bij AI brengt risico’s met zich mee. Er zijn gevallen bekend van mensen die geen gepaste ondersteuning vonden tijdens gesprekken met een AI-chatbot en uiteindelijk uit het leven stapten. Door die kritieken en de rechtszaken die volgden, werd de druk op AI-bedrijven groter om verantwoordelijkheid te nemen.

OpenAI werkte daarom samen met meer dan 170 experten uit 60 landen aan nieuwe antwoordmodellen en strengere evaluatiemethodes om de reacties van ChatGPT rond mentaal welzijn te verbeteren. Daardoor daalde het aantal onveilige of ongepaste antwoorden merkbaar. De chatbot werd getraind om risicosignalen beter te herkennen en sneller door te verwijzen naar professionele hulp. In simulatietests gaf ChatGPT na de update in 91 procent van de gevallen een veilige reactie, tegenover 77 procent in de vorige versie.

AI blijft een hulpmiddel dat met de nodige voorzichtigheid gebruikt moet worden. Het kan tijdelijk steun bieden, maar het vervangt nooit professionele zorg of menselijk contact. AI is vooral waardevol wanneer het mensen helpt om tijdig de weg naar echte hulp en begeleiding te vinden.

Zoals Dirk De Wachter het onlangs nog in een interview met deMens.nu stelde: “Chatbots kunnen helpen, maar moeten doorverwijzen naar echte hulp. Het fysieke, tastbare contact is de gouden standaard.”

Heb je nood aan een echt gesprek?

Over iets dat je bezighoudt, een vraag rond zingeving of gewoon omdat je iemand nodig hebt om mee te praten? Je bent altijd welkom in het huisvandeMens.

Denk je aan zelfmoord en heb je nood aan een gesprek, dan kan je terecht bij de Zelfmoordlijn op het nummer 1813 of via www.zelfmoord1813.be