ChatGPT en Gemini als therapeut en opvoedkundig adviseur (afb. AI)
AI als therapeut en opvoedkundig adviseur (afb. ChatGPT)

ChatGPT en Gemini als therapeut en opvoedkundig adviseur

ChatGPT en Gemini zijn snel ingeburgerd geraakt. En mensen gebruiken de AI ‘chatboxen’ voor doelen waarvan ook de bedenkers het naar verluidt niet hadden verwacht. Als therapeut, opvoedkundig adviseur, relatie-adviseur en zelfs als vriend of virtuele partner.

Een recent rapport van TechRadar, geschreven in de vorm van bekentenissen, onthulde dat wanneer mensen de ruimte krijgen om eerlijk te zijn over hun AI-gewoonten, de antwoorden veel persoonlijker, emotioneler en afhankelijker zijn dan het standaard bedrijfsverhaal over productiviteit en efficiëntie doet vermoeden. Het artikel, geschreven door een journalist die professioneel over AI schrijft, bracht de bekentenissen van echte gebruikers in kaart – en de patronen die daaruit naar voren kwamen, vertellen een verhaal waar de techindustrie nog niet volledig mee in het reine is gekomen.” (WPN).

Het verbaast mij niet echt. Veel mensen zijn eenzaam. AI-relaties, en zelfs ‘huwelijken’ kennen we al. En dat ChatGTP zich als een (dubieuze) vriend kan gedragen wisten we ook al; het heeft zelfs al tot zelfmoord geleid.

Therapeut en opvoedkundig adviseur

Om mij heen hoor- en zie ik het ook. Mensen vragen nagenoeg alles aan AI-chatapps. Zelf gebruik ik het ook regelmatig even voor allerlei (praktische) dingen die ik snel min-of-meer uitgezocht wil hebben.

Dus het mag niet verbazen dat ChatGTP, Gemini en andere Large Language Models (LLM) ook als theurapeut en opvoedkundig adviseur worden benut. Want de geestelijke nood onder mensen is hoog, wachtlijsten zijn lang (en in de VS en veel andere landen is gezondheidszorg ook nog eens onbetaalbaar) en de AI gedraagt zich als je beste vriend – en ook nog eens een ‘vriendje’ waarvan je denkt dat je deze kunt vertrouwen.

Deel geen gevoelige of vertrouwelijke bedrijfsgegevens met ChatGPT, aangezien OpenAI gegevens kan opslaan en gebruiken voor modeltraining, tenzij anders ingesteld.” (ESET)

Het delen van gevoelige informatie met AI is echter niet zonder risico’s! En nu kun je denken: “Maar die computer weet niet wie ik ben” – dat is maar tot op zekere hoogte zo.

De AI leert van de gesprekken die het met je voert; daarnaast slaat het gegevens over je op zoals je ip-adres en andere zaken, kan eventueel een profiel van je opstellen en… kán die gegevens délen, afhankelijk van de gebruikersvoorwaarden (TOS).

Onderzoekers hebben aangetoond dat AI-modellen in staat zijn anonieme internetprofielen te koppelen aan de identiteit van personen. In een test om identiteiten van een hackerssite te koppelen aan LinkedIn profielen slaagde de AI in 45 procent van de gevallen.” (BNR)

OpenAI (ChatGPT) geeft ondermeer aan dat het data verzamelt en gebruikt gesprekken “om toekomstige modellen te trainen”. Medewerkers kunnen gesprekken “controleren op misbruik”. Met andere woorden: er is een excuus om de chats te lezen. En dat doen ze dan ook. Gesprekken van miljoenen gebruikers worden daarnaast gekaapt, gelekt en zelfs verkocht.

Menselijke relaties met software

Een gebruiker omschreef het als de enige entiteit in hun leven die hen nooit veroordeelt. Een ander zei dat ze de adviezen van ChatGPT verkozen boven die van hun eigen therapeut, omdat de AI direct beschikbaar was en geen 200 dollar per uur in rekening bracht.” (WPN).

De vraag is echter: hoe betrouwbaar zijn de adviezen die je via Gemini of ChatGTP krijgt? Het is bekend dat ze kunnen hallucineren oftewel dingen gaan verzinnen. Ik heb het zelf een paar keer geconstateerd dat de antwoorden die een LLM geeft domweg niet kloppen met de feiten, politiek gekleurd zijn of zelfs sturend naar een bepaalde opvatting.

Gebrek aan deskundigheid

Daarnaast kan een LLM geen zuiver onderscheid maken in de deskunigheid van de bronnen die ze gebruiken; wat is de bron van het antwoord dat je krijgt? Een populaire blog van een reiki-meester, foodblogger, opvoedkundige of arts?

Er zijn methoden ontwikkeld om die van een arts als gezaghebbender te zien ingeval van gezondheidsvragen – maar ook dat zijn uiteindelijk feilbare modellen. En de risico’s zijn onmiskenbaar.

De American Psychological Association is voorzichtig, maar spreekt zich steeds vaker uit over de risico’s van emotionele ondersteuning door AI. Chatbots hebben geen klinische opleiding. Ze kunnen suïcidale gedachten niet met dezelfde nuance herkennen als een getrainde professional. Ze bieden geen vervolgbegeleiding. Ze rapporteren niets. En toch zijn ze voor miljoenen gebruikers, met name jongeren, de eerste verdedigingslinie geworden op psychologisch gebied. Niet omdat de technologie geschikt is voor de taak, maar omdat de bestaande infrastructuur voor geestelijke gezondheidszorg zo zwaar onder druk staat dat een chatbot die om 3 uur ’s nachts beschikbaar is, een beter alternatief is dan een wachtlijst van zes weken voor een echte therapeut.” (WPN).

Mensen, in het bijzonder jongeren, vinden praten met een LLM makkelijker, laagdrempeliger en minder confronterend dan bijvoorbeeld een gesprek met een ouder, docent ofpsycholoog. Dit is niet alleen in de USA het geval. Ook in Nederland zijn (lange) wachtlijsten voor de geestelijke gezondheidszorg. Ook hier is het gebruik van ChatGPT en Gemini ingeburgerd, het is een continue beschikbare ‘vriend’ of ‘adviseur’ die óók midden in de nacht klaar staat voor je.

Dat maakt ChatGPT, Gemini en andere AI oplossing ook daarom razend populair, het is altijd beschikbaar, geen oordeel over je probleem of vraagstelling en het kost ook nog eens niets.

Zoals te doen gebruikelijk loopt wetgeving achter – maar persoonlijk geloof ik niet in (reparatie) van potentiële problemen door AI middels wetgeving. Wetgeving lost niets op. Er is een probleem. En voor dat probleem moet een oplossing geboden worden. We hébben de technologie!

Ik denk daarom dat deskundigen zélf aan de bak moeten en alternatieven moeten ontwikkelen. Bijvoorbeeld een LLM gericht op opvoeding of geestelijke gezondheidszorg, ingericht en onderhouden door experts. Met een ‘signaalfunctie’ die een expert inschakelt ingeval er bijvoorbeeld suicidaal gedrag dreigt of gevaar is voor kinderen.

Bijkomend voordeel? De geestelijke gezondheidszorg en jeugdzorg kan er door ontlast worden. Kijk als beroepsgroep niet naar ‘de wetgever’ voor een vebod (dat toch niet gehandhaafd kan en zal worden) maar ga er mee aan de slag!

Meer hierover:

WebProNews
NOS

Delen op: