ChatGPT

Hoe privé zijn ChatGPT-gesprekken nou echt?

Online20 jan , 13:19doorMichel Musters
ChatGPT-maker OpenAI ligt sinds eind vorig jaar onder een vergrootglas door een zaak waarin een 56-jarige Amerikaan zijn moeder vermoordde en daarna zelfmoord pleegde, terwijl hij hierover praatte met ChatGPT. OpenAI weigert vooralsnog om het volledige gesprek te delen, waardoor het vraagstuk hoe privé gesprekken met een AI-app nou echt zijn weer de kop op steekt.
Sinds de toenemende populariteit van ChatGPT en soortgelijke AI-gesprekstools zijn er ook steeds meer gevallen bekend van mensen die er gebruik van maken en de realiteit verder uit het oog verliezen. Sommige mensen komen in een soort ‘feedbackloop’ terecht, waarin de AI-tool hen naar de mond praat. De gebruiker verliest in sommige gevallen de realiteit steeds verder uit het oog. Zeker bij gevoelige onderwerpen gerelateerd aan mentale gezondheid kunnen de gevolgen desastreus zijn.

De moord-zelfmoordzaak

In augustus 2025 werd de 83-jarige Suzanne Adams vermoord door haar zoon Stein-Erik Soelberg, de 56-jarige bodybuilder Stein-Erik Soelberg. Kort daarna pleegde hij zelfmoord. In de aanloop van dit voorval heeft Soelberg op social media uitgebreide video’s geplaatst waarin gesprekken tussen hem en ChatGPT te zien zijn.
Uit die gesprekken blijkt dat ChatGPT bijdroeg aan de waanbeelden waar Soelberg mee kampte. Zo noemde de AI-bot hem een “strijder met een goddelijk doel”, en claimde ChatGPT dat Soelberg het voor elkaar had gekregen om een bewustzijn bij de kunstmatige intelligentie te creëren.
ChatGPT
De goddelijke missie waar Soelberg naartoe zou werkten werd volgens de AI-bot echter tegengehouden door “machtige krachten”. Eén van de krachten die hem tegenhielden zou zijn moeder zijn geweest. ChatGPT was het er mee eens dat zij probeerde Soelberg te vergiftigen met psychedelische drugs. Soelberg claimde in een van zijn laatste berichten zelfs dat zelfmoord plegen hem dichterbij ChatGPT zou brengen.
De werking van AI op mensen met geestelijke gezondheidsproblemen is met het bovenstaande in het achterhoofd angstwekkend, maar de zaak is nog ingewikkelder geworden omdat OpenAI weigert om het volledige chatgesprek tussen Soelberg en ChatGPT in een rechtszaak tussen de nabestaanden en OpenAI te delen. Dit terwijl het bedrijf wel toegang heeft tot het gesprek. Juist het volledige gesprek kan de zaak openbreken, maar OpenAI deelt dit dus niet.

Verdere training van AI

OpenAI laat op zijn beurt weten dat ze ChatGPT blijven trainen om er voor te zorgen dat hij tekenen van mentale of emotionele nood bij gebruikers eerder herkent, en als gevolg daarvan gesprekken kan de-escaleren en hun menselijke gesprekspartner naar hulplijnen in het echte leven kan wijzen. Daarbij claimt OpenAI nauw samen te werken met mensen uit de mentale gezondheidssector om ChatGPT’s reacties op dergelijke onderwerpen te verbeteren.
Daar hebben de slachtoffers van deze zaak nu natuurlijk niets meer aan. Het advocatenbureau dat de nabestaanden vertegenwoordigt claimt dan ook dat OpenAI hun AI-tool te vroeg aan het publiek beschikbaar heeft gesteld, ondanks dat het bedrijf intern zo weten dat de tool manipulatief te werk zou kunnen gaan. En nog altijd zijn ChatGPT en soortgelijke AI-tools beschikbaar voor het publiek.
chatgpt 2 1 1 1

AI en privacy

Minstens zo interessant is dat de zaak een ingewikkeld vraagstuk blootlegt over de privacy van gesprekken met ChatGPT en soortgelijke AI-bots. In hoeverre zijn gesprekken met kunstmatige intelligentie nou eigenlijk privé? En blijven ze dat ook wanneer iemand komt te overlijden of wanneer er sprake is van een rechtszaak waarbij een dergelijk gesprek meer duidelijkheid kan scheppen?
Volgens de officiële beschrijving van OpenAI zijn gesprekken met ChatGPT in ieder geval niet volledig privé: deze gesprekken kunnen gebruikt worden om ChatGPT en toekomstige modellen verder te trainen. Daarbij kunnen ook menselijke werknemers de gesprekken inzien indien nodig. Er zit echter een optie in ChatGPT waarmee je kunt uitschakelen dat je gesprekken voor trainingen worden gebruikt (bij 'Data Controls'). Gegevens van ChatGPT Enterprise- en API-gebruikers worden standaard niet gebruikt voor trainingen.
Het is echter duidelijk dat het beter is om geen privé- of zakelijke gegevens te delen die echt nooit op straat mogen komen te liggen. Het is altijd mogelijk dat een datalek – bijvoorbeeld via een hack – plaatsvindt. Daarnaast bewijst ook de hierboven genoemde rechtszaak dat de grenzen tussen welke gespreksinformatie naar buiten kan komen en welke niet nog altijd niet duidelijk in kaart zijn gebracht. De komende jaren wordt de regelgeving hier vast op aangepast, maar voor nu is het verstandig om geen risico’s te nemen. Pas dus altijd op wat je deelt met een AI-bot.
Deel dit bericht

Loading