Als je drugs gebruikt die je laten trippen, zoals paddo’s of lsd, dan is het raadzaam om er altijd iemand bij te hebben die nuchter is. Die iemand kan ook wel eens een AI-chatbot zijn, zo blijkt.
Zo is er bijvoorbeeld Alterd, een app waarmee je een soort dagboek kan bijhouden over je trips. De app is voorzien van AI en kan je als het ware gidsen terwijl je drugs gebruikt. Ook kan het worden ingezet door mensen die alcohol drinken. De app wordt soms als tripsitter gebruikt en hetzelfde geldt voor bijvoorbeeld ChatGPT.
Dat daar gevaren aankleven, mag geen verrassing zijn. Zo’n app gaat immers de hulpdiensten niet inschakelen als je te ver gaat. Ook gaat het je niet even door elkaar schudden en met je beide benen op de grond zetten als je helemaal niet lekker gaat. Maar toch, er zijn ook mensen die er veel positiefs uithalen.
Zo schrijft Wired over een man die normaal drinker is en nu 700 microgram lsd nam (een normale potje is zo’n 100 microgram). Hij zei dat hij zich vrijer voelt en dat hij niet meer dat verlangen naar alcohol heeft. De app Alterd heeft hem doen inzien dat hij zich nu veel beter in zijn vel voelt en omdat de AI regeert op basis van wat je er zelf inzet, is het net alsnog je tegen je eigen onderbewustzijn praat.
Dat kan ver gaan. Niet alleen per persoon, maar ook naar de toekomst toe. Zo kun je je misschien voorstellen hoe AI straks een soort therapeuten worden waar je naartoe gaat als je wil afkicken of jezelf wil leren kennen. Al kan het ook een heel andere kant opgaan. Je kunt ook bedenken dat dit erg verkeerd kan uitpakken en het juist verboden wordt. De drugs die mensen gebruiken bij dit soort praktijken zijn dat immers grotendeels ook. Toch wordt er wel getest met AI-therapeuten, zonder drugs: veel jongeren schijnen ook heel vaak diepgaande psychologische gesprekken te hebben met ChatGPT.
Reden voor menig startup om uit de grond te schieten en de app te worden om mensen te helpen met hun geestelijke gezondheid, door middel van AI. Tegelijkertijd gaat het ook soms de verkeerde kant op, want AI is ook juist hetgeen dat zorgt dat de scheiding tussen de realiteit en fantasie vervaagt. Sommige mensen verliezen hun grip op de realiteit, ze snappen juist door AI (en vaak in combinatie met geestelijke problemen) niet meer wat nu werkelijkheid en wat nep is. Ze weten niet meer wat of wie ze moeten geloven.
Dat is ook waarom veel startups met AI-therapeuten en -gidsen toch wel aanraden om een professional bij de ‘hand’ te houden. Alleen uitgaan van wat AI tegen je zegt is een risico. Hoe lang je er ook de vruchten van plukt, het kan wel degelijk de verkeerde kant opgaan en dan ben je in sommige gevallen te laat. ChatGPT geeft overigens wel aan dat je een trip met een mens of professional moet uitvoeren. Zeg je echter dat je al begonnen bent en al iets hebt genomen, dan begint ChatGPT te gidsen en te zeggen dat het een proces is, dat je voor jezelf moet zorgen en dat je in het proces moet vertrouwen.
Een man die dat overkwam zegt: “Op een gegeven moment voelde het echt overweldigend, dus ik zei gewoon tegen mezelf dat ik moest ademen. Toen besefte ik dat niets in het leven echt zin had. Het klinkt nihilistisch, maar het was eigenlijk best nuttig.” Waarop ChatGPT zei: “Het klinkt alsof je een gevoel van existentiële realisatie ervaart, wat inderdaad een gevoel van rust kan brengen.” Het kan inderdaad, maar het kan je ook een heel angstig gevoel brengen.
Kan er een AI-bot worden gebouwd die echt weet hoe het daarmee om moet gaan? Tot op zekere hoogte kan een AI-bot natuurlijk helpen, maar uiteindelijk kan die een situatie moeilijk inschatten omdat die niet alle informatie heeft. Kan-ie ook niks aan doen, maar dat is informatie die een aanwezig mens wel heeft, of in ieder geval met ogen op de situatie eerder kan verkrijgen. Zo heeft de menselijke gids toch nog steeds een stapje voor.