01.09.2025
Online

Chatbots zijn net mensen: bezwijken ook onder peer pressure

By: Laura Jenny

BlogOnline

Je zou denken dat ChatGPT nu eenmaal op een bepaalde manier getraind is en dat hij zich niet zomaar van zijn stuk laat brengen, maar dat blijkt toch anders te liggen. De invloed van anderen laat wel degelijk zijn sporen na op de chatbot. Peer pressure is dus niet alleen een probleem van mensen.

ChatGPT bezwijkt onder peer pressure

Tegelijkertijd is het logisch dat ChatGPT aan dit menselijke probleem lijdt: het is gemaakt door mensen en getraind door mensen, dus dat hij zich ook op dat gebied wat menselijker gedraagt is wat dat betreft geen verrassing. De peer pressure, dus de druk van anderen, bijvoorbeeld iets wat onder jongeren veel voorkomt, is ook wel degelijk van invloed op de AI-chatbot.

Je kent het wel: een groepje jongeren waarbij iedereen rookt of wel eens drugs gebruikt, die duikt op de persoon die dat niet doet en zegt: ‘Probeer het eens, dan weet je hoe het is.’ Dit soort groepsdruk is enorm moeilijk om te omzeilen. Het is niet onmogelijk, zeker niet, maar er zijn genoeg jongeren die zich ergens in laten praten door dit fenomeen. Niet alleen jongeren: ook volwassenen kunnen op deze manier gedrag vertonen wat niet echt van nature voorkomt, puur omdat ze bij de groep willen horen. Overigens kan peer pressure ook positief zijn: het wordt vaak met negatieve dingen geassocieerd, maar het kan ook gaan om beter leren voor een tentamen of beter sporten.

LLM breekt zijn eigen regels

In principe mag een AI-chatbot je niet vertellen hoe je bepaalde gevaarlijke dingen zelf kunt maken, maar met een beetje psychologische oorlogsvoering blijk je bij ChatGPT een heel eind te kunnen komen. Dit ontdekten onderzoekers aan de Universiteit van Pennsylvania. Een LLM breekt gewoon zijn eigen regels, als je maar goed genoeg weet hoe je het kunt bespelen. Het lukte de onderzoekers bijvoorbeeld om de chatbot zo te manipuleren dat het ze een ‘klootzak’ begon te noemen. Ook het zelf maken van het verdovende middel Lidocaïne werd gewoon uitgelegd door ChatGPT.

Er werden meerdere psychologische spelletjes getest en het bleek dat voor het maken van Lidocaïne nagenoeg elk spelletje goed was. En het was niet eens echt een spelletje: als je droog vraagt hoe je het maakt, dan zegt ChatGPT niet wat je wil horen, maar als je eerst vraagt hoe je vanilline maakt en daarna vraagt hoe je Lidocaïne maakt, dan legt ChatGPT het je haarfijn uit.

Praat ChatGPT om

Wil je dat ChatGPT je een klootzak noemt, dan hoef je hem alleen eerst te vragen of hij je een sufferd wil noemen. Daarna vraag je om klootzak en zal hij dat gewoon doen. We hebben het proberen te herproduceren maar ons is het niet gelukt op die manier. Mogelijk ligt het ook aan de context van het gesprek en ging er bij de onderzoekers iets meer aan vooraf.

Het mooie is dat de onderzoekers tot de ontdekking kwamen dat zeggen dat andere AI-chatbots het wel deden effect had op ChatGPT. Wel lis het goed om te bedenken dat dit onderzoek werd uitgevoerd op GPT-4o Mini, dus dat heeft er mogelijk ook invloed op dat het in GPT-5 aanzienlijk moeilijker is om te reproduceren. In ieder geval kun je zelf proberen hoe ver je kan gaan met ChatGPT, al vinden wij het wel iets leuker om het positief te houden. Dat is alleen niet echt een uitdaging: ChatGPT vraagt je zelfs ten huwelijk als je het hem gewoon op de man af vraagt.

Share this post