AI-chatbots in China mogen niet te emotioneel zijn. China heeft nieuwe regels opgesteld omtrent AI-chatbots. Ze mogen de emoties van de mens niet beïnvloeden. De focus moet vooral blijven op wat de chatbot allemaal aan informatie en weetjes kan oplepelen en niet zozeer een vriend zijn voor mensen.
AI-chatbots in China
De Chinese overheid vindt het een risico dat AI-chatbots zo vriendelijk zijn en altijd beschikbaar zijn om mee te praten. Daarom moeten makers van AI-chatbots straks een melding geven als mensen al twee uur onafgebroken met een AI-chatbot praten.
De Cyberspace Administration of China wil voorkomen dat gebruikers schade aanrichten door hun gesprek met een AI-chatbot. Emotionele manipulatie is ook uit den boze. Zo mogen ze geen zelfbeschadiging of zelfdoding aanmoedigen en emotionele beïnvloeding mag ook niet. Hetzelfde geldt voor content omtrent gokken of geweld. De regels stellen bovendien dat
AI-chatbots voor emotionele begeleiding alleen jongeren mag helpen die hiervoor toestemming hebben gekregen van hun ouders of voogd.
De nieuwe regels hebben grote invloed op AI-chatbots en vooral de bedrijven hierachter. De nieuwe regels is namelijk dat als iemand suïcidale gedachten uit, er verplicht een echt mens moet ingrijpen. Aangezien we laatst schreven dat er op ChatGPT wekelijks bij duizenden gebruikers labelt dat ze suïcidaal zijn, hebben AI-bedrijven daar straks een hele dobber aan. Nu is dat aantal van ChatGPT wereldwijd, maar toch: in China wonen heel veel mensen.
Menselijk contact
Die persoon moet bovendien contact opnemen met de voogd of contactpersoon van die persoon. Dat lijkt een grote uitdaging die heel veel mankracht vraagt van bedrijven die juist erop gebrand zijn om zoveel mogelijk functies te automatiseren. Bovendien is er veel grijs gebied: wanneer is iemand echt suïcidaal of maakt hij bijvoorbeeld een grapje. Hetzelfde geldt overigens voor het vaststellen van iemands
leeftijd, daar moet ook meer aandacht voor komen, maar dat blijft een moeilijk vraagstuk waar ook in het Westen veel mee wordt geworsteld.
In ieder geval is het wel een primeur voor China: het is het eerste land dat met regelgeving komt omtrent de emotionele band tussen mens en AI. Daar is het bovendien op een goed moment mee gekomen: er zijn steeds meer rechtszaken rondom AI en zelfmoord, vooral van tieners. OpenAI neemt ook iemand in de arm die de dreiging van AI moet gaan inschatten en voorbereidingen moet treffen voor het geval AI gevaarlijk wordt in alle mogelijke manieren.