29.08.2025
Online

Al je gesprekken met Claude worden straks gebruikt voor AI-training

By: Laura Jenny

BlogOnline

Anthropic heeft wat minder goed nieuws voor wie zijn gesprekken met de AI-chatbot graag privé houdt. Het gaat niet al je gesprekken op het internet publiceren zoals ze nu worden gevoerd, maar het gaat de conversaties die je met Claude hebt wel gebruiken om AI-modellen te trainen. Deze nieuwe regel gaat in per 28 september.

Anthropics deadline is 28 september

Anthropic maakt een grote ommezwaai als het gaat om hoe het met gebruikersdata omgaat en dat houdt in dat je voor 28 september moet bepalen of je er oke mee bent dat je gesprek wordt gebruikt om AI-modellen te trainen. Dat was tot op heden niet het geval: alleen als er beleid werd overtreden. Maar Anthropic gaat er dus iets aan veranderen. Wel kun je nog vijf jaar intrekken dat je data wordt gebruikt, dus het is ook weer niet alsof er straks niets meer mogelijk is. 

Voor consumentenaccounts geldt dus straks dat hun gesprekken worden gebruikt voor het trainen van AI. Anthropic doet het om het model veiliger te maken, het systeem voor het aangeven van kwetsende content accurater te maken en minder snel onschuldige gesprekken verkeerd in te schatten. Maar ook zullen gebruikers “toekomstige Claude-modellen helpen om vaardigheden zoals coderen, analyseren en redeneren te verbeteren, wat uiteindelijk zal leiden tot betere modellen voor alle gebruikers.”

Jouw gesprekken zijn lessen voor AI

Anthropic reageert verder niet op vragen over de kwestie, behalve met het antwoord dat er een blog over bestaat. Dat laat echter wat ruimte voor interpretatie. Zo zijn er experts die denken dat het allemaal vooral voor eigen gewin is. Het is bekend dat het moeilijk is voor bedrijven om input te vinden om hun AI-modellen te trainen. Sommige trainen daarom met synthethische data, wat data is die ook door AI is gemaakt. Een platform heeft er dus veel baat bij om met echte data die door mensen is gemaakt te trainen, omdat het anders een beetje navelstaren wordt.

Ook is er nu veel te doen rond het onderwerp van gebruikersgesprekken en de privacy ervan. OpenAI gaat momenteel de strijd aan tegen een gerechtelijk bevel dat het bedrijf dwingt om alle ChatGPT-gesprekken voor onbepaalde tijd te bewaren. Dat is inclusief chats die verwijderd zijn. Het is een vraag die voortkomt uit een rechtszaak met The New York Times. Het wordt inmiddels voor gebruikers ook steeds moeilijker om bij te houden hoe dit soort dingen nu precies geregeld zijn bij de website die ze gebruiken. 

Privacykeuzes

Het verandert nog wel eens, dus je moet dat, als je dat belangrijk vindt, regelmatig controleren op het AI-platform dat je gebruikt. Veel mensen gaan een keer akkoord en dan vinden ze het prima, of ze klikken snel iets weg, terwijl er ondertussen echt wel dingen veranderen. Grote dingen worden vaak wel gemeld, maar er zijn ook veel kleine zaken die vaak minder groots worden aangepakt.

Let ook goed op de ‘dark patterns’ die worden gebruikt, of eigenlijk het tegenovergestelde ervan: een grote OK-knop bij het beleid, dat zie je vaak, want sites willen dat je gewoon doorklikt en het platform gaan gebruiken. Het is fijn dat er vanuit onder andere de EU veel regels voor zijn, maar het is goed om jezelf scherp te houden als het om privacy en AI gaat, zeker als je vrij gevoelige zaken deelt. En daar moet je zeker beter over gaan nadenken als je Claude gebruikt: je hebt nog een maandje om te beslissen.

Share this post