De Europese druk op X en het eraan gekoppelde AI-systeem Grok neemt verder toe. In Frankrijk zijn de kantoren van X in Parijs doorzocht door de cybercrime-afdeling van het Openbaar Ministerie, terwijl in het Verenigd Koninkrijk een nieuw
onderzoek is gestart naar het gebruik van Grok bij het genereren van schadelijke beelden.
De Franse autoriteiten onderzoeken onder meer mogelijke onrechtmatige
data-extractie, schending van beeldrechten en ernstige verdenkingen rond de verspreiding van seksueel expliciet materiaal, waaronder deepfakes en beelden van minderjarigen. Zowel Elon Musk als voormalig X-topvrouw Linda Yaccarino zijn opgeroepen om in april te verschijnen voor verhoren.
Van algoritmes naar strafrecht
Het Franse onderzoek begon begin 2025 met vragen over hoe het aanbevelingsalgoritme van X content promootte. In de loop van dat jaar werd het onderzoek uitgebreid naar Grok, de AI-chatbot die geïntegreerd is in het platform. Inmiddels kijken aanklagers breder: niet alleen naar contentmoderatie, maar ook naar de rol van AI bij het creëren en verspreiden van problematisch beeldmateriaal.
Volgens het Franse Openbaar Ministerie wordt onderzocht of X mogelijk strafbaar heeft gehandeld op meerdere fronten, waaronder het faciliteren van georganiseerde verspreiding van illegale beelden en het onvoldoende beschermen van gebruikers tegen seksueel gemanipuleerde content.
X zelf spreekt van een “politieke aanval” en noemt de inval een “misbruik van bevoegdheden”. Het bedrijf ontkent alle aantijgingen en waarschuwt dat de acties van justitie de vrijheid van meningsuiting in gevaar zouden brengen.
Verenigd Koninkrijk richt vizier op Grok
Parallel aan het Franse onderzoek kondigde ook het Verenigd Koninkrijk nieuwe stappen aan. De Britse privacytoezichthouder Information Commissioner's Office (ICO) start een
eigen onderzoek naar Grok, in samenwerking met mediatoezichthouder Ofcom.
Aanleiding zijn meldingen over door
Grok gegenereerde seksuele deepfakes, vaak gebaseerd op echte foto’s van vrouwen, zonder hun toestemming. Volgens de ICO roept dit “ernstige vragen” op over hoe persoonlijke data wordt verwerkt en welke waarborgen zijn ingebouwd om misbruik te voorkomen.
Opvallend is dat Ofcom aangeeft momenteel onvoldoende bevoegdheden te hebben om AI-chatbots zelf direct te onderzoeken. Juist dat gat in toezicht maakt de rol van privacywetgeving en databescherming steeds centraler in dit soort dossiers.
Europa scherpt de lijnen aan
Ook de Europese Commissie volgt de ontwikkelingen nauwgezet. Eerder kondigde Brussel al een onderzoek aan naar moederbedrijf xAI, en bevestigde het in contact te staan met de Franse autoriteiten over de inval bij X. De zaak past in een bredere Europese trend waarin platforms niet langer alleen worden aangesproken op wat gebruikers doen, maar ook op hoe hun systemen gedrag mogelijk maken of versterken.
Dat spanningsveld tussen technologie, verantwoordelijkheid en vrijheid van meningsuiting wordt steeds zichtbaarder. Waar Musk en zijn medestanders spreken over politieke vervolging, benadrukken toezichthouders dat AI en platforms die op grote schaal opereren niet buiten de wet kunnen blijven opereren.
Meer dan een conflict over content
De zaak rond X en Grok raakt aan fundamentele vragen over de rol van
AI in publieke digitale ruimtes. Wie is verantwoordelijk wanneer een systeem zelfstandig content genereert? Hoe ver reikt platformverantwoordelijkheid? En hoe verhouden innovatie en toezicht zich tot elkaar wanneer technologie sneller beweegt dan regelgeving?
Wat begon als discussie over moderatie, is uitgegroeid tot een juridisch en politiek dossier dat de komende maanden bepalend kan worden voor hoe AI-systemen in
Europa worden gereguleerd.