AI Robot

ChatGPT zoekt een medewerker voor als AI gevaarlijk wordt

Online30 dec 2025, 11:45doorLaura Jenny
We weten eigenlijk niet zo goed waar het heengaat met al die kunstmatige intelligentie in ons leven. Het opvallende is dat zelfs AI-bedrijven dat zelf niet goed lijken te weten. Reden voor OpenAI om iemand aan te stellen die zich gaat buigen over de vraagstukken rondom wat te doen als de kunstmatige intelligentie gevaarlijk wordt.

Head of Preparedness

Het is opvallend dat deze persoon nu pas in de arm wordt genomen: OpenAI is al jaren bezig met kunstmatige intelligentie. Tegelijkertijd kun je je ook afvragen waarom er juist nu iemand is gekozen voor deze rol: is er iets veranderd waardoor er nu zorgen zijn? Waarschijnlijk komt het omdat het niet alleen gaat om iemand die moet bedenken hoe en wat als de AI niet meer naar ons luistert: het gaat ook om de psychische gezondheid en de invloed die AI hierop kan hebben.
OpenAI heeft de afgelopen tijd met meerdere rechtszaken te maken gehad die draaien om mensen die een einde aan hun leven hebben gemaakt na extensief met ChatGPT te hebben gechat. Waarschijnlijk is dat de hoofdreden dat er nu een Head of Preparedness bij komt. Die zal zich buigen over allerlei dreiging die bestaat rondom AI. Denk aan die mentale gezondheid, maar ook cybersecurity en dus wel die ‘AI gone rogue’-situaties.

Een 'enge' baan

Sam Altman geeft aan: “We zijn op zoek naar een hoofd Preparedness. Dit is een cruciale functie op een belangrijk moment; modellen verbeteren snel en zijn nu in staat tot veel geweldige dingen, maar ze beginnen ook enkele echte uitdagingen te vormen. De potentiële impact van modellen op de geestelijke gezondheid hebben we in 2025 al kunnen zien; we zien nu dat modellen zo goed worden in computerbeveiliging dat ze kritieke kwetsbaarheden vinden.”
Hij gaat verder: “We hebben een sterke basis voor het meten van groeiende mogelijkheden, maar we betreden een wereld waarin we een meer genuanceerd begrip en een meer genuanceerde meting nodig hebben van hoe die mogelijkheden kunnen worden misbruikt en hoe we die nadelen zowel in onze producten als in de wereld kunnen beperken, op een manier die ons allemaal laat genieten van de enorme voordelen. Deze vragen zijn moeilijk en er zijn weinig precedenten; veel ideeën die goed klinken, hebben een aantal echte randgevallen.“
Kortom, met ‘we betreden een wereld’ impliceert hij dat er toch wel veel is veranderd met AI. Het is immers veelgebruikt, dus cybercriminelen weten slachtoffers daar ook te vinden. Tegelijkertijd moet je zo’n rol maar net willen: Altman geeft al aan dat het een stressvolle baan is en je vrijwel meteen in het diepe wordt gegooid. Logisch ook, dit soort banen waren er een paar jaar geleden niet. Bovendien wordt OpenAI toch wel gezien als een van de toonbeelden van AI en hoge bomen vangen nu eenmaal veel wind.

Risicovol

Altman is misschien wel eindverantwoordelijk, de persoon die zich moet buigen over de risico’s die bij AI komen kijken zal waarschijnlijk op een bepaald moment het onderspit moeten delven wanneer er toch iets goed fout gaat. Je kunt natuurlijk veel risico’s proberen te voorkomen, maar je kunt het nooit 100 procent potdicht krijgen. Tegelijkertijd ben je wel heel belangrijk, dus het zal zeker een baan zijn waarop volop wordt gesolliciteerd.
In ieder geval moet de persoon grensverleggende mogelijkheden die nieuwe risico's op ernstige schade met zich meebrengen volgen en voorbereiden. “Je bent als leidinggevende direct verantwoordelijk voor het opstellen en coördineren van capaciteitsevaluaties, dreigingsmodellen en risicobeperkende maatregelen die samen een samenhangende, rigoureuze en operationeel schaalbare veiligheidspijplijn vormen.”
Het is beter laat dan nooit dat deze rol wordt opgezet, maar we zijn benieuwd of we veel van die persoon zullen meekrijgen of hij of zij vooral achter de schermen de touwtjes in handen heeft. Waarschijnlijk is het geen goed teken wanneer we hem of haar zien: laten we dus hopen dat dit het laatste is wat we over het hoofd ‘Voorbereiding’ hebben geschreven.
Deel dit bericht

Loading