03.10.2025
Social Media

OpenAI komt met social medium om je vrienden te deepfaken

By: Laura Jenny

BlogSocial Media

Deepfakes waren eerst een probleem, maar nu moeten ze een nieuwe vorm van entertainment worden. OpenAI maakt zijn eigen deepfake-social medium waarmee je van je vrienden en van jezelf allerlei gekke video’s kunt maken. Video’s die niet van echt te onderscheiden zijn. 

Sora 2

Het gaat om Sora 2. Het kan zowel video’s als audio genereren en het idee is dat gebruikers er lekker mee kunnen experimenteren. Sora is de AI-videomaker van OpenAI, die bij lancering al meteen hoge ogen gooide. Deze social media-app, Sora 2, zou niet meer werken als een soort fruitmachine waarbij je een prompt erin zet en maar moet zien wat eruit komt: Sora 2 zou veel beter begrijpen wat je echt wil.

Het team achter Sora 2 heeft meer dan anderhalf jaar aan het nieuwe product gewerkt. De grootste verandering is niet eens dat hij prompts beter begrijpt, maar vooral dat hij nu dus audio kan gebruiken die synchroniseert met de video: iets wat de originele Sora niet kan. Hiermee komt OpenAI weer een stapje dichterbij Google, dat met zijn Veo-model al langer audio synchroniseert met wat er op beeld gebeurt. Zo kan je iemand echt iets laten zeggen in de video, in plaats van dat je een soort stomme film hebt gemaakt met alleen wat achtergrondmuziek.

Social medium voor deepfakes

Je kunt de nieuwe tool via Sora.com benaderen, maar Sora 2 Pro is wel alleen beschikbaar voor ChatGPT Pro-gebruikers. Het social medium dat er uiteindelijk van komt heet juist weer alleen Sora en is nu alleen beschikbaar voor iPhone-gebruikers in de Verenigde Staten en Canada, alleen via een uitnodiging. OpenAI hoopt dat Sora 2 ervoor zorgt dat mensen dichterbij een soort wereldsimulators komen. Dat zou mede moeten komen door de natuurlijk lijkende manier waarop bijvoorbeeld water zich beweegt.

Hoewel het tof is dat je straks echt lijkende video’s kunt maken, is er natuurlijk ook nog steeds dat probleem dat we hebben met deepfakes: we weten niet wanneer het een deepfake betreft. En hoezeer OpenAI ook trots is op die echtheid, daarin schuilt ook een gevaar. Wat als we niet meer zien dat iets nep is, en we ons daardoor laten beïnvloeden. Wat als iemand een video maakt van een politicus die iets doet wat absoluut niet door de beugel kan en op social media zet? Sommige mensen zullen het geloven en dat kan hun stemgedrag beïnvloeden. OpenAI kan moeilijk voorkomen dat mensen de video’s ook op andere social media zetten.

Wel heeft OpenAI gezorgd dat bepaalde dingen niet kunnen: “Publieke figuren kunnen niet worden gegenereerd in Sora, tenzij ze zelf een cameo hebben geüpload en toestemming hebben gegeven voor het gebruik ervan.” Je kunt ook geen porno of extreme video’s maken. Dat is niet alleen om deepfakes te voorkomen, maar ook om rechtszaken te voorkomen zoals die van Disney en Universal tegen Midjourney.

Deepfakes van je eigen gezicht

De social media-app die OpenAI heeft gemaakt lijkt erg op TikTok, waarbij je ook een For You-pagina hebt en verticaal scrollt. Ook zijn er cameo’s, waarin je de app toestemming geeft om deepfakes met jouw gezicht te maken. Hiervoor hoef je je gezicht alleen in meerdere richtingen te bewegen en op te nemen, zodat je vervolgens allerlei deepfakes met jezelf kunt laten maken. OpenAI zegt dat Sora heeft gezorgd dat ze minder tekstberichten, emoji’s en spraakberichten naar elkaar sturen, omdat ze allerlei deepfakes gebruiken. Van neppe advertenties, neppe nieuwsclips tot dus die persoonlijkere video’s. 

Het is afwachten wanneer het verder uitrolt, maar het is nu al slim om te bedenken: is het wel echt wat ik zie? wanneer iemand je een video stuurt. Zeker in deze tijden van verkiezingen.

Share this post