Social Media23.10.2013

Facebook: geen bloot, wel geweld?


facebook-geen-bloot-wel-geweld.jpg
facebook-geen-bloot-wel-geweld.jpg

De afgelopen dagen was er veel commotie over gruwelijke filmpjes van onthoofdingen die op Facebook stonden en niet verwijderd werden. Persoonlijk vind ik dat dergelijke gruwelijke beelden niet op deze manier aandacht zouden moeten krijgen, maar ik maak de regels bij Facebook niet en wat mij opvalt is dat degene die deze wel maakt, bijzondere keuzes maakt. 

Naakt, of bijna naakt wordt zonder pardon van Facebook verwijderd. Geen “nipplegate” op dit Sociale Netwerk, maar ook geen covers van boeken waarop iemand (deels) bloot staat of een te zonnige strandfoto. Je kunt er van vinden wat je wilt, maar duidelijk is het wel.

Dan geweld, en niet zomaar geweld (altijd verwerpelijk natuurlijk, maar er zijn gradaties in wat als schokkend ervaren wordt, een uit de hand gelopen opstootje op straat is van een ander kaliber dan een onthoofding in alle details), wordt toegelaten op Facebook, ongeacht het aantal meldingen van ongepaste content. En nu heeft Facebook het beleid hierover nogmaals toegelicht op de eigen blog:

People turn to Facebook to share their experiences and to raise awareness about issues important to them. Sometimes, those experiences and issues involve graphic content that is of public interest or concern, such as human rights abuses, acts of terrorism, and other violence. When people share this type of graphic content, it is often to condemn it. If it is being shared for sadistic pleasure or to celebrate violence, Facebook removes it.

Met andere woorden: wanneer beelden van geweld op Facebook gedeeld worden, kijkt Facebook of het met de juiste intenties geplaats is, of er gewaarschuwd is voor de inhoud van de beelden en of er op een goede manier mee wordt omgegaan. Daarin past het plaatsen van beelden van een onthoofding, mits geplaatst om een statement te maken en mits er massale afkeuring mee beoogd wordt. Het filmpje waarover zoveel commotie was, is nu verwijderd. Volgens Facebook niet vanwege de druk vanuit de media, maar omdat ze ieder gemeld geval van geweld apart bekijken om te zien of het op de voor hen juiste manier op Facebook geplaatst is. En dit filmpje voldeed niet aan de criteria die Facebook hanteert.

Ik vraag me af of je intenties zuiver kunt inschatten. En of je de effecten op anderen en de manier waarop anderen er mee omgaan zuiver kunt duiden. Er zijn veel mensen die het interessant vinden dergelijke beelden te zien en eventueel te delen, er zijn mensen die dit soort beelden opwindend vinden. Zou je die mensen via een Sociaal Netwerk toegang moeten geven tot dergelijk beeldmateriaal? En hoe valt dit te controleren en te beperken? En zou een statement ook gemaakt kunnen worden, zonder expliciete beelden te tonen? 

Voorlopig is Facebook helder in wat wel en niet mag. En dat is hun goed recht. En voor de liefhebbers van naakt: Facebook geeft zelf aan dat naakt op Facebook mag, mits geplaatst als statement. De volgende “nipplegate” dus gewoon op Facebook plaatsen, maar dan wel begeleid van een stevige tekst waarin je het veroordeelt. 

Verder lezen over Facebook

​Je kunt je Facebook-berichten straks doorposten op Threads

De wereld van social media verandert steeds meer. Enerzijds omdat Meta nu eenmaal de meeste succesvolle social media-platforms in handen heeft, anderzijds omdat de EU ook zijn zegje doet. En dat zegje komt met veel regel...

Social Media22.02.2024

​Je kunt je Facebook-berichten straks doorposten op Threads

Raar geluid bij het scrollen op Facebook? Zo zet je het uit

Facebook kampt met een technisch probleem waardoor het ineens een heel vervelend voortbrengt wanneer je door je tijdlijn scrollt. Het is ontzettend vreemd en je vraagt je in eerste instantie misschien wel af of het aan j...

Social Media14.02.2024

Raar geluid bij het scrollen op Facebook? Zo zet je het uit

​Facebook, Instagram en Threads geven AI-afbeeldingen een label

Meta gaat op zijn platforms Facebook, Instagram en Threads een label geven aan content die is gemaakt met behulp van kunstmatige intelligentie. Dit moet voor meer transparantie zorgen, en hopelijk minder social media-los...

Online07.02.2024

​Facebook, Instagram en Threads geven AI-afbeeldingen een label

​Mark Zuckerberg zegt sorry voor mentale schade social media

Er is een klein mirakel gebeurd. Meta-CEO Mark Zuckerberg heeft zijn excuses aangeboden voor de geestelijke problemen die social media kunnen veroorzaken bij vooral jongeren. Sowieso is het vrij uniek dat hij überhaupt...

Social Media02.02.2024

​Mark Zuckerberg zegt sorry voor mentale schade social media

​Social medium Facebook wordt 20 jaar: is het nog vernieuwend?

Het kopieert van anderen en het komt zelf met weinig nieuws: het wordt regelmatig gezegd over Facebook, het social medium dat geleid wordt door Mark Zuckerberg. Is dat helemaal terecht, is Facebook inderdaad niet vernieu...

Social Media29.01.2024

​Social medium Facebook wordt 20 jaar: is het nog vernieuwend?

Feestboek, maar dan echt
Bewust omgaan met social media overload: 8 tips voor mindful telefoongebruik

In de drukte van het TikTokken, het delen van Stories en het uitdelen van likes, eisen de uren die we op sociale media doorbrengen hun tol. Een verlaagd zelfbeeld, voortdurende druk om het 'perfecte leven' te leiden en m...

Social Media12.01.2024

Bewust omgaan met social media overload: 8 tips voor mindful telefoongebruik

​Waarom je even geen Bumble-ads op Instagram ziet

Bumble is het vrouwvriendelijke antwoord op Tinder, maar het bleek niet zo vriendelijk op Instagram te staan. Tinder ook niet trouwens. Moederbedrijf Match heeft daarom besloten om zich geheel terug te trekken van Instag...

Social Media28.11.2023

​Waarom je even geen Bumble-ads op Instagram ziet

​WhatsApp-stickers bewijzen dat AI altijd moet worden gecheckt

WhatsApp is tegen een beschamend probleem aangelopen: als je de WhatsApp-sticker-AI gebruikt om nieuwe stickers te laten genereren, dan voegt het als je op Palestijnse kinderen zoekt geweren toe aan de figuurtjes van kin...

Social Media06.11.2023

​WhatsApp-stickers bewijzen dat AI altijd moet worden gecheckt