Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Deep fakes, je hoort vaak dat ze één van de grote gevaren zijn voor de toekomst. Je kunt mensen die iets nooit zouden zeggen, via een nepvideo toch die uitspraak laten doen. Zeker dankzij social media kan zo’n video snel verspreiden. Dat zien we niet alleen bij video, maar ook bij tekst: we denken wel dat we weten wanneer een tekst is geschreven door een mens of een robot, maar eigenlijk blijken we daar geen idee van te hebben.
Kunstmatige intelligentie
Dit is ontdekt in de Verenigde Staten. Via Medicaid.gov konden burgers feedback geven op een aanpassing in een medisch programma van de staat Idaho. De site ging in oktober 2019 live en er kwamen wel 1.000 opmerkingen binnen. De helft kwam echter niet van burgers die hun mening wilden geven: de helft kwam van kunstmatige intelligentie. De moderators die de reacties moesten verwerken ontdekten dat helemaal niet, schrijft ArsTechnica.
Harvard-student Max Weiss wist wel beter, want hij ontwikkelde het AI-systeem dat hiervoor zorgde. Het is vrij ernstig, want overheden kijken naar deze opmerkingen in het maken van beleid en nemen van beslissingen. Het is heel makkelijk voor een robot om tekst te maken die lijkt alsof hij van een mens is, maar het is dus niet makkelijk voor een mens om te herkennen dat dit van een bot afkomstig is.
GPT-2
De Amerikaanse overheid heeft op basis van het onderzoek besloten om zijn pagina’s voor burgerfeedback anders in te richten. Dus niet simpelweg een knop waarmee je iets instuurt: er is meer voor nodig. Weiss schrok ervan dat die knop het enige was waarmee hij de politiek kon beïnvloeden, waarop hij startte met zijn AI-experiment. Hij gebruikte het programma GPT-2 om neppe reacties te maken. “Ik was geschokt over hoe gemakkelijk het was om GPT-2 te verfijnen om de commentaren echt te maken. Het is relatief zorgwekkend op een aantal fronten,” zegt Weiss.
Het gevaar is niet alleen wanneer kunstmatige intelligentie wordt gebruikt als reactie op social media of een formulier op het internet. Dankzij kunstmatige intelligentie kunnen hackers van over de hele wereld immers veel betere phishingmails schrijven. Nu kun je die soms ontdekken door gebrekkig Engels of een domme taalfout, maar als er straks kunstmatige intelligentie wordt gebruikt, dan wordt ook dat haast onmogelijk om van echt te onderscheiden. Hoewel het natuurlijk knapper is om iemand voor de gek te houden met een deepfake-video (dat is immers veel meer werk), brengt tekst dus ook zo zijn gevaren met zich mee.
Beeldbron: kiquebg
Verder lezen over Kunstmatige Intelligentie
Social Media23.04.2024
Veel consumenten bezorgd om nepnieuws rondom verkiezingen
Online22.04.2024
Een realistische video van jou is gemaakt met één foto
Online19.04.2024
AI organiseert eigen missverkiezing: wie wordt Miss AI 2024?
Gaming17.04.2024
AI is gearriveerd in gaming – hoe wordt de technologie gebruikt?
Technology17.04.2024
SAP opent een experience center dat volledig is gericht op AI
Technology17.04.2024
AI in de Zorg: Inzichten van HLTH Europe Roadshow 2024
Mobile16.04.2024
Dit is de nieuwe edge generatie van Motorola
aangedreven door moto AIOnline15.04.2024