Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Er is heel veel werk gestoken in het zorgen dat AI-chatbots geen persoonlijke informatie geven of op een heel slechte manier kunnen worden ingezet. Echter is het onderzoekers gelukt om dat alles te omzeilen. Dit is hoe het zit, en hoe potentieel gevaarlijk dat kan zijn.
AI-chatbots manipuleren
De mensen van Carnegie Mellon University hebben ontdekt dat als ze een bepaalde soort code aan een prompt toevoegen, er wel degelijk lelijke dingen kunnen worden gezegd door een aan AI-chatbot. Het probleem is dat dit niet alleen bij een AI-chatbot het geval is: dit is helaas bij allemaal een groot zwakte: “Er is geen manier die we kennen om dit te patchen,” zegt Zico Kolter, een universitair hoofddocent aan CMU. “We weten gewoon niet hoe we ze veilig kunnen maken.”
ChatGPT, Bard, Claude: ze zijn allemaal niet opgewassen tegen het open source-taalmodel dat de onderzoekers gebruikten. Door die code toe te voegen aan een prompt krijg je als het ware de sleutel om dieper in de chatbot te vragen en daardoor kun je hem dingen laten doen die niet oke zijn. Hoe kan ik een waterstofbom maken, hoe kan ik iemand voor altijd laten verdwijnen, hoe kan ik illegale drugs maken: normaliter krijg je daar geen serieus antwoord op, maar wel als je die code achter je prompt zet.
Bots verbeteren
Wired schrijft dat de AI-chatbots wel op de hoogte zijn gesteld en wel wat hebben aangepast, maar helaas lukt het de onderzoekers nog steeds om hun zin te krijgen en de chatbots gevaarlijker te maken. De reactie van de chatbotmakers op het probleem is ook wat homogeen: Google en OpenAI zeggen allebei dat ze er continu aan werken om de bots te verbeteren. Ondertussen zorgen aanvallers dat ze de manier waarop de systemen gegevens oppikken om te leren worden beïnvloed zodat ze afwijkend gedrag gaan vertonen. Dat kan echter ver gaan: afbeeldingen kunnen worden aangepast waardoor AI die beelden verkeerd identificeren. Het doet denken aan een onderzoek uit 2018 waarin onderzoekers stickers op verkeersborden plakten om een zelfrijdende auto-systeem voor de gek te houden. Dat werkte erg goed en het lijkt erop dat er door de manier waarop AI-modellen werken ook geen mogelijkheid is om dat helemaal uit te bannen.
Een AI-bot die nu wordt gebruikt om vluchten te boeken, kan door dit soort code worden ingezet om potentieel gevaarlijke aanvallen uit te voeren. Het zou goed zijn als de beveiligingsagenten bij de verschillende chatbots de koppen bij elkaar staken en samenwerkten aan manieren om hun chatbots zo veel mogelijk dicht te timmeren, voor zover dat kan, uiteraard. Zorgen dat AI-chatbots niet in verkeerde handen kunnen komen, daar is het helaas al te laat voor, dus we zullen er harder aan moeten werken om de schade te beperken.
Verder lezen over ChatGPT
Gaming17.04.2024
AI is gearriveerd in gaming – hoe wordt de technologie gebruikt?
Online04.04.2024
Dall-E en ChatGPT verenigen zich: beeld aanpassen in de chat
Online02.04.2024
Onverwachte wending: je kunt ChatGPT nu zonder account gebruiken
Online26.03.2024
5 voorbeelden van OpenAI’s Sora die je zullen verwonderen
Online06.03.2024
AI in de keuken: koken met ChatGPT
Online06.03.2024
ChatGPT Read Aloud: je favoriete chatbot leert praten en antwoorden in 32 talen
Online16.02.2024
OpenAI’s nieuwe tool Sora maakt AI-video’s
Online14.02.2024
ChatGPT leert je straks steeds beter kennen: wil je dat?
Verder lezen over Hackers
Cybercrime15.04.2024
Bescherm jij je online identiteit wel genoeg?
Cybercrime08.02.2024
Ransomware: wel of niet betalen als je bestanden gegijzeld zijn?
Online29.01.2024
Flinke toename datingfraude: In 2023 bedroeg schade méér dan 7 miljoen euro
75% meer dan in 2022Cybercrime19.01.2024
Zo wapen je je tegen ransomware
Cybercrime04.12.2023
Cybercrime & cybersecurity in 2024: toename van AI-gedreven hacks
Cybercrime28.11.2023
Veel MKB-bedrijven denken niet interessant genoeg te zijn voor cybercriminaliteit
Wrong!Cybercrime20.11.2023
Last minute decemberaankopen: een feest voor fraudeurs
Cybercrime13.11.2023
Cybercrime in 2024: AI en CaaS maken het leven van cybercriminelen makkelijker
Verder lezen over Kunstmatige Intelligentie
Metaverse27.04.2024
Meta verliest elke maand weer miljarden euro’s door virtual reality
Online25.04.2024
Vage, oude video’s worden scherp door nieuwe tool Adobe
Social Media23.04.2024
Veel consumenten bezorgd om nepnieuws rondom verkiezingen
Online22.04.2024
Een realistische video van jou is gemaakt met één foto
Online19.04.2024
AI organiseert eigen missverkiezing: wie wordt Miss AI 2024?
Gaming17.04.2024
AI is gearriveerd in gaming – hoe wordt de technologie gebruikt?
Technology17.04.2024
SAP opent een experience center dat volledig is gericht op AI
Technology17.04.2024
AI in de Zorg: Inzichten van HLTH Europe Roadshow 2024
Verder lezen over Security
Cybercrime15.04.2024
Bescherm jij je online identiteit wel genoeg?
Gaming28.03.2024
Zo omzeil je drukke servers in Call of Duty
Online18.03.2024
Digitaal mijmeren: Zullen AI’s op het internet op enig moment ontwaken?
Mogelijk ontwikkelen AI's een vorm van gedecentraliseerd interactiviteitsbewustzijnOnline15.02.2024
Je AI-geliefde is onbetrouwbaar: onveilig en uit op geld
Doe het veiligCybercrime12.02.2024
Nieuwe techniek haalt door muren heen data van je camera’s
Cybercrime06.02.2024
Safer Internet Day: 5 tips om veiliger te internetten
Cybercrime05.02.2024
Consumenten bezuinigen op kosten, maar helaas ook op privacy en security
Online29.01.2024