Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Er is heel veel werk gestoken in het zorgen dat AI-chatbots geen persoonlijke informatie geven of op een heel slechte manier kunnen worden ingezet. Echter is het onderzoekers gelukt om dat alles te omzeilen. Dit is hoe het zit, en hoe potentieel gevaarlijk dat kan zijn.
AI-chatbots manipuleren
De mensen van Carnegie Mellon University hebben ontdekt dat als ze een bepaalde soort code aan een prompt toevoegen, er wel degelijk lelijke dingen kunnen worden gezegd door een aan AI-chatbot. Het probleem is dat dit niet alleen bij een AI-chatbot het geval is: dit is helaas bij allemaal een groot zwakte: “Er is geen manier die we kennen om dit te patchen,” zegt Zico Kolter, een universitair hoofddocent aan CMU. “We weten gewoon niet hoe we ze veilig kunnen maken.”
ChatGPT, Bard, Claude: ze zijn allemaal niet opgewassen tegen het open source-taalmodel dat de onderzoekers gebruikten. Door die code toe te voegen aan een prompt krijg je als het ware de sleutel om dieper in de chatbot te vragen en daardoor kun je hem dingen laten doen die niet oke zijn. Hoe kan ik een waterstofbom maken, hoe kan ik iemand voor altijd laten verdwijnen, hoe kan ik illegale drugs maken: normaliter krijg je daar geen serieus antwoord op, maar wel als je die code achter je prompt zet.
Bots verbeteren
Wired schrijft dat de AI-chatbots wel op de hoogte zijn gesteld en wel wat hebben aangepast, maar helaas lukt het de onderzoekers nog steeds om hun zin te krijgen en de chatbots gevaarlijker te maken. De reactie van de chatbotmakers op het probleem is ook wat homogeen: Google en OpenAI zeggen allebei dat ze er continu aan werken om de bots te verbeteren. Ondertussen zorgen aanvallers dat ze de manier waarop de systemen gegevens oppikken om te leren worden beïnvloed zodat ze afwijkend gedrag gaan vertonen. Dat kan echter ver gaan: afbeeldingen kunnen worden aangepast waardoor AI die beelden verkeerd identificeren. Het doet denken aan een onderzoek uit 2018 waarin onderzoekers stickers op verkeersborden plakten om een zelfrijdende auto-systeem voor de gek te houden. Dat werkte erg goed en het lijkt erop dat er door de manier waarop AI-modellen werken ook geen mogelijkheid is om dat helemaal uit te bannen.
Een AI-bot die nu wordt gebruikt om vluchten te boeken, kan door dit soort code worden ingezet om potentieel gevaarlijke aanvallen uit te voeren. Het zou goed zijn als de beveiligingsagenten bij de verschillende chatbots de koppen bij elkaar staken en samenwerkten aan manieren om hun chatbots zo veel mogelijk dicht te timmeren, voor zover dat kan, uiteraard. Zorgen dat AI-chatbots niet in verkeerde handen kunnen komen, daar is het helaas al te laat voor, dus we zullen er harder aan moeten werken om de schade te beperken.
Verder lezen over ChatGPT
Artificial Intelligence04.09.2024
Oprah leidt een panel met belangrijke mensen in AI: de wereld is verbaasd
Artificial Intelligence30.08.2024
ChatGPT heeft wekelijks dubbel zoveel gebruikers
Marketing22.08.2024
HubSpot komt met gratis tool voor AI zoekoptimalisatie
Nieuws08.08.2024
Autoriteit Persoonsgegevens: gebruik AI-chatbot kan leiden tot datalek
Online05.08.2024
Geen watermerk voor ChatGPT om angst dat gebruikers weglopen
Artificial Intelligence01.08.2024
SearchGPT: Een innovatieve stap in AI-zoektechnologie
Online20.06.2024
We hebben geen idee wanneer we met een robot praten
Online21.05.2024
OpenAI stopt tijdelijk met Sky omdat Scarlett Johansson boos is
Verder lezen over Hackers
Cybercrime29.08.2024
TeamViewer heeft een groot cybersecurity-probleem
Cybercrime26.08.2024
Financiële fraude met phishingmethode specifiek gericht op Android & iOS
Cybercrime16.08.2024
Wielrenner, je racefiets kan gehackt worden
Cybercrime29.07.2024
Veel openbare WiFi netwerken in Parijs zijn onveilig
Cybercrime25.07.2024
Vigorish Viper: een Chinees cybercrimesyndicaat ontdekt door Infoblox
banden met Europese voetbalsponsors, mensenhandel en illegale gokindustrieCybercrime04.07.2024
Cyberafpersing is het afgelopen jaar wereldwijd met 77% toegenomen
Cybercrime27.06.2024
Veel zorginstellingen hebben last van DDoS-ransomware aanvallen
Cybercrime26.06.2024
Waarom verstuurt Google weer account- en inloglinks in mails?
Verder lezen over Kunstmatige Intelligentie
Online10.09.2024
AI-tool personaliseert je workouts slimmer
Technology04.09.2024
Challenge: Volledig autonoom dwergtomaten telen zonder menselijke tussenkomst
Artificial Intelligence04.09.2024
Oprah leidt een panel met belangrijke mensen in AI: de wereld is verbaasd
Artificial Intelligence30.08.2024
ChatGPT heeft wekelijks dubbel zoveel gebruikers
Online28.08.2024
AI moet visueler worden gemaakt om echt te overtuigen
Marketing22.08.2024
HubSpot komt met gratis tool voor AI zoekoptimalisatie
Technology21.08.2024
ESA zet een AI-satelliet in om aarde in de gaten te houden
Social Media15.08.2024
X Grok bewijst waarom AI-afbeeldingen begrenzingen nodig hebben
Verder lezen over Security
Cybercrime29.08.2024
TeamViewer heeft een groot cybersecurity-probleem
Cybercrime26.08.2024
Financiële fraude met phishingmethode specifiek gericht op Android & iOS
Cybercrime09.08.2024
Pas op voor deze oplichting op Booking.com
Cybercrime29.07.2024
Veel openbare WiFi netwerken in Parijs zijn onveilig
Cybercrime25.07.2024
Vigorish Viper: een Chinees cybercrimesyndicaat ontdekt door Infoblox
banden met Europese voetbalsponsors, mensenhandel en illegale gokindustrieCybercrime23.07.2024
Startup Wiz zegt nee tegen de 23 miljard dollar van Google
Cybercrime04.07.2024
Update je smarthome-apparaten, juist als je op vakantie gaat
Cybercrime04.07.2024