anthropic

Anthropic gooit zijn veiligheidsbelofte uit het raam

Online26 feb , 12:23doorLaura Jenny
Een van de bekendste AI-bedrijven van de wereld heeft er zojuist voor gekozen om zijn veiligheidsbelofte weg te halen. Het zou onder andere komen omdat de Verenigde Staten zijn AI, Claude, wil gebruiken voor defensie. Dat gebeurt wel vaker, want xAI werkt ook met het Pentagon, maar het heeft in dit geval dus ook invloed op de gebruiker.

Claude

Claude is een enorm populaire AI-tool en zou bijna 20 miljoen maandelijks actieve gebruikers hebben. De app is gestart door Daniela Amodei en Dario Amodei, die in eerste instantie bij OpenAI werkten. Toen Microsoft serieuzer aan de slag ging met OpenAI werd het ze iets te heet onder de voeten. Ze waarschuwden dat iedereen voorzichtig moet omgaan met mogelijk gevaarlijke AI.
In dat licht is het dus opvallend dat het duo juist Claude minder veilig maakt. Het haalt de veiligheidsbelofte uit zijn beleid. Hierin stond dat het nooit een AI-systeem zou trainen als het niet vooraf kon garanderen dat de veiligheidmaatregelen van een organisatie oké zijn. Het is een harde regel geweest voor Anthropic, maar het zit het bedrijf nu toch te veel in de weg. En zeker als concurrenten er wel helemaal voor gaan, dan begint een bedrijf achter te lopen.

Defensie

Of het helemaal vanuit Anthropic zelf komt is de vraag. De Amerikaanse regering wil graag met Claude werken, maar zegt dat als Anthropic die beperking laat bestaan, het met maatregelen zal komen waaronder de beëindiging van het contract. Ook zou het bedrijf op een zwarte lijst kunnen komen te staan. Niet per se de meest positieve manier om samen te werken, maar het zegt wel iets over de kwaliteiten die Anthropic bezit. Tegelijkertijd werkt defensie met wel meer bedrijven samen, zo ook Google. Althans dat is wel het plan.
Deel dit bericht

Loading