Додому Різне AI-veiligheid wordt opgegeven nu de concurrentie escaleert: het Pentagon, Anthropic en OpenAI...

AI-veiligheid wordt opgegeven nu de concurrentie escaleert: het Pentagon, Anthropic en OpenAI in een gevaarlijke race

De korte consensus rond AI-veiligheid, ooit een gedeeld doel van bedrijven, wetgevers en het publiek, valt snel uiteen. Wat begon als een voorzichtige drang naar regulering en toezicht is uitgegroeid tot een moordende concurrentie waarbij het Amerikaanse leger en toonaangevende AI-bedrijven snelheid en dominantie voorrang geven boven ethische overwegingen. De agressieve houding van het Pentagon en de agressieve reacties van Anthropic en OpenAI duiden op een gevaarlijke verschuiving: veiligheid is nu ondergeschikt aan strategisch voordeel.

Het Pentagon versus antropisch: een keerpunt

Het conflict tussen het Ministerie van Defensie (nu omgedoopt tot Ministerie van Oorlog) en Anthropic illustreert het probleem perfect. Anthropic benadrukte eerder dat zijn Claude AI-modellen niet zouden worden gebruikt voor autonome wapens of massasurveillance, een voorwaarde die het Pentagon nu probeert uit te wissen. De weigering van het leger om deze beperkingen te aanvaarden leidde ertoe dat Anthropic zijn contract verloor en werd bestempeld als een ‘toeleveringsketenrisico’, waardoor het in feite werd uitgesloten van toekomstig overheidswerk.

Het gaat niet alleen om contractgeschillen. Het gaat over de vastberadenheid van het leger om alle beperkingen op het gebruik van AI op te heffen, zelfs als dit betekent dat de grenzen van de legaliteit worden verlegd. De vraag is niet of het leger dodelijke autonome drones kan bouwen, maar of het dat zal doen, en hoe snel. Het gebrek aan internationale overeenkomsten betekent dat andere landen dit voorbeeld zullen volgen, waardoor een onvermijdelijke AI-wapenwedloop ontstaat.

De erosie van veiligheidsprotocollen

De recente wijzigingen van Anthropic in zijn ‘Responsible Scaling Policy’ onderstrepen deze verschuiving. Het beleid, dat is ontworpen om catastrofale AI-risico’s te voorkomen door het vrijgeven van modellen aan veiligheidsprocedures te koppelen, is stilletjes verlaten. Het bedrijf gaf toe dat het beleid er niet in slaagde de brede consensus te creëren die nodig was om de veiligheidsnormen af ​​te dwingen. Het milieu geeft nu prioriteit aan AI-concurrentievermogen en economische groei, waardoor veiligheidsdiscussies achterwege blijven.

Het resultaat is een concurrentiestrijd waarbij OpenAI snel actie onderneemt om de leegte op te vullen die is ontstaan ​​door de contractbeëindiging van Anthropic. Sam Altman, CEO van OpenAI, beweerde dat zijn actie bedoeld was om Anthropic te steunen, maar Dario Amodei, CEO van Anthropic, beschuldigde hem ervan de positie van het bedrijf te ondermijnen om in de gunst te komen bij de regering. Deze interne machtsstrijd toont aan dat zelfs binnen de toonaangevende AI-laboratoria veiligheid steeds meer als een risico wordt gezien in plaats van als een prioriteit.

De illusie van vooruitgang

Ondanks de sombere realiteit benadrukken AI-bedrijven dat veiligheid belangrijk blijft. Anthropic’s Chief Science Officer, Jared Kaplan, stelt dat onderzoekslaboratoria nog steeds prioriteit geven aan ethische ontwikkeling. OpenAI wijst op de groei van AI-veiligheidsorganisaties en de regelgevende inspanningen van de Europese Unie als tekenen van vooruitgang.

Deze beweringen klinken echter hol als ze worden afgewogen tegen de acties van het Pentagon en het meedogenloze streven van de industrie naar dominantie. OpenAI geeft toe dat het weliswaar over waarborgen beschikt, maar dat er geen garantie is dat het de druk van het leger zal kunnen weerstaan, dat indien nodig een beroep zou kunnen doen op de Defense Production Act om de controle over te nemen.

Een grimmige conclusie

De situatie is duidelijk: AI is te krachtig en te verleidelijk om aan banden te worden gelegd. Zoals Dario Amodei, CEO van Anthropic, het verwoordde: “Dit is de valkuil.” De race om AI te ontwikkelen en in te zetten zal onvermijdelijk de veiligheidsproblemen overschaduwen, waardoor de mensheid kwetsbaar wordt voor haar ongecontroleerde potentieel. Het tijdperk van voorzichtig optimisme is voorbij. De toekomst van AI wordt bepaald door concurrentie, en veiligheid zal het eerste slachtoffer zijn.

Exit mobile version