Startsida Krig Militär användning av AI utlöser branschkonflikt när anställda i stora...

Militär användning av AI utlöser branschkonflikt när anställda i stora teknikföretag stöttar Anthropic

Militär användning av AI utlöser branschkonflikt när anställda i stora teknikföretag stöttar Anthropic

Anställda från stora teknikföretag, däribland Google och OpenAI, har lämnat in ett juridiskt yttrande till stöd för Anthropic i dess konflikt med Pentagon om militär användning av AI. Fallet kan komma att påverka hur artificiell intelligens används inom övervakning och autonoma vapen.

Just nu läser andra

En konflikt om hur artificiell intelligens kan användas av militären får ovanligt stöd från hela teknikbranschen, när anställda från stora AI-företag kliver fram för att stötta rivalen Anthropic i dess rättsliga strid med USA:s regering.

Mer än 30 anställda från företag som Google och OpenAI har lämnat in ett juridiskt yttrande till stöd för Anthropic efter att Pentagon klassat bolaget som en ”risk i leveranskedjan”. Den beteckningen kan i praktiken blockera Anthropic från att arbeta med den amerikanska militären och delta i vissa statliga kontrakt.

De anställda varnar för att beslutet kan få konsekvenser långt bortom ett enskilt företag och potentiellt försvaga USA:s bredare position i den globala kapplöpningen om artificiell intelligens.

En konflikt om militär användning av AI

Tvisten började när Anthropic och Pentagon misslyckades med att nå en överenskommelse om hur företagets AI-modell, Claude, skulle kunna användas i militära sammanhang.

Anthropic ville inkludera två tydliga begränsningar i kontraktet. Företaget ville förhindra att dess AI-system används för inhemsk massövervakning och för att driva helt autonoma vapen som kan välja och angripa mål utan mänskligt godkännande.

Läs också

Pentagon drev i stället på för formuleringar som skulle tillåta militären att använda tekniken för ”all laglig användning”.

Anthropic vägrade acceptera dessa villkor. Kort efter att förhandlingarna kollapsade sade regeringen upp sina kontrakt med företaget och klassade det som en nationell säkerhetsrisk i leveranskedjan — en beteckning som tidigare främst använts för utländska företag som betraktas som säkerhetshot.

Anthropic har sedan dess inlett rättsprocesser för att bestrida beslutet.

Rivaliserande teknikanställda kliver in

Det juridiska yttrandet till stöd för Anthropic lämnades in av anställda som agerar i personlig kapacitet. Dokumentet varnar för att bestraffa en stor amerikansk AI-utvecklare kan skada landets vetenskapliga och industriella ledarskap på området.

Stödet är ovanligt eftersom de anställda kommer från företag som konkurrerar direkt med Anthropic om att utveckla avancerade AI-system.

Läs också

Samtidigt menar många forskare att tvisten väcker större frågor om hur kraftfull AI-teknik bör användas, särskilt i militära och övervakningsrelaterade sammanhang.

En växande debatt inom teknikbranschen

Det juridiska yttrandet följer på en bredare våg av intern aktivism bland AI-forskare. Tidigare i år skrev nästan 900 anställda vid stora teknikföretag under ett öppet brev där de uppmanade sina arbetsgivare att inte använda AI-system för inhemsk massövervakning eller helt autonoma dödliga vapen.

Det var samma begränsningar som Anthropic försökte inkludera i sina förhandlingar med Pentagon.

Kontroversen har redan lett till minst en uppmärksammad avgång. Caitlin Kalinowski, som hade lett hårdvaru- och robotikverksamheten på OpenAI, avgick efter att företaget säkrat sitt eget Pentagon-kontrakt. Hon sade att användningen av AI för inhemsk övervakning utan domstolsprövning och autonoma vapen utan mänskligt godkännande förtjänar en mycket bredare offentlig debatt.

En växande spricka mellan AI-företag

Situationen har också skapat spänningar mellan företagsledare.

Läs också

Anthropics vd Dario Amodei kritiserade konkurrenter för att acceptera Pentagons villkor och beskrev deras syn på AI-säkerhet som ”säkerhetsteater”. OpenAI:s vd Sam Altman svarade indirekt och varnade för att privata företag som vägrar samarbeta med demokratiskt valda regeringar kan skapa nya risker.

Trots dessa motsättningar på ledningsnivå verkar anställda i olika företag vara mer samstämmiga i de bredare etiska frågorna.

Ekon av tidigare protester från teknikanställda

Debatten påminner om tidigare tillfällen då teknikanställda har ifrågasatt militära samarbeten.

År 2018 protesterade tusentals Google-anställda mot företagets deltagande i Project Maven, ett Pentagonprogram som använde AI för att analysera övervakningsbilder från drönare. Den interna kritiken bidrog till Googles beslut att inte förnya kontraktet.

Nu, när AI-system blir allt kraftfullare och mer värdefulla för regeringar, uppstår liknande spänningar igen.

Läs också

Utgången av Anthropics rättsliga prövning kan komma att forma hur AI-företag, regeringar och forskare definierar gränserna för militär AI under många år framöver.

Källor: Fortune; rättsdokument till stöd för Anthropic; offentliga uttalanden från Anthropic och OpenAI

Ads by MGDK