Turinys:
ToggleTrumpai tariant
- Dario Amodei sako, kad Anthropic nepanaikins masinio vidaus stebėjimo ir visiškai autonominių ginklų draudimų.
- Pentagonas pagrasino nutraukti sutartį ir imtis veiksmų pagal Gynybos gamybos įstatymą.
- Konfliktas kilo po pranešimų, kad JAV kariuomenė panaudojo Claude'ą, kad sučiuptų buvusį Venesuelos prezidentą Nicolásą Maduro
„Anthropic“ generalinis direktorius Dario Amodei ketvirtadienį sakė, kad bendrovė nepašalins savo „Claude AI“ modelio apsaugos priemonių, paaštrindama ginčą su JAV Gynybos departamentu dėl to, kaip ši technologija gali būti naudojama įslaptintose karinėse sistemose.
Šis pareiškimas pateikiamas Gynybos departamentui peržiūrint savo santykius su „Anthropic“ ir pasveriant galimas pasekmes, įskaitant bendrovės 200 milijonų dolerių sutarties atšaukimą ir galimą gynybos gamybos įstatymo taikymą.
„Negalime ramia sąžine patenkinti jų prašymą“, – rašė Amodei, turėdamas omenyje sausio mėnesį Pentagono reikalavimą dirbtinio intelekto rangovams leisti naudoti savo sistemas „bet kokiam teisėtam naudojimui“.
Nors nuo to laiko Pentagonas reikalavo, kad dirbtinio intelekto pardavėjai priimtų standartinę „bet kokio teisėto naudojimo“ kalbą būsimuose susitarimuose, „Anthropic“ liko vienintelė pasienio dirbtinio intelekto įmonė, kuri priešinosi savo AI kontrolės perdavimui kariuomenei.
Trečiadienį, Axios pirmą kartą pranešė, kad Pentagonas paskelbė ultimatumą, reikalaujantį neriboto karinio Klodo naudojimo. Pranešama, kad terminas yra šios savaitės penktadienis.
„Departamento prerogatyva yra pasirinkti rangovus, labiausiai atitinkančius jų viziją“, – tęsė Amodei. „Tačiau, atsižvelgiant į didelę Anthropic technologijos teikiamą vertę mūsų ginkluotosioms pajėgoms, tikimės, kad jos persvarstys.
Savo pareiškime Amodei suformulavo įmonės poziciją, atitinkančią JAV nacionalinio saugumo tikslus.
„Aš giliai tikiu egzistencine AI naudojimo svarba ginant JAV ir kitas demokratijas bei nugalėti mūsų autokratinius priešus“, – sakė jis.
Jis pridūrė, kad Claude'as yra „plačiai dislokuotas Karo departamente ir kitose nacionalinio saugumo agentūrose žvalgybos analizei, modeliavimui ir modeliavimui, operacijų planavimui, kibernetinėms operacijoms ir kt.
Karas prieš AI
Ginčas kyla dėl platesnio susirūpinimo dėl to, kaip pažangios AI sistemos elgiasi itin svarbiuose kariniuose scenarijuose. Neseniai atliktame Londono King's College tyrime OpenAI GPT-5.2, Anthropic Claude Sonnet 4 ir Google Gemini 3 Flash panaudojo branduolinius ginklus 95 % imituotų geopolitinių krizių.
Sausio mėnesį SpaceX „Starbase“ Teksase sakydamas kalbą gynybos sekretorius Pete'as Hegsethas sakė, kad JAV kariuomenė planuoja dislokuoti pažangiausius dirbtinio intelekto modelius.
Tą patį mėnesį pasirodė pranešimų, kad Claude'as buvo panaudotas per JAV operaciją, skirtą sučiupti buvusį Venesuelos prezidentą Nicolásą Maduro anksčiau tą mėnesį. Amodei paneigė teiginius, kad Anthropic abejojo bet kokiomis konkrečiomis karinėmis operacijomis.
„Antropikas supranta, kad Karo departamentas, o ne privačios įmonės, priima karinius sprendimus“, – sakė jis. „Niekada nereiškėme prieštaravimų tam tikroms karinėms operacijoms ir nebandėme apriboti mūsų technologijų naudojimo ad hoc būdu.
Nepaisant to, Amodei teigė, kad šių sistemų naudojimas masiniam vidaus stebėjimui ar autonominiams ginklams yra nesuderinamas su demokratinėmis vertybėmis ir kelia rimtą pavojų.
„Šiandien pasienio AI sistemos tiesiog nėra pakankamai patikimos, kad galėtų maitinti visiškai autonominius ginklus“, – sakė jis. „Mes sąmoningai nepateiksime produkto, kuris keltų pavojų Amerikos kovotojams ir civiliams.
Jis taip pat atkreipė dėmesį į Pentagono grasinimą antropinę veiklą priskirti „tiekimo grandinės rizikai“, o taip pat galėjo remtis Gynybos gamybos įstatymu.
„Šios pastarosios dvi grėsmės iš esmės prieštarauja viena kitai: viena įvardija mus kaip pavojų saugumui, o kita – Klodą kaip esminį nacionaliniam saugumui“, – sakė jis.
Nors Amodei teigė, kad bendrovė nevykdys Pentagono reikalavimo, tuo pat metu Anthropic peržiūrėjo savo atsakingo mastelio keitimo politiką ir atsisakė pažado sustabdyti pažangių sistemų mokymą be garantuotų apsaugos priemonių.
Robertas Weissmanas, vienas iš „Public Citizen“ pirmininkų, sakė, kad Pentagono laikysena rodo didesnį spaudimą technologijų pramonei.
„Pentagonas viešai tyčiojasi iš Antropijos, o viešoji dalis yra tyčinė, nes jie nori daryti spaudimą šiai konkrečiai bendrovei ir nusiųsti žinią visoms didelėms technologijoms ir visoms korporacijoms, kad mes ketiname daryti ir imtis visko, ko norime ir netrukdome“, – sakė Weissmanas. Iššifruoti.
Weissmanas apibūdino „Anthropic“ apsauginius turėklus kaip „kuklus“ ir jomis siekiama užkirsti kelią „netinkamam amerikiečių stebėjimui arba palengvinti robotų žudikų, AI palaikytų ginklų, galinčių smogti mirtinus smūgius žmonėms, kūrimą ir dislokavimą“.
„Tai yra patys protingiausi ir kukliausi apsauginiai turėklai, kuriuos galite sugalvoti, kai kalbama apie šią galingą naują technologiją.
Kalbėdamas apie Pentagono grėsmę antropinę veiklą priskirti „tiekimo grandinės rizikai“, Weissmanas tai pavadino galimai triuškinančia vyriausybės nuobauda ir tvirtino, kad tai priverstų kitas dirbtinio intelekto įmones vengti panašių apribojimų.
„Asmenys gali naudoti Claude, bet nė viena iš AI įmonių, ypač Anthropic, neturi verslo modelių, pagrįstų individualiu naudojimu; jie ieško verslo“, – sakė jis. „Tai galimai triuškinama vyriausybės bausmė“.
Nors Pentagonas dar nepasakė, ar ketina įvykdyti savo grasinimus nutraukti sutartį ar remtis Gynybos gamybos įstatymu, Weissmanas sakė, kad Pentagonas AI įmonėms signalizuoja, kad tikisi neribotos prieigos prie jų technologijų, kai tik jos bus įdiegtos vyriausybės sistemose.
„Pentagono žinutė yra tokia: „Mes to netoleruosime ir tikimės, kad galėsime panaudoti technologiją tokia, kokia ji buvo išrasta, bet kokiam tikslui“, – sakė Weissmanas.
Gynybos ir antropijos departamentas ne iš karto sureagavo Iššifruoti prašymai komentuoti.
Dienos apžvalga Naujienlaiškis
Pradėkite kiekvieną dieną nuo populiariausių naujienų dabar ir originalių funkcijų, tinklalaidės, vaizdo įrašų ir kt.