Turinys:
ToggleTrumpai tariant
- TIME praneša, kad Anthropic atsisakė pažado sustabdyti mokymus be garantuotų apsaugos priemonių.
- OpenAI taip pat „saugiai“ pašalino savo misiją po restruktūrizavimo į pelno siekiančią įmonę.
- Ekspertai teigia, kad pokytis atspindi politinius, ekonominius ir intelektualinius pokyčius.
Remiantis pranešimu, Anthropic atsisakė pagrindinio saugumo įsipareigojimo iš savo atsakingo mastelio politikos LAIKAS. Pakeitimai panaikina įsipareigojimą, kuris kadaise Claude AI kūrėjui neleido mokyti pažangių AI sistemų be garantuotų apsaugos priemonių.
Šis žingsnis keičia įmonės poziciją AI lenktynėse su konkurentais OpenAI, Google ir xAI. „Anthropic“ jau seniai laikosi viena iš labiausiai į saugą orientuotų laboratorijų pramonėje, tačiau pagal peržiūrėtą politiką Anthropic nebežada sustabdyti mokymų, jei rizikos mažinimo priemonės nebus visiškai pritaikytos.
„Jautėme, kad niekam nepadėtų, jei nustotų mokyti dirbtinio intelekto modelius“, – sakė „Anthropic“ vyriausiasis mokslo pareigūnas Jaredas Kaplanas. LAIKAS. „Sparčiai tobulėjant dirbtiniam intelektui mes tikrai nejautėme, kad mums būtų prasminga prisiimti vienašalius įsipareigojimus… jei konkurentai veržiasi į priekį.
Pokyčiai įvyksta, kai Anthropic įsivėlė į viešą ginčą su JAV gynybos sekretorius Pete'as Hegsethas dėl atsisakymo suteikti Pentagoną visiška prieiga prie Claude, todėl ji yra vienintelė didelė AI laboratorija tarp Google, xAI, Meta ir OpenAI, kuri laikosi tokios pozicijos.
Edvardas Geistas, vyresnysis RAND korporacijos politikos tyrinėtojas, teigė, kad ankstesnis „AI saugos“ rėmas atsirado dėl konkrečios intelektualinės bendruomenės, kuri buvo anksčiau nei šiandien buvo dideli kalbos modeliai.
„Prieš kelerius metus buvo AI saugos sritis“, – pasakojo Geistas Iššifruoti. „AI saugumas buvo susijęs su tam tikru požiūrių rinkiniu, kuris kilo iš žmonių, kuriems rūpėjo galingas dirbtinis intelektas, kol neturėjome šių LLM, bendruomenės.
Geistas teigė, kad ankstyvieji dirbtinio intelekto saugos šalininkai dirbo remdamiesi labai skirtingomis vizijomis, kaip atrodys pažangus dirbtinis intelektas.
„Jie galų gale konceptualizavo problemą taip, kad tam tikrais atžvilgiais numatė kažką kokybiškai kitokio nei šių dabartinių LLM, geriau ar blogiau“, – sakė Geistas.
Geistas teigė, kad kalbos pakeitimas taip pat siunčia signalą investuotojams ir politikos formuotojams.
„Iš dalies tai signalizuoja įvairioms apygardoms, kad daugelis šių įmonių nori sudaryti įspūdį, kad jos nesilaiko ekonominėje konkurencijoje, nes nerimauja dėl dirbtinio intelekto saugumo“, – sakė jis ir pridūrė, kad pati terminija keičiasi, kad atitiktų laikus.
„Anthropic“ nėra vienintelis, peržiūrėjęs savo saugos kalbą.
Kas apibrėžia AI saugumą?
Naujausia ne pelno naujienų organizacijos ataskaita, Pokalbis, pažymėjo, kaip OpenAI taip pat pakeitė savo misijos pareiškimą 2024 m. IRS paraiškoje, pašalindama žodį „saugiai“.
Ankstesniame bendrovės pareiškime buvo pažadėta sukurti bendrosios paskirties dirbtinį intelektą, kuris „saugiai būtų naudingas žmonijai, nevaržomas poreikio gauti finansinę grąžą“. Atnaujintoje versijoje dabar teigiama, kad jos tikslas yra „užtikrinti, kad dirbtinis bendras intelektas būtų naudingas visai žmonijai“.
„Problema, susijusi su terminu AI saugumas, yra ta, kad niekas nežino, ką tai tiksliai reiškia“, – sakė Geistas. „Vėl AI saugos terminas taip pat buvo užginčytas.
Naujojoje „Anthropic“ politikoje akcentuojamos skaidrumo priemonės, pvz., „Pasienio saugos veiksmų planų“ ir reguliarių „rizikos ataskaitų“ skelbimas, ir teigiama, kad ji atidės plėtrą, jei manys, kad yra didelė katastrofos rizika.
Antropiniai ir OpenAI politikos pokyčiai atsiranda, kai įmonės siekia sustiprinti savo komercinę padėtį.
Anksčiau šį mėnesį „Anthropic“ teigė, kad surinko 30 milijardų dolerių, įvertindama apie 380 milijardų dolerių. Tuo pačiu metu „OpenAI“ baigia finansavimo etapą, remiamą „Amazon“, „Microsoft“ ir „Nvidia“, kuris gali siekti 100 mlrd.
„Anthropic“ ir „OpenAI“ kartu su „Google“ ir „xAI“ buvo sudarytos pelningomis vyriausybės sutartimis su JAV gynybos departamentu. Tačiau „Anthropic“ sutartis kelia abejonių, nes Pentagonas svarsto, ar nutraukti ryšius su dirbtinio intelekto įmone dėl skundų dėl prieigos.
Į sektorių įsiliejus kapitalui ir stiprėjant geopolitinei konkurencijai, Hamza Chaudhry, AI ir Nacionalinio saugumo vadovas iš Future of Life instituto, teigė, kad politikos pokytis atspindi besikeičiančią politinę dinamiką, o ne pasiūlymą dėl Pentagono verslo.
„Jei taip būtų, jie būtų tiesiog atsitraukę nuo to, ką Pentagonas pasakė prieš savaitę“, – sakė Chaudhry. Iššifruoti. „Dario (Amodei) nebūtų pasirodęs susitikti.
Vietoj to Chaudhry teigė, kad perrašymas atspindi lūžio tašką, kaip dirbtinio intelekto įmonės kalba apie riziką, kai didėja politinis spaudimas ir konkurencija.
„Anthropic dabar sako: „Žiūrėk, mes negalime nuolat kartoti saugumo, negalime besąlygiškai pristabdyti ir sieksime daug lengvesnio reguliavimo“, – sakė jis.
Dienos apžvalga Naujienlaiškis
Pradėkite kiekvieną dieną nuo populiariausių naujienų dabar ir originalių funkcijų, tinklalaidės, vaizdo įrašų ir kt.