Ar dirbtinis intelektas išgelbės žmoniją – ar jį užbaigs?

Trumpai tariant

  • Internetinė panelė parodė, kad AGI tarp transhumanistų ir technologų labai skiriasi.
  • Autorius Eliezeris Yudkowsky perspėjo, kad dabartinės „juodosios dėžės“ AI sistemos padaro išnykimą neišvengiamu rezultatu.
  • Maxas More'as teigė, kad AGI atidėliojimas žmonijai gali kainuoti geriausią galimybę nugalėti senėjimą ir užkirsti kelią ilgalaikei katastrofai.

Šią savaitę iškilo staigus atotrūkis dėl dirbtinio intelekto ateities, kai keturi žinomi technologai ir transhumanistai diskutavo, ar dirbtinio bendrojo intelekto arba AGI kūrimas išgelbės žmoniją, ar ją sunaikins.

Į konferenciją, kurią surengė ne pelno organizacija „Humanity+“, susirinko vienas garsiausių AI „Doomers“ Eliezeris Yudkowsky, kuris paragino sustabdyti pažangų AI kūrimą, kartu su filosofu ir futuristu Maxu More'u, skaičiavimo neurologu Andersu Sandbergu ir „Humanity+“ prezidente emerite Natasha Vita-More.

Jų diskusija atskleidė esminius nesutarimus dėl to, ar AGI gali būti suderinta su žmogaus išlikimu, ar dėl jo atsiradimo išnykimas būtų neišvengiamas.

„Juodosios dėžės“ problema

Yudkowsky perspėjo, kad šiuolaikinės AI sistemos yra iš esmės nesaugios, nes jų vidinių sprendimų priėmimo procesų negalima visiškai suprasti ar kontroliuoti.

„Visa juodoji dėžė tikriausiai susidurs su nepaprastai panašiomis problemomis kaip ir dabartinės technologijos“, – perspėjo Yudkowsky. Jis teigė, kad žmonija turės „labai, labai toli nuo dabartinių paradigmų“, kad būtų galima saugiai sukurti pažangųjį AI.

Bendrasis dirbtinis intelektas reiškia AI formą, kuri gali mąstyti ir mokytis atliekant įvairias užduotis, o ne sukurta vienam darbui, pvz., teksto, vaizdo ar vaizdo įrašų generavimui. AGI dažnai siejama su technologinio išskirtinumo idėja, nes pasiekus tokį intelekto lygį mašinos galėtų tobulėti greičiau nei žmonės.

Yudkowsky atkreipė dėmesį į „sąvaržėlių maksimizatoriaus“ analogiją, kurią išpopuliarino filosofas Nickas Bostromas, norėdamas parodyti riziką. Minties eksperimentas apima hipotetinį dirbtinį intelektą, kuris visą turimą medžiagą paverčia sąvaržėlėmis, toliau fiksuodamas vieną tikslą žmonijos sąskaita. Yudkowsky teigimu, pridėjus daugiau tikslų, saugumas reikšmingai nepagerėtų.

Remdamasis savo neseniai išleistos knygos apie AI pavadinimą „Jei kas ją pastatys, visi miršta“, jis pasakė: „Mūsų pavadinimas nėra toks. gali galbūt tave nužudys, – sakė Yudkowsky. – Mūsų titulas yra toks, jei kas nors jį pastatys, visi miršta“.

Tačiau More'as ginčijo prielaidą, kad ypatingas atsargumas yra saugiausias rezultatas. Jis teigė, kad AGI gali suteikti žmonijai geriausią galimybę įveikti senėjimą ir ligas.

„Man svarbiausia, kad AGI galėtų padėti mums užkirsti kelią kiekvieno žmogaus, gyvenančio dėl senėjimo, išnykimui“, – teigė More. „Mes visi mirštame. Mes vienas po kito einame į katastrofą.” Jis perspėjo, kad per didelis suvaržymas gali pastūmėti vyriausybes link autoritarinės kontrolės, nes tai vienintelis būdas sustabdyti AI plėtrą visame pasaulyje.

Sandbergas atsidūrė tarp dviejų stovyklų, apibūdindamas save kaip „sanvinikiškesnį“, tačiau išliko atsargesnis už transhumanistus optimistus. Jis papasakojo asmeninę patirtį, kai beveik naudojo didelį kalbos modelį, kad padėtų sukurti biologinį ginklą, o epizodą jis apibūdino kaip „siaubingą“.

„Prieiname prie taško, kai piktybiškų veikėjų gausinimas taip pat sukels didžiulę netvarką“, – sakė Sandbergas. Vis dėlto jis teigė, kad dalinis arba „apytikslis saugumas“ gali būti pasiekiamas. Jis atmetė idėją, kad saugumas turi būti tobulas, kad būtų prasmingas, ir teigia, kad žmonės bent jau gali susiartinti su minimaliomis bendromis vertybėmis, tokiomis kaip išgyvenimas.

„Taigi, jei reikalaujate tobulos saugos, to negausite. Ir tai skamba labai blogai iš šios perspektyvos”, – sakė jis. „Kita vertus, manau, kad iš tikrųjų galime turėti apytikslį saugumą. Tai pakankamai gerai.”

Skepticizmas dėl lygiavimo

Vita-More kritikavo pačias platesnes derinimo diskusijas, teigdamas, kad ši koncepcija reiškia sutarimo lygį, kurio nėra net tarp ilgamečių bendradarbių.

„Suderinimo sąvoka yra Pollyanna schema“, – sakė ji. „Jis niekada nebus suderintas. Aš turiu galvoje, net ir čia, mes visi esame geri žmonės. Mes pažįstami vienas kitą dešimtmečius, bet nesame lygiaverčiai.”

Ji apibūdino Yudkowsky teiginį, kad AGI neišvengiamai nužudys visus, kaip „absoliutinį mąstymą“, nepaliekantį vietos kitiems rezultatams.

„Turiu problemų dėl didelio teiginio, kad visi miršta“, – sakė ji. „Žiūrint į tai kaip futuristo ir pragmatiško mąstytojo, tai nepalieka jokių pasekmių, jokios alternatyvos, jokio kito scenarijaus. Tai tik bukas tvirtinimas, ir man įdomu, ar tai atspindi tam tikrą absoliutinį mąstymą.”

Diskusijoje buvo diskutuojama, ar glaudesnė žmonių ir mašinų integracija galėtų sumažinti AGI keliamą riziką – ką anksčiau pasiūlė Tesla generalinis direktorius Elonas Muskas. Yudkowsky atmetė idėją sujungti su AI, palygindamas ją su „bandymu sujungti su jūsų skrudintuvu“.

Sandbergas ir Vita-More teigė, kad dirbtinio intelekto sistemoms augant vis daugiau galimybių, žmonėms reikės integruotis arba glaudžiau susilieti su jomis, kad galėtų geriau susidoroti su pasauliu po AGI.

„Visa ši diskusija yra tikrovės patikrinimas, kas mes esame žmonės“, – sakė Vita-More.

Dienos apžvalga Naujienlaiškis

Pradėkite kiekvieną dieną nuo populiariausių naujienų dabar ir originalių funkcijų, tinklalaidės, vaizdo įrašų ir kt.

Nuoroda į informacijos šaltinį

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -