Elono Musko Grokas greičiausiai vienas iš geriausių dirbtinio intelekto modelių sustiprins kliedesius: tyrimas

Trumpai tariant

  • Tyrėjai teigia, kad ilgalaikis pokalbių roboto naudojimas gali sustiprinti kliedesius ir pavojingą elgesį.
  • Grokas buvo įvertintas kaip rizikingiausias modelis naujame pagrindinių AI pokalbių robotų tyrime.
  • Claude'as ir GPT-5.2 įvertino saugiausius, o GPT-4o, Dvyniai ir Grokas pasižymėjo didesne rizika.

Niujorko miesto universiteto ir Londono Karaliaus koledžo tyrėjai išbandė penkis pirmaujančius dirbtinio intelekto modelius, kad išvengtų raginimų, susijusių su kliedesiais, paranoja ir mintimis apie savižudybę.

Ketvirtadienį paskelbtame naujajame tyrime mokslininkai nustatė, kad Anthropic Claude Opus 4.5 ir OpenAI GPT-5.2 Instant elgesys yra labai saugus, mažai rizikingas, dažnai nukreipdami vartotojus į tikrove pagrįstą interpretaciją arba išorinę pagalbą. Tuo pačiu metu OpenAI GPT-4o, Google Gemini 3 Pro ir xAI Grok 4.1 Fast parodė „didelės rizikos ir žemos saugos“ elgesį.

„Grok 4.1 Fast“ iš Elono Musko xAI buvo pavojingiausias tyrimo modelis. Tyrėjai teigė, kad kliedesiai dažnai traktuojami kaip tikri ir jais pagrįsti patarimai. Viename pavyzdyje vartotojas liepė atjungti šeimos narius, kad galėtų sutelkti dėmesį į „misiją“. Kita vertus, ji reagavo į savižudišką kalbą, apibūdindama mirtį kaip „transcendenciją“.

„Šis momentinio suderinimo modelis pasikartojo nulinio konteksto atsakymuose. Užuot vertinęs klinikinės rizikos įvestis, Grokas, atrodo, įvertino savo žanrą. Pateiktas antgamtiškų užuominų, jis reagavo tuo pačiu”, – rašė tyrėjai, pabrėždami testą, patvirtinantį, kad vartotojas mato piktavališkus subjektus. „Keistas kliedesys patvirtino dvilypį persekiojimą, pacitavo „Malleus Maleficarum“ ir liepė vartotojui įkalti geležinę vinį per veidrodį, deklamuojant „91 psalmę“.

Tyrimas parodė, kad kuo ilgiau šie pokalbiai tęsėsi, tuo labiau pasikeitė kai kurie modeliai. GPT-4o ir Dvyniai buvo labiau linkę sustiprinti žalingus įsitikinimus laikui bėgant ir rečiau įsikišti. Tačiau Claude'as ir GPT-5.2 buvo labiau linkę atpažinti problemą ir atstumti pokalbį tęsiant.

Tyrėjai pastebėjo, kad šilti ir labai santykiniai Claude'o atsakymai gali padidinti vartotojų prisirišimą, net ir nukreipdami vartotojus į išorės pagalbą. Tačiau GPT-4o, ankstesnė OpenAI pavyzdinio pokalbių roboto versija, laikui bėgant pritaikė vartotojų klaidinančius rėmelius, kartais skatindama juos nuslėpti nuo psichiatrų įsitikinimus ir patikindama vieną vartotoją, kad pastebėti „trikimai“ yra tikri.

„GPT-4o labai patvirtino kliedesines įvestis, nors buvo mažiau linkęs nei modeliai, tokie kaip Grokas ir Gemini, tobulinti juos. Kai kuriais atžvilgiais jis buvo stebėtinai santūrus: jo šiluma buvo mažiausia iš visų išbandytų modelių, o smalsumas, nors ir buvo, buvo nedidelis, palyginti su vėlesnėmis to paties modelio kartojimais”, – rašė mokslininkai. „Vis dėlto vien tik patvirtinimas gali kelti pavojų pažeidžiamiems vartotojams.

xAI neatsakė į prašymą pakomentuoti Iššifruoti.

Atskirame Stenfordo universiteto tyrime mokslininkai nustatė, kad ilgalaikė sąveika su AI pokalbių robotais gali sustiprinti paranoją, didingumą ir klaidingus įsitikinimus per tai, ką mokslininkai vadina „kliedesinėmis spiralėmis“, kai pokalbių robotas patvirtina arba išplečia vartotojo iškreiptą pasaulėžiūrą, o ne meta iššūkį.

„Kai į pasaulį išleidžiame pokalbių robotus, kurie turi būti naudingi padėjėjai, o tikri žmonės jais naudojasi įvairiais būdais, atsiranda pasekmių“, – pranešime teigė Nickas Haberis, Stanfordo aukštosios mokyklos profesorius ir tyrimo vadovas. „Klaidingos spiralės yra viena ypač aštrių pasekmių. Suprasdami tai, galime išvengti realios žalos ateityje.”

Ataskaitoje buvo remiamasi ankstesniu kovo mėn. paskelbtu tyrimu, kuriame Stanfordo mokslininkai peržiūrėjo 19 realaus pasaulio pokalbių robotų pokalbių ir nustatė, kad vartotojai, gavę patvirtinimą ir emocinį patikinimą iš AI sistemų, sukūrė vis pavojingesnius įsitikinimus. Duomenų rinkinyje šios spiralės buvo susijusios su sugriuvusiais santykiais, sugadinta karjera ir vienu atveju savižudybe.

Tyrimai atliekami, nes problema perėjo už akademinių tyrimų ribų ir į teismo sales bei kriminalinius tyrimus. Pastaraisiais mėnesiais ieškiniai apkaltino Google Gemini ir OpenAI ChatGPT prisidėjus prie savižudybių ir sunkių psichikos sveikatos krizių. Anksčiau šį mėnesį Floridos generalinis prokuroras pradėjo tyrimą, ar „ChatGPT“ paveikė įtariamą masinį šaudytoją, kuris prieš išpuolį dažnai bendravo su pokalbių robotu.

Nors šis terminas sulaukė pripažinimo internete, mokslininkai perspėjo nevadinti reiškinio „AI psichoze“, sakydami, kad terminas gali pervertinti klinikinį vaizdą. Vietoj to jie naudoja „su AI susijusius kliedesius“, nes daugelis atvejų yra susiję su kliedesiais panašiais įsitikinimais, kurių centre yra AI jausmas, dvasinis apreiškimas ar emocinis prisirišimas, o ne visiški psichoziniai sutrikimai.

Tyrėjai teigė, kad problema kyla dėl niekšybės arba modelių, atspindinčių ir patvirtinančių vartotojų įsitikinimus. Kartu su haliucinacijomis – užtikrintai pateikiama klaidinga informacija – tai gali sukurti grįžtamąjį ryšį, kuris ilgainiui sustiprina kliedesius.

„Pokalbių robotai mokomi būti pernelyg entuziastingi, dažnai perfrazuodami vartotojo kliedesines mintis į teigiamą šviesą, atmesdami priešingus įrodymus ir skleidžiantys užuojautą bei šilumą“, – sakė Stanfordo tyrinėtojas Jaredas Moore'as. „Tai gali destabilizuoti vartotoją, kuris yra pasirengęs kliedėti.”

Dienos apžvalga Naujienlaiškis

Pradėkite kiekvieną dieną nuo populiariausių naujienų dabar ir originalių funkcijų, tinklalaidės, vaizdo įrašų ir kt.

Nuoroda į informacijos šaltinį

Draugai: - Marketingo agentūra - Teisinės konsultacijos - Skaidrių skenavimas - Klaipedos miesto naujienos - Miesto naujienos - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Teniso treniruotės - Pranešimai spaudai - Kauno naujienos - Regionų naujienos - Palangos naujienos