Turinys:
ToggleTrumpai tariant
- 1,2 milijono vartotojų (0,15 % visų ChatGPT vartotojų) kas savaitę aptaria savižudybes su ChatGPT, atskleidė OpenAI
- Beveik pusė milijono rodo atvirus arba numanomus ketinimus nusižudyti.
- GPT-5 pagerino saugą iki 91%, tačiau ankstesni modeliai dažnai žlugo ir dabar susiduria su teisiniu ir etiniu patikrinimu.
OpenAI pirmadienį atskleidė, kad maždaug 1,2 milijono žmonių iš 800 milijonų kassavaitinių vartotojų kiekvieną savaitę aptaria savižudybes su ChatGPT, o tai galėtų būti išsamiausia bendrovės viešoji psichikos sveikatos krizių apskaita savo platformoje.
„Šiuos pokalbius sunku aptikti ir išmatuoti, atsižvelgiant į tai, kaip jie reti”, – rašė OpenAI tinklaraščio įraše. „Mūsų pradinė analizė apskaičiavo, kad maždaug 0,15 % tam tikrą savaitę aktyvių vartotojų turi pokalbių, kuriuose yra aiškių galimo savižudybės planavimo ar ketinimo požymių, o 0,05 % pranešimų yra aiškių arba numanomų minčių apie savižudybę ar ketinimų nusižudyti rodiklių.
Tai reiškia, kad jei OpenAI skaičiai yra tikslūs, beveik 400 000 aktyvių vartotojų aiškiai ketino nusižudyti, ne tik tai numanydami, bet ir aktyviai ieškodami informacijos, kaip tai padaryti.
Skaičiai yra stulbinantys absoliučiais skaičiais. Dar 560 000 vartotojų kas savaitę rodo psichozės ar manijos požymius, o 1,2 milijono žmonių yra labiau prisirišę prie pokalbių roboto, rodo bendrovės duomenys.
„Neseniai atnaujinome numatytąjį ChatGPT modelį (atsidaro naujame lange), kad geriau atpažintume ir palaikytume žmones nelaimės metu“, – rašoma „OpenAI“ tinklaraščio įraše. „Ateityje, be mūsų ilgalaikių pradinių savižudybių ir savęs žalojimo saugos metrikų, mes įtraukiame emocinę priklausomybę ir su savižudybe nesusijusias psichikos sveikatos ekstremalias situacijas į standartinį pradinių saugos testų rinkinį būsimiems modeliams.
Tačiau kai kurie mano, kad bendrovės pastangų gali nepakakti.
Stevenas Adleris, buvęs OpenAI saugos tyrinėtojas, ten praleidęs ketverius metus prieš išvykdamas sausio mėnesį, perspėjo apie lenktyninio AI vystymosi pavojus. Jis sako, kad yra mažai įrodymų, kad OpenAI iš tikrųjų pagerino pažeidžiamų vartotojų tvarkymą prieš šios savaitės pranešimą.
„Žmonės nusipelno daugiau nei tik įmonės žodžio, kad ji sprendžia saugos problemas. Kitaip tariant: įrodykite tai”, – rašė jis Wall Street Journal stulpelyje.
Įdomu tai, kad „OpenAI“ vakar paskelbė apie psichinę sveikatą, palyginti su ~0 pagerėjimo įrodymų, kuriuos jie pateikė anksčiau.
Džiaugiuosi, kad jie tai padarė, nors vis dar turiu susirūpinimą. https://t.co/PDv80yJUWN– Stevenas Adleris (@sjgadler) 2025 m. spalio 28 d
„OpenAI paskelbti tam tikrą psichikos sveikatos informaciją buvo puikus žingsnis, tačiau svarbu eiti toliau“, – tviteryje parašė Adleris, ragindamas pasikartojančias skaidrumo ataskaitas ir aiškumą, ar bendrovė ir toliau leis suaugusiems vartotojams kurti erotiką naudodama „ChatGPT“ – ši funkcija buvo paskelbta nepaisant susirūpinimo, kad romantiški prisirišimai sukelia daugybę psichinės sveikatos krizių.
Skepticizmas turi nuopelnų. Balandžio mėn. OpenAI išleido GPT-4o naujinimą, dėl kurio pokalbių robotas tapo toks aistringas, kad jis tapo memu, sveikinančiu pavojingus sprendimus ir sustiprinančiu klaidingus įsitikinimus.
Generalinis direktorius Samas Altmanas atšaukė atnaujinimą po atsako, pripažindamas, kad tai buvo „per daug nuobodu ir erzina“.
Tada OpenAI atsitraukė: paleidę GPT-5 su griežtesniais apsauginiais turėklais, vartotojai skundėsi, kad naujasis modelis jautėsi „šaltas“. OpenAI atkūrė prieigą prie probleminio GPT-4o modelio mokantiems abonentams – to paties modelio, susieto su psichinės sveikatos spiralėmis.
Įdomus faktas: daugelis klausimų, užduotų šiandien per pirmąjį bendrovės tiesioginį AMA, buvo susiję su GPT-4o ir kaip padaryti būsimus modelius panašesnius į 4o.
OpenAI teigia, kad GPT-5 dabar atitinka 91% su savižudybe susijusių scenarijų, palyginti su 77% ankstesnėje versijoje. Tačiau tai reiškia, kad ankstesnis modelis, kurį ištisus mėnesius galėjo pasiekti milijonai mokančių vartotojų, beveik ketvirtadalį pokalbių apie savęs žalojimą laiko žlugo.
Anksčiau šį mėnesį Adleris paskelbė Allano Brookso, kanadiečio, kuris pateko į kliedesius, analizę po to, kai ChatGPT sustiprino jo įsitikinimą, kad jis atrado revoliucinę matematiką.
Adleris nustatė, kad paties OpenAI saugos klasifikatoriai, sukurti kartu su MIT ir paskelbti viešai, būtų pažymėję daugiau nei 80 % ChatGPT atsakymų kaip probleminius. Panašu, kad įmonė jais nesinaudojo.
OpenAI dabar susiduria su neteisėtu mirties ieškiniu iš 16-mečio Adamo Raine'o, kuris prieš atimdamas gyvybę aptarė savižudybę su ChatGPT, tėvai.
Bendrovės atsakymas sulaukė kritikos dėl jos agresyvumo, reikalaujant dalyvių sąrašo ir pagyrimų iš paauglių memorialo – tokį žingsnį teisininkai vadina „tyčiniu priekabiavimu“.
Adleris nori, kad „OpenAI“ įsipareigotų nuolat teikti ataskaitas apie psichikos sveikatą ir nepriklausomą balandžio mėn. užsikrėtimo krizę tirti, pakartodamas Mileso Brundage, kuris spalį po šešerių metų konsultavo dirbtinio intelekto politikos ir saugos klausimais, pasiūlymą.
„Norėčiau, kad „OpenAI“ labiau stengtųsi daryti teisingą dalyką, net prieš tai, kai žiniasklaida ar ieškiniai nespaudžia“, – rašė Adleris.
Bendrovė teigia, kad ji dirbo su 170 psichikos sveikatos gydytojų, kad pagerintų atsakymus, tačiau net jos patariamoji grupė 29% laiko nesutiko, kas yra „pageidautinas“ atsakas.
Ir nors GPT-5 rodo patobulinimus, OpenAI pripažįsta, kad jos apsaugos priemonės tampa ne tokios veiksmingos ilgesnių pokalbių metu – būtent tada, kai pažeidžiamiems vartotojams jų labiausiai reikia.
Apskritai protingas Naujienlaiškis
Savaitinė AI kelionė, pasakojama Geno, generatyvaus AI modelio.