Turinys:
ToggleTrumpai tariant
- „OpenAI“ teigia, kad „ChatGPT“ dabar gali geriau pastebėti savęs žalojimo ar smurto požymius vykstančių pokalbių metu.
- Atnaujinimas pateikiamas, kai bendrovė susiduria su ieškiniais ir tyrimais dėl teiginių, kad „ChatGPT“ netinkamai tvarkė pavojingus pokalbius.
- „OpenAI“ teigė, kad naujosios apsaugos priemonės remiasi laikinomis „saugos santraukomis“, o ne nuolatine atmintimi ar personalizavimu.
Ketvirtadienį „OpenAI“ paskelbė apie naujas saugos funkcijas, skirtas padėti „ChatGPT“ atpažinti didėjančios rizikos pokalbiuose požymius, nes įmonė susiduria su vis didėjančia teisine ir politine kontrole, kaip jos pokalbių robotas elgiasi su nelaimės ištiktais vartotojais.
Tinklaraščio įraše „OpenAI“ teigė, kad naujinimai pagerina „ChatGPT“ gebėjimą atpažinti įspėjamuosius ženklus, susijusius su savižudybe, savęs žalojimu ir galimu smurtu, analizuojant kontekstą, kuris vystosi laikui bėgant, o ne nagrinėjant kiekvieną pranešimą atskirai.
„Žmonės ateina į ChatGPT kiekvieną dieną pasikalbėti apie tai, kas jiems svarbu – nuo kasdienių klausimų iki asmeniškesnių ar sudėtingesnių pokalbių“, – rašė bendrovė. „Per šimtus milijonų bendravimo atvejų kai kuriuose iš šių pokalbių dalyvauja žmonės, kuriems sunku ar išgyvena nelaimę.
„OpenAI“ teigimu, „ChatGPT“ dabar naudoja laikinas „saugos santraukas“, kurias apibūdino kaip siauros apimties pastabas, kuriose užfiksuotas atitinkamas su sauga susijęs kontekstas iš ankstesnių pokalbių.
„Jautriuose pokalbiuose kontekstas gali būti toks pat svarbus kaip ir vienas pranešimas“, – rašė bendrovė. „Prašymas, kuris pats savaime atrodo įprastas ar dviprasmiškas, gali turėti labai skirtingą reikšmę, kai žiūrima kartu su ankstesniais nelaimės ar galimų žalingų ketinimų požymiais.
„OpenAI“ teigė, kad santraukos yra trumpalaikės pastabos, naudojamos tik rimtose situacijose, o ne visam laikui prisiminti vartotojus ar suasmeninti pokalbius, ir yra naudojamos norint pastebėti požymius, kad pokalbis tampa pavojingas, vengiant pateikti žalingos informacijos, deeskaluoti situaciją arba nukreipti naudotojus į pagalbą.
„Šiame darbe sutelkėme dėmesį į ūmius scenarijus, įskaitant savižudybę, savęs žalojimą ir žalą kitiems“, – rašė jie. „Dirbdami su psichikos sveikatos ekspertais atnaujinome savo modelių politiką ir mokymus, kad pagerintume ChatGPT gebėjimą atpažinti pokalbio metu atsirandančius įspėjamuosius ženklus ir panaudoti šį kontekstą, kad informuotume apie kruopštesnius atsakymus.
Pranešimas paskelbtas, nes OpenAI susiduria su daugybe ieškinių ir tyrimų, kuriuose teigiama, kad ChatGPT tinkamai nereagavo į pavojingus pokalbius, susijusius su smurtu, emociniu pažeidžiamumu ir rizikingu elgesiu.
Balandį Floridos generalinis prokuroras Jamesas Uthmeieris pradėjo OpenAI tyrimą, susijusį su susirūpinimu dėl vaikų saugumo, savęs žalojimo ir 2025 m. masinio šaudymo Floridos valstijos universitete. OpenAI taip pat susiduria su federaliniu ieškiniu, teigiančiu, kad ChatGPT padėjo įtariamam užpuolikui įvykdyti išpuolį.
Antradienį OpenAI ir generalinį direktorių Samą Altmaną Kalifornijos valstijos teisme padavė 19-mečio studento šeima, kuri mirė nuo atsitiktinio perdozavimo, o ieškinyje teigiama, kad ChatGPT skatino pavojingų narkotikų vartojimą ir patarė maišyti medžiagas.
OpenAI teigė, kad padėti ChatGPT atpažinti „riziką, kuri paaiškėja tik laikui bėgant“, tebėra nuolatinis iššūkis; panašūs saugos metodai ilgainiui galėtų plisti į kitas sritis.
„Šiandien šiame darbe pagrindinis dėmesys skiriamas savęs žalojimo ir žalos kitiems scenarijams. Ateityje galime ištirti, ar panašūs metodai gali padėti kitose didelės rizikos srityse, tokiose kaip biologija ar kibernetinė sauga, taikant kruopščias apsaugos priemones”, – rašė jie. „Tai tebėra nuolatinis prioritetas, todėl toliau stiprinsime apsaugos priemones, kai vystysis mūsų modeliai ir supratimas.
Dienos apžvalga Naujienlaiškis
Pradėkite kiekvieną dieną nuo populiariausių naujienų dabar ir originalių funkcijų, tinklalaidės, vaizdo įrašų ir kt.