Apie autorių
Marko Stokic yra AI vadovas „Oasis Protocol“ fonde, kur jis dirba su komanda, orientuota į pažangiausių AI programų, integruotų į „blockchain“ technologiją, kūrimą. Turėdamas verslo patirtį, Marko susidomėjimą kriptovaliuta 2017 m. Sukėlė „Bitcoin“ ir pagilino per savo patirtį per 2018 m. Rinkos katastrofą. Jis įgijo magistro laipsnį ir įgijo patirties rizikos kapitale, daugiausia dėmesio skirdamas įmonių AI pradedantiesiems, prieš pereidama prie decentralizuotos tapatybės startuolio, kur sukūrė privatumą išsaugojančius sprendimus. „Oasis“ jis susilieja su strategine įžvalga su techninėmis žiniomis, kad pasisakytų už decentralizuotą AI ir konfidencialų skaičiavimą, mokytų rinką apie unikalias Oazės galimybes ir skatintų partnerystę, įgalinančią kūrėjus. Kaip įtraukiantis viešas pranešėjas, Marko dalijasi įžvalgomis apie AI, privatumo ir saugumo ateitį pramonės renginiuose, nustatant Oazę kaip atsakingos AI inovacijų lyderę.
Ilgai prieš šimtus milijonų vartotojų „ChatGPT“ pavertė viena populiariausių pasaulyje programų per 2022 m. Savaites, mes kalbėjome apie AI potencialą padaryti mus sveikesnius ir savo gyvenimą ilgiau.
Aštuntajame dešimtmetyje Stanfordo komanda sukūrė „Mycin“ – vieną iš pirmųjų AI sistemų, skirtų padėti medicininei diagnozei nustatyti. Mycinas naudojo maždaug 600 taisyklių žinių bazę bakterijoms, sukeliančioms infekcijas, ir rekomendavo antibiotikus.
Nors tai pralenkė žmonių ekspertus tyrimuose, mycinas niekada nebuvo naudojamas klinikinėje praktikoje – iš dalies dėl etinių ir teisinių problemų dėl mašinų vadovaujamos diagnozės.
Greitai į priekį penkis dešimtmečius, o AI dabar yra pasirengusi pakeisti sveikatos priežiūrą tokiu būdu, kuris atrodė kaip mokslinė fantastika Mycino epochoje. Šiandien šiuolaikinė AI gali Išmokykite save pastebėti ligas Medicininiuose vaizduose taip pat ir klinikų gydytojai ir be daugybės mokymo duomenų. A Harvardo tyrimas Dėl AI-pagalbinės vėžio diagnozės parodė 96%tikslumą.
Gerina diagnozes
JK aptikta AI sistema 11 krūties vėžio požymių kurių praleido žmonių gydytojai. Du atskiri tyrimai, vienas iš „Microsoft“ Ir kitas iš Imperijos kolegijarado daugiau krūties vėžio atvejų nei radiologai. Panašūs rezultatai buvo pastebėti nustatant AI Prostatos vėžysAr Odos vėžysir kitos sąlygos.
Mūsų prieiga prie duomenų niekada nebuvo didesnė. Kaip pavyzdys, Nacionalinė sveikatos tarnyba JK – didžiausiame Europos darbdavys – kartu turi prieigą prie daugiau nei 65 milijonų pacientų vertės suskaitmenintų duomenų, įvertintų įvertinta, įvertinta. Per metus virš 9,6 milijardo svarų sterlingų (12,3 milijardo dolerių).
Tai yra precedento neturintis galimybė AI atpažinti modelius ir generuoti įžvalgas, kurios galėtų radikaliai pagerinti diagnozę, gydymą ir narkotikų atradimą.
AI gebėjimas aptikti subtilius modelius didžiuliuose duomenų rinkiniuose yra viena didžiausių jos sveikatos priežiūros stipriųjų pusių. Šios sistemos gali išanalizuoti ne tik medicininius vaizdus, bet ir genominius duomenis, elektroninius sveikatos įrašus, klinikines pastabas ir dar daugiau – taškų koreliacijas ir rizikos veiksnius, kurie gali išvengti patyrusių žmonių gydytojų.
Kai kurie žmonės gali jaustis patogiau su AI agentu, tvarkančiu savo sveikatos priežiūros duomenis, nei žmogus, tiesiogiai nedalyvaujantis jų priežiūroje. Tačiau klausimas yra susijęs tik su tuo, kas mato duomenis – tai yra apie tai, kaip nešiojamasis tai tampa.
PG modeliai, sukurti už patikimų sveikatos priežiūros įstaigų ribų, kelia naują riziką. Nors ligoninės jau gali apsaugoti pacientų duomenis, pasitikėti išorinėmis AI sistemomis reikia patikimesnės privatumo apsaugos, kad būtų išvengta netinkamo naudojimo ir užtikrintų, kad duomenys išliktų saugūs.
Privatumo iššūkiai AI sveikatos priežiūros srityje
Verta paminėti, kad potencialas kyla dėl didelių privatumo ir etinių problemų.
Sveikatos priežiūros duomenys yra bene jautriausia asmeninė informacija, kuri egzistuoja. Tai gali atskleisti ne tik mūsų sveikatos būklę, bet ir elgesį, įpročius ir genetinį polinkį.
Yra pagrįstų baimių, kad plačiai pritaikant AI sveikatos priežiūrai, gali būti pažeista privatumas, duomenų pažeidimai ar netinkamas intymios asmeninės informacijos naudojimas.
Net anoniminiai duomenys nėra automatiškai saugūs. Išplėstiniai AI modeliai parodė nerimą keliantį sugebėjimą panaikinti apsaugotus duomenų rinkinius kryžminiu būdu nurodant kitą informaciją. Taip pat yra rizika „Modelio inversija“ išpuoliaikur kenksmingi veikėjai gali rekonstruoti privataus mokymo duomenis pakartotinai užklausę AI modelį.
Šie rūpesčiai nėra hipotetiniai. Jie atspindi realias kliūtis priimti AI sveikatos priežiūros paslaugas, potencialiai sulaikančias gyvybės gelbėjimo naujoves. Pacientai gali nenorėti dalytis duomenimis, jei nepasitiki privatumo apsaugos priemonėmis.
Nors standartai ir reglamentai reikalauja geografinės ir demografinės duomenų, naudojamų AI modeliams mokyti, dalijimasis duomenimis tarp sveikatos priežiūros įstaigų reikia konfidencialumo, nes duomenys, be to, kad jie yra labai jautrūs, turi sveikatos priežiūros institucijų įžvalgos aplink diagnozes ir gydymą.
Tai sukelia institucijų atsargumą, dalijantis duomenimis iš reguliavimo, intelektinės nuosavybės ir klaidų.
Privatumą išsaugojančios AI ateitį
Laimei, siekiant išspręsti šiuos iššūkius, atsiranda nauja privatumą išsaugojusi PG vystymosi banga. Decentralizuoti AI metodai, tokie kaip federacinis mokymasis, leidžia mokyti AI modelius paskirstytuose duomenų rinkiniuose, nenusimenant neskelbtinos informacijos.
Tai reiškia, kad ligoninės ir tyrimų įstaigos gali bendradarbiauti kuriant PG plėtrą, tiesiogiai nesidalijant pacientų duomenimis.
Kiti perspektyvūs metodai apima diferencinį privatumą, kuris prideda statistinį triukšmą duomenims, siekiant apsaugoti individualias tapatybes, ir homomorfinis šifravimas, kuris leidžia skaičiavimus atlikti užšifruotuose duomenyse neišmetant jų.
Kitas intriguojantis vystymasis yra mūsų vykdymo laiko ne grandinės logikos (ROFL) sistema, leidžianti AI modeliams atlikti skaičiavimus ne grandinėje, išlaikant tikrinimą. Tai galėtų leisti sudėtingesnėms AI sveikatos priežiūros programoms panaudoti išorinius duomenų šaltinius ar perdirbimo galią nepakenkiant privatumui ar saugumui.
Privatumo išsaugojimo technologijos vis dar yra jų ankstyvosiose stadijose, tačiau visos jos nurodo ateitį, kurioje galime panaudoti visą AI galią sveikatos priežiūros srityje, neprarandant pacientų privatumo.
Turėtume siekti pasaulio, kuriame AI gali išanalizuoti jūsų visą ligos istoriją, genetinį profilį ir net realaus laiko duomenis apie sveikatą iš nešiojamų prietaisų, išlaikydami šią neskelbtiną informaciją užšifruotą ir saugų.
Tai leistų labai suasmenintiems sveikatos įžvalgoms, neturintiems jokio vieno subjekto, turinčio prieigą prie žaliavinių pacientų duomenų.
Ši privatumo išsaugojimo AI vizija sveikatos priežiūros srityje nėra vien tik asmens teisių apsauga, nors tai tikrai svarbu. Tai taip pat yra apie viso AI potencialo panaudojimą pagerinti žmonių sveikatą ir tokiu būdu, kuris liepia pagarbą pacientams, kuriuos ji gydo.
Sukūrę sistemas, kuriomis pacientai ir sveikatos priežiūros paslaugų teikėjai gali pasitikėti, galime paskatinti didesnį dalijimąsi duomenimis ir bendradarbiavimu, dėl ko gali būti galingesnių ir tikslių AI modelių.
Iššūkiai yra reikšmingi, tačiau galimas atlygis yra didžiulis. Privatumą išsaugojanti PG galėtų padėti mums anksčiau nustatyti ligas, sukurti veiksmingesnį gydymą ir galiausiai sutaupyti daugybę gyvybių ir atrakinti pasitikėjimo gręžinį.
Tai taip pat galėtų padėti išspręsti sveikatos priežiūros skirtumus, leidžiant kurti AI modelius, kurie mokomi įvairių, reprezentatyvių duomenų rinkinių, nepakenkiant individualiam privatumui.
Kai AI modeliai tampa tobulesni, o AI orientuotos diagnozės tampa greitesnės ir tikslesnės, instinktas juos naudoti taps neįmanoma ignoruoti. Svarbu tai, kad mes mokome juos saugoti savo paslaptis.
Redagavo Sebastianas Sinclairis
Paprastai protingas Informacinis biuletenis
Savaitės AI kelionė, kurią pasakojo generacinis AI modelis.