Sveikatos priežiūros pramonės suderinimas su AI modelių kortelėmis ir kitomis naujovėmis
Nuo sutarimo dėl atsakingo dirbtinio intelekto apibrėžimo siekimo iki pusiau autonominio dirbtinio intelekto naudojimo atvejų, pramonė ir vyriausybė siekia bendrų vertybių, net ir šiais poliarizuotais laikais, kai artėjame į 2025 m., sako sveikatos priežiūros AI generalinis direktorius Brianas. Andersonas.
„Mums reikia, kad mūsų politikos formuotojai ir reguliavimo pareigūnai suprastų tokias privačiame sektoriuje kuriamas sistemas apie tai, kaip atsakingas dirbtinis intelektas atrodo sveikatos srityje, o tada sukurtų su tuo susijusias reguliavimo sistemas“, – paaiškino Andersonas. Sveikatos priežiūros IT naujienos.
Sutapimas iki šiol
Technologijų pramonė ir federalinės sveikatos priežiūros reguliavimo agentūros daug galvojo apie dirbtinio intelekto modelių korteles arba „AI mitybos etiketes“ – suprantamą komunikacijos formą, naudojamą siekiant nustatyti pagrindinius AI modelio kūrimo aspektus vartotojams.
Ketvirtadienį, kai CHAI išleido atvirojo kodo savo AI modelio kortelės projektą, kalbėjomės su Andersonu apie naujausią koalicijos patirtį ir jo įžvalgas apie tai, kas gali būti netolimoje ateityje kuriant viešąją ir privačią sistemą, skirtą saugiai skleisti sveikatos priežiūros AI.
„Puiku matyti suderinimą tarp to, kur eina privataus sektoriaus inovacijų bendruomenė ir kur eina viešojo sektoriaus reguliavimo bendruomenė“, – sakė jis.
Nors CHAI šį mėnesį ieško atsiliepimų apie savo atvirojo kodo pavyzdinės kortelės juodraštį, kuris „ateina iš“ Nacionalinio sveikatos priežiūros technologijų koordinatoriaus biuro Sveikatos duomenų, technologijų ir sąveikumo: sertifikavimo programos atnaujinimai, algoritmų skaidrumo ir informacijos taisyklės – su planą išleisti atnaujinimą kažkada per ateinančius šešis mėnesius, Andersonas teigė, kad tikisi, kad įvairios reguliavimo institucijos judės ta pačia kryptimi ir toliau.
Konkrečiai, jis nurodė tam tikrą AI reikalavimų suderinimą su medicinos prietaisų reguliavimo institucijomis.
Anksčiau šią savaitę JAV maisto ir vaistų administracija įtraukė savanoriškos dirbtinio intelekto modelio kortelės pavyzdį į viso produkto gyvavimo ciklo rekomendacijų projektą – projektavimą, kūrimą, priežiūrą ir dokumentaciją – įrenginiams, kuriuose veikia dirbtinis intelektas.
„Vienas įdomiausių dalykų žiūrint į FDA modelio kortelės pavyzdį ir, žinoma, į ONC HTI-1 taisyklę, yra tai, kad CHAI modelio kortelė labai gerai suderinta su abiem“, – sakė Andersonas.
Pasak FDA, pavyzdinė AI palaikančių medicinos prietaisų kortelė gali išspręsti komunikacijos iššūkius teikiant svarbią informaciją sveikatos priežiūros vartotojams – pacientams, gydytojams, reguliavimo institucijoms ir tyrėjams – ir visuomenei.
„Moksliniai tyrimai parodė, kad modelio kortelės naudojimas gali padidinti vartotojų pasitikėjimą ir supratimą”, – sakė FDA savo gairių projekte. „Jie yra priemonė nuosekliai apibendrinti pagrindinius AI palaikančių įrenginių aspektus ir gali būti naudojami glaustai apibūdinti jų charakteristikas, našumą ir apribojimus.”
Kaip vienas sveikatos priežiūros dirbtinio intelekto reguliavimo pavyzdys, tai rodo, kur FDA reguliuotojai siekia sukurti pasitikėjimą dirbtinio intelekto naudojimu.
„Tačiau privataus ir viešojo sektoriaus suinteresuotųjų šalių grupės turi bendradarbiauti, informuodamos viena kitą“, – sakė Andersonas.
Paklaustas, jis atkreipė dėmesį į būsimą administraciją: „Kiekvienas lyderis, su kuriuo kalbėjausi Senate ir Atstovų Rūmuose, yra labai suinteresuotas suprasti, kaip jie gali bendradarbiauti viešojo ir privačiojo sektorių partnerystėje su tokiomis organizacijomis kaip CHAI“.
Atsivėrus durims tęsti griežtesnes sveikatos priežiūros dirbtinio intelekto užduotis, pvz., vyriausybės ir pramonės suderinimą su AI užtikrinimo laboratorijomis ir jų veikimu, „dar reikia nuveikti“, – sakė Andersonas.
„Mums reikia laiko, kad tai padarytume, o būsimos administracijos įvertinimas, kad jie nori dirbti su mumis ir dirbti kartu su mumis – ir, tikiuosi, suteiks to laiko – manau, tai labai gaivus ir labai įdomu.
Kasmetinis etiketės atnaujinimas ir naudojimas IRL
Andersonas teigė, kad CHAI modelio kortelė yra „gyvas, kvėpuojantis dokumentas, kai atsiranda naujų galimybių, ypač generacinėje AI erdvėje“.
„Labai tikėtina, kad metriką ir metodikas, kurias naudojame vertindami tuos atsirandančius pajėgumus, reikės keisti arba sukurti“, – sakė jis.
Dar prieš tai, kai FDA paskelbė viso medicinos prietaisų gyvavimo ciklo gairių projektą, ji užbaigė iš anksto nustatytų AI ir mašininio mokymosi pateikimo pakeitimų kontrolės plano peržiūrą – nereikėjo pateikti naujų rinkodaros pasiūlymų.
„Kadangi galvojame apie įvairias modelio kortelės dalis, reikės įtraukti skirtingus duomenis – skirtingus įvertinimo rezultatus, skirtingą metriką… skirtingus naudojimo atvejus“, – sakė Andersonas.
„Toks lankstumas bus tikrai svarbus“, – pridūrė jis ir pažymėjo, kad dirbtinio intelekto modelio ar sistemos mitybos etiketę reikės reguliariai atnaujinti, „be abejo, bent jau kasmet“.
Teikėjai turi labai daug sudėtingumo, į kuriuos reikia atsižvelgti, kai naudoja dirbtinio intelekto klinikinių sprendimų palaikymo įrankius, kad sumažintų klaidų ar apsirikimų skaičių.
„Netobulas skaidrumas bus kažkas, su kuriuo mes kovosime ir turėsime vėl dirbti“, – pabrėžė jis.
Nesvarbu, ar modelis buvo apmokytas pagal tam tikrą atributų rinkinį, kuris gali būti susijęs su konkrečiu pacientu, gali būti neįtrauktas į patogias modelių korteles.
„Galite įtraukti visą informaciją po saule į šias modelių korteles, tačiau pardavėjų bendruomenei kiltų pavojus atskleisti (intelektinę nuosavybę“, – sakė jis. „Taigi, tai yra pardavėjo IP apsaugos balansas, bet suteikti klientui – šiuo atveju gydytojui – reikiamą informaciją, kad jis priimtų teisingą sprendimą, ar jis turėtų naudoti tą modelį su pacientu, kurį turi priešais save“, – sakė Andersonas.
„Priežastinis ryšys yra tikrai gilus, kaip tai gali paveikti tam tikrą paciento rezultatą“, – pripažino jis.
Pritraukti kitus prie AI vertinimo stalo
Nors HTI-1 31 kategoriška sritis, skirta elektroniniams sveikatos įrašams ir kitoms sertifikuotoms sveikatos IT priemonėms, yra tikrai puiki pradžia, to nepakanka įvairiems AI naudojimo atvejams, ypač tiesioginėje vartotojų erdvėje. Andersonas.
„Mūsų kuriamos modelių kortelės yra skirtos gana plačiai naudoti įvairiais naudojimo atvejais, o vartotojų erdvėje, ypač naudojant generatyvųjį AI, ateinančiais metais atsiras daugybė naujų naudojimo atvejų. “, – paaiškino jis.
Tačiau per ateinančius dvejus ar penkerius metus sveikatos priežiūros dirbtinio intelekto modelių vertinimas taps dar sudėtingesnis, todėl kyla klausimų, kaip jie apibrėžia „žmogaus klestėjimą“.
Andersonas teigė manantis, kad naudojimo atvejai bus glaudžiai susiję su sveikatos priežiūros dirbtinio intelekto agentais, o kuriant pasitikėjimo sistemas aplink juos reikės „etikų, filosofų, sociologų ir dvasinių lyderių“ paramos, kuri padėtų patarti technologams ir dirbtinio intelekto ekspertams tų priemonių vertinimo sistemą.
„Tai bus tikras iššūkis sukurti vertinimo sistemą toje agentinėje AI ateityje“, – sakė jis. „Tai labai intymi asmeninė erdvė, ir kaip tais modeliais sukurti tą pasitikėjimą? Kaip tuos modelius vertiname?”
Nuo kitų metų Andersonas sakė, kad CHAI vadovaus „labai tyčinėms pastangoms suburti bendruomenės narius ir suinteresuotąsias šalis, kurių nebūtinai pirmiausia pagalvotumėte apie suinteresuotąsias šalis, kurias įtrauktumėte į tokias pastangas“.
„Mes tikrai turime užtikrinti, kad šie modeliai būtų suderinti su mūsų vertybėmis, ir mes neturime rubrikos, kaip jūs vertinate modelį. Kol kas nežinau, kaip tai padaryti. Nemanau, kad dar kas nors tai daro. “.
Andrea Fox yra „Healthcare IT News“ vyresnioji redaktorė.
El. paštas: afox@himss.org
„Healthcare IT News“ yra HIMSS žiniasklaidos leidinys.