Jeilio tyrimas rodo, kaip AI šališkumas pablogina sveikatos priežiūros skirtumus

Jeilio tyrimas rodo, kaip AI šališkumas pablogina sveikatos priežiūros skirtumus


Naujoje Jeilio medicinos mokyklos tyrimo ataskaitoje išsamiai apžvelgiama, kaip šališkas dirbtinis intelektas gali paveikti klinikinius rezultatus. Tyrime daugiausia dėmesio skiriama skirtingiems AI modelio kūrimo etapams ir parodoma, kaip duomenų vientisumo problemos gali turėti įtakos sveikatos teisingumui ir priežiūros kokybei.

KODĖL TAI SVARBU
Anksčiau šį mėnesį „PLOS Digital Health“ paskelbtame tyrime pateikiamos tiek realios, tiek hipotetinės iliustracijos, kaip dirbtinio intelekto šališkumas neigiamai veikia sveikatos priežiūros paslaugų teikimą – ne tik priežiūros vietoje, bet ir kiekviename medicininio AI kūrimo etape: mokymo duomenys, modelis. kūrimas, publikavimas ir įgyvendinimas.

„Pašalinimas; šališkumas išstumtas“, – pranešime spaudai sakė tyrimo vyresnysis autorius Johnas Onofrey, Jeilio medicinos mokyklos radiologijos ir biomedicinos vaizdavimo bei urologijos docentas.

„Jau daugelį metų dirbdamas mašininio mokymosi / AI srityje, idėja, kad algoritmai yra šališki, nestebina“, – sakė jis. „Tačiau išvardinti visus galimus būdus, kuriais šališkumas gali patekti į AI mokymosi procesą, yra neįtikėtina. Dėl to šališkumo mažinimas atrodo bauginanti užduotis.”

Kaip pažymima tyrime, šališkumas gali atsirasti beveik bet kurioje algoritmo kūrimo vietoje.

Tai gali atsirasti „duomenų funkcijose ir etiketėse, modelių kūrime ir vertinime, diegime ir publikacijoje“, teigia mokslininkai. „Nepakankamas imties dydis tam tikroms pacientų grupėms gali lemti neoptimalų efektyvumą, nepakankamai įvertintą algoritmą ir kliniškai nereikšmingas prognozes. Trūkstant pacientų išvadų taip pat gali atsirasti šališkas modelio elgesys, įskaitant fiksuojamus, bet neatsitiktinai trūkstamus duomenis, pvz., diagnozės kodus, ir duomenis, kurių paprastai nėra. arba nelengvai užfiksuoti, pavyzdžiui, socialiniai sveikatą lemiantys veiksniai.

Tuo tarpu „ekspertiškai anotuotos etiketės, naudojamos prižiūrimiems mokymosi modeliams mokyti, gali atspindėti numanomus kognityvinius paklaidas arba nekokybišką priežiūros praktiką. Per didelis pasitikėjimas našumo metrika modelio kūrimo metu gali užgožti šališkumą ir sumažinti modelio klinikinį naudingumą. Pritaikius duomenims, nepriklausantiems mokymo grupei, modelio našumas gali pablogėti, palyginti su ankstesniu patvirtinimu, ir gali tai daryti skirtingai pogrupiuose.

Ir, žinoma, būdas, kuriuo klinikiniai galutiniai vartotojai sąveikauja su AI modeliais, taip pat gali sukelti šališkumą.

Galų gale, „čia AI modeliai yra „kuriami ir skelbiami, ir kas daro įtaką būsimos medicinos AI plėtros trajektorijoms ir prioritetams“, – teigia Jeilio mokslininkai.

Jie pažymi, kad bet kokios pastangos sumažinti šį šališkumą – „didelių ir įvairių duomenų rinkinių rinkimas, statistinio šalinimo metodai, kruopštus modelio vertinimas, modelio aiškinamumo akcentavimas ir standartizuoti šališkumo ataskaitų teikimo ir skaidrumo reikalavimai“ – turi būti įgyvendinamos atsargiai, atidžiai stebint. kaip tie apsauginiai turėklai veiks, kad būtų išvengta neigiamo poveikio pacientų priežiūrai.

„Prieš realų įgyvendinimą klinikinėse situacijose labai svarbu atlikti griežtą patvirtinimą atliekant klinikinius tyrimus, kad būtų galima įrodyti nešališką taikymą“, – sakė jie. „Labai svarbu atkreipti dėmesį į šališkumą modelio kūrimo etapuose, siekiant užtikrinti, kad visi pacientai gautų teisingą naudą iš medicinos AI ateities.

Tačiau ataskaitoje „Medicininio dirbtinio intelekto šališkumas: klinikinių sprendimų priėmimo pasekmės“ pateikiami keli pasiūlymai, kaip sušvelninti šį šališkumą, siekiant pagerinti sveikatos lygybę.

Pavyzdžiui, ankstesniuose tyrimuose nustatyta, kad rasės naudojimas kaip veiksnys įvertinant inkstų funkciją, kartais gali pailginti juodaodžių transplantacijų, patenkančių į transplantacijų sąrašus, laukimo laiką. Jeilio mokslininkai siūlo keletą rekomendacijų, padėsiančių būsimiems AI algoritmams naudoti tikslesnes priemones, tokias kaip pašto kodas ir kiti socialiniai ekonominiai veiksniai.

ĮRAŠĄ
„Labesnis socialinių sveikatą lemiančių veiksnių fiksavimas ir panaudojimas medicininiuose AI modeliuose klinikinės rizikos prognozavimui bus itin svarbus“, – pranešime teigė Jamesas L. Crossas, Jeilio medicinos mokyklos pirmo kurso medicinos studentas ir pirmasis tyrimo autorius.

„Pašališkumas yra žmogaus problema“, – pridūrė Jeilio docentas, radiologijos ir biomedicininio vaizdo gavimo asistentas ir tyrimo bendraautoris dr. Michaelas Choma. „Kai kalbame apie „AI šališkumą“, turime atsiminti, kad kompiuteriai mokosi iš mūsų.

Mike’as Miliardas yra „Healthcare IT News“ vykdomasis redaktorius
Siųskite rašytojui el. laišką: mike.miliard@himssmedia.com

„Healthcare IT News“ yra HIMSS leidinys.



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -