,

Студије показале: АИ не уме да постави основну дијагнозу у 80 одсто случајева

ФОТО: Shutterstock

Иако се представља као будућност медицине, вештачка интелигенција још увек не уме да „размишља“ као прави лекар. Велики језички модели могу да буду прецизни када имају све податке, али не успевају да поставе примарну дијагнозу у већини случајева, показује нова студија из САД. То практично значи да још увек нису безбедни за самосталну клиничку употребу, без надзора лекара.

Иако су четботови постизали боље резултате када су имали комплетне клиничке податке, нису успевали да направе исправну диференцијалну дијагнозу у више од 80 одсто случајева. Управо је тај корак пресудан, јер подразумева разликовање више могућих стања са сличним симптомима и представља основу клиничког размишљања.

Диференцијална дијагноза је, практично, први филтер у медицини – лекар на основу ограничених информација прави листу могућих узрока и постепено је сужава. Без тога нема ни поузданог лечења.

Тим је тестирао 21 модел, укључујући најновије верзије Клод, Дипсик, Џеминај, ГПТ и Грок. Евалуација је рађена на 29 стандардизованих клиничких сценарија, који прате више фаза клиничког расуђивања – од почетне дијагнозе, преко избора тестова, до коначне дијагнозе и плана лечења.

Да би што верније симулирали стварне услове, истраживачи су моделима постепено откривали информације: Од основних података попут старости, пола и симптома, до резултата прегледа и лабораторије. Чак су им у студији давани додатни подаци како би могли да наставе на следећу фазу, чак и када прескоче диференцијалну дијагнозу, што у реалној пракси није могуће.

Резултати су показали занимљив парадокс: Модели су често били веома успешни у постављању коначне дијагнозе, са стопом тачности од око 60 до преко 90 одсто, у зависности од система. Међутим, истовремено су били слаби у ономе што претходи том закључку (сналажењу у неизвесности и генерисању могућих дијагноза).

Један од аутора студије истиче да ови модели још увек не могу да реплицирају диференцијалну дијагнозу, коју описује као „уметност медицине“. Другим речима, могу да погоде одговор када имају све податке, али не умеју да до тог одговора дођу.

Главна порука студије је јасна: Вештачка интелигенција у здравству и даље захтева „људску руку“ и строг надзор, посебно јер ови системи не би требало да се користе за доношење клиничких одлука без контроле, а пацијенти би требало да их користе опрезно и да се за сва здравствена питања ипак обрате лекару, преноси „Јуроњуз“.

БАНЕР