Pavarësisht nga aftësia e raportuar e ChatGPT për të kaluar provimet mjekësore, hulumtimet e reja tregojnë se nuk do të ishte e mençur të mbështeteshim në të për disa vlerësime shëndetësore, të tilla si nëse një pacient me dhimbje gjoksi duhet të shtrohet në spital.
Në një studim që përfshin mijëra raste të simuluara të pacientëve me dhimbje gjoksi, ChatGPT dha përfundime jokonsistente, duke kthyer nivele të ndryshme të vlerësimit të rrezikut të zemrës për të njëjtat të dhëna pacienti. Sistemi gjenerues i AI gjithashtu nuk arriti të përputhej me metodat tradicionale që përdorin mjekët për të gjykuar rrezikun kardiak të një pacienti. Gjetjet u botuan në revistën PLOS ONE.
“ChatGPT nuk po vepronte në një mënyrë të qëndrueshme”, tha autori kryesor Dr. Thomas Heston, një studiues me Kolegjin e Mjekësisë Elson S. Floyd të Universitetit Shtetëror të Uashingtonit.
“Duke pasur parasysh saktësisht të njëjtat të dhëna, ChatGPT do të jepte një rezultat të rrezikut të ulët, pastaj herën tjetër një rrezik të ndërmjetëm dhe herë pas here, do të shkonte deri në dhënien e një rreziku të lartë”, tha ai, shkruan Medical Xpress, transmeton Gazeta Shneta.
Autorët besojnë se problemi ka të ngjarë të jetë për shkak të nivelit të rastësisë së integruar në versionin aktual të softuerit, ChatGPT4, i cili e ndihmon atë të ndryshojë përgjigjet e tij për të simuluar gjuhën natyrore. E njëjta rastësi, megjithatë, nuk funksionon mirë për përdorimet e kujdesit shëndetësor që kërkojnë një përgjigje të vetme dhe të qëndrueshme, tha Heston.
“Ne zbuluam se kishte shumë ndryshime dhe ai ndryshim në qasje mund të jetë i rrezikshëm. Ai mund të jetë një mjet i dobishëm, por unë mendoj se teknologjia po ecën shumë më shpejt sesa të kuptuarit tonë për të, kështu që është jashtëzakonisht e rëndësishme që ne të bëjmë shumë kërkime, veçanërisht në këto situata klinike me rrezik të lartë”, tha ai.
Dhimbjet e gjoksit janë ankesa të zakonshme në dhomat e urgjencës, që kërkojnë që mjekët të vlerësojnë me shpejtësi urgjencën e gjendjes së pacientit. Disa raste shumë serioze janë të lehta për t’u identifikuar nga simptomat e tyre, por ato me rrezik më të ulët mund të jenë më të ndërlikuara, tha Heston, veçanërisht kur përcaktohet nëse dikush duhet të shtrohet në spital për vëzhgim ose të dërgohet në shtëpi dhe të marrë kujdes ambulator.
Aktualisht, profesionistët mjekësorë përdorin shpesh një nga dy masat që përdoren nga akronimet TIMI dhe HEART për të vlerësuar rrezikun e zemrës. Heston i krahasoi këto peshore me kalkulatorë ku secila përdor një sërë variablash duke përfshirë simptomat, historinë shëndetësore dhe moshën. Në të kundërt, një rrjet nervor i AI si ChatGPT mund të vlerësojë shpejt miliarda variabla, që do të thotë se mund të analizojë një situatë komplekse më shpejt dhe më tërësisht.
Për këtë studim, Heston dhe kolegu Dr. Lawrence Lewis i Universitetit të Uashingtonit në St. Një grup të dhënash kishte shtatë variablat e shkallës TIMI, grupi i dytë përfshinte pesë variablat e shkallës HEART dhe një i tretë kishte 44 variabla të rastësishëm shëndetësor.
Në dy grupet e para të të dhënave, ChatGPT dha një vlerësim të ndryshëm rreziku 45% deri në 48% të rasteve në raste individuale sesa një rezultat fiks TIMI ose HEART. Për grupin e fundit të të dhënave, studiuesit i kontrolluan rastet katër herë dhe zbuluan se ChatGPT shpesh nuk ishte dakord me vetveten, duke kthyer nivele të ndryshme vlerësimi për të njëjtat raste në 44% të rasteve.
Pavarësisht gjetjeve negative të këtij studimi, Heston sheh potencial të madh për AI gjeneruese në kujdesin shëndetësor – me zhvillim të mëtejshëm.
Për shembull, duke supozuar se standardet e privatësisë mund të përmbushen, të dhënat mjekësore të tëra mund të ngarkohen në program dhe në një mjedis urgjent, një mjek mund të kërkojë nga ChatGPT të japë shpejt faktet më të rëndësishme për një pacient. Gjithashtu, për raste të vështira dhe komplekse, mjekët mund t’i kërkojnë programit të gjenerojë disa diagnoza të mundshme.
“ChatGPT mund të jetë i shkëlqyeshëm në krijimin e një diagnoze diferenciale dhe kjo është ndoshta një nga pikat më të forta të tij”, tha Heston.
“Nëse nuk e dini plotësisht se çfarë po ndodh me një pacient, mund t’i kërkoni atij të japë pesë diagnozat kryesore dhe arsyetimin pas secilës. Kështu që mund të jetë i mirë për t’ju ndihmuar të mendoni për një problem, por nuk është i mirë në duke dhënë përgjigjen”, u shpreh ai. /Gazeta Shneta/