Pacienta, o femeie de 39 de ani, a vizitat departamentul de urgență de la Beth Israel Deaconess Medical Center din Boston. Genunchiul stâng o doare de câteva zile. Am avut febră de 102 grade cu o zi înainte. Eram vindecat până acum, dar încă mai aveam frisoane. Și genunchiul meu era roșu și umflat.
care a fost diagnosticul?
Într-o recentă vineri aburindă, rezidentul Dr. Megan Landon a prezentat acest caz din viața reală într-o cameră plină de studenți și rezidenți la medicină. Au fost reuniți pentru a învăța o abilitate foarte dificil de predat: cum să gândești ca un medic.
„Medicii sunt prost să le spună altor medici cum gândim noi”, spune Adam Rodman, medic internist, istoric medical și organizator de evenimente la Beth Israel Deaconess.
Dar de această dată, puteți cere ajutor experților pentru a ajunge la diagnosticul GPT-4, cea mai recentă versiune a chatbot-ului lansat de OpenAI.
Inteligența artificială transformă multe aspecte ale practicii medicale, iar unii profesioniști din domeniul medical folosesc aceste instrumente pentru a ajuta diagnosticarea. Medicii de la Beth Israel Deaconess, un spital didactic afiliat la Harvard Medical School, au decis să investigheze modul în care chatbot-ii ar putea fi folosiți și abuzați în viitoarea pregătire a medicilor.
Lectori precum Dr. Rodman vor să poată folosi GPT-4 și alți chatbot pentru a face ceea ce medicii numesc vizite de stradă atunci când studenții la medicină își trag colegii deoparte și le cer părerea cu privire la cazurile dificile. Ideea este să folosiți chatbot-urile în același mod în care medicii își cer reciproc sugestii și perspective.
Timp de mai bine de un secol, medicii au fost înfățișați ca detectivi care adună indicii și le folosesc pentru a găsi criminali. Dar medicii cu experiență folosesc de fapt o altă metodă, recunoașterea modelelor, pentru a-și da seama ce este în neregulă. În medicină, acest lucru se numește un scenariu de boală. Acestea sunt semnele, simptomele și rezultatele testelor pe care medicii le-au pus împreună pentru a spune o poveste coerentă bazată pe cazuri similare pe care le cunosc sau le-au văzut ei înșiși.
Când scripturile bolii nu ajută, medicii apelează la alte strategii, cum ar fi atribuirea probabilităților diferitelor diagnostice care s-ar putea potrivi, a spus dr. Rodman.
Timp de mai bine de jumătate de secol, cercetătorii au încercat să proiecteze programe de calculator pentru a face diagnostice medicale, dar nimic nu a funcționat cu adevărat.
Medicii spun că GPT-4 este diferit. „Ar crea ceva foarte asemănător cu scenariul bolnav”, a spus dr. Rodman. În acest sens, este „fundamental diferit de motoarele de căutare”, a adăugat el.
Dr. Rodman și alți doctori de la Beth Israel Deaconess au apelat la GPT-4 pentru un potențial diagnostic al cazurilor dificile.și studiu Un studiu publicat luna trecută în jurnalul medical JAMA a constatat că aceștia au depășit majoritatea medicilor la o sarcină de diagnostic săptămânală publicată în New England Journal of Medicine.
Dar au aflat că există trucuri și capcane în utilizarea programului.
Dr. Christopher Smith, directorul programului de rezidențiat în medicină internă la centrul medical, a declarat că studenții și rezidenții la medicină „l folosesc cu siguranță”. Dar el a adăugat că „dacă învață ceva este o întrebare deschisă”.
Îngrijorarea este că ne putem baza pe AI pentru diagnosticare, în același mod în care folosim calculatoare pe smartphone-uri pentru a rezolva probleme de matematică. Potrivit doctorului Smith, este periculos.
Învățarea, a spus el, implică încercarea de a înțelege lucrurile. „Așa ținem lucrurile. O parte a învățării este lupta. Externalizarea învățării către GPT elimină această durere.”
La întâlnire, studenții și rezidenții au fost împărțiți în grupuri pentru a încerca să descopere ce este în neregulă cu pacienții cu genunchi umflați. Așa că au apelat la GPT-4.
Grupul a încercat abordări diferite.
O persoană a folosit GPT-4 pentru a efectua căutări pe Internet în același mod în care folosește Google. Chatbot-ul a scuipat o listă de posibile diagnostice, inclusiv traume. Cu toate acestea, când un membru al grupului i-a cerut să explice de ce, Bott a fost dezamăgit și a explicat alegerea sa afirmând că „trauma este o cauză comună a rănilor la genunchi”.
Un alt grup a venit cu posibile ipoteze și a cerut GPT-4 să le confirme. Lista chatbot-ului se potrivește cu cea a unor grupuri precum bolile infecțioase, inclusiv boala Lyme. Include guta, care este artrita (un tip de artrită care implică cristale în articulații). și traume.
GPT-4 nu a fost pe primul loc pe lista de grupuri, dar a adăugat artrita reumatoidă în fruntea listei de posibilități. Instructorii au spus mai târziu grupului că guta era puțin probabilă, deoarece pacientul era tânăr și femeie. De asemenea, o singură articulație a fost inflamată și doar pentru câteva zile, astfel încât poliartrita reumatoidă ar putea fi probabil exclusă.
Ca o consultare în afara sediului, GPT-4 pare să fi trecut testul sau cel puțin să fi obținut acordul studenților și rezidenților. Dar acest exercițiu nu a oferit nici o perspectivă, nici un scenariu bolnav.
Un motiv ar putea fi faptul că studenții și rezidenții au folosit robotul mai mult ca un motor de căutare decât ca o consultare la punctul de vânzare.
Pentru a folosi botul corect, instructorii spun că trebuie să începeți prin a spune lui GPT-4 ceva de genul „Sunteți un medic care vede o femeie de 39 de ani cu dureri de genunchi”. Apoi, medicul ar trebui să ceară un diagnostic, la fel ca și cu colegii săi, enumerându-i simptomele înainte de a continua cu întrebările despre raționamentul botului.
Instructorii spun că aceasta este o modalitate de a valorifica puterea GPT-4. Dar este, de asemenea, important să recunoaștem că chatboții pot face greșeli, „halucina” sau pot oferi răspunsuri care nu sunt cu adevărat bazate. Pentru a le folosi trebuie să știi când este greșit.
„Nu este nimic în neregulă cu utilizarea acestor instrumente”, a spus Byron Crowe, medic la spital. „Trebuie doar să-l folosești în modul corect”.
El a spus grupului o analogie.
„Piloții folosesc GPS”, a spus dr. Crowe. Dar el a adăugat că companiile aeriene „setează standarde foarte înalte când vine vorba de fiabilitate”. El a spus că în domeniul sănătății, utilizarea chatbot-urilor este „foarte atractivă”, dar ar trebui să se aplice aceleași standarde înalte.
„Este un partener grozav de gândire, dar nu înlocuiește expertiza spirituală profundă”, a spus el.
La sfârșitul ședinței, instructorul a dezvăluit adevăratul motiv pentru care genunchiul pacientului a fost umflat.
Aceasta sa dovedit a fi o posibilitate pe care diferite grupuri au luat-o în considerare și GPT-4 a propus-o.
Avea boala Lyme.
Olivia Allison a contribuit la raport.