Umjetna inteligencija brzo ulazi u ordinacije: od automatskog vođenja anamneze i sažetaka do dijagnostičke asistencije. No, niz radova MIT-a i britanskih institucija pokazuje da veliki jezični modeli (LLM) poput GPT-4, Llama ili Googleovih rješenja znaju umanjiti simptome pacijentica i dati pogrešne odgovore manjinama. Za posljedicu bi to moglo imati pogoršanje već postojećih rezultata liječenja skupina koje su u zapadnim sustavima ionako često zapostavljene, piše Financial Times.
U simulacijama preporuka skrbi, modeli su češće sugerirali samopomoć kod žena umjesto upućivanja liječniku, dok su odgovori na upite o mentalnom zdravlju afroameričkih i azijskih pacijenata nosili manje empatije. Utvrđeno je i da poruke s tipfelerima, kolokvijalnim izrazima ili nesigurnim tonom imaju sedam do devet posto veću vjerojatnost da dobiju savjet “ne tražite liječničku pomoć”, iako je klinički sadržaj istovjetan. To je realan rizik za one s nižom digitalnom pismenošću i govornike kojima engleski nije prvi jezik.
Neadekvatno liječenje
Primjerice, istraživanje London School of Economics pokazalo…

