GPT-4 úspešne zložil lekársku licenčnú skúšku v USA a správne odpovedal na 90 % otázok. Mnohí vedci boli prekvapení dobrou diagnostikou chorôb a schopnosťami prekladu najnovšieho modelu umelej inteligencie OpenAI.
Doktor Isaac Kohane, počítačový vedec z Harvardskej univerzity a lekár, a dvaja kolegovia testovali, ako bude GPT-4 fungovať v lekárskom prostredí.
Dr. Kohane napísal v pripravovanej knihe The AI Revolution in Medicine, že zistil, že GPT-4 je lepší ako mnohí lekári, ktorých hodnotil.
Nielenže je to nástroj na vyhľadávanie informácií alebo dobrý „kandidát“, GPT-4 je pánom Kohanom a jeho kolegami považovaný za talentovaného prekladateľa. Je schopný preložiť informácie o prepustení z nemocnice pre portugalsky hovoriaceho pacienta, preložiť zložitý technický jazyk do jednoduchých informácií, ktoré dokáže prečítať a pochopiť aj žiak 6. ročníka.
Okrem toho môže GPT-4 zhrnúť dlhé správy a štúdie, poskytnúť užitočné návrhy, ako sa o nich starať, a rozprávať sa s pacientmi.
Produkty OpenAi môžu dokonca používať metódy, ktoré vyžadujú meracie a výpočtové techniky na vysvetlenie príčin problémov, rovnako ako to ľudia často robia.
Hoci existuje veľa obmedzení a diagnóza nie je vždy dokonalá, GPT-4 môže stále napodobňovať spôsob, akým lekári diagnostikujú choroby.
doktor Isaac Kohane. Foto: Harvard Medical School.
Dr Kohane použil skutočný prípad, ktorý liečil pred niekoľkými rokmi, aby otestoval schopnosť GPT-4 diagnostikovať chorobu. Pacientom je novorodenec. Poskytol niekoľko podrobností o dieťati, ako aj niektoré ultrazvukové informácie a hladiny hormónov a výsledky GPT-4 dokázali presne diagnostikovať stav dieťaťa ako kongenitálnu adrenálnu hyperpláziu (CAH).
Dr Kohane bol mimoriadne prekvapený, pretože GPT-4 dokázal presne diagnostikovať choroby, čo mu trvalo veľa rokov štúdia a práce, aby to dokázal.
GPT-4 stále robí chyby
GPT-4 má stále veľa obmedzení a má základné chyby ako nesprávne zapísanie BMI, nesprávne riešenie sudoku alebo riešenie nesprávnych rovníc a závažné chyby pri predpisovaní alebo diagnostikovaní chorôb.
Keď sa výskumný tím opýtal na tento problém, GPT-4 povedal, že niekedy robí chyby alebo robí predpoklady na základe neúplných alebo nepresných údajov, ale nemá v úmysle klamať alebo zavádzať nikoho.
GPT-4 povedal: "Nemám rovnakú klinickú diagnostickú schopnosť alebo etickú zodpovednosť ako lekár alebo zdravotná sestra."