ChatGPT zastąpi wizytę u lekarza? Naukowcy porównują skuteczność, a wyniki ich badań mogą szokować

ChatGPT odpowie na Twoje pytania o problemy zdrowotne lepiej niż lekarz – i wykaże więcej troski. Tak z grubsza można by podsumować wyniki wstępnych badań nad obecnością i rolą sztucznej inteligencji w opiece medycznej. Czy to naprawdę możliwe?

Artykuł na: 6-9 minut
Zdrowe zakupy

Jak sztuczna inteligencja przejmuje kontrolę nad poradami zdrowotnymi

Na co komu lekarz? ChatGPT – bot sztucznej inteligencji (AI), który najwyraźniej za­czyna już królować w świe­cie wyszukiwań internetowych – daje lepsze odpowiedzi na problemy zdro­wotne niż prawdziwy lekarz, a nawet wykazuje więcej empatii. Właśnie tak: sztuczna inteligencja bardziej niż człowiek przej­muje się naszymi dolegliwościami. W jednym z pierwszych badań porównujących lekarzy z botem na­ukowcy z University of California w San Diego (UCSD) poprosili zespół 3 pracowników służby zdrowia, by oce­nili, jak lekarze i ChatGPT reagują na autentyczne pytania zdrowotne.

Uznali oni, że odpowiedzi bota były lepsze w 141 na 195 pytań za­czerpniętych z platformy mediów społecznościowych Reddit. Wiadomości ChatGPT przynosiły w odpowiedzi zniuansowane i dokładne informacje, które często dotyczyły więk­szej ilości aspektów pytań pacjenta niż odpowiedzi lekarza – stwierdza Jessica Kelley, członkini zespołu badawczego1. Jakość odpowiedzi ChatGPT oceniono 3,6 razy wyżej (22% preferowanych od­powiedzi lekarzy wobec 78,5% odpowie­dzi ChatGPT), natomiast jego zdolność empatii oceniona została 9,8 razy wyżej (45,1% odpowiedzi ChatGPT wobec zaledwie 4,6% odpowiedzi lekarzy). Re­zultaty te okazały się tak dobre, że badacz Davey Smith uznał, iż ChatGPT mógłby zdać egzamin lekarski, dający prawo wykonywania zawodu, „ale bezpośred­nie odpowiadanie na pytania pacjenta w sposób dokładny i empatyczny to zu­pełnie inna dyscyplina”. To prawda, a ChatGPT jest lepszy w obu z nich!

Quote icon
Rezultaty te okazały się tak dobre, że badacz Davey Smith uznał, że ChatGPT mógłby zdać egzamin lekarski, dający prawo wykonywania zawodu, „ale bezpośrednie odpowiadanie na pytania pacjenta w sposób dokładny i empatyczny to zupełnie inna dyscyplina”. To prawda, a ChatGPT jest lepszy w obu z nich!

Być może trzeba jednak jeszcze chwilę poczekać, nim bot zda egza­min z okulistyki. W jednym z testów przeprowadzonych na początku roku ChatGPT odpowiedział poprawnie tylko na 46% pytań, ale w kolejnym miesiącu uzyskał już o 10% więcej, gdy zada­wano mu te same pytania, co sugeruje, że poprawia on swe umiejętności, ucząc się z biegiem czasu, w miarę otrzymy­wania coraz większej liczby pytań2. Zdradzając swe ludzkie pochodze­nie, ChatGPT niemal w połowie przy­padków wybierał te same odpowiedzi w testach wielokrotnego wyboru, które wybrałby przeciętny student medy­cyny, ale uzyskał 79% poprawnych odpowiedzi z medycyny ogólnej.

ChatGPT
ChatGPT to zaawansowany bot oparty na sztucznej inteligencji, stworzony przez OpenAI. Wykorzystuje model językowy GPT-3.5 do generowania naturalnych i zrozumiałych odpowiedzi na różnorodne pytania i tematy, co sprawia, że jest używany do interakcji z użytkownikami w wielu dziedzinach, takich jak obsługa klienta, edukacja czy rozwiązywanie problemów

Czy sztuczna inteligencja zastąpi tradycyjną opiekę lekarską?

Rozwiązaniem nie będzie całkowite pozbycie się lekarzy – mówi Adam Po­liak, jeden z badaczy z UCSD, choć bar­dziej przemawia przez niego nadzieja niż oczekiwanie. Lekarze powinni natomiast zaakceptować ChatGPT i wszelkie inne boty AI, jakie mogą się pojawić, jako me­todę wspomagania ich własnych usług. Nigdy nie sądziłem, że to po­wiem, ale Chat GPT jest receptą, jaką chciałbym wypisać mojemu oprogra­mowaniu medycznemu. To narzędzie odmieni zupełnie sposób, w jaki po­magam pacjentom – stwierdził Aaron Goodman, inny z badaczy z UCSD.

Lekarze z UCSD idą już z duchem czasu. Używają ChatGPT do przy­gotowania szkicu odpowiedzi, który następnie przeglądają przed wręcze­niem pacjentowi, a wkrótce zamierzają dokonać porównania bota z lekarzami, by sprawdzić, czy pacjenci, którzy uzy­skają od niego odpowiedź, będą czuć się lepiej i szybciej powrócą do zdrowia. Bot może też okazać się darem dla studentów medycyny, ale to wcale nie wróży dobrze pacjentom. ChatGPT już teraz generuje odpowiedzi o jakości eg­zaminacyjnej, które zapewniają zdanie egzaminu z przyzwoitą oceną. Jak zauwa­ża Rajeev Muni, badacz z St. Michael’s Hospital w Toronto, ważne jest położenie nacisku na „odpowiedzialne” użycie AI.

Istotnie, jest to ważne, ale, niestety, tak się nie stanie, a komisje medyczne już dziś godzą się z tym, że mają do czynie­nia z oszustwami i nie są w stanie ocenić, kto rzeczywiście odpowiada na pytanie. Studenci muszą trochę wysilić się samo­dzielnie jedynie wtedy, gdy konfrontują się z obrazami i filmami video, które nie­rzadko są częścią ich edukacji medycznej; ChatGPT jest obecnie medium wyłącznie tekstowym, więc nie może im pomóc. Ma też inne niedostatki. Niezbyt dobrze orientuje się w bardziej akademickich badaniach i często myli przypisy lub je wymyśla, a świat danych, które prze­szukuje, jest przeterminowany o 2 lata.

ChatGPT
Badanie UCSD potwierdza: ChatGPT - sztuczna inteligencja zdolna konkurować z lekarzami, oferująca innowacyjne podejście do opieki zdrowotnej.

Własna oferta AI Google’a pozwala użytkownikom wykorzystywać oprócz sztucznej inteligencji także standardową wyszukiwarkę, jeżeli chcą dodatkowo sprawdzić odpowiedź, lecz wszystko to mieści się w kategoriach drobnych zastrzeżeń wobec technologii, którą Bill Gates z firmy Microsoft nazwał przełomową. Rzeczywiście, jest ona przełomowa, ale dokąd nas zaprowadzi?
Czy będziemy chodzić do lekarzy, którzy zdobyli uprawnienia tylko dzięki temu, że inteligentny bot od­powiedział za nich na pytania egza­minacyjne? A może równie dobrze sami możemy pytać ChatGPT, jeżeli jego odpowiedzi mogą być lepsze niż te, których udzieli medyk, a na do­datek będą bardziej empatyczne? Geoffrey Hinton, nazywany „ojcem chrzestnym AI”, obawia się najgorszego. Jego zdaniem jesteśmy już bliscy dnia, gdy inteligentne boty będą bardziej inteligentne niż ludzie – a w przy­padku lekarzy już tak się dzieje.

Bibliografia
  • JAMA Intern Med, 2023; doi: 10.1001/ jamainternmed.2023.1838
  • JAMA Ophthalmology, 2023; doi: 10.1001/jamaophthalmol.2023.1144
Autor publikacji:
Wczytaj więcej
Nasze magazyny