Sztuczna inteligencja nie zastąpi lekarza. Eksperci ostrzegają przed niebezpieczeństwem

Rozwój generatywnej sztucznej inteligencji sprawił, że coraz więcej osób korzysta z chatbotów, aby uzyskać szybkie odpowiedzi na pytania dotyczące zdrowia. Jednak eksperci ostrzegają – to rozwiązanie może być bardzo ryzykowne. AI nie ma dostępu do twojej dokumentacji medycznej, może podawać przestarzałe informacje i generować błędne, choć brzmiące przekonująco, porady.

Chatbot nie jest lekarzem. Uważaj na rady generowane przez AIChatbot nie jest lekarzem. Uważaj na rady generowane przez AI
Źródło zdjęć: © Getty Images
Dominika Najda

Kiedy AI zagraża zdrowiu

Przykładem jest opisany niedawno przypadek 60-letniego mężczyzny, który po konsultacji z chatbotem zastąpił sól kuchenną bromkiem sodu. Efekt? Toksyczność bromu, zaburzenia psychiczne i trzytygodniowy pobyt w szpitalu psychiatrycznym.

To pokazuje, że nieodpowiedzialne korzystanie z AI w kwestiach zdrowotnych może prowadzić do poważnych konsekwencji.

Ryzyko potęguje fakt, że chatboty:

Aplikacja CRADLE zbada twoje oczy. Wystarczy jej zdjęcie

  • nie uwzględniają indywidualnych chorób czy leków pacjenta,

  • nie rozpoznają sytuacji wymagających natychmiastowej interwencji medycznej,

  • mogą tworzyć informacje, podając fałszywe dane jako fakty.

Badania: co potrafi AI w medycynie?

W literaturze pojawia się coraz więcej analiz, które pokazują zarówno potencjał, jak i ograniczenia generatywnej AI w ochronie zdrowia:

Badanie opublikowane w "Nutrients" pokazało, że popularne chatboty (w tym ChatGPT) tworzyły plany dietetyczne wspierające redukcję masy ciała, jednak nie potrafiły prawidłowo zbilansować makroskładników, co w dłuższej perspektywie mogło prowadzić do niedoborów i zaburzeń metabolicznych.

Eksperyment opisany w "JAMA Internal Medicine", porównujący odpowiedzi AI i lekarzy na pytania pacjentów, pokazał, że chatboty często były oceniane jako bardziej "empatyczne" i klarowne, ale brakowało im klinicznej trafności i kontekstu.

W badaniu "BMJ Health & Care Informatics" wskazano, że generatywna AI może wspierać edukację pacjentów i lekarzy, ale nie może być źródłem decyzji terapeutycznych. Autorzy podkreślili, że AI nie zastąpi procesu diagnostycznego opartego na badaniu pacjenta i analizie wyników badań.

Eksperci American Medical Association zaznaczyli, że największą wartością AI jest tłumaczenie terminologii medycznej i dostarczanie tła do rozmowy z lekarzem, a nie udzielanie indywidualnych porad zdrowotnych.

Dlaczego AI bywa myląca?

Generatywna AI opiera się na danych, na których była trenowana. Oznacza to, że informacje mogą być:

  • przestarzałe – np. chatbot nie zawsze uwzględnia najnowsze zalecenia CDC czy WHO,

  • niedopasowane do pacjenta – nie bierze pod uwagę wieku, chorób przewlekłych czy przyjmowanych leków,

  • złudnie pewne – AI potrafi podać błędne dane w tonie absolutnej pewności.

Eksperci wskazują kilka zasad, by bezpiecznie korzystać z AI, zwłaszcza w przypadku zdrowia:

  • nie podawaj danych osobowych ani medycznych – AI nie jest objęta ochroną prywatności (HIPAA w USA czy RODO w Europie),

  • traktuj AI jako narzędzie do nauki – możesz poprosić o wyjaśnienie trudnego pojęcia medycznego lub ogólne informacje,

  • weryfikuj źródła – sprawdzaj, czy chatbot powołuje się na renomowane czasopisma naukowe (np. The Lancet, NEJM, JAMA) lub instytucje (WHO, EMA, CDC),

  • konsultuj z lekarzem – jeśli znajdziesz coś ważnego, zabierz tę informację na wizytę,

  • nie eksperymentuj na sobie – szczególnie w przypadku leków, suplementów i zmian w terapii.

Sztuczna inteligencja otwiera nowe możliwości w edukacji zdrowotnej, ale nie jest i długo nie będzie bezpiecznym źródłem porad medycznych. Może pomóc pacjentowi zrozumieć wyniki badań czy przygotować pytania do lekarza, lecz w kwestiach diagnozy i leczenia jedynym właściwym źródłem pozostaje kontakt z profesjonalistą.

Dominika Najda, dziennikarka Wirtualnej Polski

Źródła

  1. Verywell Health
  2. Nutrients
  3. JAMA Internal Medicine
  4. BMJ Health & Care Informatics
  5. American Medical Association

Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.

Źródło artykułu: WP abcZdrowie
Wybrane dla Ciebie
Tak może objawiać się cukrzyca. Dietetyczka wymienia sygnały
Tak może objawiać się cukrzyca. Dietetyczka wymienia sygnały
Urodziła dziecko po przeszczepie macicy od zmarłej dawczyni. Pierwsze takie narodziny w Wielkiej Brytanii
Urodziła dziecko po przeszczepie macicy od zmarłej dawczyni. Pierwsze takie narodziny w Wielkiej Brytanii
Ozempikowe zęby? Lekarka wyjaśnia, czy istnieje takie zjawisko
Ozempikowe zęby? Lekarka wyjaśnia, czy istnieje takie zjawisko
Te produkty warto jeść na czczo. Pomagają w kontroli cukru i ciśnienia
Te produkty warto jeść na czczo. Pomagają w kontroli cukru i ciśnienia
Zbiórka dla rodziców z Centrum Zdrowia Dziecka. Potrzebne są sztućce oraz naczynia
Zbiórka dla rodziców z Centrum Zdrowia Dziecka. Potrzebne są sztućce oraz naczynia
Płacą ok. 4,2 tys. za 1 kg. W Europie mówią, że to "polska oliwka"
Płacą ok. 4,2 tys. za 1 kg. W Europie mówią, że to "polska oliwka"
Muszą podać, ile zarabiają lekarze. AOTMiT zbiera dane
Muszą podać, ile zarabiają lekarze. AOTMiT zbiera dane
Po tym jak pies polizał jej ranę, doszło do sepsy. Kobieta straciła obie nogi i dłonie
Po tym jak pies polizał jej ranę, doszło do sepsy. Kobieta straciła obie nogi i dłonie
Bez insuliny. Naukowcy cofnęli cukrzycę u badanych
Bez insuliny. Naukowcy cofnęli cukrzycę u badanych
Mocz się pieni? Biegiem na badania, to groźny objaw
Mocz się pieni? Biegiem na badania, to groźny objaw
Myśleli, że to żylak. Usłyszała, że zostało jej kilka miesięcy życia
Myśleli, że to żylak. Usłyszała, że zostało jej kilka miesięcy życia
Szkło w mrożonce. Auchan wycofuje produkt
Szkło w mrożonce. Auchan wycofuje produkt