Sztuczna inteligencja nie zastąpi lekarza. Eksperci ostrzegają przed niebezpieczeństwem

Rozwój generatywnej sztucznej inteligencji sprawił, że coraz więcej osób korzysta z chatbotów, aby uzyskać szybkie odpowiedzi na pytania dotyczące zdrowia. Jednak eksperci ostrzegają – to rozwiązanie może być bardzo ryzykowne. AI nie ma dostępu do twojej dokumentacji medycznej, może podawać przestarzałe informacje i generować błędne, choć brzmiące przekonująco, porady.

Chatbot nie jest lekarzem. Uważaj na rady generowane przez AIChatbot nie jest lekarzem. Uważaj na rady generowane przez AI
Źródło zdjęć: © Getty Images

Kiedy AI zagraża zdrowiu

Przykładem jest opisany niedawno przypadek 60-letniego mężczyzny, który po konsultacji z chatbotem zastąpił sól kuchenną bromkiem sodu. Efekt? Toksyczność bromu, zaburzenia psychiczne i trzytygodniowy pobyt w szpitalu psychiatrycznym.

To pokazuje, że nieodpowiedzialne korzystanie z AI w kwestiach zdrowotnych może prowadzić do poważnych konsekwencji.

Ryzyko potęguje fakt, że chatboty:

Aplikacja CRADLE zbada twoje oczy. Wystarczy jej zdjęcie

  • nie uwzględniają indywidualnych chorób czy leków pacjenta,

  • nie rozpoznają sytuacji wymagających natychmiastowej interwencji medycznej,

  • mogą tworzyć informacje, podając fałszywe dane jako fakty.

Badania: co potrafi AI w medycynie?

W literaturze pojawia się coraz więcej analiz, które pokazują zarówno potencjał, jak i ograniczenia generatywnej AI w ochronie zdrowia:

Badanie opublikowane w "Nutrients" pokazało, że popularne chatboty (w tym ChatGPT) tworzyły plany dietetyczne wspierające redukcję masy ciała, jednak nie potrafiły prawidłowo zbilansować makroskładników, co w dłuższej perspektywie mogło prowadzić do niedoborów i zaburzeń metabolicznych.

Eksperyment opisany w "JAMA Internal Medicine", porównujący odpowiedzi AI i lekarzy na pytania pacjentów, pokazał, że chatboty często były oceniane jako bardziej "empatyczne" i klarowne, ale brakowało im klinicznej trafności i kontekstu.

W badaniu "BMJ Health & Care Informatics" wskazano, że generatywna AI może wspierać edukację pacjentów i lekarzy, ale nie może być źródłem decyzji terapeutycznych. Autorzy podkreślili, że AI nie zastąpi procesu diagnostycznego opartego na badaniu pacjenta i analizie wyników badań.

Eksperci American Medical Association zaznaczyli, że największą wartością AI jest tłumaczenie terminologii medycznej i dostarczanie tła do rozmowy z lekarzem, a nie udzielanie indywidualnych porad zdrowotnych.

Dlaczego AI bywa myląca?

Generatywna AI opiera się na danych, na których była trenowana. Oznacza to, że informacje mogą być:

  • przestarzałe – np. chatbot nie zawsze uwzględnia najnowsze zalecenia CDC czy WHO,

  • niedopasowane do pacjenta – nie bierze pod uwagę wieku, chorób przewlekłych czy przyjmowanych leków,

  • złudnie pewne – AI potrafi podać błędne dane w tonie absolutnej pewności.

Eksperci wskazują kilka zasad, by bezpiecznie korzystać z AI, zwłaszcza w przypadku zdrowia:

  • nie podawaj danych osobowych ani medycznych – AI nie jest objęta ochroną prywatności (HIPAA w USA czy RODO w Europie),

  • traktuj AI jako narzędzie do nauki – możesz poprosić o wyjaśnienie trudnego pojęcia medycznego lub ogólne informacje,

  • weryfikuj źródła – sprawdzaj, czy chatbot powołuje się na renomowane czasopisma naukowe (np. The Lancet, NEJM, JAMA) lub instytucje (WHO, EMA, CDC),

  • konsultuj z lekarzem – jeśli znajdziesz coś ważnego, zabierz tę informację na wizytę,

  • nie eksperymentuj na sobie – szczególnie w przypadku leków, suplementów i zmian w terapii.

Sztuczna inteligencja otwiera nowe możliwości w edukacji zdrowotnej, ale nie jest i długo nie będzie bezpiecznym źródłem porad medycznych. Może pomóc pacjentowi zrozumieć wyniki badań czy przygotować pytania do lekarza, lecz w kwestiach diagnozy i leczenia jedynym właściwym źródłem pozostaje kontakt z profesjonalistą.

Dominika Najda, dziennikarka Wirtualnej Polski

Źródła

  1. Verywell Health
  2. Nutrients
  3. JAMA Internal Medicine
  4. BMJ Health & Care Informatics
  5. American Medical Association

Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.

Źródło artykułu: WP abcZdrowie
Wybrane dla Ciebie
Zmiany mogą zaszkodzić pacjentom. Kontrowersje wokół projektu ustawy o zawodzie psychologa
Zmiany mogą zaszkodzić pacjentom. Kontrowersje wokół projektu ustawy o zawodzie psychologa
Zalecenia żywieniowe dla Polaków. Tak powinien wyglądać talerz
Zalecenia żywieniowe dla Polaków. Tak powinien wyglądać talerz
Dietetyk o odwróconej piramidzie żywieniowej. "Nieco kontrowersyjna naukowo"
Dietetyk o odwróconej piramidzie żywieniowej. "Nieco kontrowersyjna naukowo"
Niezwłoczna decyzja. Pilnie wycofują produkt z aptek
Niezwłoczna decyzja. Pilnie wycofują produkt z aptek
Powietrze w domu może szkodzić. Zacznij od sprawdzenia kuchenki
Powietrze w domu może szkodzić. Zacznij od sprawdzenia kuchenki
Odkryli nowe działanie aspiryny. Może wspierać walkę z poważną chorobą
Odkryli nowe działanie aspiryny. Może wspierać walkę z poważną chorobą
Nie żyje brat Patricka Swayze. Miał 63 lata
Nie żyje brat Patricka Swayze. Miał 63 lata
Sztuczna inteligencja jak pielęgniarka? OpenAI zapowiada nowy moduł
Sztuczna inteligencja jak pielęgniarka? OpenAI zapowiada nowy moduł
Nieoczekiwana rola witaminy C. Może wspierać płodność?
Nieoczekiwana rola witaminy C. Może wspierać płodność?
Ginekolog usłyszał zarzuty. NFZ miał stracić blisko 30 tys. zł
Ginekolog usłyszał zarzuty. NFZ miał stracić blisko 30 tys. zł
Biedronka wycofuje z półek produkt. "Bezpieczeństwo i dobro niemowląt są dla nas absolutnym priorytetem"
Biedronka wycofuje z półek produkt. "Bezpieczeństwo i dobro niemowląt są dla nas absolutnym priorytetem"
Nowa piramida żywieniowa w USA. Więcej białka i pełnotłusty nabiał na liście
Nowa piramida żywieniowa w USA. Więcej białka i pełnotłusty nabiał na liście