Sztuczna inteligencja nie zastąpi lekarza. Eksperci ostrzegają przed niebezpieczeństwem

Rozwój generatywnej sztucznej inteligencji sprawił, że coraz więcej osób korzysta z chatbotów, aby uzyskać szybkie odpowiedzi na pytania dotyczące zdrowia. Jednak eksperci ostrzegają – to rozwiązanie może być bardzo ryzykowne. AI nie ma dostępu do twojej dokumentacji medycznej, może podawać przestarzałe informacje i generować błędne, choć brzmiące przekonująco, porady.

Chatbot nie jest lekarzem. Uważaj na rady generowane przez AIChatbot nie jest lekarzem. Uważaj na rady generowane przez AI
Źródło zdjęć: © Getty Images

Kiedy AI zagraża zdrowiu

Przykładem jest opisany niedawno przypadek 60-letniego mężczyzny, który po konsultacji z chatbotem zastąpił sól kuchenną bromkiem sodu. Efekt? Toksyczność bromu, zaburzenia psychiczne i trzytygodniowy pobyt w szpitalu psychiatrycznym.

To pokazuje, że nieodpowiedzialne korzystanie z AI w kwestiach zdrowotnych może prowadzić do poważnych konsekwencji.

Ryzyko potęguje fakt, że chatboty:

Aplikacja CRADLE zbada twoje oczy. Wystarczy jej zdjęcie

  • nie uwzględniają indywidualnych chorób czy leków pacjenta,

  • nie rozpoznają sytuacji wymagających natychmiastowej interwencji medycznej,

  • mogą tworzyć informacje, podając fałszywe dane jako fakty.

Badania: co potrafi AI w medycynie?

W literaturze pojawia się coraz więcej analiz, które pokazują zarówno potencjał, jak i ograniczenia generatywnej AI w ochronie zdrowia:

Badanie opublikowane w "Nutrients" pokazało, że popularne chatboty (w tym ChatGPT) tworzyły plany dietetyczne wspierające redukcję masy ciała, jednak nie potrafiły prawidłowo zbilansować makroskładników, co w dłuższej perspektywie mogło prowadzić do niedoborów i zaburzeń metabolicznych.

Eksperyment opisany w "JAMA Internal Medicine", porównujący odpowiedzi AI i lekarzy na pytania pacjentów, pokazał, że chatboty często były oceniane jako bardziej "empatyczne" i klarowne, ale brakowało im klinicznej trafności i kontekstu.

W badaniu "BMJ Health & Care Informatics" wskazano, że generatywna AI może wspierać edukację pacjentów i lekarzy, ale nie może być źródłem decyzji terapeutycznych. Autorzy podkreślili, że AI nie zastąpi procesu diagnostycznego opartego na badaniu pacjenta i analizie wyników badań.

Eksperci American Medical Association zaznaczyli, że największą wartością AI jest tłumaczenie terminologii medycznej i dostarczanie tła do rozmowy z lekarzem, a nie udzielanie indywidualnych porad zdrowotnych.

Dlaczego AI bywa myląca?

Generatywna AI opiera się na danych, na których była trenowana. Oznacza to, że informacje mogą być:

  • przestarzałe – np. chatbot nie zawsze uwzględnia najnowsze zalecenia CDC czy WHO,

  • niedopasowane do pacjenta – nie bierze pod uwagę wieku, chorób przewlekłych czy przyjmowanych leków,

  • złudnie pewne – AI potrafi podać błędne dane w tonie absolutnej pewności.

Eksperci wskazują kilka zasad, by bezpiecznie korzystać z AI, zwłaszcza w przypadku zdrowia:

  • nie podawaj danych osobowych ani medycznych – AI nie jest objęta ochroną prywatności (HIPAA w USA czy RODO w Europie),

  • traktuj AI jako narzędzie do nauki – możesz poprosić o wyjaśnienie trudnego pojęcia medycznego lub ogólne informacje,

  • weryfikuj źródła – sprawdzaj, czy chatbot powołuje się na renomowane czasopisma naukowe (np. The Lancet, NEJM, JAMA) lub instytucje (WHO, EMA, CDC),

  • konsultuj z lekarzem – jeśli znajdziesz coś ważnego, zabierz tę informację na wizytę,

  • nie eksperymentuj na sobie – szczególnie w przypadku leków, suplementów i zmian w terapii.

Sztuczna inteligencja otwiera nowe możliwości w edukacji zdrowotnej, ale nie jest i długo nie będzie bezpiecznym źródłem porad medycznych. Może pomóc pacjentowi zrozumieć wyniki badań czy przygotować pytania do lekarza, lecz w kwestiach diagnozy i leczenia jedynym właściwym źródłem pozostaje kontakt z profesjonalistą.

Dominika Najda, dziennikarka Wirtualnej Polski

Źródła

  1. Verywell Health
  2. Nutrients
  3. JAMA Internal Medicine
  4. BMJ Health & Care Informatics
  5. American Medical Association

Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.

Źródło artykułu: WP abcZdrowie
Wybrane dla Ciebie
"Pierwszy sygnał" uszkodzenia nerek, wątroby. Kluczowe badanie
"Pierwszy sygnał" uszkodzenia nerek, wątroby. Kluczowe badanie
Suplementy, które mogą podnosić ciśnienie krwi. Ważne ostrzeżenie dla sercowców
Suplementy, które mogą podnosić ciśnienie krwi. Ważne ostrzeżenie dla sercowców
Denga i chikungunya coraz częstsze. Tak można się ochronić
Denga i chikungunya coraz częstsze. Tak można się ochronić
Symbol świąt. Jemioła jest trująca, ale może wspomagać ciśnienie krwi
Symbol świąt. Jemioła jest trująca, ale może wspomagać ciśnienie krwi
Obwód uda może świadczyć o ryzyku zgonu? Naukowcy wiedzą, ile cm to minimum
Obwód uda może świadczyć o ryzyku zgonu? Naukowcy wiedzą, ile cm to minimum
Polacy przejadają się w święta. "Zapalenie trzustki, żołądka czy przełyku"
Polacy przejadają się w święta. "Zapalenie trzustki, żołądka czy przełyku"
Izba bez lekarza zamiast porodówki? MZ nie chce dopłacać do nierentownych oddziałów
Izba bez lekarza zamiast porodówki? MZ nie chce dopłacać do nierentownych oddziałów
Uważaj na tę rybę. GIS ostrzega przed alternatywą dla karpia
Uważaj na tę rybę. GIS ostrzega przed alternatywą dla karpia
Tysiące chorych bez finansowania z NFZ. Eksperci alarmują o niedoszacowanych kontraktach
Tysiące chorych bez finansowania z NFZ. Eksperci alarmują o niedoszacowanych kontraktach
Dla tych Polaków grypa jest szczególnie niebezpieczna. Rośnie ryzyko zawału
Dla tych Polaków grypa jest szczególnie niebezpieczna. Rośnie ryzyko zawału
Tak objawia się rak trzustki. Trzeba być niezwykle czujnym
Tak objawia się rak trzustki. Trzeba być niezwykle czujnym
Nie bierz tego leku. Może zagrażać życiu. Jest pilna reakcja GIF
Nie bierz tego leku. Może zagrażać życiu. Jest pilna reakcja GIF