Sztuczna inteligencja nie zastąpi lekarza. Eksperci ostrzegają przed niebezpieczeństwem
Rozwój generatywnej sztucznej inteligencji sprawił, że coraz więcej osób korzysta z chatbotów, aby uzyskać szybkie odpowiedzi na pytania dotyczące zdrowia. Jednak eksperci ostrzegają – to rozwiązanie może być bardzo ryzykowne. AI nie ma dostępu do twojej dokumentacji medycznej, może podawać przestarzałe informacje i generować błędne, choć brzmiące przekonująco, porady.
W tym artykule:
Kiedy AI zagraża zdrowiu
Przykładem jest opisany niedawno przypadek 60-letniego mężczyzny, który po konsultacji z chatbotem zastąpił sól kuchenną bromkiem sodu. Efekt? Toksyczność bromu, zaburzenia psychiczne i trzytygodniowy pobyt w szpitalu psychiatrycznym.
To pokazuje, że nieodpowiedzialne korzystanie z AI w kwestiach zdrowotnych może prowadzić do poważnych konsekwencji.
Ryzyko potęguje fakt, że chatboty:
Aplikacja CRADLE zbada twoje oczy. Wystarczy jej zdjęcie
nie uwzględniają indywidualnych chorób czy leków pacjenta,
nie rozpoznają sytuacji wymagających natychmiastowej interwencji medycznej,
mogą tworzyć informacje, podając fałszywe dane jako fakty.
Badania: co potrafi AI w medycynie?
W literaturze pojawia się coraz więcej analiz, które pokazują zarówno potencjał, jak i ograniczenia generatywnej AI w ochronie zdrowia:
Badanie opublikowane w "Nutrients" pokazało, że popularne chatboty (w tym ChatGPT) tworzyły plany dietetyczne wspierające redukcję masy ciała, jednak nie potrafiły prawidłowo zbilansować makroskładników, co w dłuższej perspektywie mogło prowadzić do niedoborów i zaburzeń metabolicznych.
Eksperyment opisany w "JAMA Internal Medicine", porównujący odpowiedzi AI i lekarzy na pytania pacjentów, pokazał, że chatboty często były oceniane jako bardziej "empatyczne" i klarowne, ale brakowało im klinicznej trafności i kontekstu.
W badaniu "BMJ Health & Care Informatics" wskazano, że generatywna AI może wspierać edukację pacjentów i lekarzy, ale nie może być źródłem decyzji terapeutycznych. Autorzy podkreślili, że AI nie zastąpi procesu diagnostycznego opartego na badaniu pacjenta i analizie wyników badań.
Eksperci American Medical Association zaznaczyli, że największą wartością AI jest tłumaczenie terminologii medycznej i dostarczanie tła do rozmowy z lekarzem, a nie udzielanie indywidualnych porad zdrowotnych.
Dlaczego AI bywa myląca?
Generatywna AI opiera się na danych, na których była trenowana. Oznacza to, że informacje mogą być:
przestarzałe – np. chatbot nie zawsze uwzględnia najnowsze zalecenia CDC czy WHO,
niedopasowane do pacjenta – nie bierze pod uwagę wieku, chorób przewlekłych czy przyjmowanych leków,
złudnie pewne – AI potrafi podać błędne dane w tonie absolutnej pewności.
Eksperci wskazują kilka zasad, by bezpiecznie korzystać z AI, zwłaszcza w przypadku zdrowia:
nie podawaj danych osobowych ani medycznych – AI nie jest objęta ochroną prywatności (HIPAA w USA czy RODO w Europie),
traktuj AI jako narzędzie do nauki – możesz poprosić o wyjaśnienie trudnego pojęcia medycznego lub ogólne informacje,
weryfikuj źródła – sprawdzaj, czy chatbot powołuje się na renomowane czasopisma naukowe (np. The Lancet, NEJM, JAMA) lub instytucje (WHO, EMA, CDC),
konsultuj z lekarzem – jeśli znajdziesz coś ważnego, zabierz tę informację na wizytę,
nie eksperymentuj na sobie – szczególnie w przypadku leków, suplementów i zmian w terapii.
Sztuczna inteligencja otwiera nowe możliwości w edukacji zdrowotnej, ale nie jest i długo nie będzie bezpiecznym źródłem porad medycznych. Może pomóc pacjentowi zrozumieć wyniki badań czy przygotować pytania do lekarza, lecz w kwestiach diagnozy i leczenia jedynym właściwym źródłem pozostaje kontakt z profesjonalistą.
Dominika Najda, dziennikarka Wirtualnej Polski
Źródła
- Verywell Health
- Nutrients
- JAMA Internal Medicine
- BMJ Health & Care Informatics
- American Medical Association
Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.