Sztuczna inteligencja nie zastąpi lekarza. Eksperci ostrzegają przed niebezpieczeństwem
Rozwój generatywnej sztucznej inteligencji sprawił, że coraz więcej osób korzysta z chatbotów, aby uzyskać szybkie odpowiedzi na pytania dotyczące zdrowia. Jednak eksperci ostrzegają – to rozwiązanie może być bardzo ryzykowne. AI nie ma dostępu do twojej dokumentacji medycznej, może podawać przestarzałe informacje i generować błędne, choć brzmiące przekonująco, porady.
W tym artykule:
Kiedy AI zagraża zdrowiu
Przykładem jest opisany niedawno przypadek 60-letniego mężczyzny, który po konsultacji z chatbotem zastąpił sól kuchenną bromkiem sodu. Efekt? Toksyczność bromu, zaburzenia psychiczne i trzytygodniowy pobyt w szpitalu psychiatrycznym.
To pokazuje, że nieodpowiedzialne korzystanie z AI w kwestiach zdrowotnych może prowadzić do poważnych konsekwencji.
Ryzyko potęguje fakt, że chatboty:
nie uwzględniają indywidualnych chorób czy leków pacjenta,
nie rozpoznają sytuacji wymagających natychmiastowej interwencji medycznej,
mogą tworzyć informacje, podając fałszywe dane jako fakty.
Badania: co potrafi AI w medycynie?
W literaturze pojawia się coraz więcej analiz, które pokazują zarówno potencjał, jak i ograniczenia generatywnej AI w ochronie zdrowia:
Badanie opublikowane w "Nutrients" pokazało, że popularne chatboty (w tym ChatGPT) tworzyły plany dietetyczne wspierające redukcję masy ciała, jednak nie potrafiły prawidłowo zbilansować makroskładników, co w dłuższej perspektywie mogło prowadzić do niedoborów i zaburzeń metabolicznych.
Eksperyment opisany w "JAMA Internal Medicine", porównujący odpowiedzi AI i lekarzy na pytania pacjentów, pokazał, że chatboty często były oceniane jako bardziej "empatyczne" i klarowne, ale brakowało im klinicznej trafności i kontekstu.
W badaniu "BMJ Health & Care Informatics" wskazano, że generatywna AI może wspierać edukację pacjentów i lekarzy, ale nie może być źródłem decyzji terapeutycznych. Autorzy podkreślili, że AI nie zastąpi procesu diagnostycznego opartego na badaniu pacjenta i analizie wyników badań.
Eksperci American Medical Association zaznaczyli, że największą wartością AI jest tłumaczenie terminologii medycznej i dostarczanie tła do rozmowy z lekarzem, a nie udzielanie indywidualnych porad zdrowotnych.
Dlaczego AI bywa myląca?
Generatywna AI opiera się na danych, na których była trenowana. Oznacza to, że informacje mogą być:
przestarzałe – np. chatbot nie zawsze uwzględnia najnowsze zalecenia CDC czy WHO,
niedopasowane do pacjenta – nie bierze pod uwagę wieku, chorób przewlekłych czy przyjmowanych leków,
złudnie pewne – AI potrafi podać błędne dane w tonie absolutnej pewności.
Eksperci wskazują kilka zasad, by bezpiecznie korzystać z AI, zwłaszcza w przypadku zdrowia:
nie podawaj danych osobowych ani medycznych – AI nie jest objęta ochroną prywatności (HIPAA w USA czy RODO w Europie),
traktuj AI jako narzędzie do nauki – możesz poprosić o wyjaśnienie trudnego pojęcia medycznego lub ogólne informacje,
weryfikuj źródła – sprawdzaj, czy chatbot powołuje się na renomowane czasopisma naukowe (np. The Lancet, NEJM, JAMA) lub instytucje (WHO, EMA, CDC),
konsultuj z lekarzem – jeśli znajdziesz coś ważnego, zabierz tę informację na wizytę,
nie eksperymentuj na sobie – szczególnie w przypadku leków, suplementów i zmian w terapii.
Sztuczna inteligencja otwiera nowe możliwości w edukacji zdrowotnej, ale nie jest i długo nie będzie bezpiecznym źródłem porad medycznych. Może pomóc pacjentowi zrozumieć wyniki badań czy przygotować pytania do lekarza, lecz w kwestiach diagnozy i leczenia jedynym właściwym źródłem pozostaje kontakt z profesjonalistą.
Dominika Najda, dziennikarka Wirtualnej Polski
Źródła
- Verywell Health
- Nutrients
- JAMA Internal Medicine
- BMJ Health & Care Informatics
- American Medical Association
Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.