Przyjęli 14-latkę do szpitala. Oto co znalazło się w jej karcie
Zdjęcie dokumentu z bydgoskiego szpitala stało się już viralem w sieci. W karcie informacyjnej przyjętej tam 14-latki znalazł się bowiem zapis najpewniej stworzony przez Chat GPT. - Narzędzie zostało użyte do zredagowania trzech zdań wywiadu pod kątem korekty językowej – skomentowała sprawę dr n. med. Danuta Kurylak, zastępca dyrektora ds. lecznictwa Wojewódzkiego Szpitala Dziecięcego w Bydgoszczy.
Zapis z Chata GPT na karcie z izby przyjęć
Sztuczna inteligencja coraz częściej wspomaga medyków w codziennej pracy, usprawniając diagnostykę, analizę wyników badań i organizację opieki nad pacjentem. Dzięki nowoczesnym algorytmom lekarze mogą szybciej wychwytywać nieprawidłowości w obrazach radiologicznych, interpretować duże zbiory danych medycznych oraz lepiej przewidywać ryzyko rozwoju niektórych chorób.
AI nie zastępuje jednak specjalisty, lecz stanowi narzędzie, które pomaga podejmować trafniejsze decyzje, oszczędza czas i pozwala skupić się na tym, co w leczeniu najważniejsze – bezpośrednim kontakcie z pacjentem i indywidualnym podejściu do jego potrzeb.
Jednak sztuczna inteligencja nie zawsze wykorzystywana jest w sposób zgodny z zasadami etyki, rzetelności i odpowiedzialnej komunikacji. Coraz częściej pojawiają się treści tworzone lub modyfikowane przez AI, które wprowadzają odbiorców w błąd, upraszczają złożone kwestie zdrowotne albo nadają fałszywy autorytet niesprawdzonym informacjom.
Co więcej, jak pokazują materiały publikowane w mediach społecznościowych, wsparcie sztucznej inteligencji dla lekarzy nieraz daleko wykracza poza ramy społecznie akceptowalnego korzystania z chata GPT. Tak jest w przypadku sprawy, o której informują na Facebooku liczni przedstawiciele zawodów medycznych, m.in. lekarz rodzinny Jacek Bujko.
Na opublikowanej przez niego karcie informacyjnej z izby przyjęć Wojewódzkiego Dziecięcego Szpitala im. J. Brudzińskiego w Bydgoszczy widnieją dane pacjenta z nieokreślonym urazem głowy. Według niej 14-latka zgłosiła się do placówki z bólem głowy, a także mrowieniem i drętwieniem w okolicy barków.
Nie byłoby w tej karcie nic nadzwyczajnego, gdyby nie to, że pod opisem badania i wywiadu przedmiotowego znalazła się także ramka ze zdaniem najpewniej napisanym przez AI: "Jeśli chcesz, mogę też przygotować pełniejszy wywiad po urazie głowy u dziecka (z typowymi pytaniami o utratę przytomności, wymioty, zawroty głowy), który często wpisuje się w dokumentacji SOR".
"To była tylko kwestia czasu" - komentuje zdjęcie dr Jacek Bujko.
Szpital komentuje
Dziennikarze "Expressu Bydgoskiego" skontaktowali się z bydgoskim szpitalem i zapytali, czy procedury szpitalne dopuszczają korzystanie z "chatbotów" w generowaniu oficjalnych dokumentów medycznych. W odpowiedzi szpital podkreślił, że "narzędzie Chat GPT nie zostało użyte w celu postawienia diagnozy ani opracowania planu leczenia".
- Lekarz rezydent dokonujący wpisu, zarówno w badaniu podmiotowym, jak i przedmiotowym posługiwał się formularzami dokumentacji medycznej obowiązującymi w szpitalu. Narzędzie zostało użyte do zredagowania trzech zdań wywiadu pod kątem korekty językowej. Nie wprowadzono przy tym żadnych danych wrażliwych pacjenta – wyjaśnia dla "Expressu Bydgoskiego" dr n. med. Danuta Kurylak, zastępca dyrektora ds. lecznictwa Wojewódzkiego Szpitala Dziecięcego w Bydgoszczy.
Szpital przekazał ponadto, że "postępowanie diagnostyczne i terapeutyczne odbywa się w oparciu o obowiązujące standardy medyczne", jednakże "narzędzia cyfrowe wspierające pracę personelu, w tym wykorzystujące rozwiązania AI, będą wdrażane wraz z procedurami regulującymi zasady nadzoru oraz zakres ich stosowania w ramach realizowanego przez szpital projektu Przyspieszenie procesów transformacji cyfrowej ochrony zdrowia poprzez dalszy rozwój usług cyfrowych w ochronie zdrowia".
Źródła:
- Facebook,
- Express Bydgoski.
Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.