Deepfake w medycynie? Sztuczna inteligencja myli specjalistów
Nowe badanie pokazało, że sztucznie wygenerowane zdjęcia rentgenowskie potrafią wyglądać tak wiarygodnie, że mają problem z ich rozpoznaniem nawet doświadczeni radiolodzy. To potencjalne zagrożenie dla bezpieczeństwa pacjentów i wiarygodności dokumentacji medycznej.
W tym artykule:
Sztuczna inteligencja potrafi tworzyć wiarygodne zdjęcia RTG
W badaniu wzięło udział 17 radiologów z 12 ośrodków w sześciu krajach. Oceniali oni 264 zdjęcia RTG, z których połowa była prawdziwa, a połowa została wygenerowana przez AI. W pierwszym zestawie znalazły się obrazy różnych części ciała stworzone m.in. przez GPT-4o, a w drugim zdjęcia klatki piersiowej, w części wygenerowane przez model RoentGen opracowany na Stanfordzie. Kiedy lekarze nie wiedzieli, że wśród obrazów znajdują się fałszywki, tylko 41 proc. zauważyło, że coś jest nie tak. Gdy zostali uprzedzeni, że część zdjęć jest syntetyczna, ich średnia skuteczność wzrosła do 75 proc.
Nawet modele AI mają problem z wykrywaniem deepfake'ów
Co ważne, podobne trudności miała sama sztuczna inteligencja. Modele GPT-4o, GPT-5, Gemini 2.5 Pro i Llama 4 Maverick także nie potrafiły bezbłędnie oddzielić obrazów prawdziwych od wygenerowanych. Nawet GPT-4o, wykorzystany do tworzenia części deepfake’ów, nie rozpoznał wszystkich własnych fałszywek. Badacze zauważyli też, że lata doświadczenia radiologa nie przekładały się wyraźnie na lepsze wyniki, choć nieco lepiej radzili sobie specjaliści od radiologii układu mięśniowo-szkieletowego.
Fałszywe obrazy mogą zagrozić pacjentom i szpitalom
Autor badania dr Mickael Tordjman podkreślił, że tworzy to pole zarówno do nadużyć, jak i do cyberataków. Fałszywy obraz mógłby zostać użyty np. w próbie wyłudzenia odszkodowania albo wprowadzony do systemu szpitalnego po to, by zaburzyć diagnozę i wywołać chaos. Naukowcy opisali też charakterystyczne cechy takich obrazów: bywają zbyt idealne — kości są nadmiernie gładkie, kręgosłupy nienaturalnie proste, płuca przesadnie symetryczne, a linie złamań wyjątkowo czyste.
Eksperci apelują o lepsze zabezpieczenia danych medycznych
Badacze apelują, by już teraz wzmacniać zabezpieczenia, m.in. przez niewidoczne znaki wodne i podpisy kryptograficzne dodawane do obrazu w chwili jego wykonania. Ostrzegają też, że to może być dopiero początek. Kolejnym krokiem będą zapewne syntetyczne obrazy 3D, takie jak tomografia komputerowa czy rezonans magnetyczny. Dlatego medycyna będzie musiała nauczyć się nie tylko korzystać z AI, ale też skutecznie sprawdzać, kiedy obraz jest prawdziwy.
Źródło: rsna.org
Treści w naszych serwisach służą celom informacyjno-edukacyjnym i nie zastępują konsultacji lekarskiej. Przed podjęciem decyzji zdrowotnych skonsultuj się ze specjalistą.