AI zauważy, że coś Ci dolega. ChatGPT Health chce mieć dostęp do Twoich wyników badań

Piotr SojskiSkomentuj
AI zauważy, że coś Ci dolega. ChatGPT Health chce mieć dostęp do Twoich wyników badań

Open AI ma problem, którego nie da się już ignorować. Każdego tygodnia 230 milionów ludzi na całym świecie traktuje ich czatbota jak lekarza pierwszego kontaktu, pytając o diagnozy i leczenie. Zamiast z tym walczyć, firma postanowiła sformalizować ten proces. Tak powstał ChatGPT Health – dedykowany moduł, który obiecuje bezpieczeństwo, ale jednocześnie stawia nas przed pytaniem: czy sztuczna inteligencja to na pewno najlepszy doradca w sprawach życia i śmierci?



Nowe narzędzie to w teorii bezpieczny azyl. Jeśli zaczniesz opowiadać czatbotowi o swoim bólu w klatce piersiowej, system ma “wyczuć” temat i grzecznie zasugerować przenosiny do specjalnej sekcji Health. To tam OpenAI chce gromadzić nasze najbardziej intymne dane, od wyników badań laboratoryjnych po historię treningową z Apple Health czy Peloton. 

Piaskownica z widokiem na Twoją prywatność

OpenAI projektując ChatGPT Health, postawiło na izolację. Moduł działa jako tzw. sandbox – ma własną pamięć i oddzielną historię rozmów, która nie miesza się z resztą naszych zapytań. Firma zarzeka się też, że te konkretne konwersacje nie posłużą do trenowania przyszłych modeli. Dane będą zaszyfrowane, a dostęp do nich ma być ściśle limitowany. 



Brzmi to dobrze, dopóki nie uświadomimy sobie skali integracji. W USA ChatGPT Health może zostać podpięty bezpośrednio pod elektroniczną dokumentację medyczną (EHR). W jednym miejscu mogą spotkać się więc Twoje oficjalne wyniki od lekarza, dane z opaski fitness i przemyślenia algorytmu. Choć OpenAI twierdzi, że to sposób na “ciągłość opieki”, dla wielu może to brzmieć jak kolejna próba przejęcia najbardziej wrażliwych informacji o nas wszystkich. 

Kiedy prawdopodobieństwo przegrywa z prawdą

Największy sceptycyzm budzi jednak sama technologia. Modele LLM, na których opiera się ChatGPT, często nie mają pojęcia o tym, co jest prawdą. Zdarza się, że jedynie przewidują, jakie słowo powinno paść po poprzednim, by zdanie brzmiało sensownie. W medycynie to “prawdopodobieństwo” może być zabójcze. OpenAI samo przyznaje, że ich modele są podatne na halucynacje, a w historii zdarzały się już przypadki, gdy błędne sugestie AI kończyły się hospitalizacją użytkowników i nie tylko. 

Mimo, że nad ChatGPT Health przez dwa lata pracowało 260 lekarzy (możemy o tym przeczytać bezpośrednio w komunikacie na stronie OpenAI), regulamin pozostaje nieubłagany. Twórcy podkreślają, że nie jest to narzędzie do diagnozowania ani leczenia. OpenAI tworzy więc dziwną hybrydę – z jednej strony promuje narzędzie jako odpowiedź na brak lekarzy i wysokie koszty opieki, a z drugiej próbuje zdjąć z siebie jakąkolwiek odpowiedzialność za to, co algorytm wygeneruje. 

Dostęp? Nie dla każdego i nie wszędzie

Funkcja ma zadebiutować w przeglądarkach i na iOS w najbliższych tygodniach, początkowo dla wąskiej grupy testerów.

Fidji Simo z OpenAI przekonuje na swoim blogu, że ChatGPT Health to konieczność, bo system opieki zdrowotnej jest niewydolny. Czy jednak lekarstwem na przepełnione przychodnie powinna być aplikacja, która potrafi “zmyślać” z ogromną pewnością siebie? Na to pytanie chyba każdy z nas będzie musiał odpowiedzieć sobie sam, gdy po raz pierwszy zobaczymy komunikat zapraszający nas do sekcji Zdrowie. 


Źródło: OpenAI, TechCrunch / Zdj. otwierające: Unsplash (@maria_shalabaieva)

Piotr SojskiPołączenie pasji do nowych technologii i pisania to dla niego naturalny kierunek. Pamięta czasy, kiedy posiadanie telefonu komórkowego było luksusem. Obecnie skupia się na ekosystemie Apple.