AI zamiast psychologa? To może skończyć się tragedią

Piotr MalinowskiSkomentuj
AI zamiast psychologa? To może skończyć się tragedią

Wyniki najnowszych badań zwracają uwagę na szkodliwość wykorzystywania chatbotów w procesie terapeutycznym. Często dochodzi bowiem do stygmatyzowania osób cierpiących na wszelkiej maści zaburzenia czy inne psychiczne problemy. Duże modele językowe potrafią też generować odpowiedzi sprzeczne z aktualną wiedzą medyczną. Udzielane rady mogą więc wyrządzić ogromną szkodę użytkownikowi i wpędzić go w jeszcze poważniejsze kłopoty.



AI nie zastąpi psychologa – na całe szczęście

Sztuczna inteligencja wdrażana jest naprawdę wszędzie. Regularnie informujemy Was o ciekawych przedsięwzięciach wykorzystujących najnowszą technologię. Ostatnio odwiedziliśmy się chociażby, że ludzie są skłonni przypisywać intencje i emocje robotom, które wykazują ludzkie cechy. Mowa przede wszystkim o wykonywaniu naturalnych ruchów czy wchodzeniu w przyjazną interakcję.

Naukowcy przeanalizowali pięć asystentów zaprojektowanych do generowania treści mających pomagać osobom cierpiącym na psychiczne dolegliwości. Badacze chcieli sprawdzić czy sztuczna inteligencja będzie w stanie podejść do użytkownika bez żadnych uprzedzeń. Wzięto też pod uwagę sposób udzielania rad oraz sposób reagowania na konkretne frazy wypowiadane przez pacjenta. Szybko okazało się, że duże modele językowe (LLM) nie są w stanie zastąpić dobrego ludzkiego terapeuty. Co więcej, AI może wyrządzić więcej szkód niż pożytku.



Pierwszy eksperyment polegał na dostarczenie chatbotom listę objawów występujących u danej osoby. Sztuczna inteligencja miała potem ocenić skłonność do współpracy z takim człowiekiem oraz wskazać prawdopodobieństwo, że pacjent zrobi krzywdę innym ludziom. Rezultat był taki, że AI zaczęła stygmatyzować internautów cierpiących na określone schorzenia. Do takiej sytuacji nie powinno dojść w żadnym szanującym się gabinecie psychologicznym bądź psychiatrycznym.

Narzędzia cyfrowe bywają kuszące, ale wciąż wygrywa człowiek

Chatboty były najbardziej uprzedzone do osób uzależnionych od alkoholu oraz takich chorujących na schizofrenię. Co ciekawe, identyczne problemy występują zarówno w starszych, jak i nowszych LLM-ach. Nie pomaga dostarczenie pokaźniejszej ilości danych – to bardzo niepokojące. Warto też pochylić się nad drugim eksperymentem, tam bowiem naukowcy dostarczyli sztucznej inteligencji transkrypcje prawdziwych wizyt terapeutycznych. AI była w stanie wygenerować listę wysokich budynków po napisaniu, że ktoś poszukuje odpowiedniego miejsca, by skończyć ze sobą po utracie pracy. Absurd.

Obecnie nie ma więc nawet ciasnej przestrzeni na to, by sztuczna inteligencja zastąpiła ludzkich terapeutów. Demonizowanie technologii także jest jednak krokiem w złym kierunku. Zaawansowane narzędzia AI mogą przydać się podczas m.in. tworzenia dziennika czy wykonywania zadań zleconych przez prawdziwego psychologa. Traktujmy zatem chatboty jako przydatny dodatek, ale nie samą terapię.

Raczej zbyt szybko nie nastąpi taki moment, byśmy pomocy psychologicznej faktycznie mogli poszukiwać wewnątrz chatbotów. Oby.

Źródło: TechCrunch / Zdjęcie otwierające: OpenAI, unsplash.com (@webpanelman)


Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.