Sztuczna inteligencja potrafi wykryć zawczasu, czy pokłócisz się podczas rozmowy online

Marta BorkowskaSkomentuj
Sztuczna inteligencja potrafi wykryć zawczasu, czy pokłócisz się podczas rozmowy online

Internet to dziś główna przestrzeń wymiany opinii, myśli i doświadczeń. Niestety, często zdarza się, że rozmowy prowadzone w sieci schodzą z właściwego toru. Dyskusje przeradzają się w kłótnie, pojawiają się personalne ataki, a cała konwersacja zamienia się w źródło stresu i frustracji.



To wyzwanie nie tylko dla samych użytkowników, ale przede wszystkim dla moderatorów, którzy starają się dbać o kulturę wypowiedzi i bezpieczeństwo społeczności online. Ręczna moderacja nie zawsze jest wystarczająca, zwłaszcza gdy mamy do czynienia z ogromną liczbą rozmów toczących się jednocześnie na różnych platformach. Właśnie dlatego naukowcy coraz częściej szukają wsparcia w sztucznej inteligencji.

Nowe badania z Japonii

Zespół badawczy z Uniwersytetu Tsukuba w Japonii postanowił sprawdzić, czy sztuczna inteligencja może przewidzieć, kiedy rozmowa online zaczyna zmierzać w niepokojącym kierunku – zanim jeszcze dojdzie do konfliktu. W tym celu wykorzystano duże modele językowe, podobne do tych używanych przez narzędzia takie jak ChatGPT. Badanie skupiło się na tzw. metodzie „zero-shot learning”, co oznacza, że model AI nie był wcześniej uczony na konkretnych przykładach z danej platformy. Mimo tego, był w stanie analizować treść rozmowy i przewidywać, czy za chwilę dojdzie do zaostrzenia dyskusji. To podejście okazało się nie tylko innowacyjne, ale również niezwykle skuteczne.



Przykłady zbaczania tematów w rozmowach online/ Źródło: IEEE Access

W praktyce badacze dali modelom dostęp do zapisów rozmów prowadzonych w różnych miejscach w sieci. AI otrzymało zadanie określenia, które wypowiedzi mogą zwiastować odejście od głównego tematu i wejście na drogę personalnych wycieczek czy konfliktów. Co ciekawe, mimo że modele nie znały wcześniej kontekstu tych rozmów ani nie były specjalnie trenowane na podobnych przykładach, to potrafiły z dużą precyzją wskazać fragmenty niosące ryzyko eskalacji.

W wielu przypadkach modele zero-shot dorównywały skutecznością specjalistycznym systemom, które wymagały godzin treningu na danych z konkretnych platform. To pokazuje, że AI potrafi nie tylko analizować sens wypowiedzi, ale również wyczuwać emocje i napięcia między rozmówcami.

Zmiany przewidywań w czasie / Źródło: IEEE Access

Ręczna moderacja już nie wystarczający

Dotychczas każda platforma internetowa musiała tworzyć własne systemy do moderacji, dostosowane do swojej społeczności i specyfiki komunikacji. To wiązało się z dużymi kosztami, czasem, a także koniecznością utrzymywania zespołów odpowiedzialnych za aktualizację i dopasowanie algorytmów. Badania z Tsukuby pokazują, że można stworzyć uniwersalne narzędzia, które sprawdzą się niezależnie od miejsca. Dzięki temu możliwe będzie wdrożenie skutecznej, a zarazem bardziej dostępnej moderacji na mniejszych portalach, forach czy nawet w aplikacjach edukacyjnych. To istotne zwłaszcza w kontekście walki z mową nienawiści, dezinformacją i cyberprzemocą.

Naukowcy zapowiadają kontynuację projektu i dalsze badania nad możliwościami sztucznej inteligencji w zakresie moderacji treści. Planują między innymi sprawdzić, jak połączyć modele językowe z istniejącymi narzędziami do filtrowania treści oraz jak zadbać o prywatność użytkowników. W przyszłości takie modele mogą nie tylko przewidywać konflikty, ale również podpowiadać użytkownikom, jak lepiej sformułować wypowiedź lub proponować łagodniejsze wersje wiadomości. To może całkowicie zmienić sposób, w jaki prowadzimy rozmowy online – mniej konfliktów, więcej wzajemnego szacunku.

Źródło: ieeexplore.ieee.org


Marta BorkowskaPasjonatka fotografii, książek i filmów. Zafascynowana nowościami technicznymi, światem nauki oraz tajemnicami kosmosu, ciągle poszukuję inspiracji i nowych tematów do swoich tekstów.