OpenAI postanowiło wdrożyć system weryfikacji wieku do swojej sztandarowej usługi. ChatGPT ma tym samym spełnić restrykcyjne wymogi krajowych organów regulacyjnych. Problem jest jednak taki, że czat będzie automatycznie oceniał ile mamy lat. Proces będzie przeprowadzany na podstawie prowadzonych rozmów oraz szeregu innych dostarczanych danych. Nie wiem jak Wy, ale osobiście wyczuwam lawinę pomyłek i ograniczeń narzucanych na mnóstwo osób.
ChatGPT będzie sprawdzał wiek użytkowników w najgorszy możliwy sposób
Głośnym echem odbiła się implementacja systemu weryfikacji wieku do platformy Roblox – internauci szybko zaczęli oszukiwać algorytm poprzez np. doklejanie wąsów czy zakładanie kapelusza. Selfie wykonane w ten sposób skutecznie było oceniane na takie zrobione przez dorosłą osobę. Mnóstwo graczy niekoniecznie polubiło się też z koniecznością wysyłania zdjęć dokumentu potwierdzającego tożsamość. Ten proces zresztą również bywa problematyczny.
Podobny krok wykonała właśnie firma OpenAI, która za wszelką cenę chce uspokoić wszelkie organy regulacyjne. Ogłoszona nowość debiutuje globalnie, choć mieszkańcy krajów członkowskich UE muszą poczekać jeszcze kilka tygodni. Istnieje bowiem spora szansa, że każde państwo otrzyma nieco inne rozwiązanie. Fundament jest jednak identyczny, czyli spersonalizowany model oceniający wiek osoby na podstawie dawanych przez nią behawioralnych sygnałów.
Właściciele usługi ChatGPT jako przykłady wskazują:
- datę założenia konta
- typowy czas aktywności w ciągu dnia
- wzorce użytkowania na przestrzeni czasu
- wiek deklarowany przez użytkownika
Na podstawie tych i innych aspektów algorytm oceni czy przed telefonem lub komputerem siedzi osoba powyżej 18 roku życia. Jeśli system się pomyli, to użytkownik będzie mógł na własne życzenie zrobić selfie i rozpocząć ponowną weryfikację wymagającą w niektórych przypadkach dowodu tożsamości.

Co czeka osoby dorosłe? Popularny czatbot znacząco ulegnie zmianie
OpenAI nie wspomina czy implementacja nowego rozwiązania jest równoznaczna z wdrożeniem długo zapowiadanego trybu dla dorosłych. Podawane są jednak przykłady tematów, które nie będą dozwolone dla osób niepełnoletnich. Pokrywają się one z tym, co Sam Altman niedawno opisywał w kontekście bardziej otwartych rozmów.
Chodzi przede wszystkim o zdjęcia przedstawiające przemoc czy wpisujące się w gatunek gore. Trudno też przejść obok możliwości dyskutowania w sposób erotyczny i erotyczny (także z elementami przemocy). ChatGPT nie będzie ponadto zamknięty w zakresie samookaleczania czy niezdrowych diet. Młodsi mogą o tym zapomnieć, asystent będzie milczał przy próbie poruszenia tych niepokojących tematów.
Wszystko ma oczywiście jeden prosty cel – ochrona nieletnich przed negatywnym wpływem mediów społecznościowych i sztucznej inteligencji.
Źródło tekstu: OpenAI / Zdjęcie otwierające: unsplash.com (@solenfeyissa)