ChatGPT uznany winnym przestępstwa fabrykowania dowodów

Maksym SłomskiSkomentuj
ChatGPT uznany winnym przestępstwa fabrykowania dowodów
ChatGPT z dnia na dzień jest karmiony coraz większą ilością danych, przez co, przynajmniej w teorii, staje się coraz lepszy. Chatbot wykorzystujący model GPT i opracowany przez firmę OpenAI jest w stanie wygenerować odpowiedź na dowolne pytanie zadane przez użytkownika. Chwalony za swoją „wiedzę” oraz między innymi umiejętność odrabiania zadań domowych, czy też zdawania egzaminów na studia, nie jest wcale tak idealny, na jakiego kreują go co poniektórzy. W Stanach Zjednoczonych został na przykład pośrednio oskarżony o fabrykowanie dowodów. Wszystko przez skłonność do fantazjowania.

Sprawdź też: Biznes założony przez ChatGPT ma się nie najgorzej

ChatGPT przed sądem

Koszty związane z korzystaniem z usług radców prawnych, notariuszy i adwokatów nie należą do niskich. Gdy zatem konsumenci zdecydują się po nie sięgnąć, spodziewają się pomocy na najwyższym poziomie. Jeden z amerykańskich prawników postanowił wybrać drogę na skróty i zaoszczędzić nieco czasu w pracy. Wykorzystał ChatGPT na etapie składania wniosku do sądu federalnego. Jak szybko przekonał się na własnej skórze, weryfikacja faktów przez człowieka jest szalenie ważna, zwłaszcza gdy sztuczna inteligencja ma skłonność do ich zmyślania.

Adwokat Steven A. Schwartz został zatrudniony przez klienta do reprezentowania go w sprawie o spowodowanie obrażeń ciała przeciwko Avianca Airlines. Zgodnie z roszczeniem, klient Schwartza został rzekomo uderzony w kolano wózkiem do obsługi podczas lotu na międzynarodowe lotnisko im. J. F. Kennedy’ego w 2019 roku. Jak można się było spodziewać, linia lotnicza zwróciła się do sędziego federalnego z Manhattanu o oddalenie sprawy, czemu Schwartz natychmiast się sprzeciwił. Szło dobrze do momentu, w którym Schwartz skorzystał z ChatGPT.

Nie przegap: Jeden z pionierów AI ostrzega: sztuczna inteligencja zagrozi ludzkości

Lenistwo i wygodnictwo nie zawsze popłaca

W swoim sprzeciwie wobec wniosku Avianca Airlines, Schwartz przedłożył 10-stronicowy raport, powołując się na kilka istotnych orzeczeń sądowych. Cytaty odnosiły się do podobnych spraw, w tym Martinez przeciwko Delta Air Lines, Zicherman przeciwko Korean Air Lines i Varghese przeciwko China Southern Airlines. Ostatni cytat zawierał nawet obszerny komentarz na temat prawa federalnego. Jak zapewne się domyślacie, syntezę przygotował poproszony o to chatbot. Pojawił się problem polegający na tym, że… wszystkie te sprawy zostały zmyślone.



Gdy tylko sędzia P. Kevin Castel wytknął nieprawdziwość przytaczanych spraw, Schwartz od razu zapewnił, że nie miał zamiaru oszukać sądu ani linii lotniczej. Wyraził również ubolewanie z powodu sięgnięcia po sztuczną inteligencję, przyznając przy tym, że… nigdy wcześniej nie korzystał z ChatGPT i „nie był świadomy tego, że jego odpowiedzi mogą być fałszywe”. Zgodnie z oświadczeniami Schwartza, w pewnym momencie próbował zweryfikować autentyczność cytatów… pytając sztuczną inteligencję o to, czy przytoczone przez nią przypadki były rzeczywiście prawdziwe. Zaufał, gdy ChatGPT odpowiedział twierdząco.

Kolejna rozprawa odbędzie się 8 czerwca. Zostanie na niej umówione między innymi to, czy i jak ukarać Schwartza za jego… kreatywne podejście do tematu.

Zostałeś ostrzeżony

Jeżeli wykorzystujesz ChatGPT do odrabiania prac domowych lub w swojej pracy, uważaj. Sztuczna inteligencja może wpędzić Cię w tarapaty. Zgadnij, kto poniesie za to odpowiedzialność.

Źródło: New York Times

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.