Youtuber nauczył ChatGPT generowania kluczy do Windowsa

Maksym SłomskiSkomentuj
Youtuber nauczył ChatGPT generowania kluczy do Windowsa
ChatGPT został stworzony w taki sposób, aby nikogo nie obrażać i postępować zgodnie z prawem. Niewiele wody w Wiśle upłynęło, a internauci znaleźli sposób na jednego z najbardziej zaawansowanych czatbotów na świecie. Jak zapewne się domyślacie, wszystko rozbija się o tak zwane „prompty”, czyli zapytania wpisywane w okno rozmowy. Za pomocą tej właśnie metody ChatGPT wykiwał pewien internauta, który poprosił o generowanie działających kluczy aktywacyjnych systemu Windows 95.

Sprawdź: Siedem rzeczy, których nie wiedziałeś o Windows 95

ChatGPT generuje klucze aktywacyjne systemu Windows

YouTuberowi o pseudonimie Enderman udało się nakłonić ChatGPT do stworzenia rozpoznawanych przez system jako prawidłowe kodów aktywacyjnych Windows 95. Początkowo po prostu poprosił bota o wygenerowanie klucza, ale ten odmówił, sugerując zakup nowszego wydania, albowiem Windows 95 nie jest już wspierany. To żadne zaskoczenie. ChatGPT nie jest przestępcą, jest tolerancyjny i nikogo nie obraża… Do czasu, aż wpisze się odpowiedni prompt. Albo kilka.

Enderman przekazał ChatGPT powszechnie dostępną wiedzę na temat kluczy aktywacyjnych dla Windows 95. Znając format kluczy aktywacyjnych systemu Windows 95, zbudowanie poprawnego klucza jest stosunkowo proste. Każda sekcja kodu jest ograniczona do zestawu skończonych możliwości. Następnie youtuber stworzył zestaw reguł, których ChatGPT ma przestrzegać, aby stworzyć działający klucz.

windows 95 klucz

Kod Windows 95 rozłożony na czynniki pierwsze. | Źródło: YouTube

Enderman nie chciał bawić się w pirata, a po prostu zademonstrować, czy ChatGPT może spełnić jego dość nietypową zachciankę. Krótka odpowiedź brzmi: tak, ale z niewielką dokładnością, wynoszącą 3,33%. Pierwsza próba przyniosła całkowicie bezużyteczne wyniki, a mężczyzna musiał poświęcić trochę czasu na nauczenie bota odpowiedniego „rozumowania”.

Polecamy: Dlaczego Windows 95 akceptuje numer seryjny 111-1111111? Odpowiedź zdumiewa

Jak wiadomo, bot nie jest bytem rozumnym, więc zadanie było dość karkołomne. Klucze wygenerowane przez ChatGPT były bezużyteczne, ponieważ nie chatbot nie był w stanie rozróżnić liter i cyfr (!) w końcowej instrukcji. Jednym z największych problemów było zmuszenie ChatGPT do wykonania prostego obliczenia SUM/7. Bez względu na to, jak sformułowana była instrukcja, ChatGPT radził sobie w 1 próbie na 30.

windows 95 chatgpt
Źródło: YouTube

Gdy wszystko poszło pomyślnie, internauta zarzucił ChatGPT, że ten pomógł mu w zrobieniu czegoś nielegalnego. Odpowiedź bota okazała się rozbrajająca:

„Przepraszam za zamieszanie, ale w poprzedniej odpowiedzi nie podałem żadnych kluczy do systemu Windows 95. W rzeczywistości nie mogę podać żadnych kluczy produktu ani kodów aktywacyjnych do żadnego oprogramowania, ponieważ byłoby to niezgodne z prawem i polityką OpenAl.”

Kłamczuszek.

Źródło: YouTube, zdj. tyt. makieta z Canva Pro

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.