Sztuczna inteligencja to już codzienność w pracy programistów i analityków. Wraz z jej rosnącą popularnością pojawia się jednak problem kosztów, które potrafią szybko wymknąć się spod kontroli. Użytkownicy zaczęli więc szukać sprytnych sposobów na ograniczenie wydatków. Jeden z nich brzmi jak żart, ale działa zaskakująco skutecznie.
Mowa o tak zwanym „trybie jaskiniowca”, który polega na radykalnym uproszczeniu języka generowanego przez model Claude i inne modele. Efekt? Mniej tokenów, a więc niższe rachunki. Pomysł cieszy się ogromnym zainteresowaniem.
Na czym to polega?
Rozwiązanie jest banalnie proste. Użytkownicy instruują model, by pomijał wszelkie grzecznościowe wstępy, komentarze i zbędne wyjaśnienia. Zostaje wyłącznie sedno odpowiedzi, często sprowadzone do kilku słów. W przypadku zadań technicznych taka forma bywa w pełni wystarczająca.
Na GitHubie dostępny jest plugin, który dodaje do sesji instrukcje sterujące stylem odpowiedzi. Niektóre źródła twierdzą jednak, że wystarczy taki lub podobny prompt:
Speak primitive. Use nouns and verbs. No grammar filler (the, is, are, of). Keep words short. Save tokens. Be blunt.
Mów prosto. Używaj rzeczowników i czasowników. Bez wypełniaczy gramatycznych (jak „the”, „is”, „are”, „of”). Używaj krótkich słów. Oszczędzaj tokeny. Bądź bezpośredni
Tokeny to realne pieniądze
W modelach językowych każde słowo ma swoją cenę. Licznik tokenów obejmuje zarówno zapytania użytkownika, jak i odpowiedzi generowane przez sztuczną inteligencję. Te drugie są zazwyczaj znacznie droższe. To oznacza, że rozbudowane odpowiedzi, pełne uprzejmości i wprowadzeń, realnie zwiększają koszt korzystania z AI. Właśnie dlatego „jaskiniowe” podejście zyskało popularność. Skrócenie odpowiedzi przynosi zauważalne oszczędności – jak twierdzą internauci nawet 75-procentowe.
Krócej znaczy lepiej?
Ciekawym efektem ubocznym tej metody jest poprawa precyzji odpowiedzi. Ograniczenie długości wypowiedzi zmusza model do skupienia się na najważniejszych informacjach. W rezultacie użytkownicy zauważają mniej błędów i mniej koniecznych poprawek. W zadaniach programistycznych sprawdza się to szczególnie dobrze. Krótkie komunikaty typu „nowy obiekt powoduje przeładowanie, użyj pamięci podręcznej” są często bardziej użyteczne niż długie wyjaśnienia.
Nie oznacza to jednak, że jest to rozwiązanie uniwersalne. W przypadku nauki lub analiz wymagających kontekstu skrócone odpowiedzi mogą okazać się zbyt powierzchowne. Użytkownicy mogą wręcz stracić kluczowe informacje.
Moda czy przyszłość pracy z AI
„Tryb jaskiniowca” to jednocześnie internetowy żart i realne narzędzie optymalizacji kosztów. Pokazuje, jak użytkownicy adaptują modele językowe do własnych potrzeb, nawet w nieoczywisty sposób. W praktyce chodzi o coś więcej niż oszczędności. Krótsze odpowiedzi to także szybsze działanie i mniejsze obciążenie poznawcze. Przy intensywnej pracy z AI różnice te zaczynają być odczuwalne.
Jednocześnie wszystko wskazuje na to, że podobne rozwiązania będą rozwijane dalej. Optymalizacja kosztów i efektywności staje się jednym z kluczowych kierunków rozwoju narzędzi opartych na sztucznej inteligencji.
Źródło: Reddit, Medium,