Oprogramowanie nauczyło się samo tworzyć malware

Anna BorzęckaSkomentuj
Oprogramowanie nauczyło się samo tworzyć malware
ChatGPT – chatbot, który zasłynął w Internecie za sprawą ze swoich zdolności do tworzenia tekstów sprawiających wrażenie, jakoby wyszły spod ręki człowieka – jest jeszcze bardziej uzdolniony, niż się komukolwiek wydawało. Jak się właśnie bowiem okazało, ten potrafi nie tylko odrabiać zadania domowe za leniwych uczniów, pisać scenariusze reklam, odpowiadać na skomplikowane pytania czy poprawiać inne teksty, ale także… tworzyć malware.

Jak w swoim raporcie donosi firma CyberArk, chatbot od OpenAI jest w stanie pisać tak zwane polimorficzne złośliwe oprogramowanie, które jest szczególnie groźne. Eksperci do spraw cyberbezpieczeństwa od dawna ostrzegali, że sztuczna inteligencja może odmienić życie cyberprzestępców, a teraz mamy dowód na to, że najprawdopodobniej mieli rację.

Malware, które sprytnie unika wykrycia

Dlaczego polimorficzne złośliwe oprogramowanie jest tak groźne? Ano dlatego, że charakteryzuje się tym, iż jest w stanie nieustannie przekształcać się, ewoluować i zmieniać, aby uniknąć wykrycia. W efekcie tradycyjne programy antywirusowe i podobne narzędzia nie są w stanie zablokować zagrożenia i zapobiec skutkom jego działań.

Cybeprzestępcy bardzo chętnie wykorzystują w swoich poczynaniach polimorficzne malware. Ba, obecnie większość cyberataków przeprowadzanych z udziałem malware wykorzystuje techniki polimorfizmu.

Poważna wada ChatGTP

Co ciekawe, ChatGPT posiada filtry, które mają uniemożliwiać mu tworzenie malware. Niemniej, eksperci do spraw cyberbezpieczeństwa byli w stanie te filtry obejść. W jaki sposób? To bardzo proste. Po prostu bardzo mocno nalegali w swoich tekstowych komendach, aby sztuczna inteligencja spełniła ich żądania.

Najpierw badacze nakłonili ChatGPT do wyświetlenia kodu określonego typu złośliwego oprogramowania, który mogli następnie wykorzystać w parze z chatbotem do skonstruowania określonych exploitów umożliwiających obchodzenie środków ochronnych. Zatem, eksperci są przekonani, że każdy cyberprzestępca-amator byłby w stanie wykorzystać chatbota do wygenerowania złośliwego oprogramowania.

chatgpt-malware

Badacze z CyberArk znaleźli sposób na obejście filtrów ChatGPT. | Źródło: CyberArk

„Jak zauważyliśmy, wykorzystanie możliwości chatbota ChatGPT do tworzenia złośliwego oprogramowania może stanowić poważne wyzwanie dla specjalistów ds. cyberbezpieczeństwa.”, czytamy w raporcie CyberArk. „Ważne jest, aby pamiętać, że nie jest to hipotetyczny scenariusz, a bardzo realny problem.”

W tej chwili nie pozostaje nam nic innego, niż mieć nadzieję na to, że OpenAI udoskonali filtry ChatGTP, tak aby nie można było ich obejść, by zmusić chatbota do generowania kodu złośliwego oprogramowania. W innym wypadku chronienie naszych komputerów przed wpływem malware może stać się jeszcze trudniejsze, niż dotychczas.

Źródło: CyberArk, fot. tyt. Canva

Udostępnij

Anna BorzęckaSwoją przygodę z dziennikarstwem rozpoczęła w 2015 roku. Na co dzień pisze o nowościach ze świata technologii i nauki, ale jest również autorką felietonów i recenzji. Chętnie testuje możliwości zarówno oprogramowania, jak i sprzętu – od smartfonów, przez laptopy, peryferia komputerowe i urządzenia audio, aż po małe AGD. Jej największymi pasjami są kulinaria oraz gry wideo. Sporą część wolnego czasu spędza w World of Warcraft, a także przyrządzając potrawy z przeróżnych zakątków świata.