Izrael wdraża AI do wojska. Nikt nie kontroluje tej technologii

Aleksander PiskorzSkomentuj
Izrael wdraża AI do wojska. Nikt nie kontroluje tej technologii

IDF (Israel Defence Forces, czyli po prostu Siły Obronne Izraela) rozpoczęło wykorzystywanie systemu AI do przetwarzania ogromnych ilości danych, umożliwiając szybkie wybieranie celów do ataków powietrznych. Siły Obronne Izraela używają również innego modelu AI o nazwie „Fire Factory”, który na podstawie danych o zatwierdzonych celach militarnych oblicza ładunki amunicji, priorytetyzuje i przydziela tysiące celów do samolotów i dronów oraz proponuje harmonogram działań.

Oba systemy są nadzorowane przez ludzi, ale nie podlegają żadnym międzynarodowym lub państwowym regulacjom.

Jak to działa?

Według raportu Bloomberga, szczegóły operacyjnego wykorzystania AI przez armię pozostają w dużej mierze tajemnicą, ale zeznania wojskowych sugerują, że IDF zdobyło doświadczenie bojowe z kontrowersyjnymi systemami podczas okresowych wybuchów w Strefie Gazy, gdzie Izrael często przeprowadza naloty powietrzne w odpowiedzi na ataki rakietowe. I

DF dąży do poszerzenia wsparcia AI w różnych jednostkach, wykorzystując technologię do interpretowania ogromnych ilości danych, takich jak nagrania z dronów i CCTV, zdjęcia satelitarne, sygnały elektroniczne, komunikacje online i inne dane dla celów wojskowych. W ostatnich tygodniach kilku wysoko postawionych oficerów Sił Obronnych Izraela poinformowało prasę, że Izrael wdraża narzędzia AI jako część swojego arsenału wojskowego. IDF używa AI do wspierania swojego ofensywnego procesu podejmowania decyzji, na przykład do określenia, czy cel jest wojskowy, czy cywilny. Ponadto, niektóre narzędzia obronne są wykorzystywane do ostrzegania sił, że są zagrożone atakiem rakietowym czy pociskowym, lub do pomocy w lepszym zabezpieczeniu ruchu na granicy, zwłaszcza po wprowadzeniu nowej strategii AI IDF w 2022 roku.

firefactory2
fot. Unsplash.com

Krytycy ostrzegają o potencjalnych błędach w obliczeniach AI i braku jasności, kto ponosi odpowiedzialność za ewentualne pomyłki.

Istnieją również obawy, że szybkie przyjęcie AI przebiega szybciej niż badania nad jego działaniem. Wielu algorytmów jest tworzonych przez prywatne firmy i siły zbrojne, które nie ujawniają informacji o własności, a krytycy podkreślają wbudowany brak przejrzystości w sposób, w jaki algorytmy finalnie “dochodzą” do swoich wniosków.

Obawy etyczne

Najważniejszymi kwestiami związanymi z tym procesem są problemy etyczne i prawne. Obecnie nie ma międzynarodowego ramy prawne określającego, kto ponosi odpowiedzialność za ofiary cywilne, wypadki lub niezamierzone eskalacje, gdy komputer popełni błąd. Pomimo dekady rozmów sponsorowanych przez ONZ, dalej w tej sprawie nie osiągnięto jednoznacznego porozumienia.

firefactory3
fot. Unsplash.com

Wdrażanie AI przez IDF może wydawać się krokiem ku przyszłości, ale jak każda nowa technologia, niesie ze sobą pytania, które muszą zostać odpowiednio zbadane i rozważone. Jakie są długoterminowe konsekwencje zastosowania AI w dziedzinie wojskowości? Czy wykorzystanie AI do przetwarzania ogromnych ilości danych w celu wybierania celów do ataku jest etyczne? Kto ponosi odpowiedzialność za błędy lub zniszczenia, które mogą powstać w wyniku błędów systemu? Czy możemy zaufać algorytmom do podejmowania decyzji o życiu i śmierci? W jakim stopniu ludzie powinni nadal być zaangażowani w te decyzje? Wreszcie, jakie implikacje ma taka technologia dla przyszłości wojny? To krytyczne pytania, które zasługują na dyskusję.

AI w wojskowości może mieć ogromny potencjał, ale musimy być pewni, że rozumiemy i akceptujemy konsekwencje jego wykorzystania.

zdj. otwierające: Unsplash.com

Udostępnij

Aleksander PiskorzDziennikarz technologiczny - od niemal dekady publikujący w największych polskich mediach traktujących o nowych technologiach. Autor newslettera tech-pigułka. Obecnie zajmuje się wszystkim co związane z szeroko pojętym contentem i content marketingiem Jako konsultant pomaga również budować marki osobiste i cyfrowe produkty w branży technologicznej. Entuzjasta sztucznej inteligencji. W trybie offline fan roweru szosowego, kawy specialty i dobrej czekolady.