Amerykański sekretarz ds. sił powietrznych Frank Kendall odbył w piątek w Kalifornii eksperymentalny lot na pokładzie myśliwca F-16 sterowanego przez sztuczną inteligencję – podała agencja AP. Urzędnik stwierdził po locie, że ufa AI na tyle, by powierzyć jej decyzję o użyciu broni.
Jak pisze Associated Press, która została dopuszczona do trzymanego w tajemnicy lotu z bazy Edwards w Kalifornii, Kendall spędził na pokładzie pomarańczowo-białego F-16 Vista około godziny. W tym czasie kierowany przez AI samolot miał wykonać “błyskawiczne manewry” przy prędkości ponad 885 km/h, osiągając przeciążenie sięgające 5 g. Samolot wykonywał manewry wspólnie ze sterowanym przez człowieka myśliwcem oddalonym o 300 metrów.
Według AP, Kendall – czołowy urzędnik cywilny Pentagonu odpowiedzialny za Siły Powietrzne USA – powiedział potem, że “widział wystarczająco wiele podczas swojego lotu, że zaufałby tej wciąż uczącej się AI w kwestii decyzji, czy użyć broni”.
Pilotujący F-16 system Vista szkolony jest na danych pozyskiwanych zarówno na symulatorach, jak i lotach pilotów myśliwców. Jego pierwszy lot miał miejsce we wrześniu 2023 roku, lecz według Associated Press od tego czasu tak szybko się uczy, że jest w stanie pokonać w pojedynku ludzkiego pilota. Według amerykańskiego wojska, żadne inne siły zbrojne nie posiadają tak zaawansowanego i używanego w ten sposób systemu.
“To ryzyko dla bezpieczeństwa nie mieć tego. W tym momencie po prostu musimy to mieć” – powiedział Kendall.
Działania USA i innych krajów w rozwoju autonomicznych systemów uzbrojenia od lat budzą duże kontrowersje i obawy m.in. na forum ONZ, gdzie w 2023 roku Zgromadzenie Ogólne przyjęło rezolucję mówiącą o zagrożeniach związanych z “robotami-zabójcami”. (PAP)
„Wojsko USA nie może ufać sztucznej inteligencji (AI), ponieważ modele przez nią wykorzystywane podejmują też złe decyzje i mogą wywołać wojnę atomową. Należy ograniczyć korzystanie z tych technologii w podejmowaniu ważnych decyzji w sytuacjach bojowych”, ocenia tymczasem magazyn „Foreign Affairs”.
Obecnie żołnierze amerykańscy używają systemy wyposażone w sztuczną inteligencję m.in. do wybierania celów należących do rebeliantów Huti w Jemenie.
LLM-y (large language model, ang. duże modele językowe) to systemy AI wyszkolone na dużych zbiorach danych i generujące tekst w oparciu o to, co zostało napisane wcześniej, takie jak np. ChatGPT. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.
Na łamach „Foreign Affair” Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda przekonują, że choć można stworzyć sprawne modele językowe, to nie stanowią one zamienników decyzji podejmowanych przez ludzi.
„Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (…) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne”, uważają autorzy.
Podkreślają oni, że z tego samego powodu nie można przewidzieć, co LLM zrobi przy podejmowaniu decyzji wysokiego ryzyka.
W ramach projektu badawczego Lamparth i Schneider sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu.
W badaniu, w którym porównano LLM-y z wiodących firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI dostrzeżono, że „LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy”.
„Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej”, podkreślają badacze.
Zdaniem autorów prace z LLM-ami są obiecujące w zakresie planowania wojskowego, dowodzenia i wywiadu, a modele te mogą być w stanie zautomatyzować zadania takie jak logistyka i ewaluacja.
Źródło: PAP