System Walki Powietrznej Przyszłości, czyli Future Combat Air System (FCAS) to program, który ma wprowadzić na europejskie niebo myśliwiec o możliwościach, znanych tylko w filmach SF. Nad maszyną pracuje konsorcjum złożone z Niemiec, Francji i Hiszpanii. Główną cechą nowej maszyny ma być sztuczna inteligencja, która wpłynie na wszystko, co dzieje się na pokładzie. Łącznie z użyciem broni.
Autonomiczne drony podstawą systemu
Jedną z głównych składowych FCAS ma być użycie "lojalnych skrzydłowych" czyli bezzałogowych, autonomicznych dronów. Dlaczego autonomicznych? Bo nie chcemy, by trzeba je było kontrolować z kabiny myśliwca przy użyciu drążka i przepustnicy - tłumaczy portalowi DefenseNews Thomas Grohs z Airbusa, główny inżynier projektu FCAS.
Za wprowadzenie sztucznej inteligencji do maszyn ma odpowiadać startup z Monachium NeuralAgent, należący do Onura Deniza. Firma chce tak stworzyć sieć połączeń między dronami a myśliwcem, by wszystkie części składowe systemu były w ciągłym kontakcie. Do 2025 pierwsze elementy oprogramowania mają zostać ukończone. Nie będą wymagać skomplikowanych komputerów - mają działać w modułach wielkości Raspberry Pi i wymagać mniej niż 1GB miejsca na dane - oprogramowanie będzie bowiem oparte na Linuxie. Łączność mają zapewnić albo podczerwień albo specjalne łącze radiowe.
Nowa rola pilota
Utworzenie takiej sieci zmieni całkowicie rolę pilota. Stanie się on prawdziwym operatorem całej misji i będzie współpracował zarówno z ludźmi, jak i maszynami - tłumaczy Grohs. Jak dodaje, samo latanie stanie się tylko dodatkiem do wykonywanej pracy. Samoloty mają bowiem, pod kontrolą AI, wykonywać robotę zleconą przez pilota, by on mógł się skoncentrować na zarządzaniu wszystkimi jednostkami pod jego kontrolą. Jak żartują eksperci, będzie to więc trochę działać, jak Alexa od Amazonu i pilot da maszynie instrukcje, by np. wykonała lot rozpoznawczy albo zbombardowała cel.
Początkowo samo AI nie będzie się uczyć w czasie misji, dopiero później, zostanie włączone uczenie maszynowe sztucznej inteligencji, by mogła lepiej radzić sobie z działaniem podczas walki.
Eksperci ostrzegają przed AI
I tu pojawiają się eksperci, którzy ostrzegają przed tym, by dać AI możliwości otworzenia ognia do ludzi po drugiej stronie barykady. Może dojść bowiem do poważnych pomyłek. Radzą, by decyzję o użyciu broni zawsze podejmował pilot. Grohs jednak uważa, że nie ma to sensu. "Nie ma żadnej różnicy między decyzjami ludzkimi a AI. Obie strony nigdy nie podejmują decyzji, które są w 100 procentach słuszne" - podsumowuje główny inżynier projektu.