Wojsko amerykańskie przyspiesza wdrażanie sztucznej inteligencji (AI) w bezprecedensowym tempie, o czym świadczą niedawne doniesienia o wykorzystaniu chatbotów AI, takich jak Claude firmy Anthropic, w operacjach przeciwko przywódcom w Wenezueli i Iranie. Wdrożenie oznacza znaczącą zmianę, budzącą obawy co do gotowości tych technologii i etycznych konsekwencji ich wykorzystania podczas wojny.
Od logistyki po zabójcze planowanie
Przez ponad dekadę armia amerykańska eksperymentowała z automatyzacją, początkowo koncentrując się na wsparciu logistycznym, zadaniach konserwacyjnych i usługach tłumaczeniowych. Jednak pod rządami Trumpa podejście to zmieniło się w kierunku bardziej agresywnej strategii „najpierw sztuczna inteligencja”, napędzanej obawą, że pozostanie w tyle za globalnymi konkurentami, takimi jak Chiny. Celem jest nie tylko zintegrowanie sztucznej inteligencji z łagodnymi funkcjami, ale także wykorzystanie jej w bardziej niebezpiecznych zastosowaniach.
Doniesienia o wykorzystaniu Claude’a w operacjach przeciwko Nicolasowi Maduro z Wenezueli i ajatollahowi Aliemu Chameneiemu z Iranu pokazują, jak szybko systemy te przechodzą od fazy testowej do faktycznego wdrożenia. Eksperci tacy jak Heidi Hlaaf z Instytutu AI Now wyrazili zaskoczenie taką szybkością, biorąc pod uwagę znane niedociągnięcia i zawodność dużych modeli językowych.
„Nagłe wdrożenie tych narzędzi było bardzo zaskakujące… wątpimy, czy te modele sztucznej inteligencji mogą odnieść sukces w jakimkolwiek środowisku wojskowym ze względu na ich wadliwy charakter”.
Wyścig zbrojeń AI
Departament Obrony USA aktywnie inwestuje w strategie przyspieszające rozwój sztucznej inteligencji, w tym budżet w wysokości 650 mln dolarów na innowacje wojskowe w 2025 r. Fundusze te wesprą rozwój systemów przeciwdronowych AI, rozszerzanie możliwości sztucznej inteligencji w Cyber Command, a nawet przyspieszanie misji związanych z bezpieczeństwem nuklearnym. Departament stworzył także genai.mil, bazę danych zapewniającą urzędnikom dostęp do chatbotów AI, takich jak Gemini firmy Google i Grok firmy xAI.
To szybkie przyjęcie wynika z poczucia pilności: sztuczna inteligencja jest postrzegana jako technologia kluczowa dla utrzymania amerykańskiej dominacji. Giorgos Verdi, senior Fellow w European Council on Foreign Relations, podkreśla, że USA postrzegają sztuczną inteligencję jako „bardzo cenną technologię”, która pozwoli im wyprzedzić konkurencję.
Ryzyko automatyzacji
Pomimo ryzyka armia amerykańska w dalszym ciągu prowadzi testy systemów sztucznej inteligencji na żywo, w tym nawiązując partnerstwo z firmą Anthropic o wartości 200 milionów dolarów w celu poprawy bezpieczeństwa narodowego. Budzi to obawy etyczne, ponieważ systemy te są wdrażane w rzeczywistych scenariuszach obejmujących życie ludzkie. Armia przyznaje, że ostatecznym celem mogłyby być w pełni autonomiczne systemy uzbrojenia.
„Z pewnością istnieje zainteresowanie możliwością opracowania w pełni autonomicznych systemów broni AI i być może ich wykorzystania”.
Trudne przejście
Departament Obrony już stoi przed wyzwaniami, ponieważ firma Anthropic odmówiła armii nieograniczonego dostępu do swojej technologii ze względu na obawy związane z masową inwigilacją i rozwojem broni autonomicznej. Armia przechodzi obecnie na OpenAI, co wskazuje, że Stany Zjednoczone będą nadal korzystać z chatbotów AI pomimo ryzyka.
Dane zebrane przez Claude’a prawdopodobnie pozostaną w dziale i zostaną wykorzystane przez kolejnego dostawcę sztucznej inteligencji, zapewniając ciągłość operacji. Eksperci ostrzegają, że to szybkie przyjęcie może prowadzić do dalszej erozji standardów etycznych, potencjalnie przyspieszając rozwój w pełni zautomatyzowanych systemów uzbrojenia.
Wniosek: Integracja sztucznej inteligencji w armii USA następuje szybciej, niż przewidywało wielu ekspertów, a napędza ją konkurencja geopolityczna i chęć podejmowania ryzyka. Tendencja ta rodzi ważne pytania o przyszłość wojny, etykę broni autonomicznej i potencjał eskalacji konfliktu.





















