Nowe technologie zmieniają funkcjonowanie wszystkich obszarów życia. Nie wszyscy uświadamiamy sobie konsekwencje zachodzących zmian. Weźmy przykład sztucznej inteligencji (AI). Groźba sterowanych z jej pomocą autonomicznych broni jest przerażająca. Ale czyż znaczenia dla przygotowania i przebiegu konfliktu nie będą mieć w przyszłości także media społecznościowe, w których wykorzystywanie technik AI w połączeniu z osiągnięciami psychologii mogą zradykalizować poglądy milionów?
Weźmy robotykę. Przy wszystkich korzyściach z automatyzacji zastępowanie pracy ludzi przez urządzenia może doprowadzić do wzmożonego niezadowolenia grup społecznych niezdolnych do konkurowania z robotami. Historia uczy, że asymetria technologiczna przeradza się w społeczną nierówność, mającą w ramach obecnej rewolucji przemysłowej kontekst globalny. Nauka ma oczywiście niezastępowalny niczym potencjał poprawy losu ludzi na świecie, ale niestety potęguje także zagrożenia.
Obawę budzą nieprzewidywalne zmiany potencjałów militarnych i terrorystycznych w państwach. Potencjałów uśpionych, ale zdatnych do szybkiego użycia ze względu na możliwe kradzieże najnowszych rozwiązań z jednej strony, a tzw. dual use (wykorzystywanie badań cywilnych na użytek wojska) z drugiej. Nowe technologie mogą być wsparciem dla działań terrorystycznych podważających bezpieczeństwo państw i obywateli.
Obszary badawcze, o których mowa, to głównie teleinformatyka z mikroelektroniką, fizyka jądrowa, fotonika, robotyka, materiałoznawstwo z nanotechnologią, biotechnologia, inżynieria chemiczna, nowe metody produkcji – wszystkie rozumiane jako dziedziny łączące zespoły zintegrowanych z nimi dyscyplin badawczych. Dodajmy do tego wykorzystujący dane z cyberprzestrzeni rodzaj nowoczesnych nauk społecznych integrujący wiedzę na temat zachowania się w różnych sytuacjach osób i grup społecznych.
Niebezpieczeństwem są też zautomatyzowane techniki niszczenia i zabijania. Roboty wykorzystywane w takim celu mogą poruszać się w powietrzu, na lądzie i pod wodą oraz mieć rozmiary od malutkich owadów łączonych w roje aż po wielkie autonomiczne pojazdy. Od lat testowane są pociski i bomby samodzielnie nakierowujące się na cele. Udane próby przeprowadzono z rojem ponad stu miniaturowych robotów adaptujących się do sytuacji, przeciwko którym eksperci nie widzą na razie możliwości obrony.
Gotowe do użycia są muły transportowe, poruszające się autonomicznie roboty mogące przenosić na polu walki i w budynkach znaczne ładunki amunicji, środków medycznych i żywności, a także ich miniaturowe, pełzające odpowiedniki zdolne do niezauważalnego przedostawania się do pomieszczeń w celu podsłuchiwania i podglądania. Roboty zaczynają być też wykorzystywane na poziomie decyzyjnym jako inteligentne analizatory sytuacji podejmujące ważne decyzje. W rozwiązywaniu problemów roboty staną się niebawem partnerami człowieka, a nie tylko jego narzędziami.
W kontekście militarnym sprawa ma znaczenie wykraczające poza problematykę technologiczną. Sednem wydaje się poziom autonomii decyzyjnej robotów, wywołujący debatę etyczną. Rozróżnia się trzy główne poziomy autonomii decyzyjnej: a) wszystkie decyzje podejmuje człowiek, b) człowiek ma kontrolę nad działalnością robota, c) robot ma pełną autonomię decyzyjną. W państwach Zachodu dominuje silna preferencja dla opcji b, ale naiwne byłoby założenie, że tak jest we wszystkich regionach świata.
Nieuniknione będą sytuacje, w których działający autonomicznie dron postawiony będzie wobec decyzji „dać się zniszczyć czy zabić mającego tę intencję człowieka?”. Albo wobec pytania, czy dron powinien zniszczyć cel misji, którym jest strategicznie ważny dla wroga budynek, jeśli zaobserwował stojącą przed nim szkolną wycieczkę. Będziemy musieli wyposażać roboty w umiejętność etycznej oceny sytuacji. Już czas, by politycy wspomagani przez etyków i prawników zaczęli myśleć o zasadach regulujących zachowanie autonomicznych robotów. Już dziś mamy problem ze wskazaniem winowajcy drogowego wypadku spowodowanego przez autonomiczny pojazd. Takie przypadki były już w USA przedmiotem postępowania sądowego.
Kolejną cechą czyniącą wojny robotów groźniejsze od dotychczasowych jest skrócenie czasu potrzebnego do podejmowania decyzji. Ten element jest podawany w wielu definicjach jako kluczowa cecha wpływu nowych technologii na bezpieczeństwo. Ze względu na cyfryzację i automatyzację utrudniona jest międzynarodowa kontrola tworzonej w poszczególnych państwach broni. Łatwiejszy jest też dostęp do technologii leżącej u jej podstaw, inaczej niż kiedyś było z bronią jądrową, kosztowną i wymagającą specjalnych kwalifikacji twórców. Łatwość dostępu jest związana m.in. z możliwością wykorzystywania osiągnięć badań prowadzonych w sektorze cywilnym.
Ze względu na swoje znaczenie – straty wynikające z cyberprzestępczości są szacowane na 600 mld dol. rocznie – bezpieczeństwo w cyberprzestrzeni jest przedmiotem wielu analiz. Podobnie jak inne nowości wykorzystywane już w praktyce. Takie jak osiągnięcia fotoniki, umożliwiającej skuteczne niszczenie elektronicznego oprzyrządowania przeciwnika, detekcję niebezpiecznych materiałów, odpalanie pocisków na odległość bez użycia materiałów wybuchowych, detonację bomby atomowej w powietrzu nad zamierzonym celem, użycie laserów dużej mocy, wizualizację pola walki z przestrzeni kosmicznej czy unieruchomienie sieci energetycznej całego kraju.
Największą rolę do odegrania w przeciwdziałaniu opisanym zagrożeniom ma państwo. To ono musi zadbać o właściwe regulacje i kontrolę ich przestrzegania. Aby to było realne, administracja musi posiadać wysokie kompetencje w zakresie najnowszej wiedzy naukowej i technologicznej, do czego drogą jest wspieranie organizacyjne i finansowe cywilnych i wojskowych instytucji badawczych. Trzeba też efektywnie współpracować z kluczowymi sojusznikami. To sedno naszego przyszłego bezpieczeństwa.