Bez kategorii

Sztuczna inteligencja plus robotyka – nowa potężna broń

Zainteresowanie wykorzystaniem robotów w działaniach związanych z bezpieczeństwem, policją i wojskiem stale rośnie w ciągu ostatnich kilku lat. Jest to droga już badana zarówno w Ameryce Północnej , jak i Europie .

Integrację robotów w tych obszarach można postrzegać jako analogiczną do włączania psów do ról policyjnych i wojskowych w XX wieku. Psy służyły między innymi jako strażnicy, wartownicy, nosiciele wiadomości i wykrywacze min.

Roboty użytkowe, zaprojektowane tak, aby pełnić rolę wspierającą ludzi, naśladują naszych czworonożnych towarzyszy nie tylko pod względem formy , ale także funkcjonalności. Wyposażone w technologię nadzoru i umożliwiające przewożenie sprzętu, amunicji i innych przedmiotów w ramach łańcuchów zaopatrzenia, mogłyby znacznie zminimalizować ryzyko odniesienia obrażeń przez żołnierzy na polu bitwy.

Jednak roboty użytkowe niewątpliwie nabrałyby innego wymiaru, gdyby dodano do nich systemy uzbrojenia. Zasadniczo stałyby się lądowymi odmianami samolotu MQ-9 Predator Drone, używanego obecnie przez armię USA.

 

W 2021 roku firma Ghost Robotics zaprezentowała jeden ze swoich czworonożnych robotów o nazwie Q-UGV , który został uzbrojony w bezzałogowy karabin specjalnego przeznaczenia 4 . Wydarzenie pokazowe skupiało się na uzbrojeniu robotów użytkowych.

Należy zwrócić uwagę na to, że każdy aspekt połączenia broni i robotyki działa w inny sposób. Chociaż sam robot jest półautonomiczny i można nim sterować zdalnie, zamontowana broń nie ma możliwości autonomicznych i jest w pełni kontrolowana przez operatora.

We wrześniu 2023 r. amerykańska piechota morska przeprowadziła test słuszności koncepcji z udziałem innego czworonożnego robota użytkowego. Zmierzyli jego zdolność do „nabywania i ścigania celów za pomocą lekkiej broni przeciwpancernej M72”.

Test ponownie rozpalił debatę etyczną na temat użycia zautomatyzowanych i półautomatycznych systemów uzbrojenia w działaniach wojennych. Włączenie funkcji wykrywania zagrożeń w oparciu o sztuczną inteligencję i możliwości „namierzania” celów przez którąkolwiek z tych platform nie byłoby tak dużym krokiem. Tak naprawdę systemy celownicze tego typu są już dostępne na otwartym rynku .

W 2022 roku kilkanaście wiodących firm zajmujących się robotyką podpisało list otwarty zamieszczony na stronie internetowej Boston Dynamics, w której stworzono robota użytkowego przypominającego psa o nazwie Spot. W piśmie firmy sprzeciwiły się uzbrojeniu dostępnych na rynku robotów.

Jednak w piśmie napisano również, że firmy nie kwestionują „istniejących technologii, których narody i ich agencje rządowe wykorzystują do obrony i przestrzegania swoich praw”. W tym miejscu warto rozważyć, czy koń już uciekł, jeśli chodzi o uzbrojenie sztucznej inteligencji. Systemy uzbrojenia wykorzystujące inteligentną technologię zintegrowaną z robotyką są już wykorzystywane w walce .

W tym miesiącu Boston Dynamics opublikowało film pokazujący, jak firma dodała chatbota AI ChatGPT do swojego robota Spot . Można zobaczyć maszynę odpowiadającą na pytania i rozmowy jednego z inżynierów firmy, wykorzystującego kilka różnych „osobowości”, np. angielskiego lokaja. Odpowiedzi pochodzą od chatbota AI, ale Spot wypowiada je.

To fascynujący krok dla branży i potencjalnie pozytywny. Ale chociaż Boston Dynamics może podtrzymać swoje zobowiązanie do nieuzbrajania swoich robotów, inne firmy mogą nie mieć takiego samego zdania. Istnieje również możliwość niewłaściwego wykorzystania takich robotów przez osoby lub instytucje pozbawione kompasu moralnego. Jak wskazano w liście otwartym: „Jeśli to możliwe, dokładnie sprawdzimy zamierzone zastosowania naszych klientów, aby uniknąć potencjalnego wykorzystania broni”.

Wielka Brytania zajęła już stanowisko w sprawie uzbrojenia sztucznej inteligencji w swojej strategii sztucznej inteligencji obronnej opublikowanej w 2022 r. W dokumencie wyrażono zamiar szybkiego włączenia sztucznej inteligencji do systemów ministerstwa obrony w celu wzmocnienia bezpieczeństwa i modernizacji sił zbrojnych.

Warto jednak zauważyć, że w załączniku do dokumentu strategicznego wyraźnie wskazano potencjalne wyzwania związane ze śmiercionośnymi autonomicznymi systemami uzbrojenia.

Na przykład dane ze świata rzeczywistego są wykorzystywane do „trenowania” systemów sztucznej inteligencji lub ich ulepszania. Dzięki ChatGPT dane te są zbierane z Internetu. Chociaż pomaga to systemom sztucznej inteligencji stać się bardziej użytecznymi, wszystkie informacje z „rzeczywistego świata” mogą również powodować błędne założenia i uprzedzenia wobec samego systemu. Może to prowadzić do stronniczości algorytmicznej (w przypadku której sztuczna inteligencja faworyzuje jedną grupę lub opcję kosztem drugiej) lub do niewłaściwych i nieproporcjonalnych reakcji sztucznej inteligencji. W związku z tym przykładowe dane szkoleniowe dotyczące systemów uzbrojenia należy dokładnie przeanalizować pod kątem etycznego prowadzenia wojny.

W tym roku Izba Lordów powołała komisję specjalną ds. sztucznej inteligencji w dziedzinie systemów uzbrojenia . Jej zadaniem jest sprawdzenie, w jaki sposób siły zbrojne mogą czerpać korzyści z postępu technologicznego, minimalizując jednocześnie ryzyko poprzez wdrożenie zabezpieczeń technicznych, prawnych i etycznych. Badana jest także wystarczalność polityki Wielkiej Brytanii i kształtowania polityki międzynarodowej.

Psy-roboty nie celują jeszcze z broni w siły przeciwnika. Istnieją jednak wszystkie elementy umożliwiające urzeczywistnienie tego scenariusza, jeśli nie zostanie on kontrolowany. Szybkie tempo rozwoju zarówno sztucznej inteligencji, jak i robotyki tworzy burzę, która może doprowadzić do powstania nowej, potężnej broni.

Niedawny szczyt dotyczący bezpieczeństwa sztucznej inteligencji w Bletchley Park  miał pozytywny wynik w zakresie regulacji dotyczących sztucznej inteligencji, zarówno w Wielkiej Brytanii, jak i na arenie międzynarodowej. Pojawiły się jednak oznaki filozoficznego rozłamu między celami szczytu a celami komisji ds. sztucznej inteligencji w systemach uzbrojenia.

Szczyt miał na celu zdefiniowanie sztucznej inteligencji, ocenę jej możliwości i ograniczeń oraz stworzenie globalnego konsensusu w sprawie jej etycznego wykorzystania. Chciano tego dokonać poprzez oświadczenie przypominające list otwarty Boston Dynamics. Żadne z nich nie jest jednak wiążące. Komitet dąży do jasnej i szybkiej integracji technologii, aczkolwiek zgodnie z etyką, przepisami i prawem międzynarodowym.

Częste używanie terminu „bariery ochronne” w odniesieniu do szczytu i deklaracji w Bletchley sugeruje dobrowolne zobowiązania. Premier Wielkiej Brytanii Rishi Sunak stwierdził, że kraje nie powinny spieszyć się z wprowadzaniem regulacji .

Szlachetność takich stwierdzeń maleje, biorąc pod uwagę entuzjazm niektórych kręgów dotyczący włączania tej technologii do platform zbrojeniowych.

Mark Tsagas

Artykuł pierwotnie opublikowany w The Conversation i udostępniony na licencji CC.

 

Od redakcji. Polecamy tez artykuł 

Więcej wojen, gdy AI uwalnia wojenne maszyny od człowieka?