Bez kategorii

Trwa wojna, w której sztuczna inteligencja decyduje kto przeżyje

W zeszłym tygodniu pojawiły się doniesienia, że ​​Izraelskie Siły Obronne (IDF) wykorzystują system sztucznej inteligencji (AI) o nazwie Habsora (po hebrajsku „Ewangelia”) do wybierania celów wojny z Hamasem w Gazie. Według doniesień system ten był używany do znajdowania większej liczby celów bombardowań , łączenia lokalizacji z agentami Hamasu i przewidywania z wyprzedzeniem prawdopodobnej liczby ofiar śmiertelnych wśród cywilów.

Co oznacza, że ​​tego typu systemy namierzania AI będą wykorzystywane w konflikcie? Moje badania nad społecznymi, politycznymi i etycznymi konsekwencjami wojskowego wykorzystania zdalnych i autonomicznych systemów pokazują, że sztuczna inteligencja już zmienia charakter wojny.

Siły zbrojne wykorzystują zdalne i autonomiczne systemy jako „zwielokrotniacze siły”, aby zwiększyć wpływ swoich żołnierzy i chronić życie żołnierzy. Systemy sztucznej inteligencji mogą zwiększyć efektywność żołnierzy i prawdopodobnie zwiększą szybkość i śmiertelność działań wojennych – nawet gdy ludzie stają się mniej widoczni na polu bitwy, zamiast tego gromadzą informacje wywiadowcze i namierzają z daleka.

Kiedy wojsko będzie mogło zabijać do woli, przy niewielkim ryzyku dla swoich żołnierzy, czy obecne etyczne myślenie o wojnie zwycięży? A może rosnące wykorzystanie sztucznej inteligencji zwiększy także dehumanizację przeciwników i rozdźwięk między wojnami a społeczeństwami, w imieniu których toczą się wojny?

AI na wojnie
 

Sztuczna inteligencja ma wpływ na wszystkich poziomach wojny, od wsparcia „wywiadu, obserwacji i rozpoznania”, takiego jak system Habsora IDF, po „śmiercionośne autonomiczne systemy uzbrojenia”, które mogą wybierać i atakować cele bez interwencji człowieka .

Systemy te mają potencjał, aby zmienić charakter wojny, ułatwiając wejście w konflikt. Jako systemy złożone i rozproszone, mogą również utrudniać sygnalizowanie swoich intencji – lub interpretację zamiarów przeciwnika – w kontekście eskalacji konfliktu.

W tym celu sztuczna inteligencja może przyczyniać się do dezinformacji lub dezinformacji , tworząc i wzmacniając niebezpieczne nieporozumienia w czasie wojny.

Systemy AI mogą zwiększać ludzką skłonność do ufania sugestiom maszyn (co podkreśla system Habsora, nazwany na cześć nieomylnego słowa Bożego), wywołując niepewność co do tego, jak daleko można ufać systemom autonomicznym. Granice systemu sztucznej inteligencji wchodzącego w interakcję z innymi technologiami i ludźmi mogą nie być jasne i może nie być sposobu, aby dowiedzieć się, kto lub co jest „autorem” jego wyników , niezależnie od tego, jak obiektywne i racjonalne mogą się one wydawać.

Szybkie uczenie maszynowe

Być może jedną z najbardziej podstawowych i najważniejszych zmian, jakie prawdopodobnie zobaczymy napędzanych przez sztuczną inteligencję, jest zwiększenie szybkości działań wojennych. Może to zmienić sposób, w jaki rozumiemy odstraszanie wojskowe , które zakłada, że ​​głównymi aktorami oraz źródłami informacji wywiadowczych i interakcji podczas wojny są ludzie.

Wojskowi i żołnierze podejmują decyzje w oparciu o tak zwaną „ pętlę OODA ” (od słów: obserwacja, orientacja, decyzja, działanie). Szybsza pętla OODA może pomóc Ci wymanewrować wroga. Celem jest uniknięcie spowalniania decyzji poprzez nadmierne rozważanie i zamiast tego dopasowywanie się do przyspieszającego tempa wojny.

Zatem wykorzystanie sztucznej inteligencji jest potencjalnie uzasadnione tym, że umożliwia ona interpretację i syntezę ogromnych ilości danych, przetwarzanie ich i dostarczanie wyników z szybkością znacznie przekraczającą ludzkie zdolności poznawcze.

Ale gdzie jest miejsce na etyczne rozważania w coraz szybszym i skoncentrowanym na danych cyklu pętli OODA zachodzącym w bezpiecznej odległości od bitwy?

Izraelskie oprogramowanie namierzające jest przykładem tego przyspieszenia. Były szef IDF powiedział , że analitycy wywiadu ludzkiego mogą co roku wskazywać 50 celów bombowych w Gazie, ale system Habsora może wykrywać 100 celów dziennie wraz z zaleceniami w czasie rzeczywistym, które z nich należy zaatakować.

W jaki sposób system tworzy te cele? Czyni to poprzez rozumowanie probabilistyczne oferowane przez algorytmy uczenia maszynowego.

Algorytmy uczenia maszynowego uczą się poprzez dane. Uczą się, szukając wzorców w ogromnych stosach danych, a ich sukces zależy od jakości i ilości danych. Wydają rekomendacje na podstawie prawdopodobieństwa.

Prawdopodobieństwa opierają się na dopasowywaniu wzorców. Jeśli dana osoba ma wystarczające podobieństwo do innych osób określonych jako wrogi bojownik, ona sama również może zostać oznaczona jako bojownik.

Problem sztucznej inteligencji umożliwił celowanie na odległość

Niektórzy twierdzą, że uczenie maszynowe umożliwia większą precyzję celowania , co ułatwia uniknięcie krzywdzenia niewinnych ludzi i użycia proporcjonalnej siły. Jednakże pomysł bardziej precyzyjnego ukierunkowania nalotów nie powiódł się w przeszłości, o czym świadczy wysoka liczba zadeklarowanych i niezadeklarowanych ofiar cywilnych w wyniku globalnej wojny z terroryzmem.

Co więcej, różnica między bojownikiem a cywilem rzadko jest oczywista . Nawet ludzie często nie są w stanie stwierdzić, kto jest, a kto nie jest bojownikiem.

Technologia nie zmienia tej podstawowej prawdy. Często kategorie i koncepcje społeczne nie są obiektywne, ale są kwestionowane lub specyficzne dla czasu i miejsca. Jednak wizja komputerowa w połączeniu z algorytmami jest bardziej skuteczna w przewidywalnych środowiskach, w których koncepcje są obiektywne, w miarę stabilne i wewnętrznie spójne.

Czy sztuczna inteligencja pogorszy wojnę?

Żyjemy w czasach niesprawiedliwych wojen i okupacji wojskowych, rażących naruszeń zasad zaangażowania i rozpoczynającego się wyścigu zbrojeń w obliczu rywalizacji USA–Chiny. W tym kontekście włączenie sztucznej inteligencji do wojny może spowodować nowe komplikacje, które raczej zaostrzą szkody niż im zapobiegną.

Systemy sztucznej inteligencji ułatwiają uczestnikom wojny zachowanie anonimowości i mogą sprawić, że źródło przemocy lub decyzje, które do niej prowadzą, staną się niewidoczne. Z kolei możemy zaobserwować rosnące rozłączenie między siłami zbrojnymi, żołnierzami i cywilami oraz wojnami toczonymi w imieniu narodu, któremu służą.

W miarę jak sztuczna inteligencja będzie coraz bardziej powszechna na wojnach, siły zbrojne opracują środki zaradcze, aby ją osłabić, tworząc pętlę eskalacji militaryzacji.

Co teraz?

Czy możemy kontrolować systemy sztucznej inteligencji, aby zapobiec przyszłości, w której wojny będą napędzane coraz większym poleganiem na technologii opartej na algorytmach uczenia się? Kontrolowanie rozwoju sztucznej inteligencji w dowolnym obszarze, szczególnie za pomocą przepisów ustawowych i wykonawczych, okazało się trudne.

Wielu sugeruje, że potrzebujemy lepszych przepisów, aby uwzględnić systemy oparte na uczeniu maszynowym, ale nawet to nie jest proste. Algorytmy uczenia maszynowego są trudne do regulowania .

Broń obsługująca sztuczną inteligencję może sama się programować i aktualizować, omijając wymogi prawne w zakresie pewności. Inżynierska maksyma „oprogramowania nigdy nie jest gotowe” oznacza, że ​​prawo może nigdy nie dorównać szybkości zmian technologicznych.

Ilościowa czynność polegająca na szacowaniu z wyprzedzeniem prawdopodobnej liczby ofiar śmiertelnych wśród ludności cywilnej, którą wykonuje system Habsora, niewiele mówi nam o jakościowych wymiarach namierzania. Systemy takie jak Habsora oddzielnie nie mogą nam zbyt wiele powiedzieć na temat tego, czy strajk będzie etyczny czy zgodny z prawem (tj. czy będzie, między innymi, proporcjonalny, dyskryminujący i konieczny).

Sztuczna inteligencja powinna wspierać ideały demokracji, a nie je podważać. Zaufanie do rządów, instytucji i sił zbrojnych spada i należy je przywrócić, jeśli planujemy zastosować sztuczną inteligencję w szeregu praktyk wojskowych. Musimy wdrożyć krytyczną analizę etyczną i polityczną, aby zbadać pojawiające się technologie i ich skutki, tak aby każda forma przemocy militarnej była uważana za ostateczność.

Do tego czasu najlepiej trzymać algorytmy uczenia maszynowego oddzielnie od praktyk targetowania. Niestety, armie świata zmierzają w przeciwnym kierunku.

Bianka Baggiarini

Ten artykuł został opublikowany w The Conversation na licencji Creative Commons: oryginalny tekst