AI zwalnia nas… nie, nie z pracy… z trudu wolności
Izraelski żołnierz ma nie więcej niż 20 sekund na decyzję, czy strzelić do człowieka, zbombardować grupę ludzi lub obiekt, który mu wskazała sztuczna inteligencja przeszkolona na danych o bojownikach Hamasu oraz niemal wszystkich osobach w Gazie, nomen omen zwana „Ewangelią”. Czyli praktycznie nie ma czasu na myślenie, na decyzję. Wskazanie algorytmu traktowane jest właśnie jak ewangeliczne przykazanie – bezwzględnie obowiązujące, mimo że wiadomo, że system myli się w 10% przypadków. Czyli dowódca lub żołnierz zgadza się na to, że w jednym przypadku na 10 zabije niewinną (niewłaściwą) osobę. Być może dlatego zginął kilka tygodni temu polski wolontariusz, dostarczający żywność do Gazy i jego sześciu kolegów. Ale nikt nie bierze tego do siebie. Decyzję podjął system informatyczny, choć za spust pociągnął człowiek.
To nie jest jakaś nowość w historii ludzkości, ani nawet w naszej codzienności. Po to mamy normy, kodeksy, regulaminy, procedury, katechizmy, po to mamy dowódców wojskowych, przywódców religijnych, a w firmach szefów, aby samemu jak najmniej decydować, jak najmniejszą odpowiedzialność brać na siebie, jak najmniej się męczyć myśleniem, co zrobić. Normą dla sędziego są przepisy prawne, dla wyznawcy religii – nakazy tej religii, dla nauczyciela – zestaw wymagań egzaminacyjnych. Decyzja przestaje być własna, staje się decyzją normatywną, to znaczy taką samą podejmie każdy człowiek w danej sprawie opierając się na tych samych normach. Zrzekamy się swojej wolności i zrzucamy ciężar odpowiedzialności.
Paradoksalnie człowiek idealnie sprawiedliwy nie patrzy na człowieka, o którym decyduje swoimi oczami, ale z punktu widzenia norm, których jest przedstawicielem. Tyle że to jest nieludzkie. Istota człowieczeństwa polega nie tyle na niewolniczym przestrzeganiu norm, co na zdolności wzniesienia się ponad nie, na zobaczeniu człowieka – o którym się decyduje – w całej jego komplikacji i złożoności. Decyzja może dotyczyć jego życia, zatrudnienia, premii, ubezpieczenia, wszystkiego. Ale to jest niezwykle angażujące emocjonalnie, kosztowne, czasochłonne, jednym słowem nieefektywne. Dlatego w życiu prywatnym i w organizacjach dążymy do jak największej automatyzacji i profesjonalizacji, rozumianej jako system norm.
Sztuczna inteligencja jest kolejną odsłoną ucieczki od wolności i odpowiedzialności.
Urok i atrakcyjność systemów AI polega na tym, że działają one szybko i na ogromną skalę, sugerując wiele celów w krótkim czasie. W ten sposób człowiek staje się po prostu automatem. Człowiek działający jak automat dokonuje niejako outsourcingu decyzyjności i moralności do jakiegoś zewnętrznego podmiotu. W przypadku zabijania jest to szczególnie drastyczne, więc trochę się przejmujemy, ale przecież mamy to na każdym kroku w życiu codziennym, w pracy, w biznesie. Zastosowanie narzędzi automatyzujących, czyli przyspieszających jakąś część procesu, powoduje, że do człowieka trafia znacznie, ale to znacznie więcej sugestii, możliwości, celów, informacji, z którymi coś powinien zrobić, podjąć jakąś decyzję. Tymczasem nie mamy zasobów mentalnych do wykonania naszej części pracy tak szybko, jak robi to technologia ze swoją częścią pracy, więc paradoksalnie cyfryzacja powoduje i większe zmęczenie ludzi, i większą ich chęć, aby nie myśleć, lecz iść za najłatwiejszą sugestią systemu.
Im mniej czasu mamy – lub dajemy sobie – na decyzję, tym mniejsze znaczenie ma nasza własna moralność, wartości, zasady, nasza własna inteligencja, tym bardziej musimy polegać na zewnętrznych systemach i autorytetach, albo automatach jak AI. Etyka polega na namyśle, na poświęceniu czasu na decyzję, czy na pewno powinien, powinna zrobić, to co nasuwa mi się po analizie lub cudzej sugestii.
Zauważmy, że nasza cywilizacja dotąd działała (działa?) na przeciwnej zasadzie: lepiej wypuścić winnego niż skazać niewinnego. Całe prawo i sądownictwo się na tym opiera: dopóki wina nie zostanie udowodniona, człowiek jest niewinny i wolny. Oczywiście, praktyka jest niedoskonała, ale co do zasady – wolno się mylić tylko na korzyść człowieka. AI zmusza nas do świadomej akceptacji błędu na niekorzyść człowieka.
Łatwo się zgodzimy na zabicie – czymkolwiek by ono było – jednego niewinnego, jeśli pozostałych 9 zabijemy zasadnie i bez konieczności osobistego namysłu. Takie będzie zachowanie statystycznego człowieka, ale nasze osobiste zachowanie jest ciagle kwestią naszego wyboru.
Rudolf Hoss, komendant Auschwitz-Birkenau, cierpiał na ostrą nerwicę. Nie wynikała ona z poczucia winy, że jest sprawcą zagłady setek tysięcy ludzi, wynika z poczucia, że zagłada nie przebiega dostatecznie sprawnie, jak brzmiały rozkazy. Objawy nerwicowe zmniejszyły się, gdy metody zagłady udoskonalono przez wprowadzenie gazowania. Hoss osobiście nic nie miał do więźniów, to rozkaz był ostateczną instancją.
Jest przeciwny przykład. Claude Eatherly, major Air Force, który dał sygnał do ataku atomowego na Hiroszimę, gdy dowiedział się, że wybuch spalił 200 tysięcy ludzi wpadł w narastającą depresję, podejmował próby samobójcze. Ostatecznie podjął się ciężkiej fizycznej pracy na rzecz poszkodowanych w Horoszymie. Nigdy nie zaakceptował glorii bohatera, która go otaczała, do końca życia czynił pokutę za wspóludział w zbrodni.
Iwona D. Bartczak