BiznesITSpołeczeństwo

Etyka w nowych technologiach to mrzonka?

Rozwój nowych technologii – niekoniecznie przełomowych – powoduje, że stykamy się z coraz nowymi zagrożeniami, o których nawet nie mamy pojęcia lub których skalę bagatelizujemy. Rozwój takich obszarów jak uczenie maszynowe i głębokie, przetwarzanie danych biometrycznych (w tym behawioralnych) czy popularyzacja finansów zdecentralizowanych opartych o technologię rozproszonego rejestru i łańcucha bloków, ma jednak dla nas – poszczególnych jednostek i całego społeczeństwa – olbrzymie znaczenie, bowiem z jednej strony daje szansę na lepsze życie, a z drugiej – być może bardziej prawdopodobnie – może wpędzić nas w prawdziwe tarapaty.

Czy zastanawialiście się chociażby jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i tzw. sztucznej inteligencji? Czy zastanawialiście jakie są koszty takiego rozwoju? I przede wszystkim – kto za tym wszystkim stoi?

Spokojnie. Nie mam zamiaru pisać tutaj o różnych teoriach spiskowych, ani też przedstawiać twardych danych na poparcie moich przemyśleń (zainteresowanych zachęcam jednak do pogłębienia wiedzy w tym zakresie), ale chciałbym skłonić do refleksji nad kierunkiem zmian, które zachodzą w naszym społeczeństwie i środowisku, a które wymagają spojrzenia poza „techniczne” i „biznesowe” walory stosowanych rozwiązań, które choć mają znaczenie, nie mogą stanowić jedynej podstawy tego rozwoju. I celu samego w sobie.

Za wszystkim stoi człowiek

1649279771889?e=2147483647&v=beta&t=bqpr1rLR2ZNFFJ7hXJnSht78W1_eFlS9RJ0SVDkVYtc&profile=RESIZE_400x

Mamy tendencję do wyolbrzymiania. Szczególnie osiągnięć nauki i techniki, a wizja robotów przejmujących nad nami kontrolę wydaje się nam dość prawdopodobna, nawet jeżeli „twarde” dane skłaniają nas raczej do tezy, że prędzej sami się wyeliminujemy. Za każdym rozwiązaniem (oprogramowaniem, produktem z obszaru internetu rzeczy) czy „półproduktu” stoi człowiek, który „coś” wytworzył, ale także bierze za to odpowiedzialność. Często sprawuje też nad tym nadzór i kontrolę.

Weźmy przykład modelu sztucznej inteligencji odpowiedzialnego za segmentację klientów i dopasowywanie materiałów reklamowych do kategorii. Najpierw ktoś musiał opracować pewne założenia, następnie przygotować dane [dane, które nota bene są generowane przez człowieka], wytrenować model i go zwalidować, podjąć decyzję o wdrożeniu, wdrożyć, stosować i nadzorować. Nawet jeżeli model nazywamy „autonomicznym”. Za każdym etapem stoi człowiek. Człowiek decyduje więc o celu i tym czy wykorzysta go dla dobra [kogo to już odrębna kwestia].

Człowiek decyduje też o tym jak wykorzystać dostępne zasoby, także te naturalne, które – nomen omen – stanowią absolutny fundament każdej technologii. Nie ma komputerów, serwerów, oprogramowania i rozproszonych sieci bez zasobów naturalnych. Do produkcji lub utrzymania każdego z tych „elementów” wykorzystujemy „trochę” naszego środowiska [kojarzycie dyskusję w Parlamencie Europejskim na temat możliwego zakazu stosowania techniki Proof of Stake w sieciach rozproszonych?], ale także wykorzystujemy ludzi, którzy odpowiadają za utrzymanie, ale także tworzenie. Ludzie są także świadomymi lub nieświadomymi, bezpośrednimi lub pośrednimi, ofiarami stosowania wielu rozwiązań technologicznych. I to ofiarami w wielu wymiarach.

I wcale nie chodzi tutaj o to, że tzw. sztuczna inteligencja zabierze im pracę, choć to też jest realny problem, choć bardziej odnosi się nie tyle do nieprzydatności, co utraty znaczenia. Ludzie stają się często niewolnikami superszybkich komputerów i algorytmów, które wywierają na nas presję – czasu, efektywności czy nawet doskonałości. Rezygnujemy z naszych potrzeb – także tych fizjologicznych – aby „nakarmić” głodne algorytmy wołające o więcej. Stajemy się też coraz mniej odporni na manipulację i wykorzystywanie naszych słabości, również w obszarze komercyjnym. A może nawet sami nie chcemy być na to odporni. W końcu wiele spraw może za nas załatwić wirtualny asystent czy algorytm platformy zakupowej. Zwalnia nas z myślenia i działania.

No właśnie. Problem polega na tym, że to nie algorytm. To człowiek

1649279803617?e=2147483647&v=beta&t=1fbnuYerVp8Tiyso2L88TwV83gjsFGrtJCCyffMLLZQ&profile=RESIZE_400x

Przyzwyczailiśmy się do mówienia: „to algorytm podsunął mi ten produkt”, albo to „algorytm skłonił mnie do podjęcia takiej decyzji”. No jasne, że algorytm. W końcu to nie człowiek go zaprojektował, wdrożył i z niego korzysta (także z rezultatów jakie generuje), prawda? Fakt, algorytmy i modele sztucznej inteligencji są na pierwszej linii i to „one” wchodzą z nami w bezpośrednie interakcje, choć często nie mamy nawet o tym pojęcia (chatboty, wirtualni asystenci, systemy IVR), ale jednak są to nadal narzędzia generujące dla kogoś „coś”. Człowiek bierze więc też za to odpowiedzialność. A przynajmniej powinien brać.

O nowych technologii, jak i etyce, piszę dość dużo na Linkedin (więcej tutaj), choć tematyka ta niewątpliwie nie cieszy się tak dużą popularnością jak inne tematy dotyczące zarówno #newtech, jak i #fintech, a jest to temat, który POWINIEN nabierać na znaczeniu. Mamy oczywiście coraz to nowe wytyczne, rekomendacje i opinie na temat tworzenia etycznej sztucznej inteligencji, ale raczej rzadko rozmawiamy w ogóle o wartościach i etyke w kontekście nowych technologii i cyfryzacji. Pewną namiastką są tzw. CSR czy ESG, które mają budować pewne pozytywne postawy również względem wykorzystania nowych technologii, a może bardziej precyzyjnie – środowiska i społeczeństwa.

Często powtarzanym standardem jest „data protection and privacy by default and design” w kontekście tworzenia nowych rozwiązań, np. oprogramowania czy szeroko rozumianego internetu rzeczy, ale dlaczego nie mówimy/piszemy o „ethics/values by default and design„? Mało atrakcyjne? Być może. Do tego dochodzi przekonanie, że technologia i etyka nie idą ze sobą w parze, bo to drugie to przecież „jakieś filozofowanie„. Czy tak rzeczywiście jest?

Zależy jaką postawę przyjmiemy. Etyka sama w sobie może być traktowana jako dyscyplina naukowa o pewnej filozoficznej konotacji, choć jej zakres jest znacznie szerszy i obejmuje m.in. nauki społeczne czy ekonomię. To podejście może nas jednak trochę zniechęcać, więc może warto spojrzeć na to z perspektywy pewnych wartości i fundamentalnych zasad? Stosowanie nowych rozwiązań technologicznych, nie tylko wspomnianej „sztucznej inteligencji”, musi opierać się na zasadach. Na szacunku do siebie, drugiego człowieka, środowiska i całego otoczenia. Na poszanowaniu godności, integralności, wolności innych i decyzyjności. Na tym samym na czym opiera się nasze wspólne życie w społeczeństwie.

No, ale przecież to są „miękkie” postulaty odnoszone raczej do człowieka, a nie maszyny. Oczywiście, że tak. O to w tym chodzi. Etyka nowych technologii nie musi być li tylko dyscypliną „inżynieryjną” (choć niewątpliwie i taką jest, ale to temat na inny felieton), a nawet nie powinna nią być. To multidyscyplinarne podejście do wartości, technologii i człowieka. Powinna być przedmiotem nauczanym od najmłodszych lat, bo spora część naszego – młodszego – społeczeństwa, to pokolenie cyfrowe, które będzie też kształtowało przyszłość następnych pokoleń. To jaka będzie w tym rola pewnych zasad i norm jest więc zależne od tych „młodych”. Nie ignorujmy więc etyki w kontekście nowych technologii i nie traktujmy jej jako zła koniecznego, ale podejdźmy do tego jako próby ochrony tego, co ludzkie i wartościowe. Budowanie rozwiązań opartych o pewne wartości – o tym „porozmawiamy” przy innej okazji – nie musi być wcale kosztowne [a już na pewno będzie procentować w dłuższym terminie]. Wystarczy pamiętać o kilku fundamentach. Te fundamenty to człowiek i środowisko. Tylko tyle i aż tyle.

10277857871?profile=RESIZE_400x

 

Michał Nowakowski, Silesian Centre for Legal Engineering, Technology and Digital Competences – CyberScience i NewTech NGL Advisory