ITSpołeczeństwo

Sztuczna inteligencja może być niesprawiedliwa?

Czy algorytm lub model sztucznej inteligencji może być niesprawiedliwy? Abstrahując od tego jak interpretujemy możliwość przypisywania pewnych cech sztucznym tworom – jak najbardziej może. Niesprawiedliwość może mieć wiele wymiarów i przyjmować przykładowo formę dyskryminacji, stronniczości czy nawet stygmatyzacji. Niesprawiedliwa sztuczna inteligencja może rekomendować nam określone treści, zaniżać nasz scoring (np. kredytowy) czy pozbawiać jakichś benefitów tylko dla tego, że mamy jakąś cechę, którą algorytm uczenia maszynowego czy głębokiego uznał albo za mniej istotną, albo wręcz negatywną. Innymi słowy, niesprawiedliwy algorytm lub model „zaburzają” swoistą sprawiedliwość społeczną, jakkolwiek sama definicja tej sprawiedliwości jest różnie rozumiana czy nawet „kwantyfikowana”.

Sprawiedliwość (fairness) to jedna z naczelnych zasad, która pojawia się w kontekście etyki nowych technologii, w szczególności uczenia maszynowego  i przyjmuje, że tworzenie, wdrażanie i wykorzystywanie systemów opartych o tej rozwiązania powinno przebiegać sprawiedliwie [tak patrzy na to m.in. Komisja Europejska]. Sprawiedliwość możemy określać sobie zasadniczo dowolnie, choć niewątpliwie ograniczają – a przynajmniej powinny – nas prawa podstawowe [człowieka] i przyjęte normy kulturowe czy etyczne, a także to w jakim społeczeństwie żyjemy. Dlatego pojęcie sprawiedliwości w kontekście sztucznej inteligencji nie zawsze jest przyjmowane ze zrozumieniem. I trudno się dziwić. Bo jak ocenić czy coś jest sprawiedliwe w sposób bezsprzeczny? Sprawa się komplikuje, jeżeli stosujemy modele nienadzorowane, które same dochodzą do pewnych (nie zawsze sprawiedliwych) osądów.

Sprawiedliwość w kontekście algorytmów ma jeszcze jeden aspekt – wyjaśnialność. Decydując się na tworzenie sprawiedliwych rozwiązań, co ma szczególne znaczenie w przypadkach wykorzystania AI w stosunku do ludzi, musimy być w stanie zweryfikować czy nasz model rzeczywiście jest sprawiedliwy. Metod tej weryfikacji [ex ante i ex post] jest całkiem sporo, choć nie wszystkie są skuteczne i efektywne, a jednym z głównych ograniczeń w szerszym ich stosowaniu jest spadek skuteczności, np. predykacji modeli, a więc utrata efektywności, która jest istotna.

Stąd moje pytanie – co jest ważniejsze? W pełni sprawiedliwy model [przyjmując, że taki w ogóle możemy stworzyć]? Model skuteczny, który spełnia swój cel? Model uwzględniający oba elementy, nawet jeżeli traci nieco na skuteczności, ale nie w tak znaczącym stopniu? A może jeszcze coś innego? A może sprawiedliwość w ogóle nie istnieje?

 

10438788288?profile=RESIZE_400x

 

 

Michał Nowakowski, Silesian Centre for Legal Engineering, Technology and Digital Competences – CyberScience i NewTech NGL Advisory