Ci pracownicy są siłą napędową rozwijającego się przemysłu sztucznej inteligencji (AI). Bez nich produkty takie jak ChatGPT po prostu by nie istniały. Dzieje się tak, ponieważ dane, które oznaczają, pomagają systemom AI „uczyć się”.

Jednak pomimo kluczowego wkładu tej siły roboczej w branżę, której wartość do 2027 r. ma wynieść 407 mld USD, ludzie ją tworzący są w dużej mierze niewidoczni i często wykorzystywani.

Na początku tego roku prawie 100 osób zajmujących się etykietowaniem danych i pracą w obszarze sztucznej inteligencji z Kenii, pracujących dla takich firm jak Facebook, Scale AI i OpenAI, opublikowało otwarty list do prezydenta Stanów Zjednoczonych Joe Bidena, w którym napisali: „Nasze warunki pracy można porównać do współczesnego niewolnictwa.”

Aby zapewnić etyczność łańcuchów dostaw AI, przemysł i rządy muszą pilnie zająć się tym problemem. Ale kluczowe pytanie brzmi: jak?

Etykietowanie danych to proces adnotacji surowych danych — takich jak obrazy, wideo lub tekst — w celu umożliwienia systemom sztucznej inteligencji rozpoznawania wzorców i formułowania przewidywań. Na przykład samochody autonomiczne polegają na oznaczonych nagraniach wideo, aby odróżnić pieszych od znaków drogowych. Duże modele językowe, takie jak ChatGPT, polegają na oznaczonym tekście , aby zrozumieć język ludzki.

Te oznaczone zestawy danych są siłą napędową modeli AI. Bez nich systemy AI nie byłyby w stanie działać skutecznie.

Giganci technologiczni, tacy jak Meta, Google, OpenAI i Microsoft, zlecają znaczną część tej pracy fabrykom etykietowania danych w krajach takich jak Filipiny , Kenia , Indie , Pakistan , Wenezuela i Kolumbia . Chiny stają się również kolejnym globalnym centrum etykietowania danych.

Firmy outsourcingowe, które ułatwiają tę pracę, to Scale AI, iMerit i Samasource. Są to bardzo duże firmy same w sobie. Na przykład Scale AI, której siedziba znajduje się w Kalifornii, jest obecnie warta 14 miliardów dolarów .

Skrócenie czasu

Duże firmy technologiczne, takie jak Alphabet (spółka macierzysta Google), Amazon, Microsoft, Nvidia i Meta, zainwestowały miliardy w infrastrukturę sztucznej inteligencji, od mocy obliczeniowej i przechowywania danych po powstające technologie obliczeniowe.

Koszt szkolenia modeli AI na dużą skalę może sięgać dziesiątek milionów dolarów . Po wdrożeniu utrzymanie tych modeli wymaga ciągłych inwestycji w etykietowanie danych, udoskonalanie i testowanie w warunkach rzeczywistych.

Ale chociaż inwestycje w AI są znaczące, przychody nie zawsze spełniały oczekiwania. Wiele branż nadal postrzega projekty AI jako eksperymentalne z niejasnymi ścieżkami rentowności .

W odpowiedzi na to wiele firm tnie koszty, co odbija się na tych, którzy znajdują się na samym dole łańcucha dostaw sztucznej inteligencji i którzy są często najbardziej narażeni: osobach etykietujących dane.

Niskie płace, niebezpieczne warunki pracy

Jednym ze sposobów, w jaki firmy zaangażowane w łańcuch dostaw AI próbują obniżyć koszty, jest zatrudnianie dużej liczby osób zajmujących się etykietowaniem danych w krajach Globalnego Południa, takich jak Filipiny, Wenezuela, Kenia i Indie. Pracownicy w tych krajach borykają się ze stagnacją lub spadkiem płac .

Na przykład stawka godzinowa dla etykietujących dane AI w Wenezueli waha się od  90 centów do 2 dolarów . Dla porównania w Stanach Zjednoczonych stawka ta wynosi od 10 do 25 dolarów za godzinę .

Na Filipinach pracownicy etykietujący dane dla wielomiliardowych firm, takich jak Scale AI, często zarabiają znacznie poniżej płacy minimalnej . Niektórzy dostawcy etykiet uciekają się nawet do  pracy dzieci  w celach etykietowania.

Ale w łańcuchu dostaw sztucznej inteligencji występuje wiele innych problemów związanych z pracą.

Wielu etykieciarzy danych pracuje w zatłoczonych i zakurzonych środowiskach , które stanowią poważne zagrożenie dla ich zdrowia. Często pracują również jako niezależni kontrahenci, nie mając dostępu do ochrony, takiej jak opieka zdrowotna lub wynagrodzenie.

Również obciążenie psychiczne związane z pracą związaną z etykietowaniem danych jest znaczące, z powtarzalnymi zadaniami, ścisłymi terminami i sztywnymi kontrolami jakości. Etykieciarze danych są czasami proszeni o czytanie i etykietowanie mowy nienawiści lub innego języka lub materiału o charakterze obraźliwym, co udowodniono, że ma negatywne skutki psychologiczne .

Błędy mogą prowadzić do obniżek płac lub utraty pracy. Jednak osoby etykietujące często doświadczają braku przejrzystości w zakresie oceny ich pracy. Często odmawia się im dostępu do danych dotyczących wyników, co utrudnia im możliwość poprawy lub kwestionowania decyzji.

Uczynienie łańcuchów dostaw sztucznej inteligencji etycznymi

W miarę jak rozwój sztucznej inteligencji staje się coraz bardziej złożony, a firmy dążą do maksymalizacji zysków, pilnie potrzebne są etyczne łańcuchy dostaw sztucznej inteligencji.

Jednym ze sposobów, w jaki firmy mogą pomóc to zapewnić, jest zastosowanie podejścia do projektowania, rozważań i nadzoru skoncentrowanego na prawach człowieka w całym łańcuchu dostaw AI. Muszą przyjąć uczciwą politykę płacową, zapewniając, że osoby etykietujące dane otrzymują płace zapewniające utrzymanie, które odzwierciedlają wartość ich wkładu.

Uwzględniając prawa człowieka w łańcuchu dostaw, firmy zajmujące się sztuczną inteligencją mogą wspierać bardziej etyczną i zrównoważoną branżę, zapewniając, że zarówno prawa pracownicze, jak i odpowiedzialność korporacyjna będą sprzyjać długoterminowemu sukcesowi.

Rządy powinny również stworzyć nowe przepisy nakazujące te praktyki, zachęcające do uczciwości i przejrzystości . Obejmuje to przejrzystość w ocenie wyników i przetwarzaniu danych osobowych, umożliwiając pracownikom zrozumienie, w jaki sposób są oceniani i kwestionowanie wszelkich nieścisłości.

Przejrzyste systemy płatności i mechanizmy odwoławcze zapewnią sprawiedliwe traktowanie pracowników. Zamiast rozbijać związki zawodowe, jak zrobiło to Scale AI w Kenii w 2024 r ., firmy powinny również wspierać tworzenie cyfrowych związków zawodowych lub spółdzielni. Da to pracownikom głos, aby mogli orędować za lepszymi warunkami pracy.

Jako użytkownicy produktów AI możemy wszyscy zabiegać o etyczne praktyki, wspierając firmy, które są przejrzyste w kwestii swoich łańcuchów dostaw AI i zobowiązują się do uczciwego traktowania pracowników.

Tak samo jak nagradzamy ekologicznych i uczciwych producentów dóbr materialnych, możemy naciskać na zmiany, wybierając na nasze smartfony usługi cyfrowe lub aplikacje zgodne ze standardami praw człowieka, promując etyczne marki za pośrednictwem mediów społecznościowych i głosując naszymi dolarami za rozliczalnością gigantów technologicznych każdego dnia.

Podejmując świadome decyzje, wszyscy możemy przyczynić się do stosowania bardziej etycznych praktyk w branży sztucznej inteligencji.

Ganna Pogrebna jest dyrektorem wykonawczym w Instytucie AI i Cyber ​​Futures na Uniwersytecie Charles Sturt

Ten artykuł jest przedrukowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł .