Logo Business Dialog

Również ta rewolucja pożera własne dzieci

Ikona daty

W ostatnich latach sztuczna inteligencja (AI) przeżywa prawdziwy boom. Firmy, media i użytkownicy z entuzjazmem przyjmują kolejne narzędzia oparte na AI – od chatbotów, przez generatory tekstu i obrazów, po systemy rekomendacyjne. To naturalne, że nowa technologia budzi ogromne zainteresowanie i euforię.

Jednak ta euforia często bywa przesadzona, a w wielu przypadkach tradycyjnie napędzana niewiedzą. Co AI naprawdę potrafi ? Jakie są jej ograniczenia, a także jakie wyzwania i ryzyka niesie ze sobą powszechne, masowe korzystanie z tych rozwiązań ?

Droga od sieci neuronowych do generatywnych modeli AI

Aby zrozumieć obecny entuzjazm i jednocześnie krytycznie spojrzeć na AI, warto poznać krótko historię i mechanizmy działania tej technologii.

Sieci neuronowe – początek inspiracji

Pierwsze sieci neuronowe powstały już w latach 50. i 60. XX wieku, bazując na uproszczonym modelu funkcjonowania ludzkiego mózgu. Komórki nerwowe — neurony — były wzorcem dla sztucznych węzłów sieci. Odpowiednikiem jądra komórkowego jest węzeł, który przetwarza sygnały, a synapsami — wagi, czyli parametry określające siłę połączenia między węzłami. To właśnie wagi są modyfikowane podczas uczenia, aby sieć potrafiła rozpoznawać wzorce w danych wejściowych.

Pierwsze sieci były proste, operowały na niewielkich zbiorach danych i miały ograniczone zastosowania, ale położyły fundament pod dalszy rozwój.

Sieci neuronowe – jak to naprawdę działa?

Niestety, termin „sztuczna inteligencja” to nieco nieszczęśliwa, choć chwytliwa nazwa, sugerująca, że maszyny „myślą” i „rozumieją” świat podobnie jak ludzie. W rzeczywistości sieci neuronowe to skomplikowane modele matematyczne, które nie myślą — one obliczają i podają rozwiązanie o najwyższym prawdopodobieństwie poprawności na podstawie wzorców w danych treningowych.

Mówiąc inaczej, AI działa na zasadzie statystycznej analizy i przewidywania, nie posiadania świadomości ani głębokiego rozumienia. To dlatego generowane przez AI odpowiedzi mogą czasem być błędne, niejasne lub pozbawione sensu.

I właśnie dlatego proces uczenia oraz jakość i różnorodność danych wejściowych mają tak ogromne znaczenie — od nich zależy, czy AI będzie użyteczne i wiarygodne.

Deep learning – głębokie sieci i eksplozja możliwości

Przełom nastąpił dzięki deep learningowi — czyli głębokim sieciom neuronowym z wieloma warstwami, które potrafią uczyć się z ogromnych i złożonych danych. Dzięki mocniejszym komputerom i lepszym algorytmom, możliwości większych obliczeń, AI zaczęło sprawnie rozpoznawać obrazy, rozumieć mowę, tłumaczyć teksty i podejmować coraz bardziej zaawansowane zadania.

Sieci generatywne – nowa era AI

Obecnie na czele rozwoju AI stoją modele generatywne — potrafiące generować/tworzyć nowe dane, takie jak teksty, obrazy, muzykę czy kod programistyczny. To one wzbudzają największe emocje i wydają się najbardziej „inteligentne”. Przykłady to:

  • GAN-y (Generative Adversarial Networks), które potrafią tworzyć realistyczne obrazy,
  • Modele autoregresyjne, jak GPT (Generative Pre-trained Transformer), które generują tekst na podstawie kontekstu,
  • Modele diffusion i inne architektury do generowania treści kreatywnych.

Niezależnie od tego, tak jak na początku, w przypadku prostych sieci neuronowych, tej drogi nadal podstawą są dane uczące-wzorzec oraz nowe dane podawane na wejściu sieci.

AI to rewolucja , a "Rewolucja pożera własne dzieci". Firmy i użytkownicy często traktują AI jako cudowne remedium na wszystkie problemy, jednak AI to narzędzie z ograniczeniami i ryzykiem.

Dla niektórych AI to dzieło szatana ;), wiec jak każde takie dzieło jest przeklęte, bowiem rzucono na nie:

The Curse of Recursion – przekleństwo rekurencji

Jednym z kluczowych, ale rzadko omawianych problemów jest tzw. „przekleństwo rekurencji”. Badania pokazują, że gdy modele AI są trenowane na danych generowanych przez inne modele AI, jakość ich wiedzy stopniowo się pogarsza.

Model „zapomina” oryginalne, wysokiej jakości dane, a zaczyna powtarzać i wzmacniać schematyczne, powtarzalne wzorce. Efekt? Spadek różnorodności i kreatywności generowanych treści.

To realne zagrożenie przy rosnącym wykorzystaniu AI, które generuje ogromne ilości automatycznych danych trafiających potem do kolejnych procesów uczenia.

Masowe korzystanie a degradacja jakości

Im więcej treści powstaje z udziałem AI, tym większe ryzyko „zamknięcia się” modeli w pętli powtarzania własnych wzorców. Grozi to powstaniem ekosystemu informacji coraz mniej różnorodnego, a bardziej jednorodnego i schematycznego.

To oznacza, że im bardziej masowo korzystamy z AI, tym większe ryzyko, że modele zaczną się „zamieniać w echo samych siebie” zamiast być źródłem świeżych, wartościowych i unikatowych informacji.

Ograniczenie danych uczących zostanie ograniczone przez naruszanie praw autorów?

Dane treningowe często pochodzą z materiałów chronionych prawami autorskimi (kody, teksty, obrazy, muzyka).

O ile w pierwszej fazie, modele wykorzystały dane wejściowe, bez ogladania się na prawa autorskie, to w dobie zwiększonej ochrony praw autorskich i regulacji dotyczących danych, trenowanie modeli AI będzie bardziej skomplikowane.

Podsumujmy zatem

  • AI nie rozumie świata, a generuje statystycznie prawdopodobne odpowiedzi,
  • AI może utrwalać błędy i stereotypy z danych,
  • masowe generowanie treści automatycznych może zalać internet powtarzalną, powierzchowną informacją,
  • potrzebny jest stały dopływ nowych danych wejściowych.

Gdy coraz więcej kodu, dokumentacji i wiedzy w internecie jest generowane przez AI (często błędnie lub nieprecyzyjnie), a nowe modele uczą się z tych danych — zaczynamy zapętlać się w spirali obniżającej się jakości. Modele stają się „kopiarkami kopiarki” — bez możliwości twórczej interpretacji i analizy.

W takim świecie doświadczeni programiści, którzy naprawdę rozumieją złożoność, algorytmy i strukturę, stają się nie mniej, a bardziej potrzebni — jako ci, którzy potrafią:

  • wykryć błąd modelu,
  • poprawić błędny kod,
  • zrozumieć kontekst systemu,
  • zaprojektować architekturę,
  • nauczyć i nadzorować AI.

Oczywiście AI zmieni sposób pracy — to fakt. Może pisać fragmenty kodu, automatyzować dokumentację czy sugerować rozwiązania. Ale nie zastąpi zrozumienia problemu, krytycznego myślenia i projektowania systemów.

Dlatego właśnie, w kontekście przekleństwa rekurencji, twierdzenie Jensen Huang'a z Nvidii o "końcu programistów" nie tylko niepokoi — ono zwyczajnie śmieszy. Przyszłość należy nie do tych, którzy ślepo klikają "wygeneruj", ale do tych, którzy wiedzą, co się dzieje pod maską.

PS. (ang. The Curse of Recursion) opisano w badaniach takich jak Training on Generated Data Makes Models Forget.

Rafał Hanys

Rafał Hanys