ITPracaSpołeczeństwo

Roboty jako lekarstwo na halucynacje GenAI – ciekawe spostrzeżenie

Na ubiegłotygodniowej konferencji Polskiej Izby Biegłych Rewidentów Warszawa, na której gościł Klub Dyrektorów Finansowych „Dialog”, Aleksandra Przegalińska, profesor w Harvard University i Akademii Leona Koźmińskiego mówiła o tym, że implementacja AI w fizyczne roboty jest pewnego sposobem wymuszenia ograniczenia halucynacji. W świecie fizycznym nie można zmyślać, gdy trzeba zejść po schodach. Jest to bardzo ciekawe spostrzeżenie, bowiem dotąd dynamiczny rozwój robotów humanoidalnych – jeden z pięciu dominujących obszarów inwestycji w branży AI – był raczej postrzegany jako odpowiedź na potrzeby przemysłowe lub społeczne, a okazuje się, że ma też rolę do odegrania w rozwoju AI, samemu też z niej korzystając.

Piotr Słomianny, CFO w MPWiK we Wrocławiu, w klubowej rozmowie uzupełnił ten wątek o jeszcze jeden aspekt. „Wszyscy skupiają się na mocy obliczeniowej – rosną wyceny firm, które produkują chipy (kilofy), a tak naprawdę zaczyna nam brakować złota (jakościowych danych). AI zaczyna się uczyć na tym, co sama wyprodukowała i zaczyna przez to chorować trochę jak kanibale.” – mówi. Kiedyś błędy najczęściej skutkowały podjęciem złej decyzji, teraz błędne dane mogą napędzać cały łańcuch decyzyjny, ponieważ wzmacniają się przez uczenie. Każdy cykl szkoleniowy wzmacnia te niedoskonałości, przekształcając najnowocześniejszą technologię w to, co można nazwać „mnożnikiem błędów o dużej prędkości”.

Jakość danych staje się krytyczna, gdy AI łączy się ze światem fizycznym, ponieważ wtedy podejmuje decyzje z natychmiastowymi konsekwencjami w świecie rzeczywistym.

Czym są roboty humanoidalne?

W przeciwieństwie do robotów przemysłowych, takich jak ramiona robotyczne czy autonomiczne pojazdy, roboty humanoidalne charakteryzują się większą uniwersalnością, wykonując złożone zadania wymagające zręczności, adaptacyjności i interakcji w środowiskach zaprojektowanych dla ludzi.

Ucieleśniona sztuczna inteligencja (EAI) to koncepcja, w której AI jest zintegrowana z fizyczną formą, taką jak robot czy autonomiczny pojazd. EAI nie ogranicza się tylko do robotów humanoidalnych – obejmuje również systemy takie jak samochody autonomiczne.

Zdaniem wielu w nadchodzących latach roboty humanoidalne mogą zrewolucjonizować przemysł, opiekę zdrowotną i usługi, stając się integralną częścią życia codziennego. Szczególnie zwraca uwagę dynamiczny rozwój tego sektora w Chinach. 56% firm wymienionych w rankingu „Humanoid 100” Morgan Stanley pochodzi z Chin. Dane DIGITIMES pokazują, że w 2024 r. Chiny odpowiadały za 49% światowych integratorów robotów humanoidalnych, w porównaniu do 17% w USA i 10% w Japonii.

Wielcy chińscy producenci samochodów, tacy jak BYD, NIO i Xpeng, zaczęli inwestować w robotykę, widząc w niej szansę na dywersyfikację swoich biznesów. Przemysł motoryzacyjny ma wiele punktów stycznych z robotyką

Mimo postępów, branża zmaga się z istotnymi problemami, takimi jak wysokie koszty produkcji, trudności w integracji oprogramowania z hardwarem oraz ograniczona trwałość kluczowych komponentów. Szczególnym wyzwaniem jest rozwój systemów percepcyjnych, które pozwalają robotom precyzyjnie rozpoznawać otoczenie, a także zrozumieć intencje i emocje ludzi. Ponadto większość komponentów, takich jak silniki serwo czy sensory, wymaga dalszych innowacji w celu obniżenia kosztów i zwiększenia wydajności.

Chiński rozwój robotów humanoidalnych koncentruje się na potężnych możliwościach sterowania ich ruchem, co zostało podkreślone przez niedawne wprowadzenie na rynek pierwszego na świecie humanoidalnego robota z obrotem do przodu przez EngineAI Robotics Technology. Jednak większość robotów humanoidalnych opracowanych przez chińskich producentów nadal polega na zdalnym sterowaniu lub wstępnie ustawionych programach do wykonywania złożonych zadań, nie mając znaczącej autonomicznej zdolności podejmowania decyzji i adaptacji, więc ich rzeczywiste zastosowanie jest nadal ograniczone, co utrudnia ich powszechne przyjęcie.

Obecne modele językowe, takie jak ChatGPT, nie są zaprojektowane dla robotów. Ich trening opiera się na danych tekstowych, a nie na percepcji środowiska. I tutaj wracamy do spostrzeżeń Aleksandry Przegalińskiej i Piotra Słomiannego.

Iwona D. Bartczak