Człowiek i maszyna - pojedynek i współpraca, czyli czym się różnią szachy od życia

Szachy mogą wydawać się szczytem wyrafinowanego intelektualnie zadania, ale tak nie jest: zasady są jasne, nie ma ukrytych informacji, nie trzeba śledzić tego, co wydarzyło się w poprzednich ruchach. Idealne zadanie dla algorytmu – liczy się bowiem moc obliczeniowa.

W życiu istnieje bardzo niewiele problemów, w których, podobnie jak w szachach, są wszystkie potrzebne informacje, aby podjąć właściwą decyzję. Są niewiadome. Jest losowość.

A wielu wydawało się, że to trumf maszyny nad człowiekiem, gdy DeepBlue wygrał z Kasparowem.

IBM poświęcił lata i miliony dolarów na opracowanie komputera do gry w szachy. Nie doprowadziło to do przełomów, które pozwoliły sztucznej inteligencji [Deep Blue] wywrzeć ogromny wpływ na świat. Tak naprawdę nie odkryto żadnych zasad inteligencji, ponieważ świat rzeczywisty nie przypomina szachów.

Ale gdy Deep Blue był na topie nadziei, garstka entuzjastów majstrowała przy radykalnie bardziej obiecującej formie sztucznej inteligencji: sieci neuronowej.

W przypadku sieci neuronowych pomysł nie polegał na tym, jak w przypadku systemów eksperckich, aby cierpliwie pisać reguły dla każdej decyzji, jaką podejmie sztuczna inteligencja. Zamiast tego treningi wzmacniają wewnętrzne połączenia neuronów w przybliżonej emulacji (jak mówi teoria) tego, jak ludzki mózg się uczy.

Pomysł istniał od lat pięćdziesiątych. Ale uczenie użytecznie dużej sieci neuronowej wymagało szybkich jak błyskawica komputerów, ton pamięci i mnóstwa danych. Nic z tego nie było wtedy łatwo dostępne. Nawet w latach 90. sieci neuronowe uważano za stratę czasu.

Ale ewolucja branży komputerowej do początku XXI wieku sprzyjała tej koncepcji. Żądza graczy coraz lepszej grafiki stworzyła ogromny zasób w ultraszybkich jednostkach przetwarzania grafiki, które okazały się doskonale przystosowane do matematyki w sieciach neuronowych. Jednocześnie Internet eksplodował, tworząc hektary zdjęć i tekstu, które można wykorzystać do trenowania systemów.

W 2012 roku maszyny samouczące się w końcu stały się opłacalne.

Dziesięć lat po rewolucji głębokiego uczenia sieci neuronowe i ich zdolności rozpoznawania wzorców skolonizowały każdy zakamarek codziennego życia. Pomagają Gmailowi ​​w autouzupełnianiu zdań, pomagają bankom wykrywać oszustwa, pozwalają aplikacjom fotograficznym automatycznie rozpoznawać twarze, a także — w przypadku OpenAI GPT-3 i DeepMind's Gopher — pisać długie, ludzko brzmiące eseje i podsumowywać teksty. Zmieniają nawet sposób uprawiania nauki; w 2020 r. DeepMind zadebiutował AlphaFold2, sztuczną inteligencją, która może przewidzieć, jak białka będą się fałdować — nadludzka umiejętność, która może pomóc naukowcom w opracowywaniu nowych leków i terapii.

Tymczasem Deep Blue zniknął, nie pozostawiając po sobie żadnych użytecznych wynalazków.  IBM próbował zaradzić tej sytuacji za pomocą Watsona, innego wyspecjalizowanego systemu, zaprojektowanego w celu rozwiązania bardziej praktycznego problemu: uzyskania od maszyny odpowiedzi na pytania. Wykorzystał analizę statystyczną ogromnych ilości tekstu, aby osiągnąć zrozumienie języka, które było jak na owe czasy najnowocześniejsze. To było coś więcej niż prosty system „jeśli-to”. Jednak Watsonowi nie sprzyjał czas: został on przyćmiony zaledwie kilka lat później przez rewolucję w uczeniu głębokim, która przyniosła generację modeli rozpoznawania wzorców o wiele bardziej zniuansowanych niż techniki statystyczne Watsona.

Losy Deep Blue i sieci neuronowych pokazują, jak przez wiele lat kiepsko umieliśmy ocenić, co jest trudne, a co cenne w sztucznej inteligencji.

Przez dziesięciolecia ludzie zakładali, że opanowanie szachów będzie ważne, ponieważ, cóż, ludziom trudno jest grać w szachy na wysokim poziomie. Ale szachy okazały się dość łatwe do opanowania przez komputery, ponieważ są takie logiczne.

To, co było znacznie trudniejsze do nauczenia dla komputerów, to zwykła, nieświadoma praca umysłowa, którą wykonują ludzie – na przykład prowadzenie ożywionej rozmowy, pilotowanie samochodu w ruchu ulicznym lub odczytywanie stanu emocjonalnego przyjaciela. Robimy te rzeczy tak bez wysiłku, że rzadko zdajemy sobie sprawę, jak trudne są one i jak bardzo wymagają nieostrego osądu w skali szarości. Ogromna użyteczność głębokiego uczenia się wynika z możliwości uchwycenia małych fragmentów tej subtelnej, niewypowiedzianej ludzkiej inteligencji.

Ale głębokie uczenie zbiera też ostrą krytykę.

Systemy głębokiego uczenia się są często szkolone na tendencyjnych danych – i absorbują te uprzedzenia, np. rasowe. Chociaż informatycy i wielu inżynierów AI są teraz świadomi tych problemów, nie zawsze są pewni, jak sobie z nimi radzić. Co więcej, sieci neuronowe są również „masywnymi czarnymi skrzynkami”: po wytrenowaniu sieci neuronowej jej mechanika nie jest łatwo zrozumiała nawet dla jej twórcy. Nie jest jasne, w jaki sposób dochodzi do wniosków – ani kiedy zawiedzie.

Może nie być problemem poleganie na czarnej skrzynce w przypadku zadania, które nie jest „krytyczne dla bezpieczeństwa”. Ale co z pracą na wyższą stawkę, taką jak autonomiczna jazda samochodem?

W tym przypadku Deep Blue miał przewagę. Oldschoolowy styl ręcznie robionych reguł mógł być kruchy, ale był zrozumiały. Maszyna była skomplikowana, ale nie stanowiła tajemnicy.

Jak na ironię, ten stary styl programowania może zainscenizować coś w rodzaju powrotu, gdy inżynierowie i informatycy zmagają się z ograniczeniami dopasowania wzorców. 

Podobnie wizualna sztuczna inteligencja może popełniać straszne błędy, gdy napotka skrajny przypadek. Autonomiczne samochody uderzyły w wozy strażackie zaparkowane na autostradach, ponieważ w milionach godzin nagrań wideo, na których byli szkoleni, nigdy nie spotkali się z taką sytuacją. Sieci neuronowe mają na swój sposób pewną wersję problemu „kruchości”.

To, czego sztuczna inteligencja naprawdę potrzebuje, aby rozwijać się, to umiejętność poznawania faktów na temat świata – i rozumowania na ich temat. Samochód autonomiczny nie może polegać wyłącznie na dopasowaniu wzorca. Trzeba też mieć zdrowy rozsądek — wiedzieć, czym jest wóz strażacki i dlaczego jego widok zaparkowanego na autostradzie oznacza niebezpieczeństwo.

Problem polega na tym, że nikt nie wie do końca, jak budować sieci neuronowe, które mogą rozumować lub używać zdrowego rozsądku. Pewnie ​​przyszłość AI będzie wymagała podejścia „hybrydowego” – sieci neuronowych do uczenia się wzorców, ale kierujących się staromodną, ​​ręcznie zakodowaną logiką. W pewnym sensie połączyłoby to zalety Deep Blue z korzyściami głębokiego uczenia się.

Sa jednak i tacy, którzy uważają, że ​​na dłuższą metę sieci neuronowe powinny być w pełni zdolne do rozumowania. W końcu ludzie to robią, „a mózg jest siecią neuronową”. Używanie ręcznie zakodowanej logiki napotka problem wszystkich systemów eksperckich, który polega na tym, że nigdy nie można przewidzieć całego zdrowego rozsądku, jaki chce się nadać maszynie. Może więc rozwiązanie jest  dalsze wprowadzanie innowacji w sieciach neuronowych — odkrywanie nowych architektur i nowych algorytmów uczenia się, które dokładniej naśladują działanie samego ludzkiego mózgu.

Po meczu z Deep Blue Kasparow wynalazł „zaawansowane szachy”, w których ludzie i krzem współpracują ze sobą. Człowiek gra przeciwko drugiemu człowiekowi — ale każdy z nich ma też laptopa z oprogramowaniem szachowym, aby pomóc w możliwych ruchach w grze wojennej.

Kiedy Kasparow zaczął prowadzić zaawansowane mecze szachowe w 1998 roku, szybko odkrył fascynujące różnice w grze. Co ciekawe, amatorzy uderzali ponad swoją wagę. W jednym meczu człowieka z laptopem w 2005 roku para z nich zdobyła główną nagrodę – pokonując kilku wielkich mistrzów.

Jak mogliby pozyskać lepsze wyniki niż zawodowcy? Bo amatorzy lepiej rozumieli, jak współpracować z maszyną. Wiedzieli, jak szybko eksplorować pomysły, kiedy zaakceptować sugestię maszyny, a kiedy ją zignorować.

To, argumentuje Kasparow, jest dokładnie tym, jak powinniśmy podejść do wyłaniającego się świata sieci neuronowych.  „Przyszłość polega na znalezieniu sposobów łączenia inteligencji człowieka i maszyny, aby osiągnąć nowe wyżyny i robić rzeczy, których nie można zrobić samodzielnie. Będziemy coraz częściej stawać się menedżerami algorytmów i używać ich do zwiększania naszej kreatywności — naszych żądnych przygód dusz”. – mówi Kasparow. Jest to piękna wizja.

 

Iwona D. Bartczak