Ojciec chrzestny sztucznej inteligencji chce okiełznać „dziki zachód” branży AI
W tym tygodniu amerykańskie Federalne Biuro Śledcze ujawniło, że dwóch mężczyzn podejrzanych o zbombardowanie kliniki leczenia niepłodności w Kalifornii w zeszłym miesiącu rzekomo użyło sztucznej inteligencji (AI) do uzyskania instrukcji dotyczących produkcji bomb. FBI nie ujawniło nazwy programu AI, o którym mowa.
Uwypukla to pilną potrzebę uczynienia AI bezpieczniejszą. Obecnie żyjemy w erze „dzikiego zachodu” AI, gdzie firmy zaciekle konkurują o opracowanie najszybszych i najbardziej rozrywkowych systemów AI. Każda firma chce prześcignąć konkurentów i zająć pierwsze miejsce. Ta intensywna konkurencja często prowadzi do celowych lub niezamierzonych skrótów – szczególnie jeśli chodzi o bezpieczeństwo.
Zbiegiem okoliczności, mniej więcej w tym samym czasie, gdy FBI dokonało ujawnienia, jeden z ojców chrzestnych współczesnej sztucznej inteligencji, kanadyjski profesor informatyki Yoshua Bengio, założył nową organizację non-profit , której celem jest opracowanie nowego modelu sztucznej inteligencji, zaprojektowanego specjalnie tak, aby był bezpieczniejszy od innych modeli sztucznej inteligencji, i miał na celu zwalczanie tych, które powodują szkody społeczne.
Czym więc jest nowy model AI Bengio? I czy faktycznie ochroni świat przed krzywdą ułatwianą przez AI?
„Uczciwa” sztuczna inteligencja
W 2018 roku Bengio wraz ze swoimi kolegami Yannem LeCunem i Geoffreyem Hintonem zdobyli nagrodę Turinga za przełomowe badania, które opublikowali trzy lata wcześniej na temat głębokiego uczenia się . Głębokie uczenie się, gałąź uczenia maszynowego, próbuje naśladować procesy ludzkiego mózgu, wykorzystując sztuczne sieci neuronowe do uczenia się z danych obliczeniowych i formułowania przewidywań.
Nowa organizacja non-profit Bengio, LawZero , rozwija „Scientist AI”. Bengio powiedział, że ten model będzie „uczciwy i nieoszukańczy” i będzie zawierał zasady bezpieczeństwa w fazie projektowania.
Zgodnie z wstępną wersją artykułu opublikowanego w Internecie na początku tego roku, Scientist AI będzie różnić się od obecnych systemów AI w dwóch kluczowych kwestiach.
Po pierwsze, może ocenić i zakomunikować poziom pewności swoich odpowiedzi, co pomaga ograniczyć problem udzielania przez sztuczną inteligencję zbyt pewnych siebie i niepoprawnych odpowiedzi.
Po drugie, może wyjaśnić ludziom swój tok rozumowania, co pozwala na ocenę i sprawdzenie poprawności jego wniosków.
Co ciekawe, starsze systemy AI miały tę cechę . Jednak w pośpiechu na rzecz szybkości i nowych podejść wiele nowoczesnych modeli AI nie potrafi wyjaśnić swoich decyzji. Ich twórcy poświęcili możliwość wyjaśnienia na rzecz szybkości.
Bengio zamierza również, aby „Scientist AI” działał jako bariera ochronna przed niebezpieczną AI. Mógłby monitorować inne, mniej niezawodne i szkodliwe systemy AI — w zasadzie zwalczając ogień ogniem.
To może być jedyne wykonalne rozwiązanie, aby poprawić bezpieczeństwo AI. Ludzie nie są w stanie właściwie monitorować systemów takich jak ChatGPT, które obsługują ponad miliard zapytań dziennie. Tylko inna AI może zarządzać tą skalą.
Porównanie jednego systemu AI z innymi systemami AI to nie tylko koncepcja science fiction – powszechną praktyką badawczą jest porównywanie i testowanie różnych poziomów inteligencji w systemach AI .
Dodawanie „modelu świata”
Duże modele językowe i uczenie maszynowe to tylko niewielka część dzisiejszego krajobrazu sztucznej inteligencji.
Kolejnym kluczowym dodatkiem, który zespół Bengio dodaje do Scientist AI, jest „ model świata ”, który zapewnia pewność i możliwość wyjaśnienia. Podobnie jak ludzie podejmują decyzje w oparciu o swoje zrozumienie świata, sztuczna inteligencja potrzebuje podobnego modelu, aby działać skutecznie.
Brak modelu świata w obecnych modelach sztucznej inteligencji jest oczywisty.
Dobrze znanym przykładem jest „ problem ręki ”: większość dzisiejszych modeli sztucznej inteligencji potrafi naśladować wygląd dłoni, ale nie potrafi odtworzyć naturalnych ruchów dłoni, ponieważ nie rozumieją fizyki — modelu świata — stojącej za nimi.
Innym przykładem są modele takie jak ChatGPT, które mają problemy z szachami – nie wygrywają, a nawet wykonują nielegalne ruchy .
Dzieje się tak, mimo że prostsze systemy sztucznej inteligencji zawierają model „świata” szachów i pokonują nawet najlepszych graczy .
Problemy te wynikają z braku podstawowego modelu świata w tych systemach, które z natury nie są zaprojektowane do modelowania dynamiki rzeczywistego świata .
Na dobrej drodze – ale będzie wyboiście
Bengio jest na dobrej drodze, dążąc do tworzenia bezpieczniejszej i bardziej godnej zaufania sztucznej inteligencji poprzez łączenie dużych modeli językowych z innymi technologiami sztucznej inteligencji.
Jednak jego podróż nie będzie łatwa. 30 milionów dolarów amerykańskich w finansowaniu LawZero to niewiele w porównaniu do takich wysiłków, jak projekt o wartości 500 miliardów dolarów amerykańskich ogłoszony przez prezydenta USA Donalda Trumpa na początku tego roku w celu przyspieszenia rozwoju AI.
Zadanie LawZero utrudnia fakt, że Scientist AI – podobnie jak każdy inny projekt AI – potrzebuje ogromnych ilości danych, aby działać wydajnie, a większość danych jest kontrolowana przez duże firmy technologiczne .
Jest też jedno nierozstrzygnięte pytanie. Nawet jeśli Bengio może zbudować system AI, który robi wszystko, co mówi, że potrafi, w jaki sposób będzie w stanie kontrolować inne systemy, które mogą wyrządzać szkody?
Mimo to ten projekt, z utalentowanymi badaczami za nim stojącymi, może zapoczątkować ruch w kierunku przyszłości, w której AI naprawdę pomaga ludziom się rozwijać. Jeśli się powiedzie, może ustanowić nowe oczekiwania co do bezpiecznej AI, motywując badaczy, programistów i decydentów do priorytetowego traktowania bezpieczeństwa.
Być może gdybyśmy podjęli podobne działania, gdy media społecznościowe pojawiły się po raz pierwszy, mielibyśmy bezpieczniejsze środowisko online dla zdrowia psychicznego młodych ludzi. A może, gdyby Scientist AI już istniało, mogłoby zapobiec osobom ze szkodliwymi intencjami uzyskiwania dostępu do niebezpiecznych informacji za pomocą systemów AI.
wykładowca, Wydział Informatyki, Uniwersytet w Sydney
Opublikowane na licencji CC za The Conversation