icon-search

Czego wciąż nie nauczysz robota – czyli kilka słów o sztucznej inteligencji.

Jędrek Fulara 29.07.2018

Pokonanie 4:1 wielkiego mistrza Lee Sedola przez sztuczną inteligencję AlphaGo w rozegranym w 2016 roku turnieju gry “Go”poruszyło wszystkich fanów tej starochińskiej, strategicznej gry. Go jest bowiem grą w bardzo małym stopniu obliczeniową, grą w której liczy się intuicja i doświadczenie. Jak zaś przyznawali obserwatorzy starcia człowieka z maszyną, w ruchach AlphaGo dało się dostrzec te cechy.  Pod koniec czerwca tego roku sztuczna inteligencja osiągnęła kolejny sukces. Wygrała z ludźmi w grze DOTA 2, pod wieloma względami daleko trudniejszej od szachów czy Go. Graczom DOTA znany jest jedynie obserwowany wycinek planszy gry, planować w przód trzeba na dziesiątki tysięcy ruchów, podczas gdy w Go wystarczy planowanie na około 150 ruchów. Martwiący się nadchodzącą erą sztucznej inteligencji mogą więc zacząć się poważnie pytać – czy jest jakaś dziedzina aktywności umysłowej, w której co do zasady maszyna nie będzie od człowieka lepsza?

Reguły mechanizacji muzyki

Na pierwszy rzut oka wydaje się, że bardzo łatwo wskazać takie przykłady. Weźmy choćby komponowanie muzyki – jak coś tak ludzkiego, emocjonalnego i zakorzenionego w kulturze mogłoby zostać przejęte przez maszyny? W 2017 roku startup Aiva Technologies pokazał sztuczną inteligencję komponującą utwory muzyki klasycznej. Z całkiem niezłym efektem. Jej pierwszy album pt. Genesis sprawił, że AI uzyskała status kompozytora i została zarejestrowana we francuskim stowarzyszeniu praw autorskich SACEM. Tworzone przez Aivę utwory są obecnie wykorzystywane w filmach, reklamach i grach.

Muzyka klasyczna jest jednak dość rygorystyczną dziedziną. Głęboka sieć neuronowa, szkoląc się na bazie klasycznych utworów najsłynniejszych kompozytorów, nauczyła się podążać za tymi regułami, by w końcu stworzyć swoje własne modele muzyki. W pewnym sensie przeszła muzyczny test Turinga, zawodowi muzycy słuchając utworów Aivy nie byli w stanie odróżnić ich od kompozycji popełnionych przez człowieka. Czy jednak Aiva jest w stanie zrobić jakąkolwiek inną muzykę, np. wprowadzić do swojego utworu synkopę (zaburzenie rytmu)? Nic takiego w muzyce klasycznej, na której Aiva się uczyła nie występowało – odpowiedź więc brzmi nie. Jazzu, ani żadnej innej muzyki naruszającej reguły, sztuczna inteligencja nie zagra, jakby się nie starała.

Wciąż ten sam schemat

Czy grając w Go, AlphaGo łamało jakieś reguły? Podobnie jak w wypadku Aivy, ta sztuczna inteligencja stosowała technikę głębokiego uczenia. Naśladująca organiczną sieć neuronową kombinacja sprzętu i oprogramowania uczyła się reguł gry tak samo, jak mogłaby się uczyć rozpoznawania kotów na fotografiach – analizując biblioteki setek tysięcy rozegranych gier Go, nauczyła się grać. Wiedziała już, co jest ruchem (wyłożenie kamienia), co jest celem gry (zdobycie jak największego terytorium na planszy) i jakie są możliwe konsekwencje danego ruchu.

Tak „wykształconą” AI skopiowano w tysiącach nieco odmiennych wariantów i kazano im grać przeciwko sobie samym. W trakcie gry system śledził, które ruchy przynosiły pozyskanie największego obszaru planszy. Stopniowo w ten sposób odkrywał nowe strategie. Rozgrywając miliony gier przeciwko swoim wzajemnie uczącym się ze swoim doświadczeń wariantom, stawał się coraz lepszy. Na tym jednak szkolenia nie zakończono – ruchy z gier rozgrywanych między wariantami AI trafiły do kolejnej sieci neuronowej, mającej wyszukiwać potencjalne wyniki każdego ruchu. Nauczyło to AlphaGo szacowania prawdopodobieństwa, z jakim dany ruch przynieść może zwycięstwo. Uzbrojona w taką maszynową intuicję sztuczna inteligencja pokonała człowieka nie brutalną siłą mocy obliczeniowej, ale doświadczeniem. Słynny ruch 37, który przesądził o ludzkiej porażce, był kompletnie nieprawdopodobny, wychodzący poza całą ludzką tradycję gry. Był czymś, co AlphaGo odkryło samodzielnie, poprzez własną introspekcję. Ale wciąż był to ruch całkowicie zgodny z zasadami gry.

To dla nas wskazówka w poszukiwaniu ograniczeń maszynowej inteligencji. Po dziesięcioleciach frustracji zachwyciliśmy się nagłym przełomem, które przyniosło powszechne zastosowanie technik głębokiego uczenia. Wyszukiwanie twarzy wśród milionów zdjęć, rozpoznawanie mowy, prowadzenie auta w ruchu ulicznym, wygrywanie z ludźmi w Go – to wszystko przyciąga zainteresowanie i pieniądze. Wszystko jedno i to samo, jakkolwiek by tego nie nazwać, mamy zawsze do czynienia z rozpoznawaniem wzorców.

Głębokie uczenie się nie skaluje?

Aby zrozumieć, dlaczego współczesne sztuczne inteligencje tak dobrze sobie radzą z rozpoznawaniem wzorców według wyuczonych reguł, trzeba wpierw zrozumieć, co one właściwie robią. Te sieci neuronowe pomiędzy wejściem a wyjściem mają wiele ukrytych warstw połączonych ze sobą neuronów, na podobieństwo kory mózgowej. Podczas nadzorowanego uczenia takiej sieci wykorzystywany jest zwykle algorytm wstecznej propagacji, modyfikujący wagi połączeń między węzłami, tak by dane z wejścia prowadziły do oczekiwanych danych na wyjściu. Dzięki temu po wielu tysiącach, a nawet milionach prób z oznaczoną i sklasyfikowaną bazą informacji, sieć neuronowa zaczyna być w stanie klasyfikować poprawnie nowe informacje. Tworzy po prostu sobie klasy abstrakcji wcześniej napotkanych rzeczy, a gdy napotka je ponownie, rozpoznaje je z bardzo dużym prawdopodobieństwem.

Jednak na tym to wszystko się kończy. Takie sieci neuronowe nie zrobią niczego więcej poza rozpoznawaniem wzorców i reagowaniem na nie. Nawet gdybyśmy dodali im setki nowych warstw, nawet gdyby dostały tysiące razy większe biblioteki danych do nauki, wciąż nie będą w stanie robić niczego, co wychodzi poza to co robiły – wnioskowania i przewidywania za pomocą indukcji. Po prostu zrobią to z większą dokładnością.

Tymczasem zdecydowana większość problemów stojących przed sztuczną inteligencją wcale nie jest związana z klasyfikacją wzorców – i obecne sukcesy sztucznej inteligencji wcale nas do rozwiązania tych problemów nie przybliżyły. Wielu zajmujących się problematyką AI naukowców uważa, że niebawem znów uderzymy głową w mur, dojdziemy do kolejnej bariery, której sieci neuronowe przeskoczyć nie będą mogły. Tą barierą jest właśnie działanie poza regułami, działanie intuicyjne.

Widać to było w jednym momencie gry AlphaGo z Lee Sedolem. Porażka sztucznej inteligencji w ostatniej z gier wynikała z wykonania przez człowieka zupełnie niespodziewanego ruchu, którego nie było w bibliotece rozgrywek. Algorytm nadzorujący czas poświęcany na analizę stanu planszy nie był w stanie dostrzec wagi tego posunięcia i przypisał mu tyle samo czasu co innym posunięciom ludzkiego gracza. W konsekwencji AlphaGo odpowiedziało słabo, a swój błąd zauważyło dopiero wiele ruchów później, gdy już pozycja była nie do obrony, uprzednio popełniony błąd był nie do naprawienia.

AI brakuje logiki

Być może problem tkwi w tym, że nasze ludzkie, intuicyjne mechanizmy umysłowe są zaskakująco… logiczne. I to jest jedna z największych zagadek funkcjonowania ludzkiego umysłu. Oprócz odruchowego wręcz rozpoznawania wzorców, sieci neuronowe naszego mózgu robią rzeczy, które dla sztucznej sieci neuronowej wydają się niemożliwe. Potrafimy myśleć matematycznie, formalnie – choćby przeprowadzić w głowie operację mnożenia dwóch liczb przez siebie. Żadne zwierzę tego nie potrafi, nikogo nie dziwi, że szympans nie jest w stanie opanować tabliczki mnożenia. Nas samych jednak musi dziwić, skąd taką zdolnością do logicznego myślenia dysponujemy. Czy praczłowiek homo erectus potrafił pomnożyć przez siebie dwie liczby, czy też zdolność do takich operacji matematycznych i logicznych była czymś wtórnym, co pojawiło się np. wskutek rozwoju języka?

Jak do tej pory nie potrafimy wykazać, że myślenie logiczne może zostać przeprowadzone przez bazującą na sieciach neuronowych maszynę. Z drugiej jednak strony trudno uwierzyć, że ludzie są jedynym gatunkiem, który w ciągu swojej krótkiej ewolucji wytworzył specjalne struktury mózgowe, pozwalające myśleć logicznie. Bardziej realne jest to, że w naszych głowach mamy lepsze algorytmy uczenia niż to, co obecnie stosujemy nawet w takich maszynach jak AlphaGo, pozwalające łatwo przeskakiwać lukę między intuicją a logiką. Jak jednak one mogłyby działać – tego do tej pory nie wiemy.

Komentarze: 0

Notice: Korzystanie z Motyw nieposiadający comments.php uznawane jest za przestarzałe od wersji 3.0.0! Nie istnieje żadna alternatywa. Proszę zawrzeć w motywie szablon comments.php. in /var/www/html/pl/wp-includes/functions.php on line 4597

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *