Sztuczna inteligencja – zwierzęca analogia

Już niemal każdego dnia niezliczone artykuły prasowe dotyczące sztucznej inteligencji pojawiają się na całym świecie i ostrzegają nas przed strasznymi konsekwencjami jej użycia, albo przewidują świetlaną przyszłość naszej cywilizacji. Wszystkie te naiwne przewidywania opierają się na sianiu strachu przed zmianami jakie sztuczna inteligencja może wprowadzić w naszych miejscach pracy. Tak naprawdę jednak nie rozumiemy, jak nasze interakcje ze sztuczną inteligencją powinna wyglądać.

Aby nauczyć się współpracować z urządzeniami zaopatrzonymi w sztuczną inteligencję powinniśmy postrzegać je podobnie jak postrzegamy zwierzęta. Tak przynajmniej sądzi profesor Maggie Boden z Cognitive Science at the University of Sussex – ekspert w sprawach sztucznej inteligencji.
Zwierzęca analogia może pomóc zwykłym ludziom zrozumieć wiele złożonych aspektów sztucznej inteligencji. Pomoże ona również zrozumieć jak najlepiej uczyć te systemy nowych umiejętności i, co najważniejsze, w jaki sposób można prawidłowo wyznaczyć jej ograniczenia.
Nauka o sztucznej inteligencja dąży do tego, aby komputery mogły robić rzeczy do tej pory zarezerwowane dla ludzkiego umysłu. Naukowcy zajmujący się badaniami nad sztuczną inteligencją staraja się znaleźć sposoby aby nauczyć komputery wnioskowania postrzegania, planowania i tworzenia powiązań. Sztuczna Inteligencja postrzega wzorce pojawiające się w dużych zbiorach danych, przewiduje prawdopodobieństwo zdarzenia, planuje trasy, zarządza harmonogramem spotkań a nawet gra w gry wojenne.
Wiele z tych możliwości nie jest niespodzianką, ale magia pojawia się gdy komputer zacznie łączyć te umiejętności w celu realizacji zadań.
Weźmy na przykład autonomiczne samochody, których początki sięgają roku 1980, kiedy prace nad autonomicznym pojazdem były prowadzone przez amerykańską Agencję ds. Zaawansowanych Projektów Badawczych w Dziedzinie Obronności. Na początku niewielu ludzi wierzyło, że komputer będzie potrafił prowadzić samochód. Jednak, jak się okazało już to potrafią.
Możliwości samochodów autonomicznych są stosunkowo łatwe do zrozumienia. Ale staramy się zrozumieć ich ograniczenia. Po kraksie samochodu Tesli w 2015 r., podczas której autopilot auta nie zdołał wyczuć przyczepy ciągnika przejeżdżającego przez pas ruchu, okazało się że klienci Tesli mają dość mgliste pojęcie jakie są ograniczenia tego typu samochodu.
Może zamiast mówić nabywcy samochodu, że ma do dyspozycji wersję beta autopilota, powiedzieć mu że właśnie nabył półautonomiczny pojazd o inteligencji robaka, który co prawda potrafi w miarę dobrze rozpoznać przeszkody i je omijać ale ma raczej słabą zdolność planowania i przewidywania, potencjalny nabywca zdałby sobie sprawę z ograniczeń swojego pojazdu i wiedziałby lepiej co może on zrobić bez interwencji człowieka a czego raczej robić nie powinien.
Specjaliści od sztucznej inteligencji często próbują wyjaśnić jej działanie poprzez opisywanie budowy. Weźmy na przykład uczenie wielowarstwowych sieci neuronowych. Sieci muszą przetwarzać ogromne ilości informacji. Jednak ze względu na ilość danych, złożoność połączeń i algorytmów w sieciach, często ludzie nie wiedzą, jak sieć się uczy. Systemy te mogą stać się bardzo skuteczne w jednym konkretnym zadaniu, ale tak naprawdę my ludzie ich nie rozumiemy.
Zamiast myśleć o sztucznej inteligencji jako o czymś nadludzkim lub obcym, łatwiej jest porównać je do zwierząt – inteligentnych stworzeń, z którymi się stykamy codziennie.
Na przykład, jeśli chcielibyśmy nauczyć psa siadania na komendę musielibyśmy go pochwalić i dać mu przysmaki, każdorazowo kiedy siada zgodnie z naszym życzeniem. Z biegiem czasu pies nauczyłby się wiązać komendę z zachowaniem i przyjemnością zjedzenia przysmaku lub otrzymania pochwały.
Szkolenie systemu sztucznej inteligencji może być (i jest) bardzo podobne do treningu zwierząt. Na przykład, w czasie uczenia ze wzmocnieniem, sieć neuronowa przetwarza dane wejściowe i uzyskuje wynik mniej lub bardziej zbliżony do założonego celu. Jeśli uzyskany wynik nie odbiega mocno od celu, wzmocnieniu ulegają połączenia między neuronami, które wskazują poprawne wartości. Mamy tu do czynienia z typowym dodatnim sprzężeniem zwrotnym, gdzie osiągnięty wynik wzmacnia sygnały wejściowe, gdy zbliża się do pożądanych wielkości.
Posługiwanie się zwierzęcą analogią ułatwia tłumaczenie postronnym osobom czego mogą naprawdę oczekiwać od swoich urządzeń. I tak na przykład możemy nauczyć psa siadać, aportować czy dawać głos, ale raczej nie będziemy wymagać by rozumiał przy tym pojęcia takie jak miłość, dobro czy zło. Analogicznie nie możemy oczekiwać od naszego samochodu, że będzie rozwiązywał złozone problemy moralne, które mogą powstać w trakcie jazdy.

Udostępnij
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Dodaj komentarz