Czy da się udowodnić, że człowiek nie jest maszyną?

FacebookTwitterGoogle+Podziel się

Dynamiczny rozwój technologii informatycznych, codziennie dalej przesuwa obszar, tego co dotąd wydawało się niemożliwe. Jednym z takich obszarów jest rozwój sztucznej inteligencji, budowy maszyn, robotów, komputerów, w których w ciągu ostatnich stu lat, dokonuje się ogromny postęp. Jest to również jedna z dziedzin nauki, techniki, która jest najszczodrzej sponsorowana przez wszystkie największe światowe koncerny technologiczne, co sprawia, że należy się spodziewać wielu ciekawych wynalazków. Oczekiwania wobec rozwoju maszyn są jednak niemałe i nie wiadomo czy wynalazcy rzeczywiście są w stanie je zaspokoić.

Kultura popularna, zwłaszcza powieści i filmy, rozbudziły w nas nie tylko oczekiwania ale i obawy, dotyczące zwłaszcza inteligencji, sprawności intelektualnej maszyn, która jeśli przewyższy inteligencję ludzką, w wyobraźni twórców kultury, może doprowadzić do dominacji nad ludzkim gatunkiem, czy wręcz go unicestwić. Dziś to jeden z ważniejszych sporów wśród biznesmenów i naukowców związanych z branżą nowych technologii, o to, dokąd wiedzie nas postęp w tej dziedzinie.

Ponieważ znaczenie sztucznej inteligencji rozmaitych robotów, botów rośnie stale i coraz częściej wszyscy mamy z nim do czynienia, świadomie bądź nie, korzystając z ich pracy codziennie, może nasuwać się pytanie czy i w jaki sposób jesteśmy w stanie odróżniać sposób działania ludzkiego organizmu i organizmu sztucznego? Czy istnieją niezawodne sposoby rozpoznania, czy komunikujemy się z robotem?

Wyścig pomiędzy naukowcami, aby stworzyć maszynę będącą bardziej „ludzką” trwa, w tym kontekście ciekawie kształtuje się też dyskusja nad tym, co właściwie definiuje bycie człowiekiem, w sensie poznawczym, etycznym i sposobie działania. Im dłużej czytam rozmaite artykuły i książki na temat artificial intelligence, oraz różnic w sposobie działania „umysłu” maszyn i ludzi, dochodzę do wniosku, że znalezienie odpowiedzi na pytanie o to, jak odróżnić maszynę od człowieka, stawia przed nami przede wszystkim potrzebę na nowo zdefiniowania czym, kim jest właściwie człowiek? Widzę potrzebę, w świetle najnowszych odkryć, jeszcze raz, na nowo, w nowej perspektywie, spróbować  odpowiedzieć na pytanie, czym wyróżnia gatunek ludzki spośród innych istot? Czy myślenie jest rzeczywiście cechą różnicującą? Przyjrzyjmy się temu.

Najbardziej znanym sposobem, którym próbuje się to zrobić jest test Turinga. Nazwa testu, wykonywanego w trakcie konkursu Nagrody Loebnera, nie tyle określa czy mamy do czynienia z maszyną, co próbuje wykryć inteligencję sztuczną i ludzką. Test przeprowadzany zgodnie z założeniami Alana Turinga, wybitnego brytyjskiego matematyka, sprowadza się moim zdaniem, raczej do zidentyfikowania stopnia opanowania przez maszynę języka naturalnego[i] niż tego czy jest maszyną. Na tyle naturalnego, że jest w stanie „oszukać” imitując mowę ludzkiej istoty. W 2011 roku program CleverBot, stworzony przez Rollo Carpentera w 1988 roku i od tego czasu rozwijany, oszukał ponad 59,3% rozmówców, myślących, że jest on człowiekiem. Do zaliczenia testu Turinga zabrakło 4%, gdyż człowieka na tych samych zawodach rozpoznało prawidłowo 63,3% osób[ii]. Pozostaje więc kwestią czasu, kiedy pojawi się maszyna, której twórca potrafi „nauczyć” ją zasobów, pozwalających prowadzić konwersację w sposób, który jest specyficznie ludzki. W 2014 obwieszczono, na innym konkursie, że maszyna zdała Test Turinga, ale nie spełniał on kryteriów tego testu, więc nie można uznać na razie, że Test Turinga został już przez maszyny zdany. Wygląda na to, że jest to już tylko kwestia czasu, jednak dziś jeszcze, jako ludzkość nie mamy tego etapu za sobą.

Jeśli dokładnie przyjrzeć się definicji inteligencji i maszyny, to nie ma możliwości wykluczenia że jesteśmy maszynami, które są w ten czy inny sposób zaprogramowane. Zresztą, to jedna z silnie reprezentowanych koncepcji ludzkiego umysłu, pamięci w psychologii poznawczej, wyjaśnianie działanie, zwłaszcza pamięci poprzez analogie do komputera. Wracam więc do tezy, że tak naprawdę pytanie sprowadza się do tego, co nas wyróżnia jak gatunek ludzki. To co konstytuuje maszyny można uznać za różnicę dziś tylko w sensie biologicznym. W sensie psychologicznym, kogniwistycznym nie możemy tego wykazać. Ciekawie uświadomiło mi to moje małe badanie, czyli zadanie pytania na portalu Quora  [iii].

To co przypisuje się testom organizowanym w ramach Nagrody Loebnera jest wyznaczenie tego co ludzkie i maszynowe. Takim determinującym czynnikiem częściej uznawane są:  samoświadomość, poczucie własnej tożsamości i odrębności, niż biegła umiejętność posługiwania się językiem naturalnym. Samoświadomość istnieje wtedy, kiedy podmiot postrzegający posiada techniczną zdolność do postrzegania i wyróżniania samego siebie, swych części lub elementów, lub też ewentualnie skutków swego działania. Ponadto musi być wyposażony w umiejętności językowe na tyle rozwinięte, aby mógł dokonywać dalszych uogólnień i nadawać znaczenia semantyczne innym elementom postrzeganym – tym akurat konkurs Nagrody Loebnera rzeczywiście się zajmuje – Kiedy jesteśmy w stanie nazwać samego siebie i wyodrębnić od innych postrzeganych przedmiotów i zjawisk, możemy uznać to za samoświadomość[iv]. Czy samoświadomość jest wyższą formą świadomości jako takiej, nie jestem w stanie rozstrzygnąć. Obecnie uznaje się, że maszyny nie są świadome same siebie, nie znają kategorii przemijania oraz własnej odrębności. Ale prosty eksperyment na masowo produkowanych robotach NAO pokazał, że robot może mieć jednak poczucie tożsamości. Zapis eksperymentu dostępny jest na Youtube[v].

Od człowieka, jako istoty inteligentnej, oczekujemy zdolności tworzenia nowych kategorii a wcześniej jeszcze tworzenia uogólnień, abstrahowania nowych właściwości i kreacji nowych kryteriów selekcji. Cechą ludzkich istot jest ciekawość i odkrywanie nowego. Może więc to jest wyróżnik, którym można sprawdzić, przetestować syntetyczność bądź „człowieczą” naturę.

Czym jest więc owa ciekawość? Ciekawość to poszukiwanie nowej, alternatywnej drogi, lepszego rozwiązania problemu, zagadnienia. Wewnętrzny napęd poznawania, nabywania nowych informacji, który sprawia, że chcemy sprawdzać co znajduje się gdzieś dalej, za rogiem, za górą, przeszkodą. Istotą funkcjonowania ciekawości jest intencjonalne działanie umysłu poszukującego nowych wrażeń, zmysłowych lub wewnętrznych, w celu powiększenia puli doświadczenia, zasobów informacji. Umysł człowieka aktywnie poszukuje nowych informacji, nakładając je na dotychczas zagregowane, nabyte i wrodzone. Jak się wydaje, na dzień dzisiejszy nie potrafią tego maszyny. Ich „ciekawość” jest z góry zdefiniowany przez programistów. System dokonuje kwalifikacji lub selekcji, to tylko w ramach z góry zaprogramowanych kategorii. Jednak ostatnie doniesienia nad zachowaniem sztucznej inteligencji, nad którą pracują naukowcy Google, stawia pod znakiem zapytania tę tezę, bowiem w sposób dotychczas nie poznany, Google AI wynalazł własną, niezdefiniowaną wcześniej drogę dokonywania tłumaczeń, którą można nazwać „nowym językiem”[vi]. Patrząc również na ogrom zasobów operacyjnych jakimi dysponują, będą dysponować maszyny, uruchomienie procesu randomizacji, może wygenerować tak wiele ciekawych, nowych, nieodkrytych dotychczas elementów wiedzy, że ludzkie dokonania mogą wkrótce okazywać się przy tym bladymi. Czas, w którym maszyny są bardziej inteligentne od nas, posiadając dużo większe możliwości, zbliża się więc chyba nieuchronnie.

Kolejną cechą, którą przypisuje się ludziom, a której nie posiadają maszyny to kreatywność, która związana jest z wolnością procesów, które jak wcześniej wspomniałem zdefiniowane są przez twórców. Jednak to, co potrafią obecnie komputery, kiedy posługują się generatorami losowymi dla wzbudzenia procesów niezdeterminowanych, algorytmem zadanym przez programistę skłania do ostrożnego stawiania takiej hipotezy. Sieci neuronowe coraz lepiej radzą sobie z takimi procesami, tworząc chaotycznie zachowania losowe i adaptując się w procesie samouczenia poprzez rozwój ewolucyjny nowych struktur, logicznego przetwarzania informacji. To te same właściwości które posiadają mózgi zwierząt i najbardziej złożony mózg jaki znamy, mózg człowieka. Uruchomiony również proces randomizacji, może również znacznie skuteczniej uruchamiać nowe rozwiązania niż ludzka kreatywność.

Okazuje się więc, że zaskakująco dużo cech nie jest już specyficznie ludzkimi. Na gruncie psychologii poznawczej, jedynym wyróżniającym elementem różnicującym umysł maszyn a ludzi, który został opisany kilka lat temu przez Van Dijka[vii] jest możliwość odwołania się do doświadczenia, wiedzy społecznej, wspólnej. Jedynie korzystanie z pamięci społecznej, konwencji społecznej i proces uczenia się w interakcjach społecznych, rzeczywiście mocno odróżnia dziś maszyny od ludzi. Maszyny dziś nie potrafią korzystać z tych zasobów oraz dokonywać procesów poznawczych w formie interakcji społecznych.

Najnowsze prace Chrisa Eliasmitha[viii] i budowa sztucznego prototypu ludzkiego mózgu, który wykazuje w testach Ravena wyniki bliskie przeciętnej uczniom szkoły średniej, pozwalają zakładać, że wkrótce maszyny będą w stanie uczyć się również wiedzy, którą mamy jako społeczeństwo, tyle że znacznie szybciej, ale podobnie jak robi to dziecko. Zachęcam zresztą do zapoznania się z jego pracą i ciekawym zapisem filmowym.  Zwłaszcza polecam wykład RCSI

Od kilku dni wielką popularnością cieszy się film na Youtube , w którym robot-ramię pisze na klawiaturze, oszukując zabezpieczenie Capatcha, które różnicuje roboty od ludzi. Trudno powiedzieć, czy to eksperyment rzeczywisty. Brak danych czy ramię nie było po prostu sterowane przez operatora, ale nie można wykluczyć, że jeśli to się nie stało faktem, to się stanie już niebawem. Umiejętność rozróżniania nieco abstrakcyjnych napisów, może być do opanowania przez roboty, wyposażone w odpowiedniej wielkości zasoby obliczeniowe. Żyjemy więc w bardzo ciekawych czasach. A pesymiści twierdzą, że AI to nasz „ostateczny” wynalazek jako ludzkości, w całej gamie wieloznaczności tego określenia.

[i] Stanford Encyclopedia of Philosophy https://plato.stanford.edu/entries/turing-test/  2003, poprawione 2016

[ii] https://www.newscientist.com/article/dn20865-software-tricks-people-into-thinking-it-is-human/?DCMP=OTC-rss&nsref=online-news

[iii] https://www.quora.com/How-can-I-be-sure-that-I-am-not-a-machine-How-do-we-know-that-we-are-human-beings-and-not-artificial-intelligence

[iv] Kozielecki J. Psychologiczna teoria samowiedzy 1981 r.

[v] https://www.youtube.com/watch?v=MceJYhVD_xY

[vi] https://www.newscientist.com/article/2114748-google-translate-ai-invents-its-own-language-to-translate-with/ 16.11.2016

[vii] Van Dijk K. R., Hedden T., Venkataraman A., Evans K. C., Lazar S. W., and Buckner R. L.. 2010.Intrinsic functional connectivity as a tool for human connectomics: theory, properties, and optimization. J. Neurophysiol. 103:297–321.

[viii] Eliasmith, Chris „How to Build a Brain: A Neural Architecture for Biological Cognition” (Oxford Series on Cognitive Models and Architectures) 2013

 

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *