Wolni z wolnymi, równi z równymi i zacni z zacnymi.

Rex regnat et non gubernat

  • Thomas Jefferson

    Kiedy obywatele obawiają się swojego rządu, jest to tyrania. Gdy to rząd obawia się obywateli, mamy do czynienia z wolnością.
  • Margaret Thatcher

    Unia Europejska jest skazana na niepowodzenie, gdyż jest czymś szalonym, utopijnym projektem, pomnikiem pychy lewicowych intelektualistów.
  • Włodzimierz Lenin

    Socjalizm to nic innego jak państwowy monopol kapitalistyczny stworzony dla korzyści wszystkich ludzi.
  • Ralph Waldo Emmerson

    Religia jednego wieku staje się literacką rozrywką następnych.
  • Soren Kierkegaard

    Są dwa sposoby w jakie człowiek może dać się ogłupić. Pierwszy to uwierzyć w rzeczy nieprawdziwe. Drugi, to nie wierzyć w prawdziwe.
  • Ayn Rand

    Jako że nie istnieje taki byt, jak “społeczeństwo”, ponieważ społeczeństwo to pewna liczba indywidualnych jednostek, zatem idea, że “społeczny interes” jest ważniejszy od interesu jednostek, oznacza jedno: że interes i prawa niektórych jednostek zyskuje przewagę nad interesem i prawami pozostałych.
  • Terence McKenna

    Skoro już w XIX wieku zgodziliśmy się przyznać, że człowiek pochodzi od małpy, najwyższy czas pogodzić się z faktem, że były to naćpane małpy.
  • Aleister Crowley

    Czyn wole swą, niechaj będzie całym Prawem.

    Nie masz żadnego prawa prócz czynienia twej woli. Czyn ja i nikt inny nie powie nie.

    Każdy mężczyzna i każda kobieta jest gwiazdą.

    Nie ma boga prócz człowieka.

    Człowiek ma prawo żyć wedle swych własnych praw
    żyć tak jak tego chce
    pracować tak jak chce
    bawić się tak jak chce
    odpoczywać tak jak chce
    umrzeć kiedy i jak chce

    Człowiek ma prawo jeść to co chce: pić to co chce: mieszkać tam gdzie chce: podróżować po powierzchni Ziemi tam gdzie tylko chce.

    Człowiek ma prawo myśleć co chce
    mówić co chce: pisać co chce: rysować, malować, rzeźbić, ryć, odlewać, budować co chce: ubierać się jak chce

    Człowiek ma prawo kochać jak chce

    Człowiek ma prawo zabijać tych, którzy uniemożliwiają mu korzystanie z tych praw

    niewolnicy będą służyć

    Miłość jest prawem, miłość podług woli.
  • Anarchizm metodologiczny

    Anarchizm metodologiczny - jest programem (a właciwie antyprogramem), zgodnie z którym należy z wielką ostrożnością podchodzić do każdej dyrektywy metodologicznej, (w tym do samego anarchizmu) bowiem zaistnieć może sytuacja, w której lepiej jest z anarchizmu zrezygnować (aby nie hamować rozwoju wiedzy) niż go utrzymywać.
    Paul Feyerabend
  • Strony

Archive for the ‘biologia’ Category

Co z tą wolną wolą?

Posted by psychoneurocybernauta w dniu 14 marca 2014

Wstęp

Thomas Jefferson napisał kiedyś: „Wolność to prawo wyboru, prawo do otwierania przed sobą alternatywnych dróg. Bez możliwości wyboru, bez szansy na stworzenie czegoś, człowiek przestaje być człowiekiem, staje się tylko elementem jakiejś zbiorowości, instrumentem, rzeczą” (cyt. za Shermer 2009, str. 359). Zagadnienie istnienia wolnej woli nie jest jedynie dywagacją czysto akademicką, a istotnym pytaniem, które dotyka niemal wszystkich sfer naszego życia: moralności, prawa, polityki, religii czy związków intymnych (Harris 2012). Jeżeli czyny, do których żywimy obawy, iż nie jesteśmy ich autorami zaliczają się dodatkowo do sfery moralności, to pojawia się wiele wątpliwości z pojęciami tradycyjnie powiązanymi z kwestiami moralnymi, takimi jak: odpowiedzialność, wyrzuty sumienia, kara, zasługa, nagana. Ich cechą wspólną jest to, że pojawiały się jako element dyskusji w myśli etycznej już w klasycznej Grecji, a temat zaczął być szczególnie eksplorowany od czasów Hume’a i Kanta. Często kwesta ta będąca (ponieważ debata ciągle trwa) przedmiotem sporu jest nazywana problemem wolnej woli i determinizmu [ 1 ], etycznych implikacji determinizmu, determinizmu i odpowiedzialności moralnej czy też, po prostu, zagadnieniem istnienia wolnej woli (Weiss 2010). Patrząc na dorobek współczesnej biologii ewolucyjnej, genetyki behawioralnej, psychologii i neuronauki wydaje się, że można już pokusić się o odpowiedź, czy rzeczywiście posiadamy wolną wolę.

Jeśli chodzi o fizykę, to już od czasów Newtona i Laplace’a opiera się ona na determinizmie. Oznacza to, że przeszłość i przyszłość oraz nasze działania są w równym stopniu zdeterminowane. Od razu przychodzi na myśl zasada nieoznaczalności Heisenberga i fizyka kwantowa, jednak uważa się, że proces pomiaru w fizyce kwantowej jest wyjątkiem od wyżej wymienionej reguły, a coraz więcej naukowców sądzi, że nie jest on zasadniczy dla kwestii rozpatrywanego w makroskali determinizmu (Carroll 2011).

Współcześnie temat istnienia (bądź nie istnienia) wolnej woli wydaje się być gorący (związane jest to prawdopodobnie z impetem rozwoju neuronauki, który zastymulowało wynalezienie i upowszechnienie różnych technologii badania żyjącego mózgu). Budzi także wiele polemik, szczególnie ze strony osób nie zajmujących się nauką, którzy nie chcą widzieć siebie jako marionetek w deterministycznym teatrze (Jerry Coyne, Sam Harris niepublikowane materiały). Wiele publikacji naukowych i popularnych zajmuje się aktualnie eksploracją tych kwestii (Wegner 2002, Weiss 2010, Smith 2011, Harris 2011, Rigoni i inni 2011, Coyne 2012, Harris 2012).

Skąd całe zamieszanie?

W trakcie naszej edukacji na poziomie szkolnym często spotykamy się z koncepcjami filozoficznymi ludzkiej natury takimi jak: tabula rasa Johna Locka, szlachetny dzikus Jeana-Jacquesa Rousseau, czy chociażby z dualizmem Kartezjańskim. Jednak nauczyciele niestety nie tłumaczą uczniom, że owe koncepcje choć niezmiernie ważne historycznie i bardzo wpływowe w swoich czasach, napędzające liczne debaty i polemiki oraz pokazujące ewolucję poglądów ludzi na owe tematy, są dziś najzwyczajniej przestarzałe i nieaktualne (Pinker 2005). Szczególnie przypisywane Kartezjuszowi wywody, mówiące o duchu zamieszkującym maszynę, są wyjątkowo żywotne i traktowane jako prawdziwe. Wydaje się jednak, że taka metafora może przynieść naszemu zrozumieniu zagadnień świadomości i wolnej woli więcej szkody niż pożytku (Blackmore 2002). Myśl Kartezjusza powstała częściowo jako odpowiedź na tezy Hobbesa, który upatrywał możliwość wyjaśnienia życia i umysłu w kategoriach mechaniki. Pogląd, że ludzki umysł może funkcjonować według zasad fizyki został odrzucony przez Kartezjusza. Według niego zachowania człowieka nie mają żadnej przyczyny, są natomiast kwestią wolnego wyboru, wolnej woli, co wynika z przekonania, że umysł jest innym rodzajem bytu niż ciało (i tak też zwykle się nam wydaje). Sądził, że różnica pomiędzy nimi wynika z tego, że o ile możemy wątpić w istnienie naszych ciał, ponieważ możemy się wyobrazić w postaci niematerialnych duchów, o tyle nie możemy powątpiewać w istnienie naszych umysłów, ponieważ sam akt myślenia dowodzi istnienia umysłu. Dennett (1991) uważa, że choć znakomita większość badaczy i teoretyków odrzuca dziś dualizm kartezjański, to w skrytości ducha wierzą oni w istnienie tzw. teatru kartezjańskiego. Miejsca gdzie „wszystko się zbiega”, tworząc świadomość, a nasze obrazy rzucane są na ekran, gdzie „ja” podejmuje niezależnie decyzje i inicjuje działania. Odrzucają oni dualizm w teorii, ale nie w praktyce, co jest błędem, ponieważ gdyby miał istnieć ekran, na który trafiałyby dane zmysłowe to musiałoby istnieć maleńkie „ja” (może swoisty, podejmujący wszelkie decyzje Homunkulus) z maleńkimi oczami i kolejnym ekranem, a potem następny i kolejny… itd. Większość ludzi wierzy, więc w odrębność ciała i umysłu (nazywanego też duszą czy duchem), a nawet ci, którzy nie zgadzają się z tym przekonaniem zachowują się tak, jakby było prawdziwe (Gazzaniga 2011). Może w świadomy intelektualny sposób część z nas potrafi zrozumieć, że jesteśmy jedynie skupiskiem atomów i reakcji chemicznych, ale na co dzień i tak zapominamy o tym. Niektórzy badacze sądzą iż bierze się to z tego, że ludzie przychodzą na świat z przekonaniem, że każda rzecz ma swoją esencję [ 2 ]. Cechę tą przejawiają już 9 miesięczne niemowlęta. Kiedy pokazuje im się pudełko, które wydaje dźwięk, gdy dotknie się go w określonym miejscu to spodziewają się, że każde inne pudełko będzie reagować tak samo, a nawet jeśli pokaże im się pudełka nieco inne od pierwszego będą dalej żywiły to przekonanie. Autor książki Descartes’ Baby, Paul Bloom (Bloom 2004), przekonuje, że dzieci są od urodzenia dualistami. Według niego w każdej z kultur ludzkich mamy do czynienia z jakąś formą esencjonalizmu i może on być adaptacyjnym sposobem myślenia o świecie.

Mając nieodparte przekonanie o istnieniu niezmiennego i odrębnego „ja” zdziwienie nadchodzi, kiedy okazuje się, że za pomocą skalpela można zmienić porządnego obywatela, skromnego i sumiennego w aroganta i wulgarnego hulakę, a wziętego architekta w kogoś kto nie może narysować nawet trójkąta (Rotkiewicz i Brzezicka 2010). Ciekawym przypadkiem ingerencji fizycznej w strukturę mózgu (przez nieszczęśliwy przypadek) i tego konsekwencji jest historiaPhineas’a Gage’a wnikliwie opisany przez Damasio w książce Błąd Kartezjusza (Damasio 2002). Autor ten opisuje liczne przypadki, z którymi miał do czynienia w trakcie swojej praktyki, wiele związanych z uszkodzeniami mózgu (w przypadku Gage’a metalowy pręt przeszył płaty czołowe), przez nowotwory tego narządu, które powodowały zmiany charakteru, temperamentu, czy nastawienia do życia badanych. Zatem gdzie tu odrębny od ciała umysł, tylko je zasiedlający, a nie będący jego wytworem?

Co z tą wolną wolą?

Debata na temat wolnej woli jest od dawna prowadzona przez filozofów. W obrębie ich dziedziny jednak definicje wolnej woli często się różnią (Weiss 2010). Jedną z najczęściej używanych definicji wolnej woli podaje Broad (1952), stwierdzając: „Przypuśćmy, że dany człowiek w danej chwili świadomie wybrał alternatywę X i odrzucił alternatywę Y. Czy ten sam człowiek mógł wybrać Y, a odrzucić X nawet wtedy, gdyby wszystko w jego własnej przeszłości i ówczesnych dyspozycjach całej reszty świata było dokładnie takie samo, jak w chwili w której swego wyboru dokonywał?” (cyt. za Weiss 2010, str. 43). Jeśli mógł wybrać inaczej, to autor tego eksperymentu myślowego odrzuciłby determinizm. Słownik PWN [ 3 ] definiuje wolną wolę jako „możność wyboru sposobu postępowania bez względu na okoliczności czy trudności”. Wikipedia [ 4 ] zaś jako „hipotetyczną cechę świadomości, z powodu której miałoby się wybór przy podejmowaniu działania”. Jeśli chodzi o „bez względu na okoliczności” z PWNowskiej definicji, na myśl przychodzą od razu klasyczne doświadczenia psychologii społecznej: Ascha (1955) nad konformizmem (podporządkowywaniem się jednostki woli grupy) czy Milgrama (1963) nad posłuszeństwem wobec autorytetu oraz ich liczne powtórzenia w różnych krajach na przestrzeni lat od chwili, kiedy zostały wykonane pierwszy raz, dające wciąż podobne rezultaty (Zimbardo 2008). Autorzy ci zgodnie stwierdzają, że kluczowym elementem wpływającym na irracjonalne i niekiedy przerażające decyzje osób biorących udział w opisanych doświadczeniach, były specyficzne czynniki sytuacyjne i presja społeczna. Jak widać okoliczności wpływają na wybór sposobu postępowania.

Ostatnio aktywnie do dyskusji zaczęli się włączać neuronaukowcy, zajmujący się badaniem żywego mózgu za pomocą najnowszych technologii i wydają się zbierać dowody potwierdzające, że wolna wola jest jedynie iluzją (Smith 2011). Klasyczne i kontrowersyjne doświadczenie Libeta (oraz eksperymenty jego następców) sugerują, że nieświadome procesy w mózgu są prawdziwymi inicjatorami naszych czynów, a wolna wola nie gra żadnej roli w ich inicjacji. Jest jedynie marionetką prowadzoną przez podświadomość i sama nie widzi sznurków którymi jest poruszana (Wegner 2002). Steven Pinker uważa, że nikt kto lubi parówki nie powinien widzieć jak są robione. Być może właśnie dlatego procesy podejmowania decyzji są głęboko ukryte przed świadomością (Pinker 2005).

Za protoplastę dokonań Libeta uważa się Hansa Kornhubera i jego odkrycie. W swoim doświadczeniu prosił on ochotników o uniesienie wskazującego palca prawej ręki, mierząc w tym czasie aktywność elektryczną mózgu. Po dokonaniu wielu takich pomiarów zauważył, że każdy ze świadomych ruchów był poprzedzony, drobnym wychyleniem na wykresie aktywności mózgu. Nazwał go „potencjałem gotowości” i obliczył, że ów potencjał pojawia się na ok. sekundę przed wykonaniem świadomego ruchu. Beniamin Libet przeprowadził swój eksperyment w 1986 r. Prosił w nim ochotników o podnoszenie palca kiedy tylko będą mieli na to ochotę. Podobnie jak Kornuber mierzył on umieszczoną na głowie badanych elektrodą aktywność elektryczną mózgu i tak samo określił pojawienie się potencjału na ok. sekundę przed uniesieniem palca. Potem jednak wpadł na pomysł porównania czasu, kiedy to ochotnicy postanawiali unieść palec z chwilą kiedy pojawiał się potencjał. Okazało się, że potencjał pojawiał się ok. 200 milisekund przed tym jak badani mieli chęć podnieść palec. Dzięki temu mógł przewidzieć co zrobi dana osoba, zanim sama będzie zdawała sobie sprawę z tego, że chce to zrobić (Kandel 2007). Pod wpływem tych eksperymentów wielu filozofów zaczęło się zastanawiać nad tym, że skoro nasze wybory są dokonywane w mózgu bez wiedzy świadomości to nie ma miejsca na wolną wolę. Interesujące, że poglądy samego Libeta opowiadały się nie za istnieniem wolnej woli, a raczej za istnieniem weta („free won’t” w odróżnieniu do wolnej woli „free will”). Twierdził on, że nasze wybory są wolne, lecz inicjacja możliwości działania dokonuje się bez udziału świadomości. Podświadomość inicjuje czynność, natomiast bezpośrednio przed podjęciem decyzji, w ciągu owych 200 milisekund, świadomość może zatwierdzić lub zawetować akcję (Libet 2004). Jednak według punktu widzenia fizyków i współczesnych neuronaukowców inicjowanie akcji nie różni się od jej wetowania i za obie odpowiada ten sam region w mózgu (Wegner 2002). Wielu zarzucało Liebetowi, że aktywność, którą mierzył przed świadomą decyzją była wystarczająca, by spowodować decyzję — to mógł być po prostu proces mózgowy prowadzący do podjęcia decyzji i podjęcia ruchu (Smith 2011). Między innymi dlatego w 2008 r. Soon (i inni) zmodyfikowali wcześniejszy eksperyment Libeta. Ograniczoną technologię EEG [ 5 ] zastąpiono fMRI [ 6 ]. Jednak krytycy zarzucają, że autorzy mogli przewidzieć jedynie z ok. 60% prawdopodobieństwem decyzję jaką podejmie badany. Zespół już pracuje nad kolejnymi wersjami doświadczenia (Smith 2011). Być może trzeba będzie zagłębić się jeszcze bardziej w mózg. Wydaje się, że kolejnego kroku na tej drodze udało się dokonać Fried’owi wraz z zespołem (2011). Badali oni osoby z umieszczonymi w mózgu elektrodami, będącymi częścią terapii związanej z leczeniem u nich epilepsji. Nadzorowanie pracy pojedynczych neuronów wydaje się dawać naukowcom bardziej precyzyjny obraz niż korzystanie z EEG czy fMRI. Byli w stanie przewidzieć decyzję 700 milisekund przed jej nastąpieniem z 80% prawdopodobieństwem. Jesteśmy coraz bliżej, jednak rezultaty wyłącznie pochodzące z neuronaukowych doświadczeń to zbyt mało, by rozstrzygnąć jednoznacznie spór. W każdym razie wydaje się, że decyzje nie są podejmowane świadomie. A jeśli wybór dokonywany w ten sposób jest podświadomy, przed chwilą, kiedy wydaje się nam, że rzeczywiście podejmujemy decyzję, to nie mamy wolnej woli w żadnym znaczącym sensie (Coyne 2012). Iluzja wolnej woli, może być po prostu jednym z żartów ewolucji. Natomiast świadomość jako taka może być jedynie echem biochemicznych reakcji, które odpowiadają za podejmowane wcześniej decyzje, echem nie mającym żadnego wpływu na te decyzje (Smith 2011). Wydaje się, że całe nasze zachowanie można sprowadzić do biologicznej aktywności mózgu, o której my sami, jako właściciele tych mózgów nie mamy tak naprawdę pojęcia (Harris 2011). Harris (2012, str. 16) podsumowuje swoją książkę Free will mówiąc: „nie posiadasz kontroli ponieważ ty, jako świadomość jesteś jedynie częścią, swojego umysłu, żyjącą na łasce pozostałych elementów składowych”. Robert Wright natomiast dodaje, że prawdziwa wolność naszych decyzji polegałaby na tym, że moglibyśmy chcieć inaczej, niestety nie możemy chcieć inaczej (Wright 2003).

Dla większości ludzi idea braku wolnej woli wydaje się irracjonalna i nieprawdziwa, tak silne wydaje się być to złudzenie, że dokonujemy własnych wyborów. Złudzenie to przywodzi na myśl eksperymenty z przecinaniem spoidła wielkiego w mózgu. Historia tych doświadczeń zaczyna się, kiedy Paul Broca po przeprowadzeniu licznych sekcji ludzi z uszkodzeniami mózgu stwierdził, że uszkodzenia po lewej stronie i po prawej nie dają takich samych skutków, co związane jest z pewnym poziomem specjalizacji każdej z półkul (Gerrig i Zimbardo 2009). Pierwsze szanse badania tych różnic pojawiły się przy okazji leczenia ciężkich, lekoopornych napadów padaczki, leczonych poprzez przecinanie ciała modzelowatego. Ciało modzelowate (nazywane także spoidłem wielkim) to potężny zwój neuronów odpowiadający za przesyłanie informacji pomiędzy półkulami mózgowymi. Przecięcie go zaburza ten proces. Zaprojektowano wiele eksperymentów, mających na uwadze prezentacje odmiennych informacji dla każdej z półkul (Sperry 1968, Gazzaniga 1970, 1985). W normalnym mózgu informacje są błyskawicznie wymieniane pomiędzy półkulami, natomiast u badanych informacja z lewego oka trafia do prawej półkuli mózgowej i tam zostaje, a z prawego oka do lewej półkuli i również się nie przemieszcza poza jej obszar. W warunkach normalnych osoby te rekompensują utratę łączności pomiędzy półkulami poprzez poruszanie głową w taki sposób, aby komplet informacji wzrokowych dotarł do obu półkul, inaczej jest podczas badań, kiedy jest to uniemożliwione. W jednym z badań półkuli prawej pokazano zimowy widok, natomiast lewej rysunek kurzej łapy. Badany następnie musiał wybrać przedmioty, które były związane z każdą, ze scen. Lewą ręką wskazał szuflę, a prawą kurzą głowę, stwierdzając, że szufla jest potrzebna do oczyszczenia kurnika (zamiast odgarnięcia śniegu). U większości ludzi lewa półkula kontroluje ośrodki mowy i to ona odpowiada [ 7 ]. Tu, ponieważ lewa część mózgu nie miała dostępu do tego co zobaczyła prawa (w związku z przecięciem ciała modzelowatego), była zmuszona w jakiś sposób wytłumaczyć czemu lewa ręka wskazuje szuflę, gdy jedynym świadomie widzianym obrazkiem jest dla niej kurza łapa. Konkludując system poznawczy lewej półkuli mózgowej dostarczył wytłumaczenia dla zachowania innej części ciała (Gazzaniga 1985). Na podobnej zasadzie jeśli jednemu oku pokażemy puszkę z Colą, a drugiemu wyświetlimy polecenie wstań, to badany na pytanie dlaczego wstał wyjaśnia, że był spragniony i chciał iść po coś do picia. Podczas odpowiedzi na pytanie pojawia się tzw. wewnętrzny interpretator, który dostarcza racjonalnego wyjaśnienia, zapewniając spójność, ład i porządek umysłu (Gazzaniga 2011). Mamy tu do czynienia z czystą iluzją podjęcia decyzji. Osobie wydaje się, że podejmuje niewymuszone zachowanie spowodowane jej własną wolą, kiedy wyraźnie widzimy, że jest zupełnie inaczej (Gerrig i Zimbardo 2009).

Być może ewolucja wyposażyła nas w to uczucie, abyśmy byli bardziej altruistyczni i skłonni do kooperacji w grupie. Rzeczywiście badania pokazują, że jeśli wiara ludzi w istnienie wolnej woli jest podważona zachowują się bardziej agresywnie, są mniej skłonni do pomocy innym oraz bardziej skłonni do oszukiwania (Vohs i Schooler 2008, Baumeister i inni 2009) (patrz dalsza część tekstu).

Tradycyjna koncepcja kartezjańskiego ducha w maszynie mówi, że nasze ciało zamieszkuje dusza (jaźń), która to wybiera zachowania, realizowane potem przez ciało. Podejmowane przezeń decyzje nie są wymuszone wcześniejszymi fizycznymi zdarzeniami, których przykładem będzie kula bilardowa wpadająca do łuzy, uderzona chwilę wcześniej przez drugą kulę. Niestety, jak się wydaje, taka wizja nie zgadza się ze współczesną ideą funkcjonowania mózgu. Nasze zachowania są wywoływane przez procesy fizjologiczne zachodzące w naszym mózgu, który jest produktem milionów lat ewolucji. Ta wizja nie pozostawia miejsca dla żadnego podmiotu, który dokonuje niezależnych decyzji (Pinker 2005). W rzeczywistości wydaje się, że gdyby wybór zachowań zależał jedynie od całkowicie wolnej woli to absolutnie wolny byt nie bał by się kary, nie wstydziłby się publicznego potępienia, nie miałby poczucia winy, które zwykle powstrzymuje przed uleganiem pokusom (Dennett 1984). Nie byłoby żadnej możliwości przeciwdziałania złym postępkom, zapanowałby chaos. W ewolucyjnej przeszłości hipotetyczny paleolityczny osobnik posiadający wolną wolę zamiast szukać atrakcyjnego partnera i walczyć o coraz wyższe szczeble w drabinie społecznej wolałby po zdobyciu posiłku np. patrzeć w chmury, albo robić cokolwiek innego, nie wymagającego wysiłku i mógłby sprawić, że zajęcia te byłyby najbardziej fascynujące i wciągające dla niego samego. W takim przypadku dostosowanie osobnika byłoby równe zeru, wiec takie zachowanie byłoby skrajnie nie adaptacyjne dla genów go zamieszkujących.

Wydaje się, że jeśli świadomość jest efektem pracy mózgu, to nie może być siłą sprawczą jego decyzji (dlatego w doświadczeniach widzimy, że decyzje są podejmowane sekundy lub ułamki sekund przed ich uświadomieniem). Zatem jeśli istotą pojęcia wolnej woli jest założenie, że decyzja musi być dziełem świadomej, rządzącej ciałem jaźni to jest to założenie fałszywe. Natomiast wszelkie działania człowieka, świadome czy też nie, są wynikiem interakcji czynników środowiskowych i genów (Harris 2012).

Co z tego wynika?

Dziś każdy dobrze wykształcony biolog wie, że na fenotyp wpływają dwa czynniki, genotyp i środowisko. Na to ile mężczyzna ma wzrostu wpływają geny odziedziczone po rodzicach oraz środowisko, to czy prawidłowo się odżywiał ilościowo oraz jakościowo, czy jako chłopiec nie pracował ciężko fizycznie, co skutkowałoby zaprzestaniem wzrostu blaszek kostnych, spowodowanym wysiłkiem ponad miarę itp. Gorzej jest ze świadomością w jakim stopniu oba czynniki działają na organizm oraz z tym, że na zachowanie wpływają one w tak samo dużym stopniu jak na cechy morfologiczne. Odwieczny spór natura czy kultura; geny czy wychowanie; determinizm genetyczny czy determinizm środowiskowy trwał zaciekle przez dziesięciolecia (Ridley 2000, Harris 2000).

Z determinizmem (w tym przypadku genetycznym) w pewien sposób wiąże się historia pewnego dziennikarza naukowego. W styczniu roku 1975 w skromnie umeblowanym mieszkaniu w Londynie policja znalazła ciało George’a Price’a, który popełnił samobójstwo. Badania Price’a (min. Logic of animal behavior, Maynard-Smth i Price 1973), który by móc się nimi zająć zmienił profesję, uwiarygodniały tezę, że jesteśmy jedynie celem manipulacji samolubnych genów, którym zależy tylko na własnej reprodukcji. Zatem szlachetny altruizm nie istnieje, ponieważ poprzez pomoc innym zwiększamy własne dostosowanie. Egoizm genetyczny okazał się być ukrytym motywem wszystkich zachowań ludzkich [ 8 ]. Geny sterują naszym zachowaniem, naigrywając się z wolnej woli. Mimo, że zajął się tą tematyką, aby obalić zyskujące coraz większą akceptację idee Hamiltonowskiego dostosowania całkowitego z 1964 i Triversowskiego altruizmu odwzajemnionego z 1971 r. udało mu się osiągnąć jedynie efekt odwrotny do zamierzonego. W konsekwencji z walczącego ateisty stał się głęboko wierzącym chrześcijaninem. Wkrótce potem zaczął pomagać ludziom z marginesu i rozdawać swoje mienie. Niestety po pewnym czasie zaczęli oni, mimo serca, które wkładał w pomoc, oszukiwać i okradać go. Wszystko zakończyło się załamaniem psychicznym i podcięciem sobie żył nożyczkami (Szymborski 1999). Dlatego wydaje się, że dyskusja na tematy związane z jakimkolwiek determinizmem, a zatem także z istnieniem wolnej woli, mimo że często budzi spore emocje, powinna być prowadzona z dużą rozwagą, ponieważ tak naprawdę trudno przewidzieć wpływ omawianych poglądów na ludzi. Tym bardziej, że jak się okazuje początkowa reakcja Price’a na siłę wpływu genów na nasze decyzje nie była wcale nietypowa. Matt Ridley cytuje w swojej książce O pochodzeniu cnotyuznanego psychiatrę (jednego z pionierów medycyny darwinowskiej, współautora Why We Get Sick: The New Science of Darwinian Medicine, a zatem człowieka obeznanego w temacie) Randolpha Nesse’a (Ridley 2000 str. 148):

„Odkrycie, że skłonności do altruizmu są kształtowane przez interesy genów, jest jednym z najbardziej niepokojących odkryć w całej historii nauki. Kiedy po raz pierwszy pojąłem jego prawdziwe znaczenie, przez kilka nocy źle spałem, usiłując znaleźć jakąś alternatywę, która nie wystawiała by na tak brutalną próbę mego odczucia dobra i zła. Zrozumienie tego odkrycia podważyć może w ludziach poczucie obowiązku moralnego postępowania — podporządkowanie naszych działań moralnym rygorom może wydać się niemądre, jeśli się zważy, że moralne zachowanie jest tylko strategią służącą interesom naszych genów. Niektórzy moi studenci, wyznać muszę ze wstydem, wyciągali z moich wykładów naiwny wniosek, że teoria samolubnego genu usprawiedliwia egoistyczne zachowanie – mimo moich wysiłków, by wyjaśnić im istotę naturalistycznego błędu [ 9 ]”.

Oczywiście taka wizja człowieka, jako chłodno kalkulującej maszyny przetrwania dla genów, nie budzi entuzjazmu i jest zbyt uproszczona. Natomiast myśl, że jedynie geny (czy też wyłącznie czynniki środowiskowe) bezpośrednio determinują nasze zachowanie i stanowią o naszym neurobiologicznym i behawioralnym przeznaczeniu jest po prostu błędna (Sapolsky 2005). Swój niepokój w stosunku do determinizmu wyraża także Jerry Coyne (2008), biolog ewolucyjny i specjalista od specjacji, w tekście Marionetki na genetycznych sznurkach: „(…) wizja mnie samego oraz moich bliźnich jako marionetek tańczących na genetycznych sznurkach budzi we mnie lęk. Chciałbym wierzyć, że jesteśmy istotami wolnymi, zdolnymi do samodoskonalenia i do stworzenia sprawiedliwego egalitarnego społeczeństwa. Oczywiście uwarunkowania genetyczne nie determinują naszego przeznaczenia, ale z pewnością nie jesteśmy całkowicie wolni od swego ewolucyjnego bagażu.(…) Psychologowie ewolucyjni twierdzą, że jesteśmy w stanie przezwyciężyć swoje ewolucyjne dziedzictwo. Ale czy na pewno? A jeśli okaże się, że nie tak łatwo pójść drogą wskazaną przez Dawkinsa i „zbuntować się przeciw tyranii samolubnych replikatorów (Dawkins 2006)”?”. Kolejny z naukowców stwierdza: „Wydaje się nam, że to my podejmujemy decyzje, ale w rzeczywistości tak nie jest. (…) Będę szczery, trudno mi to zaakceptować. Jak mogę wolę nazywać moją, skoro nawet nie wiem kiedy powstała i co zamierza zrobić” mówi Patrick Haggard, nauronaukowiec z Uniwersytetu Londyńskiego (cyt. za Smith 2011).

Patrząc z drugiej strony, jeśli chodzi o wpływ środowiska to błędna jest też wizja radykalnego behawioryzmu [ 10 ] w wydaniu Skinnerowskim, mówiącego, że w zasadzie każde zachowanie można wytłumaczyć jako efekt prostych procesów uczenia się (np. warunkowania klasycznego, czy warunkowania sprawczego) (Gerrig i Zimbardo 2009). James B. Watson oświadczył zresztą swego czasu, że gdyby dać mu do dyspozycji tuzin przypadkowo wybranych dzieci, to każde wychowa na tego kogo będzie chciał – na prawnika, lekarza, artystę, złodzieja czy żebraka. W społeczeństwie jednak determinizm środowiskowy jest tak powszechnie uznawany za prawdziwy, że stał się tematem żartów. Pinker (2005) przywołuje przykładowo popularny rysunek przedstawiający plan szpitala psychiatrycznego: I piętro; wina matki, II piętro; wina ojca, III piętro; wina społeczeństwa. W niekończącym się sporze, czy kształtuje nas natura czy kultura (geny czy wychowanie), czy rodzimy się zaprogramowani genetycznie, czy też kształtuje nas oddziaływania społeczne i wychowanie, zaproponowano rozwiązanie kompromisowe. Jesteśmy zatem produktem działania obu tych czynników (Ridley 2003, Buss 2001, Alcock 2009). A geny jako takie jedynie modulują sposób reagowania organizmu na środowisko (Sapolsky 2005). Innymi słowy: „Geny nie kontrolują behawioru bezpośrednio, nie ingerują w zachowanie zwierzęcia. Czynią to tylko pośrednio wcześniej programując zachowanie się maszyny.” (Dawkins 2003 str. 32).

Rodzimy się z pewnymi predyspozycjami np. instynktem językowym, dzięki któremu jesteśmy w stanie go sprawnie i relatywnie szybko opanować (Pinker 1994, Chomsky 2000). Jednak ów instynkt (czy raczej wg psychologów ewolucyjnych mechanizm umysłowy) jest aktywny jedynie w pewnym krytycznym dla dziecka wieku, jeśli nie słyszy ono języka podczas trwania swoistego „okna” krytycznej wrażliwości na bodziec, to nigdy nie będzie mówiło. Można tu przytoczyć słynny przypadek Wiktora z Aveyron, chłopca, który żył samotnie w lasach Francji, znalezionego w roku 1797. Po początkowych trudnościach w wieku 12 lat przystosował się do życia w społeczeństwie, jednak nigdy nie przyswoił sobie języka (Thorpe 1958). Jeśli chodzi o czynniki genetyczne interesująca jest historia pewnej rodziny, której większość członków cierpiała na poważne zaburzenia mowy i języka (Vargha-Khadem i inni 1995). Po długich zawirowaniach naukowcom udało się zlokalizować problem. Okazało się, że w chromosomie 7 znajduje się gen, w którym doszło u jednego z przodków rodziny do mutacji jednej pary zasad. Miejsce adeniny zajęła guanina (Fisher i inni 1998). Dziś wiemy, że jest to gen FOXP2, prawdopodobnie jeden z kluczowych elementów budujących omawiany instynkt językowy. Uważa się, że jego wersja występująca jedynie u człowieka (powstała dzięki mutacjom w ciągu ostatnich 200 000 lat) miała kluczowe ewolucyjne znaczenie dla powstania mowy (Enard i inni 2002). Natomiast już od warunków środowiskowych zależy jaki język opanujemy, francuski, hiszpański, polski czy plemienia !Kung. Zatem kluczowe są oba czynniki zarówno genetyczny jak i środowiskowy. Interesujące, dla dyskusji o ewolucyjnym podłożu procesu nauki języka u ludzi, wydaje się pewne odkrycie dokonane w Ameryce Środkowej. W 1981 r. otwarto w Nikaragui pierwszą szkołę języka migowego dla dzieci głuchoniemych. Okazało się, że dzieci, mimo, że nikt wcześniej nie uczył ich migać, wymyśliły własny, bardzo złożony język gestów. Ten unikalny język miał wiele cech charakterystycznych dla języków w ogóle, takich jak rozbicie informacji na odrębne jednostki, czy gramatyczną prezentację słów (gestów w tym przypadku) (Senghas i inni 2004).

Skoro błędny jest skrajny determinizm genetyczny jak i skrajny behawioryzm (determinizm środowiskowy), to prawdziwym wydaje się być determinizm genetyczno-środowiskowy. Przecież nikt z nas nie może wybrać własnego genomu, kraju w którym się urodził, ani politycznych i ekonomicznych czynników środowiskowych mających wpływ na nasz rozwój. Honderich (2001, str. 42) pisze: „Ujmując rzecz w potoczny sposób — środowisko i cechy dziedziczne determinują wybór”.

Jesteśmy zatem biologicznymi stworzeniami, zbiorem cząsteczek, które muszą podporządkować się prawom fizyki wszechświata, w którym żyją. Cząsteczki te budują też nasz mózg, który dokonuje „wyborów”. Francis Crick (odkrywca przestrzennej struktury DNA wraz z Jamesem Watsonem) problem ten nazywa „zdumiewającą hipotezą” (Crick 1997). „Zdumiewająca hipoteza brzmi: Ty, Twoje radości i smutki, Twoje wspomnienia i ambicje, Twoje poczucie tożsamości (…) nie są w rzeczywistości niczym innym niż sposobem w jaki zachowuje się ogromny zbiór komórek nerwowych i związanych z nimi cząsteczek” (Crick 1997, str 17). Parafrazując, każdy z nas jest swego rodzaju pęczkiem neuronów. Hipoteza, o której mówi Crick nie jest tak naprawdę już hipotezą, ponieważ wiemy od dawna, że to prawda (Ramachandran 2008). Prawdziwa wolna wola zatem wymagałaby abyśmy wyszli poza swój mózg i zmienili jego działanie. Nauka nie jest w stanie tego dokonać, ponieważ jesteśmy konstruktem naszego mózgu. Nie możemy wpływać na przetwarzanie bodźców opracowywanych przez nasz umysł bardziej, niż zaprogramowany komputer nie może sam zmienić swojego programu (Coyne 2012). Naukowcy tacy jak Crick uważają, że wszystkie myśli człowieka i czyny są ściśle zdeterminowane przez procesy mózgowe. Przecież nie wiemy, co mieliśmy zrobić do momentu kiedy intencja zrobienia czegoś nie powstanie w głowie. Zrozumieć to, to zrozumieć, że nie jesteśmy autorami naszych myśli i czynów w sposób jaki zazwyczaj ludzie uważają (Harris 2012). Wegner (2002) uważa, że do ostatnich zwolenników koncepcji istnienia wolnej woli zalicza się grupka „kiepskich naukowców”, którzy nie rozumieją do końca problemu o którym się wypowiadają.

Co mówią badania na temat demaskowania wolnej woli?

Mimo naukowego i filozoficznego znaczenia odkryć w psychologii i neuronauce sugerujących, że wolna wola jest jedynie iluzją, ludzie wydają się instynktownie wierzyć w wolną wolę, a wiara ta wydaje się być istotna dla dobrego samopoczucia (Leotti 2010). Zatem co się stanie kiedy zdemaskujemy iluzję wolnej woli? Jak może to wpłynąć i czy w ogóle może wpłynąć na zachowanie ludzi? To pytanie zadali autorzy dwóch ostatnio przeprowadzonych badań Vohs i Schooler (2008) oraz Baumeister (i inni 2009). Interesujące jest, iż ustalono już, że zmiana poczucia odpowiedzialności może zmienić zachowanie (Hormon-Jones i Mills 1999, za Vohs i Schooler 2008) podobnie jak zmienia zachowanie wiara, że rezultaty działań są uwarunkowane przez wrodzone cechy bardziej niż osobisty wysiłek (Mueller i Dweck 1998). Przykładowo ci ostatni badacze obserwowali dziesięciolatki, którym powiedziano, że dobry wynik wykonanego zadania zależał od ich wrodzonej inteligencji, albo ciężkiej pracy, które w zadanie włożyły. W kolejnej rundzie badani spotkali się z zadaniem, które było poza ich możliwościami. W trzeciej i ostatniej rundzie, przy ostatnim zadaniu, dziesięciolatki, które myślały, że za wcześniejszy sukces odpowiadała ich wrodzona inteligencja włożyły zdecydowanie mniej wysiłku i opisały próbę uporania się z łamigłówką jako mniej satysfakcjonującą niż te, które uważały, że najistotniejszy jest ich osobisty wysiłek. Podsumowując dzieci, które miały powiedziane, że za sukces odpowiada wrodzona cecha uważały, że są za mało inteligentne aby podołać zadaniu i szybko poddawały się zniechęcone. Redukując poczucie kontroli człowieka zmniejsza się wysiłek wkładany przez niego w dane zadanie. Vohs i Schooler (2008) zastanawiali się także, czy punkt widzenia pozbawiający osobistej odpowiedzialności za dane działanie spowoduje zmianę zachowania. Manipulowali wiarą w istnienie bądź nieistnienie wolnej woli i badali czy będzie miało to wpływ na oszukiwanie podczas rozwiązywania przygotowanych zadań. Rzeczywiście grupa przekonana, że wolna wola jest iluzją, będącą efektem ubocznym architektury mózgu, oszukiwali istotnie bardziej podczas rozwiązywania zadań w porównaniu do grupy kontrolnej. Konkludując deterministyczny punkt widzenia powodował niemoralne zachowanie. Autorzy stwierdzają, że nie bez podstaw może zachodzić obawa, iż ogólna aprobata deterministycznego postrzegania rzeczywistości może przyczyniać się do antyspołecznego zachowania. Ale także podkreślają, że badanie zajmowało się wąskim wycinkiem problemu i rzeczywisty wpływ wiary bądź niewiary w wolną wolę na zachowanie pozostaje dokładniej niezbadany. Zainspirowani problemem zajęli się wkrótce Baumeister (i inni 2009). Wyniki były bardziej znaczące, ponieważ badani w grupie deterministycznej okazali się bardziej agresywni oraz mniej pomocni. Autorom wydaje się, że wiara w wolną wolę może być krytycznym czynnikiem motywującym do kontroli automatycznych impulsów na rzecz bardziej prosocjalnego zachowania, co jest także zgodne z konkluzjami Vohsa i Schoolera (2008). Pytanie o skutki wpływu niewiary w istnienie wolnej woli wydaje się jeszcze być otwartym, choć aktualnie przytoczone badania potwierdzają (choć nie ma ich jeszcze wiele, temat jest aktualnie eksplorowany), że zachowanie rzeczywiście ulega zmianie, kiedy badani są uświadamiani o iluzoryczności wolnej woli. Autorzy kolejnego z badań, Rigoni i inni (2011), podsumowują aktualne rozważania stwierdzając, że zmiana stosunku do wolnej woli rzeczywiście zmienia działanie procesów przetwarzania informacji w mózgu (wykazują to w swoim doświadczeniu), co sugeruje, że abstrakcyjny system wierzeń jednostki może mieć bardziej fundamentalne znaczenie niż się obecnie wydaje.

Czy człowiek ponosi odpowiedzialność za swoje decyzje jeśli nie ma wolnej woli?

Problem zaczyna się pojawiać, jeśli przypisując działania człowieka jego mózgowi (czyli genom i środowisku, którym zawdzięcza taką strukturę jaką ma), zwalniamy go z odpowiedzialności za wszelkie działania (Pinker 2005). Wydaje się, że biologia staje się alibi uniemożliwiającym skazanie przestępcy. Obwiniamy ludzi za niewłaściwą, bądź szkodliwą dla innych decyzję, tylko kiedy przyświecają im złe intencje i kiedy wydawało się, że mogli postąpić inaczej. Nie skażemy myśliwego, który przypadkowo postrzelił swego kolegę, myląc go z danielem. Nie sądzimy dziś także zwierząt, ani nieożywionych przedmiotów, ponieważ uważamy, że nie są one zdolne do dokonywania świadomych wyborów. Można pójść dalej, twierdząc, że wszyscy jesteśmy niewinni, ponieważ zgodnie z teorią ewolucji przyczyną motywów naszego zachowania jest fakt, że w przeszłości zapewniały one genom naszych antenatów przetrwanie w środowiskach w których ewoluowali (Gazzaniga 2011). Jest to rozumienie błędne, ponieważ wyjaśnienie jakiegoś zachowania nie jest tożsame z uniewinnieniem przestępcy (Weiss 2010). Zasadę „zrozumieć nie znaczy przebaczyć”, podkreślało wielu filozofów (min. Hume, Kant czy Sartre) (Pinker 2005). Kara jako metoda wymierzania sprawiedliwości pełni także funkcję odstraszającą. Jest to temat, który objętościowo wykracza poza artykuł, więc po szerszą analizę można sięgnąć do „Tabula rasa, spory o naturę ludzką” (Pinker 2005).

Green i Cohen (2004) uważają, że u źródeł intuicyjnego pojęcia przestępcy, jako złego człowieka, który musi odpokutować za swoje niemoralne decyzje, leży przekonanie o istnieniu wolnej woli i niezależności ciała od umysłu. Natomiast obecnie obowiązujące prawo obchodzi się dość stanowczo, ale litościwie, z przestępcami, których działanie jest w oczywisty sposób wynikiem sił znajdujących się poza ich kontrolą. Powinniśmy w ten humanitarny sposób traktować wszystkich przestępców. Zgadza się z tym stanowiskiem Richard Davidson (i inni 2000) mówiąc, że pierwszym krokiem na tej drodze jest uznanie faktu, że agresywne odruchy i brutalne zachowanie, niezależnie od wewnętrznych bodźców są odbiciem nieprawidłowości w funkcjonowaniu układów emocjonalnych w obrębie mózgu. Michael Gazzaniga został szefem nowo powołanego projektu Prawo i Neurobiologia (pośród prawników, psychologów, neurobiologów i filozofów), mającego wprowadzić uregulowania w kwestiach dotyczących ustalenia kierunku w jakim powinien rozwijać się nasz model winy i kary w zalewie nowych informacji na temat działania mózgu, których dostarczają neuronaukowcy (Boleyn-Fitzgerald 2010).

Z nikąd do nikąd

W ciągu ostatnich kilku wieków historii nauka pełna była przewrotów, które zmieniały na zawsze nasze miejsce we wszechświecie i poglądy dotyczące nas samych. Pierwszym krokiem prowadzącym ku współczesnej nauce, rozpoczynającym sagę mówiącą nam, kim jesteśmy, skąd przychodzimy i dokąd zmierzamy (niektórzy by powiedzieli, że początkiem odzierania człowieka z godności i odebrania mu jego unikatowego miejsca w centrum wszechświata, zepchnięciem z samego szczytu drzewa życia) była pierwsza rewolucja intelektualna — Kopernikańska, która obaliła pogląd Ziemi jako znajdującej się w centrum wszechświata. Dziś wiemy, że nasz układ Słoneczny, znajdujący się gdzieś niemal na skraju galaktyki, jest jednym z wielu krążących wokół jednej ze 150 miliardów gwiazd należących do Drogi Mlecznej, jednej ze 100 miliardów galaktyk znajdujących się w naszym wszechświecie, a być może będącym jednym z bilionów wszechświatów należących do wielowymiarowego multiświata (Susskind 2011). Potem nastała druga rewolucja — Darwinowska, obalająca wizję człowieka jako ukoronowania inteligentnego projektu i lokująca człowieka jako neogeniczną człekokształtną małpę gdzieś pomiędzy naczelnymi. Trzecia, związana z Freudem (czasem też czwarta kojarzona z psychologią ewolucyjną), który twierdził, że nie panujemy nad własnym życiem ponieważ kieruje nim zestaw popędów i ukrytych motywów. Wydaje się, że kolejną może być rewolucja neuronaukowa, zabierająca nam coś tak osobistego i ludzkiego jak wolna wola (Ramachandran 2008).

Fried podsumowuje swoje stanowisko nieistnienia wolnej woli w następujący sposób: „Nie myślę o tym każdego dnia. A już na pewno nie myślę o tym prowadząc operację na ludzkim mózgu” (cyt. za Smith 2011). Podobnie proponuje Pinker: „Jeśli i Tobie doskwiera ów lęk [związany z determinizmem], proponuję Ci przeprowadzenie pewnego eksperymentu. Przez kilka następnych dni nie zadawaj sobie zbędnego trudu i nie zastanawiaj się nad swoimi działaniami. Po co miałbyś tracić czas, jeśli biologia determinuje Twoje postępowanie? Działaj bez zastanowienia, żyj chwilą (…) a egzystencjonalny lęk przed determinizmem okazuje się prawdziwą stratą czasu.” (Pinker 2005 str. 254).

Einstein miał zawsze coś interesującego do powiedzenia w różnych kwestiach i tak podsumował problem determinizmu: „Jeśli księżyc, w akcie swego niekończącego się okrążania Ziemi, obdarowany by został samoświadomością, byłby przekonany, że podróżuje według własnego uznania. (…) obserwując człowieka i jego działania, uśmiechnąłby się, widząc iluzję tego, że wydaje się człowiekowi, iż działa on wedle własnej wolnej woli” (cyt. za Wegner 2002, str 342).

Streszczenie

Zagadnienie istnienia wolnej woli nie jest jedynie dywagacją czysto akademicką, a istotnym pytaniem, które dotyka niemal wszystkich sfer naszego życia: moralności, prawa, polityki, religii czy związków intymnych. Debata na temat determinizmu jest od dawna prowadzona przez filozofów, natomiast dopiero ostatnio naukowcy wydają się zbierać dowody potwierdzające, że wolna wola jest jedynie iluzją. Część badaczy stwierdza, że nie bez podstaw może być obawa, iż ogólna aprobata deterministycznego postrzegania rzeczywistości może przyczyniać się do antyspołecznych zachowań.

Literatura

Alcock, J. (2009) Animal Behavior: An Evolutionary Approach. Sinauer, Sunderland
Asch, S., E. 1955. Opinions and social pressure. Scientific American, 193 s. 31-35
Baumeister, R., F., Masicampo, E.J., i DeWall, C.,N. (2009) Prosocial benefits of feeling free: Disbelief in free will increases aggression and reduces helpfulness. Personality and Social Psychology Bulletin 35 s. 260-268
Blackmore, S. (2002) Maszyna memowa. Rebis, Poznań
Bloom, P. (2004) Descartes’ baby:How the science of child development explains what makes us human. Basic Books, New York
Boleyn-Fitzgerald, M. (2010) Obrazy naszego umysłu. Sonia Draga, Katowice
Brandt, R., B. (1996) Zagadnienia etyki normatywnej i metaetyki. PWN, Warszawa
Broad, C., D. (1952) Excerpts from Determinism, Indeterminism, and Libertarianism. Ethics and the History of Philosophy. Routledge & Kegan Paul, London, s. 195-217
Buss, D. (2001) Psychologia ewolucyjna. Gdańskie wydawnictwo psychologiczne, Gdańsk
Carroll, S. (2011) Stąd do wieczności i z powrotem. Pruszyński i S-ka, Warszawa
Chomsky, N. (2000) New horizons in the study of language and mind. Cambridge University Press,Cambridge
Coyne, J. (2008) Marionetki na genetycznych sznurkach. [W:] Niebezpieczne idee w nauce, pod redakcją Johna Brockmana. Smak Słowa, Sopot, s. 40-42
Coyne, J. 2012. Dysfunction in the neural circuitry of emotion regulation-A possible prelude to violence. Science, 289 s. 591-594
Dawkins, R. (2003) Fenotyp rozszerzony. Pruszyński i S-ka, Warszawa
Dawkins, R. (2006) Samolubny Gen. Pruszyński i S-ka, Warszawa
Dennett, D. (1984) Elbow Room: The Varieties of Free Will Worth Wanting. MIT Press,Cambridge
Dennett, D. (1991) Consciousness Explained, The Penguin Press
Enard, W., Przeworski, M., Fisher, S., E., Lai, C., S., L., Wiebe, V., Kitano, T., Monaco , A., P., Paabo, S. (2002) Molecular evolution of FOXP2, a gene involved in speech and language. Nature 418, s 869-872
Fisher, S., E., Vargha-Khadem, F., Watkins, K., E., Monaco , A., P., Pembrey, M., E. (1998)Localization of a gene implicated in a severe speech and language disorder. Nature Genet 18, s. 168-70
Fried, I. , Mukamel, R., Kreiman, G. (2011) Internally Generated Preactivation of Single Neurons in Human Medial Frontal Cortex Predicts Volition. Neuron 69 s. 548-562
Gazzaniga, M. (1970) The bisected brain. Appelton-Century-Crofts, New York
Gazzaniga, M. (1985) The social Brain. Basic Books, New York
Gazzaniga, M., S. (2011) Istota człowieczeństwa. Smak Słowa, Sopot
Gerrig R., J. i Zimbardo, P.,G. (2009) Psychologia i Życie. PWN, Warszawa
Greene,J., D. , Cohen,J., D. (2004) For the law, neuroscience changes nothing and everything. Philosophical Transactions of the Royal Society of London 359, s. 1775-1778
Greene, J. D. , Cohen J. D. (2004) For the law, neuroscience changes nothing and everything. Philosophical Transactions of the Royal Society of London (Special Issue on Law and the Brain) 359 s. 1775-1785
Hamilton, W. (1964) The genetical evolution of social behaviour. Journal of theoretical biology 7, s. 1-52
Harmon-Jones, E., i Mills, J. (1999) Cognitive dissonance: Progress on a pivotal theory in social psychology. American Psychological Association, Washington , DC
Harris, S. (2011) The free will delusion. New Statesman, 19 december -1 january, John Carpenter House, s. 46-47
Harris, S. (2012) Free Will. Free Press, New York
Honderich, T. (2001) Ile mamy wolności? Problem determinizmu. Zysk i s-ka, Poznań
Kaku, M. (2011) Fizyka przyszłości. Pruszyński i S-ka, Warszawa
Kandel, E., R. (2007) In Search of Memory: The Emergence of a New Science of Mind. W. W. Norton & Company, New York
Leotti, L., A., Iyengar, S., S., Ochsner, K., N. (2010) Born to choose: The origins and value of the need for control. Trends in Cognitive Sciences 14 s. 457-463
Libet, B. (2004) Mind time: The temporal factor in consciousness. Harvard University Press, Harvard
Maynard Smith, J., i G.,R., Price. (1973) The logic of animal conflict. Nature 246 s. 16-18
Milgram, S. (1963) Behavioral study of obedience. Journal of Abnormal and Social Psychology 67 s. 371-378
Mueller, C., M., i Dweck, C., S. (1998) Intelligence praise can undermine motivation and performance. Journal of Personality and Social Psychology 75 s. 33-52 Nesse, R., M. i Williams, G., C. (1996) Why we get sick: the new science of Darwinian medicine. Vintage, New York
Pinker, S. (1994) The Language Instinct: How the Mind Creates Language. William Morrow and Company, New York
Pinker, S. (2005) Tabula Rasa. Spory o naturę ludzką. GWP, Gdańsk
Ramachandran, V., S. (2008) Niebezpieczna idea Francisa Cricka. [W:] Niebezpieczne idee w nauce, pod redakcją Johna Brockmana. Smak Słowa, Sopot, s. 43-46
Ridley, M. (2000) O pochodzeniu cnoty. Rebis, Poznań
Ridley, M. (2003) Nature Via Nurture: Genes, Experience, and What Makes us Human. Harper Collins, New York
Rigoni, D., Kuhn, S., Sartori, G. i Brass, M. (2011) Inducing Disbelief in Free Will Alters Brain Correlates of Preconscious Motor Preparation: The Brain Minds Whether We Believe in Free Will or Not. Psychological Science 22 s. 613-618
Rotkiewicz, M. i Brzezicka, A. (2010) Śmierć duszy. Niezbędnik inteligenta 6/2010, Polityka, Warszawa, s. 70-74
Sapolsky, R. (2005) Małpie amory i inne pouczające historie o zwierzęciu zwanym człowiekiem. Pruszyński i S-ka, Warszawa
Senghas, A., S. Kita, Özyürek, A. (2004) Children creating core properties of language: evidence from an emerging sign language in Nicaragua . Science 305, 5691, s. 1779-1782
Shermer, M. (2009) Rynkowy Umysł. Cis, Warszawa, s. 359
Smith, K. (2011) Neuroscience vs philosophy: Taking aim at free will. Science, 477: 23-25
Soon, C., S., Brass, M., Heinze, H.-J., i Haynes, J.-D. (2008) Unconscious determinants of free decisions in the human brain. Nature Neurosci 11 s. 543-545
Sperry, R., W. (1968) Mental unity following surgical disconnection of the cerebral hemispheres.The Harvey Lectures (Series 62). NY Academic Press, New York
Susskind, L. 2011. Kosmiczny krajobraz. Pruszyński i S-ka, Warszawa
Szymborski, K. (1999) Poprawka z natury. Pruszyński i S-ka, Warszawa
Thorpe, W., H. (1958). The learning of song patterns by birds. Ibis 97, s. 247-251.
Trivers, R., L. (1971) The Evolution of Reciprocal Altruism. The Quarterly Review of Biology 46, s. 35-57
Vargha-Khadem, F., Watkins, K., Alcock, K., Fletcher, P., Passingham, R. (1995) Praxic and nonverbal cognitive deficits in a large family with a genetically transmitted speech and language disorder. Proc Natl Acad Sci 92, s. 930-3
Vohs, K., D., i Schooler, J. (2008) The value of believing in free will: Encouraging a belief in determinism increases cheating. Psychological Science 19 s. 49-54
Wegner, D. (2002) The illusion of conscious will. MIT Press, Cambridge
Weiss, M. (2010) Etyka a ewolucja. Wydawnictwo Poznańskie, Poznań
Wright, R. (2003) Moralne zwierzę. Warszawa, Prószyński i S-ka
Zimbardo, P.,G. (2008) Efekt Lucyfera. Dlaczego dobrzy ludzie czynią zło. PWN, Warszawa

Przypisy:
[ 1 ] Determinizm to pogląd, mówiący, że gdyby dysponowało się absolutną wiedzą na temat wszystkich praw natury i wiedziało dostatecznie dużo o jej wcześniejszych stanach, aby posłużyć się tym wszystkim w przewidywaniu, to każde zdarzenie można by przewidzieć (Brandt 1996)
[ 2 ] Esencjonalizm (ściśle związany z dualizmem) pogląd filozoficzny, który stwierdza, że w każdym bycie może kryć się niewidzialna i niedostrzegalna dla zmysłów esencja
[ 5 ] Już w 1875 r. odkryto, że umieszczone na głowie elektrody wykrywają wysyłane przez mózg sygnały elektryczne, co ostatecznie doprowadziło do zaprojektowania elektroencefalografu (EEG).
[ 6 ] Współcześnie naukowcy dysponują całym szeregiem urządzeń, które dzięki kwantowej rewolucji stały się możliwe do skonstruowania i są coraz tańsze, popularniejsze i precyzyjniejsze. PET (pozytronowa tomografia emisyjna), MRI (rezonans magnetyczny), MEG (magnetoencefalografia) czy fMRI (funkcjonalny magnetyczny rezonans jądrowy) spowodowały małą rewolucję w neuronauce i umożliwiają zarejestrowanie w czasie ułamków sekundy obrazu aktywności nawet bardzo niewielkich części mózgu, rzędu jednego milimetra, co powoduje, że nadają się do śledzenia procesu myślowego żywego mózgu. Komórki nerwowe tak samo jak pozostałe komórki organizmu im intensywniej pracują tym więcej zużywają substancji odżywczych i tlenu. Wspomniane wyżej techniki wykorzystują ten fakt i pokazują w których obszarach dochodzi do zwiększonej przemiany materii, czyli zwiększonej aktywności (Kaku 2011).

 http://www.racjonalista.pl/kk.php/s,8635/k,1

 Michał Glądalski

Doktorant na Wydziale Biologii i Ochrony Środowiska w Katedrze Zoologii Doświadczalnej i Biologii Ewolucyjnej Uniwersytetu Łódzkiego.
Reklamy

Posted in biologia, ewolucja, psychologia | Otagowane: | Leave a Comment »

Ośrodek bluzgów

Posted by psychoneurocybernauta w dniu 23 lipca 2009

Steven Pinker, znany amerykański językoznawca, w wydanej niedawno książce „The Stuff of Thought” przypomina jedną z teorii, która mówi o korzeniach ludzkiego języka – tak zwaną teorię fe! Jej zwolennicy twierdzą, że jednymi z pierwszych dźwięków, jakie wydawali nasi przodkowie, były te wyrażające silne emocje, takie jak ból, wstręt, radość, strach, obrzydzenie. Z czasem owe nieartykułowane odgłosy nabrały arbitralności i stały się pierwszymi słowami. A żadne wyrażenia w takim stopniu jak przekleństwa nie niosą ładunku emocjonalnego. Czy to znaczy, że klęliśmy, zanim jeszcze na dobre zaczęliśmy mówić?

Nie wiadomo. Wiadomo za to na pewno, że słuchanie lub wypowiadanie przekleństw w znacznie większym stopniu angażuje naszą prawą, emocjonalną półkulę mózgową niż lewą. To tutaj, ukryta głęboko pod racjonalnymi warstwami kory mózgowej, w ewolucyjnie starych strukturach mózgu, tkwi nasza skłonność do szafowania wulgaryzmami. Badania neurologiczne pokazują, że całkiem precyzyjnie jesteśmy w stanie określić „ośrodek bluzgów” w naszej głowie. Składają się na niego struktury nazywane jądrami podstawy oraz jądro migdałowate.
Funkcja jąder podstawy polega na kontroli głównych czynności ruchowych automatycznych (to znaczy odbywających się bez naszego udziału) i półautomatycznych (na przykład chodu). Jądro migdałowate zaangażowane jest w wiele aktywności naszego mózgu, jednak jednym z jego głównych zadań jest przetwarzanie bodźców związanych z silnymi emocjami. Co ciekawe – w przeklinanie w niewielkim stopniu zaangażowane są części mózgu odpowiedzialne za procesy związane z mową. Przekleństwa – mimo że są aktywnością czysto werbalną – funkcjonują na bardzo szczególnych prawach. Może to wyjaśniać, dlaczego przy rozmaitych uszkodzeniach mózgu – związanych z wypadkami czy udarami – można stracić zdolność mowy, ale zachować wirtuozerską umiejętność przeklinania. Ba, są nawet schorzenia neurologiczne, których głównym objawem jest spontaniczne i niepohamowane używanie wulgaryzmów. Wszystkie one w jakimś stopniu wiążą się z zaburzeniami jąder podstawy. Kląć jak szewc będą więc niektórzy chorzy na parkinsona, alzheimera, a także pacjenci dotknięci przypadłością o nazwie zespół Tourette’a.

Przeklinanie przymusowe
To ostatnie schorzenie dotyka jednej osoby na dwa tysiące. Trudno ukryć tę przypadłość, bo co kilkanaście minut chory doświadcza epizodów niekontrolowanych ruchów i tików. Blisko 30 procent tourettyków cierpi dodatkowo na koprolalię: patologiczną, niedającą się opanować potrzebę wypowiadania przekleństw lub obscenicznych słów.

Słynny neurolog Oliver Sacks w książce „Mężczyzna, który pomylił swoją żonę z kapeluszem” opisał przypadek cierpiącego na zespół Tourette’a mężczyzny:

„Kiedy pierwszy raz zobaczyłem Raya, miał dwadzieścia cztery lata i był niemal całkowicie pozbawiony możliwości robienia czegokolwiek przez niezliczone, niezwykle silne nerwowe tiki pojawiające się co kilka sekund, całymi seriami. Zaczął na to cierpieć w wieku czterech lat. Był poważnie naznaczony przez to, że jego tiki wzbudzały powszechną uwagę. Pomimo to jego duża inteligencja, dowcip, siła charakteru i poczucie rzeczywistości pozwoliły mu ukończyć z sukcesami szkołę i college. Był ceniony i kochany przez żonę i kilku przyjaciół. Jednak po skończeniu college’u wyrzucano go kolejno z kilkunastu posad – zawsze z powodu tików, a nie niekompetencji – i wciąż znajdował się w rozmaitych kryzysowych sytuacjach, zwykle z powodu swojej niecierpliwości, kłótliwości i szorstkiej błyskotliwej hucpy. Okazało się, że jego małżeństwu zagrażają bezwiedne okrzyki »Kurwa!« albo »Pierdolę!«, jakie wydawał w chwilach podniecenia seksualnego”.

W 2000 roku lekarze z londyńskiego National Hospital of Neurology and Neurosurgery opisali cierpiącego na zespół Tourette’a głuchego, którego przymus przeklinania zmuszał do produkowania wulgarnych znaków języka migowego (znaków językowych, a nie po prostu wulgarnych gestów).

O ile jednak chorzy mają usprawiedliwienie, dlaczego my, zupełnie zdrowi na ciele i umyśle, nie tak znowu rzadko uciekamy się do użycia dosadnego słowa?

Poruszyć mózg do żywego
– Jest przynajmniej kilka wyjaśniających to teorii – mówił podczas jednego ze spotkań promujących książkę „The Stuff of Thought” Steven Pinker. – Aby je zrozumieć, musimy zdać sobie sprawę, w jaki sposób przekleństwa wpływają na mózg. Mówiąc najkrócej – ich zadaniem jest wywołanie u słuchającego emocji. A najsilniejsze z możliwych są emocje negatywne.

Dlatego zdaniem Pinkera przekleństwa to słowa kojarzące się nam z czymś groźnym lub obrzydliwym: nadprzyrodzonymi mocami (Bogiem, diabłem, piekłem), przemocą seksualną, gwałtem, chorobą (cholera), fekaliami, grupami ludzi czy zwierząt wywołującymi niechęć (ciota, ciul, czarnuch, świnia). Ich atrakcyjność potęguje fakt, że to słowa powszechnie nieakceptowane, a ich użycie (w miejscach publicznych) jest karalne. Mamy więc przyjemne poczucie, że robimy coś nielegalnego.

W jakich sytuacjach ich używamy? Na przykład, kiedy mamy potrzebę rozładowania napięcia emocjonalnego, w chwilach silnego stresu. Objaśnia to tak zwana hydrauliczna teoria emocji: aby zachować równowagę psychiczną, musimy od czasu do czasu „upuścić nieco emocjonalnej pary”. Przekleństwo będące werbalnym odpowiednikiem agresywnego zachowania nadaje się do tego jak ulał. Pełni funkcję oczyszczającą dla gromadzących się w nas napięć, a przy okazji (najczęściej) nie wikła nas w konieczność fizycznego starcia z przeciwnikiem. Pinker dowodzi, że ten niezwykle stary ewolucyjny mechanizm, który współczesną postać zyskał wraz z rozwojem ludzkiej zdolności werbalizacji uczuć, jest nieobcy także zwierzętom. „Te same części mózgu, które odpowiadają u nas za puszczanie obelżywych wiązanek pod adresem irytujących nas ludzi, uaktywniają się u psa ujadającego zza ogrodzenia na niepowołanych intruzów” – twierdzi naukowiec.

O podobnych obserwacjach poczynionych na szympansach mówi w piśmie „The New York Times” prymatolog Frans de Waal: „Kiedy szympansy stają się poirytowane zachowaniem któregoś ze swych współplemieńców, wydają w jego kierunku bardzo charakterystyczne dźwięki, czasem nawet plują. Można to porównać do używania wyzwisk u ludzi”.
– A słyszeliście kiedyś wrzask kota, któremu ktoś nadepnął na ogon? – pyta znów Pinker. – To ta sama reakcja, która nas, ludzi, skłania do wykrzyknięcia obscenicznego słowa, kiedy z jakiegoś powodu niespodziewanie zranimy się lub uderzymy. Ta werbalna reakcja to odreagowanie, rodzaj swoistego katharsis.

Empatycznie i fatycznie
Choć oczywiście nie zawsze przeklinanie wiąże się z agresją. Czasem, ubarwiając naszą wypowiedź co soczystszymi słowami, chcemy jedynie obrazowo przekazać nasze emocje. Po cóż długo i zawile tłumaczyć przyjacielowi, jak strasznie jesteśmy sfrustrowani tym nieprawdopodobnie pracochłonnym i nudnym zadaniem, które powierzył nam właśnie niezbyt lubiany szef? Dwa pikantne słowa wystarczą, by mózg słuchającego narzekań kumpla właściwie odebrał nasze nastawienie do sprawy. W tym kontekście przekleństwo pełni więc funkcję empatyczną.

Nie tak rzadko zdarza się także, że wulgaryzmy stają się swoistym „cementem społecznym”. Timothy Jay opisuje to zjawisko w swej książce „Why we curse?” („Dlaczego przeklinamy?”). Więziotwórczej roli słów na „k” i „ch” doświadcza się w szatni po nieudanym (lub właśnie bardzo udanym) meczu, jak również w rozmowach przy ekspresie do kawy w biurze.
Co więcej, z badań specjalistów z University of East Anglia wynika nawet, że regularne używanie brzydkich słów przez pracowników podnosi morale w zespole. Zakazanie przeklinania w pracy może podkreślić i wzmocnić silną osobowość szefa, ale niemal na pewno osłabi więzi między pracownikami i negatywnie wpłynie na morale i motywację – ostrzegają badacze.
Pozostała jeszcze funkcja fatyczna niecenzuralnych wypowiedzi, czyli to, co najczęściej określa się jako używanie wulgaryzmów w roli przecinka. Jest to ni mniej, ni więcej, tylko „aktywność językowa zorientowana na nawiązanie lub podtrzymanie kontaktu między rozmówcami (nadawcą i odbiorcą)”. Temu samemu służą wtręty, takie jak: wiesz, no, słuchaj, aha, tak, tak.
No i proszę, przekleństwa są takie brzydkie, a takie pożyteczne! Tymczasem (nieliczni) badacze przekleństw ubolewają, że ta sfera werbalnej aktywności człowieka w bardzo niewielkim stopniu doczekała się naukowego opisu. Gdyby ktoś zatem łączył swą przyszłość z nauką i szukał niewyeksplorowanej niszy: oto jest.
Roboty będzie od jasnej cholery.

Olga Wożniak
„Przekrój” 22/2009

http://przekroj.com.pl/cywilizacja_spoleczenstwo_artykul,4836,0.html

Posted in biologia, ewolucja | Otagowane: | Leave a Comment »

Molecular Visualizations of DNA

Posted by psychoneurocybernauta w dniu 10 marca 2009

Amazing CGI visualization of molecular biology’s central dogma. It shows animations of DNA coiling, replication, transcription and translation.


It was created by Drew Berry of the Walter and Eliza Hall Institute of Medical Research

Posted in biologia | Otagowane: , | Leave a Comment »

Czy komputery będą kiedyś świadome?

Posted by psychoneurocybernauta w dniu 8 lutego 2009

Włodzisław Duch

Katedra Informatyki Stosowanej UMK

Pełne zrozumienie natury ludzkiej jest obecnie jednym z najważniejszych wyzwań stojących przed nauką, a przyswojenie tej wiedzy będzie nie mniejszym wyzwaniem dla nauk humanistycznych a także tych religii, które chcą być w zgodzie z nauką. Tradycyjne spojrzenie na świat, zaprzeczające istnieniu biologicznie uwarunkowanej natury ludzkiej podsumował Steven Pinker w wydanej w Polsce w 2004 roku książce pod tytułem „Tabula rasa. Spory o naturę ludzką”. W bardziej dosłownym tłumaczeniu książka ta nosi tytuł „Tabula rasa. Współczesne wypieranie się natury ludzkiej”, znacznie silniej akcentujące przekonanie autora, że nadal ulegamy trzem mitom, leżącym u podstaw rozumienia ludzkiej natury: człowiek to niezapisana tablica, wychowanie może ukształtować jego umysł w dowolny sposób; człowiek pierwotny był z natury dobry, zepsuła go cywilizacja; niematerialny duch podejmuje wolne decyzje i kieruje działaniami materialnego ciała.

Genetyka zachowania (zwana również genetyką kognitywną) pokazała, że nie tylko poważne upośledzenia, lecz wiele cech charakteru i osobowości ma biologiczne podłoże. Badanie związków pomiędzy genami a różnego rodzaju zaburzeniami rozwojowymi i chorobami psychicznymi jest obecnie jedną z najszybciej rozwijających się gałęzi nauk o mózgu. Zagadnienie jest oczywiście bardzo skomplikowane, gdyż wymaga zrozumienia roli licznych, współpracujących ze sobą genów odpowiedzialnych za budowę neuronów i innych komórek wpływających na działanie układu nerwowego, powiązania procesów z udziałem dużych grup neuronów z zachowaniem organizmu i jego możliwościami poznawczymi.

Końcowym etapem tego procesu jest próba zrozumienia, jak stany mózgu tworzą nasz świat wewnętrzny, nasze myśli, wrażenia, radości i smutki. O ile zrozumienie korelacji aktywności genów z zachowaniem i możliwościami poznawczymi zwierząt i ludzi nie stwarza większych problemów to relacje pomiędzy stanami mózgu i stanami umysłu wydają się wielu ludziom nadal tajemnicze. Dlaczego tak się dzieje? Regulacja wewnętrznego stanu organizmu może odbywać się w większości w sposób automatyczny, nie wymagając podejmowania wielu decyzji. Przetrwanie we wrogim środowisku wymaga przewidywania, planowania i reagowania na różne niebezpieczeństwa, a więc reprezentacji i szybkiego przetwarzania informacji przydatnej do działania w świecie. Postrzegamy, podejmujemy decyzje i działamy. Skomplikowane mechanizmy poznawcze i emocjonalne, odpowiedzialne za te procesy są głęboko ukryte przed świadomym umysłem. Ich znajomość mogłaby jedynie przeszkodzić w sprawnym działaniu, tak jak myślenie o mechanice działania fortepianu może przeszkodzić pianiście w wykonaniu skomplikowanego pasażu. Komputery również wykonują określone zadania nic nie wiedząc o swojej konstrukcji. Są więc dobre powody, dla których niewiele wiemy o swoich umysłach i sama introspekcja niewiele nam powie.

Dopóki mózg dobrze działa wytwarzany przez niego obraz świata i reprezentacja „ja” w tym świecie wydaje się nie mieć wiele wspólnego z jego pobudzeniami. Wiemy jednak ponad wszelką wątpliwość, że takie powiązanie istnieje. Jak należy je rozumieć? Świat, który widzimy, nie jest rzeczywistym światem, widzimy i odczuwamy jedynie stany swojego umysłu. To, co jednemu z nas śmierdzi, innemu może pachnieć, zapach nie istnieje więc obiektywnie. To, co jednemu smakuje, innemu wydaje się obrzydliwe, smak również nie istnieje obiektywnie. Zgadzamy się więc, że świat smaków i zapachów jest bardzo subiektywny, ale to samo dotyczy innych zmysłów. Różnimy się słuchem, i to nie tylko słuchem muzycznym: wiele dźwięków mowy wyraźnie odmiennych dla chińskiego czy wietnamskiego ucha brzmi dla nas jednakowo. Dla japońskiego ucha „rój” i „luj” brzmi dokładnie tak samo. Osoby cierpiące na rozmaite afazje akustyczne nie rozpoznają odgłosów zwierząt lub sygnałów akustycznych. Każdy z nas widzi też świat nieco inaczej, dostrzega w różny sposób szczegóły, ruch, kolory. Złudzenia wzrokowe pokazują, jak statyczne obrazy kolorowych kół poruszają się, lub ten sam kolor wywołuje całkiem inne wrażenie w zależności od otoczenia. Zmysł równowagi i czucia też nie jest wyjątkiem i wprowadza nas czasem w błąd, tworząc wrażenie unoszenia się w powietrzu, poczucie czyjejś obecności w pustym pokoju i inne dziwne odczucia.

Rysunek ruchomy kół, ze strony WWW Akiyoshi Kitaoka

Jaki jest więc naprawdę ten świat? Zależy dla kogo! Postrzegamy wszystko w sposób subiektywny, gdyż odczuwamy tylko stany swojego mózgu. Mniej niż jedno na dziesięć milionów połączeń w mózgu łączy go ze światem zewnętrznym (dla wzroku mamy około 1.2 mln, a dla słuchu zaledwie 30.000 połączeń, podczas gdy liczba wewnętrznych połączeń w mózgu jest rzędu 100 bilionów). Korelacja stanu pierwotnej kory wzrokowej z sygnałami dochodzącymi z siatkówki wynosi zaledwie kilkanaście procent, za pozostałe ponad 80% odpowiadają informacje płynące z innych obszarów kory. Mózg zajmuje się więc przede wszystkim sam sobą, analizuje i interpretuje własne pobudzenia. Niezwykle gęsta sieć połączeń neuronów stwarza przestrzeń, w której możliwe jest bogate życie wewnętrzne.

Przypisujemy podejmowane decyzje swojemu ‘ja’, ale badając pobudzenia mózgu metodami neurobrazowania lub analizując jego elektryczne potencjały (czyli elektroencefalogram, EEG) można w niektórych eksperymentach dowiedzieć się jaką decyzję podjął mózg zanim dowie się o tym jego właściciel! Mówiąc bardziej precyzyjnie, można zobaczyć decyzję zanim procesy tworzące ‘ja’ przez ten mózg się o tym dowiedzą! O tym, jaką decyzję podjął mózg ‘ja’ dowiaduje się obserwując aktywność kory czołowej, a więc obszarów kontrolujących działanie, ruchy ciała. Działając na mózg zmiennym polem magnetycznym można też wpłynąć na podejmowane decyzje w sposób niezauważalny dla uczestniczącej w eksperymencie osoby: np. jeśli ma ona przypadkowo naciskać przyciski raz prawą a raz lewą ręką będzie przez 80% czasu naciskać przycisk prawą ręką, cały czas będąc przekonana, że podejmuje wolne decyzje.

Stosowane obecnie metody podglądania aktywności mózgu są nadal bardzo prymitywne. Początkowo metody te pozwalały odróżnić tylko proste wyobrażenia lub intencje dotyczące ruchu lewą lub prawą ręką lub nogą, ale w 2007 roku pokazano, że można też odróżnić znacznie bardziej subtelne stany mózgu, związane z podjęciem decyzji czy dodać czy odjąć dwie liczby od siebie. W jaki sposób podejmujemy decyzje? Pojawiają się w naszych umysłach i przypisujemy je swojemu ‘ja’, które w jakiś tajemniczy sposób ma dysponować wolą. Taki opis sytuacji oczywiście niczego nie wyjaśnia. Czasami pojawiają się też decyzje alternatywne, wahamy się pomiędzy kilkoma rozwiązaniami, ale ponieważ nie jesteśmy świadomi większości procesów zachodzących w mózgu nie zdajemy sobie sprawy z tego, skąd się te decyzje biorą. Najbardziej prawdopodobny mechanizm to szybkie, równoległe wyobrażanie sobie różnych sytuacji, zachodzące w korze przedczołowej i ich jednoczesna emocjonalna ocena. Konkurencja pomiędzy konfiguracjami pobudzeń neuronów realizujących te procesy pozostawia tylko te decyzje, które są optymalne z punktu widzenia spodziewanych emocji. Oceny dotyczą nie tylko wyników bezpośrednich działań, lecz mogą uwzględnić też dłuższą perspektywę, dlatego zgadzamy się na chwilowe cierpienie oczekując późniejszej nagrody.

Ten sam mechanizm pozwala nam rozstrzygać moralne dylematy. Pacjenci z uszkodzonymi obszarami brzuszno-przyśrodkowej części kory przedczołowej w prawej półkuli mózgu (rvm-PFC) mają problemy nie tylko z ocenami emocjonalnymi, ale również niektórymi ocenami moralnymi. Typowa sytuacja, w której bada się moralne zachowania obserwując jednocześnie działanie mózgu wygląda tak: wyobraź sobie, że kontrolujesz
zwrotnice na kolei i widzisz szybko nadjeżdżający z za zakrętu pociąg, a na torach pracują robotnicy. Jeśli nie zrobisz nic zginie pięć osób, jeśli przestawisz zwrotnicę pociąg zabije tylko jedną osobę. Prawie wszyscy w takiej sytuacji, łącznie z pacjentami z uszkodzonym obszarem rvm-PFC, decydują się na przestawienie zwrotnicy. Różnice dotyczą problemów, w których działanie powoduje dotkliwą stratę osobistą. Wyobraź sobie, że mieszkasz w wiosce, która jest przeszukiwana przez barbarzyńskich najeźdźców; wszyscy schowali się pod podłoga jednego z domów i zginą, jeśli zostaną odkryci. Twoje małe dziecko zaczyna płakać, czy będziesz go powstrzymywać aż się zadusi, czy też pozwolisz mu płakać, a tym samym wszystkim zginąć? W sytuacji takich osobistych konfliktów moralnych ujawniają się wyraźne różnice. Pacjenci z uszkodzonym obszarem rvm-PFC ponad dwukrotnie rzadziej wybierają zaduszenie własnego dziecka. W mniej drastycznych testach nie są zdolni by poświęcić krótkoterminowe zyski dla wysoce prawdopodobnej wygranej w dłuższym czasie. Mózg ma wysoce wyspecjalizowane obszary, których uszkodzenia powodują specyficzne, często bardzo subtelne objawy.

Postęp w dziedzinie obserwacji aktywności mózgu jest szybki i można sobie wyobrazić, że w przyszłości podglądanie aktywności mózgu pozwoli nam poznać prawdziwe intencje, upodobania, a nawet skryte myśli, których ‘ja’ tworzone przez tenże mózg jeszcze nie zna! „Poznaj samego siebie” nabierze wówczas całkiem nowego znaczenia. „Tyle o sobie wiemy, ile nas sprawdzono” również. Ponieważ moje ‘ja’, jeden z wielu procesów, jakie zachodzą w mózgu, nie do końca potrafi przewidzieć reakcje całego mózgu, potrafimy sami siebie zaskoczyć. Czasami sam się siebie pytam, czemu postąpiłem w sposób niezgodny ze swoimi przekonaniami lub oczekiwaniami? Nie wiem, podkusiło mnie jakieś licho, „to” było silniejsze ode mnie. Czym jest to ‘ja’ i czym jest „to coś” silniejsze niż ‘ja’, które się „siebie” pyta? Dopóki myślimy, że ‘ja’ mam mózg, a nie mózg ma „mnie”, takie paradoksalne stwierdzenia pozostaną niezrozumiałe. Tradycyjnie psycholodzy powoływali się tu na pojęcie „podświadomości”, ale nauki o mózgu oferują odmienny punkt widzenia. ‘Ja’ jest tu wewnętrznym modelem, zbiorem wyobrażeń o sobie pozwalającym na niezbyt doskonałe przewidywanie decyzji całego mózgu. Siedliskiem tych procesów jest kora przyśrodkowa, kora zakrętu obręczy, które aktywizuje się w testach werbalnych, przestrzennych, emocjonalnych, zawiązanych z rozpoznawaniem własnej twarzy, czyli w sytuacjach kontrastujących to, co odnosi się do ‘ja’ z tym, co odnosi się do innych. Są to dobrze ukryte obszary mózgu, rzadko ulegające uszkodzeniom, pośredniczące w komunikacji pomiędzy licznymi podkorowymi strukturami układu limbicznego, odpowiedzialnego za emocje i motywacje, pniem mózgu regulującym stan całego organizmu, ogólną przytomność i mechanizmy uwagi, oraz innymi obszarami kory mózgu.

‘Ja’ nie jest wcale monolitem. Na to, co określamy jako ‘ja’ składa się wiele funkcji. „Proto-ja” związane jest z podstawowymi informacjami o stanie ciała i wewnętrznym stanie mózgu, informacji, które mózg interpretuje jako poczucie istnienia. Jestem, bo czuję. Uściśleniem tych informacji jest orientacja ‘ja’ w przestrzeni: odczuwam świat z punktu widzenia swojego ciała, które zajmuje określoną pozycję względem innych obiektów. Autobiograficzne ‘ja’ wiąże się z wspomnieniami o sobie w różnych sytuacjach, pamięcią siebie, która nas określa. Społeczne ‘ja’ oparte jest na relacjach z innymi ludźmi, rolami, w
które się wcielamy. Znaczna część tych relacji jest trudna do werbalizacji, gdyż reakcje mózgu są zbyt złożone, by je opisać za pomocą słów. W szczególności działanie prawej półkuli mózgu oraz interpretacje stanów emocjonalnych, zmieniających się w ciągły sposób trudno jest uchwycić w słowach. W efekcie nie zawsze potrafimy sformułować, o co „nam” chodzi. Mój mózg jest mądrzejszy ode mnie, czyli od jednego ze swoich licznych procesów.

Czy można w pełni zintegrować swój model „ja”, poznając „siebie”? Co by to oznaczało? Opis tego, co dzieje się w mózgu, odróżniając przyczyny od skutków, nie jest możliwy przynajmniej z dwóch powodów. Po pierwsze, żaden z obszarów mózgu nie jest niezależny od pozostałych, ich aktywność jest na tyle silnie sprzężona, iż każdy z obszarów bierze w różnym stopniu udział w podejmowaniu decyzji czy przetwarzaniu informacji. Prosta przyczynowość liniowa typu „najpierw bodziec, potem reakcja” w takiej sytuacji nie ma zastosowania. Nawet w przypadku rozpoznawania przedmiotów obraz z siatkówki oka wędruje nie tylko przez pierwotną korę wzrokową mieszczącą się z tyłu głowy (w płacie potylicznym kory) w stronę dolnej części kory skroniowej, w której następuje rozpoznawanie obiektów. Informacja płynie też w przeciwnym kierunku oraz w inne strony, uzgadniając z czym mamy do czynienia dzięki współpracy pomiędzy korą wzrokową (dostarczającą dokładnych informacji), dolną korą skroniową (dostarczająca wstępnych hipotez) i korą potyliczną (pozwalającą skupić wzrok na miejscu, w którym jest obserwowany przedmiot).

Próby komputerowej analizy obrazu, które pomijały ten skomplikowany scenariusz, pomimo wielu lat wysiłków nie zaprowadziły zbyt daleko. Jeśli do rozwiązania problemu potrzebna jest grupa specjalistów, których kompetencje częściowo się nakładają, choroba lub eliminacja jednego z nich zmieni sposób działania całego zespołu, ale funkcje brakującego eksperta częściowo przejmą jego koledzy, chociaż kompetencja całego zespołu może się zmniejszyć.

Drugim powodem trudności opisu werbalnego działania mózgu są słabe, stopniowe zmiany aktywności w przypadku większość procesów, a więc działania nieświadome, konkurujące ze sobą równoległe scenariusze, pozwalające na szukanie optymalnych, konkurencyjnych interpretacji czy odpowiedzi. Dopiero po wstępnej ocenie emocjonalnej pobudzenia mózgu związane z najlepszymi rozwiązaniami osiągają taki poziom, przy którym inne części mózgu, np. te odpowiedzialne za mowę, mogą je jednoznacznie zidentyfikować.

Narastanie neuronalnej aktywności interpretowane jest jako przeczucie, że odpowiedź jest już blisko i za chwilę uda się nam ją rozpoznać, a wtedy możemy sobie z tego „zdać sprawę”, wypowiedzieć się lub podjąć jakieś inne działanie. Dlatego próba pełnego zrozumienia sposobu działania mózgu, w sensie jego werbalnego opisu (np. w stylu psychoanalizy), nie może nigdy się w pełni udać. Możemy jedynie podpierając się wynikami eksperymentów tworzyć coraz doskonalsze modele komputerowe zachodzących w mózgu procesów. Głębsze poznawanie „siebie” było dotychczas domeną psychoterapii i ścieżek duchowego rozwoju, wywodzących się z różnych tradycji religijnych. Umysł, stawiający sobie cele duchowe, pokazuje swoją autonomię, porównując się do jakiegoś ideału może wpłynąć na swoje działanie, przez trening mentalny zmienić powstające w mózgu odczucia tak, by je w pełni zintegrować ze swoimi wyobrażeniami i celami. Dalaj Lama często mówi o potrzebie kształcenia nie tylko intelektu, ale również „ciepłego serca”, współczucia i zdolności empatii. Znaczna część buddyjskich (w tym tybetańskich) praktyk religijnych była bezpośrednio nakierowana na taki trening umysłu. W nieco bardziej zawoalowany sposób podobne praktyki obecne są w innych tradycjach religijnych. Rozpoznanie centralnej roli emocji w procesach uczenia się i podejmowania decyzji, oraz potrzeba posiadania dobrych wzorców, pokazuje konieczność modyfikacji programów kształcenia. Na razie sprawdzanie reakcji emocjonalnych na różne produkty czy wypowiedzi polityków próbuje się stosować w neuromarketingu. Miejmy nadzieję, że najnowsze odkrycia badaczy mózgu pozwolą nie tylko na manipulację wyborcami czy klientami, ale zaprowadzą nas znacznie dalej na drodze do odkrycia naszych prawdziwych potrzeb, w poszukiwaniu „duchowego siebie”.

Nie ma żadnych wiarygodnych dowodów na istnienie umysłu bez mózgu. Coraz więcej odkryć pokazuje za to, jak pobudzanie różnych obszarów mózgu wywołuje określone wrażenia, jak dziwne efekty spowodować może załamanie się sprawnego działania tych obszarów. Halucynacje wzrokowe, słuchowe czy dziwne odczucia nie zawsze musza być związane z wyraźnie widocznymi uszkodzeniami, wystarczą lokalne pobudzenia nieco słabsze niż te, które wywołują ataki padaczki. Do najdziwniejszych zjawisk należą bez wątpienia przeżycia autoskopowe, czyli halucynacje wzrokowe i wrażenie podwojenia jakiegoś organu, kończyny lub całego ciała, widzenia swojego sobowtóra lub wyjścia poza własne ciało i patrzenia na siebie z zewnątrz. Autoskopia spotykana jest najczęściej w schizofrenii, u osób cierpiących na padaczkę, migreny, guzy mózgu, może się też pojawić w stanach ekstremalnych (np. powrotu do normalnego działania mózgu po śmierci klinicznej), lub u osób normalnych w wyniku zaburzeń sposobu reprezentacji przestrzeni. W ostatnich latach porównano ponad sto takich przypadków, a u kilku pacjentów wywołano wrażenia przebywania poza ciałem pobudzając ich mózgi słabym prądem. Okazuje się, że system reprezentacji przestrzeni w mózgu jest dość skomplikowany: inaczej reprezentujemy przestrzeń personalną, bliską ciału, a więc obszar w zasięgu naszego bezpośredniego działania, a inaczej przestrzeń nieco bardziej odległą. Zjawiska autoskopowe związane są z zaburzeniami przestrzeni personalnej z powodu błędnej integracji informacji wzrokowej, kinestetycznej (ruch i równowaga ciała), prioprioceptywnej (dostarczanej przez mięśnie i ścięgna) oraz czuciowej. Różne zaburzenia tego układu prowadzą do specificznych zjawisk autoskopowych.

W przeszłości zjawiska autoskopowe były przedstawiane jako jedne z dowodów istnienia umysłu niezależnie od mózgu. Sny, w których spotykamy zmarłych czy lecimy w odległe strony, interpretowane były jako dowód na wędrówkę dusz, powszechną w religiach szamańskich i w hinduizmie. Mieszkańcy Sumatry wiązali chorego człowieka sznurami by nie uciekła jego dusza. Dusza była tym, co animuje, czyli ożywia martwe ciało. Proste rozwiązania mają na celu stworzenie złudzenia, że coś rozumiemy, ale rzeczywistość jest znacznie bardziej skomplikowana i znacznie ciekawsza. Dzisiaj wszystkie funkcje przypisywane duszy przez teologów znalazły swoje wyjaśnienie, pojęcie to dawno utraciło swoje znaczenie, nawet część teologów próbuje od niego odejść i traktować w sposób metaforyczny. Pojęcie duszy jest jednak głęboko zakodowane w naszych umysłach w postaci rozlicznych metafor, więc z pewnością nie zniknie, niemniej z naukowego punktu widzenia  nie ma tu nic do wyjaśnienia. Są niezliczone dowody na to, że mózgi tworzą umysły. Po pierwsze, związek specyficznych uszkodzeń mózgu z zaburzeniami poznawczymi, afektywnymi, zaburzeniami i chorobami osobowości (zwanymi dawniej chorobami duszy) nie pozostawia wątpliwości, że mózg nie jest żadnym odbiornikiem decyzji niematerialnego składnika, lecz te decyzje tworzy. Nie mogę przecież sądzić, że moja dusza podejmuje wolne decyzje, ale moje ‘ja’ nic o tym nie wie i zamiast przypadkowo wybierać raz lewy, raz prawy przycisk, wybieram ciągle ten sam, bo pole magnetyczne zniekształca odbiór „moich” decyzji. Taka dusza byłaby jakimś abstrakcyjnym bytem, nie mającym ze mną nic wspólnego.

Po drugie, nawet proste neuropodobne modele komputerowe wytwarzają pewne funkcje umysło-podobne, np. charakterystyczne dla naszego myślenia procesy skojarzeniowe, a badanie ich uszkodzeń daje interesujące modele syndromów neuropsychologicznych. Od połowy lat 90. rozwija się dziedzina zwana psychiatrią komputerową, tworząca neuronowe modele wyjaśniające na czym polegają choroby psychiczne i w jaki sposób przejawiają się różne zaburzenia przepływu informacji w mózgu. Im bardziej dokładne symulacje tym więcej funkcji umysłu udaje się w ten sposób stworzyć.

Jak więc należy rozumieć relację umysł – mózg? Na mózg możemy patrzeć jak na substrat, który stwarza przestrzeń dla zdarzeń psychicznych, tak jak konfiguracje atomów są substratem do tego, by tworzyć fizyczne obiekty i zdarzenia z ich udziałem. Na ekranie telewizora mogą pojawiać się różne obrazy dzięki pobudzeniom elementów wysyłających światło. Obrazy na ekranie są tylko konfiguracjami pobudzeń świecących elementów, tak jak obrazy wewnątrz mózgu są konfiguracją pobudzeń mikroobwodów neuronowych. Zasadnicza różnica polega na tym, że neurony ucząc się nabierają skłonności do powtarzania tych samych wzorców pobudzeń, podobnie jak woda spływająca po miękkim zboczu ma tendencję do spływania tymi samymi rowkami i taka erozja tworzy specyficzne struktury w glebie. Takie porównanie pojawia się w indyjskim tekście „Pytania króla Milindy” napisanym około 2100 lat temu. Na pytanie skąd się biorą skłonności u ludzi, buddyjski mędrzec Nagasena odpowiada pytaniem: „Kiedy pada deszcz, którędy płynie woda?” „Będzie płynąć po pochyłościach gruntu.” „A gdyby deszcz spadł ponownie, dokąd by płynęła woda?” „Płynęłaby w tym samym kierunku, co pierwsza woda”. Tak właśnie powstają skłonności a przedstawiony tu opis stanowi podstawę neurologicznej teorii uczenia się, opisanej przez kanadyjskiego psychologa Donalda Hebba w 1949 roku. Jego reguła zwykle przedstawiana jest w lapidarnej formie: „neurony, które są często jednocześnie aktywne, silniej się ze sobą łączą”.

W powtarzalnych wzorcach aktywacji sieci neuronowych zawarte są ślady pamięci. Wspomnienia lub wyobrażenia przywołują konfiguracje pobudzeń neuronów zbliżone do tych, które powstały w momencie przeżywania danej sytuacji. Pamięć jest „zamrożoną przeszłością” mózgu. Wynikające z przezywanych, przypominanych lub wyobrażanych stanów emocje są z jednej strony układem pobudzeń neuronów, lecz z drugiej strony tworzą realne zdarzenia w przestrzeni naszych umysłów; mózg jest tylko substratem pozwalającym im zaistnieć. Fizyka i chemia powie nam jakie siły utrzymują razem atomy, składające się na materiał, z którego zrobiony jest pomnik, jednak nie będzie mogła odpowiedzieć na pytanie po co go postawiono i dlaczego akurat w tym miejscu. Podobnie neurofizjologia może opisać stany mózgu w terminach pobudzeń neuronów, natomiast to, dlaczego pojawiają się konkretne stany a nie inne wynika z całej osobistej historii, a nawet prehistorii naszego gatunku. Życie wewnętrzne każdego z nas jest niepowtarzalne. Powodów, dla których stara melodia wywołuje we mnie liczne wspomnienia i stany emocjonalne nie można w pełni zrozumieć na poziomie opisu pobudliwości neuronów, potrzebna jest do tego znajomość mojej indywidualnej historii. Sprawny mózg tylko umożliwia powstanie wspomnień i odtworzenie związanych z nim przeżyć, ale informacje o połączeniach neuronów i ich wzajemnej pobudliwości nie wystarczą do nadania sensu powstającym pobudzeniom. Umysł jest strumieniem zdarzeń mentalnych (wewnętrznych interpretacji konfiguracji pobudzeń neuronów) i relacji pomiędzy tymi zdarzeniami. Relacje zakodowane są w mózgu jako tendencje do skojarzeń pomiędzy mentalnymi zdarzeniami. Pomimo materialnego podłoża z wewnętrznej perspektywy umysł nie jest materialny. Jest to jednak całkiem inny rodzaj niematerialności niż wyobrażali sobie średniowieczni czy antyczni filozofowie, dla których niematerialny duch był rodzajem prostej, niezniszczalnej substancji. Złożone życie wewnętrzne wymaga złożonego, dobrze chronionego substratu, jaki znajdujemy wewnątrz czaszki.

Mózg obserwuje sam siebie, zdając sobie sprawę zarówno ze stanu, w jaki otoczenie się w nim „odbija” (metafora umysłu jako lustra pojawiała się w różnych tradycjach filozoficznych), jak i z własnych stanów wewnętrznych. To, co nazywam swoim ‘ja’, ‘moja osobowość’ a także ‘moja świadomość’ to tylko kilka z wielu procesów, które realizuje. Czy świadomość naprawdę jest takim problemem dla nauki jak się to zwykle przedstawia? Każdy sztuczny system o wysokim stopniu złożoności (nazwijmy go artilektem, czyli sztucznym intelektem), zdolny, podobnie jak nasz mózg, do komentowania własnych stanów, musi być też zdolny do „zdawania sobie sprawy” z tego, co się w nim dzieje, a więc do opisu swoich wrażeń, odczuć i reakcji w sposób, który można będzie określić jako świadomy. Artilekt mógłby na przykład powiedzieć: „Cóż to za odcień czerwieni, dawno nie widziałem takiego zachodu Słońca, przypomina mi przyjemne chwile spędzone na dyskusji z moim przyjacielem”. W sztucznym mózgu artilektu nie będzie zaprogramowanych wypowiedzi, będą tworzone na podstawie oceny własnego stanu wewnętrznego opartego na wcześniej zapamiętanych stanach oraz ocenie emocji wywołanych przez informację wzrokową.

Świadomość powinna być naturalną własnością systemu zorganizowanego w mózgopodobny sposób, wynikiem procesu komentowania własnych stanów wewnętrznych. Jeśli tak jest w istocie to świadomość może pojawić się w sztucznych systemach. Świadomość nie jest czynnikiem sprawczym naszego działania czy myślenia. Nie wiem przecież jak „świadomie” wywołać określone myśli, wpaść na pomysł, mogę jedynie skupić się nad problemem i oczekiwać, że coś mi przyjdzie do głowy. Tak będzie pod warunkiem, że mój mózg został odpowiednio wytrenowany i potrafi skojarzyć ze sobą już znane fakty. Podglądanie mózgu w czasie rozwiązywania problemów, w których pojawia się gwałtownie rozwiązanie (nazywane w psychologii procesem wglądu, lub określane jako proces Eureka!) pokazuje silne zaangażowanie prawej półkuli mózgu, która potrafi analizować problem w sposób intuicyjny, na niewerbalnym, abstrakcyjnym poziomie. Trudności w zdefiniowaniu pojęcia ‘świadomość’ nie przeszkadzają wcale w badaniach, szuka się bowiem takich sytuacji, w których stajemy się nagle świadomi, np. patrząc i niespodziewanie dostrzegając ukryty element obrazu lub alternatywną interpretację w przypadku obrazów niejednoznacznych. Potrafimy obserwować tego typu korelaty świadomości, jak też ocenić z grubsza stan emocjonalny na podstawie rejestrowanej aktywności mózgu. Nie wiemy jeszcze jak odczytać myśli czy też subtelne informacje na temat wrażeń doświadczanych przez daną osobę, ani nawet czy takie informacje zawarte są w sygnałach mierzonych za pomocą obecnie używanych metod. Badania w tej dziedzinie są obecnie prowadzone na szeroką skalę, może to więc być kwestią niezbyt odległej przyszłości.

Modele komputerowe są na razie dość prymitywne, daleko jest do tego by stworzyć sztuczną strukturę, która przypominałaby to, co mamy w mózgu. Trudno nam sobie wyobrazić świadomość w sztucznych urządzeniach, tak jak kiedyś trudno było sobie wyobrazić przesyłanie dźwięków lub obrazów przez druty a potem bez przewodów. Malutkie wgłębienia na płycie DVD niosą informację o dźwięku i obrazie, ale dopiero odtwarzacz i
telewizor potrafi je zamienić na rzeczywisty obraz i dźwięk. Sieci neuronowe w mózgu mogą pamiętać wiele wrażeń i faktów ale potrzebny jest cały organizm by „odtworzyć” zawarte w tych sieciach informacje. Artilekty będą miały inne zmysły i inaczej będą oceniać swoje stany wewnętrzne, dlatego ich świat wewnętrzny, a więc i ich świadomość, nie będzie identyczna z naszą (ludzie różnią się tu pod wieloma względami, zwłaszcza w przypadku świadomości refleksyjnej). Ogólne poczucie istnienia może jednak być podobne.

W tej chwili na świecie realizowanych jest kilka dużych projektów zmierzających do stworzenia złożonych, sztucznych systemów, które wykażą jakieś ślady świadomości. W niezbyt odległej perspektywie możliwe staną się symulacje mózgu na poziomie miliardów neuronów i stu trylionów połączeń. Przymiarki do takich symulacji zrobiono już kilka lat temu, ale jedna sekunda symulacji na 27 komputerach trwała 50 dni. W ciągu 10 lat dzięki postępowi w konstrukcji komputerów symulacje o złożoności potrzebnej do opisania w szczegółach całego mózgu będą dość rutynowe. W listopadzie 2007 roku zakończono pierwszy etap bardzo ambitnego projektu „Blue Brain”, prowadzonego od 2005 roku przez Politechnikę w Lozannie (EPFL) przy pomocy firmy IBM. Stworzono bardzo dokładny program, który na podstawie obserwacji kolumny kory mózgu symuluje liczącą kilkadziesiąt tysięcy neuronów strukturę ustanawiając pomiędzy neuronami w trzech wymiarach 30 milionów połączeń synaptycznych. Dzięki takim symulacjom możemy się upewnić, czy modele teoretyczne naprawdę wiernie opisują biologiczną rzeczywistość. Tak szczegółowy model kolumny korowej pozwala na robienie doświadczeń w komputerze (in silico), integrując w sobie gromadzoną od stu lat wiedzę na temat komórkowej budowy kory mózgu. Następny krok to z jednej strony symulacje neuronów na poziomie molekularnym i genetycznym, potrzebne dla zrozumienia wpływu leków na działanie kory mózgu, a z drugiej strony uproszczenia symulacji indywidualnych kolumn w celu stworzenie modelu całego mózgu.

Zajmie to jeszcze kilka lat, ale na razie wszystko wskazuje na to, że jesteśmy na dobrej drodze.

Włodzisław Duch zajmuje się neuroinformatyką kognitywną, jest kierownikiem Katedry Informatyki Stosowanej UMK oraz Prezydentem European Neural Network Society. Jego strona dostępna jest po napisaniu „W Duch” w dowolnej wyszukiwarce WWW.

http://www.fizyka.umk.pl/publications/kmk/07-Mozg-Newsweek.pdf

Posted in biologia | Otagowane: , , | Leave a Comment »

Ewolucja, bóg, paleobiologia

Posted by psychoneurocybernauta w dniu 31 grudnia 2008

Rozmowa z Profesor Zofią Kielan-Jaworowską — paleobiologiem, laureatką polskiego Nobla – Nagrody Fundacji na rzecz Nauki Polskiej 2005.

Rzeczpospolita: „Chrześcijanin może wierzyć w bożą opatrzność i równocześnie, że życie może rozwijać się w procesach przypadkowych mutacji i naturalnej selekcji” – stwierdził dyrektor Watykańskiego Obserwatorium Astronomicznego. Czy naukowiec również może?

prof. Zofia Kielan-Jaworowska: Mam kilku kolegów, którzy to potrafią, choć ja nie wiem, w jaki sposób. Najwyraźniej jest im to potrzebne. Kiedyś jeden z przyjaciół powiedział mi z pewną wyższością, że nie każdy ma zdolność odczuwania pojęcia Boga. Odpowiedziałam mu, że mam zdolność odczuwania tego, co on nazywa Bogiem, a ja nazywam wszechświatem, ale nie mogę zaakceptować tego pojęcia według wyobrażeń pasterzy z Mezopotamii sprzed pięciu tysięcy lat. Uważam, że ludzie, nie potrafiąc zrozumieć nieskończonego wszechświata, stwarzają sobie jego symbol w postaci Boga. Wielu twierdzi, że człowiek został przez niego stworzony, gdy tymczasem sytuacja jest dokładnie odwrotna. To człowiek stwarza bogów — substytuty rzeczywistości, gdyż ułatwia mu to zaakceptowanie tego, czego nie rozumie.

W sporze o początek powstania świata, jaki trwa między ewolucjonistami a zwolennikami teorii inteligentnego projektu, stoi pani po stronie tych pierwszych.

Oczywiście, tak jak wszyscy paleontolodzy. Teoria inteligentnego projektu powstała na południu Stanów Zjednoczonych, bardziej zacofanym niż północ. W kilku amerykańskich miastach zbudowano ostatnio muzea ewolucji odtworzonej w sposób, w jaki opisuje ją Biblia. Ja mam wielu przyjaciół wśród tamtejszych paleontologów i żaden z nich nie przyjmuje teorii inteligentnego projektu. Jest ona bowiem sprzeczna z naszym doświadczeniem i wiedzą. Jak wykształcony człowiek może wierzyć, że magicznym zaklęciem Bóg stworzył człowieka, a następnie wyjął z niego żebro i stworzył kobietę? Zadziwia mnie to, że miliard ludzi na świecie bezkrytycznie przyjmuje te adoptowane na potrzeby Starego Testamentu i błędnie przetłumaczone sumeryjskie teksty. Wiedza o wszechświecie tych, którzy kilka tysięcy lat temu pisali Stary Testament, była o niebo mniejsza niż uczniów współczesnych szkół podstawowych. Pełen jest on naiwnych sprzeczności, na przykład takich, że pierwszego dnia Bóg stworzył światło, a Słońce stworzył dnia czwartego. Skoro nie było Słońca, to skąd przez pierwsze trzy dni brało się światło na Ziemi?

Czy w procesie ewolucji, który pani badała, wszystko jest wytłumaczalne, poznany jest cały łańcuch przyczynowo-skutkowy? A może istnieje jednak coś, co można właśnie wytłumaczyć jako dzieło boskie?

Niczego takiego nie ma. Nasza wiedza o ewolucji nie jest pełna, istnieją brakujące ogniwa, gdyż to, co odnajdujemy w ziemi, jest zapewne ledwie jedną milionową tego, co dawniej żyło.

Skoro wiedza jest niepełna, jest więc niedoskonała.

Oczywiście, że jest niedoskonała i nigdy doskonała nie będzie, bo nieskończony wszechświat jest nieogarniony. Nauki przyrodnicze rozwinęły się w ciągu zaledwie ostatnich 200 lat. Przez ten czas małym zespołem ludzi badamy historię Ziemi, która liczy cztery i pół miliarda lat. Mimo to, proces ewolucji jest bardzo dobrze udokumentowany. Luki nie podważają teorii ewolucji i są stale wypełniane.

Jakie luki?

Do niedawna na przykład zagadką było, w jaki sposób powstały wielkie ssaki morskie — wieloryby. Wreszcie w roku 2001 odkryto w Pakistanie szczątki ich przodków, którzy byli już przystosowani do pływania, ale jeszcze mogli chodzić po lądzie. Udowodniono, że wieloryby wyodrębniły się ze ssaków parzystokopytnych. Ale są to tylko niektóre ogniwa długiego szeregu ewolucyjnego i oczekujemy na dalsze odkrycia.

Głosi pani kontrowersyjną tezę, że człowiek pojawił się na Ziemi przez przypadek, mało tego, nawet w ogóle mogło się to nie wydarzyć.

Jestem o tym przekonana. Doszłam do tego wniosku w wyniku badań, jakie prowadziłam przez większą część życia. Zajmowałam się ssakami ery mezozoicznej, które pojawiły się na Ziemi 225 mln lat temu. Od tego czasu należy datować historię powstawania człowieka. Gdyby nie pewne zdarzenia, które zaszły w ciągu pierwszych 160 mln lat historii ssaków, człowiek mógłby rzeczywiście nigdy nie zaistnieć.

Co zadecydowało o tym, że istniejemy?

Ssaki powstały z gadów ssakokształtnych, które pojawiły się na Ziemi mniej więcej 320 mln lat temu. W ich ewolucji wystąpiło rzadkie w historii kręgowców lądowych zjawisko zmniejszania się rozmiarów. Działo się to w karbonie, permie i w triasie, czyli jeszcze do około 230 mln lat temu.

W tym czasie gady ssakokształtne przechodziły ze zmiennocieplności na stałocieplność. W zimnym klimacie, jaki panował w permie, zdolność utrzymania stałej temperatury ciała była korzystna przy dużych rozmiarach, bo zwalniała one proces stygnięcia. Sądzimy, że zwierzęta te nie posiadały jeszcze mechanizmów szybkiego oziębiania ciała. Kiedy klimat zaczął się ocieplać, a pod koniec triasu, 230 mln lat temu robił się już gorący, jedyną możliwością przetrwania powstających wówczas ssaków było drastyczne zmniejszanie rozmiarów i przejście na nocny tryb życia.

Dalsza historia ssaków, a więc powstania człowieka, związana jest z historią dinozaurów…

To prawda. Około 70 proc. współczesnych ssaków jest zwierzętami prowadzącymi nocny tryb życia. To pamiątka z pierwszych 160 mln lat naszej historii, kiedy dzienne nisze ekologiczne zajęte były przez dinozaury. W ich cieniu ssaki żyły przez ponad 2/3 swojej historii. Nie zmarnowały jednak tego czasu. Wykorzystały go do rozwoju mózgu. Nocne zwierzęta musiały mieć wyostrzone zmysły, zwłaszcza węch i słuch. Kiedy 65 mln lat temu, pod koniec okresu kredowego dinozaury wymarły, część ssaków zaczęła stopniowo zajmować ich dzienne nisze ekologiczne i powiększać swoje rozmiary. W rezultacie, gdy w erze mezozoicznej masę większości ówczesnych ssaków mierzymy w gramach, to już po sześciu milionach lat od wymarcia dinozaurów w tonach — różnica miliona razy!

Co po przejściu na stałocieplność i rozwoju mózgu było kolejnym etapem w tym procesie?

Ssaki naczelne, do których i my należymy, zaczęły prowadzić nadrzewny tryb życia. To, że wspinały się pionowo po pniach drzew, wpłynęło na powstanie postawy wyprostowanej. W kończynach górnych rozwinął się przeciwstawny palec, co później umożliwiło wytwarzanie narzędzi. W tym okresie rozwinął się także zmysł równowagi.

Około pięciu i pół miliona lat temu w rejonie Morza Śródziemnego nastąpił okres silnej suszy i zmniejszyła się powierzchnia lasów. Ssaki naczelne mogły już wtedy chodzić na dwóch kończynach i przeszły do życia na sawannach. W ten sposób drogą kolejnych zmian powstał człowiek.

To, o czym pani mówi, w dużej mierze wiadome jest dzięki badaniom skamieniałości. Jak to się dzieje, że na podstawie budowy żuchwy czy miednicy można się tak wiele dowiedzieć?

Anatomia człowieka i innych kręgowców odzwierciedla się w systemie kostnym. U ssaków puszka mózgowa jest całkowicie wypełniona przez mózg. W związku z tym jej wewnętrzny odlew zachowany w stanie kopalnym wygląda niczym ten organ. Widać na nim, jaki kształt miały płaty węchowe, półkule mózgowe, móżdżek, a z tego można wyciągnąć wnioski o rozwoju zmysłów i trybie życia.

Do zbadania budowy mózgu wieloguzkowców — wygasłej grupy pierwotnych ssaków roślinożernych żyjących w erze mezozoicznej — użyłam specjalnego mikrotomu, przyrządu do skrawania metali z nożem zbudowanym z niezwykle twardej stali z dodatkiem tytanu. Zatapiałam czaszki w żywicy epoksydowej i cięłam je na skrawki grubości 25 mikronów (mikron — tysięczna część milimetra). W ten sposób udało mi się właśnie odtworzyć przebieg nerwów, naczyń krwionośnych głowy i budowę mózgu.

Czy podobnie jak przypadkiem pojawiliśmy się na Ziemi, tak przez przypadek możemy z niej zniknąć?

Aby tak się stało, musiałby nastąpić kataklizm tak wielki, że zniszczyłby całe życie na Ziemi. Nie wyobrażam sobie, by to się stało zanim nasze Słońce po dalszych siedmiu miliardach lat istnienia zacznie wchodzić w postać czerwonego olbrzyma, by w efekcie zgasnąć. Jest więc dość czasu, by znaleźć sposób na kontynuację trwania nas samych i innych gatunków tam, gdzie nie dotrze zabójczy żar podstarzałego Słońca. Może tego dokonać tylko ludzki mózg, owoc ewolucji.

Rozmawiała Izabela Redlińska.

Tekst opublikowany pierwotnie w dzienniku „Rzeczpospolita”, 7.4.2006.

Posted in biologia, ewolucja | Otagowane: , , , | Leave a Comment »

Niebezpieczeństwa biokolonizacji

Posted by psychoneurocybernauta w dniu 23 listopada 2008

Przeciętny komunikat, jaki otrzymuje przeciętny odbiorca czytający informacje związane ze stykiem biotechnologii i gospodarki, jest mniej więcej taki: nowe technologie związane z poznawaniem struktury genetycznej roślin, zwierząt i ludzi są kolejnym etapem postępu – tak, jak inżynierowie wieku XIX dzielili, zbierali i przetwarzali przeróżne części nieożywione, minerały czy paliwa kopalne, tworząc maszyny i produkty ery przemysłowej, tak dzisiejsi bioinżynierowie manipulują materią żywą tworząc nowe możliwości zysku oraz – w automatyczny sposób – nową erę prosperity dla ludzkości nowego wieku. Obietnica zysku dla wszystkich przesłoniła pytania, które pojawiają się wyjątkowo rzadko: Czy powinniśmy zmieniać strukturę genetyczną żywej części przyrody w imię zysku lub użyteczności? Czy jest jakaś granica dla liczby lub rodzaju ludzkich genów aplikowanych zwierzętom bądź odwrotnie? Czy nasz zespół genów jest wspólną własnością, czy też może stać się własnością korporacji lub rządów?

Choć większość badań opinii społecznej w krajach, w których biotechnologia rozwija się najszybciej, pokazuje, że ludzie chcą brać udział w poszukiwaniu odpowiedzi na te pytania, że są dla nich ważne, a brak odpowiedzi rodzi spiskowe teorie, to jednak melanż polityki i ekonomii prowadzi do sprawnego spłycania i dostarczania dawki public relations w miejsce odpowiedzi. Biorąc pod uwagę, jak wielkie pieniądze i władza są do wygrania, nie powinniśmy się dziwić, że obecny sekretarz ds. obrony USA, Donald Rumsfeld, był głównym dyrektorem Searle Pharmaceuticals (obecnie część wielkiej korporacji Monsanto Pharmacia). Wpływy i interesy związane z najnowszą biotechnologią dawno już przekroczyły granice laboratoriów.

W całej Azji ryż jest podstawą różnorodności biologicznej i kulturowej, ludzie postrzegają go jako część swej historii, krajobrazu, religii. W Indiach jest często określany słowem prana – oddech życia. W niektórych częściach Indii w pierwszy dzień nowego zasiewu rolnicy wymieniają się ziarnami i składają ich część w ofierze lokalnemu bóstwu. Słowo dhana oznacza ryż, ale także dar i bogactwo.

Przed rozpoczęciem „Zielonej Rewolucji” w Indiach było 200 tys. odmian ryżu (1). Jej końcowym efektem było wydatne zmniejszenie tej ilości odmian oraz zwiększenie liczby chorób i szkodników, z którymi musieli się borykać drobni rolnicy. Panaceum na ów problem miały stanowić genetyczne modyfikacje roślin, wykonywane w lwiej części przez korporacje z siedzibami w USA. Przykładem może być odmiana ryżu nazwana „złotym”, która miała przeciwdziałać ślepocie – dodajemy trochę genów z żonkila i bakterii i otrzymujemy ryż z dużo większą zawartością beta-karotenu, który w naszych organizmach zamienia się w witaminę A. Jednak ryż odpowiedzialny jest tylko za bardzo niewielką część spożycia witaminy A, cała reszta pochodzi z zielonolistnych ziół i warzyw. Brak tej witaminy występuje w Indiach tam, gdzie zniszczona została wcześniejsza bioróżnorodność będąca filarem rolnictwa. „Cudowna” technologia jest oparta na krótkowzrocznym myśleniu – to przemysłowe rolnictwo staje się przyczyną braku witaminy A u Hindusów i tylko przez powrót do zasad bioróżnorodności będzie można rozwiązać problem.

Ale na zastępowaniu darmowej różnorodności przez drogą monokulturę się nie kończy. Kilka lat temu pewnej korporacji biotechnologicznej udało się opatentować jedną z najbardziej znanych odmian ryżu – „basmati” (patent numer 566484) (2). Celera Genomics, jedna z bardziej znanych bio-firm, zaoferowała niedawno dostęp do danych genomu ryżu za 30 mln dolarów na 5 lat.

W poszukiwaniach przyczyn naszych „globalnych” problemów jesteśmy przyzwyczajeni do patrzenia tam, gdzie – jak nam się wydaje – są one widoczne gołym okiem: koncentrujemy się na decyzjach głów państw, gremiów międzynarodowych czy też przysłowiowej „ilości dywizji”. Ci, którzy zajmują się badaniem systemów (naturalnych, ludzkich) znają natomiast mnóstwo przykładów ilustrujących sytuację, w której bardzo mała, pozornie nieznacząca zmiana, może prowadzić do nieprzewidywalnych skutków. W przypadku biokolonizacji stało się właśnie tak, że w praktycznie niezauważalny sposób, bez żadnych fanfar wojennych i manifestów, znaleźliśmy się w świecie, w którym prawnikom występującym w imieniu brytyjskiej placówki naukowej i teksańskiej firmy nie wydawało się absurdem wystąpienie do Europejskiego Biura Patentowego o zezwolenie na opatentowanie… kobiet, które byłyby genetycznie zmodyfikowane w celu produkcji ulepszonych ludzkich protein w gruczołach mlecznych. Podanie było tak przygotowane, żeby do grupy mogącej podlegać opatentowaniu włączyć wszystkie samice ssaków, wespół z ludzkimi. Prawnik argumentował, że aplikacja była przygotowana w sposób umożliwiający włączenie kobiet do tej populacji, ponieważ „ktoś, gdzieś może zdecydować kiedyś, że ludzie mogą podlegać opatentowaniu” (3).

Za ów mały kamyk uruchamiający cały proces biokolonizacji ludzie zajmujący się nią na co dzień uważają decyzję amerykańskiego Sądu Najwyższego, który w 1980 r. ogłosił zaskakujący werdykt oznaczający rozpoczęcie procesu patentowania życia. Kilka lat wcześniej firma General Electric wystąpiła do Biura Patentowego o patent na konsumujące ropę bakterie stworzone przez jednego z pracowników, niejakiego Chakrabartiego. Urząd Patentowy odrzucił prośbę argumentując, że na podstawie tradycyjnej doktryny prawnej organizmy żywe („twory natury”) nie podlegają opatentowaniu. Jednakże GE, jako korporacja odpowiednio silna i zdeterminowana, złożyła apelację, która opierała się na założeniu, że formy życia są jedynie produktami chemicznymi, więc mogą być patentowane w takim samym stopniu, co inne „towary”. Sąd Najwyższy przyznając patent GE stwierdził, że sednem sprawy nie jest „odpowiednie rozróżnienie pomiędzy organizmem żywym a materią nieożywioną”, lecz to, czy istoty żywe mogą być postrzegane jako „wynalazki człowieka” (4). W tym momencie zbiegły się sprawy biotechnologii, prawa oraz ekonomii, ponieważ wynalazek człowieka jest traktowany w teorii ekonomii jako towar. Co więcej, cechy jakościowe „towaru”, które są konstytutywne w naukach naturalnych, są niedostrzegane przez ekonomię, która patrzy na wynalazek (towar) wyłącznie od kątem jego wartości wymiennej.

W 1988 r. Biuro Patentowe USA rozszerzyło decyzję w sprawie Chakrabartiego na genetycznie modyfikowane rośliny i nasiona – nastała era gorączki patentowej. Rozpoczęcie w latach 90. procesu patentowania ludzkich genów pociągnęło za sobą strumień funduszy i inwestycji płynących do sektora genetyki i biotechnologii. Z punktu widzenia historii ekonomii można wyraźnie rozpoznać proces, którego patentowanie życia jest częścią – w naszym języku nosi on nazwę „ogradzania” i sprowadza się po prostu do prywatyzacji i monopolizacji tego, co zwykliśmy nazywać dobrem wspólnym. Różnica polega na tym, że tym razem ogradzaniu nie jest poddawana ziemia, ani nawet woda pitna (jak to ma miejsce w coraz większej liczbie krajów); tym razem ogradzaniu podlega nasza spuścizna genetyczna.

Pytanie, które zadają sobie firmy „ogradzające” pulę genetyczną, jest zawsze takie samo: „Jaki zysk, poza sprzedażą patentu czy licencji, może przynieść dana modyfikacja?”.

Patrząc np. na „doskonalenie” świata roślin widać, że większość modyfikacji genetycznych zmierza do tego, aby warzywa i owoce mogły przynosić większe plony, przetrwać daleki transport, długo leżeć na półce nie psując się lub też żeby poprawić ich wygląd. Natomiast ilość zmian zmierzających do poprawienia wartości odżywczych jest znikoma.

Założenie o panowaniu paradygmatu finansowego w przypadku tego, co jemy lub czym się leczymy prowadzi nieodmiennie do ustanawiania w tych sferach dominacji tylko jednego celu działania: wzrostu zysków. Najbardziej znanym przykładem tego imperatywu jest hormon BGH wyprodukowany przez Monsanto w celu zwiększania produkcji mleka u krów. Skutki BGH dla samych krów oraz spożywających mleko ludzi były tragiczne i przez długi czas ukrywane przez zainteresowaną firmę, starająca się nie dopuścić do publikacji materiałów materiałów prasie i telewizji. (5)

Zwracam uwagę na centralną rolę wzrostu również dlatego, żeby pokazać, iż w świecie, w którym okres podejmowanych decyzji inwestycyjnych jest bardzo często krótszy niż pół roku (perspektywa akcjonariusza) koncerny biotechnologiczne muszą rosnąć równie szybko jak inne firmy, jeśli chcą konkurować o kapitał. Zgodnie z opinią jednego z szefów firmy dokonującej wstępnych testów dla wielkich korporacji farmaceutycznych, minimalny, tolerowany wzrost (10-20% rocznie) oznacza dla typowego giganta zidentyfikowanie od 3 do 5 pewnych kandydatów na nowy przebój farmaceutyczny w ciągu roku. (6) Niezależnie od tego, czy nauka jest w danym momencie w stanie dostarczyć ich, czy też nie, muszą się one znaleźć na rynku.

Podobnie jest oczywiście w przypadku mnóstwa innych sektorów gospodarki – myślę jednak, że nie trzeba zajmować się nauką, żeby widzieć różnicę między nowym programem Microsoft’u, a nowym lekiem czy zmodyfikowaną bakterią bądź rośliną.

Zapewne niewielu z nas myśli o tym, że sposób zaprojektowania systemu gospodarczego wpływa na selekcję ludzi, którzy będą nim kierować. Ale przykład biznesu biotechnologicznego pokazuje, w jakim stopniu schemat, w którym się znajdują, wpływa na ich widzenie relacji występujących w przyrodzie (oraz na materiały edukacyjne, które firmy tego typu sponsorują na całym świecie). W 1992 r., podczas debaty na temat wejścia jednego z kilku głównych koncernów agro-produkcyjno-dystrybucyjno-promocyjnych – firmy Cargill, do Indii, szef tej firmy stwierdził: „Przynosimy hinduskim farmerom nowe technologie, które uniemożliwiają pszczołom uzurpację procesu zapylania”. Podczas spotkań mających prowadzić do stworzenia zasad tzw. BioBezpieczeństwa w ramach ONZ, firma Monsanto rozprowadzała literaturę, według której „chwasty kradną światło słoneczne”. Korporacje tego typu widzą sieć zależności i odnawiających się cykli życia jako „kradzież” ich własności. (7) Warto przy tym pamiętać, że kiedy słyszymy słowo „produktywność”, to oznacza, że bierzemy pod uwagę przychód pieniężny wygenerowany przez możliwie homogeniczny proces. Jak mówi o tym w swej książce „Stolen Harvest” (Skradzione zbiory) Vandana Shiva, pogląd opisujący zapylanie jako „kradzież pszczół” i twierdzenie, że zróżnicowane rośliny (wszystko, co nie jest uprawą, na którą akurat jest popyt na rynku globalnym, staje się chwastem) „kradną” światło, automatycznie prowadzą do zastępowania zróżnicowanych, naturalnie zapylanych odmian przez hybrydy i niszczenia bioróżnorodności flory poprzez środki i rośliny „chwastobójcze”.

Jedna z najbardziej znanych spraw związanych z patentowaniem życia wiąże się z osobą Johna Moore’a, mieszkańca Kalifornii, który trafił do szpitala z powodu pewnego rodzaju białaczki. Część jego śledziony została usunięta, ale lekarze nie powiedzieli mu, że przekazują ją firmie biotechnologicznej, która następnie hodowała ją w laboratorium, uzyskując kolonie komórek stosowanych do celów terapeutycznych. Patent na ten rodzaj komórek okazał się być wart bardzo dużo pieniędzy. Kiedy Moore kilka lat później dowiedział się o tym, pozwał firmę do sądu. Uważał, że pobrana część należała do niego i w związku z tym DNA też jest jego własnością. Ale sędzia orzekł, że ponieważ śledziona była już poza jego organizmem, nie należała do niego, komórki z niej pobrane mogły być opatentowane, czyli „wynalezione”(8). Sędzia nie potrafił udzielić odpowiedzi na pytanie, czy część pozostająca nadal wewnątrz Johna Moore’a (zawierająca to samo DNA) jest również wynaleziona. Ten wyrok był również kluczowym dla dalszego rozwoju sytuacji, ponieważ pokazał, że możliwa jest sytuacja, w której każdy może zdobyć prawa do naszego DNA.

System patentowania został wymyślony dla świata maszyn i stosowanie go do organizmów żywych rodzi problemy, które nie wydają się mieć żadnego sensownego rozwiązania. Organizmy żywe, od mikrobów przez rośliny do zwierząt, nie są wynalazkami. Identyfikacja lub izolacja genu przypomina zaś odkrycie, nie wynalazek. Niektóre przepisy, jak słynny już artykuł 27(3) układu TRIPS (układ regulujący handlowe aspekty własności intelektualnej, będący częścią reguł WTO) zezwala na zwolnienie z wymogu podporządkowania się wymogom prawa patentowego roślin i zwierząt, ale „mikroorganizmów i procesów mikrobiologicznych” to już nie dotyczy. Tymczasem biolodzy uważają, że nie ma wyraźniej granicy pomiędzy mikrobami, roślinami i zwierzętami, ponieważ wszystkie te formy życia korzystają z tych samych procesów. Jeden z biologów uzmysłowił mi to pytaniem: Porosty są symbiotycznym związkiem jednokomórkowych alg (lub mikrobów) i grzyba (ani roślina, ani zwierzę). Jaki jest ich status w świetle prawa patentowego? (9)

Pomimo nacisku wywieranego przez firmy biotechnologiczne, które przecież w coraz większym stopniu są dysponentami funduszy badawczych potrzebnych naukowcom, wielu z nich uważa, że patentowanie organizmów genetycznie modyfikowanych lub ich wytworów (np. nasion) nie powinno mieć miejsca, ponieważ proces reprodukcji jest procesem naturalnym, nie wynalazkiem. Zezwolenie na patentowanie produktów procesów naturalnych równa się sytuacji, w której firma posiadającą patent na projekt lasera używanego do operacji rogówki opatentuje osobę, która została „zmodyfikowana” przez użycie tego lasera.

Podobnie jest z funkcjami genów. Geny mogą funkcjonować wewnątrz komórki lub organizmu – nadanie patentu równałoby się znowu opatentowaniu całego organizmu. Funkcje genów są ponadto nieprzewidywalne: będą zależeć od komórki, do której zostaną wstawione, w które miejsce chromosomu, w jakim środowisku itd.

Ci sami naukowcy często zwracają uwagę, że twierdzenie firm biotechnologicznych, iż patentowanie – leków, zwierząt czy roślin – jest konieczne w celu rozwoju nauki, nie znajduje potwierdzenia w praktyce. Genset, jedna z francuskich firm biotechnologicznych, dwa lata temu miała 28 otwartych aplikacji patentowych na geny lub ich sekwencje i ani jednego leku stworzonego dzięki tym „wynalazkom”. Ale jeśli weźmiemy pod uwagę, jak duże pieniądze może przynieść samo posiadanie patentu, pytanie o zastosowanie staje się nieważne. Zgodnie z danymi Gene Watch UK sprzed roku, władze patentowe najbogatszych krajów świata zarejestrowały żądania wydania patentu pochodzące od instytucji prywatnych i publicznych na więcej niż 127 tys. genów ludzkich lub częściowych sekwencji genów. 40 dotyczy serca, ryżu – 152. „Ogradzanie” samo w sobie może przynieść trudno wyobrażalne dochody.

Ci, którzy uważają, że patentowanie życia oznacza najnowszy etap kolonizacji, nie koncentrują się jednak wyłącznie na szczegółach prawa patentowego. Byłoby to równoznaczne ze zgodą na zaplątanie się w meandrach prawniczo-naukowej dyskusji, w której dodatkową rolę odgrywają gry interesów na szczeblu lokalnym i globalnym. Argumenty przeciwko biokolonizacji wydają się być możliwe do przedstawienia w kilku punktach:

  • „posiadanie” życia i kontrolowanie go dla prywatnego zysku jest nieetyczne. Uczucie „tak nie wolno” jest obecne we wszystkich społeczeństwach – z badań antropologicznych wynika, że wyewoluowało ono w nas prawdopodobnie na długo przed stworzeniem jakichkolwiek religii czy cywilizacji i wciąż jest obecne;
  • rośliny, zwierzęta, geny, mikroorganizmy itd. są częścią przyrody i nie mogą być uważane za wynalazek;
  • patentowanie życia skoncentruje kontrolę nad medycyną i rolnictwem w rękach kilku korporacji, których przyszłe badania nie będą kierowane przez zasadę ostrożności i ludzkich potrzeb, ale przez kryterium zysku;
    praktyka pokazuje, że patentowaniu podlega wiedza rolnicza i medyczna tych społeczności, na których terenach wciąż istnieją duże zasoby żywej przyrody, a nowoczesny styl życia nie jest dominującym. Gros takich społeczności znajduje się w krajach Południa. Ich znane od wieków sposoby medyczne są opatentowywane niezależnie od tego, że patent należał się tradycyjne jedynie nowemu wynalazkowi. Zasady związane z reżimem własności intelektualnej, wprowadzane m.in. przez WTO, mają taki skutek, że pierwotni autorzy są zmuszani do kupowania opatentowanego produktu od nowego właściciela;
  • ilość miejsc pracy tworzonych przez sektor biotechnologii/biokolonizacji jest ułamkiem tego, co jest tracone w procesie przejmowania kontroli nad medycyną i rolnictwem.

Bio-biznes odpowiada na to, że nie możemy się zatrzymać, że obecna droga jest „jedyną”, która pozwala na zaradzenie zagrożeniom i wyzwaniom stojącym przed „ludzkością” (retoryka jest niestety zadziwiająco podobna do wypowiedzi związanych z „zagrożeniem terroryzmem”). Ci, którzy protestują, nie pozwalają na wynalezienie nowych leków i upraw, a nawet „nadużywają demokracji”.

Dominującym rodzajem dyskursu jest ten, który niemiecka biolog Christine von Veizsacker nazwała „pułapką tragicznych decyzji”, sprowadzającą się do pytania: „jak przygotować się na to, co nadchodzi?”. Jesteśmy kompletnie nieświadomi tego, jak często owa „pułapka” jest stosowana; zazwyczaj przyjmuje ona formę prezentowania naszej sytuacji jako następującego dylematu: co wybieramy – pszenicę zmodyfikowaną w celu odporności na środek chwastobójczy czy głód na świecie; miejsca pracy czy degradację środowiska; energię nuklearną czy globalne ocieplenie.(10) Tak – fałszywie – przedstawiane alternatywy prowadzą do powstawania rozmaitych komitetów etycznych, których zadaniem ma być dostarczenie rad, które pomogą w tworzeniu „poprawnych” hierarchii wartości zmniejszając w ten sposób ból głowy potencjalnych decydentów politycznych.

Wszelkie pytanie naśladujące „pułapkę tragicznych decyzji” można przedstawić jako analogię do sytuacji, gdy specjalista od etyki próbuje przygotować matkę dwójki dzieci na tragiczną decyzję związaną z pytaniem, które z nich powinna ratować, jeśli znajdzie się z nimi za burtą promu, na środku głębokiego jeziora. Jednakże matki rzadko wzywają profesorów etyki w celu przygotowania ich na taką ewentualność. Niektórzy ze specjalistów mogliby uznać zapytanie matek jak sobie radzą z wychowaniem więcej niż jednego dziecka za niezbyt naukowe i nazywać to etyką indukcyjną, ale w istocie odpowiedź na to pytanie daje wskazówkę, gdzie szukać rozwiązania problemów, o których mówi ten tekst.

Jak więc odpowiedzialne matki unikają „pułapki tragicznych decyzji”? Pytają tubylców, czy sternik łodzi nie pije zbyt dużo; patrzą na niebo starając się odgadnąć pogodę; dobrze przyglądają się łodzi, sprawdzają, czy jest wystarczający zapas kamizelek ratunkowych; uczą dzieci pływać; jeśli nie są pewne, decydują się na autobus, który jedzie wokół jeziora; a czasami w ogóle rezygnują z pomysłu podróży na drugi kraniec jeziora. A więc zużywają mnóstwo swojej energii i inteligencji na uniknięcie konieczności podejmowania „tragicznych decyzji”, a nie na przygotowania do niej. Christine von Veizsacker nazywa te wszystkie rozsądne i w gruncie rzeczy niezbyt trudne sposoby unikania tragedii po prostu „kulturą”, dzięki której ludzie mogą godzić różne cele i wartości. (11)

Poruszone wyżej, poważne problemy wynikające z prób modyfikowanie organizmów żywych, nie znajdują i nie znajdą rozwiązania jedynie na gruncie nauki, zwłaszcza w momencie, gdy zaufanie do niej wydaje się słabnąć. Erozję tego zaufania przypisuje się zazwyczaj negatywnym skutkom postępu technicznego, wynikłym z redukcjonistycznego paradygmatu naukowego. Osobiście wydaje mi się, że poważniejszym problemem jest wzrastające uzależnienie naukowców od finansowania przez podmioty uznające za główną zasadę maksymalizację zysku, a także rosnąca specjalizacja dziedzin nauki (oczywiście powiązana z redukcjonizmem), która w coraz większym stopniu uniemożliwia wzajemną dyskusję zarówno pomiędzy przedstawicielami różnych nauk jak i pomiędzy naukowcami a społeczeństwem. Niebezpieczeństwa związane z biokolonizacją uwidaczniają wyraźniej niż w wielu innych przypadkach wyzwanie związane z pytaniem o status, kształt i rolę przyszłej nauki.

Maciej Muskat

Post Scriptum: 24 grudnia 2002 brytyjski Departament ds. Środowiska, Żywności i Spraw Wsi opublikował wyniki 8-letnich badań na tzw. farmach testowych, których celem była odpowiedź na pytanie czy genetycznie modyfikowane odmiany roślin mogą „zanieczyszczać” normalne gatunki, czyli krzyżować się z innymi uprawami i chwastami, tworząc w sposób niezamierzony np. nowe odmiany roślin odpornych na środki chwastobójcze. Odpowiedź brzmi wyraźnie: TAK. Badania brytyjskie były jak dotąd najszerzej zakrojonymi pod względem czasu ich trwania. (12)

Przypisy:

1) Shiva V. „World in a grain of rice”, The Ecologist, Vol. 30, No 9, 2000/2001
2) Ibidem s.51
3) Kimbrell A. “Biocolonization. The patenting of Life and the Global Market in Body Parts”, w: The Case Against the Global Economy, Sierra Club Books, New York 1996, s. 136
4) Ibidem, s. 134
5) Więcej na ten temat: „Walka z prawdą”, Magazyn Obywatel nr 3/2001
6) Kimbrell A. “Biocolonization. The patenting of Life and the Global Market in Body Parts”, w: The Case Against the Global Economy, Sierra Club Books, New York 1996, s. 135
7) Shiva V., „Stolen Harvest” South End Press, Cambridge, MA, 2000
8) więcej na ten temat: wywiad z Prof. Markiem Comptonem, „Genetic Turf Wars: Whose DNA Is It Anyway?,” DNA Dispatch, November, 2000.
9) Rozmowa osobista z Brianem Goodwinem, biologiem z Open University, UK oraz Schumacher College, UK
10) Von Veizsacker Ch. „Competing notions of biodiversity”, w: Global Ecology. A New Arena of Political Conflict”, Zed Books, London, 1993
11) Ibidem, s. 130
12) Department for Environment Food and Rural AffairsDepartment for Environment Food and Rural Affairs

http://www.greenpeace.org/poland/kampanie/stop-gmo/przemysl-inzynierii-genetycznej/biokolonizacja

Posted in biologia | Otagowane: | Leave a Comment »