JOHN G. TAYLOR Kiedy zaczął się czas (When the Clock Struck Zero) Przekład Marek Przygocki Od Autora Całe życie pracowałem jako naukowiec. Będąc chłopcem mieszkałem w domu, w którym nauka była uważana za podstawowe narzędzie poznawania świata. W miarę jak dorastałem, coraz bardziej zdawałem sobie sprawę, że nauka stanowi jedyny dostępny sposób badania tajemnicy wszechświata i tylko ona może dostarczyć odpowiedzi na pytania o naturę istnienia. Aby samemu uczestniczyć w procesach prowadzących do poznania, usiłowałem zrozumieć i działać w wielu gałęziach nauki, takich jak: fizyka cząstek, kosmologia (szczególnie interesowały mnie zagadnienia związane z czarnymi dziurami), fizyka jądrowa, nieliniowa dynamika układów złożonych, w opracowywaniu modeli neuronów i mózgu oraz sztucznych sieci neuronowych. Dopiero niedawno narodziło się we mnie pragnienie zebrania wszystkich pewników, którymi rozporządza nauka w tym niepewnym świecie. W czym tkwi sedno istnienia i czy możemy oczekiwać, że podejście naukowe udzieli na to pytanie odpowiedzi? Aby się o tym przekonać, przed około dwu laty udałem się w podróż, podczas której przeprowadziłem wiele dyskusji z wybitnymi kolegami naukowcami o tym, gdzie owego sedna szukać. W wyniku tego wyostrzeniu uległy moje poglądy oraz pogłębiło się zrozumienie, co doprowadziło do powstania książki będącej kulminacją moich blisko czterdziestu lat pracy naukowej. Uściśliłem swoje poszukiwania i skoncentrowałem się na czterech podstawowych pytaniach: Jak zaczął się wszechświat? Dlaczego istnieje coś zamiast niczego? Dlaczego jakaś konkretna teoria wszystkiego? Co wiemy o naturze świadomości? Niektórzy uważają, że na tak sformułowane pytania nie można w ogóle udzielić odpowiedzi. A jednak, jeżeli chcemy przydać życiu sensu, wykorzystując w tym celu możliwie jak najwięcej z osiągnięć nauki, to musimy przekonać się, jak daleko potrafimy dotrzeć, mierząc się z tego typu kwestiami. Celem tej książki jest zatem próba odpowiedzi na te pytania zgodnie z duchem nauki. Chociaż niektórzy naukowcy utrzymują, że teoria wszystkiego znajduje się w zasięgu ręki, zagadnienia powyższe prowadzą do przekonania, że w rzeczywistości musiałaby podlegać pewnym ograniczeniom. Można by ją stosować jedynie w pewnej klasie problemów. Nie wydaje się, by mogła nam pomóc pojąć wszechświat w tym sensie, w jakim rozumiemy nasze w nim miejsce oraz cały porządek istnienia. Musimy więc spróbować odpowiedzieć na pytania, które jak sądzimy nie mają odpowiedzi i które leżą poza obrębem rzeczywistości objętej standardową teorią wszystkiego. Wskazuje na to tytuł tej książki. Czy zegar może wybijać godzinę zero? Zegary wybijają pierwszą lub dwunastą albo nawet, wyjątkowo, trzynastą. Któż słyszał o zegarze obwieszczającym zero? Któż byłby na tyle zmyślny, by budować podobne cudo? A czy w godzinie zero czas w ogóle istniał? Przedmiotem tej książki jest próba analizy, czy nauka jest w stanie zajmować się zagadnieniami tego typu, a jeśli nie, to jakiego rodzaju ograniczenia to uniemożliwiają. Stopniowo dojdziemy do przekonania, że fanatycy teorii wszystkiego, w rodzaju Stephena Hawkinga, prawdopodobnie mylą się (i to kolejny raz - Hawking w l979 roku prorokował, że jedna z teorii taką się stanie, lecz po trzech latach okazało się, że jest ona błędna). Przekonamy się również, że przypuszczalny umysł Boga, który już dostrzegano w pewnych niedawnych osiągnięciach naukowych, jest iluzją. Pomimo wszystko umysł nie może być tak tajemniczym fenomenem. Nauka jak sądzę będzie zdolna dostarczyć wyjaśnienia świata duchowego i będzie prawdopodobnie przebiegać wzdłuż dróg sugerowanych w tej książce, związanych z relacyjną teorią umysłu. Co więcej, z punktu widzenia nauki może okazać się, że nie istnieje w ogóle żadna teoria wszystkiego i być może nie było żadnego początku wszechświata. Na kartach tej książki spróbuję wyjaśnić ograniczenia, z którymi nauka się styka, z czego będzie wynikać wniosek, że nigdy nie będzie zdolna przydać naszemu życiu sensu i znaczenia. Poznamy następstwa tego dla nas samych, w szczególności wyzwanie, jakie to nam stawia odnośnie do poszukiwania sensu życia. Muszę podkreślić, że ponoszę całkowitą odpowiedzialność za przedstawiane tu tezy oraz za rozumowanie, w wyniku którego powstały. Wszystkie ewentualne błędy są moimi błędami. Muszę jednakże wyrazić wdzięczność wszystkim moim wybitnym kolegom, którzy wykazali tak wiele cierpliwości i wyrozumiałości dla moich, często nieudolnych, prób zrozumienia wszechświata w całym jego bogatym rynsztunku. Chciałbym również podziękować mojej żonie Pam oraz mojej córce Elizabeth za ich celne i wnikliwe uwagi dotyczące pierwszych wersji książki. Chociaż nie zgodziły się z moimi głównymi tezami, to jednak bez ich pomocy wiele z moich myśli pozostałoby wyrażonych w sposób niezbyt jasny. Muszę również podziękować żonie za jej wspaniałą pracę przy przepisywaniu książki. CZĘŚĆ PIERWSZA WPROWADZENIE 1. Jak to wszystko zrozumieć? Wszechświat mnie przeraża - jest o tyle większy ode mnie Od czasu do czasu każdego z nas nachodzi usilne pragnienie zrozumienia wszechświata i naszego w nim miejsca. Kiedy dociera do nas informacja o śmierci kogoś bliskiego z rodziny lub jednego z przyjaciół, nieuchronnie zaczynają nurtować nas pytania w rodzaju: Kim jestem w istocie? Czy faktycznie istnieje życie po śmierci? Jak to wszystko zrozumieć? i tym podobne. Innym razem możemy znaleźć się w środku gwałtownej, przerażającej burzy i poczuć się zupełnie bezradni wobec gry żywiołów, gdy gwiżdżący wokół wiatr usiłuje zetrzeć nas z powierzchni ziemi. Możemy poczuć się podobnie spoglądając w usłane migającymi gwiazdami tajemnicze niebo. Wtedy dogłębnie czujemy ogrom przestrzeni, potęgę żywiołów oraz kruchość i wątłość naszego świata. Z drugiej strony każdy z nas posiada własne myśli oraz doznaje pewnych osobistych wrażeń. W naszym wewnętrznym świecie wydajemy się całkowicie wolni i sądzimy, że ludzie obok nas doświadczają czegoś podobnego. Nasze umysły wydają się egzystować jak gdyby niezależnie od naszych ciał; możemy nawet pasjonować się szalejącą wokół burzą, choć ta zwala nas z nóg. Niezwykły zakres dotychczasowych ludzkich doświadczeń doprowadził do wielu możliwych odpowiedzi na pytanie, jak możemy poradzić sobie z tajemnicą wszechświata. Wielu twierdzi, że istnienie naszego świata wewnętrznego oraz konieczność występowania jakiegoś stwórcy czy kreatora wszech-rzeczy świadczy ewidentnie o istnieniu kosmicznej inteligencji Boga. Za pośrednictwem naszej jaźni możemy, modląc się, kontaktować się osobiście z Bogiem. Taka bezpośrednia zależność od boskiej wszechmocy może być wielką pomocą dla wierzących w chwilach boleści i cierpienia. Okręt społeczeństwa może dzięki wierze powrócić na właściwy kurs, a reszty dokonuje odpowiednie wychowanie. W rezultacie systemy wierzeń bywają niesłychanie pomocne. Fundamentalizm islamski daje, na przykład, swoim wyznawcom pewność, że tylko ich sposób życia jest właściwy i jedyny, natomiast niewierzący są skazani na wieczne wątpliwości. Istnieją również tacy, którzy próbują wieść życie bez tej odskoczni, jaką jest wiara. Ich stanowisko różni się jednakże od agnostyków próbujących jedynie rozumem ogarnąć naturę życia i wszechświata, lecz którzy pozostają otwarci na istnienie takiego czy innego Boga, jak również od ateistów negujących w ogóle istnienie Boga w jakiejkolwiek postaci. Dobrym przykładem rozumowania tych ostatnich jest biolog Medawar, który napisał kiedyś: Cena krwi i łez, które ludzkość musiała przez wieki przelać za komfort duchowy i spokój, jest zbyt wielka, by mogła usprawiedliwić nasz ufny duchowy rachunek, jaki należy zapłacić wierzeniom religijnym. Podobny komentarz, lecz o nieco bardziej kosmicznym charakterze, był dziełem kosmologa Stephena Hawkinga: Jesteśmy nic nie znaczącymi istotami na pomniejszej planecie zupełnie przeciętnego słońca na obrzeżach jednej z setek miliardów galaktyk. Trudno jest więc uwierzyć w Boga, którego miałaby obchodzić nasza egzystencja lub który choćby miał zauważyć nasze istnienie. Gdy później często zdarzało się Hawkingowi używać sformułowania zamierzenie czy wola Boga, trudno jest uwierzyć, że istotnie powrócił do wiary. Wszystkie tego typu próby można traktować jako racjonalne tak długo, dopóki stanowią próbę zrozumienia nas samych oraz wszechświata jedynie za pomocą rozumu, a nie poprzez akt wiary. Istnieją również ludzie, którzy ciągle szukają jakiegokolwiek sensu życia, lecz mimo to go nie znajdują. Albo mogą po prostu dryfować przez życie siłą przyzwyczajenia, akceptując zwyczaje swoich przodków, nie poświęcając uwagi zarówno samym myślom, jak i działaniu. Są z gatunku tych, co to jeszcze nie wiedzą, zarówno w odniesieniu do religii, jak i rozumu. Zarówno racjonaliści, jak i ludzie wciąż niezdecydowani nie są mądrzejsi w żadnej istotnej kwestii. Niektórzy, jak cytowany Medawar, mogą nawet utrzymywać, że nie ma naukowego sposobu rozstrzygnięcia tych istotnych kwestii, i mówią: „jest całkowicie logiczne, że kompetencją nauki nie są tego typu rozstrzygnięcia". Trudno jednakże żyć z takim podejściem. W wielu istotach ludzkich nieustannie istnieje czeluść, która wynika z braku zrozumienia. Psychoanalityk Carl Jung napisał: „spośród wszystkich moich pacjentów, znajdujących się w drugiej połowie życia (po trzydziestce piątce), nie było żadnego, dla którego brak przekonywających poglądów religijnych stanowiłby błahy problem". Patrząc z wyżyn kosmosu, nasze życie na ziemi może wydawać się faktycznie równie nikłe, co nic nie znaczące. Lecz nie jesteśmy z pewnością tacy nic nieważni, gdy obserwuje się nas z naszego własnego poziomu. Dla każdego my sami stanowimy cały świat. W jaki sposób moglibyśmy pogodzić te wyraźnie sprzeczne egzystencje: ciepło wewnętrzne, które nas wypełnia i towarzyszy naszym potrzebom, emocjom i pragnieniom, w przeciwieństwie do obcego, materialistycznego świata zewnętrznego. Domagamy się wskazówek i przewodnictwa! Niezdolność nauki do udzielenia jakiejkolwiek odpowiedzi na pytanie o sens życia doprowadziła ostatnimi czasy do frontalnych ataków na samą naukę. Jak niedawno stwierdził dziennikarz, syn fizyka Bryan Appleyard: nauka to nie neutralny i niewinny artykuł pierwszej potrzeby, który przez ludzi pragnących uczestniczyć w dobrobycie materialnym Zachodu może być wykorzystywany jedynie dla wygody... Jest ona niszcząca duchowo, wypalając do cna pradawne autorytety i tradycje. Nie jest w stanie współistnieć doprawdy z niczym... Niszczy ona wszelkie konkurencyjne myśli, rodzi się pytanie: jaki sposób na życie oferuje ludziom w zamian? Co mówi o nas samych i o życiu, jakie powinniśmy prowadzić? Nie wydaje się, aby można było oczekiwać odpowiedzi na tak postawione pytania. Stajemy w ekstremalnej sytuacji: albo akceptujemy naukę, lecz wtedy musimy pogodzić się z jej ograniczeniami i z tym, że nigdy nie udzieli nam ostatecznej odpowiedzi, która pomogłaby pojąć, dlaczego taki wszechświat i dlaczego takie nasze w nim miejsce, albo też możemy przystać na propozycję oferowaną nam przez jedną z wielu religii świata. W pierwszym przypadku żąda się od nas, abyśmy nauczyli się żyć w czymś, co jest w zasadzie światem mechanicznym. Nasz przytulny świat wewnętrzny jest po prostu zjawiskiem wtórnym, jako następstwo powstałe w wyniku złożoności naszych mózgów. Żaden kaganek wiedzy nie oświetla zagadnień związanych z emocjami - miłością, nienawiścią, strachem czy gniewem. Świat staje się zimnym, nieludzkim miejscem. Ponadto nauka nigdy nie jest w stanie odpowiedzieć na pytania typu dlaczego, a jedynie na pytanie jak. Nigdy nie odkryje powodu i przyczyny, dla których istniejemy; zawsze będziemy skazani na lepsze czy gorsze domysły. W drugim przypadku, ścieżki wiary odkrywają natychmiast wszystko, chociaż jeżeli zagłębimy się silniej w pytania jak, zapewne również nie doczekamy się odpowiedzi. Jeżeli wymaga się zbyt wiele jasności, tworzy się jakby zasłona zarzucana na ołtarz zrozumienia obiecywanego przez każdą religię. Każda próba posunięcia się choćby o krok do przodu ma swoje wady. Obydwie wydają się prowadzić do uszczuplenia informacji. Sądzę, że wszyscy musimy pogodzić się z prawdą, iż religia zarzuca najgrubszą zasłonę na najgłębsze i najbardziej zasadnicze zrozumienie życia. Nauka jednak ma również swoje ograniczenia. Poza dostarczaniem coraz bardziej komfortowych warunków życia, co udowadnia na co dzień, wydaje się, że nie jest zdolna do udzielenia żadnych rozsądnych odpowiedzi w takich choćby dziedzinach, jak moralność czy estetyka. Na pytania o wszechświat nie odpowiedzą ani poszturchiwanie Appleyarda, ani wcześniej cytowane opinie Medawara. Widać stąd, że musimy powstrzymać się całkowicie od zaciągania z powrotem jakichkolwiek zasłon na ołtarz zrozumienia. W jaki sposób możemy dokonać postępu stojąc przed tak deprymującymi wnioskami? Ostatnie radykalne osiągnięcia wydają się wskazywać, że sytuacja nie musi być tak tragiczna, jak ją przed chwilą opisałem. Teorie wszystkiego Niedawno pojawiły się twierdzenia głoszone przez niektórych naukowców, że nauki podstawowe wydają się zmierzać do nieubłaganego końca i że teoria wszystkiego, lub inaczej TW, znajduje się w zasięgu ręki. Na przykład Stephen Hawking na publicznym odczycie wygłoszonym w 1988 roku w Jerozolimie, stwierdził: Wygląda na to, że istnieją rozsądne nadzieje na powstanie jeszcze przed końcem tego stulecia kompletnej teorii opisującej wszechświat. Inni naukowcy składali podobne deklaracje, twierdząc, że taką teorię można już obecnie naszkicować. Niezwykłe postępy osiągnięte w ostatnich latach przy próbach zunifikowania (połączenia i uproszczenia) większości sił występujących w naturze (obejmujące elektromagnetyzm, radioaktywność, grawitację i silne oddziaływania jądrowe odpowiedzialne za utrzymanie neutronów i protonów wewnątrz jądra atomu) dają pewne podstawy do tak daleko posuniętego optymizmu. Świętym Graalem wielkiej teorii unifikacji wszystkich sił natury powinna być, zgodnie ze zdaniem jej zwolenników, teoria ostateczna. Nic miałaby się już narodzić żadna lepsza teoria pod względem finezji, precyzji, wielkości i piękna. Teoria wszystkiego miałaby, zgodnie z głoszonymi opiniami, zawierać w sobie odpowiedzi na wszystkie możliwe pytania, jakie ktokolwiek mógłby zadać na temat wszechświata. Miałaby nawet odpowiadać na wszystkie nieprawdopodobne pytania, których nikt jeszcze nie zadał. Tak zasadnicze i podstawowe kwestie: w jaki sposób zaczął się wszechświat, czym się zakończy, jaka jest jego natura, istota rozumu i tym podobne mają znaleźć swoje odpowiedzi w teorii kończącej (lub lepiej wieńczącej) wszystkie teorie. Stwierdzono nawet, że po jej odkryciu sama idea Boga będzie już bezużyteczna. Chociaż szczegółowe odpowiedzi na wszystkie tego rodzaju pytania mają być dostępne nie od razu, ich podstawowe zarysy (takie jak natura zunifikowanych oddziaływań i prawdziwie elementarne cząstki) mają być uzyskane prawie automatycznie. Wtedy nauka zdobędzie upragniony przez wieki klucz; według optymistów, nasze wcześniejsze zastrzeżenia o jej ograniczoności staną się iluzją. Prawdziwy powód egzystencji człowieka stanie się oczywisty. Wszyscy staniemy się ateistami i wszelkie religie zanikną. Klasztory i kościoły same się rozwiążą. Jedynym fundamentalizmem pozostanie w końcu nauka. Nowy wspaniały świat - wizja Aldousa Huxleya przybliży się o parę kroków. Zniknie przeważająca obecnie opinia o wolnej woli. Wszystkie przestępstwa będą traktowane jako zaburzenie funkcjonowania mózgu, a więc przestępcy nie będą dłużej zamykani w odosobnieniu (po to zresztą tylko, by po uwolnieniu kontynuować gwałty, grabieże i morderstwa), lecz hospitalizowani i leczeni. Terapia zachowawcza oraz chirurgia mózgu zastąpią więzienia. Rozkwitną doktryny hedonizmu. Twierdzi się poza tym, że w wyniku takiego wzrostu wiedzy naukowej nastąpi wiele, wiele innych znaczących zmian w całych społeczeństwach. No właśnie, czyżby wszechświat miał być tak prosty? Racjonaliści chcieliby, żeby tak było, a już szczególnie naukowcy formułujący nową falę naukowego fundamentalizmu. Pragną, by wszechświat dał się zredukować do pojedynczej wszechogarniającej teorii. Chcieliby gapić się z zachwytem w równanie, które udoskonaliłoby równanie Einsteina E = mc2 do postaci TW = ... (przy czym „coś" tu ma być wstawione). Rozwikłanie wszystkich następstw wynikających z równania TW może zająć stulecia, tak jak to już jest widoczne w przypadku ostatniego kandydata na TW, jakim jest teoria superstrun, których konsekwencji fizycznych nawet nie potrafimy jeszcze przewidzieć. Poza tym TW dostarczy tak zupełnej pewności i takiej prawdy absolutnej, że nie pozostanie już miejsca dla tych nie przygotowanych, którzy zechcą ją kwestionować poprzez odwołanie do jakiejś konkretnej religii. Amerykański komik Milton Beurle powiedział: Wszechświat mnie przeraża jest o tyle większy ode mnie. Czy czasem twierdzenia o wyjątkowości TW nie przekroczyły granic rozsądku? Być może optymizm naukowców oparty na nadziejach wynikających z TW nie jest nieuzasadniony. Pomijając już kategoryczność niektórych stwierdzeń w odniesieniu do TW, to faktycznie - być może, że zaledwie po czterech stuleciach droga, po której podążała nauka, dobiega kresu. I to z uwzględnieniem faktu, że życie na Ziemi trwa już głupie trzy miliardy lat i nic nie wskazuje (pomijając nieprzewidywalne katastrofy), aby miało ulec zagładzie przed upływem równie długiego czasu. Jaką nową filozofię życia musiałaby wymyślić ludzkość, po rozwiązaniu wszelkich tajemnic egzystencji, mając przed sobą tak długą perspektywę? Czy zaniknie podstawowa wiedza, tak jak zwyczaj nauczania łaciny w szkołach, jako że wykształcenie stanie się kompletnie bezużyteczne? Ostatnie jednakże uwagi, czynione zarówno przez samych naukowców, jak i dziennikarzy zajmujących się nauką, wydają się wskazywać, że stracili oni częściowo swój pierwotny entuzjazm w odniesieniu do TW. Argumentują, że elegancka matematyczna postać niewyraźnie rysującej się jeszcze TW jest na razie jedynie dowodem inteligencji badaczy. Mówi się o TW jako o części Woli Boga. Wygląda na to, że grupa ta pomimo wszystko poszukuje Boga i choć różni się w ocenie Jego doniosłej roli oraz stopniem chęci ucieczki w sferę wiary, jednak czyni to - wydaje się - nie zdając sobie z tego w pełni sprawy. Jeżeli takie wahania występują w tych dwóch ekstremalnych podejściach, naukowym i religijnym, to cóż dopiero ma począć zwykły śmiertelnik, nie będący ekspertem w żadnej z tych dziedzin? Spektrum stanowisk obejmuje również takich, którzy akceptują TW i kryjącego się poza nią Boga, co jest zrozumiałe uwzględniając fakt, że obecnie wielu ludzi jest wierzących. Poruszane tu kwestie były roztrząsane przez ponad dwa tysiąclecia w tysiącach książek, roszczących pretensje do jedynie prawdziwych opowieści. Już ponad dwa i pół tysiąca lat temu greccy filozofowie twierdzili z całą pewnością, że stworzyli teorię wszystkiego. Na przykład, Tales głosił, że wszystko jest zbudowane z wody. Wynika stąd, że na wszystkich koszulkach zamiast przeróżnych sloganów winien być wydrukowany wzór H2O. Przełomowym faktem, który zmienił całą sytuację, stał się zdumiewający postęp w nauce w ciągu ostatniego stulecia. Nasze społeczeństwo w pełni wykorzystuje zdobycze nowoczesnej nauki, poczynając nawet od zapisania każdego słowa w mojej książce za pomocą edytora tekstów i składu komputerowego. Osiągnięcia te są jeszcze spotęgowane fantastycznym postępem w odkrywaniu tajemnic natury. Dostrzeżono piękną symetrię w większości cząstek elementarnych, a potężne i eleganckie narzędzia matematyczne powiązały i rozwinęły te osiągnięcia. W tej chwili świat fizyczny wydaje się zbudowany prawie wyłącznie według potężnych reguł matematyki. Co więcej, struktura matematyczna jakiejś zasadniczej teorii staje się w coraz większym stopniu świadectwem jej spójności i siły. Postęp taki był możliwy jedynie w wyniku ścisłego przestrzegania metodyki naukowej. Nauka stykając się z faktami przyjmuje o nich pewne założenia, przypuszczenia i teorie, z których dedukuje przyszłe zjawiska oraz, co może najważniejsze, dokładnie je sprawdza i testuje, aż do momentu, w którym teoria wydaje się dobrze potwierdzona, albo dochodzi do przekonania, ze należy ją odrzucić. W tym ostatnim przypadku należy zacząć od punktu wyjścia i próbować zbudować nową teorię wstępną w nadziei, że okaże się lepsza. Procedura testowania teorii zmierzająca do jej odrzucenia (uznania jej za fałszywą) jest przedmiotem dyskusji pomiędzy naukowcami. Prowadzi to do zobiektywizowanej weryfikacji teorii potwierdzającej jej powszechną prawdziwość, przy uwzględnieniu zjawisk jeszcze nie odkrytych, w czym uczestniczy całe środowisko naukowców. Czasem słyszy się opinię, że zbiór idei naukowych różni się w sposób zasadniczy od wszystkich idei, jakie ludzkość stworzyła dotąd w celu opisania rzeczywistości. Na przykład, wzmiankowana wcześniej teoria Talesa, że wszystko jest zbudowane z wody, była w jego czasach przedmiotem dyskusji i sporów. To samo spotykało inne propozycje, by wspomnieć choćby o ziemi, powietrzu, ogniu i wodzie. Rzeczywistość według jednych filozofów miałaby mieć w zasadzie naturę psychiczną (spirytualną), według innych całkowicie fizyczną (materialną), a mieszaną według jeszcze innych. Obiektywny postęp nauki, konfrontowany nieustannie z rzeczywistością, którą nauka stara się opisać i wyjaśnić, doprowadził w ciągu kilku ostatnich stuleci do obrazu świata fizycznego, rządzonego kilkoma podstawowymi równaniami matematycznymi, opisującymi teorię wszystkiego i wyróżniającymi się pięknem i elegancją. Wydaje się, że właśnie teraz ma miejsce rzeczywisty postęp; twierdzi się, że obecnie otrzymuje się wyjątkowej wagi odpowiedzi na pytania stawiane od stuleci. Słychać argumenty, że w końcu, po całkowitym rozwikłaniu TW i następstw z niej wynikających, ciekawość ludzkości zostanie zaspokojona. Okaże się wtedy, że nasz wcześniejszy sceptycyzm w odniesieniu do TW był całkowicie nieuzasadniony. Pytania bez odpowiedzi? Czy wobec nowej fali naukowego optymizmu nie znajdujemy się w niebezpieczeństwie wyprowadzenia na manowce? Istnieją przecież następne, jeszcze bardziej głębokie pytania, na które musielibyśmy uzyskać wyczerpujące odpowiedzi, zanim zostalibyśmy w pełni usatysfakcjonowani. Wszystko to bardzo rozległe pojęcie. Czy teoria wszystkiego nie musiałaby precyzyjnie określać położenia dowolnego obiektu w każdej możliwej chwili? I dlaczego ta właśnie teoria, a nie jakaś zupełnie inna? Czy nie musiałaby również odpowiedzieć, w jaki sposób wszechświat w ogóle może być właśnie tutaj? Innymi słowy, dlaczego w ogóle coś jest, a nie ma po prostu niczego? Istnieje także ta część rzeczywistości, która łączy się bezpośrednio ze światem psychicznym każdego z nas, to znaczy z doświadczeniem, doznaniami czy czystymi uczuciami. W jaki sposób one powstają? Albo czy świadomość ma być uważana za pojęcie pierwotne, za coś, co nie daje się już dalej badać, jak twierdzą niektórzy filozofowie? Każda teoria wszystkiego, która tę część rzeczywistości związaną z doświadczeniem pozostawi bez wyjaśnienia, nie będzie godna swojej nazwy. Jak dotąd entuzjaści TW nie poświęcają wielkiej uwagi rozumowi. Podsumowując zatem, musimy przekonać się, jak dalece nauka potrafi zgłębić zagadnienia wyrażające się, wśród wielu innych, następującymi pytaniami: • Jaki był początek wszechświata? • Dlaczego istnieje coś zamiast nic? • W jaki sposób można by wyjaśnić całą złożoność otaczającego nas świata? • Dlaczego właśnie ta konkretna teoria wszystkiego? • W jaki sposób daje się wyjaśnić fenomen świadomości? 2. Pytania nauki Nigdy nie mów: niemożliwe Być może w okresie dorastania wielu marzy o możliwościach supermana, stąd zapewne narodziła się wiara w supermana. Magia i czary wydają się drogą do osiągnięcia władzy nad naturą i innymi ludźmi. Sądzi się, że istnieją jakieś nadnaturalne siły, które można by wykorzystywać za pomocą specjalnych technik lub przez wyjątkowo poruszonych czymś ludzi, choćby przez duchy. Jako że twierdzenia takie nie poddają się próbom szczegółowych badań naukowych, niektórzy ludzie mają ciągle nadzieję, że są one prawdziwe. Przekonania o istnieniu magii, czarów, astrologii i innych nadnaturalnych zjawisk demonologicznych spotyka się we wszystkich warstwach społecznych. Wiadomo na przykład, że bardzo wielu ludzi rozpoczyna czytanie prasy codziennej od strony poświęconej astrologii. Widać na co dzień, jak powszechni są różnego rodzaju uzdrawiacze i wróżbici. Brak jakiejkolwiek wiarygodności zjawisk nadnaturalnych nie ma żadnego związku z wiarą w zjawiska nadprzyrodzone bardziej ogólnej natury, tj. z wiarą w istnienie Boga. Wiara w istnienie jakiegoś bóstwa (lub bóstw), które miałoby spełniać wielorakie funkcje jednocześnie wszechmocnego, wszechobecnego kreatora ziemi i nieba odpowiedzialnego za losy wszechświata, jest powszechna prawie we wszystkich cywilizacjach i kulturach. Bóg może być postrzegany jako Personifikacja tych wszystkich mocy, które sami chcielibyśmy posiadać. Modlimy się do Niego, aby wykorzystać Jego moc dla naszego dobra, lub aby oddalić od nas nieszczęścia. Chleba naszego powszedniego daj nam dzisiaj... ale nas zbaw ode złego to przecież powszechnie wymawiane słowa przez wielu ludzi na całym świecie. Jihad, czyli święta wojna w islamie, to także współczesna próba przeciągnięcia Boga na swoją stronę. Wiara w Boga wydaje się również wymagać od wierzącego respektowania czegoś, czego moja matka wymagała ode mnie w młodości Nigdy nie mów: niemożliwe. W ten sposób chciała dodać mi odwagi, kiedy stawałem przed zadaniami wyraźnie przekraczającymi moje możliwości. Dla niej nie było rzeczy niemożliwych. Wydaje się, że to samo dotyczy wierzących, bo jakże inaczej mogliby pogodzić ze sobą sprzeczności przypisywane Bogu? Jest przecież z jednej strony wszechmocny, a wydaje się, że nie może zapobiec nieszczęściom spadającym na tych, którzy prowadzą żywot najwidoczniej bezgrzeszny. Jak Bóg może zezwolić na śmierć dziecka z powodu AIDS czy białaczki, skoro jest samą dobrocią i wszechmocą? Jak mógł dyktatorowi Iraku pozwolić na ludobójstwo w swoim kraju, okazując mu przy tym całkowitą bezkarność? Jak Bóg mógł zezwolić Hitlerowi na rzeź Żydów? Ból i cierpienie tak powszechne na całym świecie były czasami powodem utraty wiary wielu ludzi, ale nie wszystkich. Pomimo tych strasznych sprzeczności wierzący pozostają przy swojej wierze, i to właśnie jest powodem stwierdzenia nigdy nie mów: niemożliwe. Zatem, czy tylko to wystarcza do pokonania każdej przeszkody - sprowadzenia wszystkiego do zbioru prostych zasad, które mogą nawet ze sobą kolidować, i przymykania oczu na zakłamanie? Wszak w ten sposób wiara traci pierwotny sens. Ignorowanie niekonsekwencji nie rozwiązuje żadnego problemu, które one stwarzają. Pomimo to trzeba im stawić czoło. Co więcej, uchylanie się od jednoznaczności może prowadzić do kolejnych trudnych kwestii, a następnie do niedostrzegania dalszych sprzeczności. Doprawdy, w świecie materialnym istnieją zagadnienia prowadzące do pytań, na które wydaje się, że prawie, jeśli nie całkowicie, nie da się odpowiedzieć. Musimy jednakże umieć odróżnić je od pytań, które były trudne już pierwotnie (natura umysłu, stworzenie wszechświata itp.) i o których mówiliśmy w rozdziale pierwszym. Nie możemy pozwolić, aby nowe pytania zepchnęły nasze myśli na boczny tor. Zastanawiając się nad nimi, szczególnie nad tymi, które nie są trywialne, tracimy jedynie czas. Wtedy jednakże może powstać niebezpieczeństwo, że pominiemy dużo głębsze zagadnienia dotyczące natury życia, wszechświata i innych kluczowych idei. Spójrzmy teraz na kilka z tych trudnych problemów stwarzających pozory kwestii o podstawowym znaczeniu. Trudne problemy Nauka stoi przed wieloma trudnymi zagadnieniami, odmiennymi od tych, które próbuje się rozwiązać i przebadać za pomocą którejkolwiek z jednolitych teorii przyrody. Tak zwana bariera ostateczna poznania naukowego powstaje przy docieraniu do obydwu krańców: bardzo wielkiej skali (kosmologia, astrofizyka) oraz skali subatomowej (wysokie energie, fizyka cząstek elementarnych). Jednakże w tym ogromnym obszarze wielkości, od rozmiaru jądra atomu aż do rozmiarów naszej Galaktyki czy nawet większym, istnieją również niezwykle trudne problemy, które dopiero teraz zaczynamy podejmować jako intelektualne wyzwanie. Dotyczy to układów wielce złożonych, z którymi mamy do czynienia wokół nas na co dzień, takich jak na przykład: fizyka ciała stałego, pewne szczególne właściwości (żeby wymienić choćby nadprzewodnictwo czy nadlepkość), dynamika przepływów turbulentnych czy ruchy obłoków pary wodnej nazywane zwykle pogodą. Ograniczymy się tutaj jedynie do tych trzech typów układów, by wykazać, jaką mnogość problemów stwarzają nauce. Tym samym chciałbym wykorzystać je jako przykłady typowych, spośród tysięcy kwestii naukowych, które rzucą nieco światła na istotę nauki i jej ograniczenia. Nadprzewodnictwo, jak wskazuje sama nazwa, jest zdolnością pewnych materiałów do bezoporowego przewodzenia prądu elektrycznego. Występuje zwykle w metalach lub stopach (mieszaninie dwu lub więcej metali zwiększających zwykle wytrzymałość) bardzo przechłodzonych. Tak więc opór elektryczny ołowiu zanika zupełnie w temperaturze minus 266°C i prąd elektryczny, raz wzbudzony, może płynąć w jakimś zwoju nie słabnąc całymi latami. Ponieważ opór zanika, w przewodniku o małym przekroju, wykonanym z takiego materiału, może płynąć prąd o bardzo dużym natężeniu. Dlatego można go używać na uzwojenia elektromagnesów wytwarzających ekstremalnie wysokie pola magnetyczne. Elektromagnesy tego rodzaju mogą być w najbliższej przyszłości wykorzystywane do kwitujących pociągów poruszających się absolutnie bez tarcia. Przewiduje się również bardzo ważne wykorzystanie tego zjawiska do wysoce sprawnego przesyłania energii wzdłuż linii energetycznych. Zastosowanie takich materiałów nadprzewodzących jest ograniczone koniecznością chłodzenia ich do bardzo niskich temperatur, co jest kosztowne i wymaga specjalnych urządzeń. Poszukiwania materiałów nadprzewodzących w wyższych temperaturach, dochodzących do temperatur pokojowych, zakończyło w 1986 roku odkrycie dokonane przez George'a Bednorza i Alexa Mellera w Zurychu (za co uhonorowani zostali w ciągu niespełna roku Nagrodą Nobla) kompletnie nowego rodzaju materiału, który utrzymywał właściwości nadprzewodzące w temperaturze o około trzydziestu stopni wyższej niż ołów. Od tamtego czasu ukazało się ponad dwadzieścia tysięcy publikacji naukowych donoszących o substancjach nadprzewodzących w jeszcze wyższych temperaturach; rekord stanowi 120° powyżej punktu krytycznego ołowiu, co może prowadzić do przełomu w omówionych zastosowaniach. Niezależnie od zalewu doniesień badaczy o substancjach wykazujących nadprzewodnictwo wysokotemperaturowe, nie pojawiła się dotąd żadna wiążąca teoria wyjaśniająca to zjawisko (co czyni odkrycie Bednorza i Mellera jeszcze bardziej znaczącym, ponieważ okazało się typowym strzałem w ciemno, który trafił). Stanowi ono jednocześnie wyzwanie nie tylko dla ustalenia podstawowych praw rządzących uporządkowaniem atomów w każdym materiale, ale również dla określenia, w jaki sposób prawa te warunkują nadprzewodnictwo różnych rodzajów materiałów, co jest bardzo trudnym zadaniem, jako że w rachubę wchodzi złożoność poszczególnych zbiorów atomów. Pomimo że problem zalicza się do trudnych, to wcale nie oznacza, że należy do gatunku nierozwiązywalnych, ponieważ samo nadprzewodnictwo ołowiu wyjaśniono już ponad trzydzieści lat temu. Podobne trudności napotykamy w zrozumieniu zjawiska turbulencji, z którym mamy do czynienia, kiedy ciecz płynie w przewodzie z prędkościami zbyt dużymi dla przepływu o charakterze linearnym. Przepływ burzy się i wydaje się mieć wysoki stopień nieprzewidywalności i złożoności, lecz pomimo to zachowuje pewien stopień spójności. Podstawowe równanie ruchu jest znane. Rozpoczęte we wczesnych latach osiemdziesiątych symulacje komputerowe wykazały obecność wydłużonych włókien cieczy ułożonych w niezmiernym nieładzie. Takie same włókna zaobserwowano później w badaniach przepływu cieczy pomiędzy obracającymi się w przeciwnym kierunku tarczami. Doprowadziło to do stworzenia zupełnie przyzwoitego modelu przepływu turbulentnego dwu cieczy, podczas którego jedna ciecz jest uformowana z wydłużonych włókien, a drugą tworzy silnie burzliwe środowisko. Kolejnym trudnym problemem naukowym jest prognozowanie pogody. Kłopoty są zaostrzone tym rodzajem przypadkowości, który objawia się niepokojem, że możemy wyjść z domu bez parasola i mimo prognozy dobrej pogody wrócić przemoczeni do suchej nitki, co stanowi jednocześnie codzienny test zastosowania naukowej metody. Pamięć o porażce meteorologów, polegającej na nieprzewidzeniu huraganowych wiatrów we Francji i w Wielkiej Brytan! w październiku 1987 roku i spowodowanych nimi zniszczeniach, jest trudna do zatarcia. Brytyjskie Biuro Meteorologiczne przewidywało podobny huragan niszczący w hrabstwie Somerset na poniedziałek, 29 listopada 1991 roku, lecz piękny, słoneczny i spokojny poniedziałek oraz szydercze komentarze prasowe następnego ranka, opisujące tłumy lekko ubranych spacerowiczów na plażach, wprawiły jego pracowników w głębokie zakłopotanie. Prognozy opierają się na możliwie najbardziej ścisłych naukowych metodach z wykorzystaniem najnowszego superkomputera Cray YMR 8132 wykonującego 2000 milionów operacji na sekundę. W starszej, wolniejszej maszynie wprowadzano dane o warunkach meteorologicznych (zebranych z całego świata) 50 000 razy na dzień, co pozwalało w ciągu czterech minut opracować prognozę pogody z piętnastominutowym i dłuższym wyprzedzeniem; Cray pracuje podobnie. Obecnie twierdzi się, że w ostatnich pięciu latach rzeczywista dokładność osiągnięta dzięki lepszemu modelowi klimatu, większym i szybszym komputerom oraz ulepszonym systemom obserwacji pogody umożliwiła prognozowanie na dwa do trzech dni naprzód; zastosowanie Craya wydłuża ten okres o kolejny dzień. Mogą jednak występować czynniki pomniejszające te osiągnięcia; wyliczenie prognozy na jeden dodatkowy dzień naprzód zwiększa koszty dziesięciokrotnie, a na dwa dni stokrotnie. Jednak jeżeli nawet nie istniałyby ograniczenia finansowe, to tak zwany efekt motyla, polegający na tym, że byle trzepotanie skrzydeł motyla w Tokio może wywołać huragan w Nowym Jorku, znacznie hamuje dalszy postęp. Wynika to z ekstremalnej wrażliwości równań stosowanych w prognozowaniu na podstawie danych warunków początkowych, wynikających z rzeczywistych obserwacji meteorologicznych. Prowadzi to do wytwornego (fashionable) świata chaosu, po raz pierwszy odnotowanego przez amerykańskiego meteorologa, który zauważył, że bardzo nieznaczna zmiana stanu początkowego może wywoływać później gwałtowne i nieprzewidywalne fluktuacje. Występowanie chaosu znacznie ogranicza stopień przewidywalności możliwy do uzyskania za pomocą czysto deterministycznych równań. Zwykło się sądzić, że cała historia wszechświata, jego przeszłość i przyszłość, dałaby się określić pod warunkiem, że w pewnej chwili znamy dokładnie położenie i pęd każdej cząsteczki. Przekonania objawiające się tak skrajnym determinizmem wyraża dziewiętnastowieczny francuski matematyk Łapiące w jednej ze swoich prac: Jakiś umysł, który znałby w danym momencie wszystkie siły występujące w naturze oraz wzajemne usytuowanie wszystkich ciał, umysł na tyle wielki, by ogarnąć ogrom danych potrzebnych do analizy i który byłby w stanie skomasować je w postaci jednego wzoru pozwalającego wyznaczyć ruchy zarówno największych ciał, jak i pojedynczych najmniejszych atomów we wszechświecie; dla takiego umysłu nic nie pozostałoby niepewne, zarówno przeszłość, jak i przyszłość jasno rysowałaby się przed jego oczyma. Fatalistyczne twierdzenia Laplace'a mają w tej chwili spore kłopoty. Chaos skazuje, że co najmniej układy nieliniowe, w rodzaju pogody, nie będą mogły żyć poddane zbyt dokładnej analizie umożliwiającej trafne prognozy. Sugeruje się na przykład, że efekty chaotyczne umożliwią trafne przewidywanie pogody z co najwyżej dziesięciodniowym wyprzedzeniem. Nawet jeśliby prawa natury były całkowicie deterministyczne, to niezwykła wrażliwość na warunki początkowe (i na najmniejsze szumy powstające w komputerze) wyklucza prognozowanie z trafnością, która mogłaby wynikać z rozważań Laplace'a. Kilku badaczy chaosu zasugerowało ostatnimi czasy, że przez minione trzysta lat nauka wprowadzała nas systematycznie w błąd; przekonujemy się obecnie, że przyszłość jest być może ustalona, lecz na pewno nie wyliczalna. Sugeruje się, że wolna wola może mieć swoje praźródło właśnie w nieprzewidywalności. W obecnej chwili możemy jedynie stwierdzić, że granica możliwości przewidywania nie wynika z praw fizyki, lecz tylko z naszej zdolności (a właściwie jej braku) zrozumienia następstw sytuacji o wysokim stopniu złożoności. Chaos jest ważny dla dziedzin nauki zajmujących się układami złożonymi i jest czynnikiem lepszego zrozumienia takich układów. Nie ma on jednak, oczywiście, najmniejszego wpływu na podstawowe prawa fizyki, takie jak klasyczne prawa ruchu Newtona, mechaniki kwantowej czy teorii względności Einsteina. Nie oznacza to wcale, że poziom bardziej złożony nie da się wydedukować z poziomów prostszych, lecz jedynie, że jest to o wiele bardziej skomplikowane, niż się spodziewaliśmy uprzednio. Układy chaotyczne znalezione w meteorologii i w przepływie turbulentnym są już obecnie przedmiotem analizy matematycznej i chaos w danych układach daje się przewidywać. Nie jest to nowa sytuacja w nauce. Odnotowano piękne wzory samoorganizacji w reakcjach chemicznych, lecz dopiero później zrozumiano je w terminach szczegółowych modeli dynamicznych podstawowych substancji składowych. Uwzględnienie chaosu dodało zrozumieniu naukowemu nowy wymiar, lecz nie był to zupełnie nowy kierunek. Nie daje się przy tym zauważyć żadnej granicy pomiędzy tymi dwoma poziomami - wszechświat nadal może być postrzegany w postaci ziaren piasku, jak to elokwentnie sugerował poeta William Blake: Dostrzegać wszechświat w ziarnku piasku, Niebo w dzikim kwiatostanie, Nieskończoność w dłoni zacisku, A wieczność pomieścić w godzinie. Pytania bez odpowiedzi We wprowadzeniu przedstawiłem wiele pozostających bez odpowiedzi pytań, które jak sądzę wydają się mieć podstawowe znaczenie, gdy przechodzimy do zagadnień dotyczących wszechświata. Uwzględniając w naszej dyskusji naturę systemów złożonych i chaotycznych omawianych w poprzedniej części, głównym zestawem zagadnień, którym pragnę zająć się w tej książce są: • W jaki sposób powstał wszechświat? • Dlaczego JTP jest właśnie tą konkretną teorią? • W jaki sposób da się wyjaśnić świadomość? • Dlaczego istnieje coś zamiast niczego? Można do tego zestawu dodać kolejne pytania. W jaki sposób zakończy się byt wszechświata oraz jak zaczął się czas - to pytania dotyczące świata materialnego, podczas gdy: w jaki sposób zostało zapoczątkowane życie wydaje się tak trudne, jak kwestia ludzkiej świadomości. Załóżmy, że znamy odpowiedzi na wszystkie pytania objęte pierwszym zestawem lub że dalszy rozwój nauki udzieli nam takiej odpowiedzi. Nie uda się wtedy znaleźć odpowiedzi na żadne z kolejnych pytań. Postaram się uzasadnić to twierdzenie. Jeżeli bylibyśmy w stanie zrozumieć, w jaki sposób ewoluuje wszechświat, wtedy moglibyśmy w zasadzie ekstrapolować prawa naukowe na przyszłą ewolucję. Prowadząc taki proces w nieskończoność zdolni bylibyśmy przewidzieć scenariusz końca wszechświata. W praktyce moglibyśmy napotkać silne ograniczenia wynikające z ewentualnej chaotycznej natury występującej w przyjętym modelu rozwoju wszechświata; na przykład efekt motyla, który trzepocząc skrzydłami w Tokio zmienia pogodę w Nowym Jorku, może stanowić podstawę takiego rozumowania. Niewielkie zmiany we wczesnych stadiach historii wszechświata mogą zostać tak bardzo wzmocnione, że jakiekolwiek precyzyjne przewidywania późniejszych stanów mogą być wielce ryzykowne. Niezależnie od tego, pewne generalne czy ogólne tendencje rozwojowe dadzą się z pewnością przewidzieć, choćby takie, jak ciągłe rozszerzanie się wszechświata, w którym galaktyki będą się coraz bardziej od siebie oddalać (zakładając, że cała materia wszechświata ma tę samą temperaturę) i tym podobne. Chciałbym tu podkreślić z całą mocą, że zdolność przewidywania zagłady wszechświata może bardzo zależeć od tego, w jaki sposób koniec taki pojmujemy. W zasadzie nie wydaje się również konieczne, jako warunek wstępny, natychmiastowe rozwiązanie zagadnienia początków czy kreacji wszechświata. Niewątpliwie uwiarygodniłoby to idee odnośnie do ewolucji wszechświata, jeżeli tłumaczyłoby inne trudne zjawiska, takie właśnie Jak, na przykład, początek wszechświata. Możliwe, że byłoby to korzystne, lecz tak naprawdę jest to tylko kwestia szczegółowości wyjaśnień. Zakładając, że wykorzystujemy idee i modele odpowiednie dla danego poziomu, ostateczny koniec wszechświata będzie wystarczająco opisany poprzez podanie pewnych wielkości, powiedzmy ciśnienia i temperatury, o których wiemy lub spodziewamy się, że będą prawdziwe. Nie zadowoliwszy się jednymi wynikami należy przyjąć inny poziom szczegółowości. Załóżmy na przykład, iż z naszego modelu wynika, że istniejący obecnie wszechświat będzie ulegał coraz większemu skupieniu przy nieskończonym wzroście temperatury. Zmusi to nas do przyjęcia jeszcze głębszego poziomu przemodelowania, uwzględniającego wzrost temperatury, aż do jakiegoś gorejącego końca. Tego rodzaju problem powstałby, gdyby początkowe stadium rozszerzania się wszechświata miało przejść w fazę kurczenia. W jakimś momencie w przyszłości temperatura wzrosłaby na tyle, że klasyczne prawa fizyki straciłyby swą ważność i należałoby zastąpić je prawami fizyki kwantowej, co stanowi już wyraźną zmianę poziomu szczegółowości wyjaśnień. Jeszcze później również nowe prawa musiałyby ulec modyfikacji. Na zasadzie symetrii pomiędzy początkowym rozszerzaniem się a ostatecznym j gorejącym końcem, należy się spodziewać, że zrozumienie ostatecznego końca 1 wszechświata wymagałoby tego samego poziomu wyjaśnień, co dla jego po- j wstania. Możemy przypuszczać, że wyjaśnienie początku wszechświata zawiera w sobie wszystkie możliwe poziomy. Koniec byłby zatem uwzględniony w początku. Z drugiej strony, jeżeli wszechświat miałby rozszerzać się w nieskończoność, to opis jego zachowania w chwili obecnej dałby się rozciągnąć na całą przyszłość. Inne pytania dotyczące świata materialnego, w rodzaju: W jaki sposób zaczął się czas?, wymienione wcześniej w tym rozdziale, są pytaniami, na które spodziewamy się uzyskać odpowiedź w ramach głównego zagadnienia | dotyczącego początku wszechświata. Wydaje się, że czas, przestrzeń i materia powstały jako jedno wydarzenie. Nazwanie czegoś początkowym wydarzeniem oznaczałoby, że zegar kosmiczny już wtedy tykał. Zarówno czas, jak i przestrzeń są uważane w nowoczesnej teorii względności za obiekty dynamiczne. W żadnym przypadku nie możemy pozostawić tykającego zegara w tle, zanim rozpoczął się wszechświat, ponieważ natychmiast powstanie pytanie: Kto stworzył zegar? Dokonania ostatnich lat wskazują, że powstanie życia nie jest zagadnieniem nie do rozstrzygnięcia. Zaczęto formułować prawa budowy układów samoreplikujących się (lub inaczej samopowielających się), a symulacje komputerowe stwarzają możliwość badania takich układów. Kluczowe zagadnienie, jakim było badanie protein i DNA, zredukowało się do kwestii samoreplikacji ich katalizatora (zwanego RNA). Cząsteczka RNA ma możliwość zarówno odtwarzania siebie samej, jak i budowania następnych cząsteczek, które z kolei katalizują budowę dalszych i tak bez końca. Zbudowano już cząsteczki, które mogą produkować takie same, o wielkości rzędu jednej dziesiątej RNA. Ewolucja genetyczna jest również skomplikowanym zagadnieniem, lecz w świetle dzisiejszej nauki nie wydaje się kwestią nie do rozwiązania. Widać obecnie wyraźnie, że któreś z czterech podstawowych pytań, na które nie potrafimy udzielić odpowiedzi, ma kluczowe znaczenie znalezienia rozwiązania dla innych pytań bez odpowiedzi oraz dla kolejnych, na które odpowiedź trudno jest znaleźć. Rozważmy teraz krótko samą naturę czterech pytań bez odpowiedzi, które sformułowałem na wstępie. W szczególności zajmiemy się zagadnieniem, w jaki sposób -jeśli w ogóle - egzystują one poza nauką. W 1928 roku amerykański astronom Edwin Hubble opublikował wyniki pomiarów przesunięcia dopplerowskiego odległych galaktyk, z których wynikało, że wszystkie galaktyki bardzo szybko oddalają się od siebie. Z ekstrapolacji ich ruchu wstecz w czasie wynikałoby, że jakieś piętnaście miliardów lat temu wszystkie były skupione w bardzo małym obszarze i odtąd uciekają od siebie z coraz większą prędkością. W 1964 roku odkryto powszechne we wszechświecie promieniowanie reliktowe wczesnego, gorącego stadium. Te i podobne wyniki pozwoliły zrozumieć wczesne fazy wszechświata, aż do momentu rzędu jednej setnej sekundy od jego powstania. Co zatem było wcześniej? Wydaje się, że jest to również pytanie, które może stawiać sobie nauka, chociaż należy ono do kategorii trudnych, z uwagi na ograniczenia finansowe nie pozwalające na badanie materii w bardzo wysokich temperaturach i ciśnieniach, zarówno w ziemskich akceleratorach cząstek wysokoenergetycznych, jaki w przestrzeni kosmicznej, ponieważ wtedy z kolei budowa większych i sprawniejszych teleskopów nastręczałaby poważne problemy. Powstały nawet wstępne propozycje odpowiedzi na pytanie, jak zaczął się wszechświat. Opierają się one na bardzo ważnym czynniku składowym nowoczesnej mechaniki kwantowej, zastępującym trzy sławne prawa ruchu Newtona. Cechą zasadniczą mechaniki kwantowej jest to, że zdarzenia następują jedynie z określonym prawdopodobieństwem, a nie z pewnością, która wynikałaby z praw Newtona. Wynika z tego, że istnieje jakieś niezerowe prawdopodobieństwo, że cząsteczka, powiedzmy taka jak elektron, może powstać z niego, z próżni. W istocie, próżnia zawiera w sobie mnóstwo różnych możliwości, z których jedną jest sam wszechświat. Zdarzyło się, że powstał z niczego. Jak to obrazowo napisał jeden z naukowców amerykańskich: Wszechświat Jest czymś w rodzaju darmowego obiadu. Szczegóły tego, w jaki sposób ten darmowy obiad mógł w ogóle zaistnieć, będą omawiane dalej, lecz już teraz można powiedzieć, że w zasadzie wyraźnie widać, w jaki sposób idee te mogą prowadzić do dających się przetestować przewidywań. Wydają się dlatego przynależeć do nauki. Następnym pytaniem jest, dlaczego właśnie ta konkretna teoria ma opisywać stworzenie wszechświata z niczego. To pytanie można by sformułować inaczej: Dlaczego właśnie JTP obejmuje najnowszą i najlepszą wiedzę naukową? Na pierwszy rzut oka wydaje się, że nie ma to naukowego uzasadnienia. JTP ma zgodnie ze swą rolą odpowiedzieć na wszystkie pytania naukowe wynikające z natury wszechświata. Lecz wydaje się, że nie jest zdolna uzasadnić wyczerpująco samej siebie. W odpowiedzi na te zarzuty naukowi optymiści twierdzą, z pewną dozą usprawiedliwienia, że na wszystkie kwestie naukowe, to znaczy takie, które prowadzą do dających się naukowo potwierdzić przewidywań, teoria JTP powinna dostarczyć wyjaśnień. JTP można by w ten sposób zweryfikować zgodnie z metodyką naukową. Dlatego również można znaleźć podstawy naukowe uzasadniające wybór JTP. Pasuje ona bowiem do wszystkich znanych faktów naukowych. Więcej na ten temat powiemy w dalszych częściach, lecz już teraz wyraźnie widać, że pytanie leży w sferze zainteresowań nauki. Jednym z istniejących faktów jest nasza świadomość i nasz własny świat psychiczny. Wydaje się, że jedną z cech, nie podlegającą szczegółowym wyjaśnieniom dokonywanym przez optymistów i zwolenników JTP, jest właśnie natura świadomości, bardzo trudno dająca się wyjaśnić na gruncie jakiejkolwiek znanej dotychczas ogólnej teorii. Niezależnie od ogromnych wysiłków dokonywanych przez psychologów i neurologów, niektórzy twierdzą, że kwestia ta pozostanie na zawsze poza obszarem dostępu nauki. Wybitny brytyjski psycholog, Richard Gregory, powiedział na przykład niedawno w programie radiowym, że wewnętrzna natura świadomości wyjaśniająca tak zwane uczucia czyste, będące doświadczeniami naszego umysłu, pozostaje całkowitą zagadką i nigdy nie da się wyjaśnić na podstawie naukowej. Może stanowić również tę część nauki, przysparzającą najwięcej niepokoju i przydającą jej nazwę Potwora Nauki, którą dostrzegł Appleyard i jego następcy, jak już o tym wspominaliśmy. Pomimo to, istnieje powiększająca się rzesza badaczy mózgu oraz naukowców zajmujących się zagadnieniami percepcji, którzy stopniowo rozwijają idee pozwalające żywić nadzieję, że problem może być jednak rozwiązany. Jeżeli poprosimy jakiegoś psychologa o uzasadnienie argumentacji Gregory'ego, usprawiedliwiającej ich twierdzenie, że mamy tu do czynienia z pewnikiem w rodzaju nie da się, wykluczającym, abyśmy kiedykolwiek byli w stanie naukowo zrozumieć świadomość, jedyną, zawsze powtarzaną odpowiedzią będzie, że to niemożliwe. Jeżelibyśmy zbudowali maszynę z wszystkimi wewnętrznymi połączeniami, aż do najmniejszego szczegółu, odpowiadającymi złożoności mózgu ludzkiego, czy zdołalibyśmy stwierdzić, że ma ona świadomość? Tego rodzaju pytanie wydaje się mieć wartość naukową i będę się nim zajmował szczegółowo później. Już teraz jednak widać, że nauka ma przed sobą długą drogę, by dotrzeć do sedna zjawiska świadomości i kilku z nas próbuje właśnie zrobić na niej pierwsze kroki. Obecnie świadomość nie musi znajdować się poza obszarem zainteresowań nauki. Powróćmy teraz do pytania, które wydaje się najtrudniejsze ze wszystkich - dlaczego istnieje coś zamiast niczego? Jest to pewna postać pierwszego i drugiego pytania o powstanie wszechświata i o to, dlaczego właśnie konkretna JTP ma to wyjaśniać. Faktycznie, jeśli przy wykorzystaniu wybranej JTP uzyska się odpowiedź na pierwsze pytanie, wtedy kwestia, czy coś istnieje, czy nie, redukuje się do drugiego pytania, przyjmując postać: Co zmusza nas do wybrania jakiejś konkretnej JTP, odpowiedzialnej za powstanie wszechświata? Istnieje jednakże różnica pomiędzy sformułowaniem, dlaczego ta JTP lub dlaczego jakakolwiek JTP zamiast żadnej. Może być tak, że w odpowiedzi na pytanie, dlaczego ta, zawierać się będzie również odpowiedź na pytanie dlaczego jakakolwiek, ale wcale tak być nie musi. Możemy, na przykład, wybrać jakąś konkretną teorię spośród wielu konkurujących, na podstawie kryterium elegancji bądź symetrii (często wykorzystywane przez naukowców), lecz nie otrzymamy uzasadnienia, dlaczego w ogóle powinniśmy wybrać jakąkolwiek JTP. Trudno pogodzić się z faktem, że wszechświat po prostu zdarzył się. Można dlatego uważać, że odpowiedź na pytanie, dlaczego jakakolwiek JTP jest najistotniejsza, brzmi - ponieważ ustala całkowity układ wszechrzeczy. Pomimo że znacznie odbiega od naszej codziennej egzystencji, właściwa odpowiedź uporządkuje nasze życie. Nie oznacza to wcale, że nie powinniśmy dalej zabiegać o codzienne sprawy tylko dlatego, że musi kiedyś nadejść koniec życia, a krótkie istnienie, nawet urodzenie w czepku, musi zostać usprawiedliwione własnymi dokonaniami. Lecz ta istotna odpowiedź może pomóc zrozumieć, kto lub co będzie ostatecznie oceniał naszą egzystencję. Coś takiego może stać się oczywiste, jeżeli poznamy powód naszego istnienia. Następstwa będą równie oczywiste, będziemy musieli także przyjrzeć się źródłom nienaukowym (jeśli takie w ogóle istnieją), które mogłyby stanowić wskazówkę przy podejmowaniu kluczowych decyzji naszego życia. A zatem, czy można naukowo wyjaśnić podstawy istnienia? Na pierwszy rzut oka wydaje się to niemożliwe. Aby od czegoś zacząć, musimy przyjrzeć się wszystkim możliwym kandydatom na teorie wszystkiego, które ponadto w jakiś sposób tłumaczyłyby same siebie; tylko takie teorie bowiem można uważać za samopotwierdzające się; wszystkie inne ich rodzaje należy od samego początku uznać za niszczące jakiekolwiek szansę usprawiedliwienia ich istnienia. Od takich JTP należy wymagać, aby wszystkie pewniki i założenia dały się wydedukować z samych siebie i to jedynie przy wykorzystaniu logiki. Blisko ćwierć wieku temu pewien amerykański fizyk zauważył, że takie teorie wszystkiego nie istnieją: Nie zdarzyło się dotychczas, aby wysiłki wyprowadzenia odpowiedniej teorii fizycznej, przy wykorzystaniu samej logiki, zakończyły się choćby najmniejszym powodzeniem. Jeśli osiągnięto jakieś sukcesy, to według mnie takie teorie nie były pozbawione założeń nie wymagających żadnych uzasadnień. Wydaje się więc, że odpowiedź na pytanie postawione na wstępie akapitu brzmi: nie. Jednakże nie wszystko jeszcze stracone. Bez wahania żonglujemy koncepcjami w rodzaju: „Zestaw teorii kandydujących na teorię wszystkiego", jakby były one ściśle zdefiniowane. Grozi to uwikłaniem się w paradoksy dobrze znane nauce od czasów, gdy na przełomie wieków, a nawet wcześniej, brytyjski filozof Bertrand Russell przed nimi przestrzegał. Ponadto podchodzimy do zagadnienia, jakbyśmy sami mieli jakąś nadnaturalną moc sporządzenia wykazu JTP i - przeglądając go - byli zdolni dokonać jakiegoś rozsądnego wyboru. Dlaczego wszechświat w ogóle istnieje w takiej właśnie postaci? Musimy koniecznie głębiej zastanowić się nad naturą samej nauki i wszechświata, zanim przejdziemy do jakichkolwiek konkluzji. Przekonamy się wtedy, że istnienie może być czymś znacznie subtelniejszym niż wskazywałaby na to dotychczas prowadzona dyskusja. 3. Optymiści Eksplozja rozwoju nauki Żyjemy w czasach gwałtownego rozwoju nauki, który rozpoczął się wraz z rewolucją naukową około trzystu pięćdziesięciu lat temu. Miała ona swoje źródło w mozolnym trudzie wcześniejszych myślicieli, poczynając od czasów starożytnej Grecji sprzed ponad trzech i pół tysiąca lat. Ponadto jednym z istotnych czynników, który umożliwił naukowcom swobodne i sprawne porozumiewanie się między sobą, stało się wynalezienie w piętnastym wieku przez Gutenberga i innych druku. Przed 1500 rokiem książki powstawały w Europie w tempie nie większym niż około tysiąca w ciągu roku; w 1950 roku produkowano już około 120 000 tytułów rocznie. W połowie lat sześćdziesiątych produkcja jednego kwartału odpowiadała produkcji całego stulecia wieków wcześniejszych. Wraz z pojawieniem się komputerów, faksów i poczty elektronicznej, porozumiewanie się naukowców stało się jeszcze łatwiejsze. Obecnie istnieje sieć elektroniczna łącząca tysiące użytkowników, umożliwiająca wymianę tekstów w ciągu ułamków sekundy. Najwolniejszym ogniwem tego łańcucha jest teraz istota ludzka! Uderzającym faktem w dziedzinie nauki ostatnich trzystu pięćdziesięciu lat było to, że jej zasobność, mierzona liczbą czasopism i publikacji naukowych oraz liczbą samodzielnych pracowników naukowych, podwaja się co piętnaście lat (niekoniecznie musi to odpowiadać liczbie odkryć naukowych). Samo podwajanie się nikogo nie powinno zaskakiwać, jako że populacja ludzi na Ziemi również podwaja się co około pięćdziesięciu lat. Skala czasowa tych zmian mimo wszystko uderza. Samo przez się wskazuje, że musi kiedyś nastąpić chwila, kiedy rozwój nauki ulegnie spowolnieniu, z pewnością zanim wszyscy mężczyźni, kobiety i dzieci staną się naukowcami! Może jednak tak się zdarzyć, że nowe sposoby komunikowania się, już teraz wykorzystywane, a w przyszłości wprowadzone do użytku, będą powodować dalszy rozwój nauki, mierzony jednak nie liczbą naukowców, lecz zwiększają się liczbą przekazywanych pomiędzy nimi informacji, która może się zwiększać w coraz to szybszym tempie. Uwypuklać to będzie tym bardziej znaczenie nowoczesności w nauce. Oznacza to, że w każdym okresie podwajanie się nauki (doubling period) liczba naukowców może pozostawać na niezmiennym poziomie. Przy okresie podwajania się liczby naukowców wynoszącym, jak obecnie, piętnaście lat, i przy przeciętnej długości okresu pracy naukowo--twórczej wynoszącym około czterdziestu pięciu lat, łatwo jest za pomocą zwykłej arytmetyki wykazać, że na każdych ośmiu naukowców żyjących kiedykolwiek przypada siedmiu żyjących współcześnie. Innymi słowy, większość naukowców żyjących kiedykolwiek, żyje właśnie teraz. Wraz z gwałtownym rozwojem nauki nadeszły czasy Wielkiej Nauki. Obliczone na wielką skalę doświadczenia, z wykorzystaniem niesłychanie kosztownych urządzeń w rodzaju wielkiego akceleratora elektronowego (Large Electron Positron — LEP) w Conseil Europen pour la Recherche Nuclaire, (CERN) w Genewie, mogą wymagać współpracy ponad stu wysoko wykwalifikowanych naukowców. Aby wypisać tylko wszystkie nazwiska autorów,) oraz pozycje ich wszystkich publikacji naukowych, trzeba czasami całej gęsto zadrukowanej strony. Stale zwiększający się koszt urządzeń rodzaju wymienionych, czy na przykład wielkich teleskopów, stanowi jeden z powodów dalszego ograniczenia rozwoju nauki. Amerykańscy naukowcy napotykają już teraz ogromne trudności w uzyskaniu funduszów potrzebnych na budowę, kolejnego wielkiego akceleratora cząstek, Superconducting Super Collider (SSC). Wielu obserwatorów sugeruje, że będzie to ostatnie tak wielkie urządzenie. Lecz zawsze prorocy przepowiadali klęskę za każdym razem, gdy przystępowano do budowy nowego wielkiego akceleratora cząstek, poczynając jeszcze od lat pięćdziesiątych. Głęboko jednak wierzę w pomysłowość! fizyków, którzy - jak sądzę - znajdą sposób konstrukcji nowych, sprawniejszych i tańszych urządzeń badawczych, pozwalających wejrzeć dużo głębiej! zarówno w świat jądra atomowego jak i kosmosu, nie widać jeszcze końca Wielkiej Nauki. A jak wyglądają postępy w naukowym rozumieniu? Czy tutaj również odnotowuje się tak gwałtowny rozwój odpowiadający szybkości zwiększania się liczby naukowców? Trudno jest to oszacować, ponieważ zrozumienie nie daje się zmierzyć liczbą publikacji naukowych. Jedynym sposobem pozostaje ocena struktury wiedzy naukowej wyrażonej podstawowymi teoriami, na których wspiera się nauka w danej chwili. Patrząc z tego punktu widzenia, wyraźniej widać, że nauka zmierza do unifikacji i uproszczenia rozwijanych teorii oraz do łączenia ich z innymi. W ten właśnie sposób, w 1864 roku, brytyjski fizyk James Clark Maxwell połączył elektryczność i magnetyzm w jednej spójnej teorii elektromagnetyzmu (co doprowadziło do powstania tak ważnych środków łączności jak radio i telewizja). Około 1974 roku dołączyła do tego promieniotwórczość. W 1905 roku Albert Einstein zastąpił prawa ruchu odnoszące się do cząstek, szczególną teorią względności oraz zunifikował ją z grawitacją, swoją potężną ogólną teorią względności, w 1916 roku. Prawa Newtona zostały również zastąpione, w odniesieniu do bardzo małych (o rozmiarach atomowych) cząstek, przez mechanikę kwantową, powstałą zasadniczo w roku 1926. Teoria ta jest teraz podstawą fizyki ciała stałego, na podstawie której są budowane, powszechne teraz w przemyśle, elementy elektroniczne. W 1982 roku wysunięto przypuszczenie, że wszystkie siły dadzą się zunifikować w obrębie jednej teorii tak zwanych superstrun. Nie posiadamy jeszcze potwierdzenia tej ostatniej unifikacji, lecz dla wielu naukowców pracujących w tej dziedzinie wydaje się ona wielce obiecująca. Procesy unifikacji i symplifikacji zostaną opisane bardziej szczegółowo w drugiej części książki. Te ogromne postępy można było uzyskać jedynie na drodze uprzedniej mozolnej pracy niezliczonej rzeszy naukowców. Należy dodać, że zgodnie z oczekiwaniem ogólnemu rozwojowi nauki naszkicowanemu powyżej, towarzyszył znacznie powolniejszy postęp w zrozumieniu. W kolejnych krokach na drodze do unifikacji oraz we wszystkich teoriach konstruowanych uprzednio opierano się w zasadzie na podejściu redukcjonistycznym i tłumaczono właściwości obiektów złożonych za pomocą właściwości ich części składowych. Jeżeli na każdym poziomie natura realizuje mnóstwo takich kombinacji składowych, to należy się spodziewać wielu rodzajów obiektów, które można opisywać jako złożone. Oznacza to, że przy przechodzeniu od obiektu do jego części, następuje znaczne skupienie wiedzy. Lecz kolejny krok do części jakiejś części wymaga zwykle ogromnej liczby danych, pozwalających na zebranie wystarczających ilości informacji opisujących szczegółowo właściwości tych mniejszych elementów. W ten sposób docieramy do konkluzji, że wielu ludzi musi dokonać ogromnego nakładu pracy (zarówno przy zbieraniu danych, jak i przy budowaniu wstępnych teorii), aby niewielu mogło dokonać bardzo niewielkiego postępu na drodze do zrozumienia: Wielu się wzywa, lecz niewielu się wybiera. Jeżeli jest to podstawowa natura modus operandi nauki z gwałtownym wzrostem aktywności i liczby uczonych wymaganych do wykonywania prac Podstawowych, a tylko niewielu z nich do dokonania przełomu, przy coraz wdziej zwiększającym się zakresie zjawisk, które trzeba uwzględnić w badaniach podstawowych - to można oczekiwać wyraźnej granicy, jaką ma nauka przed sobą, ponieważ na Ziemi w pewnej chwili zabraknie naukowców utrzymania istniejącego tempa rozwoju nauki. Już przedtem zauważyliśmy że liczba naukowców podwaja się w tempie trzy razy szybszym niż populacja ludzi na Ziemi. Dlatego niepowstrzymany wzrost nauki musi ulec spowolnieniu i będzie należało bardziej selektywnie dobierać kierunki jego dalszego rozwoju. Z drugiej strony, jeżeli rzeczywiście JTP jest w zasięgu ręki to oznacza, że nauka może być samoograniczająca się: niewykluczone, że właśnie kopie sobie samej grób! Ograniczenia rozwoju nauki nie byłyby wtedy istotne, jako że nie będzie już potrzebny żaden nowy Einstein. Naukowi optymiści Naukowcy są obecnie wynoszeni na coraz wyższej fali nauki. Wykazano to na przykładzie opisanym w poprzednim podrozdziale. Nie zaskakuje więc, że niektórzy z nich stają się optymistami w kwestiach zrozumienia wszechświata jako całości. Problem, przed którym stoją, próbując otrzymać kompletny obraz wszystkiego, ujął wzniosie William Blake, jak to już cytowaliśmy: Dostrzegać wszechświat w ziarnku piasku, Niebo w dzikim kwiatostanie, Nieskończoność w dłoni zacisku, A wieczność pomieścić w godzinie. Czy doprawdy naukowcy spodziewają się osiągnąć taką kompletną wiz i czy rzeczywiście nauka może opisać wszechświat in toto? Naukowi optymiści twierdzą, że tak. Jeden z nich, kosmolog Pauł Davies ujął to zwięźle podczas niedawnej dyskusji radiowej: Naprawdę wydaje się, że po raz pierwszy posiadamy co najmniej zarys teorii unifikującej w obrębie jednorodnego układu wszystkie siły występujące w przyrodzie, wszystkie cząstki elementarne, czas i przestrzeń oraz początek wszechrzeczy, wszystko w ramach jednej pojedynczej teorii. Po raz pierwszy zaistniał taki przypadek i jeśli nawet my4 my się w poszczególnych punktach, to jednak przynajmniej wiemy, ja taka teoria powinna wyglądać. Pomijając już fakt, że z pewnością nie pierwszy raz twierdzi się, iż odkryto właśnie teorię wszystkiego, na przykład Tales z jego ideą, że wszystko jest z wody jak już mówiliśmy w pierwszym rozdziale, jest jednak interesujące, że ktoś ma odwagę głosić takie przekonania. Szczególnie wtedy, gdy rozporządza się jedynie zarysem, gdy - jak to ujął Davies - wiemy, jak taka teoria powinna wyglądać. Ponadto nauka nieustannie rozwija się i złożone problemy w rodzaju turbulencji, prognozowania pogody czy nadprzewodnictwa zyskują coraz bardziej na znaczeniu. Nauki podstawowe również robią postępy, przy niewątpliwie niezwykłym skoku dokonanym w tym stuleciu. Co więcej, rozwój wszystkich dziedzin nauki nabiera coraz większego rozpędu. W jaki sposób rozwój nauk podstawowych miałby ulec raptownemu zatrzymaniu w wyniku nagłego odkrycia JTP? W swoich twierdzeniach Davies nie jest osamotniony. Od połowy lat siedemdziesiątych panująca wśród naukowców opinia, że nauka zmierza do swojego końca, jest dość powszechna. Po osiągnięciu w 1974 roku znaczącej unifikacji sił elektromagnetycznych i odpowiedzialnych za promieniotwórczość, powstały propozycje dalszej unifikacji, zwanej teorią wielkiej unifikacji, w skrócie TWU. W tym samym mniej więcej czasie zaproponowano nowy rodzaj symetrii pomiędzy materią a promieniowaniem, zwany supersymetrią. Idea symetrii jest w przyrodzie wszechobecna, co widać w postaci płatków śniegu, kołowych fal rozprzestrzeniających się na powierzchni wody czy w pięknie kryształów. Wydaje się, że symetria przenika do najmniejszych wielkości do obszarów wewnątrzatomowych. W latach pięćdziesiątych i sześćdziesiątych dokonano znaczących postępów w fizyce cząstek elementarnych przyjmując model ósemkowy. Umożliwił on odkrycie w nowo zbudowanych akceleratorach wielu nowych cząstek, których masy i ładunki pozwoliły zgrupować je w zestawy po osiem (cząstki te dają się między sobą rozróżnić dopiero przy wykorzystaniu specjalnych metod). Podejście takie umożliwiło dalsze postępy w unifikacji sił. Ostatni model wszystkich cząsteczek występujących w przyrodzie jest oparty na uaktualnionej wersji modelu ósemkowego mającego zamiast oktetów triplety, duble i single, stwarzające najbardziej korzystne uporządkowanie. Nazywa się go czasami modelem 3-2-1, odpowiadającym rozmiarom tych multipletów. Wszystko to może wyglądać jak jakaś dziwna numerologia, lecz o dziwo Prowadzi do zadziwiającej zgodności z większością faktów dostępnych dotychczas, a dotyczących badań w akceleratorach cząstek. Przyroda na tyle, na ile możemy jak dotąd zaobserwować, wydaje się przestrzegać jakiejś podstawowej symetrii, z której wynika, że istnieją pewne trzy cząstki nierozróżnialne od siebie, obok innych dwu w dublecie. Fizycy wysokich energii wykazali duże poczucie humoru nazywając te trzy cząstki kwarkami (kwark - po niemiecku głupstwo, drobnostka albo twaróg), chociaż w rzeczywistości ich nazwa pochodzi z cytatu z Ulissesa Jamesa Joyce'a brzmiącego w oryginale: „Three quarks for Muster Mark". Kolejne nazwy ich właściwości brzmią również nieco humorystycznie: górny, dolny, dziwny, powabny oraz piękny. Wydaje się jednak, że fizycy posunęli się nieco za daleko, gdy kilka lat temu w oficjalnym przemówieniu otwierającym konferencję międzynarodową określenie denny (bottom), dla właściwości odpowiadającej pięknu, brzmiało dla nich zbyt prymitywnie! Model 3-2-1 tak bardzo pasuje do wszystkich dostępnych faktów, że aż przysparza naukowcom kłopotu. Nie da się znaleźć żadnej szczeliny w pancerzu teorii, żadnej luki, przez którą udałoby się dojrzeć wyjaśnienie modelu 3-2-1. Wydaje się dziwne, że można uważać jakąś teorię za zbyt dobrą, gdy jest to wartość, której nauka zwykle z wielkim trudem poszukuje. Jest to obecnie odczucie powszechne, które ponadto wskazuje, że żadnej teorii nie można uważać za doskonałą, ponieważ zawsze występują w niej pewne nie dające się wytłumaczyć elementy. Wspomniana wcześniej supersymetria była ważna w połowie lat siedemdziesiątych, ponieważ zwiększała nadzieję na możliwość objęcia unifikacją również grawitacji; ta ujednolicona wersja została nazwana supergrawitacją. Z różnych przyczyn nadzieje nie spełniły się, przy czym jedną z nich było to, że grawitacja nie poddaje się symetrii 3-2-1, której podlegają inne siły. Jednak niektórzy naukowcy zwietrzyli już tu sukces. Pojawienie się w 1982 roku superstrun, które wydają się obejmować grawitację i tworzą bardzo prawdopodobnie model 3-2-1, było tuż-tuż. Znajdowały się już w zasięgu ręki, a przynajmniej tak utrzymywano. Nasuwające się w świetle tego przypuszczenie, że nauki podstawowe kończą się, było na pozór całkowicie uzasadnione. Jeżeli wszystkie siły w przyrodzie - elektromagnetyzm, rozpad radioaktywny, siły jądrowe i grawitacja - miałyby być sprowadzone do jednej supersiły, to dlaczego miałaby istnieć jakakolwiek potrzeba występowania innych sił podstawowych czy oddziaływań nie objętych tą teorią? Złożoność natury, widoczną wokół nas, można by zredukować najpierw do zestawu sił działających w jakiś skomplikowany sposób pomiędzy plastrami materii. Następnie siły te sprowadzono by do jednorodnej siły działającej pomiędzy jakimiś szczególnymi formami materii (reprezentowanymi przez kwarki i inne cząstki tego rodzaju). W końcu ta szczególna materia zostałaby sama zunifikowana z jednorodną siłą poprzez supersymetrię, a cały materialny wszechświat, zarówno materia, jak i promieniowanie, tworzyłby jedną zunifikowaną wielkość fizyczną. Wewnętrzne oddziaływania byłyby opisane przez nową teorię superstrun. Nie istniałaby żadna potrzeba tworzenia jakiejś głębszej podstawowej teorii materii, a niektórzy uczeni twierdzili, że nie byłoby już miejsca na nic innego. Nowa superteoria byłaby już tak ściśle upakowana, że nie dałoby się już nic do niej dodać. Sugerowano, że żadna inna teoria nie mogłaby już powtórzyć tej samej sztuczki z unifikacją wszystkich znanych elementów materialnego wszechświata z ich wszystkimi znanymi właściwościami. Ta ostatnia cecha ma szczególnie istotne znaczenie, ponieważ problem zunifikowania grawitacji z mechaniką kwantową-powstanie grawitacji kwantowej-pozostaje nie rozwiązany od lat trzydziestych. Okazał się na tyle trudny, że w zasadzie oczekiwano, iż tylko jedna teoria mogłaby pretendować do miana teorii obowiązującej w nauce. Za taką teorię okrzyknięto najpierw teorię supergrawitacji, a później teorię superstrun. To wyjaśnia, dlaczego Stephen Hawking mógł napisać o ewentualnych wyborach podstawowych praw przez jakieś bóstwo: Miałoby ono oczywiście dalej możliwość wyboru praw obowiązujących w przyrodzie. Nie byłby to już jednakże wybór całkowicie swobodny. Istniałaby tylko jedna (lub bardzo niewiele) całkowicie zunifikowana teoria, w rodzaju złożonej teorii strun, która jest wewnętrznie spójna i dopuszcza istnienie układów tak skomplikowanych jak istota ludzka - zdolna badać prawa wszechświata i pytać nawet o naturę Boga. W latach siedemdziesiątych uświadomiono sobie, a w latach osiemdziesiątych myśl tę rozwinięto, że wszechświat może być fluktuacją próżni. Trudno to sobie wyobrazić, ale pomocny może tu być przykład kropli deszczu pojawiającej się nagle, mimo bezchmurnego nieba (przy czym niebo byłoby wtedy tą próżnią, a kropla wszechświatem). Dynamicznych podstaw do takiego rozumowania dostarcza tak zwana mechanika kwantowa, która niepewnością zastąpiła pewność mechaniki Newtona. Uprzednio cząstki były traktowane jako solidne kule bilardowe; obecnie stały się czymś niewyraźnym i tajemniczym, nie dającym żadnej pewności, że możemy je znaleźć w jakimś konkretnym miejscu, w konkretnej chwili. Stały się również nieokreślone pod względem energii czy prędkości, a nawet samego swojego istnienia, bowiem wszystko podlega fluktuacjom. Lecz jeżeli cząstka może pojawiać się lub znikać, to może tak dziać się również z całym wszechświatem. W rzeczywistości można go uważać za wielką fluktuację, lecz zależy to jeszcze od skali, w jakiej rozpatrujemy ten problem, w odpowiednio dobranej fluktuacja nie musi być wcale taka duża. Aby wyjaśnić istnienie wszechświata jako fluktuację kwantową próżni Jako kroplę wszechświata pojawiającą się na niebie niczego, należy wyjaśnić jednoczesne powstanie przestrzeni i czasu, które istniej ą we wszechświecie. W tym celu potrzebujemy teorii, w której teoria kwantowa będzie w odpowiedni sposób skojarzona z grawitacją. Wtedy czas i przestrzeń pojawią się nagle wraz z materią wszechświata już w tej pierwotnej kropli. Powstanie teorii superstrun, dostarczyło nadziei, że teoria taka jest w ogóle możliwa i że kwantowa kreacja wszechświata z niczego może znaleźć naukowe uzasadnienie. Tak w skrócie wygląda tło naukowego optymizmu ostatnich dwóch dziesięcioleci. Spróbujmy wyjaśnić, jak należy rozumieć wypowiedzi o tym, że nauki podstawowe mają się ku schyłkowi. Różnią się one zasadniczo od wypowiedzi, z której wynikałoby, że cała nauka się kończy, ponieważ zdajemy sobie sprawę z niezwykle złożonego charakteru przyrody na poziomach znajdujących się powyżej, żeby tak powiedzieć, poziomu podstawowego. Na te skomplikowane pytania nie odpowiada się. Nauki podstawowe to jedynie część całej nauki. Ponadto na uboczu pozostaje cała sfera świata psychicznego. W jaki sposób w obrębie JTP można by wyjaśnić świadomość? Pominięcie złożonej natury świadomości oraz - nazwijmy to - arogancja pojawiająca się w wypowiedziach optymistów obwieszczających koniec nauk podstawowych, doprowadziło do wytworzenia się silnej opozycji, która powątpiewa o JTP znajdującej się jakoby w zasięgu ręki. Sądzę, że możemy tutaj nie uwzględniać poglądów, wedle których świat jest zbyt złożony, by można było żywić jakąkolwiek nadzieję, że zostanie zrozumiany w całości, i Istnienie podstawowych praw rządzących oddziaływaniami oraz cząstek elementarnych o eleganckiej symetrii (choćby symetrii 3-2-1 opisanej powyżej) nie jest kwestionowane nawet przez tych naukowców, którzy utrzymują, że złożoność świata stawia przed nauką zadania daleko sięgające w przyszłość. Na drodze od poziomu podstawowego, na którym symetria 3-2-1 staje się oczywista, do powiedzmy zjawisk związanych z pogodą, jest tyle przeszkód, że nie da się tego podważyć. Postęp osiągnięty w zrozumieniu teorii symetrii 3-2-1 mógł być dokonany jedynie na drodze badania natury materii w mniejszych odległościach i przy większych energiach niż czyniliśmy to kiedykolwiek dotychczas. Jest to typowe podejście redukcjonistyczne. Moje krytyczne nastawienie do panującego optymizmu odnośnie do JTP, w zakresie superstrun czy jakiejkolwiek innej teorii zajmującej się samą materią, wynika z tego, że żadna z nich ani teraz, ani w przyszłości nie podejmuje i nie wyjaśnia zagadnień związanych ze świadomością. Natura świadomości zdumiewała ludzkość przez tysiąclecia, lecz nie uczyniono żadnego postępu zbliżającego do rozwiązania problemu samym tylko stwierdzeniem, że teoria superstrun lub jakaś inna jest JTP. Faktycznie, od cząstek elementarnych i superstrun do świadomego mózgu należy przebyć długą drogę. Mózg pracuje najlepiej w temperaturach pokojowych, a superstrun nie da się zaobserwować, zanim nie osiągnie się niewyobrażalnie wysokich temperatur. Nie ma łatwego sposobu połączenia tych tak odległych od siebie zagadnień, czemu przeszkadza jeszcze powszechna ignorancja w zakresie budowy i działania mózgu. Sam fakt, że ktoś dzisiaj może napisać: badania wykazują, że wielu z nas wykorzystuje zaledwie jeden procent pojemności, a tym samym możliwości, mózgu, i że można trenować w celu osiągnięcia znacznego wzrostu możliwości psychicznych na drodze wykorzystania pewnego potężnego potencjału intelektualnego, który każdy posiada, dobitnie wskazuje na całkowity brak zrozumienia funkcjonowania mózgu (jak również na łatwowierność, jeżeli nie autora, to przynajmniej niektórych czytelników). Cytowałem już psychologa Richarda Gregory'ego, który nie jest wcale osamotniony utrzymując, że świadomości nie daje się wytłumaczyć jedynie aktywnością mózgu. W rozdziale 3 przedstawię argumenty wspierające czysto materialistyczną teorię mózgu, która jak to później się okaże będzie miała znaczący wpływ na sposób, w jaki pojmujemy wszechświat i jak postrzegamy w nim samych siebie. W szczególności doprowadzi to do stworzenia JTP oraz do wniosku, że istnienie Boga staje się dużo mniej prawdopodobne. Używa się też innego argumentu przeciwko możliwości znalezienia kiedykolwiek JTP. Jest oczywiste, że JTP, jaka by ona nie była, musi być wyrażona w matematycznej formie. Pomyślmy, jak będzie się ona wydawać przestarzała fizykom teoretycznym za tysiące lat. Do tego czasu matematyka uczyni prawdopodobnie ogromne postępy. Przyszłe teorie i idee matematyczne uczynią te dzisiejsze trywialnymi, podobnie jak dla współczesnych matematyków małe znaczenie ma wszystko przed wynalezieniem rachunku różniczkowego i całkowego. W samej matematyce rozwinęły się nowe obszerne dziedziny. Żadna z nich nie znajdzie zastosowania w najbliższych latach w jakiejkolwiek JTP. Dotychczas teorie fizyczne były wyrażane matematyką ostatnich dni. Wszystko to przekonuje mnie, że przyszły nie kończący się rozwój matematyki umożliwi powstawanie modeli materialnego świata w coraz bardziej doskonałej z punktu widzenia naukowego wersji. Nie dostrzegając końca rozwoju matematyki, nie można również dostrzec kresu jej przydatności w wyjaśnianiu coraz głębszych warstw rzeczywistości. Pytania z przeszłości Warto spojrzeć w przeszłość nie tylko na obszary zainteresowań nauki, lecz również religii, by zobaczyć, czy naukowi optymiści - utrzymujący, że wkrótce wszystko już będzie wyjaśnione - mają jakieś uzasadnienie dla wygłaszania tego rodzaju kategorycznych twierdzeń. Czy naukowe: spodziewali się w przeszłości, że powstanie taka możliwość? W jaki sposób świat religii mógł reagować na tę fantastyczną ewentualność? Jednocześni powinniśmy zaliczyć, uwzględniając ich racje, pewne kwestie wynikające z religii do kategorii pytań bez odpowiedzi. Ten obszerny zestaw zagadnień wypełnia wiele bibliotek. Nie proponuję tutaj skondensowanej historii światowej nauki i religii, lecz jedynie wejrzenie w te obszary, które wydają mi się pouczające. Pewnym usprawiedliwieniem widocznego szkicowego podejścia jest moje dążenie, by rozwinąć współczesne, a nie minione idee. Warto wykazać, dlaczego całkowite pominięcie minionych idei jest zupełnie usprawiedliwione. Szczególnie dlatego, że jesteśmy przyzwyczajeni do tworzenia nowych idei na podstawie intelektualnej tradycji. Idee uznane za właściwe, są dalej wyznawane, przynajmniej dopóki sprawdzaj ą się w rozwiązywaniu nowych problemów. Postęp nauki został osiągnięty właśnie na takiej drodze. W wyniku faktu, że większość naukowców kiedykolwiek żyjących, żyje współcześnie - tak zwany efekt natychmiastowości opisany wcześniej w tym rozdziale - większość współczesnych twórczych idei, przynajmniej w naukach przyrodniczych, powstała stosunkowo niedawno. Pozostaje to również prawdą w odniesieniu do nauk społecznych. Wszystkie książki naukowe, w odróżnieniu od książek z dziedzin związanych ze sztuką (które nie starzeją się), podlegają ciągłej dezaktualizacji. Szekspir jest zawsze aktualny (sam wziąłem ze sobą jego Dzieła wszystkie, kiedy jechałem do CERN-u, do laboratorium fizyki cząstek w Genewie, podczas gdy z dziedziny nauki zabrałem jedynie najnowsze opracowania). Omawiane wcześniej trudne pytania były przedmiotem zainteresowania ludzi od starożytności, co wcale nie oznacza, że musimy się teraz zajmować wszystkimi proponowanymi wtedy rozwiązaniami, ponieważ propozycje te nie przysporzyłyby nauce współczesnej żadnych korzyści. Pomimo to pewne występujące w przeszłości stanowiska i postawy są warte poznania. Tematem tym zajmuje się przede wszystkim historia nauki, lecz jej zwykłym miejscem są na przykład wykłady na odpowiednich wydziałach uniwersytetu. Filozofowie przyrody starożytnej Grecji zyskali rozgłos dzięki swoim teoriom wszystkiego. Wybór wody przez Talesa czy powietrza przez Anaksymandra, to pierwsze z takich wczesnych kandydatur. Atomy Demokryta stanowiły już jakby nowoczesne podejście, podczas gdy joński Anaksagoras wierzył, że materię można dzielić w nieskończoność i że umysł jest oddzielną substancją, która wnika do układów żywych i staje się źródłem wszelkiego ruchu. Pitagoras stwierdził, że wszystkie rzeczy są liczbami i od niego biorą swój początek nowoczesne idee, że matematyka jest językiem podstawowym teorii naukowych. Faktycznie, poziom wykształcenia matematycznego wymagany do zrozumienia teorii superstrun jest tak wysoki, że wielu potrzebuje dodatkowych wykładów, by ją zrozumieć. Jednakże wydaje mi się, że zrozumienie - stosunkowo biorąc - nie jest teraz trudniejsze niż było w czasach Pitagorasa, kiedy należało pojąć jego słynne twierdzenie, którego - mam nadzieję - dotychczas uczą się dzieci na lekcjach geometrii. Ostatnie teorie greckich filozofów, takie jak platońska, powstały na gruncie przekonania, że matematyka jest źródłem prawdy zupełnym i idealnym; tak też powstały idee platońskie, które jak twierdzono kryją w swoim wnętrzu prawdziwą rzeczywistość. Uważano, że na przykład sprawiedliwość czy piękno istniej ą niezależnie i pierwotnie w stosunku do działania czy istnienia ludzi obdarzonych tymi cechami. Późniejsi filozofowie również tworzyli mieszaninę zasad moralnych i racjonalizmu, która oddziałuje do dzisiaj, co przejawia się nawet na kartach tej książki. Musimy sobie jednak zdawać sprawę z tego, że zarówno Platon, jak i inny grecki filozof, Arystoteles (wybitny uczeń Platona), sprzeciwiali się bardziej nowocześnie wyglądającym materialistycznym poglądom Demokryta, który twierdził, że wszystko - życie, porządek, umysł, cywilizacja, sztuka itp. - da się sprowadzić do ruchu cząstek materii podlegającym pewnym prawom. Idee Pitagorasa miały wielki wpływ na prace Isaaca Newtona. Jego trzy prawa ruchu oraz jego siła grawitacji, odwrotnie proporcjonalna do kwadratu, stworzyły ramy - w postaci równań matematycznych - dla zrozumienia obszernego zakresu zjawisk oraz umożliwiły przewidywanie innych. Wyrażone w formie matematycznej teorie oraz ich doświadczalna weryfikacja stały się normalną drogą rozwoju nauki, przy czym cała współczesna fizyka i astronomia wykorzystują idee z obszaru matematyki wyższej - macierze i wektory, równania różniczkowe i całkowe, teorię grup, topologię oraz inne dziedziny matematyki - do opisu coraz bardziej zrozumiałego świata przyrody. Matematyka słusznie bywa nazywana królową nauk. W tym przynajmniej względzie naukowi optymiści mają rację twierdząc, że JTP będzie wyrażona w języku matematyki. Pomijanie zagadnień związanych z umysłem jest czymś, czego oczekują naukowcy z dziedzin związanych z fizyką. Szczegółowe badania mózgu i umysłu znajdują się ciągle w powijakach. Dopiero w 1865 roku dwóch niemieckich chirurgów przeprowadziło doświadczenia wykazujące, w jaki sposób stymulacja elektryczna pewnych rejonów mózgu powoduje różne ruchy. Odkrycie, że różne obszary mózgowia są odpowiedzialne za różne funkcje, nic narodziło się nagle. Dopiero teraz dysponujemy pewnymi wskazówkami, że rożne rejony kory czy śródwzgórza mogą mieć związek ze świadomością. Dopiero na przełomie stuleci Freud zaczął rozwijać swoją teorię podświadomości. Cała nasza wiedza na temat mózgu, skądinąd bardzo skomplikowanego układu, ma zdecydowanie bardziej powierzchowny charakter niż nasze zrozumienie materii. Psychiczna rewolucja naukowa zaczęła się jakieś dwieście lat po materialistycznej rewolucji naukowej. Pierwsza ma w stosunku do drugiej znaczne zaległości do odrobienia. Powody tego opłakanego stanu rzeczy (wiemy dużo, dużo mniej o nas samych niż o naszych ciałach) można znaleźć zarówno w podejściu filozofów do spraw związanych z umysłem, jak i teologów przeszłości oraz w istotnych problemach, które nastręczają się badaczom. Stanowisko świata religii wobec naukowych optymistów jest oczywiste i wynika z faktu, że wierzący na wszystkie trudne pytania mają gotowe odpowiedzi, których im dostarcza wiara. Nie wynika z tego, że odpowiedzi te powinny być zrozumiane. Tak więc chrześcijaństwo naucza: rozumienie śmiertelników jest bezwartościowe, a wczesny myśliciel chrześcijański św. Anzelm stwierdził: Nie zrozumiem, dopóki nie uwierzę. Głównym elementem wiary teisty wydaje się to, że dusza jest niematerialna i że może mieć bezpośredni kontakt z Bogiem. Te podstawowe założenia przewijają się wyraźnie przez całą Biblię, poczynając od pierwszego wersetu Genesis. Silnie objawiają się również w tekstach teologów nowożytnych, jak na przykład w tekście pastora-fizyka Johna Polkinghorne'a, rektora Qeens College w Cambridge. Drugim powodem tego, że traktuję transcendentalność serio, są moje własne doświadczenia wyniesione z modlitwy i wojny. Niezależnie od tego, jak bardzo moje doznania związane z Bogiem wydawałyby się kapryśne i wyjątkowe, są one nie do podważenia. Bardziej ogólnie można powiedzieć, że każda religia teistyczna (z jedynym osobowym Bogiem ponad światem) musi wykorzystywać swojego Boga jako źródło egzystencji istniejącej poza rzeczywistością, tj. transcendentne. Świat materialistyczny może stawać się coraz bardziej zrozumiały dla fizyków, lecz utrzymuje się, że umysł czy dusza znajdują się poza obszarem poznania. Nie można postawić znaku równości między umysłem a mózgiem; stare powiedzenie: co to jest umysł? - nigdy materia; co to jest materia? - nigdy umysł, jest kluczem do zrozumienia podejścia teistów do życia. Stanowi podstawę chrześcijaństwa, islamu i judaizmu. Również w hinduizmie daje się odnaleźć element teistyczny. Z drugiej strony, jedna z gałęzi buddyzmu (linia Theravada) nie odwołuje się do żadnego teistycznego stanowiska, podczas gdy inna (gałąź Mahayana) uznaje, że Gautama jest ucieleśnionym Buddą-duchem. Ogólnie mówiąc, wydaje się, że każda wiara w reinkarnację (ponowne wcielenie) musi wymagać bezcielesnej, niematerialnej duszy lub jaźni, o której można mówić, że przechodzi na przykład z jednego życia w drugie w zależności od grzechów czy czynów karygodnych dokonanych w tym lub poprzednim życiu. Odpowiedzią teisty na postulat, że superstruny są JTP, byłoby z pewnością podniesienie kwestii trudnych pytań. Na pierwsze - w jaki sposób powstał wszechświat? - optymista naukowy odpowiedziałby chyba, że powstał z niczego jako fluktuacja kwantowa. Nie uczyniłoby to na teiście żadnego wrażenia, bowiem nie otrzymałby wtedy odpowiedzi na swoje pytanie - skąd się wzięła mechanika kwantowa? Na pytanie drugie - dlaczego właśnie ta JTP? - zwolennicy teorii kwantowej mogliby jedynie odpowiedzieć - ponieważ właśnie ona pasuje do wszystkich faktów, co zapewne nie zadowoliłoby teisty (a wydaje się - w zasadzie - równoważne wierze teisty w jego własną teologię i wynikające z niej odpowiedzi). Na trzecie pytanie - jak można wyjaśnić rozum? - można znaleźć naukowe twierdzenia, że świadomość powstała w wyniku złożonych procesów zachodzących w mózgu (przy czym wyjaśnieniu temu towarzyszyłoby zapewne wymachiwanie rękoma, ale nie wsparto by go absolutnie żadnymi szczegółami), na które teista mógłby odpowiedzieć — nie mogę ci uwierzyć, dopóki nie przedstawisz szczegółów. Jeżeli nie zdobyłeś ich dotychczas, nie mam żadnego powodu wierzyć, że potrafisz w ogóle tego dokonać. Końcowe pytanie - dlaczego istnieje coś zamiast niczego? - pozostawi naukowego optymistę albo z klinem tkwiącym w głowie, albo odwołującym się do zasady antropoidalnej. Przebiega ona wzdłuż linii wyznaczonych rozumowaniem - „istniejemy, a więc wszechświat musi zezwalać na nasze istnienie i na to, byśmy mogli się zastanawiać nad jego istnieniem". Wydaje się, że jest to miernej wartości argument. Rzeczywiście, jesteśmy tu: lecz argumentowanie w ten sposób sprowadza się do powiedzenia - .Jesteśmy tutaj, ponieważ jesteśmy". Teiści mieliby pełne prawo utrzymywać, że Bóg daje lepsze powody do istnienia niż takie stanowisko. Teiści balansują na linie wtedy, gdy stają przed zagadnieniem. Załóżmy, że zbudowano sztuczny mózg, będący dokładnym odpowiednikiem naszego własnego. Czy mózg taki byłby świadomy? Pytanie to uwypukla zagadnienie „Boga z wadami" („God of the gaps"): Jak Bóg mógł pozwolić, aby prawa fizyki pozostały niezmienne, co z kolei pozwala naszym (niematerialnym przecież) umysłom mieć wpływ na nasze fizyczne ciała. Nigdy nie postulowano jakiegoś rzeczywistego mechanizmu umożliwiającego oddziaływanie umysłu na materię. Na pytanie to można by odpowiedzieć, traktując umysł i materię jako dwa aspekty jakiejś większej formy. Lecz jej natura wydaje się wielce tajemnicza. Ponadto, wtedy problemem staje się trwanie umysłu po śmierci, jako że ustaje aktywność komórek nerwowych - podstawy materialnej mózgu - a więc jak wożę przetrwać aspekt psychiczny? Jaki miałby to być rodzaj aktywności, jeśli nie brałaby w niej udziału żadna energia fizyczna? Jeżeli mózg miałby przyjmować informację w Bogu (jak utrzymują niektórzy teologowie), to powstaje wtedy trudność opisania tej informacji, która obejmuje sobą również takie niematerialne elementy jak nieśmiertelny umysł i duszę. Tych form, jako znajdujących się poza obrębem czasu i przestrzeni, nie daje się określić ilościowo. Lecz informacja, którą ty i ja mamy w naszych mózgach, ma swój fizyczny odpowiednik w postaci pamięci. Jeżeli po śmierci pamięć zanika, to musi zanikać również wraz z nią i nasza informacja. Nie możemy dlatego utrzymać naszej osobistej tożsamości po śmierci. Problem ten nigdy nie znalazł rozwiązania i nie widzę sposobu, aby tego dokonać. Ten moment wydaje się najwłaściwszy dla podniesienia kwestii, która stanowi podstawę powyższego problemu. W jaki sposób można by rozsądnie dyskutować o wielkościach niematerialnych? Próbując opisywać coś komuś drugiemu, próbujemy nadać sens naszemu opisowi, powiedzmy, zachodu słońca, który widzieliśmy poprzedniego wieczoru, używając przymiotników w rodzaju piękny, promienny itp., lecz nie jesteśmy pewni, czy osiągnęliśmy cokolwiek oprócz zaledwie ogólnego obrazu sceny i naszej na nią reakcji. Jeżeli podałbym wartości liczbowe długości fali każdego koloru w każdym momencie zdarzenia, mógłbym wtedy podać dużo dokładniejszy opis, który stanowiłby pomoc w wyobrażeniu sobie sceny przez kogoś drugiego. Wydaje się, że jest to przykład wspierający zasadę: Tylko wtedy, gdy można ilościowo określić to, co się opisuje, można przekazać komuś informację, która nadaje się do zweryfikowania przez innych. Niemal z definicji wynika, że niematerialne jest również nieokreślone ilościowo (jaki jest ciężar, długość czy kolor umysłu lub Boga?). W jaki więc sposób można by opisać innym (a tym samym sobie samemu) jakąś niematerialną formę? Podsumowując zatem, możemy stwierdzić, że nauka przeszłości w sposób naturalny doprowadziła do poszukiwania dzisiaj takiej JTP, którą dałoby się wyrazić jako układ równań matematycznych. Teista będzie prawdopodobnie ostro krytykował każdą taką teorię za jej brak możliwości dostarczenia odpowiedzi na co najmniej dwa lub nawet trzy trudne pytania; każda teologia warta swej nazwy jest zdolna odpowiedzieć na nie wszystkie. Jednakże odpowiedzi udzielone przez religie nie wydają się ani zbyt jasne, ani doprawdy zbyt udane. Pułapki przewidywania Optymistów naukowych można zaatakować ze względu na ich dumę, która pozwala im wygłaszać twierdzenia daleko wykraczające poza ich wiedzę. Powinni dostrzec liczne przykłady prognoz, które nie wytrzymały najkrótszej nawet próby czasu. Lord Rutherford, ojciec jądra atomu (nazwany tak z uwagi na swoje odkrycie istnienia w każdym atomie jądra, w którym koncentruje się prawie cała masa atomu), w 1932 roku powiedział: Nigdy me pokonamy sił jądrowych. Zaledwie po upływie kilku lat w Nowym Meksyku eksplodowała pierwsza bomba atomowa, a wkrótce potem zrzucono dwie inne, niszcząc dwa miasta w Japonii. Był również prezes poczty brytyjskiej, który po odkryciu telefonu przez Aleksandra Grahama Bella, miał powiedzieć: Nie potrzebujemy telefonów; mamy do dyspozycji mnóstwo posłańców. Na przełomie stulecia pewien wybitny naukowiec stwierdził, że już nic nie pozostało do odkrycia. W tym samym mniej więcej czasie inny wybitny naukowiec powiedział: Nauka osiągnęła swój kres. Pozostaje jedynie kwestia uzupełnienia dalszych miejsc po przecinku. Jeżeli zastanowimy się nad wzlotami i upadkami teorii wszystkiego, od początków racjonalizmu w starożytnej Grecji aż do dzisiaj, dojdziemy do wniosku, że szansę aa to, by właśnie teraz teoria JTP stała się teorią ostateczną, wydają się niewielkie. Jakby na to nie patrzeć, JTP będzie musiała odpowiedzieć na większość trudnych pytań postawionych w przeszłości. Rozpocznę teraz przedstawianie moich własnych odpowiedzi na te pytania. 4. Rozwiązania naukowe Kreacja z niczego Trudno sobie wyobrazić powstanie czegoś z niczego. W pierwszym wersecie Genesis napisano: Na początku stworzył Bóg niebo i ziemię. Jednakże nie podaje się tam szczegółowych wyjaśnień, jakiego materiału użył Bóg w tym procesie; co ważniejsze, nie mówi się, skąd taka substancja miałaby - w razie potrzeby - pochodzić. Bóg stworzył to wszystko z niczego czy też z czegoś już istniejącego? Pomimo to możemy akceptować opisane przez Biblię wyjaśnienie, ponieważ podświadomie uważamy Boga za posiadającego pod ręką wszystkie wymagane atrybuty. Można by nawet powiedzieć, że Bóg jest Wielkim Konserwatystą, jako że dał możliwość przejrzenia ksiąg bilansowych największego aktu stworzenia wszechczasów. Nie uczynił istnień ułomnymi, zainicjował jedynie cykl istnienia rzeczy. Skąd się wzięły materia i energia potrzebne do zbudowania wszechświata? Był to Bóg - można by powiedzieć część Niego samego. W jakiej przestrzeni i czasie dokonywał się ów akt kreacji? Znów można by odpowiedzieć, że stanowiły one część osoby Boga. Ostatnie osiągnięcia nauki pozwoliły roić o takim scenariuszu aktu stworzenia, który wymagałby interwencji boskiej w coraz to mniejszym stopniu. Niektórzy naukowcy utrzymuj ą nawet, że obecność lub działanie Boga podczas tej najwcześniejszej fazy można by uznać za mało znaczącą i jako taką - pominąć. Ujęcie takie odpowiadałoby temu, co w koncepcjach laickich ujmowane jest jako powstanie porządku z chaosu. Jednakże, zanim zajmiemy się cudownym wyłonieniem się konkretnej struktury z jakiejś formy bezpostaciowej, musimy uzyskać kryształową jasność, ile dokładnie trzeba zbudować tej struktury, by można było mówić o powstaniu czegoś z pustki. Energia we wszechświecie jest magazynowana w postaci albo energii przyciągania grawitacyjnego galaktyk, albo w postaci energii kinetycznej ich ruchu (energia „mc2" Einsteina) (Przyp. tłum. W tym miejscu autor jest co najmniej nieprecyzyjny, pomijając już fakt, że w oryginale brak jest wykładnika potęgi 2 w słynnym wzorze Einsteina). Grawitacja, z uwagi na to, że ma charakter przyciągania, może być pomocna w zmniejszeniu problemu z równowagą energetyczną w chwili stworzenia. Przyciąganie grawitacyjne pomiędzy masywnymi ciałami oznacza, że energia ma wartość ujemną (aby oddzielić ciała od siebie, należy dostarczyć energii z zewnątrz), a więc może zrównoważyć energię kinetyczną ciał. Wyobraźmy sobie siłę grawitacyjną pomiędzy dwoma cząstkami jako rozciągnięty pomiędzy nimi sprężysty sznurek i że w pewnym momencie, gdy cząstki najbardziej oddalą się od siebie, puszczamy je swobodnie. Zaczną się wtedy do siebie zbliżać, przyspieszane energia sprężystości zmagazynowaną w sznurku. Energia sprężystości (grawitacji) zamienia się w energię ruchu (kinetyczną). Nabywając energii cząstki będą nabywać masy (energia=mc2). Mogą stać się wtedy tak ciężkie, że mogą rozpaść się na mniejsze cząstki. Na tej drodze mogłaby powstawać nowa materia wywodząca się nie z pustki, lecz z przekształcenia się energii grawitacyjnej w masę. Można dokonać obliczeń wykazujących, że jeżeli do całej ujemnej energii grawitacyjnej galaktyk dodamy energię mc2 tych galaktyk, to suma będzie łowna zeru. Ten zadziwiający fakt nie ma żadnego rzeczywistego wytłumaczenia, jest jedynie oczywistym następstwem. Konto bankowe energii całkowitej pozostanie puste. Dlatego, jako całość, wszechświat nie kosztowałby nic; dodatni koszt wytworzenia nowej materii byłby zrównoważony na koncie po stronie energii grawitacyjnej. Doświadczenie przekonuje nas, że całkowita energia, równa sumie energii grawitacyjnej i kinetycznej, pozostaje niezmienna. Jeżeli miałby nastąpić kiedyś Wielki Zgniot (Przyp. tłum. Analogia do Wielkiego Wybuchu), to wszystkie galaktyki przestaną się w pewnym momencie od siebie oddalać i zaczną na siebie nawzajem spadać, by w końcu zlać się, przy czym spodziewamy się, że obydwie postacie energii (ujemna energia grawitacyjna i dodatnia energia kinetyczna) dokładnie się zrównoważą. Po Wielkim Zgniocie nie pozostanie nic. Konto całkowitej energii zostanie zamknięte. Wszechświat przestanie istnieć jako obiekt posiadający jakąkolwiek postać energii. Nic nie będzie na stole w restauracji końca wszechświata Douglasa Adamsa. Wszystko będzie mrokiem. Scenariusz ten wymaga paru dodatkowych wyjaśnień. Po pierwsze: musimy dowiedzieć się, w jaki sposób obiekty, które nas otaczają, planety, gwiazdy galaktyki, mogły powstać z bezpostaciowego nieładu. Nie musi być to tak trudne, ponieważ staje się jasne, że z chaosu może narodzić się porządek. Zdarza się to w nas samych, w wyniku wzrostu naszych ciał, które absorbują energię z otoczenia i przekształcają ją w konkretną tkankę. Zaczynamy również rozumieć, w jaki sposób mogłoby się to zdarzać na różnych poziomach materii, nawet w tak małej skali jak cząstki elementarne. Idea przypomina w pewnym stopniu sławne uszy bajkowego przechwalacza, niemieckiego barona Münchausena. Utrzymywał on mianowicie, że kiedyś zdarzyło mu się uratować od utonięcia w bagnie, tylko dlatego, że wyciągnął sam siebie za uszy. Sugeruje się, jakoby cząsteczki elementarne oddziałując wzajemnie na siebie, stwarzały jedynie pewien szczególny zestaw samych siebie (i żadnych innych), tak jakby mógł zachodzić proces wyciągania się za uszy. Tak jakby te cząstki mogły się wzajemnie ciągnąć za uszy (co w tym przypadku byłoby odpowiednikiem sił pomiędzy nimi) i stwarzać się w ten sposób z niczego, na podobieństwo barona Münchausena, który uratował się bez żadnej widocznej pomocy z zewnątrz. Proponuje się uznany teraz przez naukę scenariusz stworzenia wysoce wyspecjalizowanego wszechświata z niczego, na drodze procesu podobnego do ciągnięcia siebie samego za uszy, skojarzonego z lokowaniem na koncie materii energii pobieranej z ujemnego konta grawitacji (pamiętamy, że suma kont energii materii i grawitacji pozostaje niezmienna i przyjmujemy, że jest równa zeru). Drugim problemem wymagającym wyjaśnienia jest czas, w którym akt stworzenia miał miejsce. Zauważmy przy tym, że mówimy tu o czasie, tak jakby on już istniał w postaci jakiegoś wiecznego zegara, określającego, kiedy i jak długo zdarzenie to miało miejsce. W następnej części dokładniej rozpatrzymy, jak ominąć ten problem. Zakładając teraz, że taki niezależny czas istnieje, w jaki sposób i kiedy wszechświat mógłby się w nim narodzić? Wydaje się, że łatwiej odpowiedzieć, w jaki sposób niż kiedy. Aby odpowiedzieć kiedy, nie wystarczą idee fizyki klasycznej, według których cząstka w określonym czasie znajduje się w określonym miejscu i ma określoną prędkość. Pewność taka nie pozwala na nagłe powstawanie i znikanie cząstek i dlatego musimy przejść do mechaniki kwantowej, gdzie jest możliwa przypadkowa ich kreacja. W wielu akceleratorach, choćby w Genewie, dostrzeżono zjawisko kreacji cząstek. Wiemy więc, że takie przypadkowe wydarzenia mają miejsce pod warunkiem, że dostarczymy energii odpowiadającej tworzącej się masie. Sugeruje się zatem, że wszechświat powstał jako fluktuacja kwantowa próżni. Można by po prostu powiedzieć, że wystrzelił w istnienie. Zauważyliśmy przedtem, że pozostał po tym znaczny dług grawitacyjny, który musi zostać zwrócony podczas Wielkiego Zgniotu. Powstaje teraz poważny problem czasu, w którym pojawił się wszechświat. Ponieważ założyliśmy, że czas płynął niezależnie i niezmiennie od zawsze, nie da się odróżnić żadnej chwili od innej. Wydaje się więc niemożliwe wybranie spośród innych jakiegoś konkretnego czasu, kiedy miał miejsce akt kreacji wszechświata. Wszystko, co ewentualnie moglibyśmy na ten temat powiedzieć, to jedynie określić prawdopodobieństwo powstania wszechświata w jakimś konkretnym przedziale czasowym. Jeżeli nasz wszechświat powstał w jednym przedziale czasowym, to inne wszechświaty mogłyby powstać w innych przedziałach. Ponieważ podchodząc do problemu w ten sposób zakładamy, że czas płynie od zawsze (nie czas powstaje, a wszechświat), to możemy spodziewać się istnienia nieskończonej liczby wszechświatów. Każdy z nich mógł powstać inaczej. Jednakże nie widać żadnego śladu kolizji pomiędzy nimi. Rozkład materii w naszym wszechświecie wydaje się doskonale gładki i jednorodny. Nie widać żadnych oznak tarcia czy napięć, które musiałyby powstawać, gdyby zdarzały się takie kolizje. A więc idea wszechświata jako fluktuacji kwantowej, w płynącym od nieskończoności strumieniu czasu, jest trudna do obrony. Jakby na to nie patrzeć, przy założeniu, że czas (i przestrzeń) jest sam przez się zrozumiały, można, jak widzieliśmy, wyobrazić sobie powstanie wszechświata bez konieczności rujnowania całkowitego bilansu energetycznego, jednakże nie da się zbudować samego czasu i przestrzeni. Nie wystarczy to dla nowoczesnych rozważań. Bez początku Następnym krokiem jest próba zbudowania teorii przestrzeni i czasu, które byłyby ściśle skojarzone z materią, której kreacji towarzyszyłoby jednoczesne powstanie samej przestrzeni i czasu. Wymaga to rezygnacji z koncepcji transcendentalnej przestrzeni i czasu, w której nie ma miejsca na chaos dynamicznego istnienia. Isaac Newton wierzył jeszcze w pojedynczą przestrzeń i niezależny od niej czas, w obszarach których poruszają , się planety, łącznie z Ziemią. Albert Einstein w 1905 roku wykazał w swojej szczególnej teorii względności, że czas i przestrzeń są zależne od sposobu, w jaki są obserwowane. Jego sławne powiedzenie, że poruszające się zegary chodzą wolno, które będzie wyjaśnione później, wyraźnie wskazuje, że tempo, w jakim zegar chodzi, zależy od jego ruchu. Einstein wykazał również, że linijka pomiarowa poruszająca się w kierunku ruchu, kurczy się w stosunku do takiej samej linijki będącej w spoczynku. Lecz przestrzeń i czas w szczególnej teorii względności pozostają nadal zewnętrznymi wielkościami, poza tym że są one uzależnione od sposobu poruszania się kogoś, kto je mierzy. Nawet we wszechświecie pozbawionym zupełnie materii, taka przestrzeń i czas istniałyby nadal. Tak wyglądał stan nauki dopóki Einstein, w 1916 roku, nie ogłosił swojej ogólnej teorii względności, która umożliwiła ścisłe powiązanie czasoprzestrzeni z materią. Osiągnął to poprzez ujrzenie w materii źródła struktury czasoprzestrzeni, w której ta materia się porusza. Struktura ta jest szczegółowo określona za pomocą odległości pomiędzy parami zdarzeń. Zbiór takich odległości zdarzeń umożliwia triangulację czasoprzestrzeni w taki sam sposób, jak można wykonać mapę geodezyjną działki budowlanej. Jeżeli rozkład materii jest znany, można wyliczyć odpowiadającą mu mapę geodezyjną odległości, a po porównaniu obydwu okazuje się, że doskonale zgadzają się ze sobą, choćby w przypadku ruchu planet. W ogólnej teorii względności Einsteina czas nie jest już całkowicie zdefiniowany, lecz może być określony, na przykład, zegarami poruszającymi się z różnymi prędkościami, z których żadna nie jest uprzywilejowana. Jest to na pozór ta sama sytuacja co w szczególnej teorii względności (gdzie, obserwatorowi będącemu w spoczynku, poruszające się zegary wydawały się chodzić wolno). Jednakże jest ona teraz bardziej krytyczna, ponieważ nie można już sobie wyobrazić, jakiego by użyć czasu, aby pomierzyć postęp wydarzeń. Załóżmy, że takiego wyboru można jednak dokonać (nic ma ku temu żadnych zasadniczych przeszkód). Natkniemy się wtedy na dużo trudniejszy problem: powiązania teorii Einsteina z fluktuacjami powstającymi w obrębie mechaniki kwantowej, tak aby wytłumaczyć powstanie zarówno przestrzeni i czasu, jak i materii w jednym akcie kosmicznej kreacji. Pozostaje jedynie żywić nadzieję, że uda się pokonać problem polegający na uniknięciu kreacji nadmiarowych wszechświatów (których istnieniu przeczy rzeczywistość) oraz na wyjściu poza obręb tego wszechświata, aby wytworzyć przestrzeń i czas całego kosmosu. Istnieją liczne przeszkody w skonsumowaniu mariażu mechaniki kwantowej z grawitacją, z czego miałaby się narodzić grawitacja kwantowa. O barierach tych wspomniano w rozdziale 3, a do szczegółów wrócimy później. Niezależnie od formy, jaką przyjmie ostatecznie ta teoria, mc należy się spodziewać, że uda się w jej obrębie umieścić czas. W jakikolwiek sposób wyobrażalibyśmy sobie czas, to musi on wynikać ze sposobu modyfikacji wszechświata, tak by zmianę tę można było opisać w najbardziej prawidłowy sposób. Jakiekolwiek by były wyniki badań, to prowadzą do nowego problemu, zwanego problemem wartości początkowej: w jakim stanie znajdował się wszechświat w chwili stworzenia? Wydawać by się mogło, że samo użycie słowa „stworzenie" implikuje stwarzanie w czasie. Zwróciliśmy już uwagę, że spodziewamy się odkryć kandydujące czasy na drodze skrupulatnej analizy takiego układu. Doprowadza to do kolejnej kwestii: wybrania jednego specjalnego stanu wszechświata ze wszystkich innych możliwych. Oznacza to, że musimy poznać powody wielości galaktyk pewnego rodzaju i tak wielu cząstek obdarzonych pewnymi właściwościami oraz dlaczego nie jest odwrotnie. Spróbujmy ominąć konieczność odkrycia tego specjalnego stanu poprzez wydzielenie mechaniki kwantowej. Jeżeli po prostu zastosujemy ogólną teorię względności Einsteina, to dojdziemy do równań, w których materia i grawitacja działają w czasie. Lecz aby dowiedzieć się, jaki rodzaj działalności odbywa się w danej chwili, musimy znać jej stan w bezpośrednio poprzedzającej chwili. Możemy cofać się w tym procesie coraz dalej w przeszłość, lecz zawsze będziemy stali przed problemem określenia działalności, która miała miejsce we wcześniejszej chwili. Wydaje się, że nie uda się uniknąć problemu wartości początkowej: jaki był pierwotny stan materii we wszechświecie, tuż po kreacji? Jednym ze sposobów jest cofanie czasu coraz bardziej, by wreszcie stwierdzić, że wszechświat istniał zawsze. Jest to idea, do której na krótko powrócimy, lecz już teraz widzimy, że nie można w jej ramach umieścić równań Einsteina, praw fizyki klasycznej odnoszących się do materii oraz obserwowanych faktów ucieczki galaktyk. Jak już wcześniej zauważyliśmy, jeżeli śledzimy ruch galaktyk wstecz w czasie, to musimy dojść do wniosku, że około piętnastu miliardów lat temu wszystkie były skupione w jednym punkcie. Przed tą chwilą materia wszechświata znika i dlatego przestają funkcjonować prawa fizyki klasycznej, ponieważ nie są zdolne opisać kreacji czy anihilacji materii. I tak wprowadzenie mechaniki kwantowej stałoby się w końcu konieczne, a wtedy, jak już mówiłem, nie daje się w naszym opisie wyraźnie uwzględnić czasu. Alternatywnym podejściem byłoby założenie, że wszechświat oscyluje bez końca rozszerzając się-skupiając-rozszerzając-skupiając. Napotykamy wtedy trudność wyjaśnienia odskoku (tuż po maksymalnym skupieniu), którego nie da się wytłumaczyć za pomocą jedynie fizyki klasycznej (włączając ogólną teorię względności). W ten sposób jesteśmy Zmuszeni rozstrzygnąć, w jaki sposób grawitacja kwantowa mogłaby opisać początek wszechświata, a szczególnie dlaczego stan z wyłonionym z niczego wszechświatem jest bardziej prawdopodobny niż jakiś inny. Wiele było prób znalezienia szczegółowego opisu wyjątkowego stanu kwantowego wszechświata, lecz jak dotychczas żaden z nich nie uzyskał całkowitej aprobaty. Żaden z nich nie znalazł również potwierdzenia doświadczalnego. Jedna z takich prób, podjęta przez Stephena Hawkinga i jego amerykańskiego kolegę Jamesa Hartle'a, polega na przyjęciu możliwości cztero-wymiarowej czasoprzestrzeni, w której mogłaby ewoluować trójwymiarowa przestrzeń. Podstawowym trikiem, który wykorzystali w swoim modelu, było założenie, że czas ma charakter urojony (i należy mnożyć go przez pierwiastek z -1). W ten sposób czas i przestrzeń upodabniają się; czas urojony może biec wkoło, dokładnie tak jak można poruszać się w przestrzeni. Trudności związane z przesuwaniem się wstecz w czasie znikają. Można to sobie wyobrazić tak, jak byśmy żyli na obwodzie koła. Idąc dalej, czas można wyobrazić sobie jako dwuwymiarową powierzchnię podobną do bańki mydlanej, wydmuchanej z kołowego metalowego pierścienia, który ją podtrzymuje. Czterowymiarowe czasoprzestrzenie, w których żyjemy, są podobne do powierzchni baniek mydlanych; ich trójwymiarowe granice (z których ewoluują) są podobne do pierścienia podtrzymującego. Takie podejście prowadzi do wyjątkowego stanu i do interesujących właściwości uproszczonych modeli. Inne modele zakładają takie warunki początkowe na stan trójwymiarowej przestrzeni, że stają się one nieskończenie małe, na podobieństwo czarnych dziur (ponieważ w kwantowym stanie wszechświata uwzględnia się możliwość występowania różnych trójwymiarowych geometrii, włączają w to tak nieprzyzwoite, jak czarne dziury). To podejście prowadzi do intrygujących właściwości takich uproszczonych modeli. Podczas gdy takie idee są dopiero możliwymi scenariuszami ciągle rozwijanych modeli roboczych, to możliwości te wskazują, że może uda się znaleźć pewien rodzaj więzów, które spowodują powstanie stanu wszechświata zgodnego z jego późniejszym rozwojem i naszymi obecnymi obserwacjami. Czy zatem można dojść do wniosku, że takie podejście skojarzone z JTP umożliwiającą wyliczenie stanu wszechświata może doprowadzić do końca fizyki teoretycznej? Dlaczego właśnie ta JTP? Możliwość końca fizyki teoretycznej bierze pod uwagę wielu naukowców i niektóre z tych wypowiedzi omówiłem wcześniej. Opinie te wspieraj ą się na widocznym dążeniu do szybkiego znalezienia teorii wszystkiego co objawia się sformułowaniem najpierw teorii supergrawitacji, a później superstrun, które miałyby stanowić rozwiązanie problemu zbudowania dobrej teorii grawitacji kwantowej. Poczuciu euforii, wywołanym tymi postępami, towarzyszyły trafiające do wyobraźni scenariusze kwantowej kreacji wszechświata, naszkicowane poprzednio. Czy zbliżywszy się już tak bardzo do świętego Graala, odważny optymizm dałby się dobrze uzasadnić? Aby rozpoznać niebezpieczeństwo zalania potokiem słów pojawiających się ostatnio na ten temat w popularnej prasie, włączając popularne (lecz niekoniecznie zrozumiałe) wypowiedzi zwolenników, co może wyprowadzić na manowce, musimy przyjrzeć się, co znajduje się pod powierzchnią tych atrakcyjnych form nowoczesnego żargonu naukowego. Ważnym pytaniem, na które musimy odpowiedzieć, jest to, jakiego rodzaju teorię należy zastosować, aby wyjaśnić kreację kosmosu. Dostarczyłaby ona z pewnością klucza do zrozumienia natury jakiejś głębszej JTP. Doszliśmy poprzednio do wniosku, że rozsądny scenariusz mógłby wynikać z kwantowego podejścia do kreacji. Lecz opierałby się on na dwóch teoriach, mechaniki kwantowej i grawitacji, które same, do ich unifikacji, wymagają jakiejś podstawowej teorii w rodzaju superstrun. Musimy dlatego rozważyć naturę JTP na przykładzie prób wykorzystania superstrun do wyjaśnienia kreacji wszechświata. Przedstawione uprzednio scenariusze (umieszczone w pracy Hawkinga i innych) oraz wiele innych przemawiają do wyobraźni, lecz ich podbudowa wydaje się niekompletna. W granicznych stanach wszechświata wyróżniają grawitację jako wielkość o kluczowym znaczeniu. Nie powinniśmy zatem akceptować twierdzeń wyjaśniających jakoby powstanie wszechświata, jako mających związek ze statusem JTP. Rozpatrzmy status istnienia JTP w sposób bardziej bezpośredni. Pytanie, dlaczego właśnie ta JTP? zakwalifikowaliśmy przedtem do kategorii pytań, na które brak odpowiedzi. Stwierdziliśmy, że odpowiedź naukową można by otrzymać jedynie po zapewnieniu, że wszystkie przewidywania wynikające z wybranej JTP pasują do wszystkich możliwych obserwowanych faktów. Taka weryfikacja może być prowadzona dotąd, dopóki zezwala na to wybrana metoda naukowa. W przeszłości istniało wiele teorii tego typu, poczynając od talesowskiej wszystko jest wodą, lecz obecnie tylko niewiele z nich ma jakieś znaczenie. Wśród tych ostatnich można by wykorzystywać argumenty antropoficzne, przekonywające, że tylko z tej konkretj JTP wynika powstanie życia, a inne teorie kandydujące do statusu JTP nigdy nie stwarzają w ramach ewolucji wszechświata odpowiednich warunków do powstania życia, a więc i możliwości dyskutowania o samym pytaniu. Takie podejście nadal nie wydaje się zadowalające, tak jak nie było wcześniej. Prawdą jest, że nasze świadome istnienie musi wynikać z JTP i z przewidywanej przez nią ewolucji wszechświata, lecz nasze istnienie i jego natura stanowi jedynie jedno z wielu rzeczywistych ograniczeń nałożonych na JTP. Nie ma powodu, by wynosić to do dogmatu religijnego. Innym popularnym stanowiskiem jest twierdzenie, że istnieje jakiś mechanizm selekcyjny dokonujący wyboru konkretnej JTP z całego zbioru wszystkich dostępnych kandydatek. Dokładna natura tego zbioru jest oczywiście dyskusyjna, a więc również kryterium, które można by zastosować. Aby uniknąć sprowadzenia całej dyskusji do osobistych preferencji, zasugerowano, że istnieje jakiś inteligentny generalny wybierający, który dokonuje tego wyboru poza naszą wiedzą. W ten sposób powracamy do jakiegoś rodzaju Boga, który ma się za tym wszystkim kryć, co stanowi rozwiązanie, którego próbuję uniknąć, odkąd ustaliłem, że nie wnosi ono żadnych nowych szczegółów. Ponadto, jeśli wierzymy, że Bóg jest najlepszym matematykiem ze wszystkich, to poziom wiedzy matematycznej wymagany, by określić JTP, może pozostać na zawsze poza naszym zasięgiem. Wspomniano przedtem o samoistnym mechanizmie odpowiedzialnym za powstawanie porządku z chaosu, a w szczególności za powstawanie obserwowanych cząstek elementarnych. Czy nie moglibyśmy wykorzystać podobnego mechanizmu do wyprowadzenia teorii, żeby tak powiedzieć z siebie samej, i w ten sposób wybrać tę jedyną JTP, którą jak się utrzymuje jeszcze niezbyt wyraźnie teraz dostrzegamy? Niestety, pomijając już brak elegancji takiego pomysłu, wydaje się, że podobny mechanizm nie funkcjonowałby w tym przypadku. Jak już powiedziałem wcześniej, nie można budować teorii opierając się na jej własnych przesłankach. Stwierdzenie to jest równoważne zdaniu, że teoria nie może powstać w wyniku zadziałania jakiegoś samoistnego mechanizmu. Podsumowując, wydaje się, że nie jesteśmy zdolni do znalezienia jakiegoś sensownego sposobu weryfikacji JTP, a na dodatek czujemy się oszukani będąc niezdolni do udzielenia odpowiedzi na pytanie dlaczego właśnie ta JTP? Ponadto może się wydawać, że doprowadzono do kwestii istnienia w ogóle jakiejś JTP, jako że kolejne teorie powstałe od czasów rewolucji naukowej nie dostarczaj ą żadnych przesłanek, że zbliżamy się do jakiegoś końca. Zajmijmy się tym aspektem zagadnienia nieco bliżej. Na każdym szczeblu rozwoju nauki następuje krytyczny moment powstania i weryfikacji nowej teorii, która ma zastąpić dotychczasową i która jak się utrzymuje lepiej tłumaczy starą. W ten sposób klasyczne prawa mechaniki (słynne prawa ruchu Newtona) można wyprowadzić z podstawowej mechaniki kwantowej pod warunkiem, że każda cząstka podlegająca badaniom jest na tyle ciężka by można przyjąć, że prawdopodobieństwo znalezienia jej w jakimś punkcie w przestrzeni sprowadza się do pewności, jaką daje analiza położenia kuli bilardowej. Istnienie całego łańcucha teorii tłumaczących się nawzajem, w ten czy inny sposób, jest cechą charakterystyczną świata, w którym żyjemy. Jeżeli szereg teorii byłby nieskończony, to wszystko, włączając każdą teorię, miałoby swoją przyczynę. Łańcuch ten nie skończy się jednakże nigdy, ponieważ jeśliby to miało nastąpić, końcowym ogniwem byłaby JTP powstała bez pierwotnej przyczyny, co jak już wspomniałem jest niemożliwe. Pozbawiłoby to nas jakiejkolwiek szansy na dający się zawsze podać związek przyczynowy każdej teorii łańcucha za pomocą następnej teorii. Można by w tym momencie powiedzieć, że ten cały gmach nieskończonego szeregu teorii sam nie ma swojej pierwotnej przyczyny. Patrząc na to w ten sposób, rzeczywiście mamy poważny kłopot, lecz musimy pamiętać, że łańcuch teorii jeszcze me odkrytych nie jest jeszcze teorią. Wszystko, co możemy zdziałać w nauce, to zbadać teorię w obrębie jej granic. Jeżeli jakaś teoria już istnieje, to chcąc wprowadzić inną, która by ją zastąpiła, musimy wyjaśnić poprzednią wzdłuż linii zakreślonych wyżej. Nie wydaje się, aby istniał jakiś sposób naukowej weryfikacji szeregu teorii, które tworzymy w naukowej odysei. Faktycznie, za każdym razem, gdy mamy do czynienia z nową teorią (lub teoriami), myślimy o jej ważności w danej chwili, a nie o teoriach uprzednio odrzuconych. Ponadto, natura łańcucha teorii nigdy nie ukaże się w całej pełni, ponieważ przy takim podejściu zawsze pozostanie nieskończona liczba teorii jeszcze nie odkrytych, z których każda zastępuje poprzednią. Możemy domniemywać, jakie są następne szczeble i to może pomóc w ciągu nie kończących się zagadek, lecz natura jakichś samopowstających teorii z innych teorii pozostanie na zawsze nieuchwytna. Miałaby ona bowiem sama charakter JTP i jeżeli wymagamy, by zawsze istniało przyczynowe wyjaśnienie każdej teorii naukowej, to musimy pogodzić się z tym, że teoria taka jest ułudą. Dlaczego, dążąc do zrozumienia wszechświata, pokładamy tyle ufności W nauce? Dlaczego nie odwołać się do Boga, zamiast podążać do jakiegoś wyimaginowanego kresu. Jednym z powodów jest to, że jak już wspominaliby tylko za pośrednictwem nauki możemy uzyskać pewność, czym tak na-Prawdę jesteśmy. Tylko wtedy możemy wykorzystać tę pewność do dowiedzenia się, czym jest wszechświat. Jedynie na drodze kwantyfikacji, szczególnie poprzez opisanie rzeczywistości równaniami matematycznymi, wszechświat da się wyjaśnić. Odnosi się to nie tylko do naszego zrozumienia, lecz również do naszej zdolności do współistnienia. Wygląda na to, że nie będziemy potrafili połączyć różnych elementów wszechświata, dopóki przyszłe działania nie staną się wyznaczalne liczbowo. Jest to lekcja, której dotąd powinniśmy się nauczyć; wszystkie teorie, które okazały się przydatne od czasów rewolucji naukowej, były wyrażone właściwie w języku matematyki. Dlatego wszystkie teorie dotyczące wszechświata powinny mieć matematyczną postać i powinny być uzupełnione najwyżej zbiorem pewników odnoszących się do pewnych podstawowych wielkości (cząstki, pola itp.). Jedynie w ten sposób ewolucja wszechświata będzie opisana na podstawie dobrze zdefiniowanych podstaw i kierowana przez precyzyjne prawa matematyki. Dochodzimy więc do obrazu wszechświata jako nieskończonego zbioru różnych poziomów. Każdy z nich jest opisany i rządzony przez dobrze określony zbiór teorii wyrażonych w postaci matematycznej. Teoria z każdego poziomu jest wyjaśniona teorią z poziomu niższego. Na przykład mechanika klasyczna Newtona może być wyjaśniona poprzez wyprowadzenie jej z podstawowej mechaniki kwantowej. Tę ostatnią można wyprowadzić z bardziej kompletnej teorii pól kwantowych itd. Tak więc na pytanie dlaczego właśnie ta JTP?, trzeba odpowiedzieć w terminach naukowych dopiero po zastąpieniu JTP inną współczesną teorią naukową. Prowadzi to mnie do przekonania, że nie ma żadnej ostatecznej JTP, lecz tylko łańcuch teorii naukowych objaśniających wszechświat z coraz większą dokładnością. Każda nowa teoria zastępuje poprzednią i odpowiada na pytanie dlaczego, formułowane w odniesieniu do starej teorii; nowa będzie mieć większą moc wyjaśnienia, co umożliwi dopasowanie faktów, które opierały się poprzedniej, odrzuconej teraz teorii. Wydaje się, że jedynie w ten sposób nigdy nie pogwałcimy zasady przyczynowości. Wszechświat nie tylko jest tajemniczy, ale zawsze taki będzie. Świadomość Mózg kręgowców ewoluował przez ponad pięćset milionów lat ich historii. Ślady szczegółów tej ewolucji zachowały się w skamieniałościach. Ptaki i ssaki uważa się za kręgowce wyższe, ponieważ są wyposażone w większy mózg niż inne, niższe kręgowce. Można nawet wyrazić tę różnicę ilościowo jako stosunek całkowitego rozmiaru mózgu do rozmiaru ciała podniesionego do potęgi dwie trzecie (taki wykładnik potęgi sprowadza sprawnie objętość ciała zwierzęcia do jego powierzchni, co stanowi wymagany współczynnik liczbowy). Stosunek ten, nazywany współczynnikiem encefalizacji, ma mniej więcej taką samą wartość dla wszystkich gadów, zarówno żyjących współcześnie, jak i wymarłych. Ptaki i ssaki wyewoluowały z dwóch różnych podklas gadów. Wzrost mózgu ssaków nie nastąpił skokowo, lecz postępował w stałym tempie (z rozwojem mózgu czterokrotnie szybszym niż u innych kręgowców), poczynając od chwili sprzed stu siedemdziesięciu milionów lat, przez następne sto milionów lat. W ciągu ostatnich sześćdziesięciu pięciu milionów lat miała miejsce szybsza, lecz wciąż stała, ewolucja mózgu, aż do jego obecnej wielkości, dla takich ssaków jak: drapieżniki, małpy, a w szczególności małpy bezogonowe. Człowiek pasuje do tego schematu rozwoju mózgu, przy czym, jako przybysz bardzo niedawny, osiągnął rozmiary mózgu w ciągu zaledwie ostatniego miliona lat; w tym czasie rozmiar tego narządu podwoił się. Było to prawdopodobnie spowodowane tym, że osobniki obdarzone większym mózgiem miały zdecydowanie większe szansę na przeżycie. Należy przypuszczać, że ewolucyjny wzrost mózgu powodował wzrost zdolności psychicznych. W szczególności większy mózg umożliwił pojawienie się pamięci, w której były przechowywane obrazy zewnętrznych zdarzeń oraz środowiska. W miarę jak rozmiar mózgu powiększał się, to zapamiętywane informacje stawały się coraz bardziej użyteczne w planowaniu przyszłych działań (przez odwołanie się do doświadczeń przeszłości). Można było przywoływać obrazy wewnętrzne i wykorzystywać je do sprawnego planowania przyszłości, co rozwijało wyobraźnię. Zgodnie z zasadą, że przeżywają najlepiej przystosowani, coraz większe możliwości ludzkiego mózgu dawały jego właścicielowi przewagę nad mniej rozgarniętymi. Był to początek przewagi umysłu nad materią. Gdzie w procesie ewolucji znaleźć miejsce, w którym można byłoby dostrzec umysł i materię oddzielone od siebie albo w którym umysł jest w jakiś sposób przyłączany z zewnątrz. Na przykład kreacjoniści kwestionują ciągłość procesu ewolucji. Teiści utrzymują, że umysł musi być czymś więcej niż jedynie właściwością fizyczną. Lecz okazuje się, że bardzo trudno jest powiedzieć: to właśnie w tym momencie, w tej właśnie chwili, nie wcześniej, narodził się umysł w procesie ewolucji albo odtąd umysł podlegał Bogu. Wspomniane wyżej badania paleoneurologiczne wydają się potwierdzać prostsze przypuszczenie, że umysł rozwinął się samodzielnie w wyniku wzrostu złożoności mózgu i że mający ogromne znaczenie proces powstawania świadomości był jedynie wynikiem subtelnej aktywności miliardów złożonych komórek nerwowych mózgu, które w połączeniu stworzyły geniusz naukowy Alberta Einsteina, twórczość muzyczną Ludwika van Beethovena czy wyobraźnię literacką Williama Szekspira. Patrząc na to w ten sposób, dostrzegamy kontinuum poziomów świadomości, poczynając od najniższych kręgowców poprzez stadia pośrednie, coraz doskonalsze w miarę rozwoju mózgu, aż do najwyższego poziomu człowieka. Koncepcja, że świadomość narodziła się sama w wyniku aktywności mózgu, jest prosta i pociągająca oraz ma wielu zwolenników wśród naukowców, szczególnie neurologów. Ludzie z tego środowiska są również jej przeciwnikami. Należy przyznać, że w ostatnich latach nie dokonano wielkiego postępu w rozwiązywaniu problemu, w jaki sposób z aktywności mózgu narodziła się świadomość. Wybitny neuropsycholog kilka lat temu napisał: Nawet pobieżne przeczytanie literatury omawiającej kliniczne i doświadczalne badania neurologiczne obejmujące całe stulecie prowadzi do wniosku, że ich wkład dotychczas był raczej skromny. Niedostatek wysiłków, jak również postępu, wynika częściowo z silnej opozycji wyrosłej przez dziesięciolecia ze szkoły psychologii behawioralnej. A także z tego, że naukowcy są przyzwyczajeni pracować tylko nad zagadnieniami, które dają się rozwiązać. Krótko ujął to węgierski naukowiec Poly'a: Nauka jest sztuką w obszarze możliwego. Badania umysłu i świadomości nie wydają się należeć do obszaru możliwego. Ufano introspekcji oraz utrzymywano, że nie ma żadnych możliwości udowodnienia istnienia świadomości innych, w tym także zwierząt. Aż do niedawna argumentowano, że wyjaśnienie świadomości jest problemem, który nie ma żadnych szans na rozwiązanie. Dopiero teraz zaczęła się tworzyć precyzyjna baza neurologiczna. Nowe narzędzia, w rodzaju tych, które umożliwiają pomiar subtelnych pól magnetycznych wytwarzanych aktywnością mózgu lub które mierzą zużycie energii w aktywnych obszarach mózgowia, pozwoliły w końcu na lokalizację pewnych procesów odpowiedzialnych za koncentrację, którą uważa się za punkt wyjściowy do świadomości. Dokładniejsze badania pacjentów z uszkodzeniami mózgu, powodującymi zmniejszenie koncentracji, doprowadziły do lepszego zrozumienia tych zagadnień. Zbliża się moment zdecydowanego ataku na problem zbudowania naukowego modelu świadomości, opartego na aktywności mózgu. Jakikolwiek by nie powstał, nie będzie zaakceptowany, dopóki nie podda się go wszechstronnej weryfikacji eksperymentalnej, lecz nie podejmując tych wysiłków, nauka ugnie się przed ogromnym wyzwaniem, jakie stawia umysł. Postać rozwiązania, którą tu proponuję, opiera się na badaniach tego zagadnienia prowadzonych przeze mnie w ostatnich dwudziestu latach. Podstawowa koncepcja natury umysłu jest prosta i została już określona (lecz w sposób daleko odbiegający od ścisłości wymaganej przez neurofizjologów) w ramach asocjacyjnej szkoły filozofów i psychologów. Nowym pomysłem asocjacjonizmu było to, że myśli daje się wyprowadzać jedne z drugich na zasadzie skojarzenia, i że istnieją pewne prawa asocjacji (takie jak bliskość znaczeniowa, podobieństwo czy intensywność doznań), które rozwinęły się w teorię nauczania. Zamiast przyjmować myśli jako pojęcia pierwotne nie wymagające wyjaśnień i dopiero później pytać się o sposób, w jaki się ze sobą łączą i rozwijają, chciałbym zaproponować, że myśli i doznania psychiczne powstają w danym osobniku jako zbiór odniesień pomiędzy informacją napływającą z zewnątrz a pozostałymi w mózgu wspomnieniami o minionych zdarzeniach. Takie podejście nazywam relacyjną teorią umysłu. Wynika z niej, że barwa czy też treść Świadomego doznania jakiegoś zdarzenia jest określona nie tylko przez informację zewnętrzną o tym zdarzeniu, w postaci wizualnych obrazów, dźwięków, zapachów czy wrażeń dotykowych, lecz również przez zapamiętane wspomnienia o podobnych zdarzeniach w przeszłości. Cała świadomość psychiczna opiera się na takich wzajemnych relacjach, a więc niemowlę ma dużo mniejszą świadomość niż dojrzały osobnik, ponieważ posiada ono mniej takich relacji czy skojarzeń. Relacyjna teoria tworzy jedynie ogólne ramy; nie wydaje się, by można było poddać ją weryfikacji doświadczalnej. Należy ją uwiarygodnić poprzez stworzenie takiego modelu tkanki mózgu, w którym byłyby widoczne podstawowe cechy świadomości. Oznacza to, że koniecznie należy zaproponować i przetestować mechanizm powstawania samej struktury relacyjnej. Ponadto z przypuszczalnego układu strukturalnego mózgu musi wynikać nieuchronnie jedyny w swoim rodzaju ciągły strumień świadomości. Możemy w pewnej chwili poświęcić całą uwagę jednej tylko rzeczy, lecz po przebudzeniu nasza świadomość płynie dalej bez żadnej luki. W śródmózgowiu i korze (zewnętrznej warstwie mózgu) występują obszary, a szczególnie w tak zwanym jądrze siatkowym {Nucleus reticularis) w obrębie wzgórza, gdzie jest uformowany ciągły dobrze połączony płat, przylegający do pnia nerwowego wchodzącego do wzgórza (będącego w pewnym sensie stacją przekaźnikową wszystkich doznań docierających do kory), które wydają się funkcjonować jako wzornik czy maska korelująca całą aktywność wchodzącą i wychodzącą z kory. Sama aktywność korona może być podtrzymywana przez dłuższe okresy dzięki obwodom sprzężenia zwrotnego, co pozwala na ciągłość strumienia świadomości, objawiającą się w chwili przebudzenia. Jednorodność tego strumienia jest zapewniona przez płat jądra siatkowego, zezwalający w danej chwili tylko na jedną czynność (która w ten sposób wygrywa konkurencję z innymi czynnościami, które znajdują się na wejściu do tego płata), tak jakby był zbudowany ze zbioru masek zmieniających się w czasie, lecz tylko w ograniczonym stopniu. Sterowanie aktywnością kory przez struktury mózgowia wydaje się coraz skuteczniejsze wraz z wiekiem, tak że starszy osobnik ma mniejszą elastyczność myśli wynikających z procesów korowych, ale jego aktywność jest lepiej sterowana (kontrolowana) przez mózgowie; pacjent z chorobą Alzheimera wykazuje jeszcze mniejszą aktywność korową, a więc również mniejszą świadomość. Te i inne aspekty podstaw neurologicznych będą później omawiane bardziej szczegółowo. Relacyjna teoria mózgu dostarcza wyjaśnień wyraźnie widocznej, niefizycznej natury świadomych doznań i ewentualnych źródeł powstawania wolnej woli. Dla układu relacji pomiędzy poszczególnymi czynnościami mózgu (tak obecnymi jak i zapamiętanymi z przeszłości), stanowiącymi istotę racjonalnej teorii, nie istnieje taka fizyczna wielkość jak aktywność mózgu. Jest ona czymś bardziej subtelnym i nieporównanie bardziej złożonym, powstałym w wyniku niezliczonej liczby wzajemnych relacji, które utworzyły się na podstawie doznań osobnika w przeszłości. Z uwagi na taką subtelność zbioru skojarzeń powstających w każdej chwili, dany osobnik z wielką trudnością, jeśli w ogóle, jest w stanie uświadomić sobie tę relacyjną aktywność przebiegającą wewnątrz jego mózgu. Będzie ona stwarzać wrażenie niefizycznego procesu przebiegającego w postaci strumienia świadomości bez wyraźnych reguł kontroli. Patrząc w ten sposób można stwierdzić, że swoboda podejmowania decyzji - wolna wola - da się odczuć jako cecha, którą posiadamy w stanie świadomym. Jest to jednak złudzenie. Dlaczego raczej istnieje coś zamiast niczego? Dla niektórych ludzi pytanie powyższe wydaje się nie mieć wielkiego znaczenia. Chociaż ktoś może być bardziej poruszony istnieniem czarnych dziur niż na przykład kamienia (biorąc pod uwagę większą niezwykłość takiej dziury), samo zwyczajne istnienie tego czy tamtego niekoniecznie musi przemawiać do wyobraźni. Dlaczego uważa się nic za rzecz naturalną, podczas gdy czymś wyjątkowym miałoby być istnienie czegokolwiek? Filozof Bergson wyraził ten niepokój zwięźle: Wstępne założenie, że de jurę nie powinno być niczego, wymagające tłumaczenia, dlaczego de facto coś istnieje, jest czystą iluzją. Idea absolutnej nicości nie ma ani trochę większego znaczenia niż kwadratura koła. Pomimo to ciągle jednak stoi przed nami problem, który domaga się wyjaśnień. Wcześniej w tym rozdziale przyglądaliśmy się bowiem innym trudnym pytaniom i w końcu dotarliśmy do odpowiedzi, które pomijając już ich prawdziwość są oparte na przypuszczeniu, że każdy skutek ma swoją przyczynę: powstanie wszechświata jako kwantowa fluktuacja próżni, ciągłość czasu, jedna JTP wyjaśniająca kolejną, świadomość powstała w wyniku aktywności mózgu. Przyznać trzeba, że pewne z tych wyjaśnień wymagają nieskończonego cofnięcia się w czasie, przy czym każdy krok wstecz utwierdza nas w przekonaniu, że przyczynowość jest podstawową cechą natury wszechświata. Byłoby czymś zaskakującym, gdybyśmy po wymuszonym wielokrotnie przechodzeniu aż w nieskończoność, by bronić zasady przyczynowości, porzucili ją teraz, gdy napotykamy coś, co wygląda jak najtrudniejsze pytanie ze wszystkich, które do tej pory sobie stawialiśmy: Dlaczego raczej istnieje coś zamiast niczego? Spójrzmy głębiej i przekonajmy się, czy przyczynowość oprze się temu niezwykłemu wyzwaniu. Aby w ogóle odpowiedzieć na to pytanie, najpierw musimy wyjaśnić sobie, co rozumiemy pod pojęciami nic i coś. Pod pojęciem coś można rozumieć jakiś obiekt czujący podobnie jak my, albo też obiekt nieożywiony w rodzaju krzesła czy stołu. Można też odnieść je do gwiazd wraz z towarzyszącymi im planetami lub do galaktyk różnego typu i w różnym stadium ewolucji. Pomimo to wszystkie kandydatury na coś opisuje się niezbyt precyzyjnie. Nie możemy spodziewać się podania usprawiedliwienia dla istnienia jakiegokolwiek obiektu. Dlatego pytamy o istnienie konkretnych obiektów w rodzaju talerzy czy innych przedmiotów z mojej kuchni. Jeżeli myślimy o znalezieniu uzasadnienia dla istnienia poszczególnych obiektów we wszechświecie, to najpierw musimy zmierzyć się z problemem ich opisu. Dopiero po powstaniu definicji można przystąpić do wyszczególnienia obiektów, którymi się zajmiemy. Na jakim poziomie należy sporządzić taki opis? Czy mamy wykorzystać w tym celu zdjęcie zrobione zwykłym aparatem fotograficznym, czy też powinniśmy użyć fotografii zrobionej pod mikroskopem elektronowym dającym tysiąckrotne czy większe powiększenie? Czy mamy wykorzystać opis klasyczny czy kwantowy? Czy powinniśmy dotrzeć do kwarków, z których składa się obiekt, czy też powinniśmy zagłębić się jeszcze bardziej, aż do postulowanych superstrun? Jeżeli naprawdę istnieje nieskończony zbiór teorii naukowych, z których każda burzy poprzednią, lecz sam łańcuch, jak już mówiliśmy, nie kończy s!? nigdy, to na którym poziomie, jeżeli w ogóle, powinniśmy się zatrzymać? Pytamy więc, na jakim poziomie dokładności powinniśmy opisywać Obiekty, aby było można spodziewać się wyjaśnienia konieczności ich istnienia. Pytanie to przewija się również w komedii Eugene'a lonesco „Łysa śpiewaczka", gdzie spotykamy państwa Smith, którzy odkrywają, że mieszkają w tym samym domu, śpią w tym samym łóżku i, jak sądzą mają to samo dziecko. Jednakże pod koniec dramatu służąca mówi publiczności, że para myli się odnośnie do charakteru łączącego ich związek, ponieważ dziecko każdego z nich ma co prawda jedno oko niebieskie i jedno brązowe, lecz jedno dziecko ma oko niebieskie lewe, podczas gdy drugie ma niebieskie oko prawe. Na tym poziomie dokładności niezbędne ustalenie tożsamości dziecka pani i pana Smith okazało się błędne. Problem, przed którym stoimy, jest poważniejszy niż ten, który mieli państwo Smith. Jeżeli każda teoria naukowa jest zastępowana przez następną z łańcucha, oznacza to, że poprzednia jest postrzegana jako zupełnie nieprawidłowa. Dostarcza ona odpowiedzi, które zadowalają nas w takim obszarze zjawisk, dla którego była uprzednio akceptowana, lecz nawet wówczas były one jedynie przybliżeniem. Teraz uznaje się ją jako nieważną. Lecz przecież powstanie następna teoria, która zastąpi z kolei tę obowiązującą teraz. Wynika z tego, że nie możemy tolerować żadnej niedokładności na każdym poziomie łańcucha teorii naukowych, ponieważ musimy być zdolni do dyskusji nad opisem obiektów na arbitralnie ustalonym wysokim poziomie precyzji. W przeciwnym razie nie będziemy mieli pewności, czy naprawdę rzeczywiste obiekty, istniejące gdzieś tam, nie zostały czasem opisane w sposób nieprawidłowy, na niewystarczająco głębokim poziomie bytu. Wygląda na to, że weszliśmy w ślepą uliczkę. Ponieważ jest wymagana nieskończona dokładność opisu czegokolwiek (jak również niczego), wszystko wskazuje na to, że nigdy nie będziemy w stanie tego dokonać w świetle nieskończonego czasu i nieskończonej liczby różnych możliwości. Innymi słowy, nigdy nie poznamy ostatecznej natury wszechrzeczy; opis taki nawet może nie istnieć, ponieważ nie należy się spodziewać, aby nieskończony szereg teorii wszystkiego dążył do jakiejś wielkiej i ostatecznej teorii, lecz wydaje się, że wije się on bez końca. Tego typu redukcjonistyczne podejście było konieczne, aby uzyskać odpowiedź na pytanie: Dlaczego właśnie ta JTP?, lecz to doprowadziło pod zimny prysznic, ponieważ teraz powinniśmy również odpowiedzieć na pytania w rodzaju: Dlaczego właśnie ta filiżanka, ten talerz, ten garnek itp.?, a dlaczego nie nic? Ponieważ nigdy nie będziemy potrafili opisać jakiegoś obiektu na wszystkich poziomach precyzji, bowiem nigdy nie będziemy mieli wystarczająco dokładnych danych odnośnie do czasu i energii, to nie możemy być pewni istnienia żadnego obiektu! Nacisk położony na odpowiedź na pytanie o istnienie czegoś zamiast niczego, wynika po części z ciągle aktualnego scenariusza wyłonienia się bytu z pustki. Ponieważ jak to ujął Arystoteles, jak mogłoby coś się zmienić, gdyby nie istniała rzeczywista przyczyna? Powiedziałbym, że takie podejście wyjaśnia nieco problem. W ten sam sposób, w jaki nieskończony degresywny ciąg teorii czyni, jak stwierdziłem to już wcześniej, nieaktualne pytanie, dlaczego właśnie ta JTP?, regresja i odpowiadający jej szereg coraz dokładniejszych poziomów opisu czyni nieistotne pytanie o istnienie czegoś zamiast niczego. Dzieje się tak dlatego, że nie potrafimy przedrzeć się przez kwestie dotyczące coraz dokładniejszego opisu obiektów we wszechświecie, jak również samego wszechświata. Na różnych poziomach precyzji opisu mogą występować te same cechy, podobne, na przykład, do wzajemnego znoszenia się (zanikania) energii grawitacyjnej i kinetycznej wszechświata, jak to omawialiśmy wcześniej (cień możliwości, że wszystko może być niczym?). Nie możemy jednak posunąć się ani na krok naprzód dopóki nie zakończymy opisywania. Lecz nic możemy również odwołać się do Boga, którego rękę byłoby można dostrzec w pięknie podstawowych równań matematycznych opisujących przyrodę. Nie znajdziemy nigdy tej fundamentalnej JTP, jest ona chimerą nie do ogarnięcia umysłem. Bóg jest niepotrzebny do doznać psychicznych, które powstają w wyniku subtelnej aktywności mózgu. Nie można się do Niego odwołać ani za pośrednictwem modlitwy, ani medytacji, ani żadnych doświadczeń mistycznych czy wywołanych środkami narkotycznymi (takimi jak na przykład jakieś święte grzyby). Wszystkie te doznania powstają wewnątrz mózgu i ci wszyscy, którzy twierdzą, że doświadczyli za ich pośrednictwem Boga lub że zrozumieli wszechświat w sposób niemożliwy do poznania na drodze mozolnego, lecz obiektywnego podejścia naukowego, są w błędzie. Chcielibyśmy, aby nasze zrozumienie nie wynikało z wiary czy iluzji, z fantazji czy halucynacji. Musimy opierać się na nauce, a nie wydaje się, aby prowadziła do coraz lepszego zrozumienia ostatecznego początku wszechrzeczy. Możemy robić postępy, lecz nigdy nie dotrzemy do ostatecznego rozwiązania. Jeżeli taka jest natura rzeczywistości, to musimy się z tym pogodzić. Powinniśmy się przynajmniej przekonać, jak daleko mogą zaprowadzić oparte na nauce procesy myślowe. Ograniczenia nie tkwią jednakże w nas samych, lecz w naturze rzeczywistości. Podsumowując, odpowiedź na trudne pytanie, dlaczego istnieje coś zamiast niczego?, brzmi, że opierając się na przypuszczalnej regresywnej naturze szeregu ciągu teorii materii nigdy nie będziemy mogli odpowiedzieć na to pytanie, ponieważ nigdy nie będziemy znali dokładnie natury tego czegoś, co przypuszczalnie nas otacza. To naprawdę jest pytanie bez odpowiedzi; z zasady nigdy nie będziemy zdolni jej udzielić. CZĘŚĆ DRUGA WSZECHSWIAT MATERII 5. Natura materii Dociekanie Poczynione dotychczas postępy na drodze ku zrozumieniu materii zdają się być jednym wielkim pasmem sukcesów nowoczesnej nauki. Naiwne podejście redukcjonistyczne wyjaśniania właściwości obiektu za pomocą zachowania się jego części składowych, które rozkładano dalej na elementy składowe itd., przynosiło stosunkowo dobre wyniki. Uzyskany w wyniku tego szereg części, podczęści itp. wydawał się mieć coraz większy stopień prostoty i elegancji. W miarę zagłębiania się coraz bardziej w materię potrzeba było coraz mniej elementów składowych, zdolnych wyjaśnić coraz większe zakresy zjawisk obejmujących obiekty materialne. Ten niezwykły postęp doprowadził nawet niektórych naukowców do przekonania, że nauka podstawowa dotrze wkrótce do krańca oraz że wyłonią się jakieś części ostateczne, naprawdę podstawowe cząstki elementarne, odznaczające się ostateczną elegancją. Cząstki te będą spełniać pewne prawa oddziaływań, które zostaną w tym czasie również odkryte. Wszystko to razem - cząstki i siły - doprowadzi do zbudowania wymykają się dotąd teorii wszystkiego lub JTP, jak to przedstawiono w poprzednich rozdziałach. Święty Graal popędził na poszukiwania fundamentalnej prostoty. Pomimo wszystko naiwny redukcjonizm nie obiecywał gruszek na wierzbie. Doprowadził przecież do takiego rozwoju techniki, że nasze życie stało się dużo wygodniejsze, oparte na prawach elektromagnetyzmu, powstały takie wynalazki jak światło elektryczne, telefon, radio i telewizja; a zrozumienie budowy jądra atomu doprowadziło do wykorzystania energii rozpadu i (w najbliższej przyszłości) fuzji atomu; loty kosmiczne były możliwe dopiero po zrozumieniu grawitacji i hydrodynamiki i można by podać wiele innych przykładów. Bez powstania redukcjonizmu nasze życie byłoby zdecydowanie mniej wygodne. Pomimo że redukcjonizm umożliwił poznanie widocznej prostoty natury, odkryto jednocześnie wiele bardzo złożonych właściwości występujących w przyrodzie. Istotną częścią nowoczesnej nauki stało się badanie złożonych układów dynamicznych (szczególnie tych, które zawierają w sobie chaos). W rozdziale 1 opisałem pewne aspekty tego zagadnienia. Lecz wydaje się, że badania te nie odbiegają od linii wyznaczonej przez redukcjonizm i znajdują się ciągle w dobrze umotywowanym obszarze. Powstaje jedynie konieczność równoległego rozwoju nowej dziedziny nauki samej złożoności oraz złożonej dynamiki, która obecnie znajduje się dopiero w powijakach. W tym sensie redukcjonizm można postrzegać jako naukę dla leniwych, ponieważ w miarę jak drąży podstawowe właściwości materii w poszukiwaniu prostoty, pozostawia za sobą nie rozwiązane, złożone problemy. Jak daleko posunął się redukcjonizm na drodze unikania w przyrodzie złożoności, koncentrując się jedynie na prostocie? Formalnie rzecz biorąc, cząsteczka jest najmniejszą rozpoznawalną cząstką związku chemicznego czy pierwiastka znajdującego się w stanie nie związanym. Większość normalnej materii jest zbudowana z cząsteczek, które związane ze sobą siłami kohezji składają się na przeważającą liczbę dostrzeganych wokół nas obiektów. Różnorodność obiektów występująca w przyrodzie jest możliwa jedynie dlatego, że cząsteczki mają bardzo małe rozmiary. Cząsteczka wody, na przykład, jest około stu milionów razy mniejsza od rozmiarów zlewki, w której ta woda się znajduje. Istnieją jednakże również cząsteczki dużo większe od wody, na przykład DNA czy polimery. Ponieważ istnieje niepoliczalna liczba różnych cząsteczek, to z uwagi na złożoność problemu ich usystematyzowanie i zrozumienie jest zadaniem niewykonalnym. Problemem tym zajmuje się teoria atomu, która zagłębia się dalej, do następnego poziomu rozmiarów podstawowych obiektów: MATERIA ? CZĄSTECZKI ? ATOMY Oszałamiająca różnorodność cząsteczek daje się teraz wyjaśnić ich budową, składają się one bowiem z mniejszych atomów. Już w starożytności myśl o tym, że materia jest zbudowana z atomów po raz pierwszy wysunął grecki filozof Demokryt, ale dopiero teraz, w ostatnim stuleciu, wyjaśnienie niezwykłej różnorodności kombinacji atomowej cząsteczek stało się możliwe dzięki powstaniu układu okresowego pierwiastków. W ramach tego układu uporządkowano różne znane atomy w grupy, w zależności od ich podobnych zdolności do łączenia się z atomami innych pierwiastków. Uporządkowano również atomy ze względu na ich masę. Układ okresowy obejmował początkowo dziewięćdziesiąt dwa różne atomy tak zwanych pierwiastków; kilka dalszych, nie występujących w sposób naturalny na Ziemi, naukowcy wytworzyli sztucznie. Co dziwniejsze, aż do niedawna niektórzy naukowcy kwestionowali istnienie atomów; dopiero w 1960 roku za pomocą odpowiednio czułego mikroskopu, dającego powiększenie rzędu milionów, udało się sfotografować pojedynczy atom. Nastąpił wtedy krytyczny moment: okazało się, że cała materia jest zbudowana zaledwie z dziewięćdziesięciu dwóch pierwiastków. Jednakże pierwiastki te nie były jeszcze strukturami elementarnymi, miały wewnętrzną budowę. W 1914 roku Rutherford wykazał, że sam atom składa się z centralnego, dużo mniejszego jądra, w którym jest skoncentrowana prawie cała masa, oraz z chmury ujemnie naładowanych cząsteczek (nazwanych elektronami) otaczających jądro. Przeciwnie naładowane jądro i elektrony powodują, że cały atom jest elektrycznie obojętny. W ten sposób dotarliśmy do następnego poziomu. MATERIA ? CZĄSTECZKI ? ATOMY ? JĄDRO + ELEKTRON Elektron, jako kolejny składnik materii, odkryto na przełomie stuleci, a swoje podstawowe miejsce w atomie zawdzięcza rezultatom otrzymanym przez Rutherforda. Doprowadziło to do opisu ilościowego modelu, tak zwanego atomu nuklearnego, wyjaśniającego pewne szczegóły zjawisk towarzyszących promieniowaniu, które ma miejsce przy podgrzewaniu materii. Model ten opierał się na założeniu, że elektrony na orbitach mogą stabilnie istnieć jedynie w pewnych dyskretnych (nieciągłych) stanach (z pewnymi prędkościami). Pojęcie takich szczególnych stanów powstało ad hoc i nie było zgodne z prawami materii znanymi w tym czasie, lecz okazało się, że sprawdza się ono znakomicie. Konieczność istnienia takich stanów w rzeczywistości wywołała prawdziwą rewolucję, która wkrótce miała zdezaktualizować prawa fizyki klasycznej, powstałe w wyniku prac Newtona ponad trzysta lat wcześniej. Wątpliwe odpowiedzi Rewolucja, która zmiotła klasyczne prawa Newtona trwa do dzisiaj, a interpretacja nowych struktur opisujących materię w obszarze fizyki kwantowej jest nadal przedmiotem gorących dyskusji. Ponieważ zagadnienia te stanowią istotę wysiłków mających doprowadzić do zrozumienia kreacji wszechświata, jak również są podstawą zrozumienia bieżących, niezwykle szybkich postępów na drodze do zbudowania JTP, musimy poświęcić im nieco czasu. Przy przejściu od fizyki Newtona do fizyki kwantowej zmianie uległy dwa podstawowe paradygmaty. Według Newtona materia była zbudowana z kuł bilardowych poruszających się w przewidywalny sposób po liniach prostych, aż do zderzenia się z innymi kulami. Zgodnie z fizyką kwantową, powstałą w połowie lat dwudziestych, kule bilardowe poruszają się wzdłuż torów klasycznych, które jednak dają się wyznaczyć jedynie z pewnym prawdopodobieństwem. Czym cięższa jest dana cząstka, tym jest pewniejsze, że będzie poruszać się wzdłuż ściśle sprecyzowanego toru, lecz cząstki tak lekkie jak elektron rozprzestrzeniają się w swoim ruchu na podobieństwo fal na wodzie po wrzuceniu do niej kamienia. Dlatego właśnie mechanika kwantowa jest czasami nazywana mechaniką falową. Tak więc w fizyce kwantowej materia zachowuje się jak fala, przy czym sama fala określa prawdopodobieństwo znalezienia cząstki w jakimś konkretnym miejscu. Materia może interferować, gdy przechodzi przez bardzo wąską szczelinę (dokładnie tak jak fale świetlne) i już w latach dwudziestych zaobserwowano zjawiska, które dotychczas zostały wielokrotnie potwierdzone. Nieokreślona z całą pewnością natura materii jest z psychologicznego punktu widzenia niepokojąca. Nie podobała się ona na przykład Albertowi Einsteinowi, który zwykł mawiać: Bóg nie gra w kości z wszechświatem. Wydaje się to tak sprzeczne z obserwowaną wokół rzeczywistością, jest nadal podmiotem gorących sporów. Opisałem, w jaki sposób zmienił się pierwszy paradygmat, a kule bilardowe poruszające się w sposób ściśle określony przeistoczyły w fale materii kreślone jedyne z pewnym prawdopodobieństwem. Przy przejściu od fizyki klasycznej do mechaniki kwantowej drugi paradygmat zmienia się zaskakująco. W świecie opisanym fizyką klasyczną kule bilardowe poruszają się w sposób ciągły. Wszystkie tory są krzywymi ciągłymi. Nie obserwuje się żadnych skoków, w których cząstka znajdująca się w jednym punkcie przeskakuje nagle do drugiego. W fizyce kwantowej natomiast nieciągłość i przeskoki kwantowe są zasadniczymi czynnikami. Energia istnieje w postaci paczek kwantów w poprzedniej części wspomniano już, że elektrony w atomie mogą zajmować wokół jądra stany z nieciągłego zbioru. Nowoczesna mechanika kantowa wspiera takie stanowisko, lecz równocześnie prowadzi do problemu przeskoków kwantowych. Powstaje on wtedy, gdy elektron przeskakuje z jednego stanu do drugiego. Jeżeli w nowym stanie elektron ma mniej energii, to ta ilość, którą utracił, jest emitowana w postaci światła czy innego promieniowana o podobnej naturze. Lecz mechanika kwantowa nie dostarcza żadnych wyjaśnień, co dzieje się z elektronem podczas tego przeskoku z jednego do drugiego konkretnego stanu. W istocie nie ma żadnego problemu, jeśli ściśle trzymamy się opisów kwantowych i nie myślimy o układach w sposób opisywany starymi teoriami. Wydaje się, ze liczne paradoksy wynikłe z powstania mechaniki kwantowej mają W rzeczywistości miejsce. Tak więc faza przejścia podczas przeskoku wydaje się nie istnieć; elektron z poprzedniego paragrafu istniałby jedynie w początkowym i końcowym stanie, nie istniałby natomiast pomiędzy. Można postrzegać te trudności jako problemy powstałe głównie dlatego, że nasze umysły nie są w stanie wyobrazić sobie sposobu, w jaki faktycznie jest zbudowany świat jako całość. Przywiązani jesteśmy do myśli, że daje się go ze stuprocentową pewnością opisać za pomocą zbioru kuł bilardowych poruszających się wzdłuż swoich torów. Trudności dotknęły nawet Alberta Einsteina, który w 1905 odkrył nieciągłość energii, w postaci tzw. zjawiska fotoelektrycznego. Dokładny charakter emisji, jaka ma miejsce wtedy, gdy światło pada na metalową powierzchnie, można wyjaśnić jedynie opierając się na posuńcie, że energia światła jest absorbowana przez metal w nieciągłych paczkach, zwanych fotonami. Pomimo że Einstein był jednym z pierwszych twórców mechaniki kwantowej, to nigdy nie zaakceptował probabilistycznych opisów poszczególnych układów podobnych do pojedynczego fotonu i w latach trzydziestych stoczył całą serię gorących sporów na temat tej właściwości materii i paradoksów, które ona stwarza. Jego sprzeciw w stosunku do probabilistycznego aspektu mechaniki kwantowej doprowadził go w ostatnich latach życia do całkowitej izolacji od świata uczonych, a jego uporczywe poszukiwania zunifikowanej teorii pola, obejmującej wszystkie postacie materii oraz grawitację, zakończyły się w świetle dzisiejszej wiedzy niepowodzeniem, wynikłym z ciągłego pomijania osiągnięć na polu rozwijającej się wtedy wspaniale fizyki kwantowej. Jak należało się tego spodziewać, proponowano wiele różnych teorii, które były bliższe wyobrażeniom o ustalonym świecie kuł bilardowych. Doświadczenia prowadzone w 1982 roku, polegające na badaniu promieniowania powstałego przy rozpadzie pojedynczych atomów, wykluczyły najsilniejszą teorię kandydującą do zastąpienia mechaniki kwantowej. Niezależnie od otrzymanych już rezultatów, nadal trwaj ą badania i wydaje się, że nie ma obecnie żadnej alternatywy dla drogi kwantowej. Szczególnie dlatego, że droga ta, na dłuższą metę, doprowadziła do wielu sukcesów, jak się o tym wkrótce przekonamy. Poza niepokojem powstałym na tle pozbawionego pewności obrazu świata, który obejmuje coraz głębsze obszary wyraźnie bezpiecznego i pewnego świata klasycznego, istnieją również pewne paradoksy prowadzące do wielu dyskusji toczonych na przestrzeni ostatnich dziesięcioleci. Jedna z nich, związana z nazwiskami Einsteina i dwóch jego kolegów Podolskiego i Rosena, została nazwana zwięźle paradoksem EPR. Dotyczy ona możliwości komunikowania się z szybkościami szybszymi od światła. Ponieważ kłóci się to z najstaranniej przeprowadzonymi doświadczeniami (które zostaną opisane później), jest więc wielce problematyczna. Z takim samym dziwacznym przypadkiem mamy do czynienia w paradoksie zwanym kotem Schrödingera. W (hipotetycznym) doświadczeniu umieszcza się kota w zamkniętym pomieszczeniu razem z butelką cyjanku i czeka się aż rozpad atomu spowoduje rozbicie butelki. Za każdym razem, gdy zajrzymy do pomieszczenia, będziemy widzieć, że kot jest albo żywy, albo martwy. Jednakże zasady mechaniki kwantowej prowadzą do wniosku, że po czasie, w którym atom ma 50 procent szans na rozpad, układ powinien znajdować się w dziwnej mieszaninie stanów, w których kot jest półżywy i półmartwy. Nie wiadomo, która połówka jest rzeczywista, ani jak czuje się w tym stanie kot! Takie i inne paradoksy powstają, jeżeli czasem nie do końca uświadamiamy sobie wymagania, by prawa mechaniki kwantowej dostarczały opisu ruchu poszczególnych cząstek, powiedzmy elektronów czy fotonów (cząstek światła wspomnianych uprzednio). Lecz w świetle doświadczalnych sukcesów teorii wcale się tego nie wymaga. Bardziej prawidłowo postawiony warunek ogranicza się do wymagania, aby mechanika falowa identycznie opisywała właściwości układów mających tę samą wstępną konfigurację. Nazwano to całościową interpretacją mechaniki kwantowej (ang. ensemble interpretation of quantum mechanics). Przez takie podejście jest rozwiązywany paradoks kota, ponieważ istotnie spodziewamy się, jak już mówiliśmy, ujrzeć kota w 50 procentach przypadków jedynie albo martwego, albo żywego (jeżeli doświadczenie powtarzalibyśmy wielokrotnie, za każdym razem z innym kotem). To nie konkretny kot jest półżywy czy półmartwy. Taki wynik zgadza się z przewidywaniami całościowej interpretacji mechaniki kwantowej. W podobny sposób można również poradzić sobie z innymi paradoksami, chociaż powstałe w wyniku tego interpretacje często mogą prowadzić do dostrzegania w nich zjawisk o dziwacznym charakterze, nawet wtedy, gdy nie ma już w nich nic paradoksalnego. Nie szybciej niż światło Innym ważnym krokiem na drodze do zrozumienia materii był ten, którego w pierwszej połowie naszego wieku dokonał Albert Einstein. Szczególna teoria względności, nazwana tak przez niego samego, uwzględnia sposób, w jaki różni ludzie, najczęściej poruszający się względem siebie, mogą opisywać różnice pomiędzy obserwacjami tego samego układu. Wyraz szczególna w nazwie teorii wskazuje na ograniczenia nałożone na sposób poruszania się różnych obserwatorów jedynie z ustalonymi prędkościami względem siebie. Wyraz względność oznacza, że obserwatorzy porównują wzajemnie otrzymane przez siebie wyniki i że wszystko jest względne, żaden obserwator nie jest uprzywilejowany w stosunku do innych. Szczególna teoria względności, tak jak i mechanika kwantowa, spowodowała zmianę paradygmatów. Wskazywały one sposób, w jaki należy składać prędkości poruszających się obiektów. Jeżeli z jadącego pociągu wyrzucimy piłkę, to spodziewamy się, że będzie ona miała prędkość równą sumie (geometrycznej) prędkości pociągu i prędkości, jaką jej nadaliśmy w chwili rzutu. Jest to prawda jedynie wtedy, gdy mamy do czynienia z małymi prędkościami. Lecz jeżeli jakiś obiekt, poruszający się z prędkością bliską prędkości światła, wystrzeli do przodu inny obiekt również z prędkością zbliżoną do prędkości światła, to moglibyśmy się spodziewać, że wyrzucony obiekt będzie poruszał się z prędkością bliską podwójnej prędkości światła. Nie tak, jak stwierdził Einstein, że żaden obiekt nie może poruszać się szybciej od światła. Wniosek taki wypływał z założenia, że światło porusza się zawsze z tą samą prędkością, niezależną od tego, w jaki sposób powstało i w jaki sposób dokonuje się obserwacji. Twierdzenie to zostało poparte doświadczalnie w ogromnym zakresie długości fal i sposobów wytwarzania światła. Zbadajmy teraz, w jaki sposób warunek stałej prędkości światła wpływa na pomiary czasu. Można tego dokonać za pomocą na przykład zegara świetlnego. Składa się on z dwóch zwierciadeł umieszczonych naprzeciw siebie. Impuls świetlny odbija się pomiędzy nimi, przy czym przyjmujemy, że każde przejście stanowi jednostkę zegarową czasu, którą możemy nazwać tik-takiem. W każdym tik-taku światło odbija się tam i z powrotem. Załóżmy teraz, że zegar porusza się w kierunku prostopadłym do biegu światła. Znajdujący się w spoczynku obserwator, patrząc z góry, widzi impuls poruszający się po zygzakowym torze. Długość tego nowo zakreślonego toru będzie większa niż wtedy, gdy zegar znajdował się w spoczynku. Pamiętajmy jednakże o warunku Einsteina Wymagającym, aby światło biegło zawsze z tą samą prędkością. W następstwie takiego ograniczenia, impuls świetlny w zegarze poruszającym się będzie potrzebował więcej czasu niż w zegarze spoczywającym, by przebiec tam i z powrotem. Stacjonarny obserwator, patrząc na poruszający się zegar, będzie widział, że zegar odmierza tiiiiiik-taaaaaaki, podczas gdy obserwator poruszający się razem z zegarem będzie dostrzegał zwykłe tik-taki. Innymi słowy, poruszający się zegar będzie postrzegany jako chodzący wolniej w porównaniu do zegara stacjonarnego. Stąd powiedzenie Einsteina: Poruszające się zegary chodzą wolniej. Ten nowy paradygmat prowadzi do niespodziewanych rezultatów w obszarze mechaniki kwantowej. Dobrze znany jest paradoks bliźniaków, z których jeden, podróżując do odległej gwiazdy i z powrotem z prędkością bliską prędkości światła, zestarzał się mniej od bliźniaka, który pozostał w domu i nigdy nie opuszczał Ziemi. Jest wiele takich dziwnych konsekwencji wynikających ze szczególnej teorii względności, lecz wszystkie z wielką dokładnością zostały potwierdzone doświadczalnie. W szczególności powszechnie zaakceptowano pogląd, że prędkość światła stanowi nieprzekraczalną barierę prędkości; nic nie może poruszać się szybciej od światła. Stwarza to poważne następstwa dla ewentualnych podróży kosmicznych, ponieważ ogranicza prędkość, z jaką możemy podróżować do bliższych i dalszych gwiazd, a nie znamy żadnej luki, która podważyłaby dotychczasowe wyniki. Innym istotnym wnioskiem, wypływającym ze szczególnej teorii względności, jest tożsamość energii i masy, wynikająca z równania E=mc2, które doprowadziło do ery atomowej, w jakiej nadal żyjemy. Istotną konsekwencją naszej odysei do głębszych warstw materii jest to, że im mniejsze i lżejsze cząstki odkrywamy w naszych poszukiwaniach, tym ważniejsza staje się właśnie szczególna teoria względności. Dzieje się tak dlatego, że lżejsze cząstki łatwiej jest przyspieszać do wysokich prędkości. Pomimo że przyspieszono elektrony do prędkości bliskiej prędkości światła, to w żadnym przypadku nie stwierdzono naruszenia tej granicy. I na szczęście, jeżeli podróże z prędkością światła byłyby możliwe, to prawdą mógłby stać się poniższy limeryk: Pewna młoda damulka o imieniu Gienia Podróżowała szybciej od światła promienia. Tak dumna z tej zdolności była, Na ścieżkę Einsteina wkroczyła. Wróciwszy byłej nocy, marzenia spełniła. Problemy tego rodzaju zajmowały uwagę pisarzy science fiction i stały się tematem takich zajmujących filmów jak na przykład „Back to the Future" (Powrót do przyszłości), w którym bohater podejmując pewne działanie w przeszłym życiu swojego rodzeństwa, powoduje, że zaczynają znikać. Rzeczywiście, dla nauki byłoby to wielce kłopotliwe, jeżeli można byłoby cofać się w czasie i zmieniać czyjąś przeszłość (na przykład uniemożliwiając spotkanie czyjegoś ojca i matki!). Mimo dokładnych poszukiwań tachionów (tachys po grecku oznacza szybki), hipotetycznych cząstek szybszych od światła, dotychczas nie natrafiono na żaden ich ślad. Nie zaobserwowano również nigdy złamania zasady przyczynowości (mówiącej, że skutek musi być zawsze poprzedzony przyczyną), aż do obszarów sięgających najmniejszych rozmiarów wewnątrz cząstek elementarnych. Coraz wnikliwsze badania Zjawisko promieniotwórczości było znane od czasów skrupulatnych badań prowadzonych przez panią Curie i jej kolegów pod koniec zeszłego stulecia. Odkryto różne typy promieniowania (określane jako alfa, beta i gamma) emitowane z atomów ciężkich pierwiastków, przy czym pozostała substancja przemienia się w lżejsze pierwiastki, na przykład ołów. Pewien rodzaj promieniowania składa się z wiązki jąder atomowych helu (co oznacza, że jego źródłem są jądra atomowe), z czego możemy tylko wyciągnąć wniosek, że chociaż jądro jest nienaruszalne, to jednakże może rozpadać się, gdy jest zbyt duże. Odkryto również, że jądra atomów są prawie o dokładnie całkowitą liczbę razy cięższe od protonu. Na przykład jądro atomu helu jest około czterech razy cięższe od protonu. Pomimo to ma tylko dwa razy większy ładunek elektryczny niż proton, co oznacza, że nie może być zbudowane z czterech protonów. Może natomiast składać się z dwóch protonów i z dwóch obojętnych elektrycznie cząstek, których masa jest równa masie protonu. Nowo odkryte cząstki stały się niesłychanie przydatne do wyjaśnienia mas i ładunków wszystkich innych jąder. Doprowadziło to do powstania modelu jądra atomu, jako złożonego z protonów i z prawie identycznych, lecz pozbawionych ładunku elektrycznego cząstek nazwanych neutronami (odkryto je w 1932 roku). Zjawisko promieniotwórczości wyjaśniono również pod kątem emisji albo jądra atomu helu (promienie alfa), albo elektronów i neutralnych pozbawionych masy ich towarzyszy, zwanych neutrinami (promienie beta), czy też światła (promienie gamma). Postulowane od lat trzydziestych istnienie neutrin, które miałoby wyjaśniać szczegóły energetyczne emisji promieni beta, zostało potwierdzone obserwacjami dopiero kilkadziesiąt lat później. W ten sposób otrzymujemy nowy obraz redukcjonistyczny: MATERIA ? CZĄSTECZKI ? ATOMY ? JĄDRA + ELEKTRONY ? ? PROTONY+NEUTRONY ELEKTRONY+NEUTRINA Niektórzy naukowcy chcieliby się na tym zatrzymać. Istniały cztery cząstki elementarne (proton, neutron, elektron i neutrino), które wraz z kwantem światła (fotonem) były postrzegane z nadzieją jako te, które wyjaśnią wszystkie zjawiska materialne. Nadzieje jednak nie spełniły się. Uzbrojenie potrzebne podczas drugiej wojny światowej miało wpływ na powstanie nowych technologii, które wraz z wysoko czułymi czujnikami mikrofalowymi oraz z silnymi magnesami umożliwiły po wojnie budowę nowego rodzaju akceleratorów cząstek, za pomocą których można było badać materię przy coraz wyższych energiach i na coraz mniejszych odległościach. Nowe urządzenia pozwalały rozpędzać wiązki protonów do prędkości bliskich prędkości światła oraz kierować je na tarcze wodoru lub innego materiału. W ten sposób odkryto całą chmarę nowych cząstek, które okazały się albo krótko żyjącymi towarzyszami protonów lub neutronów, albo cięższymi, lecz również krótko żyjącymi, towarzyszami fotonu. Odkrycie nowych cząstek nie było czymś zaskakującym. W latach trzydziestych japoński fizyk przekonywał w sposób jak najbardziej twórczy, że jeżeli fotony są czymś w rodzaju kleju stanowiącego siłę Utrzymującą elektrony w pobliżu jądra, to analogicznie muszą istnieć podobne cząstki sklejające razem neutrony i protony wewnątrz jądra atomu. Klej taki nazwał on mezonem, i okazało się, że istotnie pewne nowo odkryte cząstki pasuj ą dokładnie do opisu, który on podał. Lecz inne bardzo różniły się. Aby zrozumieć różnice, jakie wy stępuj ą pomiędzy dobrymi a złymi cząstkami, należy zwrócić uwagę na fakt, że cząstki, które dotychczas poznaliśmy, mają bardzo istotną własność - swój spin, czyli obracają się. Są one wirującymi bąkami. Niektóre z tych podobnych do bąków cząstek wirują wokół osi zwróconej w dół, a niektóre wokół osi skierowanej w górę, a więc mają dwa możliwe stany spinowe. Inne mają tylko jeden stan spinowy, jeszcze inne trzy orientacje spinu (w górę, w dół oraz w bok). Po odkryciu trzech stanów spinowych fotonu uświadomiono sobie, że klejem utrzymującym razem nukleony muszą być cząstki podobne do fotonów, z jednym lub trzema stanami spinowymi. Lecz w niektórych nowo odkrytych cząstkach dało się zaobserwować jedynie dwa stany spinowe. Ich właściwości były zbliżone bardziej do właściwości elektronu czy neutrina, mających również dwa stany spinowe; a więc mogły oddziaływać jedynie jako sama materia a nie klej. Po wielu trudnych i starannie przeprowadzonych doświadczeniach zaobserwowano, zew akceleratorach tworzą się nowe cząstki dwóch rodzajów. Najpierw odkryto dwóch nowych towarzyszy elektronu i neutrina, których teraz nazywamy mezonami miu (albo mionami czy neutrinami miu) oraz mezonami tau (albo neutrinami tau). Znaleziono również znacznie cięższe cząstki, które można by uważać za towarzyszy protonu i neutronu, przy czym niektóre z nich ulegały ostatecznemu rozpadowi na protony. Te spośród towarzyszących cząstek, które miały taką samą masę, można było pogrupować w oktety (po osiem) i decuplety (po dziesięć). Tam, gdzie w oktetach lub decupletach była luka, starano się przewidzieć naturę brakujących cząstek. Później cząstki mające szukane właściwości odkrywano w produktach rozpadu pozostałych po zderzeniach pomiędzy wiązką protonów a tarczą w akceleratorze. Uprzywilejowana pozycja ósemek i dziesiątek doprowadziła do powstania układu ósemkowego oraz spowodowała, że niektórzy fizycy schowali się w mistycyzmie wschodu (który również faworyzuje ósemkę jako drogę do zbawienia). Pokazali się później twierdząc, że dawno już o tym wiedzieli mędrcy Wschodu, którym teraz zaczęli oddawać prawie boską cześć. Zdrowie psychiczne zostało w ten sposób uratowane, szczególnie po sformułowaniu w roku 1964 hipotezy kwarków, postulującej triplety kwarków, które mogą wprowadzić jakiś ład w tę mnogość nowych cząstek, na wzór zestawu kostek lego. Wykorzystano przy tym magiczną formułę: 3x3=1+8 3x3x3=1+10+8+8 która miałaby stanowić uzasadnienie układu ósemkowego oraz tego, w jaki sposób są zbudowane z kwarków protony i ich towarzysze. Wydaje się, że w końcu to trójka okazała się szczęśliwą liczbą zarówno w przyrodzie, jak i dla moich wierzących w zabobony kolegów! Formułę powyższą należy rozumieć w ten sposób, że dwa kwarki występujące razem w jakiejś cząstce (kombinacja 3x3 po lewej stronie równości) mogą tworzyć oktet cząstek (ósemka po prawej stronie równości), a trzy kwarki (kombinacja 3x3x3 w drugiej równości) w cząstkach podobnych powiedzmy do protonu mogą tworzyć ósemki lub dziesiątki (zgodnie z prawą stroną). Doskonale zgadzało się to ze sposobem, w jaki grupowały się nowo odkryte cząstki. Na podstawie takiego modelu i po przyjęciu, że cząstki są zbudowane z kwarków, można było również wyjaśniać szczegóły, w jaki sposób cząstki rozpadają się. Sukces ten doprowadził do powszechnej w nauce akceptacji kwarkowego modelu cząstek. Mrowie nowo odkrytych cząstek dało się wytłumaczyć za pomocą bardzo niewielu składników. W końcu musiało istnieć jakieś spoiwo utrzymujące kwarki wewnątrz cząstek. Nazwano je gluonami i przewidywano, że będzie ich aż osiem różnych rodzajów. W ostatnim dziesięcioleciu uzyskano potwierdzenie tych prognoz. Próbowaliśmy dotąd przedstawić najprostszy z możliwych obrazów cząstek elementarnych. Jednak w celu zwiększenia wyrazistości obrazu musimy poświęcić mu nieco więcej uwagi. Okazuje się więc, że aby dopasować ładunki obserwowanych cząstek muszą istnieć co najmniej dwa różne triplety, z których jeden składa się z dwóch kwarków górnych u z ładunkiem +2/3 i jednego kwarka dolnego d z ładunkiem -1/3, a drugi z dwóch kwarków dolnych (-1/3) i jednego kwarka górnego (+2/3). Obdarzony jednostkowym ładunkiem elektrycznym proton oraz obojętny neutron można wtedy przedstawić jako kombinację kwarków: proton = (u u d) neutron = (u d d) Siła pomiędzy tymi kwarkami przejawiająca się w postaci materialnej jako gluony byłaby odpowiedzialna za uformowanie się takich kombinacji. Aby wyrazić właściwości wszystkich nowo odkrytych towarzyszy protonu w układzie ósemek i dziesiątek, wspomnianych przedtem, należy wprowadzić cztery inne triplety składające się dodatkowo z czterech kolejnych kwarków powabnego (c), dziwnego (s), dziwnego albo pięknego (b) i wierzchołkowego (t). Jak dotąd jedynie kwark t nie został zaobserwowany, zapewne dlatego, że jest zbyt ciężki na to, ty można go było otrzymać w dzisiejszych akceleratorach. Wszystkie cząstki można pogrupować w trzy rodziny składające się z: (u, d, e, ne), (c, s, m, nm), (t, b, t, nt) gdzie pozostałe symbole oznaczają: e - elektron m - mion ne - neutrino elektronowe nm - neutrino mionowe nt - neutrino tau przy czym uważa się, że wraz z fotonem (g) i ośmioma gluonami (gl) dostarczą wytłumaczenia struktury prawie wszystkich cząstek obserwowanych w przyrodzie. W końcu, wydłużamy drabinę schodzenia redukcjonizmu do obszarów tak małych jak: MATERIA ? CZĄSTECZKI ? ATOMY ? JĄDRA + ELEKTRONY ? ? PROTONY + NEUTRONY ELEKTRONY + NEUTRINA ? ? KWARKI (u,d,c,s,t,b) (e, ve, m, vm, t, vt) Zbieranie w całość Podczas gdy skoncentrowaliśmy się na cząstkach, to jedynie okazjonalnie, jak gdyby przez przypadek, wspomnieliśmy o siłach występujących pomiędzy nimi. Należy również wyjaśnić te siły oraz dostarczyć dalszych istotnych wskazówek odnośnie do natury materii. Wyobraź sobie, że jesteś Marsjaninem krążącym po całej naszej planecie w swoim UFO. Przelatując nad Wimbledonem, podczas gdy odbywa się tam właśnie dwutygodniowy turniej tenisowy, postanawiasz zatrzymać się ponad jednym z kortów (tak, aby nie przeszkadzać graczom i widzom) i przyjrzeć się uważnie. Dostrzegasz loty w tę i z powrotem małego, białego (lub żółtego), okrągłego obiektu. Podczas gdy na korcie akcja rozwija się, wiele podobnych do robotów obiektów pozostaje na swoich miejscach, nie wykonując żadnych ruchów oprócz obracania swoich górnych części raz w jedną, raz w drugą stronę, tak jakby śledziły lot małych, białych kuł (czynisz roztropną uwagę, że układ postrzegania, wykorzystywany przez te maszyny, musi być kiepski, ponieważ wymaga do śledzenia toru lotu tak obszernych ruchów i tak znacznej ilości energii). Po ustaniu ruchów białych obiektów roboty poruszają się wreszcie same i opuszczają wspólnie region, który zajmowały. Dojdziesz do wniosku, że wszystko to razem jest bardzo interesującym zjawiskiem i po powrocie na Marsa zameldujesz swojemu zwierzchnikowi, że sama wymiana białych obiektów stwarza siłę przyciągającą, która zanika wraz z u-staniem ich ruchów. Fizycy cząstek postrzegaj ą siły natury w podobny sposób jako wywołane wymianą cząstek lub kwantów. Tak więc siły elektromagnetyczne występujące pomiędzy cząstkami wynikają z wymiany fotonów. Podobnie, w protonie czy w neutronie, kwarki są ze sobą związane cząstkami pola sił jądrowych, i cząstki te nazwano gluonami. Jest jeszcze jedna siła, o której już wspominaliśmy, siła odpowiedzialna za promieniotwórczość. Zastanawiano się nad jej naturą już w latach trzydziestych, lecz nie zrozumiano jej prawidłowo w ramach języka wymieniających się kwantów, i dopiero w późnych latach sześćdziesiątych, po powstaniu teorii unifikującej elektromagnetyzm i promieniotwórczość, osiągnięto pewne zrozumienie. Zasugerowano wtedy, że dla sił odpowiedzialnych za promieniotwórczość muszą istnieć jakieś powiązane z nimi cząstki, które można uważać za promieniotwórczych towarzyszy fotonów. Okazało się, że były to mezony (tak jak fotony mające trzy stany spinowe) nazwane W i Z. Przewidywano, że ich masa musi być około dwustu razy większa niż masa protonu. W celu ich znalezienia wybudowano w Genewie linowy akcelerator LEP (large electron positron machine, wielki akcelerator pozytronowy), za pomocą którego udało sieje znaleźć, przy czym okazało się, że ich właściwości dokładnie zgadzają się z przewidywaniami. Dotychczas odnaleziono już tysiące mezonów Z i W. Znaczenie ostatniego stwierdzenia jest ogromne, ponieważ dzięki niemu można dowiedzieć się, jak to daje się wykazać poprzez dopasowanie właściwości tych mezonów do różnych modeli innych cząstek, jaka jest liczba rodzin, które zawierają w sobie lekkie neutrina; odpowiedź brzmi: trzy. Wynika z tego, że nie istnieją już żadne inne rodziny, których musielibyśmy dalej szukać, co ogranicza silnie liczbę możliwych, ostatecznych postaci materii. Nasza opowieść o materii dobiega niemal końca. Drabina redukcjonizmu jawi się teraz w postaci: MATERIA ? CZĄSTECZKI ? ATOMY ? JĄDRA FOTONY ELEKTRONY ? [PROTONY + NEUTRONY ] FOTONY [ELEKTRONY +NEUTRINA] ? (u, d) (c, s) (b, t) KWARKI + GLUONY + FOTONY + (ELEKTRONY + NEUTRINA) (MIONY + NEUTRINA) (TAONY+NEUTRINA) + (W,Z) MEZONY Kwanty oddziaływań wydają się wyglądać następująco: SIŁA KWANTY Elektromagnetyczna Jądrowa Promieniotwórczość Fotony Gluony Mezony W i Z Redukcjonistyczna drabina oraz tabela kwantów oddziaływań jest przedstawiona na podstawie najbardziej aktualnej wiedzy, osiągalnej w chwili pisania tej książki. Być może przy końcu stulecia nowe wyniki, otrzymane za pomocą właśnie budowanych akceleratorów, dodadzą do tej drabiny nowych szczebli. Możliwe, że zostaną odkryte nowe pozycje w tabeli oddziaływań. Powiększyłoby to jedynie obszary sukcesu programu redukcjonistycznego; nie ma szans, by drabina wydłużyła się w górę. Może ona wydłużać się jedynie w głąb, do niższych warstw materialnego świata. Pozostał do opisania jeszcze jeden aspekt. Jest nim, wyczuwalny we wszystkich dotychczasowych opracowaniach, nacisk położony na unifikację. Zaczęło się to od momentu, kiedy jeszcze w 1984 roku James Clark Maxwell zunifikował elektryczność i magnetyzm. Dołączyły do tego oddziaływania chemiczne, co doprowadziło do lepszego zrozumienia układu okresowego pierwiastków. Dalsza unifikacja nastąpiła po uwzględnieniu mezonów W i Z. Doprowadziło to do pojęcia tak zwanych oddziaływań elektrosłabych (przy czym określenie słaba oznacza, że jest to najsłabsza ze wszystkich niegrawitacyjnych sił). Próbuje się teraz włączyć do unifikacji siły jądrowe, lecz powstała w ten sposób teoria, zwana w analogii do elektrodynamiki chromodynamiką, nie doprowadziła jeszcze do zbudowania żadnego zadowalającego modelu. Całą historię unifikacji można by przedstawić następująco: Ważną ideą, która była wielce pomocna przy dojściu do zrozumienia sił występujących w przyrodzie, jest idea zwana zasadą niezależnych pomiarów. Zezwala ona na wielką redukcję wszystkich możliwych oddziaływań, które trzeba analizować. Powróćmy do obrazu Marsjanina zawieszonego nad Wimbledonem oraz do piłki, którą wymieniają między sobą roboty. Niezależnie od tego, co widać na zewnątrz, inteligentny Marsjanin uwzględniłby, zgodnie z zasadą niezależnych pomiarów, że grające w tenisa roboty mają jakieś kółka na głowie oraz podobną do tarczy rękę. Widać, że położenie tej ręki-tarczy zmienia się gwałtownie w chwili odbijania piłki. Wydawać by się mogło, że .położenie to jest uzależnione od sił występujących pomiędzy robotami. Dokładniejsza jednakże obserwacja wskazuje, że siła pomiędzy robotami, wywołana wymianą piłek, nie zależy od pozycji tarczy (wiemy już, że chodzi o rakietę tenisowa. Niezależność siły od pozycji tarczy-ręki tworzy bliską analogię do zasady niezależności przyrządów. Dokładna analiza wskazuje, że ta zasada ma ogromny wpływ na ograniczenie liczby różnych form, które mogłyby przyjąć jakieś oddziaływania. Teoria oddziaływań elektrosłabych oraz chromodynamika były zbudowane głównie na podstawie tej idei. Ewentualne teorie wielkiej unifikacji (łączące obydwie), sugerowane również w ramach zasady niezależności przyrządów, nadal są sprawdzane. Obecnie próbujemy włączyć do zunifikowanego obrazu grawitację, która stałaby się czwartą siłą w przyrodzie objętą tą kombinacją z pozostałymi dwoma. Zasygnalizowano to na diagramie poprzez umieszczenie znaku zapytania. Jeżeli udałoby się osiągnąć taką całkowitą unifikację wszystkich sił przyrody, to czy możliwe, byśmy w końcu nie odkryli JTP? 6. Coraz ważniejsze problemy Grawitacja jako geometria Grawitacja jest siłą, której człowiek doświadcza stosunkowo najdłużej ze wszystkich sił przyrody, lecz mimo to stwarza ona najwięcej trudności w zrozumieniu i odmodelowaniu. Człowiek prymitywny musiał uwzględniać grawitację, aby nie spaść w przepaść lub wykorzystując strome wzgórza, aby uzyskać przewagę nad wrogiem. Upolowanie ptaka czy innego zwierzęcia wymagało zrozumienia wpływu grawitacji na lot pocisku mającego dosięgnąć zdobycz. Dawni budowniczowie musieli nauczyć się tak układać masywne elementy budowlane, aby powstałe siedziby były zdolne wytrzymać tę wszechobecną siłę. Poszukiwania zrozumienia siły grawitacyjnej dobrze się zaczęły. W tym samym bowiem czasie, gdy Newton odkrył swoje trzy prawa ruchu, podał również prawo powszechnego przyciągania grawitacyjnego ciał, nazwane prawem odwrotnego kwadratu (z którego wynika, że jeśli ciała zwiększą odległość między sobą dwukrotnie, to siła przyciągania zmniejszy się czterokrotnie). Jednocześnie prawa ruchu oraz prawo powszechnego ciążenia doprowadziły do dobrze zdefiniowanego modelu ruchu planet wokół Słońca oraz umożliwiły stosunkowo dokładne wyznaczenie ich orbit, a nawet pozwoliły na podstawie zakłóceń występujących w ruchu Urana przewidzieć istnienie kolejnej planety poza jego orbitą. Poszukiwania zakończyły się sukcesem; znaleziono Plutona, dziewiątą planetę. Na przełomie naszego stulecia prawo powszechnego ciążenia zaczęło się wydawać sprzeczne z innymi prawami fizyki. Powstała idea, że istnieje jakaś granica prędkości, z jaką mogą rozprzestrzeniać się jakiekolwiek oddziaływania. Albert Einstein uczynił z tego główny postulat swojej szczególnej teorii względności, którą omówiliśmy w poprzednim rozdziale. podstawową przesłanką było to, że światło biegnie zawsze z tą samą prędkością, z czego wynikało, iż ta prędkość jest graniczną prędkością, jaką może osiągnąć jakikolwiek obiekt. Jednakże wydawało się, że grawitacja oddziałuje pomiędzy dwoma ciałami obdarzonymi masą w sposób natychmiastowy, a więc w grzeczności ze szczególną teorią względności. Einstein doszedł do wniosku, że musi rozszerzyć szczególną teorię na przypadki, kiedy dwóch obserwatorów nie porusza się w stosunku do siebie ruchem jednostajnym (jak to ma miejsce w szczególnej teorii), a ruchem przyspieszonym. Rozważał przypadek kogoś znajdującego się w windzie wysokiego budynku. Jeżeli winda pozostaje w spoczynku, to dana osoba odczuwa wpływ grawitacji w ten sam sposób jak inni. Jeżeli urwie się lina podtrzymująca, winda zaczyna swobodnie spadać i osobnik staje się nieważki. Gdy porusza się ruchem przyspieszonym w kierunku dna szybu windy, siła ciężkości zostaje całkowicie zniesiona. Prawdziwej nieważkości już doświadczyło wielu astronautów, lecz we wczesnych latach naszego stulecia był to czysty eksperyment myślowy, bez wątpienia bardzo twórczy. oprowadził bowiem Einsteina do wniosku, że grawitacja jest równoważna przyspieszeniu. Oznacza to, że przynajmniej w małych obszarach efekty grawitacyjne można znieść odpowiednim przyspieszeniem, tak dzieje się na przykład podczas swobodnego spadku. Jednakże odwrotna sytuacja będzie również prawdziwa: jeżeli można by rozszerzyć szczególną teorię względności na przypadek, kiedy obserwatorzy oddalają się od siebie ruchem przyspieszonym, to należy się spodziewać, że będą oni doświadczać czegoś, co mogliby zinterpretować jako siłę grawitacyjną (jako że przyspieszenie i grawitacja są sobie równoważne). Jednym z najbardziej istotnych następstw natury filozoficznej stał się fakt, że czas podobnie jak przestrzeń nie jest absolutny, lecz zależy od obserwatoria Podobieństwo tej cechy w obydwu wielkościach pozwoliło na wprowadzenie tak zwanego kontinuum czasoprzestrzennego, mającego trzy wymiary przestrzenne i jeden czasowy. Kontinuum to miałoby być wypełnione, według szczególnej teorii względności Einsteina, obserwatorami poruszającymi się ruchem jednostajnym. Żaden z nich nie byłby przy tym uprzywilejowany w stosunku do innych, więc dlatego używa się terminu względność; określenie szczególna oznacza, że ogranicza się obserwatorów tylko do takich, którzy poruszają się ze stałą szybkością. Wraz z nowym sposobem pojmowania grawitacji jako przyspieszenia uświadomiono sobie, że należy uwzględnić w swoich rozważaniach również obserwatorów poruszających się dowolnie. Pojęcie względności pozostaje ciągle w mocy, lecz teraz rozszerzono je o obserwatorów poruszających się w sposób dowolny. W tym momencie Einstein wprowadził idee, które zmieniły całą fizykę oraz sposób, w jaki patrzymy na świat. Zaproponował bowiem, że współrzędne w czasoprzestrzeni, jakie przyporządkowujemy zdarzeniom, nie maj ą żadnego związku z przebiegiem podstawowych zjawisk. A więc jakiś człowiek znajdujący się czy to w stojącej, czy też spadającej swobodnie windzie, nie będzie w stanie wykryć żadnych zmian podstawowych sil przyrody, jeżeli nie będzie mógł wyjrzeć przez okno. Mógłby jedynie zaobserwować rzeczywiste efekty grawitacyjne wynikłe z zakrzywienia powierzchni Ziemi, polegające na subtelnej różnicy kierunku swobodnego spadku po jednej i po drugiej stronie kabiny windy. Współrzędne nie mają znaczenia, to główne założenie nowej ogólnej teorii względności. Jeżeli tak miałoby być w istocie, to w jaki sposób oddziałuje grawitacja? Einstein doszedł do wniosku, że jedynym sposobem, w jaki można sobie poradzić z tym pytaniem, jest sformułowanie odpowiedzi za pomocą geometrii czasoprzestrzeni. Właściwości geometryczne obiektów nie zależą od współrzędnych określających, gdzie dany obiekt znajduje się w przestrzeni. Geometria zajmuje się takimi obiektami jak punkt, prosta, płaszczyzna, powierzchnia itp. oraz bada ich właściwości, na przykład docieka, gdzie przecinają się trzy proste. Żadna z takich właściwości nie zależy od konkretnych współrzędnych przyporządkowanych danym punktom, prostym itd. Nie ma żadnego powodu, aby czterowymiarowa czasoprzestrzeń (lub trzy kierunki w przestrzeni i czwarty w czasie) miała właściwości postulowane pierwotnie przez greckiego matematyka Euklidesa. W przestrzeni euklidesowej, określanej często terminem płaskiej, dwie proste równoległe nigdy się nie przecinają. Suma wewnętrznych kątów trójkąta wynosi zawsze 180 stopni. Istnieje jednakże wiele przestrzeni, które nie są płaskie. Rozważmy prosty przykład powierzchni kuli. Analogią do prostej (która wyznacza najkrótszą drogę pomiędzy dwoma punktami) jest na powierzchni kuli wielkie koło. Jakiekolwiek dwa takie koła zawsze się przecinają, podczas gdy proste równoległe leżące na płaszczyźnie nie przecinają się nigdy. Inną różnicą jest to, że suma wewnętrznych kątów trójkąta leżącego na powierzchni kuli jest zawsze większa od 180 stopni. Wielu matematyków poprzedniego stulecia sugerowało, że nasza fizyczna przestrzeń może również nie być płaska i próbowano nawet wyznaczyć doświadczalnie, ile faktycznie wynosi suma kątów w trójkącie, powstałym po połączeniu trzech wierzchołków gór. Próby tego rodzaju nie potwierdziły wtedy przypuszczeń i dopiero wielki twórczy skok dokonany przez Einsteina doprowadził do uznania zakrzywienia przestrzeni fizycznej za rzeczywistość. Założył on, że nasza czterowymiarowa czasoprzestrzeń jest zakrzywiona, przy czym sama krzywizna (zdefiniowana zgodnie ze wszystkimi regułami geometrii) jest siłą grawitacyjną oddziałującą na lekkie ciała poruszające się swobodnie w czasoprzestrzeni. Jeden z powodów, dlaczego możliwe było podanie takiego prostego opisu sposobu, w jaki lekkie ciała poruszają się pod wpływem grawitacji, był konsekwencją wspomnianego uprzednio swobodnego spadku. W stanie nieważkości masa nie wpływa na ruch ciał pod wpływem grawitacji. Cechę tę nazywamy zasadą rówoważności, którą można wyrazić słowami: pod wpływem ciążenia wszystkie ciała spadają z jednakowym przyspieszeniem. Wydaje się, że obowiązuje ona na wszystkich poziomach materii, włączając nawet tak małe cząstki jak protony, neutrony i elektrony, co potwierdzają doświadczenia przeprowadzone dokładnością do jednej miliardowej części. Grawitacja, traktowana jako zakrzywienie czasoprzestrzeni, może być bardziej zrozumiała przy porównaniu jej do gumowego snookera. Stół bilardowy byłby wtedy pokryty powłoką gumową, zamiast suknem. Sprytnym Sposobem prowadzącym do wygranej, jest użycie ołowianych kuł. Odkształcałyby one powierzchnię stołu w pobliżu kuł. Nie podejrzewający niczego przeciwnik, używający lżejszych bil, wykona uderzenie, które będzie chybione, ponieważ jego bila, przyciągnięta krzywizną wywołaną cięższą bilą kolorową, trafi w nią, pomimo tego, że zamiarem przeciwnika było ją minąć. Oczywiście, jeśli byłby on na tyle sprytny, aby grać również ołowianymi bilami, to trudno byłoby przewidzieć, jak na rezultat wpłynie odkształcenie powierzchni, spowodowane ciężkimi bilami kolorowymi. Odpowiada to sytuacji, kiedy pierwotna krzywizna czasoprzestrzeni jest dalej zmieniana przez cząstki testujące, które się w niej poruszają. Aby umożliwić obliczenie rzeczywistej krzywizny czasoprzestrzeni, wywołanej masą jakiegoś ciała, Einstein w 1915 roku wyprowadził równania ogólnej teorii względności. Przyrównał w nich geometryczną krzywiznę (a w rzeczywistości siłę wywołaną grawitacją) czasoprzestrzeni do rozkładu energii i jej przepływu przez czasoprzestrzeń wypełnioną materią. Innymi słowy równania ogólnej teorii względności mają postać: Krzywizna geometrii = Energia rozkładu mas Dla bardzo masywnych ciał, podobnych do Słońca, równania dają się rozwiązać, a jedno ze szczególnych rozwiązań dostarcza odpowiedzi, jaki jest wpływ efektu Newtona na większych odległościach. Przy bliższym jednak przyjrzeniu się wynikom otrzymanym na podstawie praw Newtona, a z drugiej strony teorii Einsteina, okazało się, że różnią się one miedzy sobą. W szczególności ponieważ foton ma energię, a więc i masę (z równania E=mc2), to powinien być odchylany przy przejściu w pobliżu Słońca. Podczas całkowitego zaćmienia Słońca, jakie miało miejsce w 1919r., zespół naukowców obserwował gwiazdę, której światło przechodziło bardzo blisko Słońca. Znając jej prawidłową pozycję oraz mierząc widoczne położenie (zaobserwowane na brzegu tarczy przesłoniętego prawie całkowicie Słońca), można było wyliczyć, o ile wiązka światła przesunęła się w kierunku Słońca, muskając jego brzeg. Pomierzona wartość zgadzała się dokładnie z przewidywaniami Einsteina. Późniejsze doświadczenia potwierdziły tę zgodność z jeszcze większą dokładnością. Nadchodzą relacje o zwielokrotnionych obrazach bardzo odległych kwazarów (zwartych galaktyk emitujących ogromne ilości energii w postaci promieniowania), powstałych w wyniku oddziaływania bliżej położonych galaktyk, które działały jak soczewki grawitacyjne, Dotychczas przeprowadzono wiele testów ogólnej teorii względności, takich jak: tempo spowalniania się ruchu orbitalnego Merkurego wokół Słońca czy odchyłki w opóźnieniu sygnałów radarowych przechodzących w obrębie Układu Słonecznego po odbiciu się od powierzchni planet. We wszystkich tych badaniach potwierdzono zgodność ogólnej teorii względności z wynikami doświadczeń w granicach błędu pomiaru. Uważa się, że stopień zgodności osiąga obecnie wartość jednej dziesiątej procent. Prawo powszechnego ciążenia Newtona odeszło w przeszłość; wszechświat nie jest płaską, trójwymiarową przestrzenią euklidesową (przestrzenią absolutną), z czasem absolutnym biegnącym gładko i niezależnie, lecz zakrzywionym kontinuum czasoprzestrzennym, w którym czas i przestrzeń są względne oraz nierozdzielnie ze sobą przemieszane, a grawitacja jest krzywizną wyznaczoną przez rozkład masy we wszechświecie. Czarne dziury Jeżeli zamierzamy kupić samochód, to zwykle chcemy go najpierw sprawdzić podczas krótkiej przejażdżki. Czym trudniejsza próba, tym większa nasza ufność, że samochód jest sprawny. Jeżeli pragniemy zaakceptować jakąś teorię naukową, to najpierw powinniśmy poddać j ą krytycznej weryfikacji. Najpierw wylicza się wartości przewidywanych przez teorię zjawisk i porównuje się otrzymane wyniki z wartościami rzeczywistymi, pomierzonymi podczas odpowiednio dobranych eksperymentów. I także tutaj im trudniejsze warunki stawiane podczas doświadczeń, tym więcej ufności w teorię, oczywiście jeżeli wyniki doświadczeń potwierdzą jej przewidywania. Grawitacja jest krzywizną czasoprzestrzeni. To jest wniosek wypływający z tez Einsteina przedstawionych w 1915 roku. Od tego czasu zawładnął on wyobraźnią całych pokoleń. Jest to eleganckie rozwiązanie problemu natury grawitacji, prowadzące do ogromnie ważnych implikacji kosmologicznych, które omówimy w następnym rozdziale. Stwarza ono jednak również możliwość wystąpienia pewnych zaburzeń już w małej jak na skalę wszechświata skali: na przykład powstawanie tak zwanych czarnych dziur i ściskanie, a w konsekwencji znikanie materii w ich centrum. Prowadzi to do paradoksu, który trzeba kiedyś w końcu rozwiązać, jak można uniknąć znikania materii znajdującej się pod wpływem silnych pól grawitacyjnych? Takie warunki wydają się najostrzejszym testem ogólnej teorii względności. Ponieważ jej przewidywania nie zgadzają się natychmiast z podstawowym modelem (w którym materia nie może po prostu znikać) materii zbudowanym na podstawie teorii Einsteina, to wydaje się, że model ten nie zdał egzaminu. Przyjrzyjmy się teraz dokładniej, co znajduje się w puli. Istnienie czarnych dziur nie jest nową ideą. Pierwsze przypuszczenia pojawiły się w końcu (dziewiętnastego stulecia. Opierając się na korpuskularnej teorii światła sugerowano, że wielka i wystarczająco skoncentrowana masa uniemożliwi ucieczkę światła ze swojej powierzchni, a każda odrobina światła, która do niej dotrze, będzie schwytana na zawsze. Z wielu różnych teorii wyciągnięto wtedy jedynie ten wniosek. Inne właściwości czarnych dziur nie były jednak jeszcze przez długi czas dyskutowane. Tego rodzaju fantazje stały się bardziej rzeczywiste dopiero po tym, jak Einstein przedstawił swoje poglądy o naturze grawitacji i światła, jak również po osiągnięciu lepszego zrozumienia ewolucji gwiazd. W szczególności uświadomiono sobie, że źródłem energii gwiazd jest fuzja jądrowa, która zachodzi z coraz mniejszym prawdopodobieństwem w miarę zużywania się paliwa nuklearnego. Początkowo energia powstaje w wyniku fuzji atomów wodoru w atom helu; później atomy helu łączą się wytwarzając atomy węgla i towarzyszącą temu procesowi energię. Proces taki trwa do chwili powstania żelaza. Fuzja atomów żelaza nie powoduje już wytwarzania się energii. Ostatecznie zatem, każda gwiazda musi umrzeć, kiedy przekształci znaczną część swojego pierwotnego wodoru w żelazo. Jej koniec może mieć charakter dość katastroficzny biorąc pod uwagę ogromne ciśnienie wytwarzane przez promieniowanie elektromagnetyczne (w tym światło), które próbuje wydostać się z wnętrza gwiazdy na powierzchnię. Kiedy w wyniku ustania procesów syntezy i związanego z tym wydzielania się energii spadnie ciśnienie, to gwiazda zapadnie się na siebie samą i będzie to miało charakter katastrofy, podczas której zewnętrzne części gwiazdy zostaną gwałtownie odrzucone. Na przestrzeni minionych tysiącleci ludzie mieli okazję obserwować wybuchy supernowych na niebie. Na przykład Chińczycy dostrzegli pojawienie się w 1054 roku supernowej w konstelacji Kraba. Ostateczny los umierającej gwiazdy rysuje się stosunkowo łagodnie, jeśli traci sporo swojej masy tak, że siły grawitacji w jej wnętrzu nie są zbyt wielkie. Obliczono, że jeżeli utrzyma masę nie większą niż jedną i jedną czwartą masy Słońca, to skurczy się do takiego stopnia, iż jej gęstość zwiększy się około stu milionów razy. Będzie z wolna zamierać, stając się najpierw białym, a później niewidocznym czarnym karłem (zwanym tak dlatego, że będzie zaledwie rozmiarów Ziemi). Pozostanie w takim stanie, w którym staje się już niemożliwa emisja energii świetlnej, ponieważ elektrony są zbyt gęsto upakowane i nie mogą przechodzić na niższe stany energetyczne, co jest konieczne do wysłania fotonu. Jeżeli pozostała po wybuchu masa równa się około trzech mas Słońca, to elektrony nie mogą już powstrzymać dalszego zapadania się gwiazdy. Będzie się ona kurczyć coraz bardziej, aż jej gęstość stanie się milion razy większa od gęstości czarnego karła, a jej stan będzie utrzymywany poprzez oddziaływania pomiędzy neutronami, z których będzie zbudowana. Ma teraz średnicę zaledwie kilku kilometrów i nazywa się ją całkiem trafnie gwiazdą neutronową. Początkowo będzie miała silne pole magnetyczne i wirując z wielką szybkością będzie wysyłać oscylujące promieniowanie, co odpowiada dokładnie obrazowi pulsarów, odkrytych po raz pierwszy w 1973 roku w Cambridge. Jeżeli wszystkie straty masy nie są wystarczające (ponieważ początkowo gwiazda była zbyt wielka), to wnętrze gwiazdy nie ma możliwości powstrzymania procesu dalszego kurczenia się. Następuje katastrofa! W miarę jak gwiazda się kurczy coraz bardziej, zwiększa się również pole grawitacyjne. Powoduje to zwiększanie się prędkości ucieczki z jej powierzchni (jest to prędkość, z którą obiekt znajdujący się na powierzchni, może wydostać się na orbitę lub jeszcze dalej). Prędkość ucieczki z powierzchni Ziemi wynosi około 13 kilometrów na sekundę, podczas gdy z białego karła około 1000 km/s, a z gwiazdy neutronowej 10 000 km/s. Zapadająca się gwiazda osiąga w końcu taki rozmiar, że prędkość ucieczki równa się prędkości światła. W poprzednim rozdziale stwierdziliśmy, że nie można poruszać się z prędkością przekraczającą prędkość światła, a więc poczynając od tego rozmiaru, gwiazda staje się czarna. Żadna odrobina światła padającego lub emitowanego z gwiazdy nie jest w stanie pokonać sił przyciągania. Utworzy się czarna dziura. Powierzchnię kulistą utworzoną w tym krytycznym stanie nazywamy horyzontem zdarzeń. Jest to trafnie dobrana nazwa, ponieważ żadna informacja o zdarzeniach, które mają miejsce wewnątrz tej sfery, nigdy nie może wydostać się na zewnątrz. Istnienie takiej bariery komunikowania się stawia istotne pytania przed filozofią nauki. W jaki sposób można by formułować jakieś przewidywania odnośnie do zdarzeń wewnętrznych, jeśli nie ma szans na ich weryfikację? Zostałem na przykład zaproszony do udziału w jury konkursu na najlepsze opowiadanie na temat: Jak dostać się do wnętrza czarnej dziury i ocaleć? problemem stało się dli mnie rozstrzygnięcie wątpliwości, która z przedstawionych propozycji jest prawidłowa, a która błędna. W zasadzie nikt nigdy nie będzie znał odpowiedzi To znaczy, dopóki sam nie wpadnie do obszaru ograniczonego horyzontem zdarzeń. Lecz wtedy, w jaki sposób mógłby dotrzeć do zwyczajowych kanałów naukowych, które obejmuj ą publikacje w czasopismach oraz późniejszą weryfikację przez innych badaczy. Byłoby to niemożliwe, chyba że ci inni badacze, razem z wydawcami, wpadliby tam również. Jedynie wtedy, gdy wszyscy zainteresowani oraz związani z tematem naukowcy wzięliby udział w masowym samobójstwie i wpadli do wnętrza horyzontu zdarzeń, można by uzyskać zweryfikowane potwierdzenie odpowiedzi. Jednakże samo takie poświadczenie nie przetrwałoby długo. Jeżeli coś dostaje się do wnętrza czarnej dziury, to mimo nawet znacznych początkowych rozmiarów, będzie zgniatane coraz bardziej. Jeżeli czarna dziura ma duże rozmiary (powiedzmy, że jej masa odpowiada masie naszej galaktyki, która składa się z setek miliardów gwiazd podobnych do Słońca), to można wyliczyć, że efekty ściskania i kurczenia się dadzą się dostrzec dopiero po upływie tygodnia po przekroczeniu horyzontu zdarzeń (następny tydzień jest potrzebny, by dotrzeć do środka). Czarna dziura o masie Słońca ma krytyczny rozmiar rzędu zaledwie trzech kilometrów, a nasza Ziemia, przy takiej gęstości, miałaby średnicę zaledwie rzędu jednego centymetra. W każdym jednakże przypału, silne efekty grawitacyjne dałoby się odczuć na długo przed osiągnięciem horyzontu zdarzeń. Przekroczywszy krytyczną sferę wszystko nieubłaganie jest zasysane do centrum, gdzie siła grawitacji staje się nieskończenie wielka. Ponadto, aby dotrzeć do środka potrzeba skończonego czasu. Musimy przy tym pamiętać o względności czasu i w tym przypadku, tak zwanym właściwym czasem, będzie czas związany z układem spadającego ciała. Zegarek, przypięty na przegubie swobodnie spadającego, wskazywałby właśnie taki czas. W czarnej dziurze o masie galaktyki potrzeba około dwóch tygodni na przebycie Odległości pomiędzy horyzontem zdarzeń a środkiem. Lecz gdy materia dotrze do centrum, to w pewnym sensie zniknie. Stwarza to wewnętrzną sprzeczność, o której wspomnieliśmy przedtem, ponieważ materia nie może po prostu tak sobie znikać, przynajmniej ta postać materii, którą znamy na Ziemi. Być może przeistacza się w inną postać, lecz przecież nie znika. Można mniemać, że w bardzo odległych regionach wszechświata materia zachowuje się w zupełnie odmienny sposób, lecz ponieważ nie mamy najmniejszej wskazówki, która byłaby w tym przypadku pomocna, sugestia powyższa nie wydaje się wnosić niczego pożytecznego. Ponieważ zarówno w naszej galaktyce, jak i poza nią, znajduje się wiele obiektów pretendujących do miana czarnej dziury, to nie można pozbyć się paradoksu znikania materii twierdzeniem, że czarne dziury nie istnieją. W naszej galaktyce znajduje się obiekt o nazwie Cygnus X-l, który jest układem podwójnym, składającym się z niebieskiego superolbrzyma o masie co najmniej dziesięciu mas Słońca oraz z niewidzialnego towarzysza (dostrzegalnego jedynie za pośrednictwem oddziaływania na ruch widzialnej gwiazdy), obiegającego orbitę w ciągu pięciu dni i mającego również masę przynajmniej dziesięciu mas Słońca. Obiekt ten jest źródłem wysokoenergetycznego promieniowania rentgenowskiego, które jak się sądzi pochodzi z materii podkradanej niebieskiemu olbrzymowi przez niewidzialnego partnera. Trudno sobie wyobrazić, aby to było coś innego niż czarna dziura. Innym kandydatem jest obiekt NGC4151 znajdujący się w galaktyce Seyferta, położonej w odległości pięćdziesięciu milionów lat świetlnych. Silna emisja w paśmie ultrafioletu wskazuje na obłoki gazowe rozprzestrzeniające się z centralnych obszarów, które jak się powszechnie sądzi mają rozmiary rzędu trzynastu dni świetlnych (dzień świetlny to droga, jaką światło przebywa w ciągu jednego dnia i równa się około 26 miliardów kilometrów). Szacuje się, że masa jądra równa się około pięćdziesięciu masom słonecznym, z czego trudno nie wyciągnąć wniosku, iż centralne regiony tej galaktyki tworzą czarną dziurę. W końcu kwazary, które są bardzo odległymi punktowymi obiektami emitującymi ogromne ilości energii, można uważać za źródła energii, tylko po przyjęciu, że ich energia powstaje w wyniku kanibalizmu centralnej czarnej dziury, pożerającej otaczające ją gwiazdy. Jeżeli w końcu okazałoby się, że nie wszystkie wspomniane wyżej obiekty są czarnymi dziurami, to nawet samo doświadczenie myślowe zapadania się materii w czarną dziurę oraz obliczenia, z których wynika, że cała materia wszechświata zniknie, wskazują, że ogólna teoria względności oraz klasyczne pojmowanie materii zawierają zarodek swojej własnej destrukcji. Ponadto wszystko wskazuje, że żyjemy w rozszerzającym się wszechświecie, który jak się wydaje jakieś piętnaście miliardów lat temu musiał nagle powstać z niczego podczas Wielkiego Wybuchu. Cofając się w czasie dochodzimy do momentu, kiedy cały wszechświat znika. Nie da się tego pominąć stwierdzeniami, że znikanie materii w bardzo silnych polach grawitacyjnych nie występuje. Nasz wszechświat jest tego dowodem nie wprost. wynika z tego, że ogólna teoria względności, sformułowana w postaci Krzywizna geometrii = Energia materii musi zawierać gdzieś błędy, ponieważ prowadzi do absurdu znikającej materii. W następnej części zbadamy różne możliwości rozwiązania tego paradoksu. Probabilistyczna grawitacja? Wprowadzony w poprzedniej części wniosek, że materia znika w centrum czarnej dziury w skończonym czasie, niszczy piękny obraz nakreślony w 1916roku przez Einsteina w jego ogólnej teorii względności. Opis materii podany powyżej wskazuje na lepsze jej zrozumienie oraz na konieczność wprowadzenia modyfikacji do modelu zbudowanego w 1916 roku. Musimy przynajmniej uwzględnić w mechanice kwantowej cechy materii Opisane w rozdziale 5. Być może materia przyjmie wtedy jakąś rozmazaną postać, wynikającą z nieoznaczoności miejsca i czasu, co mogłoby prowadzić do nowych zjawisk. Jeżeli rozpatrujemy zjawiska spoza horyzontu zdarzeń, a w szczególności znajdujące się w bliskim jego sąsiedztwie, to dochodzimy do przekonania, że najbardziej interesujące jest zjawisko promieniowania czarnej dziury. Przewidywane w 1974 roku przez Hawkinga, odpowiada horyzontowi zdarzeń czarnej dziury i sądzi się, że jest ono bardzo gorące. Jego temperatura wzrasta w miarę zmniejszania się masy, co wynika z faktu, że zmniejszanie się czarnej dziury prowadzi do gwałtownego wzrostu pola grawitacyjnego. Największa grawitacja będzie więc panować w otoczeniu miniczamych dziur. Podjęto próby wykrycia tego promieniowania, które wyemitowane przez pierwotne miniczarne dziury powinno przenikać cały wszechświat, lecz jak dotychczas nie znaleziono jego żadnych śladów. Uwzględnienie faktu, że rozkład materii może wynikać z jakiej ś falowej funkcji prawdopodobieństwa, nie pomaga w rozwiązaniu paradoksu znikania materii w centrum czarnej dziury. Co gorsza, prowadzi do powstania nowego paradoksu. ogólna teoria względności Einsteina przyjmuje bowiem teraz postać Krzywizna geometrii = Energia nieoznaczonego rozkładu materii Po prawej stronie mamy nieoznaczoną wielkość, która może przyjmować wyznaczone jakimś prawdopodobieństwem wartości zmieniające się w funkcji nieoznaczoności rozkładu materii. Po lewej stronie mamy ustaloną wielkość geometryczną. Pierwotną wersje teorii Einsteina można postrzegać jako przyrównanie marmuru (odpowiadającego sztywnej strukturze geometrii) do drewna (kojarzonego z dowolnym, być może sękatym, rozkładem materii), podczas gdy nowa wyżej przedstawiona wersja odpowiada przyrównaniu marmuru do piany na powierzchni morza. Piana rozpływa się wszędzie, raz ukazując się tu, innym razem gdzie indziej. W takim razie, w jaki sposób marmur miałby przyjmować taką zmienną postać? (Pozostałoby jedynie przyjąć, że marmur staje się podobny do piany, a grawitacja jest określona prawdopodobieństwem, co dopiero pozwoliłoby przyrównać podobną do marmuru krzywiznę grawitacji z podobną do drewna energią materii). Nowa wersja modelu Einsteina wyglądałaby wtedy następująco: Krzywizna nieoznaczonej geometrii = Energia nieoznaczonej materii Obydwie strony równania mają tę samą kwantowo-mechaniczną postać. Teraz, po modyfikacji wersji Einsteina z 1916 roku, model jest gotowy do procedury weryfikacyjnej. Aby przeprowadzić weryfikację jakiegoś modelu naukowego, należy sformułować pewne przypuszczenia wynikające z przyjętego modelu i sprawdzić ich zgodność z faktami doświadczalnymi. W przypadku grawitacji mógłby to być, na przykład, ruch planet wokół Słońca czy rozpraszanie grawitacyjne dwóch cząstek elementarnych, takich jak neutrony, na sobie nawzajem. Próby tego rodzaju podejmowano już na przełomie lat dwudziestych i trzydziestych i odkryto, że nie można otrzymać żadnych sensownych wyników. Wszelkie liczbowe przewidywania przyjmowały wartości nieskończone. Działo się tak również w przypadkach dotyczących samej tylko materii. Przypadek nie-grawitacyjny doprowadzano do wartości skończonych, poprzez eliminację wartości nieskończonych, na drodze zmiany masy czy ładunku oddziałujących ze sobą cząstek. Tak zwana renormalizacja doprowadziła do doskonałej zgodności z doświadczeniem. W przypadku procesów promieniotwórczych było koniecznością wykorzystanie zasady niezależnych pomiarów (o której była mowa w rozdziale 5.). Utorowało to drogę do unifikacji elektromagnetyzmu i promieniotwórczości, co opisano krótko w tymże rozdziale. Analogicznego podejścia próbuje się teraz w odniesieniu do sił nuklearnych i w ten sposób rodzi się chromodynamika, która jest obecnie intensywnie testowana. Procedury normalizacyjne, powstałe w latach pięćdziesiątych i sześćdziesiątych, doprowadziły do sukcesów osiągniętych na polu fizyki wysokich energii. Można teraz wyobrazić nawet równania teorii renormalizowane w taki sposób, że już nie napotyka się żadnych kłopotliwych nieskończoności. Te procedury, tak skuteczne w fizyce cząstek, okazują się całkowicie nieprzydatne wypadkach nieoznaczonej (probabilistycznej, czyli inaczej kwantowej) grawitacji. Nie może być ona poddana podobnym procedurom normalizacyjnym. Próbując bowiem przewidywać wyniki eksperymentów tworzymy nieskończoną liczbę różnego rodzaju wartości nieskończonych, a rozporządzały jedynie skończoną liczbą mas i ładunków cząstek. Pomimo to wydaje się, nie ma żadnego innego sensownego sposobu, aby uporać się z tymi próbkami, jak tylko na drodze grawitacji kwantowej. Jaką więc drogą postępować dalej? Pewnym wyjściem jest schowanie jak struś głowy w piasek i czekanie, aż problem zniknie. Niektórzy naukowcy tak właśnie postępują. Bardziej konstruktywnym podejściem jest stanowisko, że obecne metody wyliczania przewidywanych wyników doświadczeń są jeszcze zbyt niedoskonałe i że irytujące nieskończoności znikną po zastosowaniu silniejszych (jeszcze nie odkrytych) technik Ponieważ jednak nikt jak dotąd nie wie, jak one miałyby wyglądać, trakt ten wiedzie donikąd. Trzecią drogą mogłyby się stać próby znalezienia sposobu obłaskawienia nieskończoności występujących w teoriach fizyki cząstek, a następnie doprowadzenie ich do postaci użytecznej w teoriach obejmujących grawitację. Jest to droga, która w końcu doprowadziła do afinicznej teorii grawitacji kwantowej, wykorzystującej pojęcie tak zwanych superstrun. Obejmują one własność zwaną supersymetrią. Weźmy teraz głęboki oddech i przejdźmy do następnego paragrafu. Wszystko super Polowanka pozbawione nieskończoności teorie, opisujące oddziaływanie cząstek, rozpoczęło się we wczesnych latach osiemdziesiątych po wprowadzeniu pięknej symetrii do zbioru wszystkich cząstek występujących w przyrodzie. Manifestują one swe istnienie na dwa sposoby: jako materia właściwa (protony, neutrony, elektrony itp.) oraz jako promieniowanie (fotony, mezony W i Z, gluony). Supersymetrią transformuje te dwie klasy, z jednej w drugą: Właściwa materia <—> Promieniowanie Symetria taka jest zaiste bardzo rozległa i uważa się ją za największą, jaka może zaistnieć w fizyce cząstek; żadna inna forma symetrii nie pozwala na zestawienie cząstek materii (w układy ósemek) oddzielnie od cząstek promieniowania lub na włączenie supersymetrii w celu zamknięcia luki powstałej na styku materii z promieniowaniem. Dowolna teoria fizyki cząstek będzie miała supersymetrię wtedy, gdy umożliwi przewidywanie tych samych faktów, niezależnie od konkretnego wyboru cząstek czy promieniowania, ponieważ mogą być one sprzęgnięte ze sobą supersymetrią. Kombinacje takie (typu ósemek i dziesiątek) będą miały skończone rozmiary (a tak zwane supermultiplety zostaną dokładnie sklasyfikowane). Wkrótce uświadomiono sobie, że chociaż istniejące teorie, obejmujące wyłącznie materię, operują jedynie wielkościami skończonymi, to żadna z nich nie wydaje się opisywać przyrody zgodnie z rzeczywistością. Aby stworzyć teorię grawitacji, która miałaby być supersymetryczna, należałoby znaleźć superpartnerów samej grawitacji. Dokonano tego poprzez rozszerzenie geometrii do supergeometrii. Jednakże powstała w wyniku tego teoria supergrawitacji, mimo znacznej redukcji niewygodnych wartości nieskończonych, miała nadal nieskończoną liczbę takich, które nie poddają się procedurom normalizacyjnym. Jedną z nich Stephen Hawking okrzyknął kilka lat temu jako JTP. W tym momencie wątek opowiadania plącze się tak, jak plącze się liczba wymiarów wszechświata. Problemem, który przyciągał uwagę we wczesnych latach dwudziestych, był sposób, w jaki można by zunifikować grawitację i inne siły przyrody bez uciekania się do konieczności uwzględnienia całej probabilistyki i mechaniki kwantowej. Jeżeli przyjmiemy, że grawitacja jest krzywizną geometrii w czterowymiarowej czasoprzestrzeni, to w jakich wymiarach należy wyrazić krzywizny innych sił? Okazało się, że zakrzywienie w dodatkowym pojedynczym wymiarze przestrzennym jest odpowiednikiem oddziaływań elektromagnetycznych. Zdajemy sobie sprawę, że przy zwykle spotykanych energiach nie żyjemy w czterech wymiarach przestrzeni i jednym czasu, lecz nie mamy żadnej pewności, czy ten dodatkowy istniejący poza naszymi zwykłymi trzema wymiar przestrzenny nie mógłby się nam wyraźnie odsłonić wtedy, gdybyśmy rozporządzali wystarczającymi energiami. W bardzo wczesnych fazach Wielkiego Wybuchu ten czwarty wymiar przestrzeni (odpowiedzialny za oddziaływanie elektromagnetyczne, traktowane jako jego zakrzywienie) może być równie istotny jak inne. Przy energiach spotykanych we współczesnym wszechświecie mógłby on, na przykład, być zapętlony w obszarze bardzo małego okręgu i dałby się dopiero zaobserwować w chwili Wielkiego Zgniotu (jeżeli taki nastąpi). Obecnie jedyną pozostałością po tym piątym ekstrawymiarze miałyby być same oddziaływania elektromagnetyczne. Takie podejście do unifikacji przez dodanie zapętlony, wyższych wymiarów prowadzi również do supersymetrii i przez pewien czas nawet jedenastowymiarowa wersja teorii supergrawitacji zyskała na popularności (stwarzając przestrzeń o najwyższej możliwej liczbie wymiarów). Lecz po zbudowaniu wersji kwantowej nie udało się na jej podstawie wysnuć żadnych sensownych przewidywań. We wczesnych latach osiemdziesiątych wydawało się już, że dalszy postęp na tej drodze został zatrzymany. Wtedy zamiast rozważać cząstki punktowe poczęto analizować struny i pętle poruszające się w czasoprzestrzeni. Teoria strun istnieje już od lat sześćdziesiątych, lecz dotychczas nie doprowadziła do żadnych postępów. Obecnie odkryto, w jaki sposób włączyć supersymetrię wokół każdej pętli, i tak narodziły się superstruny. Okazało się ponadto, że można było wyeliminować wszystkie nieskończoności otrzymując ścisłe rozwiązanie, które mogło istnieć jedynie w jedenastu wymiarach (wersja niesuper wymagała aż 26 wymiarów!) Dlatego miałoby istnieć dodatkowe sześć wymiarów krzywizny powodującej powstawanie innych sił natury. Te cząstki miałyby powstawać w wyniku drgań struny na podobieństwo tonów, powstałych po uderzeniu w bęben. Można wykazać, że grawitacja i elektromagnetyzm są sprzężone z drganiami o najmniejszej częstotliwości. Odkrycie to wzbudziło początkowo niezwykłe zainteresowanie, które później jednak nieco opadło z uwagi na dwie jego szczególne cechy. Po pierwsze, okazało się, że na podstawie tej teorii bardzo trudno przewidzieć jakieś fakty doświadczalne, które umożliwiłyby włączenie w sposób prawidłowy innych sił przyrody. Problem ten nastręcza nawet więcej trudności, niż to ma miejsce w przypadku sił jądrowych, które same jak dotąd opierają się wszelkim próbom rozwiązania. Po drugie, nie istnieje dotychczas żadne eleganckie sformułowanie hipotetycznych (obecnie jest ich wiele) teorii superstrun, które pasowałoby do pięknego geometrycznego podejścia Einsteina. Naturalnymi ramami takiej teorii byłaby geometria pętli umieszczonych w superprzestrzeni, lecz jak dotąd nie udało się takiej geometrii zbudować. Należałoby znaleźć bardzo wyrafinowane podejście (zwane kryterium stożka świetlnego), które umożliwiłoby weryfikację przewidywań pod kątem ich fizycznego sensu (musiałyby; mieć wartości skończone), a jest to możliwe jedynie w przypadku szczególnej dziesięciowymiarowej struny, zwanej heterotyczną (będącą kombinacją dwóch rodzajów strun). Inne wersje superstrun są nadal analizowane i bez wątpienia znajdzie się wiele bardzo trudnych problemów matematycznych, które będą musiały czekać nadal na rozwiązanie. Trudności te spowodowały, że odwrócono się od samych strun, by przyjrzeć się innym związanym z nimi problemom. Moim zdaniem, przynajmniej jedna superstruna wydaje się dawać sensowne z punktu widzenia fizyki rezultaty, lecz trzeba jeszcze znacznego nakładu pracy, by wykazać, że ta lub inna zbliżona teoria superstrun pasuje do faktów spotykanych w przyrodzie. Staje się oczywiste, co wynika choćby z istnienia tej jednej sensownej kwantowej teorii grawitacji, już pomijając dziesięć wymiarów, że jedynym sposobem uzyskania probabilistycznej grawitacji jest wykorzystanie pętli przestrzennych występujących, według wszelkiego prawdopodobieństwa, w wyższych wymiarach. Argumenty, oparte na zastosowaniu standardowych metod kwantyzacji bezpośrednio do pierwotnej teorii Einsteina, nie są wiarygodne dla sensownego zrozumienia wszechświata. W szczególności drgania poprzeczne superstruny, których najmniejsze mają częstotliwości odpowiadające kwarkom itp., co opisano w poprzednim rozdziale, staną się bardziej istotne w wyższych energiach w otoczeniu punktu początkowego Wielkiego Wybuchu lub wtedy, gdy materia zacznie znikać we wnętrzu czarnej dziury. Chociaż nadal nie posiadamy rozwiązania powyższego paradoksu, polegającego na pojawianiu się czy znikaniu materii ex lub in nihilo, to jednak oczekujemy, że konstrukcja superstrun umożliwi wyjaśnienie, czy probabilistyczna grawitacja zezwala na rozwiązanie tego paradoksu. Gdzie jest więc w końcu ta JTP, tak radośnie zwiastowana przez naukowych optymistów? Najpierw była jedenastowymiarowa supergrawitacja. Gdy okazało się, że nie potrafi ona dostarczyć sensownych odpowiedzi, to jako najbardziej prawdopodobny kandydat pojawiła się heterotyczna superstruna. Utrzymywano z całkowitym przekonaniem, że właśnie ta superstruna jest JTP. Moim zdaniem, upłynie jeszcze wiele dziesięcioleci, zanim przekonamy się, czy superstruny mogą objąć choćby znane już oddziaływania występujące w przyrodzie, dostarczając przynajmniej wyjaśnienia osobliwości kosmologicznych. Te ostatnie problemy będziemy rozważać w następnym rozdziale. 7. Początek wszechświata Gorący Wielki Wybuch Przez całe tysiąclecia usiany gwiazdami firmament był tematem zarówno poetyckich opisów, jak i filozoficznych dysput. Dopiero niedawno dokonano naukowej analizy natury tego migocącego zbioru. Coraz .większe i coraz lepsze teleskopy pozwoliły na poznanie budowy Drogi Mlecznej, a również jej miejsca pośród niezliczonych podobnych galaktyk spiralnych czy eliptycznych oraz umożliwiły weryfikację coraz bardziej zaawansowanych teorii naukowych wyjaśniających strukturę wszechświata. W ostatnim dziesięcioleciu jesteśmy nawet świadkami wzajemnego przenikania się wiedzy z obszarów kosmosu i świata atomu. Fizycy cząstek elementarnych zwrócili uwagę na istotne znaczenie pewnych aspektów natury wszechświata, co stało się nowym bodźcem do coraz intensywniejszych wysiłków w próbach unifikacji wszystkich sił przyrody. Nowoczesna kosmologia opiera się, tak jak cała nauka, przede wszystkim na obserwacji. Badania Układu Słonecznego i Drogi Mlecznej zainicjował w 1609 roku Galileusz. Jego odkrycie czterech satelitów Jowisza zmniejszyło prawdopodobieństwo tego, że Ziemia stanowi centrum wszechświata, oraz potwierdziło pośrednio ideę Kopernika głoszącą, że Ziemia obiega Słońce (za rozpowszechnianie tej herezji Giordano Bruno został przez Kościół katolicki żywcem spalony na stosie). Istnienie innych wszechświatów (które teraz są dla nas po prostu innymi galaktykami) poza Drogą Mleczną było rzeczą wątpliwą aż do chwili, kiedy zbudowano wielkie teleskopy, za pomocą których było można zobaczyć piękną wewnętrzną strukturę podobnych do obłoków obiektów i mgławic, wykrytych w drugiej połowie osiemnastego wieku. Dopiero na początku naszego stulecia zniknęły wątpliwości odnośnie do odległości tych mgławic od Układu Słonecznego. Zagadnienie to rozstrzygnął ostatecznie amerykański astronom Edwin Hubble, o czym mówiliśmy krótko w rozdziale l. W niektórych pobliskich galaktykach można dostrzec gwiazdy zmienne (których jasność zmienia się cyklicznie). Znając ich pozorną jasność, tę z jąkamy je postrzegamy, możemy wyliczyć, jak daleko się one od nas znajdują. W ten właśnie sposób Hubble przekonywająco wykazał, że na przykład prozaicznie nazwane galaktyki M31, M33 czy NGC 6822 są osobnymi wyspami na oceanie wszechświata, leżącymi daleko poza krańcami naszej galaktyki. Hubble kontynuował badania obejmując nimi inne galaktyki, przy czym usiłował jednocześnie wyznaczyć prędkości, z jakimi poruszają się w stosunku do naszej. W tym celu wykorzystał efekt Dopplera powodujący, że widmo światła emitowanego przez galaktyki oddalające się od nas jest przesunięte ku podczerwieni, a widmo galaktyk zbliżających się jest przesunięte ku barwie niebieskiej (z takim samym zjawiskiem spotykamy się, gdy mija nas samochód lub pociąg z włączoną syreną czy innym sygnałem dźwiękowym). Hubble odkrył, że wszystkie galaktyki oddalają się ód nas; czyli wszechświat rozszerza się. Wszystkie późniejsze obserwacje, których dokonano dotychczas mnóstwo, potwierdziły wynikający z tego zasadniczy wniosek, że wszechświat najprawdopodobniej ulega ekspansji, poczynając od jakiegoś początkowego gęstego okruchu sprzed około piętnastu miliardów lat. Był to tak zwany Wielki Wybuch (chociaż nie mógł być słyszalny, bo nic nie było na zewnątrz). Galaktyki najbardziej oddalone uciekają od nas z prędkościami zbliżonymi do prędkości światła; a kiedy osiągną tę graniczną prędkość, nie będą już dla nas widoczne i przekroczą coś, co zostało trafnie nazwane horyzontem zdarzeń. Jeżeli ekspansja wszechświata, odkryta przez Hubble'a, ma trwać w nieskończoność, to wszystkie gromady galaktyk, z wyjątkiem naszej lokalnej, osiągną w końcu prędkości tak wielkie, że staną się dla nas niedostrzegalne. Z drugiej strony, po bardziej wnikliwych obserwacjach może okazać się, że gwałtowna ucieczka odległych galaktyk ulega spowolnieniu, co mogłoby oznaczać, iż sytuacja może w końcu odwrócić się i zapoczątkować proces kurczenia się wszechświata doprowadzając do Wielkiego Zgniotu, w którym wszystkie galaktyki będą spadać na siebie. Ostateczny los wszechświata zależy więc od dalszego przebiegu zdarzeń. Jeżeli wszechświat będzie nadal rozszerzał się bez końca, to przyszłe podróże kosmiczne ograniczą się do niewielu miejsc, ponieważ w obrębie naszego horyzontu zdarzeń będzie coraz mniej galaktyk, nigdy bowiem nie wydostaniemy się poza te granice. Z drugiej strony, natura Wielkiego Zgniotu stawia problemy o takiej samej skali trudności jak te, z którymi zetknęliśmy się rozpatrując ekspandujący wszechświat czy znikanie materii w centrum czarnej dziury: w jaki sposób można je rozwiązać bez burzenia podstawowych praw fizyki, którym ufamy, oraz w jaki sposób naukowcy musieliby zmodyfikować te prawa, aby otrzymać sensowne rezultaty? Wszystko wskazuje na to, ze ostateczny los wszechświata należy do takiego samego zestawu problemów, jaki mieliśmy; początkiem wszechświata i z centrami czarnych dziur. Teoria Wielkie Wybuchu zakłada, że nagle z niczego, w jakimś momencie w przeszłości, powstał wszechświat. Następnie zaczął rozszerzać się w sposób, który już może być przedmiotem szczegółowych badań. Lecz przed tą początkową chanie było wszechświata ani czasu! Jednym ze sposobów uniknięcia problem stwarzanych przez teorię Wielkiego Wybuchu jest przyjęcie założenia, że nic takiego nie wydarzyło się. Takie podejście zaprezentowali we wczesnych latach pięćdziesiątych astronomowie teoretycy zgrupowani wokół uniwersytetu w Cambridge. Stworzyli oni teorię ciągłej kreacji, według której malin miałaby powstawać nieustannie, wypełniając tym samym lukę powstali wyniku ekspansji. Wszechświat mógłby dlatego istnieć przez całą wieczność (co usprawiedliwiałoby wtedy nazwę przyjętą dla teorii: teoria stanu stałego) i gładko pozbyto by się problemu cudownej kreacji wszechświata. Jednakże odkrycie w latach sześćdziesiątych nowego zjawiska mikrofalowego promieniowania tła wskazywało, że wszechświat w chwili powstawania był bardzo gorący. Samo zaś reliktowe promieniowanie powinno mieć temperaturę wynikającą z aktualnego stadium schłodzenia Wszechświata. W połowie lat sześćdziesiątych w Bell Laboratories (Stany Zjednoczone) poniżono tę temperaturę i okazało się, że wynosi ona około trzech stopni powyżej zera absolutnego, co całkowicie zgadza się z przewidywaniami wynikającymi z teorii Wielkiego Wybuchu. Oprócz odkrycia mikrofalowego promieniowania tła (promieniowania reliktowego), teoria Wielkiego Wybuchu zyskała silne argumenty w postaci wzajemnej proporcji pierwiastków występujących we wszechświecie - wodoru, helu i litu obserwowanych we wszystkich galaktykach (pomiar opiera się na rozkładzie charakterystycznych linii w widmach promieniowania, które one emitują). Takie formy materii mogły powstać podczas reakcji jądrowych zachodzących w bardzo wczesnych, gorących stadiach rozszerzającego się wszechświata. Po raz pierwszy szczegółowe obliczenia przeprowadzono w latach sześćdziesiątych. Te i późniejsze, jeszcze bardziej dokładne, wykazały wspaniałą zgodność z obserwowanymi ilościami tych pierwiastków (na przykład, jest cztery razy mniej helu niż wodoru). Wszystkie te wyniki obserwacji zebrano w ramach tak zwanego standartowego modelu wszechświata. W ten sposób do jednorodnego (izotropowego) rozkładu materii (zarówno tej, którą bezpośrednio obserwujemy, jak i promieniowania) dołącza się jednorodny rozkład galaktyk. Istnieją co prawda lokalne zgęszczenia materii i obszaru pustki, lecz nie da się wyróżnić jakiegoś szczególnego miejsca, o którym można by powiedzieć, że tu właśnie jest środek, tu jest punkt, w którym powstał wszechświat. Model standardowy wykorzystuje teorię grawitacji, szczególną teorię względności, w takiej formie, jaką w 1915 roku nadał jej Einstein, i którą omawialiśmy w poprzednim rozdziale. Materię uważa się jakby za równomiernie rozmieszczony pył. Gdy przyjmie się założenia o homogeniczności i izotropowości materii, to równania teorii można wyrazić w stosunkowo prostej postaci. Zawierają w sobie pewien wszechogarniający czynnik skalujący, z którego wynika średnia odległość pomiędzy cząstkami tego pyłu. Czynnik ten determinuje również rozmiary wszechświata: jego podwojenie prowadzi do ich dwukrotnego zwiększenia się. Jego wartość w chwili Wielkiego Wybuchu wynosiła zero, co wynika z tego, że wszechświat nie miał wtedy żadnych rozmiarów, i zwiększa się zależnie od tego, czy wszechświat jest skończony (jak na przykład powierzchnia kuli ograniczona wyraźnie wyznaczonym obszarem) czy też nie (na podobieństwo rozciągającej się bez końca płaszczyzny). Czynnik skalujący pozwala również wyliczyć, jak schładza się wszechświat w miarę swojej ekspansji. Powstały w wyniku tego scenariusz można poddać analizie teoretycznej, sięgającej wstecz do chwili niewyobrażalnie bliskiej Wielkiemu Wybuchowi, na przykład do momentu jednej miliardowo miliardowo miliardowo miliardowej sekundy po Wielkim Wybuchu. Można tego dokonać na podstawie opisu materii zawartego w różnych wersjach fizyki cząstek, przedstawionych w rozdziale 5. Jedną z takich wersji jest standardowy model oddziaływań elektrosłabych i chromodynamicznych. Zgodnie z nim, materia miałaby się składać z trzech rodzin cząstek, opisanych w rozdziale 5. Teoretyczne rozważania prowadzą do wniosku, że w tym najgorętszym, wczesnym stadium Wielkiego Wybuchu oddziaływania były bardziej zunifikowane i symetryczne niż później, po częściowym ochłodzeniu. Wtedy, po jednej dziesięciomiliardowej sekundy, przestanie istnieć unifikacja elektrosłaba, a oddziaływania elekromagnetyczne i związane z promieniotwórczością będą postrzegane jako oddzielne siły. Temperatura spadnie wtedy do około tryliarda (miliona miliardów) stopni Celsjusza. Po upływie około jednej milionowej sekundy kwarki skondensują się w protony i neutrony; obecnie tu na Ziemi czynimy próby zaobserwowania tych kwarków w doświadczeniach, podczas których w wyniku oddziaływania intensywnego, wysokoenergetycznego strumienia ciężkich jąder skupianych na specjalnych tarczach uzyskuje się bardzo gorącą materię. Odkrycie kwarków uzasadni oczekiwania naukowców, że im wszechświat był gorętszy, tym bardziej symetryczne i zunifikowane były siły nim rządzące. Po jednej setnej sekundy od początku wszechświata, takie cząstki jak proton połączą się ze swoimi partnerami, tak zwanymi anty cząstkami (które mają przeciwny ładunek elektryczny i inne cechy, lecz identyczną masę). Po upływie trzech czy czterech minut (w temperaturze miliardów stopni), w wyniku syntezy jądrowej, powstaną różne izotopy helu, o czyn mówiliśmy wcześniej. Ponadto, by zachować obserwowane obecnie proporcje, teoria w tym scenariuszu dopuszcza powstawanie jedynie trzech rodzin cząstek. Po upływie kilku milionów lat, w temperaturze około trzech tysięcy stopni Celsjusza, powstaną w końcu atomy, co będzie możliwe dopiero wtedy, gdy elektrony oziębią się na tyle, by mogły przebywać w pobliżu przyciągających je jąder. Wszechświat stanie się odtąd przezroczysty dla światła; zanim to nastąpiło, wolne elektrony rozpraszały światło, co powodowało, że wszechświat był nieprzezroczysty. Wtedy również oddzieliło się od materii mikrofalowe promieniowanie tła, które w końcu oziębiło się do temperatury 2,7 stopnia obserwowanej dzisiaj. Ostatecznie, po upływie około miliarda lat, zaczęły formować się galaktyki. Standardowy model Wielkiego Wybuchu sprawdził się na tyle, że obecnie uważamy go za wydarzenie, które rzeczywiście kiedyś miało miejsce. Wyjaśnia on szeroki wachlarz zjawisk i zdarzeń, które miały miejsce w ogromnym przedziale czasu (od setnych części sekundy aż do piętnastu miliardów lat). Model ten zazębia się bez zgrzytów z ostatnimi osiągnięciami fizyki cząstek, a w szczególności jest zgodny z przekonaniem fizyków, że istnieją tylko trzy rodziny prawdziwie elementarnych cząstek. Czegóż można Więcej wymagać? Inflacja W poprzedniej części doszliśmy do wniosku, że kosmologia Wielkie-4;V T go Wybuchu jest dobrze osadzona w realiach. Wydawać by się mogło, że nie ma dla niej alternatywy. Pozostają jednakże pewne problemy, które powinny doczekać się rozwiązania. Najważniejszym z nich jest struktura wszechświata. Rozważając rozkład galaktyk napotykamy różne elementy tej struktury: gromady, supergromady, pustki, ściany, jak również cechy o mniejszej skali, takie jak: dokładna budowa samych galaktyk, gwiazd i planet. Na tym polu zdarzają się gorące spory sięgające kwestii, w jaki sposób takie struktury w ogóle powstały. Nie dotyczą one samych ram kosmologii gorącego Wielkiego Wybuchu, lecz konkretnego rozwiązania problemów związanych z budową wszechświata. Ponieważ ma to związek z ostatecznym losem wszechświata - albo Wielki Zgniot, albo wieczna ekspansja - uważam, że jest istotne, aby spróbować udzielić odpowiedzi na te pytania, mimo że uzyskane odpowiedzi mogą być jeszcze bardzo nieprecyzyjne. Jest faktem, że standardowy model kosmologiczny nie zawiera ani śladu koncepcji, która wyjaśniałaby strukturę wszechświata. Jeżeli cofniemy się w czasie aż do tych wczesnych chwil, kiedy materia i promieniowanie wzajemnie na siebie nie wpływały, to samo promieniowanie mogło wtedy wydzielać się w różnych miejscach w przestrzeni, które w tym czasie znajdowały się poza obszarem wzajemnych oddziaływań. Niewątpliwie, bardzo trudno jest wyjaśnić, w jaki sposób którekolwiek dwa z takich miejsc, tak wyraźnie nie związanych ze sobą, mogły utrzymywać jednocześnie prawie dokładnie tę samą temperaturę, co doprowadziło do wszechobecnego promieniowania tła i do jednorodnego rozkładu materii. W poszukiwaniu rozwiązania tego i podobnych problemów wysunięto kilkadziesiąt lat temu koncepcję, że w tym bardzo wczesnym stadium wszechświat ekspandował bardzo gwałtownie z szybkością zależną wykładniczo od czasu. Taka ekspansja przypomina inflację, gdzie na przykład stuprocentowa jej wartość powoduje podwojenie cen każdego roku. Taka inflacyjna ekspansja łatwo rozwiązuje powyższe problemy, ponieważ zwiększa gwałtownie obszary oddziaływań w różnych częściach wszechświata o bardzo duży czynnik (uzależniony oczywiście od wielkości inflacji). Tak więc jakiś obszar, który w chwili początkowej był o wiele mniejszy od protonu, jest po ułamku sekundy wielkości grejpfruta, a następnie staje się całym naszym wszechświatem. Wyjaśnia to również, dlaczego wszechświat wydaje się płaski z prostymi równoległymi nigdy nie przecinającymi się, co miałoby wynikać z odpowiedniej ilości materii (tak zwanej gęstości krytycznej), która pozwala na balansowanie pomiędzy Wielkim Zgniotem a wykładniczą ekspansją. Scenariusz bez inflacji wydaje się raczej dość nieprawdopodobny, lecz daje się łatwo zrozumieć; przypomina pompowanie piłki plażowej do rozmiarów tysiąckrotnie większych, co powoduje, że jej powierzchnia wydaje się bardziej płaska. Należy zauważyć, że taki rodzaj ekspansji (tak jakby grawitacja powodowała silne odpychanie) ma swoje naturalne odbicie w jednej z akceptowanych obecnie teorii fizyki cząstek, w teorii oddziaływań elektrosłabych, opisanej w rozdziale 5. Według niej, tego rodzaju ekspansja powstaje na skutek efektu ubocznego, wywołanego specjalnym mechanizmem odpowiedzialnym za tworzenie się mas wszystkich cząstek. Wykorzystywana jest przy tym energia cząstki której obecnie usilnie poszukuje się w największych akceleratorach; jej okrycie stałoby się w kosmologii Wielkiego Wybuchu silnym argumentem na rzecz scenariusza inflacyjnego. Powróćmy teraz do problemu, który przedstawiłem na początku tej części: początkowej struktury wszechświata. Jak zauważyliśmy w rozdziale 5, rozkład energii na poziomie subatomowym będzie wykazywał ciągłe fluktuacje wynikające z efektów kwantowych, podobne do fal kołyszących się W górę i w dół na powierzchni jeziora. Piki (wartości szczytowe), wytworzone przez te fluktuacje, będą po inflacji na tyle duże, że staną się zalążkami gwiazd i galaktyk. Dalsze zgęszczanie się materii będzie naturalnie odbywać się pod wpływem przyciągania grawitacyjnego pomiędzy pierwotnymi skupiskami materii. Wszystko to wygląda bardzo zachęcająco, z wyjątkiem jednej zasadniczej kwestii. Model inflacyjny wymaga, aby wszechświat miał wystarczająco dużo materii, bo dopiero wtedy mógłby osiągnąć poziom krytyczny umożliwiający powstanie płaskiej przestrzeni. Niestety, w świetle widzialnym można dostrzec jedynie około jednego procentu wymaganej materii. Gdzie się podziała reszta? Badania ruchu gwiazd w galaktykach zdają się wskazywać, Że galaktyki te mogą zawierać dziesięć razy więcej materii niewidzialnej niż Widzialnej (być może w postaci czarnych karłów zmarłych gwiazd lub gwiazd neutronowych czy czarnych dziur). Podobne rezultaty otrzymuje się obserwując ruchy galaktyk względem ich partnerów w gromadach galaktyk. Pomimo to nadal brakuje 90 procent materii koniecznej do tego, aby potwierdzić prawidłowość modelu inflacyjnego. Jednakże omówione wyżej obliczenia, dotyczące syntezy helu i cięższych jąder podczas wczesnych faz Wielkiego Wybuchu, również nie byłyby prawidłowe, jeżeli okazałoby się, że ilość protonów i neutronów jest większa od tej, którą się obecnie obserwuje. Tak Więc, jeśli nawet w galaktykach, poza zwykłą ciemną materią, istniałaby jakaś dodatkowa, szczególna materia, to musiałaby występować w postaci, której 'obecnie kompletnie nie znamy. Musiałaby to być jakaś nowa postać materii tworzącej około 90 procent całkowitej masy wszechświata. Dopiero wtedy można by uważać, że inflacja doprowadziła do takich właściwości wszechświata, które aktualnie obserwujemy. Należy dodatkowo wymagać, aby ta materia bardzo słabo oddziaływała ze zwykłą materią, bo w przeciwnym razie we wczesnych fazach zakłóciłaby proces syntezy jąder. Naukowcy ukuli dla tej hipotetycznej nowej formy materii żartobliwy akronim WIMP, pod którym kryje się nazwa Weakly Interacting Massive Particles 1 (Słabo oddziałujące cząstki o wielkiej masie). Jak dotychczas nie udało się ich jeszcze zaobserwować. Można zaproponować dwie zasadniczo różniące się między sobą postacie tej niewidzialnej materii - gorącą albo zimną. Gorąca postać, która obejmowałaby szybko poruszające się cząstki identyfikowane z neutrinami, przysparza dwóch kłopotów. Po pierwsze, neutrina mają tak małą masę albo w ogóle są jej pozbawione, że z pewnością sumaryczna ich masa nie jest w stanie przełamać ekspansji wszechświata. Po drugie, symulacje komputerowe wykazują, że szybkie neutrina potrzebowałyby zbyt dużo czasu, by związać się wewnątrz galaktyk. Alternatywna teoria zimnej, ciemnej materii (obejmującej wolno poruszające się cząstki) spotyka się teraz z większym uznaniem^ chociaż również nastręcza wielu trudności. Podstawową jest ta, że nikt jak dotąd nie zaobserwował żadnej cząstki, która mogłaby mieć wymagane właściwości. Nie stanowi to jednak przeszkody nic do pokonania; w teoriach unifikacji spotykamy różne hipotetyczne cząstki, które mają właściwości ściśle odpowiadające założeniom (na przykład superpartnerzy fotonów czy supercząstki teorii wielkiej unifikacji). Poszukiwania tego rodzaju cząstek tutaj na Ziemi oraz twórcze podniecenie towarzyszące tym poszukiwaniom wskazuje na wielce interesujący postęp, jaki się dokonał w nauce, która coraz bardziej wiąże ze sobą obszary bardzo małe (cząstki) z bardzo wielkimi (astronomia). Tego właśnie należy oczekiwać, gdy przechodzi się do analizy wczesnych faz wszechświata, bowiem odległości, z jakimi mamy wtedy do czynienia, zmniejszają się do rozmiarów będących domeną fizyki cząstek. Drugą trudnością było żądanie wynikające z koncepcji niewidzialnej materii skojarzonej z inflacją, aby promieniowanie reliktowe tła zawierało w sobie niewielkie, ale dające się wykryć fluktuacje. Właśnie niedawno, w ramach programu satelitarnego Cosmic Background Explorer, odkryto promieniowanie dokładnie odpowiadające przewidywaniom. Odkrycie to stało się ważnym eksperymentalnym świadectwem wspierającym tę teorię. Uważa się, że takie efekty mogły być spowodowane fluktuacjami kwantowymi, mającymi miejsce tuż po Wielkim Wybuchu, które wytworzyły zaburzenia w promieniowaniu tła, rozciągające się obecnie na obszary milionów lat świetlnych. Trzecia (i chyba najpoważniejsza) trudność dotyczy struktury obiektów o pośredniej wielkości, odpowiadających gromadom galaktyk i wiąże się z obecnością pustek oraz ścian (czy płaszczyzn), które spotykamy analizując rozkład galaktyk. Problem ten wynurzył się w całej pełni po otrzymaniu w 1991 roku wyników z satelity 1RAS (Infrared Astronomical Satelitte, satelita do badań astronomicznych w podczerwieni), który odkrył zgrupowania galaktyk na skalę tak olbrzymią, że nie daje się ona wytłumaczyć za pomocą zwykłego modelu obejmującego zimną, niewidzialną materię. Naukowcy utrzymują jednak, że pewne modyfikacje wprowadzone do tej teorii pozwolą wytłumaczyć obserwowane fakty. Mamy jeszcze przed sobą wiele nie rozwiązanych zagadek dotyczących kosmologii. Zajmiemy się nimi teraz. Na samym początku W poprzednich dwóch częściach opisałem powolny, lecz stały rozwój teorii kosmologicznej mającej zastosowanie nawet do tak odległych czasów jak początek gorącego Wielkiego Wybuchu. Teraz są wymagane coraz bardziej skomplikowane obserwacje nieba, przy wykorzystaniu zarówno satelitów, jak i większych teleskopów, oraz coraz większe akceleratory do coraz wnikliwszej obserwacji materii, tutaj na Ziemi. Pozwoli to na rozstrzygnięcie, która z różnych (czasem nawzajem sprzecznych) teorii jest najwłaściwsza. Należy się spodziewać, że taki postęp będzie trwał w nieskończoność, chyba że środowiskom naukowym nie uda się już wycyganić więcej funduszy na budowę nowej generacji przyrządów badawczych. Jak by na to nie patrzeć, wszystkie badane obecnie modele mają tę samą zasadniczą postać. Wszystkie pozwalają snuć przypuszczenia, jak będzie wyglądał wszechświat w następnym stadium swojej ewolucji, pod warunkiem, że jest dokładce znany jego stan w chwili bezpośrednio poprzedzającej. Jeżeli natomiast cofamy się coraz dalej, to okazuje się, że jesteśmy w stanie wyobrazić sobie (warunki początkowe wszechświata w momencie, gdy on powstawał. Nigdy się będziemy potrafili zweryfikować wiedzy o tych warunkach żadną inną metodą jak tylko poprzez trafne przewidywanie dających się zaobserwować szczegółów dalszej ewolucji wszechświata, Obraz nagle powstającego wszechświata w już uprzednio istniejącej czasoprzestrzeni nie zdał zupełnie egzaminu. Nie ma bowiem żadnego sposobu, by na podstawie jakiejkolwiek teorii było można wyselekcjonować jakąś konkretną chwilę, w której wszechświat miałby powstać. Nie można również wyróżnić żadnego konkretnego miejsca, gdzie miałby miejsce akt kreacji. Można jedynie określić pewne prawdopodobieństwo kreacji w danym czasie w jakimś obszarze. Lecz z tego wypływa możliwość wielokrotnych kreacji, które prowadziłyby do kolizji wszechświatów. Nie zaobserwowano niczego w tym rodzaju; musimy więc odrzucić model ustalonej czasoprzestrzeni. Można by co prawda próbować rozdymać czasoprzestrzeń w taki sposób, aby oddzielne wszechświaty nigdy ze sobą nie weszły w kolizję, lecz takie podejście ad hoc wydaje się niezbyt uzasadnione, a poza tym nie ma żadnych danych obserwacyjnych, które mogłoby je usprawiedliwiać. Czas i przestrzeń muszą być elementami kreowanymi w tym samym momencie co materia i nie mogą być przyjęte ab initio. W każdym razie, ramy ogólnej teorii względności wyznaczają warunek, że materia oraz czasoprzestrzeń są wzajemnie nierozerwalnie sprzęgnięte i nie chcielibyśmy doprowadzić do rozerwania tych więzów przynajmniej na tym poziomie wiedzy. Stajemy zatem przed decyzją, w jaki sposób dokonać wyboru warunków początkowych w chwili powstawania wszechświata odnośnie do pola grawitacyjnego i rozkładu materii, aby wynikająca z nich ewolucja doprowadziła do powstania takiej mnogości obserwowanych planet, gwiazd oraz galaktyk i ich gromad. Wielu naukowców podejmowało próby ustalenia takich właściwych warunków, lecz obecnie zdajemy sobie sprawę, że jest to niemożliwe. Jednym z oczywistych powodów jest to, że natężenie pola grawitacyjnego musiało na początku mieć wartość nieskończenie dużą; wynika to z samej natury Wielkiego Wybuchu, który rozpoczął się wszechświatem nie mającym w ogóle żadnych rozmiarów. Należałoby szczegółowo opisać, jak pole grawitacyjne mogłoby wzrastać coraz bardziej w miarę przesuwania się wstecz, aż do zera, wskazówek zegara. Jest to bardzo trudny problem z dziedziny analizy numerycznej. Drugim źródłem trudności jest oczywisty problem, polegający na próbie wyprowadzenia niezwykłej złożoności ewoluującego wszechświata poprzez ekstrapolację funkcji wyznaczonej warunkami początkowymi, odnoszącymi się do najwcześniejszego stadium. Wydaje się, że tego również nie uda się osiągnąć. Trzecim, mającym podstawowe znaczenie powodem jest to, że w każdym przypadku proste, klasyczne podejście do kosmologii zawodzi, jak się wydaje, w bardzo wysokich temperaturach, a szczególnie w tych, z jakimi mamy do czynienia we wczesnych stadiach gorącego Wielkiego Wybuchu. Dzieje się tak dlatego, ponieważ w takich warunkach do decydującego głosu dochodzą efekty kwantowe. Polegamy wtedy na obliczeniach opartych na mechanice kwantowej wszędzie tam, gdzie zachodzi synteza jądrowa, a więc również w dość wczesnym stadium ewolucji wszechświata, lecz przecież samo pole grawitacyjne nie zostało jeszcze skwantowane. Wydaje się jednak, że w najbliższym czasie kwantowa natura pola grawitacyjnego stanie się oczywista, bowiem samo pole grawitacyjne stanie się równie ważne jak inne siły, których kwantowa natura jest, jak to wynika z obserwacji, nie do podważenia. W tej sytuacji można się spodziewać całego zbioru możliwych pól grawitacyjnych i innych, z których każde będzie opisywane funkcją uzależnioną od prawdopodobieństwa. W ten sposób warunki początkowe ustala się teraz w zależności od kryteriów doboru konkretnej wartości początkowego pola grawitacyjnego, zamiast od metody wyboru prawdopodobieństwa selekcji spośród wszystkich możliwych początkowych pól grawitacyjnych. Nie wydaje się, aby to wszystko doprowadziło do jakiegoś postępu. Ponieważ takie podejście jest bardziej złożone, to istnieje większa szansa, by można było wyjaśnić złożoną naturę obserwowanego wszechświata. Tym sposobem sytuacja może zmienić się na korzyść. Kwantowa kreacja wszechświata Omawiane tutaj zasadnicze problemy wymagają specjalnego podejścia. Wyznaczenie prawdopodobieństwa dla każdego możliwego położenia elektronu odpowiada określeniu jego tak zwanej funkcji falowej. Możemy ją porównać do krajobrazu obejmującego wszystkie wartości pozycji elektronu. Można w nim dostrzec góry i doliny, których wysokość czy głębokość wyznacza prawdopodobieństwo znalezienia elektronu w jakimś konkretnym miejscu. Tak więc, bardzo wysoki szczyt wskazuje na bardzo wysoką szansę, że właśnie tam znajduje się elektron. Podobnie możemy wprowadzić funkcję falową, która nie będzie uzależniona od położenia elektronu, a od początkowego kształtu (geometrii) wszechświata. Wyznaczy ona prawdopodobieństwo tego, że wszechświat miał jakiś konkretny kształt. Powstaje zatem kwestia określenia funkcji falowej możliwych kształtów lub mówiąc krótko funkii falowej wszechświata. Ponadto musimy w tym kontekście wyjaśnić pojęcie samego czasu. Jak już o tym wspomniałem, uważa się, że zarówno czas, jak i przestrzeń, powstały w ramach tego samego zdarzenia co i materia. Dlatego możemy mówić o warunkach doboru początkowej funkcji falowej wszechświata. Musimy więc próbować znaleźć warunek, na podstawie którego można by jednoznacznie wybrać funkcję falową wszechświata, a później spróbować zinterpretować jedną jego część, od którego ona zależy, jako czas mający odpowiednie właściwości. Jednym z warunków, mogłoby być żądanie, aby energia cząstek poruszających się w przyszłość miała dodatnią wartość, z czym zresztą spotykamy się obecnie na co dzień. Na drodze tego rodzaju rozumowania usiłujemy znaleźć odpowiednie kryterium doboru funkcji falowej wszechświata. Wspomniałem już o jednym, którego autorami byli Stephen Hawking i jego amerykański kolega Jim Hartle. Polega ono na takim zdefiniowaniu funkcji falowej wyrażonej zmiennymi trójwymiarowej przestrzeni, że można ją bez trudu przekształcić do postaci, która zależy od parametrów czterowymiarowej przestrzeni. Można tego dokonać precyzyjnymi metodami matematycznymi, ale pod warunkiem, że czwarty wymiar przyjmuje wartości urojone. Prowadzi to do tego, że zmienne przestrzeni i czasu stają się całkowicie równoważne. Dlatego warunek ten można uważać za żądanie, aby nie występował żaden punkt początkowy czasu, podobnie jak nie istnieje żaden punkt początkowy w przestrzeni. Rezultaty otrzymane w wyniku zastosowania tego kryterium, nie mogą być wykorzystane w żadnej rzeczywistej teorii grawitacji, choćby w teorii Einsteina, z uwagi na związane z nimi trudności z kwantyzacją (jak o tym wspomniano w rozdziale 5). Wydaje się jednak, że takie podejście umożliwia z pożytkiem wejrzeć w model, który co prawda ma jedynie teoretyczną wartość, lecz prowadzi do zasadniczej redukcji zmiennych, istotnych do opisu pola grawitacyjnego. Alternatywne kryterium, również krótko opisane wcześniej, nie wykorzystujące postaci urojonej czasu, wymagało, aby funkcja falowa wszechświata znikała (w odpowiedni sposób), gdy kształty (pola grawitacyjne) dążą do nieskończoności. Jest to oczywiście jakiś sposób na uniknięcie osobliwości grawitacyjnych, występujących w centrach czarnych dziur, tak trudno dających się wyjaśnić nawet na podstawie kompletnej grawitacji kwantowej. Ponadto takie podejście nie ma wielkiego sensu w przypadku teorii grawitacji Einsteina. Wydaje się sensowne jedynie dla bardzo uproszczonych modeli grawitacji i materii modeli-zabawek, według określenia Hawkinga i Hartle'a. Trzeba również zdawać sobie sprawę z tego, że obydwa podejścia są jeszcze nieskończenie odległe od możliwości ich doświadczalnej weryfikacji. Dlatego więc jakiekolwiek wypowiedzi o początku wszechświata nie mogą jeszcze uzyskać naukowej aprobaty. Co więcej, taki sposób rozumowania przysparza wielu trudności metodologicznych, wynikających ze złożonej natury czasu. Można by skierować dyskusję na bardziej obiecujące tory wspomnianej uprzednio teorii superstrun. Oczekuje się, że grawitacja według tej teorii ma zupełnie inną strukturę niż według teorii Einsteina, ponieważ uwzględnia nieskończony szereg coraz masywniej szych cząstek (wibracje poprzeczne superstrun) sprzężonych z partnerami pola grawitacyjnego. Cofając się w czasie aż do samego Wielkiego Wybuchu, liczba cząstek tego szeregu miałaby rosnąć gwałtownie w miarę wzrostu temperatury. W zasadniczy sposób wpływa to na uzyskane rezultaty. Jakąkolwiek by się uzyskało w końcu strukturę, to byłaby ona w zasadniczy sposób odmienna od struktury grawitacji zgodnej z teorią Einsteina. Funkcja falowa wszechświata byłaby wtedy dobrana na podstawie prawdopodobieństwa pewnego zbioru pól związanych ze strunami. To dopiero przed nami i wydaje się być ogromnym przedsięwzięciem. Jedynie po znalezieniu bardziej eleganckich postaci równań opisujących superstruny, zadanie może stać się prostsze. Aż do tego czasu idea kwantowej kreacji wszechświata pozostaje wielce interesującą możliwością, która jednak, należy to podkreślić, nie ma zupełnie żadnych dowodów na swoje poparcie. Bez początku? Problemy, których nastręcza kwantowa interpretacja kreacji wszechświata, omówione w poprzedniej części, mają wielkie znaczenie. Ponadto zawsze pozostaje nie rozstrzygnięta kwestia, w jaki sposób wykorzystać jakąś konkretną teorię (tak jak na przykład mechanikę kwantową czy superstruny) w tym najbardziej początkowym momencie, nawet wtedy, gdy uda się opierając na tej teorii znaleźć kryterium prawidłowego doboru funkcji falowej wszechświata. Jest więc zrozumiałe, że w świetle trudności znalezienia odpowiedzi na pytania: dlaczego właśnie to kryterium? i dlaczego właśnie ta teoria?, należy poważnie rozważyć przypadek nieskończonej liczby zstępujących teorii i kryteriów funkcji falowej. W rzeczywistości modele z poprzedniej części można by uważać za próby odkrycia przybliżonych postaci funkcji falowych utworzonych na podstawie teorii, która jest dopiero w połowie drogi i nie będąc jeszcze kompletną teorią grawitacji kwantowej, ma już pewne jej cechy. Następnym krokiem byłoby stworzenie kompletnej teorii grawitacji kwantowej wraz z jej kryteriami doboru funkcji falowej wszechświata. Lecz dlaczego mielibyśmy na tym poprzestać? Całe zatem to poszukiwanie warunków początkowych przybiera bardzo złożoną postać. Należy nadmienić, że istnieje nieskończony szereg coraz bardziej precyzyjnych teorii opisujących rzeczywistość w sposób prawidłowy w pewnych zakresach energii, jednakże po ich przekroczeniu, teorie te załamują się. Dzieje się tak na przykład z fizyką klasyczną, kiedy rozpada się atom i należy uwzględniać jego wewnętrzną budowę. Pałeczkę przejmuje wtedy fizyka kwantowa, w której obszarach możemy znaleźć narzędzia opisujące właściwości takiego układu. Spróbujmy wykorzystać ten tok rozumowania dla przypadku ekspansji wszechświata podczas gorącego Wielkiego Wybuchu. W miarę oziębiania się wszechświata, jedna teoria może być zastąpiona przez następną, bardziej odpowiednią przy niższych energiach. Należałoby się spodziewać, że warunki początkowe dla teorii niższych energii będą określone końcowym stanem wyznaczonym przez teorię wyższych energii. W obrębie tej teorii, końcowy stan będzie zdeterminowany stanem początkowym wynikającym z energii, przy której teoria staje się użyteczna. Dotyczy to każdej teorii, w każdym zakresie energii. Każda bowiem wyznacza zarówno strukturę następnej, jak i swój stan początkowy. Proponowaliśmy wcześniej nieskończony szereg teorii jako sposób na rozwiązanie nie rozstrzygniętej kwestii dlaczego właśnie ta JTP?, lecz nadal chroniąc zasady przyczynowości. Teraz proponujemy rozszerzenie tego szeregu jako sposób na uniknięcie pytania: dlaczego właśnie to kryterium doboru funkcji falowej wszechświata? W poszukiwaniach właściwej funkcji falowej nie chcielibyśmy jednakże porzucić troski o elegancję. Nowe ramy, zakreślone przez taki nieskończony szereg teorii, uwalniają naukowca od prób odgrywania roli Boga. Ogranicza on teraz swoje poszukiwania jedynie do prób znalezienia lepszych teorii oraz ich funkcji falowych opisujących wszechświat, wypełniając tylko swoje naturalne funkcje polegające na badaniu, snuciu przypuszczeń, testowaniu, wysnuwaniu wniosków itp. Zawsze powinien traktować swoje odkrycia tylko jako małe kroki na nie kończącej się drodze do wiedzy doskonałej. Na żadnym etapie nie uzyskujemy ostatecznej pewności. W obliczu nieskończonego szeregu musiałaby istnieć możliwość przeprowadzenia nieskończonej liczby eksperymentów. Każdy z nich burzyłby obowiązującą w danej chwili teorię i powodowałby konieczność zastąpienia jej lepszą i bardziej ogólną. Wydaje się niemożliwe opisać wyczerpująco powstanie wszechświata, zdeterminowanego nie kończącym się szeregiem praw naukowych, poprzez wyizolowanie na jakimś poziomie jednej konkretnej teorii naukowej. Jeżeli bowiem zdecydowalibyśmy się na to, wtedy wszechświat zostałby pozbawiony właściwych proporcji nieskończonego zbioru coraz wyższych poziomów. Tak więc, chociaż idea kwantowej kreacji wszechświata może być pomocna w lepszym zrozumieniu różnych poziomów, to jednakże nigdy nie wyjaśni nam istnienia samego wszechświata. Zgodnie z nieskończonym szeregiem teorii, wszechświat w miarę jak się rozszerza ewoluuje stopniowo na coraz niższe poziomy energetyczne. Lecz ponieważ nigdy nie uzyska się kompletnego opisu, więc nigdy nie może być mowy o kwantowej kreacji wszechświata. Można go uważać za coś niestwarzalnego, przynajmniej w naszym rozumieniu, ponieważ według wszelkiego prawdopodobieństwa jest nieskończenie złożony. CZĘŚĆ TRZECIA WSZECHŚWIAT UMYSŁU 8. MECHANIKA PROCESÓW MYŚLOWYCH Ewolucja życia W celu zachowania ciągłości pomiędzy różnymi poziomami istnienia materii we wszechświecie, występującej, jak się o tym przekonaliśmy, na przykład pomiędzy atomami a cząsteczkami czy elektronami i jądrami a atomami, musimy wykazać, że taka ciągłość występuje również na styku ziemskiej materii ożywionej i nieożywionej. To, że życie narodziło się z substancji nieożywionych zostało zaakceptowane przez społeczność naukową już kilkaset lat temu, ale ciągle trwają spory, jak dokładnie do tego doszło. Daje się wyróżnić dwa skrajne stanowiska: albo że nastąpiło to spontanicznie, albo w wyniku złożonego procesu ewolucji. Zgodnie z pierwszym podejściem, takie żywe organizmy jak pasożyty jelitowe czy bakterie, miałyby powstać przez czysty przypadek, tym bardziej prawdopodobny, im bardziej sprzyjałyby temu warunki zewnętrzne. Stanowisko przeciwne, optujące za złożoną ewolucją, zostało zwięźle przedstawione w 1912 roku w przesłaniu do Brytyjskiego Towarzystwa Wspierania Postępu Nauk: Tak jak dalecy jesteśmy od przypuszczenia, że przejście od stanu nieorganicznego (lub przynajmniej niezorganizowanego) do stanu organicznego (lub zorganizowanego), od substancji całkowicie nieożywionej do w pełni żywej istoty, mogłoby nastąpić w wyniku jakiegoś nagłego przeskoku, tak nie spodziewamy się również, aby mógł zachodzić proces zmian prowadzących do powstania materii ożywionej z substancji nieorganicznych na drodze stopniowo zwiększającej się złożoności, aż do osiągnięcia materii, którą można by określić jako żyjącą. Mniej więcej od 1936 roku, tj. od publikacji książki rosyjskiego biochemika „Początki życia", koncepcja spontanicznej kreacji została całkowicie odrzucona przez naukowców. W książce tej położono nacisk na niesłychaną złożoność substancji żywych. Nieprawdopodobieństwem jest, aby w jakimś krótkim czasie, powiedzmy na naszych oczach, mogły się one pojawić w nie-zorganizowanym roztworze substancji organicznych. Mamy dość dobre rozeznanie, jakie warunki, w sensie dostępnych substancji oraz energii słonecznej, panowały na powierzchni Ziemi, gdy powstawały pierwsze prymitywne formy życia. Początkowo atmosfera ziemska była złożona głównie z wodoru i być może z niewielkich ilości metanu i amoniaku. Później dwutlenek węgla, pochodzący z erupcji wulkanów, zajął miejsce metanu. Trzecia faza nastąpiła, gdy w wyniku fotosyntezy pierwszych komórek roślinnych zaczął powstawać tlen. Mamy wiele dowodów na to, że zanim te komórki osiągnęły stan wysoce zorganizowany i zanim mogły skutecznie bronić się przed oddziaływaniem środowiska, obecność wolnego tlenu w atmosferze była dla nich wybitnie niebezpieczna, ponieważ reakcje utleniania zabiłyby każdy zalążek życia, uniemożliwiając Jego przetrwanie i dalszą ewolucję. Tlen ma szkodliwy wpływ na istniejące współcześnie jądra komórkowe, co wskazuje, że we wczesnych stadiach ewolucji komórki środowisko miało charakter raczej beztlenowy. Dopiero około dwóch miliardów lat temu, tempo produkcji tlenu w reakcjach fotosyntezy przekroczyło tempo utleniania gazów wulkanicznych, co doprowadziło do obecności tlenu w ziemskiej atmosferze. Uważa się, że promieniowanie ultrafioletowe Słońca, łatwo wtedy przenikające do powierzchni Ziemi z uwagi na brak warstwy ozonowej, było najważniejszym źródłem energii oddziałującej na tę ciepłą sadzawkę, według określenia Karola Darwina, z rozpuszczonymi solami fosforu i amoniaku. Innymi źródłami energii były wyładowania elektryczne oraz prawdopodobnie rozpad substancji radioaktywnych, występujących w skorupie ziemskiej. Jedno z pierwszych doświadczeń naukowych wykazało, w jaki sposób z mieszaniny metanu, amoniaku, wody i wodoru mogą syntetyzować aminokwasy, podstawowe cegiełki, z których są zbudowane białka. Wyładowania elektryczne wytwarzane w tej mieszaninie w ciągu około tygodnia doprowadziły do powstania różnych aminokwasów; utrzymywano, że w taki sposób udało się zsyntetyzować czternaście spośród dwudziestu, powszechna występujących w białkach. Później wiele zespołów badaczy zsyntetyzowało podstawowe pary składające się na DNA. Za pomocą wyładowań elektrycznych w metanie uzyskano również wiele kwasów tłuszczowych i węglowodorów, a wiele dużych cząsteczek organicznych wytworzono poprzez odwodnienie mieszaniny aminokwasów; podobne procesy mogły zachodzić w mule przybrzeżnym, ogrzewanym promieniami słońca. Następnym i chyba najważniejszym etapem było odkrycie, w jaki sposób ostają aminokwasy, które później w bardzo szczególny sposób, obserwowany we wszystkich organizmach żywych, kontrolują syntezę białek. Obecnie są prowadzone na tym polu bardzo intensywne badania, lecz nie uzyskujemy jeszcze na ich podstawie ostatecznych odpowiedzi. Jeden z badaczy, zaangażowany na tym polu, napisał niedawno: Pełni optymizmu sądzimy, że w najbliższym czasie w laboratorium potrafimy prześledzić ścieżkę ewolucji chemicznej. Wiedza z zakresu biochemii, zgromadzona w ostatnich latach, umożliwiła nam wgląd do wielu najbardziej tajemniczych procesów przyrody. Osiągnąwszy ten poziom zrozumienia, niewiele czasu potrzeba, byśmy rozwiązali wszystkie problemy. Ślady życia znaleziono w skałach sprzed trzech i pół miliarda lat. Odnotowano, na przykład, że w skałach Australii Zachodniej oraz Afryki Południowej znaleziono stromatolity (skamieniałości wapienne zawdzięczające swoje powstanie mikroorganizmom, szczególnie sinicom) sprzed 3400-3500 milionów 1at. Donoszono o mikroskamieniałościach, w których można dostrzec błony komórkowe w fazie podziału, znalezionych w Suazi, w warstwach geologicznych osadzonych przed 3400 milionami lat. Toczą się obecnie spory, czy w najstarszych ziemskich skałach, liczących sobie około 3800 milionów lat, to znaczy zaledwie 800 milionów lat starszych od powszechnie zaakceptowanego wieku Ziemi, znajdują się rzeczywiście ślady materiału pochodzącego od organizmów żywych. Według pewnych opinii, życie mogło powstać nawet przed czterema miliardami lat. Poczynając od tych najdawniejszych czasów, życie na Ziemi na drodze procesów ewolucyjnych, dostrzeżonych po raz pierwszy w 1858 roku przez Karola Darwina i Alfreda Wallace'a, wytworzyło, opierając się na różnicowaniu gatunków, wielką różnorodność form. Świadectwa ewolucji można dostrzec w wielu różnych dziedzinach, poczynając od paleontologii (badania skamieniałości), poprzez geograficzne rozmieszczenie gatunków, klasyfikację, badania sposobu rozmnażania się roślin i zwierząt oraz embriologię, aż do biochemii. Neodarwinowska teoria ewolucji, jak ją teraz nazywamy, opiera się na dowodach z bardzo szerokiego obszaru źródłowego oraz wspiera się na olbrzymiej liczbie obserwacji pośrednich. Ewolucja została powszechnie zaakceptowana w środowisku naukowców, lecz mimo to nadal wymaga wielu uzupełnień w samej teorii, jak i w jej zastosowaniach, co pozwoliłoby na jej wykorzystanie we wszystkich sytuacjach. Darwin, w końcowym rozdziale swojego magnum opus, „O pochodzeniu gatunków", opisał zwięźle perspektywy, ja)y teoria ewolucji przynosi całemu światu: W takim obrazie świata, ze wszystkimi możliwościami, które on stwarza, widać całą wspaniałość, którą jedynie kilka form 1ub być może tylko jedną obdarzył Stwórca; i forma ta, w czasie gdy nasza planeta podążała niezmiennie po swoich drogach wyznaczonych prawem powszechnego ciążenia, przekształciła się z początkowej prostej i bezkształtnej masy w nieskończenie piękne organizmy, które nadal ewoluują. Zaczynamy sobie obecnie zdawać sprawę z mocy praw natury, doprowadzających od Wielkiego Wybuchu aż do czasów współczesnych do niesłychanej różnorodności form życia na Ziemi. Któż może wiedzieć, jakie inne formy życia istnieją na innych planetach, krążących wokół innych gwiazd, w naszej lub innej galaktyce? Powinniśmy teraz przejść do drugiego tematu książki do świata psychiki. Kiedy na Ziemi pojawił się rozum? Ze ściśle materialistycznego punktu widzenia należałoby się spodziewać go w odpowiednim stadium ewolucji po powstaniu odpowiednio złożonych systemów żywych. Istotne jest, abyśmy podjęli próbę wydedukowania, w jakim konkretnie stadium można mówić o rozumie. Zajmę się tym zagadnieniem w następnej części. Ewoluujący rozum Mówi się, że na Ziemi żyje ponad milion różnych gatunków. Pomimo niezwykle szerokiego zakresu różniących się wzajemnie kształtem i rozmiarami gatunków, poczynając od prymitywnej ameby aż do wytworna żyrafy, od krwiopijczej pijawki do szybującego na niebie orła, ich różnorodność daje się wyjaśnić na podstawie teorii ewolucji Darwina i Wallace'a oraz teorii dziedziczenia i szczegółów budowy kwasów DNA i RNA, opisywanych kodem genetycznym, odkrytym w 1964 roku przez Cricka i Watson. Sposób, w jaki geny kontrolują powstawanie struktur cielesnych, jest obecnie dobrze poznanym elementem wiedzy naukowej, prowadzącym do powstania ambitnego i ważnego projektu polegającego na sporządzeniu mapy ludzkiego genomu, z wyszczególnieniem położenia każdego genu w komórce. Prace nad tym projektem prowadzą na całym świecie wyodrębnione zespoły naukowców i należy się spodziewać, że na ich zakończenie będziemy musieli czekać około dziesięciu lat. Inżynieria genetyczna, chociaż nieco kontrowersyjna, stworzyła nowe formy zwierzęce, a również umożliwiła leczenie pewnych specjalnych postaci ludzkich chorób. Wraz z wielką, różnorodnością kształtów zwierząt spotykamy niezwykłą różnorodność wzorców zachowań. Ogrody zoologiczne fascynują nas, ponieważ dają nam możliwość zaobserwowania niektórych tych zachowań na własne oczy. Lecz to, co udaje nam się dostrzec, stanowi jedynie wierzchołek góry lodowej. Nie widzimy ameby poszukującej chemicznych substancji odżywczych oraz pijawki przechodzącej przez swoje cykle życiowe. Ukryty jest przed naszymi oczami proces budowania gniazda przez ciernika, który nabierając piasek w pyszczek przenosi go na inne miejsce, gdzie powstaje gniazdo. Zdolność szympansów do rozwiązywania prosach problemów, a być może nawet do używania pewnych prostych form językowych, również nie daje się zauważyć na pierwszy rzut oka. Kilka lat temu do mego domu, w najbardziej dosłownym tego słowa znaczeniu, przyprowadzono dorosłą małpę człekokształtni. Zostałem bowiem zaangażowany do pewnego programu telewizyjnego dla dzieci, w którym pokazywała się szympansica w wieku około czterech lat (prawie dojrzała). My wszyscy, nie wyłączając szympansicy, mieliśmy przerwę na obiad jedzony zwykle w bufecie obok studia. Siedziałem tam kiedy sną przeciwko małpy i jedząc moje danie prowadziłem zajmującą rozmowę z jej właścicielem. W pewnym momencie na moim talerzyku zacząłem obierać pomarańczę. Małpa natychmiast wyciągnęła dłoń i spojrzała na mnie błagalnie. Cóż mogłem zrobić? Dzieliłem z nią pomarańczę kawałek po kawałku. Jadła z apetytem, okazując przy tym wielką wdzięczność i wyciągane co chwilę dłoń po następny kawałek. Kiedy skończyłem, skoczyła zadowolona na kolana swojego pana i usadowiła się na dobrze zasłużony odpoczynek! Jest to oczywiście jedynie rozszerzenie zachowań małpy poza zwykłe jej reakcje, spotykane na przykład w klatkach ogrodów zoologicznych, gdzie ma do czynienia z odwiedzającymi i ich łakociami, ale ta małpa jednak była doprawdy człekopodobna w swoich reakcjach. Wizyta w domku naczelnych w zoo wyraźnie przekonuje, że szympansy stanowią najbardziej inteligentny końcowy człon kontinuum orangutany, goryle, małpiatki i lemury. Idąc tropami ewolucji można wyraźnie zauważyć, że wszystkie gatunki wykazują stopniowy wzrost inteligencji. Jeżeli rozważymy łańcuch ewolucyjny ryby ? płazy ? gady ? ssaki to wyraźnie dostrzeżemy tę zmianę reakcji behawioralnych na różnicowanie się środowiska, co stanowi istotną cechę inteligencji. Na najniższym końcu tego łańcucha zachowanie jest stereotypowe, chociaż może być dość złożone. Tak więc aktywność przenoszenia piasku przez ciernika budującego swoje gniazdo przekształca się w różne dziwaczne reakcje, kiedy w takim samym stopniu doświadcza się uczuć agresji jak i strachu. To tylko jeden z wielu przykładów zbioru możliwych reakcji łączących się w zawiły sposób z wrodzonymi reakcjami gatunku. Wspinając się na coraz wyższe szczeble dostrzegamy coraz bogatsze wzorce zachowań, aż w końcu docieramy do człowieka, jawiącego się już jako ostateczny tryumf ewolucji w zakresie umiejętności podejmowania przez osobnika działań złożonych. Źródłem bogactwa zachowań, spotykanego już dużo niżej na drabinie ewolucji, mogą być jedynie możliwości, jakich dostarcza mózg. Bardzo prawdopodobne, że szympansica, z którą jadłem obiad, miała jakieś skojarzenia myślowe, powstające w jej mózgu, które oddawały znaczenie pomarańczy. Bodziec wzrokowy na widok owocu musiał przywołać w jej mózgu pamięć przyjemności, jaką dawało jej jedzenie pomarańczy, co spowodowało, że wyciągnęła rękę, by tę przyjemność powtórzyć. Nakierowana była na jakiś cel, którym w tym przypadku było zjedzenie owocu, a postępowaniem, które mogło doprowadzić do osiągnięcia tego celu, było wyciągnięcie ręki i proszące spojrzenie skierowane na mnie w taki sposób, że nie byłem w stanic odmówić. Lecz tego typu skojarzenia myślowe pojawiają się już na niższych szczeblach ewolucji zwierząt. Sugerowano nawet, że szympansy mają swoją teorię rozumu. W przypadku szympansów, z którymi prowadzono doświadczenia z wykorzystaniem języka migowego, odkryto, że mają one zdolność przewidywania zachowań swoich opiekunów w zależności od sposobu ich bycia. Mogłoby się wydawać, że w jakimś sensie mają teorię na temat umysłu swoich opiekunów. Zaobserwowano, że tylko szympansy i orangutany mogą nauczyć się rozpoznawania swojego wyglądu na podstawie odbicia w zwierciadle. Goryle nie potrafiły już nauczyć się tego zadania, chociaż można podejrzewać, że inne problemy mogą być bardziej dopasowane do ich zdolności. Na niższych szczeblach drabiny ewolucji nie dostrzega się już zupełnie zdolności do świadomego postrzegania swoich własnych obrazów; na przykład nie obserwuje się tego u psa czy kota. Nie oznacza to wcale, że zwierzęta te nie mają jakiegoś, przechowywanego w swoich mózgach, wyobrażenia o świecie zewnętrznym. Kiedy piszę te słowa, rozprasza mnie szczekanie mojego psa. Usiłuje dostać się do pokoju na piętrze, gdzie spodziewa się znaleźć moją żonę (do której jest bardzo przywiązany). W tym momencie wchodzi ona na górę i odzywa się do niego z drugiej stromy. Wygląd pyska psa oraz reakcja całego jego ciała wyraża niedowierzanie i zupełne zaskoczenie. Tak jakby chciał powiedzieć przecież jesteś w tym pokoju! Wyraźnie widać, iż w myśli wyobrażał sobie, że żona jest wewnątrz i dlatego szczekał, by się tam dostać. Można zejść na jeszcze niższy szczebel ewolucji. Na przykład szczury są wspaniałymi zwierzętami laboratoryjnymi, ponieważ można je w ciągu kilku dni nauczyć, w jaki sposób pokonywać labirynt i odnaleźć ukrytą nagrodę. Okazało się, że mają zdolność przechowywania w pamięci obrazu labiryntu i nawet jeżeli obróci się drogi prowadzące do wejścia, obraz w ich mózgu również się obróci. Odkryto, że można wyróżnić pojedyncze komórki nerwowe, zwane odpowiednio komórkami miejsca, reagujące jedynie wtedy, gdy szczur znajduje się w konkretnym miejscu w danym labiryncie. Owady, znajdujące się jeszcze niżej na drabinie ewolucji, uczą się znajdować pokarm według dostarczanych im wskazówek. Informację, gdzie można znaleźć pokarm, przekazują nawet innym, co wyraźnie daje się zaobserwować u pszczół. Natomiast mrówka może nauczyć się ścieżek dojścia do źródeł pożywienia, a jeżeli te ścieżki zostaną przesunięte, to straci orientację, aż do chwili, gdy nie odkryje nowych dróg. Jest doprawdy zdumiewające to, do czego są zdolne prymitywne zwierzęta, wyposażone w bardzo mały system nerwowy, zbudowany czasami z kilku zaledwie zwojów nerwowych działających autonomicznie. Wszystkie wzorce zachowań powstają w wyniku procesów zachodzących narożnych poziomach układu nerwowego. Pozbawiony głowy kurczak może być nadal zdolny chodzić, kierowany uformowanymi uprzednio w mózgu odruchami, lecznic ma już zdolności do kierowania swoim postępowaniem. Dzieci z uszkodzeniami mózgu rosną, dorastając jako upośledzone umysłowo, i wymagają specjalnego szkolenia, by mogły poradzić sobie z tak prostymi czynnościami jak fizjologia czy jedzenie. Zwiększająca się liczba osób z uszkodzeniami mózgu jest skutkiem ostatnich wojen, coraz większej liczby wypadków samochodowych oraz chorób, dotykających szczególnie ludzi w podeszłym wieku. Badania takich przypadków, chociaż tragicznych dla bliskich, doprowadziły do ogromnych postępów w rozumieniu misternych sposobów, jakimi mózg wyraźnie steruje wszystkimi aspektami zachowania. Zebrane wyniki połączono z rezultatami doświadczeń przeprowadzanych na zwierzętach, takich jak wspomniane wyżej szczury albo koty czy małpy. Lecz nie tylko te wyższe zwierzęta okazały się pomocne w rozumieniu fizycznych aspektów sterowania w obszarze świata psychicznego, pozwalając w ten sposób przynieść ulgę dotkniętym cierpieniem ludziom. Siatkówka oka złotej rybki (jeszcze lepiej do tego celu nadaje się karp, ale jest niestety droższy) jest na przykład bliskim analogiem naszej. Zespół badawczy ze szpitala w Amsterdamie przeprowadza aktualnie eksperymenty ze złotą rybką, mające na celu zrozumienie natury kolorowego widzenia (które ona również ma), co może być pomocne w kuracji ludzi dotkniętych daltonizmem. W tym samym czasie prowadzi doświadczenia z szympansami, by lepiej zrozumieć sposób, w jaki ich reakcje odpowiadaj ą falom mózgowym rejestrowanym za pośrednictwem elektrod umieszczonych na powierzchni głowy (EEG). Jednym z możliwych sposobów śledzenia ewolucji rozumu jest ten, który omawialiśmy powyżej, a więc badanie ewolucji mózgu. Zakłada się przy tym, że odczucia psychiczne w przeważającej mierze, jeśli niecałkowicie, są uwarunkowane jego aktywnością. Jeżeli tak, to ewolucja rozumu umożliwia śledzenie szczegółów drogi, na której rozwijał się mózg zwierząt, w miarę jak wspinał się po drabinie ewolucji oraz wyjaśnienie, w jaki sposób rozszerzał się towarzyszący temu zakres wzorców zachowań. Tą metodą można zrozumieć, w jaki sposób konkretne reakcje lub nawet całe wzorce zachowań mogą byś modyfikowane poprzez rozwój poszczególnych obszarów mózgu. Nawet sposób, w jaki na przykład ciało jest wyobrażane w jego sensorycznych częściach, różni się u poszczególnych gatunków. Świnia ma bardzo obszerny region mózgu przyporządkowany ryjowi, podczas gdy człowiek ma wyolbrzymiony ponad miarę obszar tkanki mózgowej związanej z twarzą i rękoma. Można znaleźć wiele wzorców zwierzęcych zachowań, które wynikają ogólnie rzecz biorąc z konkretnej budowy mózgu. Poznawszy te mechanizmy możemy podjąć próbę wkroczenia do świata percepcji zwierząt. Istnieją na przykład ograniczenia wynikające z możliwości układów odbiorczych. Tak więc z wykładu na temat: Co oko żaby przekazuje mózgowi, dowiadujemy się, że żaba może dostrzec albo bardzo duże wolno przesuwające się obiekty, albo przedmioty bardzo małe, lecz ruchliwe. Wynika to jedynie z budowy komórek w jej oku. Obydwa sposoby postrzegania są dla niej niesłychanie istotne, jako że pierwszy ostrzega ją przed potencjalnymi groźnymi drapieżnikami, podczas gdy drugi umożliwia polowanie na małe owady, takie jak na przykład muchy. W podobny sposób, badając jego system echolokacyjny, możemy wkroczyć do świata nietoperza. Zaczynamy poznawać sposób, w jaki mózg nietoperza koduje położenie, które odbiera w postaci odbitych sygnałów dźwiękowych, na podstawie czego udaje się już sporządzać mapy obszarów korowych, odpowiedzialnych za przechowywanie różnych danych (odległości rozmiaru, prędkości itp.). Złożoność tych wszystkich układów u zwierząt, a szczególne u ludzi, nadal oczywiście nastręcza wiele trudności. Pomimo to znaczenie związków pomiędzy budową mózgu a zachowaniem znacznie wzrosło w ostatnich dziesięcioleciach. Coraz bardziej wydaje się prawdopodobne, ewolucja rozumu jest tożsama z ewolucją mózgu. Nie wydaje się, aby celem procesu ewolucji było tylko zwiększanie jego rozmiaru. Mózg słonia jest trzy czy cztery razy większy od naszego, a mózg wieloryba nawet sześć razy. Wielkość mózgu delfina jest porównywalna z rozmiarami naszego. Pomimo to żaden z tych mózgów nie wykazuje ani takiej złożonej struktury jak nasz, ani ich posiadacze nie wykazują takiej zróżnicowanej aktywności. Nawet w obrębie naszego gatunku wielkość mózgu o niczym jeszcze nie świadczy. Największy mózg, jaki kiedykolwiek odnotowano w annałach nauki, miał na przykład kompletny idiota, natomiast mózg uznanego francuskiego pisarza Anatola France'a był o połowę mniejszy. Jest jeszcze jedna metoda badania ewolucji rozumu. Polega ona na obserwacji i doświadczeniach przeprowadzanych z małymi dziećmi w różnym |wieku. Badania tego typu doprowadziły do generalnego wniosku, że w miarę jak dziecko dojrzewa fizycznie, następuje porównywalny rozwój jego zdolności umysłowych. Wspiera to opinię, że rozum identyfikuje się ze zdolnościami mózgu. Prowadzi to również do wielce interesującego pytania, czy istnieją w nim jakieś pierwotne struktury, niezależne od sposobu wychowania, które umożliwiają rozwój potężnych wzorców zachowań, a w szczególności rozwój mowy. Istnienie takich głębokich struktur postulował dziesięć lat temu, opierając się na swoich badaniach lingwistycznych, amerykański językoznawca Noam Chomsky. Wykazały one, że różne języki mają podobną budowę gramatyczną, co doprowadziło Chomsky'ego do postulatu o pierwotnych strukturach mózgu (niezależnych od późniejszego procesu nauczania), zdolnych do stwarzania takich wspólnych rysów języka wśród wielu ludzkich społeczeństw. Badania związane z procesem nauczania dzieci w wieku, powiedzmy, trzech, siedmiu czy dziesięciu miesięcy realizowano głównie za pomocą technik habituacyjnych. Dziecko siedzi w wygodnym wysokim fotelu i patrzy na obraz wyświetlany na umieszczonym przed nim ekranie. Po obejrzeniu kilku obrazów, na przykład zwierząt (dokonując przy tym pomiarów czasu, jaki poświęca dziecko każdemu z nich), pokazuje się dziecku powtórnie obraz jednego z tych zwierząt, a czas skupienia uwagi na obrazie może być wtedy już krótszy, ponieważ przyjmuje się, że dziecko nauczyło się obrazka. Może ono skupiać stosunkowo dłużej uwagę na obrazku przedstawiającym zupełnie nowe zwierzę. Jeżeli dobierze się prawidłowo obrazy, to czas, który dziecko poświęca na obserwacje podobnych lub bardzo różniących się zwierząt, może stać się wyznacznikiem tego, czy dziecko potrafi stworzyć sobie w mózgu pewne ich kategorie. Tak więc, na przykład, jeśli pokazuje się mu zwierzęta o coraz to innej długości nóg, to zwykle nie będzie skupiać zbyt długo uwagi na tych, które mają nogi o przeciętnej długości, natomiast widząc zwierzęta z bardzo długimi nogami (lub bardzo krótkimi), będzie patrzyło na nie stosunkowo dłużej. Dzięki tym badaniom odkryto, że dziecko trzymiesięczne potrafi zbudować sobie pewien wzorzec dotyczący wyglądu kończyn czy na przykład głowy; dziecko siedmiomiesięczne wzorzec całych zwierząt; a w wieku dziesięciu miesięcy jest w stanie wyraźnie wyróżnić i zapamiętać całą ich grupę. W podobny sposób można rozwijać zdolność do śledzenia przedmiotów, które poruszają się w pewnej części swojej drogi ukryte za jakimiś przeszkodami, co doprowadza w ciągu mniej więcej tego samego czasu do wytworzenia się pojęcia ciągłości trwania przedmiotu. Umiejętność rozpoznawania twarzy rozwija się nawet w ciągu jednego miesiąca. Wydaje się, że zdolność do rozróżniania sylab pojawia się już w pierwszych miesiącach życia, lecz później zanika, by powrócić znowu z większą siłą po upływie dalszych miesięcy, szczególnie w stosunku do tych sylab, które dziecko słyszy w swoim otoczeniu. Okazuje się więc, że ewolucja umysłu następująca bądź w ciągu epok trwania ewolucji, bądź w ciągu miesięcy czy lat rozwoju dziecka, jest ściśle skorelowana z ewolucją mózgu. Jakże trudno jednak wyjaśnić zdolności Mozarta, Szekspira czy Einsteina powołując się na te dwie garści kleiku, składające się na mózg. Dopiero w ostatnim stuleciu uświadomiono sobie, że niesłychanie złożone zachowania wynikają z odpowiadającej im złożoności budowy mózgu. Mózg Mózg ludzki składa się z grudek szarej substancji, zwanej istotą szarą, połączonych nawzajem białymi włóknami. Same te zwoje są agregatami komórek nerwowych (ukształtowanych w postaci zwojów lub płatów); a białe włókna są w istocie wyrostkami z tych komórek. Te ziarna szarej substancji nazwano ośrodkami i przyporządkowano im różne nazwy łacińskie, podczas gdy najważniejszym płatem u ssaków jest kora, pokrywająca dwoma pofałdowanymi półkulami pień mózgu i ośrodki śródmózgowia. Okazuje się, że to właśnie kora mózgowa rozwinęła się najbardziej w procesie ewolucji, chociaż daje się również zauważyć generalny wzrost masy mózgu w porównaniu do masy ciała (nazywany encefalizacją). Przełom w objętości mózgu ssaków, w stosunku do mózgu gadów, nastąpił około stu pięćdziesięciu milionów lat temu, u prymatów w stosunku do innych ssaków około pięćdziesięciu milionów lat, a u hominidów przed mniej więcej pięcioma milionami lat. W wyniku ewolucji trwającej ponad dwa miliony lat mózg ludzki podwoił swój rozmiary. Trzy części mózgu - pień, śródmózgowie i kora - powiększały się w różnych okresach ewolucji człowieka i stąd różne są ich funkcje. Pień mózgu jest najbardziej pierwotną strukturą. Oprócz tego, że spełnia rolę stacji przekaźnikowej dla bodźców czuciowych nadchodzących z całego ciała oraz dla sygnałów sterujących mięśniami wypływających z czaszki, znajdują się tam jeszcze ośrodki sterujące cyklem spania i czuwania oraz oddychania, a również prostymi odruchami, takimi jak chodzenie i utrzymywanie równowagi pionowej. Na kolejnym poziomie złożoności znajduje się śródmózgowie. Wydaje się, że znajdują się tam co najmniej trzy główne centra. Pierwsze spełnia zadania przekaźnika przenoszącego sygnały zewnętrzne do kory mózgowej, gdzie są one dokładnie analizowane. Najważniejszym z nich jest wzgórze (thalamus), które składa się z dwu części (odpowiednio dla każdej półkuli mózgowej). Na przykład wszystkie bodźce wzrokowe, dotykowe i dźwiękowe przechodzą w drodze od receptorów (oczu, uszu i skóry) do dalszej analizy w korze przez różne ośrodki ulokowane we wzgórzach. Następną klasą zwojów nerwowych szarej substancji mózgu, rozlokowanych w śródmózgowiu, są te, które przydają znaczenia różnym bodźcom. Najważniejszym z nich jest podwzgórze (hypothalamus), które jak to odkryto w 1954 roku jest ośrodkiem odczuwania bólu i przyjemności. W ramach jednego z eksperymentów, szczurowi zamocowano w pewnym rejonie mózgu elektrodę podłączoną w taki sposób, że szczur, naciskając pedał, mógł podrażniać komórki nerwowe słabym impulsem elektrycznym. Zaobserwowano, że szczur uparcie powtarzał takie autostymulacje nawet wtedy, gdy elektrodę podłączono do stosunkowo wysokiego napięcia. Odkryto, że jedne obszary podwzgórza były ośrodkami przyjemności, a drugie centrami bólu, co potwierdziło się w doświadczeniach, podczas których zwierzę usiłowało uciec z miejsca, gdzie mogło zetknąć się ze stymulacją tych ośrodków. Doświadczenia tego rodzaju stały się punktem zwrotnym w badaniach relacji pomiędzy mózgiem a zachowaniem. Uprzednio ograniczano się do badań takich związków poprzez redukowanie całych zespołów zachowań do zbioru pojedynczych zasad rządzących sposobem, w jaki warunki eksperymentu wpływały na relacje bodziec-reakcja. Wszystkie teorie tego typu nic nie mówią o wewnętrznym świecie psychicznym konkretnego osobnika, pozostawiając te zagadnienia na uboczu dyskusji jako leżące poza granicami nauki. Lecz wyniki otrzymane podczas doświadczeń z autostymulacją dały się łatwiej zrozumieć w kategoriach dostarczanych doznań związanych z przyjemnością. Przyjemność i ból zostały jeszcze raz uznane jako rzeczywiście istniejące wrażenia. Potwierdziło się to podczas podobnych doświadczeń przeprowadzanych z ludźmi. Uczestnicy badań twierdzili, że dostarczały im one prawdziwej przyjemności. Oprócz tych ośrodków ściśle powiązanych z odczuwaniem przyjemności i bólu istnieją również inne, które wydają się również zdolne do przechowywania wrażeń z doznań przyjemnych lub związanych z bólem. Jeden z nich, tzw. hipokamp (hippocampus), którego nazwa pochodzi od konika morskiego przypominającego go kształtem, jest niesłychanie ważny dla pamięci długotrwałej. Osobnik pozbawiony go, wydaje się niezdolny do zapamiętania niczego nowego — słów, nazwisk spotykanych ludzi czy drogi powrotnej do domu. Przy wypowiadaniu zdania traci nawet pamięć początkowej jego części. Inny obszar, ciało migdałowate (amygdala), wydaje się odpowiedzialny za przechowywanie wrażeń emocjonalnych doświadczonych w przeszłości. Utrata tego ciała prowadzi do trudności w nawiązywaniu kontaktów uczuciowych z innymi ludźmi. Zwierzęta laboratoryjne z uszkodzonym ciałem migdałowatym wykazują osłabione reakcje na bodźce emocjonalne. Na przykład szczur ze zmianami patologicznymi w tym obszarze może nadal pić wodę mimo nieprzyjemnego smaku, wywołanego choćby dodatkiem chininy. Omówione dotychczas ośrodki, podwzgórze, wzgórze, ciało migdałowate, tworzą układ limbiczny (limbus znaczy skraj czy brzeg), ponieważ są rozmieszczone głównie na obrzeżach kory. Układ limbiczny stanowi w mózgu coś w rodzaju magazynu doznań emocjonalnych. Trzecią grupą, którą można wyróżnić w szarej substancji, są pęczki nerwowe (basal ganglia). Ich znaczenie polega na sterowaniu odruchami motorycznymi oraz na tym, że wydają się przechowywać programy kontrolujące ruchy. Ich upośledzona czynność jest powiązana z chorobą Parkinsona i pląsawicą Huntingdona. Maj ą także wyraźne powiązania anatomiczne z móżdżkiem (cerebellum). Jest to zwarta struktura z tyłu mózgu, która wydaje się konieczna do dokładnej kontroli wykonywanych ruchów. Dochodzimy w końcu do kory mózgowej dwóch powierzchni lub opon tworzących pokrycie mózgu i mających podstawowe znaczenie dla doznań związanych ze świadomością. Zbudowane są z warstwy istoty szarej (składającej się z komórek nerwowych) położonej na wierzchu oraz z włóknistej istoty białej (z wypustek komórek nerwowych, tzw. aksonów) przebiegającej pod różnymi obszarami warstwy powierzchniowej. Kora jest silnie pofałdowana, tak, aby w danej pojemności czaszki mogła mieć jak największą powierzchnię. Taka budowa była między innymi powodem powstania bardziej rozwiniętego mózgu ludzkiego od mózgu na przykład delfina. Korę można z grubsza podzielić na trzy obszary. Pierwszy jest odpowiedzialny za odczuwanie doznań wzrokowych, słuchowych, zapachowych, dotykowych oraz za sterowanie ruchami. To jest właśnie ten obszar mózgu, do którego docierają różne sygnały (z wyjątkiem zapachowych) z zewnątrz po przejściu przez wzgórze. Po wstępnej analizie są one dalej obrabiane w regionach nazywanych obszarami kojarzeniowymi kory, które otaczają ośrodki pierwotne. Trzecim, najwyższym poziomem kory są płaty czołowe, które można by również nazwać trzeciorzędowymi regionami korowymi. Wydaje się, że właśnie tutaj zachodzą procesy związane planowaniem. Te różne obszary kory - pierwotny, kojarzeniowy i trzeciorzędowy - mają odrobinę odmienną budowę, chociaż wszystkie są zbudowane z grubsza według tego samego schematu sześciu warstw komórek nerwowych, zebranych w kolumny po około tysiąca sztuk. W korze znajduje się około miliona takich kolumn. Pomimo ich dość podobnego wyglądu, różne obszary kory spełniają odmienne funkcje. Jak już wspomniano wyżej, spostrzeżenia tego typu zostały dokonane przy okazji leczenia coraz większej liczby ludzi z urazami głowy. Uszkodzenia w obszarach pierwotnych kory powodowały utratę odpowiadających im zdolności odczuwania. Ubytek kory w pierwotnym obszarze doznań wzrokowych, który jest nazywany płatem wzrokowym, prowadzi do ślepoty. Utrata komórek korowych w regionie kojarzeniowym, znajdującym się tuż przed płatem wzrokowym, w tzw. płacie ciemieniowym, może spowodować dziwne objawy pomijania. Oznacza to, że dany osobnik może nie być zdolny dostrzegać lewej strony swego, uprzednio normalnego, pola widzenia. Może to przybrać postać tak ekstremalną, że człowiek zaprzecza jakoby prawa strona należała do jego ciała, i może ją nawet atakować lewą ręką lub nogą twierdząc, że w jego łóżku znajduje się jakiś intruz. Ubytek płata skroniowego, po obu stronach kory, powoduje utratę pamięci o zdarzeniach w przeszłości, a utrata płata czołowego może prowadzić do zmiany osobowości i do braku umiejętności rozsądnego postępowania w realnych sytuacjach życiowych. Jako przykład, pochodzący z połowy ubiegłego wieku, można tutaj podać przypadek Phineasa Gage'a, który utracił znaczną część płata czołowego, gdy stalowy pręt uszkodził mu czaszkę podczas wykonywania obowiązków na kolei w USA. Odnotowano, że był zdolny z pełną świadomością odbywać kilkukilometrowe spacery do lekarza, ale znaczna zmiana jego osobowości doprowadziła do tego, że stał się bardzo kłótliwy. W rezultacie zginął kilka lat później w jakiejś knajpianej bójce. Mózg jest zatem organem rozumu. W następnym rozdziale zajmiemy się kwestią, na ile jesteśmy zdolni zrozumieć subtelności jego działania. W badaniach na tym polu dokonano znacznych postępów; myśli się nawet o zbudowaniu sztucznej inteligencji. 9. Programy operacyjne mózgu Atomy mózgu Można przyjąć, że rewolucja naukowa przebiegała w dwóch etapach. Pierwszy z nich, rewolucja materialna, zabrał nam trzy stulecia i doprowadził do gmatwaniny kwarków i gluonów. Na tej drodze weryfikowano dogłębnie tezy redukcjonizmu z największą jak dotąd precyzją. Drugim etapem była rozpoczęta przed ponad stu laty rewolucja umysłowa, która trwa faktycznie nadal. To właśnie może być powodem, dlaczego, jak już zauważyliśmy, istnieje taka rozbieżność pomiędzy stanem naszej obszernej wiedzy o świecie materialnym a prawie beznadziejnym stanem wiedzy o nas samych. Przekazanie ogromnego potencjału nauki ludziom dorosłym, w szczególności politykom i wojskowym, którzy, w rezultacie, okazali się dziećmi, było bardzo niebezpiecznym posunięciem. Nic więc dziwnego, że w naszym nowoczesnym społeczeństwie nie brakuje takich, którzy woleliby cofnąć zegar i powrócić do czasów powszechnej ignorancji. Mimo wszystko na świecie jest zbyt wiele żołądków do wyżywienia i zbyt wielkie oczekiwania odnośnie do standardów życia, aby można było teraz przyhamować tempo rewolucji naukowej. Innym powodem tego, że tak długo musimy czekać na owoce rewolucji umysłowej jest to, że nasze zrozumienie umysłu nie wydaje się tak prostym problemem, by można było z nim zmierzyć się, tak jak powiedzmy z wodą. Podejście redukcjonistyczne jest oczywiście idealne w przypadku świata materialnego. Większość właściwości materii, opisywanych pojemnymi zmiennymi, takimi jak objętość, temperatura i ciśnienie, daje się wyjaśnić rozważając zbiory atomów i uśredniając ich parametry. Termodynamika statyczna, dziedzina nauki, powstała na tej drodze, pozwoliła naukowcom wypełnić lukę pomiędzy światem atomu i światem makroskopowym. W tym samym czasie okazało się, że większość obiektów materialnych latających wokół nas, czy byłyby to strzały, kule czy planety, porusza się zgodnie ze słynnymi trzema prawami ruchu odkrytymi w siedemnastym wieku przez Newtona. Mechanikę kwantową oraz inne, powstałe w tym stuleciu, nowsze teorie o większej precyzji, omówiliśmy wcześniej. Mogliśmy żywić nadzieję, że rewolucja umysłowa będzie przebiegać równie gwałtownie. Lecz, aby to mogło nastąpić, musielibyśmy posiadać wiedzę o jakiś analogicznych do temperatury i ciśnienia właściwościach, którymi moglibyśmy charakteryzować stan mózgu. Poza tym, mamy szukać atomów mózgu oraz jakie zmienne statystyczne pozwoliłyby wyjaśnić wynikową aktywność mózgu, nawet jeżeli poznalibyśmy już właściwości tych atomów. Znamy już odpowiedzi na niektóre z tych pytań, lecz analogiczne teorie nie osiągnęły jeszcze zadowalającego poziomu, by można było osiągnąć ten poziom zrozumienia, co w przypadku świata materialnego. Aby od czegoś zacząć, można zgodnie z prawdą stwierdzić, że atomami mózgu są w jakimś sensie komórki nerwowe czy neurony, o których już wspomnieliśmy, a mózg ludzki składa się z około dziesięciu miliardów takich atomów. Aby mógł funkcjonować, należy mu dostarczyć energii, a znaczny procent pożywienia, które zjadamy, jest przeznaczony na podtrzymywanie sprawnej pracy pomp sodowo-potasowych w naszych komórkach nerwowych, produkujących i transmitujących impulsy elektryczne. Komórki nerwowe przekazują sobie nawzajem sygnały w postaci bardzo krótkich impulsów elektrycznych, które płyną ciągle wzdłuż aksonów, na podobieństwo palącego się lontu. Każda komórka wysyła taki sygnał elektryczny, gdy zostaje wzbudzona potencjałem elektrycznym, docierającym od sąsiedniej komórki, przekraczającym pewną wartość progową. Komórka nerwowa funkcjonuje więc podobnie do mikroskopijnego elementu decyzyjnego, reagując wtedy, gdy impuls elektryczny ma wartość większą od krytycznej, a w innym przypadku pozostaje w stanie niewzbudzonym. Każdy z tych elementów przetwarza swoje dane wejściowe w tym samym mniej więcej czasie co i pozostałe elementy, a więc uzyskuje się równoległą obróbkę danych. Uświadomiono sobie obecnie, że taka metoda jest dużo sprawniejsza od przetwarzania szeregowego (w którym w tej samej chwili może pracować tylko jeden element), wykorzystywanego nawet w najnowocześniejszych komputerach. Poznano więc sposób, w jaki funkcjonuje mózg, i teraz powstają komputery, w których setki procesorów przetwarzają dane równolegle. Jednakże wydaje się, że mózg, ze swoimi dziesiątkami miliardów procesorów (komórek nerwowych) pracujących równolegle, jest jak na razie ideałem niedoścignionym. To jeszcze nie wszystko, kiedy bowiem impuls nerwowy dociera do zakończenia aksonu (zwanego synapsą od greckiego łączyć, ponieważ zakończenie aksonu wydaje się łączyć z przyległą błoną komórkową), powoduje wydzielanie się aktywatora chemiczno do wąskiej szczeliny pomiędzy aksonem a ścianą komórki. Właśnie ta substancja powoduje zmianę potencjału elektrycznego następnej komórki. Zmiana ta może mieć charakter wzmacniający, i wtedy działanie nazywamy wzbudzeniem, lub osłabiający potencjał elektryczny następnej komórki, i jest to proces hamujący. Synapsa stanowi również to ważne miejsce, gdzie różne substancje chemiczne, a w szczególności narkotyki, mogą oddziaływać na procesy zachodzące w mózgu, powodując depresje lub zmiany nastroju. Podsumowując: komórki nerwowe są podstawowymi atomami mózgu. Pobudzone wystarczająco silnie (ponad wartość progową) przez inne komórki wysyłają identyczne impulsy nerwowe do wszystkich komórek połączonych z nią gonami. Można wyróżnić dwie klasy komórek nerwowych: wzmacniające i hamujące. Na końcu włókna nerwowego impuls elektryczny zmienia się na sygnał chemiczny (tym tłumaczy się wrażliwość na działanie wszelkiego rodzaju narkotyków). Okazuje się, że w mózgu występuje kilkanaście różnych rodzajów komórek nerwowych. W obliczu tego wydaje się, że statystyczne (uśrednione) podejście umożliwiłoby analizę zachowania się większej liczby takich komórek i doprowadziłoby do stworzenia użytecznego opisu aktywności mózgu, a w dalszej kolejności do zrozumienia psychiki. Wygląda jednakże na to, że mózg jest zbudowany z połączonych grup jąder, co omawialiśmy na zakończenie poprzedniego rozdziału. Budowa i działanie mózgu jest bardziej skomplikowane niż dałoby się to opisać za pomocą uśredniania aktywności coraz większego zbioru połączonych ze sobą komórek. Komplikacje te wynikają z pewnością ze złożoności samego zachowania, na które składają się różne komponenty - emocje, percepcja, zamiary, świadomość, podświadomość, skupienie uwagi itp. Nie można znaleźć jakichś ogólnych zmiennych, opisujących stan takiego złożonego układu, w postaci porównywalnej do ciśnienia czy temperatury materii. Wydaje się konieczne wydzielenie w mózgu pewnych modułów czy części, w obrębie których takie ogólne zmienne staną się bardziej widoczne. Wstępna obróbka danych Wstępne przetwarzanie danych, docierających w postaci sygnałów słuchowych i wzrokowych, dokonuje się w zewnętrznych stanowiskach obliczeniowych mózgu, odgrywających bardzo ważną rolę. Działają one jak filtry dla samego mózgu, tak że to, co oko żaby przekazuje jej mózgowi, jest już wstępnie odsiane, jak zaznaczyliśmy w poprzednim rozdziale. Już nawet siatkówka oka ssaków ogranicza zestaw danych docierających do mózgu. Jednakże w miarę jak wspinamy się po drabinie ewolucji, widzi. my, że coraz mniej danych zostaje odfiltrowywanych w siatkówce zwierząt, a coraz więcej pozostaje do przetwarzania w korze (co, jak już mówiliśmy, jest konsekwencją zwiększających się wymagań). Musimy wiedzieć w jaki sposób dane są aktualnie przetwarzane. W przeciwnym razie nie jesteśmy w stanie właściwie ocenić problemu, stojącego przed pozostałą częścią mózgu, która usiłuje nadać sensu docierającym informacjom, zgromadzić je i zmagazynować oraz podjąć na ich podstawie decyzję, pozwalającą osiągnąć właściwe cele. Istotne jest również, aby dowiedzieć się, co naprawdę dzieje się w poszczególnych organach wstępnego przetwarzania, takich jak siatkówka, ślimak ucha czy układ nerwów węchowych. Siatkówka oka stała się przedmiotem bardzo intensywnych badań, ponieważ, jak ją trafnie nazwano, stanowi w zasadzie łatwo dostępną część mózgu. Badając ją lub inny podobny zespół, możemy wyrobić sobie zdanie na temat tego, jakiego rodzaju metody przetwarzania danych są stosowane w innych obszarach mózgu. Skoncentrujmy się teraz na siatkówce. Obraz jest często utworzony z obszarów o porównywalnej jasności, ograniczonych krawędziami i wierzchołkami. Obszary o stałej jasności i barwie zawierają niewiele informacji, więc nie muszą być przekazywane do mózgu w celu dalszej analizy. Jest to zbyteczne. Aby uniknąć nadmiaru informacji, siatkówka może przesyłać do mózgu jedynie dane o różnicy pomiędzy jasnością w jakimś punkcie a przeciętną jasnością w otaczającym obszarze. Jeżeli jasności te są takie same, to nie jest wysyłany żaden sygnał; nadmiar informacji zostaje wyeliminowany. Metoda ta jest wykorzystywana do przesyłania sygnałów telewizyjnych bardziej upakowanych niż w tradycyjnych liniach przesyłowych. Nasza siatkówka wydaje się wykorzystywać tę zasadę w sposób jak najbardziej efektywny, a wynika to z jej specyficznej budowy. Zewnętrzna warstwa komórek (zwana warstwą splotowatą) składa się z komórek nerwowych połączonych ze sobą bardzo licznymi odgałęzieniami, których liczba jest zwykle znacznie większa niż pomiędzy komórkami w mózgu. Połączeniami tymi przypływają sygnały elektryczne pomiędzy komórkami, przechodząc również przez bardzo wąskie złącza na styku dendrytów (włókna wyrastające z korpusu komórki) poszczególnych komórek. Układ taki nazywamy synapsami dendrytowymi. Zbudowana w ten sposób zewnętrzna warstwa splotowa przypomina do złudzenia siatkę połączonych oporników elektrycznych i została odmodelowana przez elektroników, wykorzystujących metody o wielkiej skali integracji, w postaci bardzo zwartego urządzenia nazwanego siatkówką krzemową. Wykorzystując rzeczywiste formy spotkane w przyrodzie, zbudowano również ucho krzemowe. Interesującą cechą transformacji dokonywanych przez siatkówkę jest podkreślenie konturów. Przy zbliżaniu się do jakiejś krawędzi od ciemniejszej strony przeciętna jasność coraz bardziej się zwiększa w kierunku wartości dodatnich, które są odejmowane od danej wyjściowej z komórki, w której wartość wynosi zero; jako wynik otrzymujemy wartość ujemną. Przy zbliżaniu się do krawędzi konturu od jaśniejszej strony, procedura jest odwrotna, aż do punktu w którym nie ma już żadnej różnicy pomiędzy sygnałami wyjściowymi a otaczającą jasnością. Wtedy nie ma już żadnej reakcji komórki. W ten sposób kontur ulega uwypukleniu i ciemna strona wydaje się jeszcze ciemniejsza, a jasna jaśniejsza. Taki efekt wzmacniania konturów odkryto również w siatkówce bezkręgowców, wykorzystującej podobną zasadę budowy, określaną teraz jako tłumienie boczne, ponieważ komórki tłumią sygnały innych receptorów docierających z przeciwnej strony krawędzi. Siatkówka bezkręgowców składa się z mnóstwa oczek zwanych ommatidiami. Do wszystkich z nich dociera światło przetwarzane równolegle. Światło padające aa ommatidium siatkówki, powiedzmy kraba, powoduje osłabienie sygnału wysyłanego dalej z pobliskich ommatidii, co zachodzi na skutek sprzężenia z pierwszym ommatidium, usiłującym osłabić reakcje swoich sąsiadów. Łatwo daje się to zaobserwować, gdy monitorujemy pojedynczy receptor, na którego jest skierowana wąska smużka światła. Skierowanie takiej samej smużki na sąsiednie ommatidium powoduje osłabienie sygnału pierwszego; kierując światło na dalsze receptory osłabiamy sygnał z drugiego elementu i w ten sposób zmniejszamy oddziaływania osłabiające na pierwsze ommatidium. Zasada tłumienia bocznego oraz osłabiania tego tłumienia jest wielce użyteczna do zrozumienia procesów zachodzących w wyższych obszarach mózgowia. Po przejściu światła przez zewnętrzną warstwę splotowatą, opisaną wcześniej, w siatkówce oka kręgowców zachodzi dalszy proces przetwarzania danych. U niższych zwierząt, w rodzaju królika, znaleziono komórki, które są wrażliwe jedynie na ruch przedmiotów w jakimś konkretnym kierunku, więc nazwano je sensorami ruchu. Wydaje się, że nasza siatkówka nie jest wyposażona w takie komórki wykrywające ruch i analiza przemieszczania się przedmiotów jest dokonywana dopiero w korze mózgowej. Powoduje to, że nasz system wykazuje większą elastyczność i jest zdolny analizować o wiele więcej różnych rodzajów ruchu niż tylko dość stereotypowe ruchy wykrywane przez królika. Rozpoznawanie przedmiotów Badania procesu przetwarzania danych wzrokowych doprowadziły do powstania bardzo ważnego pojęcia, jakim jest pole postrzegania. Wyobraźmy sobie umieszczony przed nami ekran o wymiarach metr na metr. Przyjmijmy, że w jakimś punkcie tego ekranu znajduje się plamka świetlna. Obszar na ekranie, który wywołuje reakcję w komórce siatkówki lub w korze, nazywamy polem postrzegania tej komórki. Receptory siatkówki mają kołowe pola postrzegania, które zwykle odpowiadają kątowi bryłowemu wynoszącemu nieco mniej niż jeden stopień. Kiedy sygnał wejściowy dociera do płatów wzrokowych wzgórza, to wartość ta odrobinę zmienia się. Obszar ten, umieszczony w górnej części pnia mózgu, jest stacją przekaźnikową na drodze do półkuli mózgu. Na drodze do płatów wzrokowych kory, umieszczonych w tylnej części mózgowia, sygnał ten nie ulega już zasadniczym zmianom. Na wejściu do obszarów wzrokowych istnieją jeszcze inne komórki, które działają jak receptory podziału. To tak, jakby obraz, który widzimy, ulegał podziałowi na poszczególne krawędzie i kontury, i tylko one były postrzegane. Ta wrażliwość na orientację zmienia się stopniowo przy przesuwaniu się po powierzchni mózgu, tak że po przejściu jednego milimetra obraz obraca się o całe trzysta sześćdziesiąt stopni. Przy tym wszystkie te komórki mają z grubsza to samo pole postrzegania. U człowieka mamy do czynienia z dodatkową komplikacją w postaci czułości na barwy. Wydaje się, że plamka świetlna każdej komórki ma rozmiary rzędu milimetra. Komórki te są wrażliwe na barwę w jakimś konkretnym punkcie oświetlonego ekranu, lecz nie odbierają sygnałów transmitujących dane o orientacji. Oznacza to, że dane o barwie i jasności są rozdzielane na dwa strumienie informacji. Sygnały wyjściowe z komórek siatkówki są dalej rozdzielane na strumienie niosące dane o ustalonej wartości oraz na te, które niosą dane krótkotrwałe, a każdy z tych strumieni jest odbierany przez inną warstwę kory, gdzie jest oddzielnie przetwarzany, w wyniku czego uzyskuje się dwa kanały przepływu informacji różne dla ruchu i jasności. Podsumowując możemy stwierdzić, że we wczesnych stadiach przetwarzania danych w ośrodkach wzrokowych kory następuje rozdzielenie sygnałów wejściowych na dwa strumienie, przenoszące informacje o barwie oraz ruchu i jasności oglądanego obrazu. Receptory podziału opisują jasność, dzieląc obraz na wejściu na poszczególne krawędzie. Każdy z tych strumieni informacji powstaje w różnych małych obszarach na wejściu. Takie rozwiązanie zapewnia nadzwyczajną elastyczność przetwarzanych zbiorów danych, lecz dostarcza wielu trudnych problemów. Po pierwsze, różne cechy (krawędzie, barwy, ruchy) obiektu znajdujące się w polu widzenia ulegają podziałowi na cechy postrzegane w jakimś konkretnym punkcie. Obraz jest później dzielony w celu dalszej obróbki, ale kiedyś musi być przecież odtworzony znowu w całości. W przeciwnym razie nie zostałby rozpoznany. Rozpoznaję swojego psa, gdy na niego patrzę na podstawie obrazu utworzonego z mnóstwa oddzielnych plamek, mających swoje własne cechy. W jaki sposób mogę rozpoznać w nim całego psa? W jaki osób kolory i jasność poszczególnych plamek tak dobrze do siebie pasują? Jeżeli pies porusza się, to w jaki sposób informacje o tym ruchu oraz o kolorze pozwalają mi rozpoznać, że to właśnie mój pies biega po pokoju? W następnych etapach przetwarzania danych w płatach wzrokowych kory podejmuje się dalsze czynności mające na celu stworzenie takich pełnych obrazów. Zaobserwowano, że poprzez kombinację sygnałów wejściowych z różnych zespołów komórek charakteryzujących pola postrzegania w różnych miejscach, na następnych etapach przetwarzania danych (w obszarach korowych) pola te odpowiednio się nakładają, prowadząc do wytworzenia całej przestrzeni widzenia. W tym procesie komórki rozpoznają coraz większe części obiektu, aż w końcu w korze powstaje cały obraz. Jednakże prosta rekombinacja addytywna tego, co uprzednio zostało podzielone, nie rozwiązuje wszystkich problemów. Informacje o ruchu, barwie i o krawędziach zostały dokładnie rozdzielone. Muszą by ć teraz zebrane razem, abym patrząc na mojego psa widział, że jest on złocistobrązowy, a nie przybiera barwy trawy, na której właśnie przed chwilą się wylegiwał. W rzeczywistości uszkodzenia mózgu mogą powodować takie zniekształcenia obrazu, że czerwień sukienki może zachodzić na twarz noszącej ją kobiety. Problem przed którym stoimy, dotyczy segmentacji obrazu (wydzielenia poszczególnych cech obrazu z jego tła) i późniejszego połączenia cech (barwy, krawędzi i ruchu) różnych fragmentów z powrotem w jedną całość. Ostatnie badania płatów wzrokowych kory przyniosły odkrycia, które wydają się zbliżać nas do rozwiązania tego problemu. Okazało się, że sygnały z krawędzi przedmiotu powodują synchronizację aktywności komórek płatów wzrokowych, pracujących jako sensory cech. Ta aktywność wykazuje oscylacje rzędu 30-50 cykli na sekundę. Synchronizacja reakcji komórek przebiega w innym rytmie dla różnych przedmiotów znajdujących się aktualnie polu widzenia. Tak więc dwa zbiory neuronów reagują w różny sposób na różne obiekty. Nie przedstawiono dotychczas jasnego rozwiązania problemu połączenia różnych cech danego przedmiotu. Sugeruje się, że istnieją różne sposoby etykietowania sygnałów docierających z poszczególnych zespołów komórek. Wydaje się, że należy wziąć pod uwagę jeszcze jeden bardzo ważny aspekt przetwarzania danych wzrokowych. Wszystko wskazuje na to, że uwaga, odgrywająca w całym procesie zasadniczą rolę, oddziałuje w sposób odmienny niż moglibyśmy oczekiwać. Wspomniałem wcześniej, że jednym z najważniejszych dokonań w dziedzinie komputerowego przetwarzania danych było wprowadzenie procedur równoległych. Połączone równolegle procesory umożliwiają podział pracy i w ten sposób poszczególne zadania mogą być wykonywane równolegle, każde na innym procesorze. Komputer pracujący równolegle staje się siecią składającą się z neuronów. Każdy z nich wykonywałby zdecydowanie prostą operację na sygnale wejściowym. Neuron decyduje, czy suma sygnałów wejściowych przekracza aktualną wartość progową i w takim przypadku wysyła krótki sygnał: działam. W przeciwnym razie nie odpowiada. Sztuczna sieć neuronowa wykonana z prostych elementów stałaby się ostateczną formą równolegle pracującego komputera. Wszystkie neurony pracują wtedy równolegle me czekając na swoją kolej. Jest to jeden z powodów, dlaczego w ostatnim dziesięcioleciu tak rozwijają się sztuczne sieci neuronowe. Unikają one szeregowego przetwarzania danych typu tylko jeden w tym samym czasie, znacznie spowalniającego standardowe obliczenia. Tego rodzaju sieci, o coraz większej liczbie neuronów, są stosowane do wykonywania skomplikowanych zadań produkcyjnych i do sterowania robotami, jak również do sporządzania prognoz, ruchomych obrazów oraz rozpoznawania mowy. Musimy pamiętać, że sztuczne neurony są zaledwie kiepską imitacją żywych komórek nerwowych i dlatego używając określenia sztuczny mózg musimy położyć nacisk raczej na wyraz sztuczny niż na mózg. Jeżeli liczba kanałów wejściowych do naturalnej czy sztucznej sieci neuronowej zwiększa się w wyniku zwiększającej się złożoności sygnałów (wzrokowych, słuchowych czy węchowych), to problem przyporządkowania danego sygnału do pewnej klasy staje się niezmiernie trudny. Szczególnie ma to miejsce wtedy, gdy w celu rozwiązania jakiegoś zadania należy zmodyfikować wagi połączeń pomiędzy neuronami. Wagi te są liczbami wskazującymi, jak silnie dany neuron oddziałuje na dalsze w szeregu. Ponieważ należy zmieniać coraz więcej wag, problem może stać się nierozwiązalny. Wydaje się, że moglibyśmy ominąć wiele z tych trudności wykorzystując procedury równoległego przetwarzania danych jednocześnie na kilku poziomach. Lecz w końcu do głosu dochodzi uwaga, która w sposób jeszcze nie do końca zrozumiały odfiltrowuje zbędne dane i znacznie zmniejsza złożoność problemu. Na bieżąco kontroluje się jedynie niewielką część całkowitego pola widzenia. Na przykład, podczas poszukiwania filiżanki są analizowane jedynie sygnały ucierające z obszarów będących w pobliżu miejsca, gdzie spodziewamy się ją znaleźć. Osiąga się to przez skupienie uwagi na filiżance, zmniejszając tym samym pola postrzegania odpowiadające komórkom wstępnego przetwarzania danych wzrokowych w korze. Bardzo interesującym zagadnieniem jest sposób, w jaki koncentrujemy uwagę na poszczególnych obiektach, szczególnie dlatego, że przyswojenie sobie tych metod dla sztucznych sieci neuronowych może mieć istotne następstwa. Rozporządzamy różnymi wskazówkami, które mogą doprowadzić do zrozumienia procesu koncentrowania uwagi, zachodzącego w ludzkim mózgu. Jeżeli na przykład poszukujemy litery P wśród innych, rozpraszających uwagę liter T, to cel w postaci P wyskakuje natychmiast, niezależnym od liczby T znajdujących się aktualnie w polu widzenia. Jeżeli natomiast uwagę rozpraszają litery R, to poszukiwania P trwają dłużej, ponieważ P i R wykazują podobne cechy. W rzeczywistości szukanie P wśród R pochłania czas proporcjonalny do liczebności R. To liniowe poszukiwanie celu, na podstawie pewnych konkretnych cech, wskazuje, że na wyższych poziomach sterowania istnieje pewnego rodzaju konkurencja postrzeganych wyróżniających cech przedmiotu, które muszą być wyobrażeniem celu. Jednocześnie badania ludzi z uszkodzeniami mózgu wskazują, że można wyrożnić trzy aspekty łączące się z koncentracją sterowaną przez różne obszary mózgowia. Pierwszym są czynności, sterowane przez obszary płata ciemieniowego w przedniej części kory, odwracające uwagę od obiektów w danym momencie nieistotnych. Tutaj w szczególności są przechowywane informacje o położeniu obiektu, a nie o jego dokładnym wyglądzie. Później następuje proces przesuwania uwagi, co wymaga już zaangażowania całego obszaru międzymózgowia, położonego obok wzgórza, nazywanego superior colliculus. W końcu musi nastąpić chwila skupienia uwagi na nowym obiekcie, co wymaga dokonania wyboru pomiędzy wieloma możliwymi znajdującymi się w polu widzenia. Ostatnie badania przepływu krwi w mózgu ochotników, poszukujących wybranych liter spośród innych rozpraszających uwagę wykazały, że proces przesuwania uwagi zachodzi w pewnych częściach wzgórza. Po dokonaniu wyboru jednego obiektu, sygnał wzrokowy przechodzi do sieci neuronowej płatów skroniowych (po obu stronach głowy) i dalej obszarów związanych z pamięcią w pobliżu hipokampa, o którym wspomnieliśmy jako o istotnym ośrodku odpowiedzialnym za procesy zapamiętywania. Jeżeli kiedyś zetknęliśmy się już z tym obiektem, dochodzi do jego rozpoznania i uwaga przesuwa się na inne cele. Jeżeli jednakże obiekt jest nieznany, następuje wnikliwsza analiza pozwalająca wyróżnić jego cechy. Nie jest do końca znany sposób kodowania informacji, zachodzący w tym obszarze, lecz wydaje się, że twarze są rozpoznawane na podstawie konturów, natomiast inne przedmioty na podstawie zewnętrznych cech całych powierzchni czy nawet objętości. Dotychczas nadal nie wiadomo, czy obiekty są rozpoznawane za pomocą kojarzenia poszczególnych części (mój pies jako zbiór jego nóg, łba, sierści itp.), czy też inaczej. Pamięć Powiedziano już, że pamięć jest domeną specjalnego organu, jakim jest hipokamp, natomiast dane mogą być przechowywane w sąsiednich obszarach mózgu. Pamięć stanowi amalgamat różnego rodzaju wspomnień. Pacjenci z całkowitą amnezją, dotyczącą na przykład nowych twarzy, mogą mimo to wykazywać zdolność przypominania sobie niedawno poznanych ludzi nie poprzez świadomy proces rozpoznawania, lecz choćby przez zmianę oporu elektrycznego skóry ich dłoni. Badania mające na celu wykrycie, jakie umiejętności pozostały ludziom pozbawionym hipokampa, doprowadziły do zaskakujących spostrzeżeń. Ludzie tacy nadal są zdolni nauczyć się takich skomplikowanych czynności, jak na przykład pisanie odwrócone (zwierciadlane bądź do góry nogami). Chociaż nawet nie są w stanie przypomnieć sobie, że kiedyś uczyli się takich czynności, to jednak nadal zachowują umiejętność ich wykonywania. Dlatego wydaje się, że istnieją różne typy pamięci powiązane z: umiejętnością wykonywania konkretnych czynności, rozpoznawaniem przedmiotów, wspomnieniami z przeszłości. Każda z nich funkcjonuje według odmiennych, sobie tylko właściwych procedur, lecz tylko niewiele z nich wymaga włączenia świadomości. Ponadto jest widoczna ewidentna różnica pomiędzy pamięcią o pewnych epizodach, takich jak na przykład zabójstwo prezydenta Johna F. Kennedy'ego a zdolnością do zapamiętywania słów czy znaczeń. Wydaje się, że pamięć związana z wydarzeniami wymaga udziału świadomości, podczas gdy zapamiętywanie znaczenia wyrazów jest procesem nieświadomym. Nie zdaję sobie sprawy ze znaczenia słów, które piszę i wypowiadam, aż do chwili, kiedy one się pojawią. Człowiek, któremu przez ułamek sekundy wyświetlano na stojącym przed nim ekranie jakieś słowo, zupełnie sobie tego nie uświadamia, ponieważ trwało to zbyt krótko, aby mogło dotrzeć do jego świadomości. Jednakże słowo to zostaje zapamiętane, co widać wtedy, gdy osobę tę poprosi się później o dokonanie wyboru pomiędzy podobnymi wyrazami - wybierze zwykle te pokazywane. Wszystko wskazuje na to, że ośrodki wzrokowego rozpoznawania wyrazów funkcjonuj ą podobnie jak receptory dzielące obraz na fragmenty bez udziału świadomości. Podsumowując, wydaje się, że pamięć objawia się przynajmniej w dwu postaciach. Jedna wymaga świadomego przetwarzania danych w hipokampie. Przywołanie jej, przy wstępnej ocenie zjawisk, z którymi się spotykamy, jest procesem świadomym. Druga postać nie wiąże się z hipokampem i świadomością i dotyczy takich odruchowych czynności, jak poruszanie się, rozpoznawanie wyrazów oraz innych podświadomych reakcji, choćby wspomniana uprzednio zdolność rozpoznawania twarzy. W drugiej połowie lat czterdziestych przedmiotem dyskusji naukowych stał się sposób, w jaki komórki nerwowe modyfikują wzajemne połączenia w odpowiedzi na przekazywane im sygnały (w ten sposób magazynując dane w pamięci). Sugerowano, że rozmiary zmian tych połączeń są uzależnione od intensywności sygnału na wejściu do neuronu oraz od skojarzonego z nim sygnału wyjściowego do neuronów docelowych. Jeżeli zarówno komórki na wejściu oraz na wyjściu zostały pobudzone, to wzajemne ich oddziaływanie ulega wzmocnieniu poprzez rozbudowę istniejących pomiędzy nimi połączeń. Jeżeli natomiast jedne z nich uaktywnią się, podczas gdy drugie pozostają w stanie uśpienia, to brak wzajemnych oddziaływań powoduje zmniejszoną gęstość połączeń. Badania płatów wzrokowych kory wykazały, że wśród neuronów panuje swego rodzaju rywalizacja, w wyniku której tylko w niektórych, wraz z otoczeniem, powstaje topograficzny odpowiednik docierających do mózgu informacji. Postrzegany obraz zostaje odwzorowany (z pewnymi zniekształceniami) na powierzchni mózgu. Takie rozwiązanie wykorzystano przy budowie sztucznych sieci neuronowych w wielu zastosowaniach przemysłowych. Sugerowano początkowo, że nie istnieje żaden organ nadzorujący proces uczenia się neuronów, by odpowiadały w z góry określony sposób na docierające do nich sygnały. Nauczanie takie nazwano nie nadzorowanymi. Później rozpatrywano również możliwość, że istnieje jakaś procedura nauczania, według której neurony reagujące prawidłowo zostają nagradzane, a te, których sygnał wyjściowy nie odpowiada dostarczonemu bodźcowi, są karane. Proces tak zwanego wzmożonego nauczania miałby prowadzić do wzrostu sieci połączeń w przypadku, gdy neurony są nagradzane, a do redukcji, gdy są karane. Odkryto, że opierając się na tej metodzie można zbudować sztuczne sieci neuronowe, przydatne do rozwiązywania konkretnych zadań \w procesach sterujących robotami lub procesami technologicznymi. To samo może zachodzić podczas szkolenia zwierząt, występujących na przykład w cyrku, gdzie system nagradzania jest podstawowym narzędziem tresury. Można w końcu postrzegać proces nauczania jako bieżący nadzór. Wtedy organ uczący dokładnie określa, jakie powinny być reakcje sieci neuronowej na docierające do niej sygnały. Takie rozwiązanie, uwzględniające bieżący nadzór, stało się, szczególnie w ostatnim dziesięcioleciu, bardzo rozpowszechnione przy projektowaniu sztucznych sieci neuronowych (mimo że wydaje się mniej przydatne do wyjaśnienia procesów uczenia się zwierząt). Przyczyną popularności takiego podejścia było to, że dzięki niemu znaleziono metodę szkolenia zamaskowanych elementów sieci. Nazwano je tak dlatego, ponieważ oczekiwane reakcje nie uwidoczniają się w sposób jawny: wysyłają bowiem swoje sygnały do innych neuronów w sieci bez pośrednictwa organu uczącego. Nauczono się odróżniać sygnały wiarygodne od wątpliwych, niezależnie od tego czy pochodzą one od zamaskowanych elementów sieci, czy nie. Liczne techniki nauczania nadzorowanego w sztucznych sieciach neuronowych zdobywają sobie coraz większą popularność na całym świecie. Metody te wykorzystuje się do rozwiązywania w przemyśle wielu trudnych problemów technicznych i organizacyjnych. Sieci neuronowe już dotarły do takich dziedzin, jak na przykład prognozowanie przyszłych trendów na giełdzie. Obecnie dąży się do zbudowania sieci, które będą lepiej przewidywać ceny akcji, niż robił to do tej pory doradca giełdowy. Można sobie wyobrazić, że kiedyś w przyszłości rynek finansowy będzie kontrolowany przez współzawodniczące między sobą sieci neuronowe, udoskonalane na bieżąco przez specjalne zespoły badawczo-rozwojowe. Cele i zamierzenia Popędy i działania wynikające z kondycji człowieka (chociaż może również i innych naczelnych) mają swoje podłoże w chęci osiągnięcia upragnionych celów oraz podobania się innym. To ostatnie ma swoje przyczyny psychologiczne i czasem może przerodzić się, na przykład, w chorobliwy brak łaknienia {anorexia nervosa). Cele wynikają zatem z chęci zaspokojenia popędów, takich jak dla głodnego staje się dobry stek i frytki. Popędy powstają w wyniku oddziaływania różnych substancji chemicznych, uaktywniających obszary limbiczne. Aktywności tej nie można wydatnie zredukować bez zaspokojenia celu; trudno zapomnieć o głodzie, dopóki porządnie sienie najemy. Celami jednakże nie są tylko konkretne przedmioty pożądania, lecz również przechowywana w pamięci ich reprezentacja. Wszystkie te procesy pociągają za sobą wykorzystywanie zapamiętanych skojarzeń, dotyczących pragnień (na przykład jedzenia), którym towarzyszy podniecenie wywołane odpowiadającymi popędami. Zbiór reakcji motorycznych musi również uwzględniać sposoby, w jakie te pragnienia będzie można zaspokoić w przyszłości. Połączenia różnych przechowywanych w pamięci skojarzeń (popęd plus cel plus reakcja) rozwijają się prawdopodobnie na drodze nauki, w wyniku bardzo długich ludzkich doświadczeń. Należałoby się spodziewać, że popędy uaktywniają wiele możliwych pragnień, lecz tylko niewiele z nich, być może zaledwie jedno, można w danym momencie wybrać jako najbardziej odpowiednie, w odpowiedzi na stymulację środowiska. Proces podejmowania decyzji wydaje się wymagać udziału świadomości, która podpowiada właściwy wybór. Niektórzy ludzie sporządzają sobie nawet listę możliwych czynności i klasyfikują je według tego, jaką mogą przynieść przyjemność. Planowanie przeprowadzane w mózgu odbywa się najprawdopodobniej w obszarach limbicznych, podczas gdy szczegółowa ocena konsekwencji może mieć miejsce w części płatów czołowych (co jest dość przykrym wnioskiem dla wspomnianego uprzednio Phineasa Gage'a, który dumny był ze swojej umiejętności planowania przyszłych zamierzeń). Wydaje się więc, że wszystkie procesy w tym czy innym momencie wymagają udziału świadomości. Omawiałem już wcześniej odkrycie ośrodków w obszarach limbicznych, odpowiedzialnych za doznania bólu czy przyjemności. Jednakże nic nie wskazuje na to, że istniej ą podobne centra odpowiedzialne za świadomość. Wydaje się, że ludzie z przeciętnym wiązadłem mózgowym mają dwie niezależne świadomości w rozdzielonych półkulach mózgowych. Czy świadomość powstaje w wyniku aktywności całego mózgu w taki sposób, że jest równomiernie rozłożona? Czy jest też czymś, co nigdy nie da się wyjaśnić w terminach fizycznych? 10. Konstruowanie rozumu Rozum a materia Proste, ale dosadne odpowiedzi na pytania: Co to jest materia? - w żadnym przypadku rozum, co to jest rozum? - w żadnym wypadku materia!, są w wielu społecznościach udzielane bez zastanowienia. Francis Crick, jeden z odkrywców struktury DNA, opowiadał, jak pewnego razu wdał się w rozmowę z siedzącą obok niego w samolocie kobietą. Na jej pytanie, czym się zajmuje, odpowiedział, że usiłuje zrozumieć naturę rozumu. Próbował wyjaśniać, że zasadniczym pytaniem jest to, w jaki sposób jego interlokutorka jest zdolna rozumieć otaczającą rzeczywistość. Ależ to bardzo proste. To tak jakby w mojej głowie znajdował się telewizor, na którym przesuwałyby się obrazy ze świata zewnętrznego. Ale któż je ogląda? zapytał Crick. W tym momencie dama ponoć uświadomiła sobie, że cała sprawa nic jest taka prosta. Faktycznie, problem jest niezmiernie trudny. Przez całe tysiąclecia filozofowie napisali mnóstwo wielce uczonych tomów, które, jak mogłoby się wydawać, powinny zawierać wszystkie możliwe odpowiedzi. Zawierały się one w zakresie od granicznego idealizmu, według którego cały wszechświat stanowi jedynie wymysł rozumu, aż do innej skrajności, według której tak naprawdę istnieje tylko materia, a rozum jest zaledwie pewnym zjawiskiem wtórnym, mimo niezaprzeczalnie bardzo subtelnej aktywności mózgu. Sukcesy rewolucji naukowej wskazują, że jest bardzo mało prawdopodobne, by materia, badana w pogoni za teorią wszystkiego z coraz większą precyzją i z coraz większym zrozumieniem, miała być tylko tworem naszej chorej wyobraźni. Coraz trudniej jest przeciwstawiać się twierdzeniu, że naprawdę istnieje gdzieś tam jakaś fizyczna rzeczywistość, niezależna od nas samych. Cały rozwój nauki jest oparty na takim założeniu i nie pozostaje nic innego, jak dalej kroczyć wzdłuż tej drogi. Znając jednak wpływ narkotyków, urazów głowy, medytacji i wielu innych podobnych zjawisk, jest również oczywiste, że substancja, z której zbudowany jest mózg, wyznacza z całą rozciągłością wrażenia psychiczne, jakie mogą powstawać w rozumie związanym z tymże mózgiem. Z wzajemnego uzależnienia rozumu i materii można wyciągnąć dwa wnioski. Jednym mogłoby być uparte odrzucanie tej zależności, mimo wyraźnych śladów wskazujących na to, że rozum jest doprawdy jedynie pewnym przejawem materii. Zgodnie z takim stanowiskiem, rozum miałby być odrębną, niezależną całością połączoną z materią w jakiś nieznany jeszcze sposób. Ponadto należałoby jeszcze wyjaśnić cechy charakterystyczne rozumu. Poglądy tego rodzaju są określane terminem podejścia dualistycznego i miały do niedawna wielu zwolenników. Należał do nich wybitny badacz mózgu sir John Eccles, który jeszcze w 1977 roku napisał: Mówiąc krótko, istnieje hipoteza, że samoświadomy rozum jest niezależnym modułem, zabudowanym w dominującej półkuli w obszarach łączących transmisje danych i odczytującym informacje docierające z niezliczonej liczby centrów nerwowych. Tego typu dualizm postuluje, że nauka jest w stanie osiągnąć jedynie taki stan rozumienia umysłu. Eccles dodaje: Pytanie, gdzie dokładnie jest zlokalizowany samoświadomy rozum, jest w zasadzie nie do rozstrzygnięcia. Alternatywny wniosek, który można wyciągnąć na podstawie potężnego wpływu, jaki materia wywiera na rozum, jest taki, że materia jest jego całkowitą i jedyną przyczyną. Konstrukcja stanów rozumnych z klocków materii, które są przecież w sposób oczywisty nie myślące i nie czujące, jest wyzywającym zagadnieniem wymagającym choćby próby jego rozwiązania. Podejmowanie tego wyzwania można obecnie dostrzec na wielu konferencjach, w niezliczonych czasopismach naukowych i książkach dotyczących badań mózgu. Nadchodzą pierwsze sygnały wskazujące na porażkę czysto behawioralnej szkoły psychologii, utrzymującej, że jest zdolna wyjaśnić wszystkie aspekty zachowania jedynie na płaszczyźnie opisu reakcji na bodziec i jej późniejszego wzmocnienia. Zwolennicy tej szkoły uważali za zbyteczne, a nawet wprowadzające w błąd, uwzględnianie wpływu wewnętrznej reprezentacji minionych doświadczeń. Na dodatek odmawianie zwierzętom kierowania się myśleniem przy podejmowaniu różnych czynności prowadziło do przekonania, że nie sposób wyjaśnić złożonych zachowań zwierząt ich stanami wewnętrznymi. Istnieją na przykład liczne wyniki doświadczeń wykazujące, że zwierzęta mogą przyswoić dość znaczny zasób wiedzy o środowisku bez dostrzegania jakiejkolwiek nagrody. Co więcej, szczur biega po labiryncie pozbawiony nagrody z tym mniejszą chęcią, im więcej się nauczy, ponieważ jego ciekawość zostaje zaspokojona; według ściśle pojmowanego behawioryzmu, w poszukiwaniu przynęty powinien biegać z coraz większym zapałem. Wydaje się, że potrzeba znacznie większej liczby doświadczeń, by zbadać dokładnie procesy uczenia się oraz percepcję różnych zwierząt. Ja sam podzielam to drugie stanowisko i przyjmuję, że rozum wynika ze stosownej aktywności materii. Jest ona bowiem podstawą wszelkiego istnienia. Ponadto takie podejście jest po prostu ekonomiczne, ponieważ eliminuje dwie różne formy istnienia, to jest rozum i materię, a wraz z tym dwa najoczywiściej nierozwiązywalne problemy: (a) naturę umysłu (co daje się zauważyć w cytowanej wypowiedzi Ecclesa) oraz (b) wzajemne oddziaływania pomiędzy rozumem a materią. Zamiast tego pozostajemy z miejmy nadzieję łatwiejszym do rozwiązania zagadnieniem skonstruowania rozumu z materii. Chociaż wielu utrzymuje, że problem jest nadal nierozwiązywalny. Przekonanie o zbyt wielkiej złożoności stanowi argument przeciw możliwości skonstruowania fizycznego modelu rozumu i zagadnienie pozostaje zbyt trudne do rozwiązania także w przyszłości. Mózg jest zbudowany z miliardów neuronów, a wszystkie są niesłychanie skomplikowanymi strukturami z mnóstwem wzajemnych połączeń i funkcji, a więc twierdzi się, że nigdy nie będziemy potrafili przeprowadzić gruntownych badań. Jeżeli nawet uda się nam pojąć sposób funkcjonowania, powiedzmy, płatów wzrokowych czy węchowych kory, to i tak będą to bardzo iluzoryczne osiągnięcia, ponieważ całość mózgowia, ze wszystkimi obszarami pracującymi we wzajemnych powiązaniach, jest nieskończenie bardziej złożona. Jest to trudność, z której neurolodzy zdaj ą sobie sprawę. Reagowali na nią w przeszłości poprzez zwykle podejście redukcjonizmu, badając coraz głębsze struktury na coraz mniejszych odległościach. Zaczęli zdobywać wiele nowych informacji o wpływie działania różnych substancji chemicznych oraz o zmianach aktywności pewnych komórek nerwowych. Wydaje się jednak, że neurologia poczyna się rozmywać w podziale na coraz więcej specjalizacji. Nawet w neuroanatomii jeden kolega mówi do drugiego: Przykro mi, ale nie mam pojęcia o organie A, jestem od organu B. Wynika to z pogłębiającej się szczegółowości nauki; często cytowaną charakterystyką naukowca jest: Ktoś taki, kto wie coraz więcej o coraz mniejszym obszarze wiedzy. Jakże inna jest to sytuacja od czasów Miltona, kiedy za człowieka wykształconego uchodził dopiero ktoś, kto znał równie dobrze naukę jak i sztukę. Bez wątpienia postępująca specjalizacja czyni argument o złożoności wiedzy jeszcze silniejszym. Doprawdy, komórki nerwowe są niezmiernie złożonymi urządzeniami, a ich agregaty są jeszcze bardziej skomplikowane. Ilość wchodzących w rachubę substancji chemicznych jest wprost przerażająca. Do tego dochodzi cały zbiór programów czy modułów działania całego mózgu, na podstawie których należałoby wyjaśnić jego funkcjonowanie. Wyjaśnienie to powinno uwzględniać, jako jedną z zasadniczych cech, pojawienie się świadomości. Powiedziałem wcześniej, że tematom związanym ze świadomością poświęca się gwałtownie rosnącą liczbę publikacji oraz konferencji. Jak zauważyłem, następuje coraz większa fragmentaryzacja neurologii; zwiększające się gwałtownie zainteresowanie świadomością wydaje się bardziej dotyczyć filozofów i psychologów. Pomimo całego zrozumienia dla tego rodzaju wnikliwych przedsięwzięć nie wydaje się, aby zbliżyły nam rzeczywisty obraz całej machiny mózgu. W niedawno wydanej książce filozoficznej można znaleźć następującą uwagę dotyczącą świadomości: ... nasz, z anatomiczną dokładnością nie dający się określić, zakres rywalizacji pomiędzy koalicjami specjalistów ... a wypowiedzianą w kontekście dyskusji prowadzonej pośród specjalistów z dziedziny aktywności korowej związanej ze świadomością. W innej świeżo wydanej książce traktującej o świadomości znajdujemy zaledwie jeden krótki rozdział o ewentualnym wykorzystaniu globalnego podejścia badawczego (w którym przetwarzane sygnały wejściowe są rozprzestrzeniane po całej korze, tak że wie o nich każda jej część) i na tym kończy się omawianie mózgu. Jednakże mimo powstrzymującego rozwój wpływu daleko posuniętej specjalizacji, należy się spodziewać, że neurologia zacznie i w końcu odnosić liczące się sukcesy. Według innego neurologa, ostatnie próby wyjaśnienia natury rozumu na podstawie zasad doboru naturalnego Dar-wina doprowadziły do koncepcji, że mózg nie zachowuje się jak mechanizm, a raczej jak małe zwierzę, być może leniwiec. Wydaje się, że żaden z neurologów nie zdaje sobie sprawy, jak naprawdę może funkcjonować realna ma-. szyna złożona. Pomijanie oraz zaniedbywanie koncepcji mogących tłumaczyć, w jaki i Sposób mózg mógłby funkcjonować stając się umysłem, jest piętą achillesową materialistów. Nie dostarczono jeszcze żadnego rysunku technicznego, mogącego kogokolwiek przekonać, że może istnieć mechanizm, którego funkcjonowanie powodowałoby powstanie świadomości wynikającej z aktywności mózgu. Trudno jest przewidywać, jeśli w ogóle jest to możliwe, jakieś przyszłe istotne doświadczenia, które mogłyby obalić teorię materialistyczną. Przedsięwzięcie, zarówno z idealistycznego, jak materialistycznego punktu widzenia, wydaje się niezmiernie wrażliwe na reakcję w rodzaju „to mnie nie przekonuje". Tego typu reakcja spotkała niedawno wydaną książkę Rodneya Cotterilla „No Ghost in the Machine" (co w wolnym przekładzie znaczyłoby „Maszyna bez ducha"). Troszcząc się o prawdę naukową w tezach tam zawartych, autor skonkludował: Zdecydowałem się raczej całkowicie przejść na stronę zwolenników determinizmu. Determinizm jest ideą, według której doświadczenia psychiczne człowieka są całkowicie uwarunkowane aktywnością fizyczną mózgu i nie ma miejsca na wolną wolę. Chociaż silne przekonanie autora o wyższości materii nad rozumem było oparte na silnych podstawach, co znalazło swoje odbicie w tytule książki, mimo to nie można się w niej doszukać, w jaki sposób, z tak niewątpliwie delikatnej i subtelnej aktywności mózgu, mogła narodzić się świadomość, istniejąca przecież w rzeczywistości. Furtka nie została zatem domknięta. Cały mój wysiłek w tym rozdziale ma na celu uniknięcie tego samego losu i próbę zamknięcia furtki dokładnie. Wymaga to dyskusji o tkankach mózgowia, co nie jest popularną metodą wśród tak zwanych funkcjonalistów. Uważają oni funkcjonowanie mózgu za najistotniejsze, przywiązując mniejszą wagę do jego rzeczywistego mechanizmu. Takie podejście ma swoje poważne zalety, ale również jest obdarzone wyżej wzmiankowaną słabością, polegającą na tym, że jest nieprzekonywające, dopóki nie przedstawi się ostatecznego rysunku technicznego. Aby posunąć naprzód zagadnienie dotyczące możliwie szczegółowego mechanizmu świadomości, spróbuję wykorzystać charakterystykę przepływu informacji, obserwowaną w samym mózgu, pod wpływem różnych stanów psychicznych, na ile pozwolą na to wskazówki uzyskane na podstawie ogólnego schematu obwodów mózgowia. Można żywić nadzieję, że poprzez wyważoną równowagę pomiędzy funkcjonowaniem a wykorzystaniem zarysów rysunku technicznego, doprowadzi się do powstania rozumnej maszyny. W taki interdyscyplinarny sposób może uda się zebrać razem poglądy oraz informacje filozofów i psychologów z jednej strony, a neuroanatomów i neurofizjologów z drugiej. Czy z logicznego punktu widzenia myśląca maszyna jest możliwa? Prawie przed trzydziestu laty, w wielce pobudzającym do myślenia artykule, stwierdzono, że maszyna nie mogłaby być istotą ludzką. Opierano się tam na fundamentalnych pracach dokonanych w latach trzydziestych, odnoszących się do kwestii istnienia bezspornych wypowiedzi. Chodzi o sformułowania powstałe na drodze dedukcji, podobne do twierdzeń w matematyce, o których nie można nigdy zdecydować czy są prawdziwe, czy też fałszywe. Wykazano wtedy, że takie wypowiedzi można skonstruować w dowolnym języku, oby tylko miał wystarczającą strukturę gramatyczną. Późniejsze badania wykazały, że niezależnie od bezsporności takich wypowiedzi, my, jako ludzie, potrafimy ocenić, czy dane stwierdzenie jest prawdziwe. To tak, jakbyśmy potrafili wykorzystywać jakiś język nadrzędny w stosunku do tych, w których można formułować twierdzenia o wątpliwej, lub nie dającej się udowodnić, prawdziwości. Oznacza to, że każda maszyna, skonstruowana nawet z umiejętnością logicznego argumentowania w którymkolwiek z nawet bardzo rozwiniętych języków, pozostanie zawsze ograniczona w porównaniu z nami. Ponieważ każda maszyna jest konstruowana tak, by posługiwać się tym lub innym językiem (choćby językiem oprogramowania), to nigdy nie będzie zdolna argumentować czy myśleć tak skutecznie jak my. Dlatego maszyny nie są istotami ludzkimi. C.b.d.u. Oparta rzekomo na logice teza, że maszyny nie mogą stać się ludźmi, czy też, że ludzie nie są maszynami, zrobiła w swoim czasie furorę i doprowadziła do frontalnych kontrataków we wszystkich publikacjach naukowych. Przedstawiono liczne kontrargumenty, którym nadawano tytuły w rodzaju: Lucas przeniósł się w końcu na tamten świat (John Lucas był twórcą omawianej tezy). Jednakże, pomimo ich erudycji, żaden nie osiągnął celu. Wszystkie próbowały wyszukiwać słabe punkty teorii, lecz Lucas kontrował, argumentując skutecznie, i pozostał całkowicie niepokonany. Problem, jaki postawił przed zwolennikami czysto materialistycznego podejścia do myśli (czasem zwanego silniej jako A[rtificial] I[ntelligence] sztuczna inteligencja, z tej racji, że wielu członków społeczności AI wierzy dotychczas, jakoby myśl można było przedstawić wyłącznie w postaci łańcucha argumentów), brzmi następująco. Weźmy jakiś język L i wypowiedzmy w nim: To zdanie nie da się udowodnić w L. Czy jest to sformułowanie fałszywe, czy nie? Istnieją cztery możliwości. Zdanie to jest prawdziwe (lub fałszywe) i daje się udowodnić (lub nie). Nie ma innych możliwości. Lecz nie może być jednakże jednocześnie prawdziwe i dające się udowodnić (ponieważ, jeżeli byłoby prawdziwe, to nie dałoby się udowodnić) ani nie może być również jednocześnie nieprawdziwe i dające się udowodnić (ponieważ jeżeliby było udawadnialne, wtedy byłoby, ipso facto, prawdziwe i dopuszczałoby istnienie dowodu, a tym samym prowadziłoby do sprzeczności). A w końcu nie może być jednocześnie nieprawdziwe i nie dające się udowodnić (w takim przypadku byłoby w sposób najoczywistszy prawdziwe). Stąd pozostaje jedyna możliwość: jest prawdziwe i faktycznie nieudowadnialne. Możemy zatem dostrzec jego prawdziwość, lecz w języku formalnym nie sposób tego udowodnić. Taki rezultat wyraźnie prowadź do bardzo silnych ograniczeń ewentualności istnienia AI. Nie można sobie na przykład wyobrazić zbudowania maszyny zdolnej do rozwiązania istotnych problemów matematyki. Matematycy, by konstruować nietrywialne struktury matematyczne i udowadniać poważne twierdzenia, są zmuszeni podchodzić do problemu w sposób niealgorytmiczny lub wręcz twórczo stosować przeróżne triki. Kwestia ta odżyła na nowo stosunkowo niedawno, gdy pojawiły się twierdzenia, że musimy jakoby zmodyfikować prawa fizyki stosowane do opisu struktur mózgu, uwzględniając aspekty mechaniki kwantowej, a szczególnie grawitacji kwantowej. Lecz wydaje się to wielce nieprawdopodobne, jako że energie wymagane do tego, by wejść na obszary mechaniki kwantowej, są kilka rzędów wielkości wyższe niż te, z którymi mamy do czynienia w mózgu (mają one wartość kilku elektronowoltów) i nie osiągnięto ich jeszcze nawet w najnowszym ogromnym akceleratorze CERN-u ani w USA. Niealgorytmiczne myślenie występujące w naszym mózgu musi mieć jakieś prostsze wytłumaczenie, bez konieczności uciekania się do szybkości bliskich światłu, uzyskiwanych w akceleratorach w celu osiągnięcia wymaganych energii. Byłbym zdania, że zamiast modyfikować prawa fizyki, powinniśmy spróbować zrozumieć szczegółowo mechanizm świadomości, a tym samym wyrobić sobie pojęcie o nieświadomych procesach zachodzących w mózgu. Jedynie wtedy możemy oczekiwać zbliżenia się do zrozumienia procesów twórczych czy to w matematyce i sztuce, czy też w fizyce i literaturze, bądź w biologii lub muzyce. Zasadnicze tropy Jak wspomniałem wcześniej, neurologia poczyniła znaczące postępy w analizie mózgu, badając coraz mniejsze jego fragmenty. Nie pomogło to jednakże wiele w zrozumieniu, w jaki sposób mózg funkcjonuje jako całość. Potrzebowalibyśmy teraz diagramu przepływu informacji wykazującego, jaką drogą sygnał wejściowy przechodzi z jednego obszaru do innego i jak w końcu jest uruchamiana aktywność motoryczna. Pomiędzy tym wszystkim musimy prześledzić powstawanie ocen emocjonalnych, uaktywnienie pamięci, podejmowanie decyzji itp. Bardzo trudno to osiągnąć, pomimo przebadania niezliczonej liczby przypadków organicznych uszkodzeń mózgowia, powodujących ułomne przetwarzanie danych oraz pomimo wielkiej liczby doświadczeń ze zwierzętami, których celem było szczegółowe zbadanie funkcji poszczególnych obszarów mózgowia. Badania osób z urazami czaszki są oczywiście ograniczone przede wszystkim tym, że dotyczą tylko pewnych określonych obszarów mózgu, a poza tym nie wszystkie mózgi są przecież identyczne pod względem fizycznym. Prace ze zwierzętami doświadczalnymi są głównie pomocne , do zrozumienia zachowań ich samych, lecz niekoniecznie muszą być dokładnie analogiczne do ludzi z odmiennymi przecież mózgami. Gdyby zresztą zwierzęta miały podobne mózgi, to równie dobrze mogłyby przeprowadzać doświadczenia na nas! Pomimo wszystko w minionych dziesięcioleciach, a w szczególności w ostatnim, dokonano znaczącego postępu w dziedzinie technik badawczych, zwiększając ich czułość na tyle, że można było mierzyć aktywność w obszarze całego mózgowia podczas różnych stanów emocjonalnych, podczas stanu czuwania z rozproszona uwagą, w czasie snu itp. Techniki te nie wymagają wkraczania chirurgii, lecz wykorzystują, na przykład, implantowane na stałe elektrody, umieszczane w tkance mózgu poprzez niewielkie otwory wywiercane w czaszce (takie, jakie wykonuje się rutynowo przy epilepsji, by dowiedzieć się, który region mózgu wywołuje napady, co umożliwia jego ewentualną resekcję). Elektrody tego typu nazywa się nieinwazyjnymi i mogą być zastosowane u każdego człowieka przy małym lub wręcz żadnym poczuciu dyskomfortu. Techniki te uwzględniają również pomiary małych prądów krążących na powierzchni czaszki (metoda znana pod nazwą elektroencefalografii lub EEG) oraz pól magnetycznych o bardzo małym natężeniu, wytwarzanych aktywnością mózgu (magnetoencefalografia lub MEG). Istnieją również inne możliwości, w rodzaju monitorowania przepływu krwi w pewnych regionach mózgowia za pomocą zwiększonej emisji cząstek rozpadu radioaktywnego substancji podanej pacjentowi dożylnie czy badania wpływu pól magnetycznych na tkankę mózgowia. Tę ostatnią technikę zastosowano do badania tych obszarów mózgu, które są zaangażowane przy rozpoznawaniu obiektów, tematu omawianego wyżej. Pomiarów EEG dokonuje się poprzez małe elektrody umieszczone na czaszce badanej osoby. Drobne wahnięcia przepływu prądu elektrycznego, później silnie wzmacniane, stanowią oznakę aktywności mózgowia leżącego bezpośrednio poniżej. Pierwszych takich pomiarów dokonano w 1928 roku, lecz przez następne lata były lekceważone. Interpretacja aktywności mózgu oparta na oscylacjach prądów, nadal graniczy z kuglarstwem, lecz bez wątpienia dzięki temu jest możliwe odkrywanie ognisk epileptycznych, jak również stwierdzenie zgonu. Jednak nawet te niewątpliwe oznaki są dyskusyjne, ponieważ za pomocą EEG nie jesteśmy w stanie pomierzyć aktywności głęboko umieszczonych struktur mózgowia, a właśnie tam może również znajdować się siedlisko ataków epileptycznych, których wpływ dopiero później sięga warstw powierzchniowych. Płaska krzywa EEG, zwykle poczytywana jako niezbita oznaka śmierci, może jednakże zdarzyć się u ludzi silnie wychłodzonych, silnie zatrutych, a także u niektórych dzieci: w żadnym z takich przypadków osobnik w rzeczywistości nie zmarł, o czym mógłby świadczyć zapis EEG. W dalszym ciągu odnotowuje się jednak stałe postępy analizy EEG. Daje się zaobserwować pewne charakterystyczne cechy synchronizacji i prędkości zmian fal mózgowych w zależności od stanu psychicznego, w jakim znajduje się osoba poddana badaniom. Można wyróżnić cztery zasadnicze rodzaje różnych rytmów: Alfa (8-13 Hz, występujące, gdy rozum wypoczywa). Beta (ponad 13 Hz, gdy jest aktywny), Theta (4-8 Hz, gdy jest senny) oraz Delta (poniżej 4Hz, gdy śpi). Piąty rytm, Gamma (25-60Hz, występujący w stanie aktywności) budzi największe zainteresowanie i stanowi źródło wiadomości o tym, czy pacjent w narkozie zachowuje jeszcze świadomość. Rozważmy następujący raport pacjenta, który został uśpiony w celu operacji chirurgicznej: Poczucie bezsilności było przerażające. Próbowałem powiadomić zespół operujący, że zachowuję świadomość, lecz nie mogłem ruszyć ani palcem, ani nawet powieką. Czułem się jak w imadle i stopniowo zacząłem zdawać sobie sprawę, że znajduję się w sytuacji bez wyjścia. Poczułem, że nie mogę nawet oddychać i pogodziłem się już ze śmiercią. Kiedy wyszedłem z narkozy, nie mogłem pojąć, jakim cudem jeszcze żyję i znajduję się na stole operacyjnym. Byłem w stanie obserwować chirurgów w drugim końcu stołu i myślałem: Boże, nie tnijcie mnie, jestem w pełni świadomy. Próbowałem im to powiedzieć, lecz nie mogłem wypowiedzieć ani słowa, nie byłem w stanie poruszyć się, to było najgorsze doświadczenie mojego życia. Widzimy więc, że pacjent w pełni zachował świadomość, lecz nie był w stanie tego przekazać. Oczywiście, tego typu przeżycia zdarzają się mniej niż jednej dziesiątej procent pacjentów poddanych znieczuleniu ogólnemu (narkozie), ale jeśli uwzględni się około trzydziestu milionów operacji przeprowadzanych corocznie w samych Stanach Zjednoczonych, to możemy mieć do czynienia z tysiącami takich przypadków. Ostatnie badania wykazały, ze kluczowym wskaźnikiem świadomości mogłaby stać się specyficzna odpowiedź, w rytmie gamma, pnia słuchowego na krótki dźwięk. Tego rodzaju wzór EEG został zaobserwowany u większości pacjentów, będących w pełni świadomych. Odpowiedź ta występuje setne części sekundy po usłyszeniu kliknięcia i trwa przez około dziesiątej części sekundy. W stanie narkozy te typowe oscylacje gamma nie występują. Co więcej, istnieją świadectwa, opowiadane przez chirurgów praktyków, że jeśli pacjent wykonuje jakieś spontaniczne ruchy, w odpowiedzi na wydawane między sobą polecenia, znajduje to natychmiast odbicie również na zapisie gamma EEG. Doprowadziło to do przekonania, że dopóki występują oscylacje gamma, pacjent jest wciąż do jakiegoś stopnia świadomy. Podobne oscylacje gamma zaobserwowano w pojedynczych neuronach płatów wzrokowych lekko uśpionego kota, gdy znalazł się w oświetlonym obszarze. W istocie, odkryto, że nawet para komórek nerwowych oscyluje bardzo podobnie nawet wtedy, gdy komórki znajdują się w różnych półkulach. Podobne oscylacje znaleziono w komórkach nerwowych międzymózgowia, a w szczególności w stacji przekaźnikowej wzgórza, omawianego wcześniej. Te efekty mogą mieć istotne znaczenie dla świadomości. Inna technika, MEG, dostarczyła ekscytujących odkryć, które mogą stać się zaczątkiem zrozumienia wzajemnych powiązań pomiędzy aktywnością .kory i międzywzgórza (a w szczególności wzgórza). Było to możliwe dzięki temu, że pola magnetyczne mogą penetrować głębsze obszary mózgu. Jeżeli doświadczenie jest prowadzone z należytą dbałością, można ustalić położenie tych komórek nerwowych, których aktywność (pobudzenie) powoduje powstawanie najmniejszych pól magnetycznych. Zestaw przyrządów do takiego doświadczenia musi obejmować wiele detektorów pola magnetycznego (w ostatnich doświadczeniach było ich aż trzydzieści siedem), podobnie jak w przypadku pomiarów EEG, w których wykorzystuje się do szesnastu elektrod rozmieszczonych wokół czaszki. Detektory pola magnetycznego, o bardzo wysokiej czułości, zdolne rejestrować bardzo subtelne pola magnetyczne (o kilka rzędów wielkości mniejsze od ziemskiego pola magnetycznego), rozmieszcza się we właściwy sposób wokół głowy badanego. Wykorzystywane są w nich urządzenia nadprzewodzące typu SQUID, o których wspomniano w poprzednich rozdziałach. Jednak same doświadczenia muszą być przeprowadzane w specjalnie zaprojektowanym pomieszczeniu, z osłonami magnetycznymi, co pozwala dopiero wyeliminować możliwe zakłócenia, powstałe na skutek zmian ziemskiego pola czy też wpływu przejeżdżających samochodów itp. Najważniejszym odkryciem, chociaż ciągle kontrowersyjnym, było to, że kiedy pojawia się stan wzmożonej uwagi, następuje gwałtowny wzrost intensywności rytmu gamma. Rozpoczyna się on na przedzie głowy, a następnie przesuwa się szybko do tylnych regionów czaszki. Co najważniejsze, wydaje się, ze cała aktywność rozpoczyna się w obszarze międzywzgórza, prawdopodobnie we wzgórzu, i wyprzedza aktywność korową o trzy milisekundy. Jest to bardzo krótki okres i odpowiada przejściu impulsu nerwowego ze wzgórza do kory. Dodatkowo, względna moc aktywności kory i wzgórza podczas takiego wzbudzenia wydaje się największa u młodych ludzi, powiedzmy dwudziestoletnich, i zmniejsza się wraz z wiekiem. Szczególnie daje się to zaobserwować u ludzi dotkniętych chorobą Alzheimera. Występowanie wzmożonej aktywności rytmu gamma oraz jego uzależnienie od wieku i aktywności kory i wzgórza wyjaśnia wiele koncepcji i cech funkcjonowania mózgu jako całości. Już w latach sześćdziesiątych różni neurolodzy przewidywali, że aktywność mózgu rozpoczyna się od płatów czołowych, gdzie docierają sygnały wejściowe i gdzie są formułowane spostrzeżenia. Ta teoria wyładowania korowego manifestuje się obecnie jako przesuwanie rytmu gamma od przodu do tyłu mózgowia. Przetworzone w mózgowiu sygnały wracają na zasadzie sprzężenia zwrotnego do płatów czołowych, gdzie jest dokonywana analiza porównawcza. Należy przeprowadzić jeszcze wiele doświadczeń, które uwiarygodniłyby tę teorię, lecz możliwość tego rodzaju trybu przetwarzania jest bardzo sugestywna. Kolejną interesującą cechą jest zwiększająca się dominacja wzgórza nad korą w miarę starzenia się ludzi. Może to mieć związek ze zmniejszającą się z wiekiem elastycznością psychiczną, a co dotąd zwykliśmy przypisywać jedynie stwardnieniu tętnic, czyli postępującej sklerozie. Jak widać, coraz większa dominacja wzgórza nad korą (wynikająca z coraz słabszych połączeń korowych lub z innych względów) może odgrywać również istotną rolę. Umysł relacyjny Od najmłodszych lat pasjonowała mnie zagadka natury rozumu. Przypominam sobie spacery z moim ojcem po wrzosowiskach wokół Lancashire, kiedy miałem dwanaście czy trzynaście lat i kiedy ojciec opowiadał mi o poglądach różnych filozofów na naturę rozumu oraz przedstawiał swoje koncepcje. Rozpocząłem podróż przez życie stając się fizykiem teoretycznym, chcąc najpierw dowiedzieć się jak najwięcej o świecie materialnym-Obraz tego, co zrozumiałem, starałem się przekazać w drugiej części tej książki-Jednak na zawsze pozostałem zafascynowany naturą umysłu. W analizie świata fizycznego doszedłem najdalej jak tylko mogłem, analizując przed kilku laty teonę superstrun. Wtedy również uświadomiłem sobie, że prawdopodobnie nie istnieje żadna teoria wszystkiego, a fizyka wysokich energii będzie bez końca badać naturę wszechświata. W tym samym mniej więcej czasie nastąpił gwałtowny postęp w badaniach sieci neuronowych mózgu oraz powstawały komputery o coraz większej mocy obliczeniowej i wtedy uświadomiłem sobie, że nadszedł czas dla teoretyków podobnych do mnie, którzy zaangażują się w kwestie zrozumienia mózgu i umysłu. Z aktualnymi osiągnięciami dotyczącymi budowy mózgu zetknąłem się już we wczesnych latach siedemdziesiątych, gdy byłem związany z badaniami sieci neuronowych. Kiedy niedawno powróciłem do tego samego obszaru badań oraz w sposób wyczerpujący przestudiowałem dostępną literaturę, doszedłem do przekonania, że kwestia wyjaśnienia jaźni czy subiektywnej natury doznań psychicznych ciągle nie jest rozwiązana. Zacząłem znowu pracować nad moją teorią umysłu relacyjnego i wykorzystywać ją jako swego rodzaju przewodnik rozwoju świadomego ja. Spróbuję w następnej części omówić najpierw Relacyjną Teorię Umysłu (którą stworzyłem dwadzieścia lat temu, lecz dopiero niedawno opublikowałem) i rozwinąć temat świadomego ja. Istotą koncepcji umysłu relacyjnego jest założenie, że stany psychiczne powstają w wyniku porównania bodźców napływających aktualnie z bodźcami przechowywanymi w pamięci, z którymi zetknęliśmy się w przeszłości, oraz ze stanami, które one wtedy wywołały (i w tym samym czasie również zostały najprawdopodobniej zapamiętane). Miniona reakcja zmysłowa na doświadczane wtedy bodźce leży u źródeł głębokiego znaczenia, jakie nadajemy wszystkim nadchodzącym sygnałom z otoczenia. Błękit nieba, który widzę podnosząc wzrok znad mojego biurka, ma dla mnie znaczenie nie tylko dlatego, że ma tak intensywny i sobie właściwy kolor, lecz również dlatego, że przywołuje w mojej pamięci wspomnienie błękitnego nieba, które doświadczałem w przeszłości leżąc na wzgórzu i wpatrując się w wydawałoby się nieskończoną głębię nade mną czy też opalając się w piekącym słońcu na plaży w Bretanii albo siedząc na leżaku w ogrodzie jednego z domów, w którym przyszło mi kiedyś mieszkać itp. Wszystko to tworzy cały zestaw relacyjnych odniesień pamięciowych, dających każdemu z nas poczucie świata wewnętrznego, który w sobie nosimy. Dla każdego jest to świat jedyny w swoim rodzaju, ponieważ wszystkie moje doświadczenia z przeszłości, kojarzące się z błękitem nieba czy innym bodźcem, różnią się całkowicie od tych, które miał ktoś inny. Mój świat jest również bardzo osobisty i prywatny, ponieważ bardzo trudno odsłonić minione przeżycia moje czy kogokolwiek innego. Można by pomyśleć, że rejestrując obrazy na wideo dałoby się tego dokonać, lecz jest to zupełnie niemożliwe, ponieważ istnieją przecież doznania wewnętrzne, które są niemal całkowicie niedostępne. Można by próbować odsłonić naturę przechowywanych w pamięci doświadczeń, usiłując zmierzyć przepływy sygnałów w sieci neuronowej w odpowiadających obszarach pamięci mózgu danego osobnika. To znowu jest skrajnie niepraktyczne; nawet jeżeli znalibyśmy poszczególne wartości, to nie znalibyśmy żadnych cech przechowywanej pamięci, ani też w jaki sposób są kodowane. Mój osobisty świat psychiczny, własny i każdego innego, pozostanie prywatny jeszcze przez długi czas. Mimo prawie całkowitej niemożliwości dokładnego zbadania w ten sposób czyjegoś umysłu z zewnątrz, nie ma żadnych powodów, by nie próbować pojąć tego nieuchwytnego i wymykającego się rozumu. Mówiąc ogólnie, wyjaśnienia typu relacyjnego pozwalają przynajmniej wyobrazić sobie, w jaki sposób umysł mógł narodzić się z całkowicie fizycznej aktywności. Porównanie (relacje) bieżących doświadczeń z minionymi, zbieranymi w miarę dorastania, a później starzenia się, prowadzi do wzrastającej świadomości rozumu. Co dla niemowlęcia jest jedynie nic nie znaczącymi krawędziami i narożami czy plamami świetlnymi, to dla dziecka stanie się już pudełkiem, które przy dotykaniu i kręceniu w pewien określony sposób gałkami, wyświetla na swoim jednym boku przyciągające uwagę ruchome obrazki. Młodzieniec może dostrzec w pudle wytwór nowoczesnej technologii, wypełniony tranzystorami i obwodami scalonymi, o których uczył się w technikum. Dla dorosłego telewizor może być niczym więcej, jak tylko powodem irytacji czy narzędziem do zabijania czasu, przy całkowitym braku zainteresowania dla jego budowy wewnętrznej, stanowiąc jedynie jeszcze jeden mniej czy bardziej przydatny wynalazek współczesnej nauki i techniki. Tak więc, świadome wrażenia towarzyszące oglądaniu telewizji, odbierane przez ludzi w różnym wieku, mogą się zasadniczo różnić. Będą one silnie ubarwione minionymi wrażeniami, których dostarczyła telewizja. Twierdzę, że w istocie na całą ludzką psychikę składają się relacje pomiędzy minionymi a obecnymi odczuciami. Takie podejście umożliwiło mi rozwinąć teorię znaczenia i sensu nowego przeżywanego doświadczenia. Dopiero odpowiednia liczba zebranych w przeszłości doświadczeń nadaje mu znaczenia. Trudno doprawdy określić, ile tych doświadczeń powinno być, lecz prawdopodobnie wykorzystanie przez odpowiednio długi czas pobudzanych komórek nerwowych prowadzi do powstawania skojarzeń. Jeżeli tak zwany stopień pokrycia jest wystarczająco wysoki, wtedy bieżące doświadczenie będzie miało duże znaczenie i osiągnie się pełny stan świadomości. Z drugiej strony, niski stopień pokrycia będzie odpowiadać słabemu stanowi świadomości, występującemu na przykład u niemowlęcia (lub osoby upośledzonej umysłowo). Wysoki odpowiadałby komuś w kwiecie wieku. Naturę znaczenia oddaje następujące zdanie, które wydaje się jasne: Ten kawałek ciasta jest chory. Wypowiedzenie czegoś takiego wywołuje uśmiech na twarzy czytającego czy słuchającego, z czym zetknąłem się wielokrotnie, wygłaszając moje odczyty na temat rozumu. Znaczenie bowiem tego zdania jest, co najmniej, problematyczne. Bez wątpienia słowa kawałek ciasta przywołują pamięć o jedzonym wcześniej w ciągu dnia lub w minioną sobotę cieście, o wspaniałym smaku ciasta jedzonego w dzieciństwie, o swoich upodobaniach w tym względzie itp. Z drugiej strony .jest chory" przypomina o wstrętnych lekarstwach czy o konieczności bezczynnego leżenia w łóżku, o ubranych w wykrochmalone fartuchy pielęgniarkach, o lekarzach z przewieszonymi przez szyję stetoskopami itp. W tym przypadku stopień pokrycia pomiędzy dwoma zestawami wspomnień jest równy zeru. Po prostu nie mają ze sobą nic wspólnego. Są dwa sposoby wyjaśnienia mimowolnego uśmiechu pojawiającego się na twarzy słuchającego. Jeden odpowiada wyzwoleniu napięcia, jakie towarzyszy sprzecznym skojarzeniom. Wolę jednak drugie wyjaśnienie, które zakłada, że uśmiech wywołuje fala skojarzeń, powstałych w płatach czołowych, na dźwięk pierwszej części zdania: kawałek ciasta. Można by się spodziewać, że zakończenie będzie brzmiało: jest ładny, jest smaczny, jest już gotowy, został zjedzony itp. Nikt się jednak nie spodziewa, że jest chory. Jest to niespodziewana sprzeczność z falą skojarzeń, która prowadzi do wyzwolenia się poczucia humoru. Istnieje jeszcze dodatkowe źródło humoru w postaci wyrazu „ten", który oddaje przekonanie wypowiadającego zdanie o chorobie tylko jednego na świecie kawałka ciasta, a całe pozostałe na Ziemi ciasto jest już zdrowe i normalne! Podsumowując, umysł relacyjny pracuje porównując sygnały wejściowe z przywołanymi wspomnieniami o minionych doświadczeniach. Proces ten powoduje również szybką ocenę bodźca. Wydaje się, że stanowi to zdecydowaną przewagę nad zwierzętami, które nie potrafią wykorzystywać w ten sposób doświadczeń z przeszłości. Mają zaledwie stereotypowy zestaw reakcji i nie są zdolne do korzystania ze zwiększającego się z wiekiem doświadczenia, które mogłoby kierować ich postępowaniem w kontakcie z otaczającym środowiskiem. Nawet te, które miałyby w pamięci pewien zasób wspomnień o minionych zdarzeniach, nie mając takiego mechanizmu porównawczego jak my, są zbyt powolne, by je skutecznie wykorzystać. Świadomość ma zatem ogromną wartość w doborze naturalnym ewolucji. Świadome Ja W tym miejscu rozumowania uświadomiłem sobie, że umysł relacyjny stanowi już pewną koncepcję, ale jeszcze nie teorię. Jest co prawda obietnicą teorii, lecz zanim można by go weryfikować, należy wbudować go jeszcze w ramy neurologii. Poszukiwałem strukturalnego ośrodka wśród międzywzgórza i płatów korowych, opisanych krótko w rozdziale 8. W tym czasie usłyszałem o badaniach za pomocą technik MEG i związałem się ściśle z wieloma problemami technicznymi, na które w nich natrafiono. Dzięki temu mogłem docenić wagę sieci neuronowej, zwanej Nucleus Reticularis Thalami (jądro tworu siatkowego) lub w skrócie NRT, która obejmuje przednie i boczne partie wzgórza. Na drodze do kory wszystkie sygnały wejściowe przechodzą przez NRT. Sygnał wyjściowy oraz sygnał sprzężenia zwrotnego również przechodzi przez NRT, a wszystkie włókna nerwowe mają boczne odgałęzienia, które do niej prowadzą. Neurolodzy badający NRT w ciągu ostatnich trzydziestu lat byli przekonani, że stanowi ono furtkę przepuszczającą sygnały wejściowe i wyjściowe z kory. Ponad dziesięć lat temu jeden z nich, specjalizujący się w NRT, powiedział: Usytuowana na podobieństwo cienkiej siatki rozpiętej ponad bocznymi i tylnymi partiami wzgórza, ma cechy siatki sterującej, umieszczonej pomiędzy anodą a katodą lampy elektronowej. Od tego czasu uzyskaliśmy znacznie więcej informacji o szczegółowej budowie NRT. Odkryto, że ma połączenia pomiędzy pobliskimi komórkami, podobne do analogicznej sieci siatkówki oka, opisanej w poprzednim rozdziale. Podobieństwo to było przyczyną nazwy, jaką nadano części tego tworu NRT, wygląda jak oko patrzące w głąb mózgowia. Jednak NRT składa się z innych niż siatkówka komórek, które mają działanie wzajemnie hamujące. Dzięki temu NRT może odgrywać, w sposób najbardziej efektywny, rolę regulatora aktywności poszczególnych obszarów kory. Wyobraźmy sobie dwa leżące w pobliżu regiony aktywności NRT. Każdy z nich będzie usiłował stłumić aktywność innego obszaru kory poprzez boczne wyhamowywanie pomiędzy nimi; wygra ten, który okaże się silniejszy. Wykazano to za pomocą symulacji na uproszczonych modelach. Tego rodzaju pojedynki mają charakter globalny, dając całkowicie połączoną strukturę NRT, i dlatego są zwane synapsami dendro-dendrycznymi, które występują również (jak uprzednio wspomniano) w siatkówce oka. Takie specjalne synapsy zdają się nie występować u zwierząt bardziej prymitywnych, w rodzaju szczura, natomiast istnieją u zwierząt wyższych poczynając, na przykład od kotów, małp, no i nas samych. Wtedy zaproponowałem teorię, według której NRT miałaby stanowić pewnego rodzaju płytkę przekaźnikową czy furtkę na wejściu do kory. Podczas skupiania uwagi regulacja jest nadzorowana przez płaty czołowe i hipokamp. Uczynnią się przez nagłe pojawienie się niespodziewanego bodźca. Może on spowodować wyhamowanie aktualnej czynności NRT. Analiza odpowiednich równań matematycznych oraz symulacja komputerowa potwierdziły, że regulacja wielu rodzajów aktywności kory odbywa się za pomocą NRT. Ponadto siatka ta może przyczyniać się do powstawania reakcji odpowiedzi przy założeniu, że wszystkie połączenia funkcjonuj ą prawidłowo. Ta oraz inne liczne cechy uświadomiły mi, że NRT wraz z leżącymi w pobliżu obszarami korowymi i jądrem wzgórza może spełniać funkcję globalnej sieci sterującej aktywnością kory. Tu może rodzić się poczucie świadomego ja, będącego tak istotnym składnikiem świadomości. Jedną z istotnych cech systemu jest jego zdolność do porównywania bieżącej aktywności z przechowywanymi w pamięci wspomnieniami. Okazuje się, że przednie części NRT wy daj ą się posiadać płaty połączone w sposób umożliwiający przechowywanie w nich pamięci. Obwód limbiczny, wspomniany w poprzednim rozdziale, pamięta o zdarzeniach o dużym znaczeniu emocjonalnym i przesyła sygnały wyjściowe bezpośrednio przez przednie części NRT do wzgórza. Nie wydaje się, by zwracało ono tę informację, tak więc nie może stanowić ośrodka natychmiastowego sterowania (i świadomości) wspomnieniami albo czynnościami uzależnionymi od uczuć czy popędów. Świadomość pojawi się z wiadomym skutkiem w centrach wspomnień i uczuć dopiero po pewnej obróbce danych w korze. Świadomość jawi się zatem jako struktura relacyjna powstała na zwielokrotnionych bramkach NRT, które są całkowicie skorelowane za pomocą hamowania bocznego, będącego cechą płatów NRT, z odpowiadającą aktywnością kory i wzgórza. Sygnał wejściowy z kory przenika do centrów pamięci i uczuć, które dodają barwy i treści do fali sygnałów powrotnych powstałych w wyniku aktywności przednich części płata NRT, oraz pomaga określić krytyczną aktywność kory. Jest to źródło fali sygnałów związanych z oczekiwaniami. Spotyka się z sygnałem czynnościowym, a wzajemny stosunek pomiędzy nimi określa przyszłe stany świadomości. Jeszcze jedna ważna cecha tego modelu wymaga uwypuklenia. Według teorii relacyjnego umysłu, pamięć związana ze wspomnieniami odpowiadającymi danemu bodźcowi wywołuje całą treść świadomości, przy czym wspomnienia są selekcjonowane przez świadome ja (sterowane prawdopodobnie przez NRT). Lecz aby powstała treść świadomego doznania, musi się jeszcze skonkretyzować szczegółowa treść wspomnień. Odbywa się to prawdopodobnie w podobny sposób, ale na niższym poziomie w obrazowaniu. Obrazy z przeszłości mogą zostać wykorzystane do odtworzenia, oczami wyobraźni, poprzednich doznań wzrokowych (doznania innych zmysłów są podobnie odtwarzane). Różnego rodzaju pomiary aktywności mózgowia (szczególnie tkające z badań przepływu krwi w uaktywnionych obszarach) wykazały, ze do przywoływania obrazów są wykorzystywane regiony leżące w pobliżu wejścia sygnału. Zgodnie z tym, co napisano w poprzednich dwu rozdziałach tego należało spodziewać się, ponieważ są to właśnie te obszary, gdzie J6SI dokonywana analiza sygnałów wejściowych. Rozsądnie jest zatem przyjąć, że również tutaj odtwarza się poszczególne cechy minionych doświadczeń, tak że powstające obrazy wykazują podobieństwo do właśnie postrzeganych. Prawdopodobnie również coś na podobieństwo obrazów powstaje w obszarach związanych ze świadomością. Muszą one leżeć w pobliżu ośrodków wejściowych. Najlepszym sposobem ich dopasowania z bieżącymi doznaniami (unikając halucynacji) byłoby rozwiązanie, w którym bodziec stanowiłby pewnego rodzaju zalążek odtwarzanych prażeń. Byłby on porównywany z pamięcią krótkotrwałą, którą stanowi zdolność do utrzymywania w pamięci informacji przez kilku sekund. Istnieje wiele dróg powrotnych łączących obszary Pamięci długotrwałej, umieszczonej w płatach skroniowych, z obszarami tworzącymi obrazy. Sterowane tymi drogami wspomnienia docierają do krótkotrwałej pamięci wejścia, konkretyzując w ten sposób świadomość doznawanego bodźca. W tym kontekście warto wspomnieć, jak to wykazał niedawno Francis Crick (jeden z odkrywców kodu genetycznego) z kolegami, że nie jest znany żaden przypadek utraty pamięci krótkotrwałej przy pozostawaniu nietkniętej świadomości. Tak więc docieramy do następującej interpretacji: świadomość = dopuszczone wspomnienia sterowane przez zespół mojego ja Model taki pozwala zrozumieć unikalność świadomości oraz możliwość Pojawienia się dwóch niezależnych świadomości u pacjentów z rozdzielonymi półkulami mózgowymi, co zdarza się w przypadkach przecięcia łączących je włókien nerwowych, by zmniejszyć winnym przypadku nieuniknione ataki epilepsji. Pewien pacjent, poddany takiej operacji, posiadał dwie odrębne świadomości, wykazujące inne upodobania i pragnienia. Wyższe poziomy Z modelu świadomości wykorzystującego zespół świadomego ja wynikają popędy, uczucia i wyższe stany percepcji, takie jak planowanie i myślenie. W ostatnim rozdziale omawialiśmy krótko popędy oraz uczucia i stwierdziliśmy, że brak świadomej kontroli uczuć daje się szczegółowo wytłumaczyć odpowiednią siecią przepływów. Tam również stwierdziliśmy, że planowanie i myślenie jest ściśle powiązane z obszarami płatów czołowych. Mają one połączenia wyjściowe i wejściowe z tak zwanym środkowogrzbie-towym jądrem wzgórza, które łączy się następnie z przednią częścią NRT. Ten ostatni ośrodek był proponowany jako fragment mózgowia, gdzie w świadomości odbywa się walka pomiędzy uczuciami a doświadczeniem. Lecz później i tak walka o świadomą kontrolę przeniesie się do obszarów płatów czołowych; planowanie i rozumowanie będzie miało łatwy dostęp do świadomości. Sposób, w jaki następuje nieświadome przetwarzanie informacji, w szczególności podczas procesów twórczych, oraz uczuciowe zabarwianie świadomego doświadczenia, wydaje się możliwy do zbadania po poznaniu dalszych szczegółów połączeń pomiędzy wzgórzem, płatami czołowymi i obwodem limbicznym. Pozwoli to również na dalszy postęp w rozumieniu popędów i dążeń. Istotną częścią modelu świadomego ja jest obraz snów i marzeń, jaki daje. W minionym czasie zdawano sobie doskonale sprawę z funkcji wzgórza i NRT, które odcinają korę od wszelkich sygnałów wejściowych oraz uniemożliwiają jej normalne działanie (jak świadczy o tym wolny rytm EEG kory). Gdy marzymy, następuje podobne odcięcie na wejściu sygnałów. I chociaż marzenia są częściowo świadome, to pozostają poza świadomą kontrolą. Eccles zauważył: Cechą charakterystyczną wszystkich marzeń jest to, że osoba marząca odczuwa wielce denerwującą niemoc. Wciągnięta jest we wszystkie akcje, lecz odczuwa niepokojącą niezdolność uczynienia żadnego kroku. Oczywiście, działa w marzeniach, lecz tak, jakby była jedynie marionetką. Można to wyjaśnić zmniejszeniem się globalnej kontroli działania kory (wykazującej szybki rytm EEG podobny do osoby czuwającej) przez NRT. Marzenia można by określić jako świadomość korową, natomiast stan czuwania jako świadomość wzgórzowo-NRT-korową. Zmniejszony wpływ NRT podczas marzeń może pomoc w wyjaśnieniu poczucia niemocy, odnotowanej przez Ecclesa. Wyraźnie widać, że jeszcze dużo musimy dowiedzieć się i zrozumieć o marzeniach, lecz możemy tutaj, w modelu świadomego ja, naszkicować przynajmniej pewien zarys. A co można by powiedzieć na temat poczucia tożsamości? Najprostszym wyjaśnieniem byłaby koncepcja mówiąca, że poczucie własnego ja jest możliwe u ludzi, ponieważ mają wystarczającą pojemność i zdolność kory, by zbudować sobie model nas samych jako aktorów. Zaczyna się ono rozwijać już u mniej więcej osiemnastomiesięcznego niemowlęcia. Biorąc pod uwagę zdolność do odmodelowania poprzez zapamiętanie w sieci neuronowej, problem zbudowania neutralnego modelu siebie byłby chyba równoważny z od-modelowaniem czegokolwiek innego. To, że posiadamy zdolność zbudowania modelu nas samych, daje nam znaczną przewagę nad innymi zwierzętami, ponieważ umożliwia wyobrazić sobie intencje innych, porównując je z naszymi. Komunikacja z innymi nabiera również innego charakteru, gdy intencje przekazującego wiadomość znajdują rezonans w mózgu odbierającego. Możemy więc uwzględnić w naszej interpretacji tożsamości samoświadomość = obraz pamięci samego siebie, kontrolowany przez zespół mojego ja Twierdzenie, jakoby poczucie własnego ja należałoby wyjaśniać w jednym paragrafie, a umysł w jednym rozdziale, jest czystym nonsensem. Takie podejście do świadomego ja jest wstępnym krokiem w kierunku modelu mechanicznego. Niniejsze jak i poprzednie rozważania, dotyczące umysłu relacyjnego, miały na celu wykazanie, w jaki sposób można by podejść do problemu rozumu. Przedstawione tutaj idee pozostają w harmonii z poglądami traktującymi rozum jako swego rodzaju „mechanizm zegarowy". Jednakże w proponowanym modelu rozum jest raczej teatrem, na którego scenie swoją rolę graj ą procesory poszczególnych zmysłów. Wielu neurologów zgadza się z poglądem, że NRT odgrywa istotną rolę w przetwarzaniu danych przez mózg, natomiast świadomość jest rezultatem działania całego mózgu. Pojęcie świadomego ja rozwija model do postaci, w której NRT jest okiem patrzącym na korę i wzgórze, nadzoruje globalną walką oraz typuje zwycięzcę. Niezależnie od tego, czy wszystkie detale są dokładnie dopasowane, twierdzę, że świadomość nie wygląda już tak samo, a ludzie jawią się w zupełnie innym świetle jako wspaniałe, subtelne maszyny stawiające nauce najbardziej bezpośrednie wyzwanie. CZĘŚĆ CZWARTA ZROZUMIENIE WSZECHŚWIATA 11. Odpowiedzi Pytania bez odpowiedzi Głównym celem tej książki jest próba udzielenia opartej na nauce odpowiedzi na cztery trudne pytania: * Jak można wyjaśnić świadomość? * W jaki sposób powstał wszechświat? * Dlaczego jakaś szczególna jednolita teoria przyrody? * Dlaczego raczej istnieje coś zamiast niczego? Zanim zacznę rozważać doniosłość odpowiedzi na te pytania dla kondycji ludzkiej, zreasumujmy w tym rozdziale odpowiedzi, których udzieliłem dotychczas. Natura świadomości Podstawową tezą jest to, że świadomość jest następstwem czynności mózgu. Treść psychiczna świadomych doznań jest zbudowana, według relacyjnej teorii rozumu, jako zestaw relacji pomiędzy czynnością mózgu, będącą następstwem bieżących bodźców, oraz czynnością wynikającą ze zgromadzonych wspomnień o odpowiadającej jej wcześniejszej aktywności. Takie reje same w sobie nie są niczym materialnym (w takim sensie, w jakim powianie liczb, choćby takie, że dwa jest mniejsze od czterech, które samo nie jest liczbą), lecz dostarczaj ą danemu osobnikowi treści psychicznych składają się na świadome doznanie. Odpowiadające relacje, składające się na treść psychiczną, są formułowane uaktywnionymi wspomnieniami, odpowiadający, mi ściśle dostarczanemu bodźcowi, a więc wymagają jakiegoś urządzenia (furtki) porównującego czy też selekcjonującego ich dobór. Sugerowano, że urządzenie to składa się z płata neuronów hamujących, umieszczonego na wejściu wszystkich sygnałów do kory, i jest nim jądro siatkowe wzgórza (NRT). Czynności NRT podlegają globalnej konkurencji, w wyniku której pewne jego części zdecydowanie dominują. Ostatnie wyniki doświadczeń sugerują, że aktywność całego płata jest sterowana przez pewien mały jego fragment. Skupianie uwagi, sterowane przez wyższe procesy zachodzące w świadomości, następuje, gdy skierują one dominującą aktywność do przedniej części NRT. Wysyła ona wtedy falę sygnałów omiatających całe NRT i w konsekwencji cała kora jest poddana kontroli przez te sygnały. Świeży bodziec przyciągający uwagę niszczy bieżącą aktywność NRT i powoduje, że konkurencja rozpoczyna się od nowa. Sugeruje się, że świadomość rodzi się w wyniku porównania pomiędzy aktywnością wymuszoną przez przedmą część NRT (która została pobudzona wcześniejszym impulsem z płatów czołowych) a aktywnością wymuszoną bezpośrednio w obszarach zmysłowych kory przez nowy bodziec. Uczucia i popędy są postrzegane w ramach tej teorii jako odgrywające podobną rolę co świadomość, walcząc w konkurencji o zwycięstwo na obszarze przedniej części płata NRT. Brak bezpośredniej świadomej kontroli aktywności mózgu w obszarach, które nie są wystarczająco związane z NRT, wyjaśnia trudności, jakie wszyscy mamy z naszymi uczuciami — nie kontrolowany pociąg, ślepa furia itp. - przykłady dość wiernie oddającego prawdę opisu tego braku kontroli. I w końcu, samoświadomość albo inaczej poczucie własnej tożsamości, jako właściwość posiadana przez ludzi, szympansy i orangutany oraz być może przez bardzo nieliczne inne gatunki zwierząt, wynika z działania maszynerii świadomości w kombinacji z przechowywanym w pamięci wizerunkiem siebie samego. Należy sądzić, że taki wizerunek daje się nakreślić dopiero wtedy, gdy jest dostępna pamięć na tyle pojemna, by mogła przechować mnóstwo faktów dotyczących życia osobistego, wyglądu zewnętrznego, minionych cierpień i bólu, upodobań i odrazy, zdolności i słabości itp. Szczegóły tego, w jaki sposób powstaje ten ogromny magazyn pamięci, są dotychczas nie znane, chociaż istnieją przesłanki, które wskazują, że może uda się to rozwiązać przy wykorzystaniu ostatnich osiągnięć w neuropodobnych komputerach oraz w tworzeniu sztucznych sieci neuronowych. Wynika z tego, że szerokie ramy podstawowych mechanizmów odpowiedzialnych za ludzką świadomość są już w trakcie poznawania i problem powstania rozumu z materii jest bliski, i to nawet dość szczegółowego, rozwiązania. Powstanie wszechświata Drugim trudnym pytaniem jest kwestia, w jaki sposób narodził się wszechświat. Przedstawiono dwa możliwe scenariusze. Według pierwszego, wszechświat wystrzelił z próżni w postaci fluktuacji kwantowej, jak piana .(analogia do fluktuacji) powstała na powierzchni rozfalowanego morza (analogia do próżni). Postrzegano to jako równie trudne do wyobrażenia (i wyjaśnienia), jak stworzenie wszechświata w postaci jakiegoś mechanizmu zegarowego, w którym byłaby konieczna decyzja odnośnie do stanu wszystkich cząstek (ich położenia, prędkości itp.). Kto mógłby tego dokonać? Analogicznym problemem w przypadku kwantowej kreacji stałby się wybór stanu wyjściowego lub mówiąc bardziej technicznie pierwotnej funkcji falowej. Podawano różne recepty w celu dokonania takiego wyboru, lecz każda z niebyła tylko próbą przesunięcia odpowiedzialności, a nie zupełnego usunięci jej. Jak już zauważono wcześniej, obecne techniki analizy następstw jakiegoś konkretnego przepisu są przygnębiająco nieadekwatne, a twierdzenie, że te trudności można pokonać w dającym się wyobrazić okresie poprzez obserwacje wielkich pól grawitacyjnych i na gruncie kwantowej teorii grawitacji, okazało się zupełnie nie do utrzymania. Co ważniejsze jednak, stało się jasne jak słońce, że nie da się nigdy podać konkretnego przepisu, który by wyróżniał jeden stan pierwotny od innego, a więc dostrzeżono, że tą drogą nie ma rządnej możliwości wyjaśnienia powstania wszechświata. Dopuszczano więc tylko jeden możliwy, dający się zastosować, scenariusz kreacji wszechświata, który nie wymagał konieczności dokonywania zasadniczych i arbitralnych decyzji (odnośnie wyboru jednego konkretnego przepisu spośród wielu innych). Wymaga on istnienia nieskończonego łańcucha teorii regresywnych, z których każda dostarcza lepszego opisu w miarę wzrostu temperatury wszechświata, przy zbliżaniu się do jego początku. Na każdym etapie zbliżania się do chwili początkowej, jeden opis jest zastępowany następnym, przy czym stan początkowy tego opisu wynika z teorii poprzedniej. Jeżeli znamy funkcję falową wszechświata aż do momentu, w którym daje się zastosować mechanika kwantowa, to można wyliczyć rozkład cząsteczek określającą stan wszechświata, wynikający z teorii klasycznych. Wykorzystanie nieskończonego, regresywnego szeregu tego rodzaju teorii umożliwia na każdym poziomie określenie stanu początkowego wszechświata, jako stanu wynikającego z wyższego poziomu. Pomimo to, nie istnieje żaden sposób na podanie jakiegoś konkretnego przepisu określającego ten stan, ponieważ teoria odpowiednia na jakimkolwiek poziomie, będzie kompletnie nieprzydatna przy wyższych temperaturach. Poszukiwania prawidłowego opisu muszą być wspomagane eksperymentami. Wybór stanu początkowego na którymkolwiek poziomie opisu wyznaczy całą przyszłą naturę wszechświata. Wykorzystując pewne dodatkowe kryteria (chociaż nie do końca uzasadnione), takie jak elegancja, symetria itp., można określić stan początkowy na danym poziomie, co tym samym ściśle określa stan początkowy kolejnego poziomu. W ten sposób początek wszechświata (a więc i jego ostateczny stan początkowy) przesuwa się w nieskończoną przeszłość; nigdy nie zostanie określony, chociaż zawsze można uczynić kolejny krok zwiększający dokładność opisu. Jednolita teoria przyrody Wyjaśniliśmy sobie właśnie, dlaczego bardziej naturalna jest próba wyjaśnienia powstania wszechświata za pomocą nieskończonego szeregu teorii regresywnych, nie osiągając nigdy ostatecznego opisu stanu początkowego, lecz zbliżając się do niego z coraz większą dokładnością. Nauka, badając rzeczywistość wokół nas, opisuje ją z coraz większą precyzją, lecz teorie, na podstawie których to czyni, podlegają ciągłym modyfikacjom. Mając na uwadze czterysta lat badań i eksperymentów fizycznych, nie mamy powodu wątpić, że takie modyfikacje zawsze będą następowały; zawsze będziemy mieli do czynienia z nieskończonym szeregiem teorii, czasami rozgałęziających się, czasami unifikujących się do jednej postaci, która jednakże również będzie ulegać przemianom. Jeżeli to rozumowanie jest prawidłowe, to nie może być żadnej teorii wszystkiego. Głównym problemem, na jaki natykamy się przy wyborze jakiejś teorii, jest kwestia, dlaczego właśnie ta spośród wielu innych? Jeżeli jakaś teoria miałaby być JTP, to nie ma żadnego sposobu wyjaśnienia jej podstawowych aksjomatów. Ponadto, jeżeliby nawet okazało się, że sprawdza się ona pod względem doświadczalnym, to nie będzie żadnej możliwości wyjaśnienia właściwości fundamentalnych cząstek, których istnienia teoria będzie wymagać i które nawet dałoby się zaobserwować w eksperymentach. Czy można wyjaśnić wszystkie zjawiska występujące w przyrodzie? Jest to kwestia będąca istotą natury istnienia. Jeżeli odpowiedź brzmi tak, to wtedy mamy do czynienia z nieskończonym szeregiem teorii. Redukcjonizm staje się właściwym stanowiskiem, lecz nie doprowadzi nigdy do prawd ostatecznych. Jak mówi maj ą mniejsze pchełki - ciągnie się to ad infinitum. Jeżeli odpowiedź brzmi nie, to naukę czeka uwiąd. Jednakże odpowiedzi na pytanie, czy wszystkie zjawiska są wytłumaczalne, może nam udzielić jedynie eksperyment. Wymaga to zwiezienia w przyrodzie jakiejś podstawowej, nie zaobserwowanej jeszcze substruktury, tłumaczącej dostrzeganą wokół regularność. Substruktura taka musiałby umożliwić zweryfikowanie przyjętej teorii, z której zostałaby wyprowadzona. Nie jest moim zamiarem umniejszać znaczenia przypadkowości w badaniach naukowych, w wyniku której nastąpiły tak znaczące odkrycia, jak promieniowanie mikrofalowe tła wszechświata czy nowa generacja materiałów nadprzewodzących. Jednakże zasadniczy postęp nauki może dokonywać się na drodze badania obszarów albo coraz większych, albo coraz mniejszych, co wymaga wciąż kosztowniejszych przyrządów. Z praktycznego punktu widzenia, będzie coraz trudniej uzyskać fundusze na doświadczenia planowane jako strzały w ciemno. Z teoretycznego punktu widzenia, jest wysoce nieprawdopodobne, że naukowcy przestaną nagle spekulować o naturze tak zwanych JTP, proponowanych przez ich kolegów. Zawsze będzie to swój ego rodzaju wyrwanie dla ich kreatywności i inteligencji. Dlatego też do każdej sugerowanej JTP należy podchodzić z naukowym sceptycyzmem i zawsze zakładać, że przecież nauka nie osiągnęła jeszcze żadnego ostatecznego krańca. Naszym mottem musi na zawsze pozostać „nigdy nie kończ", ponieważ nie mamy pojęcia, czy kolejny eksperyment lub idea nie obróci w gruzy naszego gmachu JTP, z którego miałoby wynikać, że rozwój nauk podstawowych dobiegł kresu. Konkludując, jestem przekonany o niemożliwości znalezienia usprawiedliwienia dla twierdzeń, według których jakaś teoria miałaby być JTP. Każda teoria będzie narażona na konfrontację ze zjawiskami nie dającymi się a jej pomocą wytłumaczyć i będzie znajdować się w położeniu manekina oczekującego na zdjęcie z wystawy. Co więcej, minione doświadczenia wskazują, że teorie zawsze będą podlegać regresji i będą tworzone wciąż nowe teorie, a nauka nigdy nie dobiegnie kresu. Raczej coś niż nic? Ostatnią z kwestii potraktowaliśmy jako nierozwiązalną na gruncie naukowym, na którym wykorzystywano by podejście redukcjonistyczne. Załóżmy, że ktoś wydedukował z tego lub innego powodu, lecz na podstawie pewnej teorii konieczność istnienia jakichś obiektów mających określone właściwości. Teoria ta będzie z góry skazana na obalenie, bo za chwilę ukaże się nowa, lepsza. W tym samym momencie nasze koniecznie istniejące obiekty straciły swą rację bytu. Nie możemy mieć przecież żadnych gwarancji, że na wyższym dokładniej określonym poziomie nie istnieją obiekty dokładniej zdefiniowane. Tak więc dowód istnienia czegokolwiek na danym poziomie jest niezadowalający i może być uwzględniany jedynie tymczasowo. Kiedy zaakceptujemy możliwość nieskończonego szeregu teorii regresywnych, to ostateczna natura wszechrzeczy będzie zdawała się unikać naszego wejrzenia. Nigdy nie dowiemy się dokładnie, jaka jest natura jakiegokolwiek obiektu we wszechświecie. Nie ma żadnego sposobu interpretacji poza tym, że rzeczywistość daje się opisać odrobinę bardziej precyzyjnie kolejną teorią z nie kończącego się ich łańcucha. Rozwój tych teorii powoduje, że opisują one zjawiska wokół nas z coraz większą dokładnością. Lecz ten nieskończony szereg teorii powoduje również, że opisanie rzeczywistości staje się nieskończenie trudne. Tracąc doskonałą jasność, nie chciałbym tutaj dawać wyrazu skrajnemu pesymizmowi. Wprost przeciwnie, napawa nas to optymizmem, ponieważ możemy spoglądać na świat z coraz większą jasnością, proporcjonalną do wysiłku, jaki wkładamy w jego zbadanie. Jesteśmy podobni do ludzi obarczonych poważną wadą wzroku, którzy mogą widzieć coraz lepiej, bo dostają coraz lepsze okulary. Aby widzieć lepiej, płacimy coraz wyższą cenę. Jeżeliby pieniądze nie stanowiły trudności, widzielibyśmy o wiele więcej i lepiej. Poza obszarem nauki? Zajmiemy się teraz kilkoma cechami, którymi nauka jest w zasadzie ograniczona, próbując wyjaśniać naturę wszechświata. Nie ma żadnych granic naukowego poznania (które wydaje się nieograniczone), istnieją tylko trudności w odpowiedzi na niektóre pytania. W szczególności nieskończony szereg regresywnych teorii naukowych nie ukaże prawdopodobnie nigdy ostatecznej natury wszechrzeczy oraz przyczyn istnienia. Cóż zatem daje nam nauka? Podejście religijne do trudnych pytań było przedmiotem krytyki na początku książki, ponieważ nie ma ono żadnego oparcia w rzeczywistości ani nie dostarcza żadnych nowych szczegółów. Pomimo to wydaje się, że nauka również nie odpowie na te pytania. Można stąd wnioskować, że nie ma widoków na wyjaśnienie sytuacji. W rzeczywistości można by twierdzić, że postępując drogą nauki zostaliśmy zmuszeni zrezygnować z pewności, jaką daje religia. Utraciliśmy całą pewność, która coraz bardziej rozmywa się przed naszymi oczami. Odpowiedzi można udzielić w dwóch obszarach. Pierwszy obejmowałby metodę wykorzystywaną przez wierzących i sprowadzałaby się do uznania, że za naturą wszechrzeczy stoi Bóg. W świecie duchowym, gdzie spodziewamy się istnienia Boga, można poprzez modlitwę i obrzędy religijne doświadczyć wiedzy o Bogu oraz komunikować się z nim. Przedstawiłem bardzo mocne świadectwa wskazujące, że świat duchowy, czyli psychiczny, jest wynikiem aktywności miliardów wzajemnie połączonych komórek nerwowych i że niezależnie od jego bardzo subtelnej postaci nie istnieje żadne rozszerzenie owego świata poza obszary naszego mózgu. Zgodnie z tym, nie wydaje się prawdą twierdzenie, jakoby religia była drogą do osiągnięcia pewnej wiedzy, a w szczególności do odkrycia, że wszechświat duchowy różni się od fizycznego. Wszystkie stwierdzenia tego typu są czystą iluzją, wynikającą prawdopodobnie z potrzeb danej osoby. Jedynie rzeczywiste doznania powodują te odmienne stany świadomości, dające się wszakże wyraźnie opisać na drodze czysto fizycznej. Stany tego rodzaju nie mają większego znaczenia dla poznania wszechświata niż stan ekstazy po zażyciu narkotyków. To ostatnie może powodować odmienną percepcję wzrokową, prowadzącą do postrzegania wszystkiego w postaci, na przykład, przedmiotów o przepięknej symetrii. Wszystkie takie zjawiska można z kolei wyjaśnić w terminach pewnych zafalowań czynności mózgu, które zdarzają się w sprzyjających temu warunkach. Zmieniony przez narkotyk przebieg procesu przetwarzania danych na wyższych poziomach świadomości prowadzi do zakłócenia emocji, przy czym otoczeniu nadaje się inne znaczenie od rzeczywistego. Takie doznania mają jak się zdaje podobne wyjaśnienie, jak zakłócenia wrażeń wzrokowych wywołanych narkotykiem. Nie ma żadnego powodu, aby objawienia natury religijnej nie miały podobnego charakteru, chociaż w takim przypadku odmienne stany świadomości należałoby zastąpić zakłóceniami natury emocjonalnej. Jak już sygnalizowano, emocje nie są pod bezpośrednią kontrolą świadomości i mają wielki wpływ na nasze zachowanie. Stan, w którym możemy doznawać objawień, nie jest w tym świetle niczym zaskakującym. Stwierdzenie, że nauka nie prowadzi do poznania z większą pewnością niż religia, również nie znajduje żadnego oparcia. Nauka nie ma granic; każde zjawisko może być badane naukowo ad infinitum. Odpowiedzi na żadne pytanie nie należy traktować jako ostatecznej, ponieważ nie ma innego sposobu weryfikacji jak tylko eksperyment. Lecz konkretny eksperyment należy postrzegać jako część całego zbioru wszystkich doświadczeń, dostarczających dającego się zweryfikować zrozumienia możliwie największych obszarów przyrody. Każda inna droga jest dużo mniej systematyczna i daje się gorzej uzasadnić. Dotyczy to w szczególności religii. Utrzymuje ona, że w obszarach duchowych można osiągnąć pewność, lecz świat duchowy nigdy nie zgadza się ze światem rzeczywistym. Religia nie prowadzi również do szczegółowego zrozumienia samego świata duchowego. Co więcej, można by podważyć silne poczucie pewności wynikające z wiary. Bóg jest sędzią najwyższym i ostatecznym, lecz istnienie zasadniczych sprzeczności w poglądach religijnych oraz różnic w interpretacji każdej świętej księgi (choćby Biblii czy Koranu) wskazuje, że przesłania Boże nie są odczytywane jednoznacznie. Ponieważ istnieje tak wiele różnych interpretacji, to jest zupełnie zrozumiałe, że ktoś może wątpić w ogóle w ich prawdziwość. W przeciwieństwie do tego, przesłania nauki są całkowicie jednoznaczne. Kiedy odkrywa się jakieś zjawisko, nie pasujące do obowiązujących w danym momencie teorii naukowych, wtedy reakcją środowiska staje się jego kwestionowanie i utrzymywanie, jak długo się da, istniejącego stanu rzeczy. Dzieje się tak głównie dlatego, że stara gwardia" poświęciła mnóstwo czasu i wysiłków, by dojść do obowiązujących obecnie poglądów, prawdopodobnie na przekór silnej opozycji poprzedniego establishmentu naukowego, który zastąpiła. Taka sztywna opozycja w nauce jest koniecznością; nowe wyniki czy idee mogą by ć błędne i dlatego wymagaj ą bardzo starannego sprawdzenia, zanim można je zaakceptować jako część gmachu nauki. Lecz później jednomyślność znowu się kończy. Można podać dwie przyczyny, całkowicie fizyczna natura wszelkich objawień religijnych oraz jednoznaczność nauki w porównaniu z możliwie szeroką interpretacją religijną, z powodu których można utrzymywać, że nauka dostarcza dużo bardziej pewnego obrazu wszechświata i naszego w nim miejsca. Jednakże nauka nie pomoże w odpowiedzi na pytania, które zgodnie z naszymi oczekiwaniami wytyczyłyby drogę postępowania w naszym życiu. Jeżeli nawet udaje się nam dostrzec jakiś cel we wszechświecie jako całości, to nie jesteśmy w stanie zobaczyć go we własnym życiu. Jeżeli można by próbować wykazać, że wszechświat istnieje po to, aby tworzyć największą harmonię i zadowolenie czy dla jakiś innych celów emocjonalnie podobnie wyrażanych, wtedy nauka służy nam pomocą i nawet stajemy się hedonistami czy wyznawcami harmonii. Nie należy nigdy spodziewać się, że nauka doprowadzi do obserwacji odbicia naszych uczuć we wszechświecie jako całości. Zawsze bowiem będziemy wśród żywych systemów obserwować jedynie te cechy, którymi są obdarzone wrażliwe sieci neuronowe. Mogą one istnieć we wszechświecie tylko w specyficznych warunkach. Świadome, żywe sieci neuronowe pojawiły się bardzo niedawno (istnieją dopiero od sześćdziesięciu milionów lat, przy czym życie na Ziemi liczy sobie już ponad trzy i pół miliarda lat), i to jedynie w wyjątkowych miejscach oraz w otoczeniu, które stwarza korzystne warunki do ich delikatnych czynności. Nie tylko nie dostrzegamy żadnego śladu uczuć we wszechświecie jako całości, ale nie widzimy żadnego powodu, aby miały takowe istnieć. Jedynym wyjątkiem jest to, że za pomocą narzędzi nowoczesnej nauki można przedstawić pewną wielkość (taką jak energia), która zmierza do jakiejś optymalnej wartości. Oznacza to, że pewnym ograniczonym celem wszechświata mogłaby być optymalizacja tej wielkości, lecz wniosek taki nie stanowi żadnej wskazówki, dającej się wykorzystać w naszym życiu. W ogromie wszechświata stanowimy jakieś mikroskopijne podjednostki. Próbujemy wypełnić nasz maleńki kącik znaczeniem, jakie może mieć optymalizacja, do której dążą jak się wydaje poszczególne części wszechświata; nasz Układ Słoneczny jest stosunkowo izolowany od pobliskich gwiazd Drogi Mlecznej, lecz zachowanie energii, której ta optymalizacja odpowiada, jest w każdym razie podstawowym prawem fizyki. Jak już powiedziałem, za zasadą zachowania energii nie kryją się żadne emocje, etyka, moralność czy człowieczeństwo. Nasz świat psychiczny narodził się, ponieważ jest to właściwe miejsce (Ziemia) i właściwy czas (wynik ewolucji ssaków), i w tych okolicznościach najlepszą odpowiedzią na wymagania otoczenia, wynikającą z doboru naturalnego, było powstanie świadomości. Później nasz świat psychiczny ewoluował nadal, przystosowując się do środowiska, i dlatego musimy uwzględnić warunki w nim panujące, by stworzyć jak największe szansę na przeżycie. Warunki przetrwania inteligencji Presja coraz bardziej nieprzyjaznego i niepewnego środowiska ostatnich kilku milionów lat doprowadziła, w wyniku ostrej konkurencji z innymi drapieżnikami, do gwałtownego rozwoju ludzkiego mózgu. W tej walce należało mózg postawić przeciw mózgowi. Ludzie z bardziej złożonymi mózgami przystosowali się lepiej, ponieważ byli bez wątpienia bardziej elastyczni, obdarzeni lepszą pamięcią i mogli rozwijać lepsze strategie w ściganiu ofiary niż ich mniej sprytni partnerzy. Lecz teraz, w rozwiniętym świecie, nie żyjemy przecież już w jaskiniach i nie polujemy na dzikiego zwierza, chyba ze dla sportu. Technika i nauki medyczne rozwinęły się na tyle, że przejmują za pomocą inżynierii genetycznej rolę doboru naturalnego ewolucji, a nieprzyjazne środowisko ustąpiło miejsca klimatyzowanemu życiu w komfortowych warunkach centralnie ogrzewanego luksusu, nawet podczas najbardziej surowej zimy, a energia elektryczna umożliwiła nam zamienić noce na dni. To wszystko razem uczyniło inne warunki życia dla homo sapiens niż mieli jego wcześniejsi krewni. Obecnie wiążemy nasz los z losem innych ludzi i tworzymy coraz bardziej uzależnione od siebie społeczeństwo. Musimy więc starać się dojrzeć w naukowym rozumieniu źródło wiedzy na temat naszego sposobu życia. W ten sposób dotarliśmy do ostatniego rozdziału. 12. Następstwa Co to wszystko oznacza? Rozpocząłem tę książkę pytaniem będącym tytułem tego podrozdziału oraz innych w rodzaju kim jestem?, czy istnieje życic po śmierci? i podobnych o osobistym charakterze. Wykazałem wtedy, że najlepsza droga do odpowiedzi na te pytania wiedzie przez naukę, doprowadzając jednakże do trudnych czy wręcz niemożliwych do rozwiązania kwestii: W jaki sposób można by wyjaśnić świadomość? Jak powstał wszechświat? Dlaczego właśnie ta konkretna JPT? Dlaczego raczej istnieje coś zamiast raczej niczego? Częściowej odpowiedzi na pierwsze z nich udzieliła relacyjna teoria umysłu. Relacjami były porównania czynione pomiędzy przechowywanymi w pamięci wspomnieniami a bieżącymi doznaniami za pomocą specjalnej sieci komórek usytuowanych pomiędzy ośrodkami zmysłowymi mózgu a korą. Rozum jawi się wtedy jako wynik czynności całkowicie materialnego mózgu. Stanowi to materialistyczną teorię rozumu, która jednakże w żadnym przypadku nie umniejsza znaczenia świadomości i poczucia tożsamości, będąc dla posiadacza wielką korzyścią. Na drugie i trzecie pytanie odpowiedziano konkludując, że pod względem naukowym najskuteczniejszym i najbardziej realistycznym modelem rzeczywistości jest nieskończony, regresywny zbiór coraz dokładniejszych teorii naukowych. Z tego powodu nie powinniśmy się spodziewać żadnej JTP ani ostatecznej odpowiedzi na pytanie, w jaki sposób narodził się wszechświat. Nie można również odpowiedzieć na ostatnie z tych pytań, ponieważ jakiekolwiek wyjaśnienie, podane na podstawie pewnej obowiązującej na tym poziomie teorii naukowej, stanie się wkrótce po odkryciu nowej teorii niewystarczające. Wydaje się, że nie można podać innego uzasadnienia dla pojawienia się form życia, jak tylko takie, że narodziły się, ponieważ powstały ku temu sprzyjające warunki. Dopóki rozpatrujemy wszechświat i prawa w nim rządzące, dopóty nie dostrzegamy żadnej różnicy pomiędzy życiem a materią nieożywioną. Człowiek ma unikalną moc wynikającą z poczucia tożsamości, powstałego w wyniku procesów ewolucyjnych. Nie istnieje we wszechświecie nic, co nie miałoby fizycznego charakteru, mimo występowania tak zdecydowanie nietrywialnego mechanizmu, jakim jest umysł Odrzuciwszy tym samym rozum jako narzędzie prowadzące do Boga, czy do jakiejś innej istoty, od której spodziewalibyśmy się otrzymać wyjaśnienie istoty życia, doszliśmy do przekonania, że prawdziwa natura rzeczywistości, przez którą rozumiem rzeczywistość fizyczną, nigdy nie zostanie całkowicie poznana. W każdym razie, ludzkie pragnienia, cele i uczucia są postrzegane w tych ramach jako nie powiązane z nieskończonym łańcuchem teorii naukowych, Będą zawsze skłaniać nas do uporczywej pogoni za prawdami pozwalającymi lepiej zrozumieć wszechświat, ludzkie cechy zaś można badać jedynie w obszarach rozwijającej się nauki, zajmującej się świadomością i emocjami. Życie pozbawione znaczenia Można by utrzymywać, że któraś z udzielonych przeze mnie odpowiedzi jest błędna. W szczególności relacyjna teoria rozumu nie została jeszcze naukowo udowodniona i trzeba ogromnych nakładów pracy, by wykazać jej prawdziwość. Pomimo to, jestem pewien, że będzie ona lub teoria bardzo do niej podobna udowodniona w najbliższych dziesięcioleciach. Centrum naukowego zainteresowania przesunęło się obecnie w kierunku świadomości. Stopień zainteresowania wieloma konferencjami naukowymi tylko w jednym roku wskazuje, że nadszedł czas na wielkie postępy w tej dziedzinie badań. Nadal twierdzę, że teoria relacyjna oraz teoria świadomego ja, które tutaj przedstawiłem, maj ą dobre oparcie w neurobiologii oraz prowadzą do nowego spojrzenia na świadomość i emocje. Mogą nawet doprowadzić do zrozumienia świadomości zwierząt-kotów, psów, koni itp.-w sposób poprzednio niemożliwy, jak również pomóc ludziom z zaburzeniami psychicznymi. W każdym razie są teoriami naukowymi, które można w najbliższej przyszłości zweryfikować i ulepszyć (lub odrzucić) na drodze doświadczalnej. Obraz nauki jako nieskończonego szeregu teorii jest tylko sformalizowanym wyrazem trendów już dostrzeganych we współczesnej nauce i stają się one alternatywą (bardziej prawdopodobną) dla JTP. Nie wyklucza ona zasady przyczynowości głoszącej, że nie ma skutku bez przyczyny która nadal święci triumfy, stając się na przyszłość jednym z dobrze potwierdzonych w rzeczywistości praw. Istnieją zatem przekonujące argumenty za czymś, co można by nazwać materialistycznym, nieskończenie regresywnym obrazem wszechświata, który tutaj przedstawiłem. Musimy teraz podjąć następujące wyzwanie: w jaki sposób mamy żyć, jeśli we wszechświecie nie znajdzie się żadnego głębszego znaczenia? Jest to wyzwanie, przed którym stoi każdy z nas, gdy dogłębnie przetrawi | przemyśli fakty oraz teorie odnoszące się do obrazu wszechświata, który rozwinąłem w tej książce. Jednak do jednego z faktów muszę się ustosunkować. Chłód, który kryje się w takim obrazie wszechświata i człowieczeństwa, staje się dla wielu ludzi przekleństwem. Twierdzą oni, że musi istnieć w życiu jakiś cel, więc często odwracają się od nauki i zanurzają się w wierze religijnej. Pomimo to w następnych dziesięcioleciach będziemy świadkami coraz bardziej rozległego wkraczania nauki na obszary wiary. Urządzenia techniczne uczyniły nasze życie łatwiejszym. Będzie ich coraz więcej i będą miały coraz więcej możliwości. Jednym z takim przykładów może być fonetyczna maszyna do pisania, tworząca litery bezpośrednio na podstawie wypowiadanych słów, która jest już dostępna w specjalnych wersjach na rynku i wejdzie prawdopodobnie do masowej produkcji jako komputer lub walkman. Nastąpi rozwój urządzeń mających już odrobinę świadomości (wstępnie zwanych komputerami obdarzonymi uwagą attentional computers), a później takich, które mają świadomość i uczucia, co w końcu uczyni pozycje religii nie do utrzymania. Już teraz kilka grup badawczych pracuje nad maszynami wykazującymi pewne ograniczone właściwości tego rodzaju. W miarę postępów w rozumieniu będzie następował odwrót od religii. Świadomość i umysł będą w końcu powszechnie akceptowane jako przejaw materialnego świata na podobieństwo atomu czy gwiazd na niebie. Jednak zanim zostanie Osiągnięty taki poziom wiedzy, to prawdopodobnie miną tysiące lat, chociaż przy obecnym tempie rozwoju badań naukowych mózgu przyjąłbym, że zajmie to zaledwie kilkadziesiąt lat. Stanowi to jednakże drobny ułamek czasu, jaki ludzkość i tak ma przed sobą na Ziemi, zanim Słońce po miliardach lat wybuchnie jako supernowa. W jaki sposób ludzkość upora się w tym czasie z życiem pozbawionym jakiegokolwiek głębszego znaczenia? Problemy społeczne Rozważmy następujące przypadki: W dniu 15 lipca 1992 roku młoda matka spacerująca z dwuletnim dzieckiem po pięknej dzielnicy Wimbledon Common w południowo-zachodnim Londynie była napastowana seksualnie, a później brutalnie zamordowana przez podcięcie gardła. Morderca matki pobił po głowie również dziecko, które ubrudzone błotem i krwią znaleziono wtulone w ciało matki. W dniu 16 lipca 1992 roku setki młodych ludzi obrzuciło kamieniami policję, spaliło i splądrowało sklepy w dzielnicy mieszkaniowej Bristolu po tym, jak dwaj młodzieńcy ukradli motocykl policyjny, którym wjechali na stojący radiowóz, w wyniku czego zostali zastrzeleni. Jak donosił „The Times": Wśród tłumu były rozkoszujące się walką kobiety z dziećmi w wózkach oraz zupełnie małe berbecie. W jakimś miejscu splądrowano sklep z łakociami. Świadkowie zajść twierdzą, że wśród sprawców znajdowały się dzieci w wieku czterech czy pięciu lat. Rodzice nie uczynili nic, by ich dzieci pozostały w domach i pozwolili im patrzeć na gwałtowne starcia z tłumem policji patrolującej dzielnicę. W kwietniu 1991 roku w Los Angeles doszło do zamieszek, w których uczestniczyło tysiące ludzi powodując strzelaninę, w której padło wiele ofiar. W ciągu tygodnia spalono wiele domów i sklepów, w wyniku czego wezwano Gwardię Narodową i ogłoszono godzinę policyjną. Były to najgorsze zamieszki w USA od czasów wojny domowej w ubiegłym stuleciu. To zaledwie trzy przykłady braku człowieczeństwa u ludzi z tak zwanego cywilizowanego świata Zachodu. Pierwsze dwa można by zwielokrotnić. Śmierć i nieszczęście towarzyszące wojnom, w szczególności rzeź obu wojen światowych, jak również inne liczne pomniejsze konflikty uczyniły z tego stulecia jedno z najkrwawszych i najbrutalniejszych. A przecież masakry i cierpienia towarzyszyły ludzkości przez wieki. Gwałtowna śmierć w wyniku spalenia żywcem, ukrzyżowania czy spalenia na stosie była czymś powszechnym. W przeszłości życie ludzkie było mniej warte, ale przecież mieliśmy do czynienia z masą bólu i cierpienia. Wydaje się więc, że niezależnie od rodzaju przewodnictwo duchowe, dostępne w przeszłości było raczej w pewnych obszarach życia zupełnie nieskuteczne. Religia, poczytywana zawsze jako ostoja moralności, nie ustrzegła ludzi od gwałtów dokonywanych pod jej płaszczykiem. Inkwizycja oraz święte wojny przypominają o minionych, inspirowanych przekonaniami religijnymi, nikczemnościach; fatwa islamu i sprawiedliwa wojna z błogosławieństwem biskupów to zjawiska, z którymi mamy do czynienia dzisiaj. Z drugiej strony, nie da się przecenić roli i znaczenia religii dla ludzi pogrążonych w rozpaczy. Przykłady te wskazują wyraźnie, że mimo wszystko w ludziach tkwi jakaś głęboka potrzeba życia godziwego i powiedzmy przestrzegania dziesięciorga przykazań. Lecz dlaczego wybierają taki sposób życia, jeśli w końcu musi być ono akceptowane takie, jakie jest, bez żadnego głębszego sensu? Dlaczego ktoś nie miałby szukać w życiu tylko przyjemności, nie troszcząc się o konsekwencje, jakie to może przynieść innym? Jeżeli ten ktoś nie mógłby osiągnąć swych celów na drodze pokojowej, dlaczego nie miałby się uciec do użycia przemocy? Faktycznie, wydaje się, że współczesna mentalność społeczna oczekuje od państwa wypełnienia obowiązków w postaci dostarczenia dóbr materialnych umożliwiających prowadzenie życia na odpowiednim poziomie i jeśli tego nie czyni, jest obwiniane. Dlatego też plądrowanie i grabież dóbr innych ludzi są poczytywane przez niektórych jako częściowo usprawiedliwione, czego przykładem mogą być zamieszki w Bristolu i Los Angeles. Zamordowana matka w Wimbledon Common stała się ofiarą niepohamowanych emocji i braku zdolności społeczeństwa do rozwiązywania problemów ludzi nieprzystosowanych, opanowywanych wybuchami morderczych emocji. Nic, co dotąd napisałem, nie wyjaśnia sposobu, w jaki można by przezwyciężyć aspołeczne zachowania opisane powyżej. Nie tłumaczy też coraz bardziej hedonistycznego podejścia do życia, w którym każdy poszukuje tylko swojego własnego zadowolenia, nie troszcząc się o innych. Jeżeli nie żyje się w kompletnej izolacji od społeczeństwa, to zaspokajając samemu własne potrzeby, należy współdziałać z innymi ludźmi. W tych wzajemnych zależnościach można wiele zyskać (lub stracić) w zależności od sposobu postępowania. Jeżeli dany osobnik obnosi się ze swoim chamstwem i egoizmem (lub nawet jest zdolny do gwałtu i morderstwa jedynie po to, by zaspokoić swoje gwałtowne instynkty), wtedy nie spotka się z życzliwym przyjęciem ze strony innych ani nie uzyska pomocy, tak niejednokrotnie potrzebnej w dzisiejszym nowoczesnym świecie. Jego życie będzie obarczone coraz większymi trudnościami. Być może dostrzeże strategię, która umożliwi mu uniknięcie pułapki zwalającej się na niego góry problemów, wynikających tylko z jego egoistycznego postępowania. Jest ktoś, kto w ciągu ostatnich dziesięcioleci zainwestował w precyzję naukową i doszedł do zaskakujących rezultatów. Fajni faceci przychodzą pierwsi Mówi się zwykle: fajni faceci przychodzą ostatni. Jednakże stosunkowo niedawno stwierdzono, że w społeczeństwie składającym się z ludzi, którzy potrafią współżyć ze sobą zarówno na płaszczyźnie wzajemnego zrozumienia, jak i nietolerancji, czyli właśnie ci najfajniejsi, przychodzą raczej jako pierwsi. Tę zaskakującą cechę zauważono przy rozgrywaniu zabawy, zwanej dylematem więźnia, w której uczestniczą dwie osoby i każda z nich ma do dyspozycji dwie karty czy wybory-jedna nazywa się współpraca, a druga brak. Każdy z graczy kładzie przed sobą na stole jedną z tych kart. Wtedy sieje odkrywa. Bankier (ktoś trzeci) wypłaca nagrodę, powiedzmy 300 funtów, każdemu z graczy, jeśli obydwaj wyłożyli karty współpraca, ale każdy z nich płaci karę w wysokości 10 funtów, jeżeli zagrali kartą brak. Jednocześnie, jeśli jeden współpracuje, a drugi nie przejawia takiej chęci, to ten ostatni dostaje 500 funtów, a pierwszy musi płacić 100 funtów. Odpowiada to rzeczywistej sytuacji przestępców, którzy mogą zostać wynagrodzeni krótszym wyrokiem za: wyłamanie się ze zmowy, zostanie świadkiem koronnym, a ukarani dłuższym za: wiarę w swojego wspólnika i przejawianie chęci współpracy z partnerem popełniającym czyn karalny. Właściwa strategia gry jest oczywista. Załóżmy, że gramy oboje. Jeśli zagrasz kartą braku, to ja muszę zrobić tak samo, żeby zminimalizować moje straty (które wyniosą teraz 10 funtów, zamiast 100 funtów, które bym przegrał, gdybym zagrał kartą współpracy). Jeżeli zagrasz kartą współpracy, to zyskam 500 funtów, jeżeli zagram brakiem, a tylko 300 funtów, jeżeli zgodzę się na współpracę. W obydwu przypadkach powinienem odmówić współpracy. Dwóch logicznie myślących graczy, a zakładam, że takimi jesteśmy, przegrywałoby w każdej kolejce po 10 funtów. Pozostaje dylemat, z którego jasno widać, że jeślibyśmy zgodzili się na współpracę, to zarobilibyśmy za każdym razem po 300 funtów. Ponieważ nie ma mowy o zaufaniu pomiędzy graczami, to obydwaj muszą się zdecydować na niewielkie straty. Rozważmy teraz przypadek rozgrywania takiej gry raz po razie. Jeżeli za każdym razem odrzucam współpracę, a ty jesteś na tyle głupi lub tak samobójczo altruistyczny, że w każdej grze proponujesz współpracę, to ja wygrałbym w dziesięciu grach 5000 funtów, podczas gdy ty straciłbyś 1000 funtów. Lecz na twoim miejscu chyba nie wytrzymałby nawet święty albo szaleniec próbujący współpracować z tak źle postępującym partnerem jak ja. Jako alternatywa pozostaje współpraca, dzięki której w czasie dziesięciu kolejek obydwaj zarabiamy po 3000 funtów (nie wspominając o olbrzymich stratach bankiera). Wydaje się, że istnieją liczne gatunki stworzeń wykorzystujące tego rodzaju strategię, dzięki której dochodzą do wzajemnego współdziałania. Na przykład, około pięćdziesięciu gatunków małych rybek i krewetek spędza swój żywot na zbieraniu pasożytów z łusek większych ryb. Te ostatnie mają korzyść w postaci czystej skóry, a czyściciele mają tym sposobem pokarm, który stanowią same pasożyty. Duża ryba mogłaby pożreć mniejszą, gdy została oczyszczona, jednakże takie rzeczy nie zdarzają się. Jest to godne uwagi, tym bardziej że czasami duża ryba nawet otwiera paszczę, zezwalając łaskawie na wyczyszczenie sobie zębów. Wydaje się rozsądne przyjąć, że tego rodzaju altruistyczne zachowania stanowiły przewagę w procesach ewolucji. Przetestowano różne sposoby postępowania, a w szczególności zbadano możliwość istnienia skuteczniejszej strategii od prostej odmowy współpracy, pozwalającej lepiej dopasować swoją reakcję do dotychczasowej gry innych. W tym celu symulowano w komputerze grę wielu par graczy, stosujących różne strategie. Ustalono, że jeżeli wynik jest uzależniony od przeciętnej osiągniętej w całej serii potyczek, to najlepszą prowadzącą do zwycięstwa metodą postępowania jest przebaczenie, ale również kierowanie się zasadą wet za wet. Polega ona na tym, że dany gracz odwzajemnia się tym samym tylko wtedy, gdy zostaje sprowokowany kartą brak, wyłożoną przez drugiego gracza. Jeżeli przeciwnik przestaje grać w tak paskudny sposób i zaczyna współpracować, wtedy gracz stosujący poprzednio zasadę wet za wet robi to samo. Okazało się, że jeżeli w grze może uczestniczyć wiele par, grających systemem każdy z każdym, a nagrodą zwycięskiej strategii nie są pieniądze, lecz potomstwo stosujące identyczną co rodzice strategię, to liczba graczy stosujących w końcu zasadę wet za wet zwiększa się w stosunku do innych po około tysiącu pokoleniach (przy założeniu, że początkowo było wystarczająco dużo graczy wykorzystujących tę strategię). Te i podobne rezultaty zwiększyły pragnienie zrozumienia sposobu, w jaki ewolucja mogła doprowadzić do altruistycznych relacji, na przykład pomiędzy dużą rybą a rybką czyścicielem. Podobne metody wykorzystywano również w przeszłości w planowaniu strategicznym gier wojennych. Badania tego rodzaju powinny stać się, i nie mam wątpliwości, że się staną, wielce pomocne w poszukiwaniu wskazówek, w jaki sposób postępować wciągu całego życia, aby w dzisiejszym świecie osiągnąć jak najlepsze rezultaty. Strategia dla życia W społeczeństwie istnieją, bo przecież muszą, ciągłe wzajemne oddziaływania pomiędzy wszystkimi jego członkami. W nowoczesnym świecie, w którym nauka i technika odgrywa coraz większą rolę stając się bankierem wyposażającym nas we wszelkiego rodzaju dobra, strategią wygrywającą będzie postępowanie według reguł wet za wet. Oznacza to, że nie wolno uderzać pierwszemu, a raczej próbować współpracy z innymi dopóki tylko można. W pewnym sensie prowadzi to do wzorców postępowania wytyczonych dziesięciorgiem przykazań. W odpowiedzi na niesolidne postępowanie musi nastąpić karzący krok ze strony społeczeństwa, co objawia się działaniem prawa z jego kodeksem karnym. Przechwycenie przez kogoś prawa zniszczyłoby subtelną strukturę nowoczesnego społeczeństwa. Analiza rozwoju życia społecznego w koloniach oraz symulacja komputerowa wykazują, że na gruncie teorii ewolucji nieco trudno jest umotywować reguły dziesięciorga przykazań, prawa i karania tych, którzy je naruszyli. Twierdzi się obecnie, że społeczeństwo wyzwoliło się już spod kontroli reguł wynikających z doboru naturalnego. Nauka i technika pozwoliła nam ująć los we własne ręce, a nawet tworzyć nowe gatunki za pomocą inżynierii genetycznej. Jednakże możliwość zmiany naszej osobowości, na tyle by wyeliminować z niej postawy agresywne, wydaje się jeszcze długo poza zasięgiem ręki. Co innego bowiem wiedzieć, jak żyć, a co innego połączyć tę wiedzę z materiałem genetycznym, którym jesteśmy obdarzeni. Odkrycie, z którego wynika, że najkorzystniejszą strategią dla każdego z nas jest postępowanie według reguły wet za wet, wyraźnie wskazuje, że powinniśmy próbować stosować tę strategię wszędzie tam, gdzie tylko to możliwe. Zamiast technik inżynierii genetycznej powinniśmy zatem wykorzystywać raczej właściwe metody wychowawcze, umożliwiające ludzkości razem przeżyć rozsądnie tę krótką chwilę, jaką los przeznaczył każdemu z nas. Lecz czy punkt, do którego obecnie dotarliśmy, z mnóstwem gwałtu i przemocy, morderstwem młodej kobiety, plądrowaniem sklepów i ulicznymi za mieszkami w wielu miastach, jest już tym miejscem? Musimy jeszcze nauczyć się, jak przekonać ludzi o konieczności wzajemnej pomocy w świecie pełnym bezprawia i szaleństwa. Wydaje się, że szkoła i dom nie spełniają swoich zadań. Zbyt wielu nastolatków jest bliskich analfabetyzmu, a więc nieprzydatnych do wykonywania żadnego zawodu; zostali wychowani na codziennej dawce telewizji i wideo, pokazujących sceny dosadnego seksu i przemocy; niewiele wskazówek moralnych uzyskali od rodziców oraz niewiele nauczyli się od nauczycieli. Nic więc dziwnego, że w dzisiejszym społeczeństwie spotykamy się z taką masą przemocy i okrucieństwa. Nauka rozwijając się nie pozostaje również bez winy, jako że nowe technologie, w rodzaju automatyzacji, doprowadziły do wzrostu bezrobocia. Wyraźnie widać, że jest konieczna znaczna poprawa metod wychowawczych. Należy rozpowszechnić wzorce etyczne i dokładniej określić, co można pokazywać w telewizji. Trudno jednak będzie je wprowadzić w życie. Wychowanie pozostanie zawsze główną siłą oddziałującą na korzyść dobra. Obecne metody wychowawcze można oskarżać o to, że kładą zbyt duży nacisk na rozwój intelektualny, a pomijają życie emocjonalne ucznia. Niepoślednie miejsce powinno zająć w szkole wychowanie rozwijające również życie duchowe. Nie można tego zostawić przypadkowi, ponieważ kończy się to na seksie, kłamstwach i kasetach wideo. Pominięcie emocji cofa nas do poglądów obowiązujących w starożytnej Grecji, gdzie były uważane za coś nieczystego i sięgającego niższej strony natury ludzkiej. A przecież uczucia przydają barwy całemu naszemu życiu i nie można ich pomijać w tak koślawy sposób. W miarę coraz lepszego rozumienia emocji, ludzkość w ciągu następnych stuleci, w ramach rozwoju wiedzy o świadomości, odkryje z pewnością metody obejmujące doznania duchowe, co już zostało zapoczątkowane choćby w technikach wykorzystywanych w teatrze Stanisławskiego. Konstanty Stanisławski był właścicielem i dyrektorem teatru, a w 1898 roku założył Moskiewski Teatr Artystyczny. Rozwinął nowe podejście do aktorstwa oparte na realizmie i całkowitej identyfikacji aktora z bohaterem. Koncepcja ta, przetransponowana później na wiele różnych technik, pozwala aktorowi wzmocnić i wykorzystać swoje doświadczenia emocjonalne, co czyni jego rolę bardziej wyrazistą. Jedna z nich, zwana pamięcią emocjonalną, wymaga od aktora, by odtworzył z pamięci nawet sposób poruszania się w konkretnych sytuacjach. Wspomnienia były wtedy odtwarzane przed nauczycielem oraz przed wyimaginowanymi partnerami czy przeciwnikami, których miejsce zajmowali ludzie zgromadzeni w studiu. Następnie zadawano pytania mające na celu dotarcie do szczegółów. Sam aktor musiał również pracować indywidualnie, aby jego gra jak najdokładniej odpowiadała jego wspomnieniom. W ten sposób źródło, z którego wywodziła się gra aktorska, stawało się bardziej płodne twórczo i łatwiejsze do wykorzystania. Później z takich improwizowanych kawałków układano sceny składające się na całą sztukę. W obrębie innych technik wykorzystywano i rozwijano praktykę ucieleśniania oraz operowania wyimaginowanymi obiektami. Jeżeli odkryje się techniki podobne do tych, które są wykorzystywane w różnych eksperymentach teatralnych, w rodzaju pamięci emocjonalnej czy improwizacji, oraz skojarzy sieje z najnowszą wiedzą z dziedziny psychologii i neurologii, to wykorzystawszy to w szkołach, a w szczególności w szkołach średnich, możemy oczekiwać, że będzie można uniknąć frustracji wieku dojrzałego oraz znacznie zmniejszyć rozmiary późniejszych szaleństw (w rodzaju morderstwa w Wimbledonie). Oczywiście, musiałoby to zostać przeprowadzone z wielką ostrożnością, by młodzi ludzie nie poczuli się przygnieceni problemami swojej duszy i nie próbowali w sytuacjach skrajnych szukać ucieczki w samobójstwie lub całkowitej apatii. Można również rozważać wprowadzenie do programu lekcji gier podobnych do dylematu więźnia. Uczniowie mogą na podstawie tych zabaw poznać elementy teorii gier oraz przekonać się, że istnieją inne bardziej efektywne strategie sterowania swym życiem, niż tylko ciągła odmowa współpracy. Może wtedy z wolna, po dziesięcioleciach czy nawet po stuleciach, ludzkość stanie się bardziej ludzka. W wyniku tego procesu będzie można radość życia czerpać z głębszych związków z innymi członkami społeczeństwa oraz z działalności twórczej, przy czym w obydwu obszarach działalności będzie można wykorzystywać talenty duchowe i intelektualne ukształtowane odpowiednim wychowaniem. Życie wzbogaci się o współpracę, na której się opiera. Ludzie przyszłości w pełni przygotowani do życia emocjonalnego i duchowego, mający do swojej dyspozycji cały potencjał nauki i techniki, zdolny zaspokoić wszystkie potrzeby życiowe niewielkim nakładem pracy, byli utopią, którą mamili wizjonerzy wszystkich czasów, lecz do której, jak dotychczas, jeszcze się nie zbliżyliśmy. Nauka jest postrzegana jako nieposkromiony żywioł trudny do opanowania, lecz dzieje się tak być może dlatego, że sposób naszego myślenia jest ograniczony pewnymi doktrynami. Mam jednakże nadzieję, że w miarę pozbywania się doktrynalnych poglądów oraz w miarę rozwoju nauki ludzkość z wolna dojrzeje do odrzucenia psychicznego kaftanu bezpieczeństwa i z coraz większą swobodą oraz z coraz skuteczniejszym wykorzystaniem rozumu wyruszy na poszukiwanie sensu swojego istnienia. Ten stan będzie tym szybciej zrealizowany, im lepiej będziemy nauczać rozumienia i kontroli niższych aspektów życia. Ciągle jednak jeszcze nic wiemy, w jaki sposób moglibyśmy nadać sens naszemu życiu. W świetle tego, co dotychczas napisałem w tej książce, moja odpowiedź brzmi następująco. Poprzez takie wychowanie młodzieży, że zostaną rozwinięte zarówno zdolności intelektualne jak i duchowe, można doprowadzić do powstania społeczeństwa, którego członkowie będą zdawać sobie sprawę z tego, co i dlaczego robią. „Co" odpowiada w tym przypadku aspektowi intelektualnemu, podczas gdy ,,dlaczego" daje pewnego rodzaju poczucie bezpieczeństwa. Ponadto można u młodych ludzi rozwijać w ten sposób upodobania i gusty, by nie cieszyły ich żadne akty o wyraźnie aspołecznym charakterze. Postrzegać będą siebie samych i będą postrzegani przez innych zawsze przez pryzmat umiejętności sterowania swoim losem, którego ścieżki tak dobrali, by spełniły ich potrzeby duchowe. Staną się przez to bardziej świadomi oraz zdolni do wzbogacenia swojego życia. Być może pozostaną przy wierzeniach religijnych nie potrafiąc pogodzić się z obrazem życia oferowanym przez naukę, a pozbawionym całkowicie głębszego sensu. Ta dodatkowa możliwość będzie dla nich zawsze dostępna. Jestem przekonany, że każda istota ludzka może spędzić podarowane sobie życie, zaspokajając wszystkie swoje wewnętrzne potrzeby i dążenia zarówno odziedziczone, jak i nabyte, w taki sposób, który jednocześnie umożliwi innym członkom społeczeństwa osiągnięcie tego samego zadowolenia. Sądzę, że strach przed totalnym samobójstwem ludzkości, który czasem uświadamia nam oczywistą bezwartościowość życia (o czym wspomniałem wcześniej), wynika z nieporozumienia. Z samobójstwem mamy do czynienia wtedy, gdy dany osobnik nie może sobie poradzić z dręczącymi go problemami. Poprzez wychowanie i dostarczenie właściwych wytycznych na całe życie oraz z uzyskaną świadomością o sobie samym, można osiągnąć taki stan psychiczny, że reakcje tego typu i takie zakończenie drogi staną się dużo mniej prawdopodobne. Aby uwydatnić swoje człowieczeństwo, kobieta i mężczyzna muszą się wzajemnie lepiej rozumieć na głębszych poziomach życia intelektualnego i duchowego. Każdy musi wznieść się na wyżyny swojej świadomości oraz pojąć świadomość innych ludzi. Widzę, że jedyna droga do lepszej przyszłości dla ludzkości wiedzie przez naukę i wykorzystanie jej osiągnięć. Sens egzystencji stanie się wówczas oczywisty — życie należy przeżyć w pełni, zarówno we wnętrzu siebie samego jak i we współpracy z innymi.