PETER COVENEY, ROGER HIGHFIELD GRANICE ZŁOŻONOŚCI. POSZUKIWANIA PORZĄDKU W CHAOTYCZNYM ŚWIECIE (Frontiers of Complexity. The Search for Order in a Chaotic World / wyd. orygin.: 1995) Za wszystko co pstrokate, chwała niech będzie Panu - Za niebo wielobarwne jak łaciate cielę; Za grzbiety pstrągów, różem nakrapiane w cętki; Za skrzydła zięb; żar szkarłatny rozłupanych kasztanów; Za ziemię w działkach, w kawałkach - za ugór i za zieleń; I za rzemiosło wszelkie, jego narzędzia i sprzęty. Wszystkiemu co nadmierne, osobliwe i sprzeczne, Rzeczom pstrym i pierzchliwym (któż wie jak to się dzieje?), Wartkim i wolnym, słodkim i słonym, mocnym i miękkim, On wciąż początek daje, Ten czyje piękno jest wieczne: Jemu niech będą dzięki. GERARD MANLEY HOPKINS Pstre piękno (przekład Stanisława Baraczańska)             Dla Samii i Eleny oraz Julii, Rona i Doris PRZEDMOWA Gdy bohater sztuki Moliera Mieszczanin szlachcicem dowiedział się, co znaczy słowo "proza", zdał sobie sprawę, że od czterdziestu lat nieświadomie mówił prozą. Podobnie, czytając Granice złożoności, zrozumiałem, że od kilkudziesięciu lat zajmuję się złożonością, nie wiedząc nawet, w jak wspaniałym towarzystwie przebywam. Z moich doświadczeń wynika, że w medycynie, gdzie obserwacje mają zasadnicze znaczenie, złożoność zjawisk można zrozumieć, przynajmniej częściowo, wielokrotnie obserwując cały organizm lub ich populację w różnych warunkach, starając się przy tym zarejestrować i zbadać jak najwięcej zmiennych. Na przykład w badaniach chorób stopniowo gromadzimy wiedzę na temat wpływu bardzo licznych czynników na organizm chorego, genetycznie uwarunkowanej podatności na chorobę oraz oddziaływań między czynnikami zewnętrznymi, organizmem i otoczeniem. Natomiast w podejściu redukcjonisrycznym, tradycyjnie stosowanym w fizyce, chemii i biologii molekularnej, obmyślamy takie eksperymenty, które upraszczają badanie zjawiska wskutek eliminacji niemal wszystkich zmiennych. Opisujemy wtedy zjawiska, odwołując się do najprostszych elementów układu. Badania wirusa żółtaczki typu B (HBV) i jego oddziaływań są dobrym przykładem nauki obserwacyjnej. HBV powoduje pierwotny nowotwór wątroby, jeden z na)powszechniej występujących rodzajów nowotworów. Jednak nie wszyscy, którzy mieli kontakt z wirusem, stają się chronicznie zarażeni i nie wszyscy chronicznie zarażeni chorują na raka. Wewnętrzne i zewnętrzne czynniki, które określają, czy dana osoba ulegnie zarażeniu i zachoruje, wywierają na siebie wpływ i zależą od czasu. HBV ma do czynienia z innymi wirusami atakującymi wątrobę, takimi jak HIV, pierwotniakami powodującymi malarię i zapewne jeszcze jakimiś mikroorganizmami. Te oddziaływania wpływają na prawdopodobieństwo infekcji i choroby. Czynniki genetyczne, wiek i płeć również mają duże znaczenie. Na dokładkę ryzyko zachorowania na raka zwiększają pewne czynniki środowiskowe, takie jak aflatoksyna (środek rakotwórczy, wytwarzany przez grzyby rozkładające żywność), żelazo, arszenik i zapewne jeszcze inne. Kolejną komplikacją jest oddziaływanie czynników genetycznych ze środowiskowymi. Wirus wytworzył zaskakująco inteligentne strategie maksymalizacji szans przetrwania bez zabijania gospodarza, tak aby mógł zostać przekazany następnej ofierze, najczęściej podczas stosunku seksualnego. Bardzo często zarażeniu ulegają dzieci podczas porodu i w okresie niemowlęctwa. Szczególnie sprytne są metody stosowane przez wirus w celu przechytrzenia ludzkiego układu odpornościowego. Wirus stosuje "zasłonę dymną" z obficie wytwarzanych antygenów powierzchniowych, aby przeciwdziałać reakcji immunologicznej; organizm uczy się tolerować antygen wirusa, dzięki czemu ten może długie lata istnieć i reprodukować się w wątrobie gospodarza, który żyje dalej, nieświadom zagrożenia. To tylko jedna z "inteligentnych" sztuczek wirusa. Zebrane dane nie pozostawiają cienia wątpliwości, że potrzebny jest tu model uwzględniający złożone i zależne od czasu oddziaływania między znanymi i nieznanymi zmiennymi. Jednak konwencjonalne metody budowania modeli niezbyt się nadają do tak złożonego problemu, wymagającego przyjęcia bardzo wielu założeń. Czy nauka o złożoności stwarza nadzieję, iż uda się skonstruować dynamiczne i ewolucyjne modele, opisujące tę sytuację? Autorzy Granic zlożoności przekonują nas, że tak jest w istocie, gdyż obecnie uczeni rozważają inne złożone problemy: prawdziwe problemy, z jakimi mamy do czynienia w rzeczywistym świecie, nie zaś konstrukcje "doświad-czalników", pozbawione bogactwa, które cechuje naturę. Książka ta stwarza nadzieję, że złożone problemy okażą się rozwiązywalne. Można w niej znaleźć również przykłady metod syntezy i analizy, które coraz częściej stosują biolodzy i uczeni zajmujący się naukami medycznymi, zmuszeni do radzenia sobie z kłopotliwym bogactwem zmiennych. Autorzy mówią także o pokusach redukcjonizmu. Tradycyjna nauka, zgodnie z greckim ideałem, uwielbia prostotę, harmonię, symetrię i inne atrybuty czystego piękna. Według pewnych interpretacji, Platon uczył, że widzialny świat nie jest tak rzeczywisty, jak jego istota ukryta za złożonością zjawisk, rzeczą zaś filozofa jest poznanie tej istoty. Nauki empiryczne usiłują poznać tę istotę, tworząc obraz świata, wywodzący się z doświadczeń, ale maksymalnie uproszczony. Na przykład nauki redukcjonłstyczne, zainteresowane cząstkami elementarnymi i ich oddziaływaniami lub też genami i molekułami ważnymi w biologii, umożliwiły – zwłaszcza w ciągu ostatnich kilkudziesięciu lat – ogromny wzrost naszej wiedzy między innymi dlatego, że pozwoliły stworzyć narzędzia i metody nieznane w przeszłości. W układach nieliniowych całość jest jednak czymś więcej niż prostą sumą części. Takie układy można zrozumieć jedynie wtedy, gdy badamy ich zachowanie "globalne", a nie tylko szczegółowo analizujemy detale ich budowy. Niewykluczone, że w naukach takich jak medycyna właśnie złożoność jest kluczem do rozwiązania istniejących problemów. Gdy wskutek choroby układ biologiczny źle funkcjonuje, pełna znajomość złożoności organizmu pozwala na interwencję w różnych jego miejscach. Warto znać "prawdziwą" przyczynę choroby, to znaczy jeden istotny element, który ją spowodował, ale często nie można jej wykryć lub jest ona fikcją, wymyśloną przez badacza, który chciałby uzyskać proste rozwiązanie złożonego problemu. Jak można się przekonać, czytając tę książkę, inżynierowie i uczeni zajmujący się zastosowaniami nauki są ludźmi pragmatycznymi, doskonale pamiętającymi, że "lepsze jest wrogiem dobrego". Badania zjawisk na granicy między chaosem i porządkiem, gdzie zdaniem niektórych kryje się klucz do zrozumienia problemów natury, zapewne nie doprowadzą do znalezienia ścisłych rozwiązań, ale otrzymane wyniki dadzą się zastosować w praktyce i pozwolą na zrozumienie tych procesów. W tej książce czytelnicy znajdą wiele ekscytujących rzeczy. Na przykład Boska gra narodziła się jako matematyczna zabawa, w której obowiązywały proste reguły, ale doprowadziła do powstania konstrukcji, wykazujących cechy żywych układów, takich jak wirtualne ryby, rozpraszające się na widok wirtualnego rekina, i wirtualne pszczoły, zdradzające upodobanie do takich samych kwiatów jak rzeczywiste pszczoły. Innym przykładem jest wykorzystanie DNA do wykonywania skomplikowanych obliczeń oraz konstrukcja sztucznego życia, czyli programów komputerowych zachowujących się jak żywy organizm. Te cechy można przy tym przekazać robotom, które pracują w odległych miejscach, takich jak kratery aktywnych wulkanów, powierzchnia Księżyca lub Marsa, i które wyglądają jak owady zaprojektowane przez inteligentnego projektanta, choć ich zadaniem jest badanie natury. W ramach takich badań sztucznego życia uczeni konstruują również programy ewolucyjne, które pozwalają, aby opisywane przez nie "biomorfy" konkurowały o przeżycie – na przykład walcząc o dostęp do pamięci i o czas obliczeniowy komputera. Proces ten różni się od ewolucji naturalnej tym, że to uczony określa reguły przeżycia. Wobec tego twórczy naukowiec odgrywa rolę boga w stworzonym przez siebie świecie. Podczas pierwszej konferencji na temat sztucznego życia w Los Alamos w 1987 roku Richard Dawkins, zoolog z Oksfordu, przedstawił swój program Ślepy zegarmistrz, symulujący ewolucję różnych uporządkowanych form, przy czym to Dawkins dokonywał selekcji, kierując się względami estetycznymi. Thomas Ray i inni opracowali programy, w których wskutek ewolucji powstają najrozmaitsze struktury bez interwencji celowo działającego twórcy. Ludzkość ma powody, żeby czuć niepokój z powodu twórczej "arogancji" uczonych. Ich pomysły mogą łatwo podsycić obawy, jakie dwa wieku temu wzbudził potwór Yictora Franken-steina. Nie brakuje współczesnych artykulacji takich koncepcji. Znany krystalograf Bernal stwierdził, że ludzie nie zadowolą się naśladowaniem znanych form życia, lecz spróbują Je ulepszyć. Biolog molekularny, jeden z bohaterów filmu i książki Park jurajski, tworząc dinozaury, nie zadowolił się prostym kopiowaniem dawnych stworzeń na podstawie odnalezionego DNA. Zamiast tego dodał geny przyspieszające rozwój, spróbował stworzyć populację, składającą się z osobników jednej płci, i usiłował zmienić ich sposób poruszania, tak aby lepiej pasowały do wyobrażeń publiczności. Te pomysły były skazane na niepowodzenie między innymi dlatego, że zbyt słabo rozumiemy wpływ, jaki nauka wywiera na środowisko. Krytyk i eseista Gilbert Highet pisze o Hiobie, który podczas wielkiej burzy uświadamia sobie potęgę sił przyrody. Badania złożoności, nawet jeśli nie doprowadzą do znalezienia w pełni satysfakcjonujących rozwiązań, powinny uświadomić reduk-cjonistom, że niezależnie od tego, ile zbiorą szczegółowych informacji i jak ogólne teorie stworzą, zawsze coś pozostanie za granicą obecnej wiedzy. Każde doświadczenie, jakie wykonujemy w celu sprawdzenia hipotezy, prowadzi do nowych pytań. Tajemnice przyrody nie mają granic, podobnie jak nasze pragnienie ich poznania. Badania nad złożonością stwarzają okazję, żeby zatrzymać się choć na chwilę, przyjrzeć globalnym oddziaływaniom między elementami podstawowymi – cząstkami elementarnymi, atomami, genami – i stworzyć syntezę, wykraczającą poza granice poszczególnych dziedzin nauki. Tylko w ten sposób możemy uzyskać pełny obraz natury. Barach Blumberg laureat Nagrody Nobla PODZIĘKOWANIA Minęło już niemal dziesięć lat od chwili, kiedy podczas nocnej rozmowy o naturze czasu i jego związkach z ewolucją złożonych układów po raz pierwszy pomyśleliśmy, że moglibyśmy napisać razem książkę. W taki sposób powstała Strzatka czasu, która ukazała się w 1990 roku i została już przetłumaczona na ponad tuzin języków. Granice złożoności to jej kontynuacja. Omawiamy tu dokładniej i szerzej pojęcia, z którymi zetknęliśmy się w Strzałce czasu, a szczególnie złożoność, samoorganizację i sztuczne życie. Kompozycja książki jest podporządkowana tym głównym koncepcjom, tak aby nie zostały one przesłonięte przez opowieści o osobach, które wzięły udział w ich tworzeniu. Staraliśmy się również umieścić omawiane idee w ogólnym kontekście, przedstawiając historyczny rozwój odpowiednich dziedzin nauk przyrodniczych, techniki i matematyki. W miarę możliwości unikaliśmy specjalistycznego żargonu i całkowicie zrezygnowaliśmy z matematyki. Numerowane przypisy, przeznaczone dla czytelników głębiej wprowadzonych w naukę, ukryte są na końcu książki; tam też znajdują się szczegółowe odnośniki do literatury naukowej oraz rozmaite dziwaczne lub fascynujące wiadomości, z których podania nie potrafiliśmy zrezygnować. Czytelnicy zainteresowani dalszym poszerzaniem swej wiedzy o omawianych problemach mogą skorzystać z obszernej bibliografii. Wielu czytelnikom zapewne ułatwi lekturę słowniczek terminów naukowych. Jesteśmy ogromnie zobowiązani osobom, które pomogły nam w czasie pracy nad książką. Bardzo dziękujemy Maxowi Hastlngsowi, redaktorowi "The Daily Telegraph", który umożliwił Rogerowi Highfleldowi skorzystanie ze stypendium w Balliol College w Oksfordzie w 1994 roku. Podczas pobytu na uniwersytecie Highfield często korzystał z pomocy i wsparcia Barucha Blumberga, będącego wówczas dyrektorem Balliol. Atmosfera nauki na najwyższym poziomie, jaką jest przesycone Laboratorium Schlumbergera, była dla Petera Coveneya źródłem inspiracji. Wielu kolegów nie szczędziło czasu, żeby wyjaśnić nam różne problemy i dostarczyć informacji. Jesteśmy szczególnie wdzięczni Johnowi Billinghamowi, który wielokrotnie przeczytał cały maszynopis, i Bruce'owl Boghosianowl za długie dyskusje i wiele celnych sugestii. Chcielibyśmy również serdecznie podziękować Baruchowi Blumbergowi za częste słowa zachęty, komentarze i napisanie przedmowy. Jesteśmy bardzo wdzięczni wielu osobom za twórczą krytykę pierwszej wersji książki. Oto ich lista: Len Adleman, Shara Amin, Steve Appleby, Michael Arbib, Robert Axelrod, Par Bak, Gary Barker, Mark Bedau, Colin Blakemore, Tim Bliss, Grego-ry Chaitin, Dave Cliff, Francis Crick, Jim Crutchfield, Derek Denton, David Deutsch, Rodney Douglas, Gerald Edelman, Manfred Eigen, Jose-Luls Fernandez, Brlan Goodwin, Geof-frey Hinton, Andrew Hodges, John Holland, Xiaoping Hu, Gerald Joyce, Stuart Kauffman, James Lake, Chris Langton, Wil-liam Latham, Ralph Linsker, Seth Lloyd, James Lovelock, Lulgl Luisi, Paul Mcllroy, Misha Mahowald, Carlo Maley, Chri-stof von der Malsburg, Norman Margolus, Mario Markus, Robert May, David Miller, Melanie Mitchell, Denis Noble, Martin Nowak, Leslie Orgel, Oliver Penrose, Roger Penrose, Edmund Rolls, Steven Rosę, Riitta Salmelin, Antoine Schlijper, Terry Sejnowski, David Sherrington, Karl Sims, Olaf Sporns, Oliver Strimpel, Doron Swade, Harry Swinney, Jim Tabony, John Taylor, Roger Traub, Lotfl Zadeh i Semir Zeki. Jesteśmy również bardzo zobowiązani licznym osobom, które dostarczyły nam informacji lub zgodziły się na rozmowę z nami. Byli to: Igor Aleksander, Anthony Arak, Wallace Broec-ker, Rodney Brooks, Marilyn Butler, John Conway, Malcolm Cooper, Elena Coveney, Richard Dawkins, Dań Dennett, Rodney Douglas, Tim Dowling, Karl Friston, Peter Fromherz, Hugo de Garis, Murray Gell-Mann, John Habgood, Danny Hills, Peter Hilton, Rufus Johnston, Julian Lewin, Robert Littell, Chri-stopher Longuet-Higgins, Sindey Nagel, Tom Ray, Urs Ribary, John Searle, Hava Siegelmann, Tom Stoppard, Demetri Terzo-poulos, Tom Toffoli, Giulio Tononi, Paul Verschure, Peter Walde, James Watson, Gerard Weisbuch i Stephen Wolfram. Wiele osób zapoznało się z fragmentami tej książki i zechciało wskazać nam liczne niejasności, wymagające poprawy. Do osób tych należą: Samira Ahmed, Oscar Bandtlow, Julia Brookes, Jon Dagley, Richard Dały, Andre Emerton, Allan Evans, Heather Gething, Ronald i Doris Highfield, David Johnson, Mehul Khimasia, Tony Manzi, Sarnia Nehme i Keir Novik. Mehul i Keir pomogli nam również zrobić korektę. Rzecz jasna, wyłącznie my ponosimy odpowiedzialność za wszystkie błędy, jakie pozostały. Wymienione tu osoby nie zawsze zgadzają się z naszymi poglądami wyrażonymi w książce. Jesteśmy bardzo zobowiązani autorom rysunków i zdjęć, które dostarczyli między innymi William Latham, Mario Markus, Karl Sims, Nick Waters i Michael Whiteley. Dziękujemy pracownikom Laboratorium Daresbury oraz Davidowi Stuartowi i jego współpracownikom z Wydziału Biologii Molekularnej Uniwersytetu w Oksfordzie za zdjęcie struktury wirusa pryszczycy (choroba racic i pyska). Następujące osoby i instytucje zgodziły się udostępnić nam materiały ilustracyjne, za co jesteśmy bardzo wdzięczni: American Association for the Advancement of Science, J. Balde-schwieler, Gary Barker, British Telecom, Rodney Brooks, Peter Coveney, "Current Biology", "The Daily Telegraph", Richard Dawkins, Geral Edelman, J.-L. Fernandez, Hugo de Garis, Jo-seph Harrington, Martin Harvey, Institute for Advanced Study, Gerald Joyce, Włlliam Latham, Norman Margolus, Mario Markus, Kevan Martin, Peter Newmark, Denis Noble, Martin Nowak, Przemysław Prusinkiewicz, Thomas Ray, Julius Rebek, Riitta Salmelin, Science Museum w Londynie, Kenneth Sho-walter, Karl Sims, Jakop Skipper (autor C-Zbo), David Stuart, Demetri Terzopoulos, Manuel Yelarde, Nick Waters, Michael Whiteley, Andrew Wuensche i Semir Żaki. Alan Gilliland i Ri-chard Burgess, graficy z "The Daily Telegraph", wykonali liczne rysunki. Dziękujemy również sekretarce Gulshan Chunara z "The Daily Telegraph" za niezawodną pomoc; Johnowi Brockmano-wi, który namówił nas do napisania tej książki; naszym redaktorom, Joelle Delbourgo i Andrei Schulz z Nowego Jorku oraz Julianowi Loosowi z Londynu. Do nadania ostatecznej postaci naszemu dziełu szczególnie przyczyniła się Andrea Schulz. Chcielibyśmy także wyrazić wdzięczność Susanne McDadd, która odegrała ważną rolę w początkowym okresie pracy nad tą książką oraz pomagała nam podczas pisania Strzałki czasu. Przede wszystkim dziękujemy jednak Samii i Julii za wyrozumiałość, jaką nam okazały podczas kolejnego długiego i wyczerpującego przedsięwzięcia. marzec 1995 Peter Coveney, Laboratorium Schlumbergera w Cambridge Roger Highfield, "The Daily Telegraph" PROLOG Trudno byłoby sobie wyobrazić dwóch bardziej odmiennych ludzi niż John von Neumann i Alan Mathison Tu-ring. Johnnie był światowcem, uwielbiał opowiadać dowcipy i przebywać w towarzystwie kobiet.l Chodził w eleganckich garniturach, lubił pikantne historyjki i przyjęcia. Alan Turing był nieśmiałym, choć sympatycznym samotnikiem, znanym jako "Prof. Zazwyczaj nosił podniszczone sportowe marynarki, a poza tym miał żółte zęby, brudne paznokcie i się jąkał.2 Obaj uczeni poznali się, gdy Turing miał dwadzieścia trzy lata. Na ostatnie Boże Narodzenie przed spotkaniem poprosił mamę o pluszowego misia, któremu nadał imię Porgy.3 Tych dwóch mężczyzn, których dzieło ma dla nas zasadnicze znaczenie, łączyło bardzo niewiele. Alan Turing urodził się 23 czerwca 1912 roku w domu opieki w pobliżu Paddington w Londynie. Von Neumann miał wówczas osiem lat i mieszkał na Węgrzech; jego edukacją zajmowali się prywatni nauczyciele, zaangażowani przez bogatego ojca. Jednak od spotkania w Cambridge w 1935 roku Turinga i von Neumanna połączyła wspólna wizja, twór ich niezwykłej inteligencji. W ciągu następnej dekady obaj niezależnie stworzyli matematyczne, logiczne i fizyczne podstawy działania i budowy elektronicznych komputerów cyfrowych. Ich nazwiska są teraz nierozdzielnie związane z maszyną, która wpływa na wszystkie aspekty naszego codziennego życia: bez niej nie byłoby telekomunikacji, procesorów tekstu, elektronicznych kas sklepowych, programowalnych odtwarzaczy kaset wideo, filmowych efektów specjalnych, Internetu – listę tę można ciągnąć w nieskończoność. Bity elektronicznej informacji okrążają świat, przenosząc dane techniczne, decyzje handlowe, polityczne groźby, rozkazy otwarcia ognia i słowa miłości, umożliwiając wideo-konferencje i długie nocne rozmowy. Alan Turing i John von Neumann Turing i von Neumann podjęli również pionierskie badania złożonych układów, od turbulentnych przepływów do myślących mózgów. Prace te mają zasadnicze znaczenie dla nauki o złożoności, której celem jest opis całego lasu, a nie poszczególnych drzew, wydobycie jedności z różnorodności, wyjaśnienie organizacji i uporządkowania, czy to w przelotnej chmurze, czy też w nowej, inspirującej myśli. Nie jest przypadkiem, że komputer cyfrowy – dzieło tych ludzi – stanowi najważniejsze narzędzie takich badań, ponieważ matematyczne równania opisujące układy złożone są zazwyczaj zbyt skomplikowane, aby można je było rozwiązać za pomocą papieru i ołówka. Strategia żerowania mrówek, prądy konwekcyjne w zbiorniku podgrzanego oleju, nieregularne skurcze chorego ludzkiego serca to tylko kilka spośród bardzo wielu przykładów złożonych układów, których nie moglibyśmy symulować bez pomocy komputera cyfrowego. Ich wizja sięgała jednak dalej niż tylko do komputerowych symulacji. Zainteresowania logiką, komputerami i biologią doprowadziły von Neumanna do wymyślenia samoreprodukującego się automatu; chciał wykazać, że maszyna jest zdolna do spełniania jednej z podstawowych funkcji żywych organizmów. W ten sposób von Neumann stał się założycielem nauki o sztucznym życiu, jednej z najbardziej fascynujących dziedzin współczesnych badań. Nadrzędną ambicją Turinga było skonstruowanie sztucznego "mózgu"; uważał on, że rozwój komputerów doprowadzi pewnego dnia do realizacji jego marzeń. W słynnej pracy z 1950 roku Turing sformułował operacyjną definicję inteligencji, na tyle ogólną, by obejmowała zarówno obiekty biologiczne, jak i komputery.4 Prace na temat komputerów oraz ich związków z mózgiem w pełni uzasadniają nazwanie Turinga ojcem sztucznej inteligencji. Turing był przekonany, że uczenie się jest warunkiem koniecznym inteligencji, zarówno naturalnej, jak i sztucznej. Z tego powodu w ostatnich latach życia poświęcił wiele uwagi strukturze mózgu żywych stworzeń i działaniu ogromnych zbiorów komórek mózgu (neuronów) w procesach uczenia się. To doprowadziło go do zagadnienia morfogenezy, czyli rozwoju struktur biologicznych, na przykład takich jakie można zaobserwować w budowie stokrotek. To była jednak ostatnia faza rozkwitu jego wspaniałej kariery naukowej. Podczas dochodzenia policyjnego w sprawie włamania do jego domu Turing musiał ujawnić, że jest homoseksualistą, ta zaś orientacja seksualna nie była wówczas w Anglii tolerowana. W 1952 roku Turing pisał do przyjaciela, że został oskarżony o wykroczenia seksualne. Uważał, że kładzie to cień na jego badania naukowe, czego dobitnym wyrazem był sylogizm, jakim zakończył list: "Turing wierzy, że maszyny myślą. Turing sypia z mężczyznami. Wobec tego maszyny nie myślą".5 Podczas rozprawy przyznał się do winy, otrzymał wyrok w zawieszeniu i na polecenie sądu musiał się poddać "organoterapii" – kuracji hormonalnej, która miała stłumić jego "nienaturalne" pragnienia seksualne. Wszelkie nadzieje na nawiązanie współpracy z von Neumannem natychmiast wyparowały, gdyż Turing nie mógł otrzymać amerykańskiej wizy. Walka z konformizmem okazała się ponad siły Turinga. Siódmego czerwca 1954 roku, w najzimniejsze i najbardziej deszczowe Zielone Świątki, jakie zdarzyły się w ciągu pięćdziesięciu lat, czterdziestodwuletni Alan Turing zjadł kilka kęsów jabłka, które wcześniej nasączył cyjankiem.6 Turing był anonimowym bohaterem angielskiego wywiadu z czasów wojny. Miał niezwykły talent do łamania szyfrów, nie tylko szyfru natury, ale również szyfru stosowanego przez niemieckie maszyny Enigma. Rządy Wielkiej Brytanii i Stanów Zjednoczonych do dziś nie zezwoliły na ujawnienie metod, którymi posłużył się Turing, ale jeden z jego kolegów stwierdził, że praca Turinga w dziedzinie łamania szyfrów stanowiła największy wkład pojedynczej osoby w zwycięstwo Sprzymierzonych.7 Praca ta posłużyła również jako punkt startu w jego planach budowy komputera. Jednak jego niezwykły, logiczny umysł nie mógł już dłużej znosić perspektywy dalszego życia w nieprzyjaznym i nierozumnym świecie. Turing umarł jako człowiek napiętnowany i uznany za potencjalne zagrożenie dla bezpieczeństwa kraju. Von Neumann został członkiem wielu komitetów w amerykańskim systemie wojskowym; odegrał ważną rolę nie tylko w pracy nad konstrukcją komputerów cyfrowych, ale również w projektowaniu bomby wodorowej i rakiet międzykontynentalnych. Von Neumann nie dał się zdominować swej nowej ojczyźnie, lecz sam zaczął w niej odgrywać dominującą rolę.8 W 1956 roku w Białym Domu prezydent Eisenhower udekorował go Medalem Wolności. Było to jedno z ostatnich publicznych wystąpień von Neumanna – nie miano już wówczas żadnych wątpliwości, jak się skończy wyniszczająca go choroba.9 "Chciałbym pożyć dłużej, żeby zasłużyć na ten honor" – zauważył podczas ceremonii. "Och, będzie pan z nami jeszcze długo" – odpowiedział prezydent. Von Neumann wziął udział w uroczystości, siedząc w fotelu na kółkach. Tego roku na wiosnę miał wygłosić w Yale wykłady im. Silimana, ale znalazł się w tym czasie w Szpitalu Waltera Reeda w Waszyngtonie. Chorował na raka. Niemal już na łożu śmierci napisał dwa wykłady, które zostały później opublikowane w The Computer and the Brain. W tej książce von Neumann wyraził przekonanie, że matematyka jest językiem wtórnym, wywodzącym się z pierwotnego języka centralnego układu nerwowego.10 Dopóki był w stanie pracować, usiłował określić ów język neuronów. Jednak 8 lutego 1958 roku jego życie dobiegło końca. Podobnie jak Turing, von Neumann zmarł, nim dokończył swoje dzieło. Eisenhower miał jednak rację: wizje von Neumanna i Turinga są z nami; i właśnie pamięci obu uczonych poświęcamy tę książkę. ROZDZIAŁ 1 TAJEMNA SZTUKA Bóg zawarł w prawach Natury tajemną sztukę, tak aby chaos przemienił się w doskonały system świata. IMMANUEL KANT Powszechna historia naturalna i teoria nieba1 Gdy oglądamy świat w ogromnym powiększeniu, widzimy wyłącznie niewyobrażalną liczbę cząstek, tańczących pod dyktando sil elementarnych. Wszędzie wokół nas – i w nas samych – atomy oscylują, zderzają się między sobą i krążą. Przy każdym oddechu wciągamy w płuca ogromną ilość cząsteczek tlenu i azotu. W ziarnkach piasku pod naszymi stopami wibruje sieć krystaliczna zbudowana z atomów. W naszych komórkach liczne enzymy mozolą się nad wydobyciem ze związków chemicznych użytecznej energii. Mimo to uważamy Wszechświat za jeden harmonijny układ, czyli – jak mówili Grecy – za kosmos. W dzisiejszych czasach nowa dziedzina nauki usiłuje wyjaśnić, dlaczego Wszechświat jest czymś więcej niż tylko sumą swych części i jak te części łączą się ze sobą, tworząc nadrzędne struktury. Nauka o złożoności stanowi próbę wydobycia porządku z kosmicznego chaosu. Odkrywa ona zadziwiające związki między rozlicznymi wynikami uczonych, którzy zajmują się badaniami w zdumiewająco odmiennych dziedzinach. Francuscy uczeni badają, jak w mieszaninie związków chemicznych spontanicznie pojawiają się plamy i paski, niezwykle podobne do wzorów, jakie widzimy w umaszczeniu zwierząt, na skrzydłach owadów i muszlach mięczaków. W mieszaninie zachodzą zsynchronizowane reakcje chemiczne. Wydaje się, że niezliczone cząsteczki dokładnie wiedzą, co i kiedy mają zrobić, żeby powstał kolorowy wzór. Wymaga to "komunikacji" między miriadami cząsteczek. Na wschodnim wybrzeżu Stanów Zjednoczonych w sieci setek tysięcy sztucznych komórek nerwowych zachodzą uporządkowane procesy elektryczne. Nikt nie powiedział sieci, jak ma się zachowywać: jej twórcy określili tylko kilka prostych reguł, rządzących komunikacją między komórkami. Stopniowo jednak komórki organizują się tak, że różne zadania są realizowane przez różne grupy komórek sieci. Co uderzające, sieć integruje się na podobny sposób jak komórki ludzkiego ciała, przetwarzające informację wizualną. Na przedmieściach San Diego biolodzy molekularni usiłują powtórzyć proces, dzięki któremu w trakcie ewolucji – trwającej całe eony – powstali ludzie. Uczeni wywołują mutacje i śledzą ewolucję bilionów molekularnych wariacji na temat naturalny, badają kawałek genetycznego kodu, którego optymalizacja zajęła naturze miliardy lat. "Ewolucja w probówce" sprawia, że już po kilku dniach fragment ten koduje enzym zdolny do przyspieszenia nowego procesu chemicznego, który zapewne pomoże uratować komuś życie. W Kioto pewien ekolog wpatruje się w szereg kolorowych pasków na ekranie komputera. Tęcza pasków ewoluuje, a jej stan odzwierciedla sekwencje kodu programu komputerowego, podlegającego mutacjom; sekwencje te przetrwały walkę o miejsce w pamięci maszyny. Konkurujące programy stale ewoluują; po kilku tysiącach pokoleń powstaje niezwykle różnorodna menażeria, przypominająca bujne życie w tropikalnych lasach deszczowych. Tysiące mil od Kioto, w Oksfordzie, fizycy badają zjawisko frustracji, które pozwala wyjaśnić dziwne własności magnetyczne pewnych stopów. W normalnym życiu źródłem frustracji są: niepotrzebna biurokracja, czepianie się szczegółów, jałowy opór. Frustracja magnetyczna to rezultat konfliktów między siłami międzyatomowymi. Jeśli zrozumiemy ten konflikt, będziemy w stanie nie tylko wyjaśnić magnetyczne własności stopów, ale również lepiej pokierować rozkładem obciążenia globalnej sieci telekomunikacyjnej i odsłonić tajemnice działania pamięci. Wszyscy ci uczeni badają różne przejawy tego samego zjawiska – złożoności, owej "tajemnej sztuki", przeczuwanej przez Kanta. W makroskopowym świecie nie brakuje złożonych układów i procesów, takich jak rytuały religijne, przelotne uczucia, melodie, bagna, światowe krachy na giełdzie i deszczowe niedzielne popołudnia. Złożoność jest nieodłączną cechą natury, a nie tylko skutkiem kombinacji wielu prostych procesów zachodzących na bardziej elementarnym poziomie.2 W ramach nauki pojęcie złożoności sygnalizuje nowy sposób myślenia o zbiorowym zachowaniu wielu podstawowych, lecz oddziałujących elementów – mogą to być atomy, cząsteczki, neurony lub bity w komputerze. Mówiąc ściślej, zgodnie z naszą definicją, nauka o złożoności zajmuje się badaniem makroskopowych zbiorów elementów obdarzonych zdolnością do ewolucji w czasie. Ich oddziaływania powodują wystąpienie uporządkowanych zjawisk kolektywnych – tak zwanych własności emergencyjnych, które dają się opisać wyłącznie na wyższym poziomie niż używany do opisu elementów składowych. W tym sensie całość jest czymś więcej niż tylko sumą swych części, podobnie jak obraz van Gogha to coś znacznie więcej niż tylko zbiór śmiałych pociągnięć pędzlem. To samo można powiedzieć o ludzkim społeczeństwie, wzburzonym morzu lub elektrochemicznej aktywności neuronów w mózgu. Trafnej myśli nie można opisać jako sekwencji zdarzeń w pojedynczej komórce mózgu, a gwałtownego wiru w turbulentnym oceanie nie uda się nam wyjaśnić, analizując ruch pojedynczych cząsteczek wody. I na odwrót, długookresowe zachowanie zaledwie trzech kuł na stole bilardowym jest nieprzewidywalne, choć doskonale znamy równania rządzące ich ruchem.3 Konwencjonalna nauka często nie dostrzega związków między frustracją w metalach, zmianami cen akcji na giełdzie i wieloma innymi złożonymi zjawiskami. W dzisiejszych czasach większość uczonych ogranicza się do szczegółowych badań jakiegoś specyficznego zagadnienia w wąskiej dziedzinie nauki, na przykład zajmując się pienistą strukturą rozkładu materii we Wszechświecie, zmniejszaniem się liczebności populacji ślimaków Partula na wyspach Moorea na Pacyfiku czy też molekularną strukturą enzymu wirusa HIV. Jest to proces nieuchronny: coraz więcej wysiłków badawczych poświęcamy coraz mniejszym szczegółom. Ogólna wiedza, konieczna do uprawiania dowolnej dziedziny nauki, i wyrafinowanie stosowanych metod rozwinęły się tak bardzo, że bez ogromnego zaangażowania trudno dotrzeć do frontu bieżących badań. Prowadzi to do coraz większej specjalizacji, która powoduje, że w każdej wąskiej dziedzinie nauki kształtują się jej specyficzna metodologia i żargon. Ludziom z zewnątrz trudno zrozumieć, co robią specjaliści z danej dziedziny, a nawet stwierdzić, czy przypadkiem nie łączy ich z nimi wspólny schemat pojęciowy. Jednak większość problemów, z jakimi musimy sobie radzić w rzeczywistym świecie – niemal wszystkie, jakie występują w nowoczesnych społeczeństwach przemysłowych – nie daje się łatwo zaszufladkować. Aby je rozwiązać, uczeni z różnych tradycyjnych specjalności muszą się nauczyć rozmawiać ze sobą i podejmować wspólne, zintegrowane badania. To stwierdzenie może wzbudzić podejrzliwość wielu naukowców, będących dziś niejako z definicji specjalistami; niektórzy mogą się nawet poczuć zagrożeni. Niestety, obecny system edukacyjny kiepsko nas przygotowuje do takich przedsięwzięć. Jak twierdzi Murray Gell-Mann – laureat Nagrody Nobla – "ludzie muszą zatem porzucić przekonanie, że poważna praca polega wyłącznie na piłowaniu dobrze określonych problemów w wąskiej specjalności, natomiast rozważania na temat całości należy prowadzić wyłącznie na przyjęciach. Praca nad integracją nie cieszy się dostatecznym szacunkiem w życiu akademickim i w opiniach biurokratów".4 W dawnych wiekach wybitni intelektualiści mogli wnosić wybitny wkład do wszystkich dziedzin ludzkiego myślenia. Dziś to wydaje się niemożliwe. Istnieje jednak grupa uczonych – i filozofów – którzy usiłują iść pod prąd. Dążą oni do wykrycia związków między dziedzinami nauki, które powszechnie uważa się za odrębne, i wykazania, jak niewiele pojęć potrzeba do wyjaśnienia zjawisk natury. Ostatecznym celem nie jest tu uchwycenie jakiegoś pojedynczego złożonego procesu, lecz uniwersalnych cech samej złożoności, niezależnie od tego, czy przejawia się ona w ewolucji tropikalnego lasu, w działaniu komputera, rytmie kropel kapiących z kranu, kolorowych spiralach, jakie powstają w niektórych reakcjach chemicznych, magnetycznych własnościach stopów czy funkcjonowaniu świadomego mózgu. Celem poszukiwań jest odnalezienie jedności w różnorodności, wyjaśnienie, jak porządek może się wyłonić w masie ewoluujących elementów -atomów, komórek lub organizmów. Tradycyjna fizyka potrafi przewidywać makroskopowe zdarzenia, takie jak ugięcie promieni światła przelatujących obok masywnych ciał, na przykład czarnych dziur, czy też ruch galaktyk. Umiemy również badać zjawiska w najmniejszych skalach, takie jak przeskoki elektronu z jednej orbity na drugą w atomie wodoru. Zazwyczaj jednak fizycy unikają prób wyjaśnienia działania mózgu czy też dowolnych innych złożonych zjawisk, które bardzo często zachodzą w tej skali wielkości i czasu, która – jak na ironię – jest nam najbliższa. Procesy prowadzące do powstania z pierwotnej prostoty świata atomów i cząsteczek tej nadzwyczajnej makroskopowej złożoności, którą tak dobrze znamy, stanowią część "tajemnej sztuki" natury. Dla Immanuela Kanta owa "tajemna sztuka" była śladem boskiej dłoni, sterującej zdarzeniami w odpowiednim kierunku. Podejmujemy właśnie naszą próbę zrozumienia istoty złożoności. W kolejnych rozdziałach zapoznamy się z podstawowymi matematycznymi sposobami opisywania złożoności i jej przejawami w tak różnych dziedzinach, jak fizyka, chemia, biologia i informatyka. Po drodze będziemy mieli okazję zaobserwować wielką siłę tej nowej nauki oraz jej zdolność do łączenia procesów zachodzących w naszych ciałach i w otaczającym nas świecie. Mamy nadzieję, że uda się nam przedstawić takie związki w sposób, jaki dotychczas był niemożliwy. Powstanie złożoności Aby mogła powstać złożoność, konieczne są dwa czynniki. Pierwszym i najważniejszym jest nieodwracalne medium, w którym następują zdarzenia. Tym medium jest czas, płynący od leżącej za nami, zamkniętej przeszłości w przyszłość, która kryje w sobie wiele otwartych możliwości. Stwierdzamy tu explicite ten na pozór oczywisty fakt, ponieważ prawa ruchu, których tradycyjnie używamy do opisu zachowania materii na poziomie mikroskopowym, nie wyróżniają kierunku upływu czasu. Jednak takie fakty, jak topienie się bałwana i zmarszczki na twarzy, nie pozostawiają żadnych złudzeń, że na poziomie makroskopowym jest wyróżniony jeden kierunek upływu czasu. Jest to właśnie słynny paradoks nieodwracalności, który wynika ze sprzeczności między tymi dwoma poziomami opisu; problemem tym zajmowaliśmy się w naszej poprzedniej książce, zatytułowanej Strzalka czasu. Drugim istotnym czynnikiem jest nieliniowość. Wszyscy dobrze znamy układy liniowe, które od ponad trzystu lat stanowią podstawę nauki. Ponieważ jeden plus jeden to dwa, możemy przewidzieć, iż objętość wody kapiącej z kranu wzrośnie dwukrotnie, gdy pozwolimy, by woda leciała dwa razy dłużej. Nieliniowe układy nie zachowują się zgodnie z tą prostą regułą dodawania. Proszę porównać prosty wypływ wody z kranu ze skomplikowanymi procesami nieliniowymi, regulującymi ilość wody w organizmie lub ruch pary wodnej w chmurach nad nami. Nieliniowość sprawia, że niewielkie zmiany na jednym poziomie organizacji układu mają rozległe konsekwencje na tym samym lub innym poziomie. Większość z nas zna to zjawisko -dobrym przykładem jest dodatnie sprzężenie zwrotne między mikrofonem i głośnikiem: wskutek wzmocnienia muzyka zmienia się w ogłuszające wycie. Ten sam mechanizm powoduje lawinowe rozszczepienie jąder plutonu podczas wybuchowej jądrowej reakcji łańcuchowej. Ogólnie mówiąc, nieliniowość prowadzi do skomplikowanych i często nieprzewidywalnych wyników. Nieodwracalność i nieliniowość są charakterystyczne dla zjawisk, którymi zajmują się różne nauki, takich jak złożony wzór na skrzydłach motyla, układ cętek leoparda, kształt liścia paproci, misterna ornamentacja błony komórkowej okrzemków, a także rytmy w żywym organizmie, na przykład palpitacje serca, pobudzenie neuronu itd. Nieliniowość prowadzi również do subtelniej szych, chaotycznych form złożoności, z jakimi mamy do czynienia w pozornie przypadkowych zmianach pogody, epidemiach grypy, przy rozchodzeniu się informacji i rozpowszechnianiu się idei. O znaczeniu zjawiska złożoności doskonale można się przekonać na przykładzie diagramu ilustrującego bogate własności matematyczne prostego równania nieliniowego, które opisuje zmiany liczebności kolejnych pokoleń organizmów w ekosystemie wskutek narodzin i śmierci. Grafika komputerowa umożliwia przedstawienie dopuszczalnych typów ewolucji, opisywanych przez to równanie logistyczne, w postaci niezwykłego pejzażu (zob. wkładka, fot. 1). Odpowiednie obliczenia wykonał Mario Markus – ze swymi współpracownikami z Instytutu Fizjologii Molekularnej Maxa Plancka w Dortmundzie – dla niemal miliona możliwych kombinacji parametrów środowiska. Te obrazy dobitnie ukazują złożoność równań nieliniowych.5 Bez komputera nie bylibyśmy w stanie zbadać własności ich rozwiązań. Pochodzenie złożoności Materia wykazuje wrodzoną tendencję do samoorganizowania się i tworzenia złożonych układów. Tę tendencję można wykryć już w momencie powstania Wszechświata, gdy z zupełnej nicości wyłonił się okruch bezkształtnej materii. Wszechświat rozwinął się z tego hipotetycznego, doskonale prostego stanu początkowego. Najpierw materia miała postać zupy elementarnych cząstek, ale po upływie około jednej miliardowej sekundy od Wielkiego Wybuchu zaczęły powstawać takie cząstki, jak protony, neutrony i elektrony. Zdaniem fizyków te cegiełki materii zachowują się zgodnie z prostymi prawami matematycznymi, a jednak w miarę jak materia gromadziła się w coraz większe skupiska, takie jak galaktyki, gwiazdy i planety, powstawały zadziwiająco złożone struktury. Z wyprodukowanych w gwiazdach ciężkich pierwiastków powstały tak niezwykle zorganizowane układy, jak kryształy i ludzki mózg. Najbardziej uderzający przykład złożonej struktury, jaki znamy, to całokształt życia na Ziemi z jego fenomenalną różnorodnością. Kosmologia, astrofizyka i fizyka cząstek elementarnych nie dostarczają nam jednak pełnego obrazu rzeczywistości. W przypadku życia na Ziemi złożoność natury została dodatkowo wzbogacona w wyniku rywalizacji o ograniczone zasoby. Dar-win spopularyzował koncepcję przetrwania osobników najlepiej dostosowanych i dążenia wszystkich gatunków – oraz pojedynczych przedstawicieli danego gatunku – do adaptacji i optymalizacji swoich zdolności do przetrwania. W miarę upływu czasu środowisko jednostki ulega zmianie, co oczywiście wpływa na jej zdolność do przetrwania. Wyczerpują się zapasy żywności, zmienia się klimat, pojawiają się niebezpieczne wirusy. Ponieważ różne gatunki żyją i konkurują w tym samym środowisku, aby przeżyć, organizm musi się nieustannie adaptować do nowych warunków. Małpa to tylko jedna z milionów struktur istniejących w czasie i przestrzeni, powstała w toku ewolucji lasu tropikalnego i jego mieszkańców. Małpa stanowi połączenie ogromnej liczby złożonych układów, od chemicznych reakcji w komórkach do elektrycznej aktywności w jej mózgu. Zrozumienie złożoności życia to jedno z największych wyzwań, przed jakimi stoi współczesna nauka. Jest rzeczą oczywistą, jakie korzyści przyniesie nam rozwiązanie tego problemu. Właściwe zrozumienie biosfery planety stanowi klucz do zapewnienia jej bezpiecznej przyszłości. Zrozumienie złożoności ludzkiego organizmu wesprze nas w walce z chorobami. Czy podobne wyjaśnienie złożoności ludzkich społeczeństw pomoże nam przewidywać zamieszki, rozruchy i wojny? Tak uzyskana wiedza znajduje bezcenne zastosowania w całym zakresie nauki i techniki. Naśladując metody, jakie stosują żywe organizmy w walce o przetrwanie, uczeni opracowali nowe sposoby rozwiązywania wielu skomplikowanych zagadnień. Dobrymi przykładami są tu algorytmy genetyczne, czyli programy komputerowe, wykorzystujące idee zapożyczone z ewolucji biologicznej, oraz sieci neuronowe, konstruowane na wzór struktury mózgu. Oba te podejścia odgrywają zasadniczą rolę we współczesnych próbach zbudowania sztucznej inteligencji; oba też trudno zrozumieć, odwołując się jedynie do tradycyjnych pojęć nauki. Smakując złożoność Od bardzo dawna ludzie, usiłując zrozumieć naturalny świat, ulegali pokusie prostoty. Za swoje zadanie uważali wyjaśnienie działania układów występujących we Wszechświecie przez odwołanie się do ich elementów składowych. Tak zwany redukcjonizm polega na wyjaśnianiu złożonych zjawisk przez coś prostszego. Dla fizyka oznacza to, na przykład, tłumaczenie własności gazu na podstawie analizy zachowania atomów i cząsteczek, które wchodzą w jego skład. Dla chemika zaś może to oznaczać przedstawianie przebiegu reakcji jako serii zmian w cząsteczkach. Szczególnie wyrazistą postać przyjmuje redukcjonizm w fizyce cząstek elementarnych, gdzie króluje dążenie do odkrycia "teorii wszystkiego". Taka teoria miałaby wyrazić za pomocą kilku równań podstawowe oddziaływania wszystkich form materii. Jednak najlepsza zabawa fizyków – poszukiwanie najprostszych cząstek elementarnych – wydaje się obecnie nieco passę, jeśli wziąć pod uwagę posuchę, jaka trwa od zarejestrowania cząstek W i Z° w 1983 roku6, i ziewnięcie, z jakim zareagowali fizycy na wykrycie kwarka szczytowego w 1995 roku7, oraz – mówiąc poważniej – narastający rozziew między zawiłymi teoriami i obserwowalnym światem. W chemii wyrazem takiej samej filozofii jest rozpowszechnione przekonanie, że wszystkie procesy można wyjaśnić, odwołując się do własności pojedynczych atomów i cząsteczek biorących w tych procesach udział. W naukach o życiu można ją odnaleźć w postaci "doktryny DNA", która powstała po tym, jak w 1953 roku Francis Crick i James Watson odkryli strukturę cząsteczki DNA. Tak narodziła się biologia molekularna; pozwala ona wyjaśniać wiele zjawisk biologicznych na podstawie analizy zachowania cząsteczek. Nikt nie przeczy, że ten tryumf redukcjonizmu wywarł wielki wpływ na nasze życie: legiony uczonych z całego świata korzystają z tak zdobytej wiedzy, aby wykryć choroby dziedziczne i leczyć je za pomocą genetycznych transplantacji. Tak zwana terapia genowa otwiera perspektywę, że w przyszłości będziemy potrafili leczyć wiele chorób dziedzicznych, takich jak mukowiscydoza i dystrofia mięśniowa, a nawet manipulować cechami dziedzicznymi, na przykład sprawnością fizyczną i inteligencją. Sukcesy redukcjonizmu sprawiły, że wielu ludzi uznało go za uniwersalną drogę do zrozumienia zjawisk. A przecież redukcjonizm wbił klin między naukę i inne aspekty ludzkiego życia. W swej naiwnej wersji polega wyłącznie na analizie zjawisk przez rozłożenie ich na najmniejsze możliwe elementy. Jak zauważył AMn Toffler, współczesna nauka tak dobrze radzi sobie z rozkładaniem problemów na części, że często później zapominamy złożyć je w całość.8 W ten sposób ludzie stają się właściwie tylko maszynami, służącymi do rozpowszechniania genów. Cierpienie, ból, rozruchy społeczne są tylko przejawami działania złych genów. Przyczyną homoseksualizmu jest "homoseksualny mózg", produkt genów homoseksualizmu.9 Ludzie, którzy nie zajmują się nauką, często uważają, iż redukcjonistyczne przekonanie, że wszystko można wytłumaczyć przez odwołanie się do atomów i cząsteczek, podważa również naszą wiarę w humanistyczne i humanitarne wartości: "W końcu, gdy się nad tym zastanowić, ludzkie ciało to tylko trochę związków chemicznych, wartych parę dolarów". Ponadto jeśli ludzkością rządzą naturalne siły i deterministyczne mechanizmy, nie możemy uznać teorii, według której ludzkie działania wynikają z wolnej woli. Naiwny redukcjonizm proponuje wizję lodowatego Wszechświata, dla którego istnienie ludzkości nie ma żadnego znaczenia.10 Ten niezbyt inspirujący obraz skłonił wielu do zajęcia stanowiska krytycznego wobec nauki i jej metod, które najwyraźniej nie mają znaczenia dla znacznej części ludzkich doświadczeń. Surowa wizja świata redukcjonistów przyczyniła się do popularyzacji poglądu, że nauka jest czymś odizolowanym od całej reszty ludzkiej kultury. Nauka o złożoności stwarza holistyczną perspektywę, a tym samym pozwala lepiej zrozumieć wiele trudnych pojęć, takich jak życie, świadomość i inteligencja, z którymi dotychczas nie mogli sobie poradzić filozofowie i uczeni. Na przykład często przedmiotem dyskusji jest kwestia, czy wirusy to żywe organizmy. Z punktu widzenia nauki o złożoności pytanie to nie ma sensu, ponieważ życie to cecha dużych zbiorów jednostek, podlegających ewolucji wskutek doboru naturalnego, a nie pojęcie, które można odnosić do jednej z tych jednostek. Coraz więcej uczonych opowiada się za opisem życia, który odwołuje się do złożoności i własności emergencyjnych. Ten pogląd zyskał również dość zaskakujących zwolenników. "Życie nie jest jakąś esencją dodaną do układu fizykochemicznego, ale nie można go też opisać za pomocą zwykłych pojęć fizycznych i chemicznych. To własność emergencyjna, która przejawia się, gdy układy fizykochemiczne są odpowiednio zorganizowane i oddziałują między sobą w pewien szczególny sposób". Tę opinię wygłosił John Habgood, były arcybiskup Yorku i fizjolog, przekonany, że naukowy światopogląd, jaki proponuje nauka o złożoności, jest pod wieloma względami teologicznie lepszy niż stara koncepcja witalizmu.11 W swym wystąpieniu na dorocznym spotkaniu Brytyjskiego Stowarzyszenia Wspierania Nauki w 1994 roku Habgood wyraził opinię, że dowody twórczej pracy Boga można znaleźć w narastającej złożoności rozwijających się organizmów: "Świadczą o tym nawet pierwsze słowa pierwszego rozdziału Księgi Rodzaju, mówiące o tym, że Bóg stworzył porządek z chaosu".12 Podobna debata trwa również na temat królestwa zwierząt. W tym przypadku chodzi o to, gdzie przebiega linia podziału między zwierzętami świadomymi i inteligentnymi a bezmyślnymi automatami. Z pewnością zależy to od złożoności układu nerwowego. Zacytujmy raz jeszcze arcybiskupa Yorku: "Jedną z dalekosiężnych implikacji przyjęcia koncepcji ewolucji jest uznanie ciągłości życia; oznacza to, że nie można przeprowadzić ostrego podziału między nami i innymi zwierzętami [...]. Myślę, że im lepiej poznajemy ludzkie zdolności zwierząt, na przykład małp naczelnych, tym bardziej wydaje się oczywiste, że mają one pewną zdolność, która choć w przybliżeniu odpowiada świadomości". Z tych samych powodów nie można precyzyjnie określić sztucznego życia, sztucznej świadomości i inteligencji, jak nakazywałaby filozofia redukcjonizmu.13 Ludzki mózg jest najwyższym przykładem złożoności, do jakiej prowadzi ewolucja biologiczna. Tu właśnie najlepiej wyczuwamy napięcie między redukcjonizmem i emergencją. Jest oczywiste, że działanie mózgu zależy od bardzo licznych szczegółów budowy komórek i jeszcze mniejszych elementów, ale jest równie oczywiste, że nadzwyczajne zdolności mózgu są własnościami emergencyjnymi całego organu. Jedną taką własnością jest świadomość, z której wypływają ludzkie uczucia i wartości duchowe. A zatem nauka o złożoności – dzięki naciskowi, jaki kładzie na badanie całości, a nie części – pozwala przezwyciężyć materialistyczne ograniczenia redukcjonizmu oraz umożliwia przerzucenie mostu między nauką i życiem człowieka. Język złożoności Podobnie jak nie potrafimy zrozumieć żadnego ludzkiego języka bez znajomości jego gramatyki, tak samo nie możemy zrozumieć i wykorzystać złożoności, nie odwołując się do jej struktury gramatycznej, wyrażonej w języku matematyki. Na początku tego rozdziału podaliśmy naszą własną naukową definicję pojęcia złożoności. Jest niezwykle irytujące, że wielu uczonych posługuje się tym terminem, nie dbając o ścisłość i mając na myśli zupełnie różne rzeczy.14 Natomiast matematyczna definicja złożoności jest całkowicie jednoznaczna. Matematyczną złożoność problemu definiujemy poprzez liczbę matematycznych operacji, potrzebnych do jego rozwiązania. Ustalenie stopnia złożoności danego problemu jest zadaniem matematycznej teorii złożoności, która określa, jakie problemy są praktycznie rozwiązywalne – to znaczy czy można je w rozsądnym czasie rozwiązać, posługując się pewną systematyczną metodą. Ponieważ wiele aspektów złożoności w przyrodzie dotyczy rozwiązania pewnych trudnych problemów (do nich należy, na przykład, dobranie na drodze ewolucji najlepszego enzymu do trawienia pożywienia lub utworzenie dostatecznie sprawnego układu wzrokowego, aby rozpoznać nocnych drapieżników), dlatego istnieje głęboki związek między złożonością w sensie matematycznym oraz w sensie, jaki nadają jej nauki przyrodnicze. Postęp w badaniach złożoności doprowadził do odrzucenia wzruszającej wiary w potęgę matematyki czystej i stosowanej. Wielki francuski matematyk Henri Poincare wykazał już pod koniec XIX wieku, że ruch zaledwie trzech ciał jest zbyt skomplikowany, aby dało się go przedstawić w postaci eleganckiego wyrażenia matematycznego. Była to zapowiedź współczesnej teorii chaosu. Wiele ważnych zagadnień dotyczących rzeczywistości, jak choćby problem komiwojażera, który musi znaleźć najbardziej ekonomiczny sposób odwiedzenia danego zbioru miast, można prosto sformułować, natomiast próby systematycznego rozwiązania rychło okazują się niewykonalne, gdy wzrasta skala problemu (w przypadku komiwojażera jest to liczba miast). Inne przykłady matematycznie złożonych problemów to opis procesu uczenia się mózgu wskutek oddziaływań ze światem zewnętrznym i ewolucja takich skomplikowanych organów, jak mózg. Podobne zagadnienia wykraczają poza możliwości analizy matematycznej i nie można ich rozwiązać, posługując się tylko papierem i ołówkiem; aby się z nimi uporać, potrzebne są olbrzymie moce obliczeniowe komputerów. Rozwiązanie złożonych problemów za pomocą komputera polega na połączeniu subtelności z brutalną siłą. Subtelności wymaga precyzyjne matematyczne sformułowanie problemu; następnie wczytujemy dane lub symbole opisujące rozważane zagadnienie i wykonujemy obliczenia dla wszystkich interesujących nas sytuacji. Do tego konieczny jest komputer, co w znacznej mierze wyjaśnia, dlaczego tak bogata dziedzina badań, jak nauka o złożoności, tak długo pozostawała nie zauważona. Przed pojawieniem się komputerów cyfrowych trudno było oczekiwać, że ktoś zechce ręcznie rozwiązywać zbiór równań, opisujących jakiś złożony problem, dla tysięcy czy wręcz milionów danych liczbowych. Można by na to z łatwością poświęcić całe życie i nie uzyskać żadnego użytecznego wyniku. Nauka o złożoności jest nierozerwalnie związana z rozwojem techniki komputerowej i ściśle od tego rozwoju zależna. Oszałamiający wzrost potęgi komputerów w ciągu ostatnich pięćdziesięciu lat umożliwił uczonym i matematykom modelowanie i symulowanie coraz bardziej złożonych i interesujących zjawisk. Symbioza Jeden z najwcześniejszych "komputerów", zaprojektowany przez Charlesa Babbage'a, miał za zadanie obliczanie tablic matematycznych. Nawet obecnie znaczna liczba jego potomków to niewiele więcej niż tylko tępe urządzenia do wykonywania żmudnych, głupich zadań. Teraz sytuacja zaczyna się jednak zmieniać, gdyż konstruktorzy maszyn nowej generacji wzorują się na komputerach naturalnych. Dzięki równoległej architekturze komputery upodobniły się nieco do ludzkiego mózgu. Ze wszystkich źródeł inspiracji specjalistów od komputerów żadne nie wytrzymuje porównania z mózgiem. Konstruktorzy komputerów od dawna usiłują zbudować maszynę obdarzoną cechami ludzkiej inteligencji, ale jak dotychczas wszystkie te próby spełzły na niczym. Typowe komputery z łatwością wykonują zadania, które wielu ludziom sprawiają kłopoty – na przykład złożone obliczenia arytmetyczne i algebraiczne – natomiast ludzie na co dzień wykazują takie umiejętności, jak rozpoznawanie obrazów i rozmowa – umiejętności, z którymi nie radzą sobie nawet najpotężniejsze maszyny. Dzięki naśladowaniu architektury mózgu – mającej zasadnicze znaczenie dla wystąpienia cech emergencyjnych, takich jak świadomość i inteligencja – komputery wykorzystujące sieci neuronowe opanowały umiejętność uczenia się i dostosowania do otoczenia. Metody optymalizacji i adaptacji, wykorzystywane w przyrodzie, dzięki którym w toku ewolucji budowa organizmów jest nieustannie doskonalona, są obecnie stosowane w konstruowaniu algorytmów genetycznych, służących do rozwiązywania praktycznie nierozwiązywalnych problemów. Podobnie jak w przypadku ewolucji naturalnej, komputerowe programy ewolucyjne, które okazały się niezwykle skuteczne w rozwiązywaniu złożonych problemów, zawierają elementy przypadkowe. Ta przypadkowość prowadzi do innowacji – czyli sprytnych i nieoczekiwanych rozwiązań bardzo trudnych problemów. Dzięki symbiozie nauki z komputerami zaczynamy rozumieć i symulować niektóre z zadziwiających umiejętności mózgu. Organ ten składa się z biliona komórek, w tym około stu miliardów komórek nerwowych – stanowiących fizyczną podstawę naszych myśli, uczuć, czyli naszego umysłu. Ta ostatnia liczba przewyższa liczbę gwiazd w Drodze Mlecznej. Mimo to, po raz pierwszy w historii, za pomocą sztucznych sieci neuronowych uczeni potrafią modelować pewne aspekty funkcjonowania mózgu. Po raz pierwszy od czasów antycznych udało się częściowo uchylić zasłonę oddzielającą umysł od materii. Próby zrozumienia złożoności odniosły już takie sukcesy, że samo pojęcie życia zyskało nowy sens. Materia nie określa ani rzeczywistego, ani możliwego życia. Życie to proces, przy czym forma tego procesu, a nie materialna podstawa, stanowi istotę życia.15 Jak usiłował wykazać von Neumann, można zignorować fizyczną bazę życia i skoncentrować się na logice rządzącej tym procesem. W zasadzie taką samą logikę można powołać do istnienia, korzystając z innej podstawy materialnej, zupełnie odmiennej niż oparta na węglu materialna baza znanego nam życia. Inaczej mówiąc, życie zasadniczo nie zależy od medium, które posłużyło do jego realizacji. Oddzielenie żywej złożoności od materialnej podstawy ma oszałamiające implikacje. Proszę sobie wyobrazić sztuczny świat, w którym siejemy logiczne nasiona życia. Po dostatecznym czasie moglibyśmy obserwować jego ewolucję. Widzielibyśmy, jak powstają prymitywne organizmy zdolne do replikacji i jak wskutek mutacji wzrasta różnorodność ich "potomstwa". Takie idee nie istnieją już wyłącznie w krainie fantazji – uczeni podejmują próby stworzenia żyjącej złożoności, której materialną podstawą byłby komputer. ROZDZIAŁ 2 KOD ARTYSTY Wznoś się, dziwne stworzenie, w nauki przestworze, Mierz ziemię, waż powietrze, śledź w odmianach morze, Wskaż planetom, przez jakie mają kota dążyć, Popraw czas zastarzały, naucz stonce krążyć; Niech się wzbije z Platonem do nieba mysi płodna, Gdzie piękność, doskonałość, dobroć pierworodna; Lub zbłądziwszy wraz z jego naśladowców mnóstwem, Sadź, że tracąc rozsądek porównasz, się z bóstwem, Jak ów bramin na wschodzie kręci się dokoła Tusząc, że tak bieg słońca naśladować zdoła. ALEXANDER POPE, Wiersz o człowieku. List II (przekład Ludwika Kamińskiego, 1816)1 Matematyka to język, za pomocą którego możemy: wskazać planetom, "przez jakie mają koła dążyć", poprawić "czas zastarzały", nauczyć "słońce krążyć". Dzięki niej uwolniliśmy się od tyranii magii oraz mistycyzmu i odkryliśmy sekrety złożoności. Matematyka jest kolebką praw natury, dostarcza nam formuł, opisujących zachowanie rzeczywistego świata – to mocna konstrukcja, której nauka zawdzięcza swą atrakcyjność. Moc matematyki jest tak wielka, że wielu uczonych marzy o stworzeniu maszyny, reprezentującej dowolne cechy wszechświata – niezależnie od ich złożoności – wyłącznie za pomocą elementów matematycznej logiki. Taka maszyna byłaby idealnym narzędziem do badania i symulowania złożoności Wszechświata. Jednak coraz częściej sami matematycy podważają głębokie przekonanie o nieomylności matematyki, które leży u podstaw wspomnianych koncepcji. Większość ludzi, mających choćby elementarne wykształcenie naukowe, wykazuje zaskakującą wiarę w potęgę matematyki. Wierzą oni, że matematyka stanowi narzędzie pozwalające uchwycić istotę rzeczywistości. Jeden plus jeden to dwa, niezależnie od tego, czy liczymy uncje mąki czy strzały z karabinu. Obwód dowolnego okręgu, w dowolnym miejscu, jest równy iloczynowi jego średnicy i magicznej liczby n (3,1415...). Angielski franciszkanin Roger Bacon wychwalał matematykę jako bramę prowadzącą do wszelkich nauk.2 Matematyka jest przecież jedynym znanym nam sposobem rygorystycznego dowodzenia twierdzeń i wyprowadzania ścisłych wniosków z przyjętych założeń. Dzięki temu stanowi właściwy język dla uczonych, chcących wyrazić związki między mierzalnymi wielkościami. Najbardziej fascynujące jest to, że dzięki niej możemy również przewidywać rzeczywiste zjawiska. Opierając się na jednym prawie ruchu, możemy przewidzieć trajektorię sztucznego satelity i tor ruchu rzuconej piłki. Równanie Schrodingera pozwala opisać kształt ujemnie naładowanej chmury, otaczającej jądro atomu wodoru. Dzięki szczególnej teorii względności Einsteina wiemy, że poruszający się zegar atomowy wydaje się "tykać" wolniej niż taki sam zegar w spoczynku. Podobnie jak artyści stosują farby, glinę i metal, aby przedstawić rzeczywistość, tak uczeni opisują złożone cechy natury za pomocą obrazów utkanych z matematycznych elementów. Malarz czasem nakłada półprzeźroczystą farbę na częściowo wyschnięte płótno, aby w ten sposób oddać fakturę pni drzewa. Za pomocą szmaty, pędzla lub nawet palców może wtedy lepiej przedstawić chmury, skały lub tkaniny. W podobny sposób uczeni wielokrotnie powtarzają prostą operację matematyczną, aby otrzymać wielokrotnie rozwidlające się struktury, zadziwiająco przypominające drzewo czy paproć. W dzisiejszych czasach badacze złożoności uprawiają tajemną sztukę, która umożliwia przedstawienie kolorów, kształtów i ruchów, występujących we Wszechświecie, za pomocą atomów logiki. Podobnie jak ich poprzednicy z okresu postimpresjonizmu, ci logiczni pointyliści mają nadzieję, że z dyskretnych elementów ich matematycznego kodu wyłoni się całość, będąca istotą rzeczywistości. Pytanie, czy ich wynikł to tylko powierzchowne metafory, czy też udaje się w ten sposób uzyskać głęboki wgląd w rzeczywistość, wiedzie prosto do rozważań na temat związków między matematyką a realnym światem. Większość uczonych całkowicie zadowala się tym, że związki matematyczne prowadzą do wiarygodnych przewidywań zachowania rzeczywistych układów. Ostatnie odkrycia, zwłaszcza w dziedzinie logiki matematycznej, wystawiły na poważną próbę naszą wiarę w matematykę. Rodzą się wątpliwości, czy można matematycznie opisać wszystkie formy złożoności. Na szczęście, jak się przekonamy, są to raczej problemy teoretyczne, nie zaś praktyczne. Matematyka jako religia Jedno z pierwszych poważnych pęknięć na fasadzie matematyki pojawiło się w 1936 roku, gdy dwudziestoczteroletni Alan Turing postawił pytanie, czy można "w czysto mechaniczny sposób" przeprowadzić wszystkie wywody matematyczne i logiczne. Pytanie to dotyczy podstaw matematyki, ponieważ odpowiedź negatywna oznaczałaby, że istnieją zasadnicze ograniczenia naszej zdolności przedstawiania rzeczywistych procesów w postaci mechanicznych reguł logicznych, a więc również możliwości symulowania zachowania złożonych układów. Jak się przekonamy, jego praca na temat -jak to przyjęto później nazywać – uniwersalnej maszyny Turinga ma bardzo dwuznaczne konsekwencje dla nauki o złożoności. Turing stwierdził, że rzeczywiście można stworzyć abstrakcyjną, uniwersalną maszynę, zdolną do zastąpienia dowolnej innej maszyny i realizującą wszelkie możliwe operacje matematyczne i logiczne.3 Fizycznym odpowiednikiem takiej maszyny są współczesne komputery cyfrowe – potrafiące symulować zachowanie dowolnego obiektu we Wszechświecie – od wybuchu gwiazdy supernowej do zmiany ciśnienia krwi w ludzkim sercu – pod warunkiem że opisywany proces można zredukować do skończonej serii logicznych kroków.4 Turing uważał, że maszyna taka jest w stanie wykonać wszystkie operacje, jakie umie przeprowadzić ludzki "komputer". Innymi słowy, według Turinga działanie takiej uniwersalnej maszyny byłoby całkowicie równoważne aktywności umysłowej maszyny molekularnej, którą nazywamy mózgiem. Jednak praca Turinga na temat maszyny uniwersalnej przynosi także bardzo złe wieści. Turing zaprojektował swą maszynę tak, aby sprawdzić, czy będzie zdolna do przeprowadzenia w czysto mechaniczny sposób wszelkich wywodów matematycznych. Odpowiedź – zdecydowane "nie!" – była ciężkim ciosem dla wszystkich, którzy przez wiele lat usiłowali osadzić matematykę na solidnym, logicznym fundamencie. Nasze próby stworzenia wielkiej teorii złożoności również mogą się okazać podobne do budowania zamków na lodzie, jeżeli w przyrodzie zachodziłyby procesy, których złożoność przekracza możliwości obliczeniowe uniwersalnej maszyny Turinga. Symulowanie takich procesów jest, oczywiście, skazane na porażkę. Naszą wiarę w matematykę czekają jeszcze kolejne próby. Turing nie był bynajmniej jedynym matematykiem, który wykrył ograniczenia tej nauki. Przekonamy się, że nawet bardzo proste operacje matematyczne mogą – o zgrozo! – prowadzić do przypadkowych wyników. Jak by tego nie było dość, okazuje się, że czasem po prostu zastosowanie matematyki nie jest możliwe. Zagadnienia należące do pewnej kategorii może rozwiązać tylko ktoś, kto ma nieskończenie wiele czasu. Inne zaś problemy nie poddają się ścisłej analizie matematycznej – już sir Izaak Newton zastanawiał się: "znalezienie dokładnych rozwiązań równania ruchu przekracza, jeśli się nie mylę, zdolności ludzkiego umysłu".5 Nie wiemy, czym właściwie jest matematyka i dlaczego nadaje się do opisu świata. Pojawia się tu zasadnicze pytanie: "Dlaczego matematyka prowadzi do takich sukcesów w naukach przyrodniczych?" Pytanie to pozostaje bez odpowiedzi. Wydaje się, że największy motor zmian kultury, światopogląd naukowy, spoczywa na matematycznych podstawach, które pod wieloma względami przypominają religijne dogmaty.6 Wrota nauki Matematyka narodziła się w bardzo wielu kulturach, gdyż ludzie szybko przekonali się, jak jest skuteczna, gdy użyć jej do opisu świata.7 Starożytni Grecy uważali, że wymyślili ją znudzeni kapłani egipscy, dysponujący mnóstwem czasu na intelektualne przedsięwzięcia.8 Jednak to właśnie w antycznej Grecji po raz pierwszy pojawiło się abstrakcyjne rozumowanie matematyczne, pozwalające, przykładowo, odróżnić własność określaną jako potrójność od materialnych obiektów, takich jak krowy, palce lub dzidy. Wydaje się bardzo prawdopodobne, że zrozumienie faktu, iż matematyka dotyczy obiektów abstrakcyjnych, zawdzięczamy religijnemu, naukowemu i filozoficznemu bractwu pitagorej-czyków.9 Pitagoras, od którego wzięło ono nazwę, jest postacią bliżej nie znaną; wiadomo, że urodził się na wyspie Samos około 572 roku p.n.e.10 Dziś jego imię kojarzymy przede wszystkim z twierdzeniem o bokach trójkąta prostokątnego, które obowiązuje niezależnie od tego, czy figurę tę tworzą trzy patyki, jedwabne nitki, czy też trójkątem jest rysunek na piasku.11 Gdy pitagorejczycy zrozumieli, że związek ten ma charakter uniwersalny, z pewnością czuli, iż otarli się o fundamentalną własność świata. Również Grekom należy przypisać stworzenie logiki, na której opiera się matematyka. Arystoteles (ur. 384 p.n.e.) opracował formalny system logiczny – przez wiele wieków ludzie sądzili, że sformułował on prawa ludzkiego myślenia. System logiki Arystotelesa opiera się na trzech zasadach: prawie tożsamości ("jeden to jeden", "A to A" itd.), prawie niesprzecznoścł (niemożliwe, aby dowolne zdanie i jego zaprzeczenie były jednocześnie prawdziwe) oraz prawie wyłączonego środka (każde zdanie jest albo prawdziwe, albo fałszywe – nie może być jednocześnie prawdziwe i fałszywe). Logika jest szczególną dziedziną, gdyż nie istnieje jej przedmiot. Zajmuje się wyłącznie strukturą argumentów, rozważa tylko ich cechy formalne, a nie faktyczną treść. Od czasów Arystotelesa do połowy XIX wieku logikę uważano za gałąź filozofii, wymagającą dobrej znajomości greki.12 Włączenie logiki do matematyki, jako logiki matematycznej, zawdzięczamy w znacznej mierze jednemu nadzwyczajnemu człowiekowi: Gottfriedowi Wilhelmowi von Leibnizowi – filozofowi, matematykowi, alchemikowi, prawnikowi, bibliotekarzowi, inżynierowi górnictwa, historykowi, archiwiście, pionierowi wykorzystania energii wiatru, dyplomacie i profesorowi uniwersytetu.13 Był on, jak określali go Niemcy – Universalgenie – "uniwersalnym geniuszem".14 W latach siedemdziesiątych XVII wieku Leibniz stworzył ambitny schemat, mający sformalizować w jednym uniwersalnym języku matematykę i inne sposoby ludzkiego myślenia. Była to praca wizjonera, bliska tym, którzy 300 lat później rozpoczęli pionierskie próby zbudowania sztucznej inteligencji.15 Znana nam nauka narodziła się 28 kwietnia 1686 roku, kilka lat po tym, jak Leibniz przedstawił swą wizję uniwersalnego języka, kiedy to Newton przesłał do Royal Society w Londynie pierwszą część łacińskiego rękopisu, zatytułowanego PMoso-phiae natwcdis principia mathematica. Niektórzy uważają Prin-cipia za najwspanialszą książkę naukową wszechczasów, klejnot w koronie literatury naukowej. Zdaniem niektórych komentatorów, na fundamentach położonych przez Galileusza Newton zbudował wspaniały gmach, wznoszący się wysoko ponad okoliczne prowizoryczne budy. Sam Newton uważał Principia za swoją najlepszą opublikowaną pracę. Choć to cudowne dzieło powstało tak dawno temu, zasady Newtona wciąż znajdują zastosowanie w obliczaniu trajektorii różnych obiektów na niebie – od promu kosmicznego do rakiet strategicznych. Bez wątpienia fizyka Newtona zachowa swe znaczenie również w odległej przyszłości. Każdy, kto zapozna się z przedmową do pierwszego wydania Principiów, bez wątpienia przekona się, jakie znaczenie miała dla tego dzieła matematyka. Newton napisał tę przedmowę jeszcze w Trinity College w Cambridge.16 Już w pierwszym zdaniu stwierdził: "W tym traktacie zajmuję się matematyką w takiej mierze, w jakiej ma ona znaczenie dla filozofii".17 Newton obnażył matematyczną strukturę praw natury, wykazując przy tym jedność praw rządzących Ziemią i niebem. Swe sukcesy zawdzięczał on odkryciu nowego narzędzia matematycznego, dostosowanego właśnie do tego celu. Dziś tę dziedzinę matematyki nazywamy rachunkiem różniczkowym. (Niezależnie od Newtona rachunek różniczkowy odkrył w tym samym czasie także Leibniz). W tamtych czasach matematyka składała się z arytmetyki, algebry i geometrii, pozwalających opisywać obiekty niezmienne w czasie. Dzięki rachunkowi różniczkowemu Newton był w stanie w spójny i uniwersalny sposób opisać wszelkie zmiany; okazało się, że te same reguły matematyczne rządzą ruchem spadających jabłek i planet. Od ukazania się Principiów matematyka była powszechnie uważana za najsolidniejszy fundament wiedzy. Zasady dynamiki Newtona całkowicie przekształciły ludzką wizję struktury Wszechświata. Galileusz, którego dzieło posłużyło za podstawę sukcesów Newtona, zauważył kiedyś, że "wielka księga natury" jest napisana w języku matematyki. Fizyk sir James Jeans powtórzył tę opinię w 1932 roku, stwierdzając, że "fizyczny Wszechświat jest zbudowany zgodnie z matematycznymi zasadami [...]. Jest zatem rzeczą nieuchronną, że obraz zewnętrznego świata w nowoczesnej nauce ma charakter matematyczny, inaczej być nie może [...]. Natura zdradza swe sekrety, gdy badamy ją za pomocą matematyki".18 Matematyka a rzeczywistość Nauki przyrodnicze potwierdziły pozycję matematyki jako najpewniejszej formy wiedzy. Od wieków trwają jednak dyskusje na temat istoty matematyki oraz kwestii, czy i dlaczego świat może być opisany prawami matematyki. Platon (ok. 427-347 p.n.e.), podobnie jak pitagorejczycy, przywiązywał wielką wagę do matematyki. Twierdził, że świat obserwowany nie przypomina rzeczywistego; jego zdaniem nasze modele Wszechświata powinny odzwierciedlać boską doskonałość bytu. Zgodnie z matematyczną odmianą platonizmu dla podstaw matematyki nie ma znaczenia istnienie Wszechświata, naszych umysłów i nas samych.19 Wielu myślicieli niezależnie od siebie odkryło twierdzenie Pitagorasa, natomiast Władca pierścieni Tolkiena czy Mesjasz Haendla są wyjątkowymi tworami jednostek. Innymi słowy, zdaniem Platona matematyka istniałaby nawet wtedy, gdyby nie było matematyków.20 Naukowcy, a zwłaszcza fizycy, wykorzystują obserwacje platońskiego kosmosu, aby formułować często bardzo wyrafinowane teorie rzeczywistego świata. Przebierają wśród towarów, oferowanych w matematycznym supermarkecie, poszukując takich, które pasują do obserwacji zachowania różnych rzeczywistych układów. Matematyczne teorie przyrody odniosły wiele sukcesów, zwłaszcza w fizyce. Z tego powodu fizyk matematyczny Eugene Wigner zwrócił kiedyś uwagę na "niepojętą skuteczność matematyki w naukach przyrodniczych".21 Zwolennicy platonizmu w matematyce nie mają jednak żadnego uzasadnienia swej wiary w to, że świat ma strukturę matematyczną. "Dla platoników to wielka tajemnica – powiada filozof Bili Newton-Smith z Oksfordu. – Jeżeli matematyka dotyczy niezależnie istniejącej rzeczywistości, to dlaczego jest użyteczna w badaniach świata obserwowalnego?"22 Zgodnie z innym poglądem matematyka to twór ludzkiego umysłu, najwspanialsze dzieło naszego intelektu. Nie ma żadnego oczywistego powodu, żebyśmy wierzyli, iż matematyka stanowi opis rzeczywistości niezależnej od naszego świata. Niektórzy twierdzą nawet, że matematyka jest nauką empiryczną, która wywodzi się z prymitywnej wiedzy, zgromadzonej przez egipskich i babilońskich budowniczych na drodze obserwacji.23 Filozof Nancy Cartwright uważa, że nie potrafimy ustalić bezpośredniej relacji między obiektami platońskimi – oraz ich zachowaniem – a zjawiskami z rzeczywistego świata. W książce Hoiv the Laws ofPhysics Lie twierdzi ona, że z uwagi na złożoność świata żaden zbiór praw nie może go opisać: "Nie ma lepszej rzeczywistości niż ta, z którą mamy do czynienia".24 Cartwright akceptuje fenomenologiczne prawa, opisujące przebieg obserwowanych zjawisk, ale odrzuca teorie "fundamentalne", które mają dostarczać głębszych wyjaśnień. Jej zdaniem fizycy szukają bardzo uproszczonych modeli, które stanowią tylko niezwykle wyidealizowany obraz rzeczywistego świata. "Paradoksalnie, za siłę wyjaśniającą płaci się wiernością opisu. Naprawdę ogólne prawa wyjaśniające, takie, z jakimi mamy do czynienia w fizyce teoretycznej, nie mówią prawdy".25 Te słowa nabrały nowej siły dzięki pojawieniu się nauki o złożoności. Debata na temat związku między matematyką i rzeczywistością toczy się nadal. Szczęśliwa symbioza między matematyką i naukami przyrodniczymi będzie trwać dopóty, dopóki będzie prowadzić do wzrostu wiedzy.26 Jednak nasza nienaturalna wiara w potęgę matematyki wynika zapewne nie z jej rzeczywistej zdolności do opisywania w prosty sposób złożoności w przyrodzie, lecz raczej z rozpowszechnionej naukowej wiary w dogmat redukcjonizmu, który wyjaśnia złożone zjawiska za pomocą matematycznych wyrażeń, dotyczących zachowania prostych elementów, takich jak atomy i cząsteczki.27 Dla bardzo wyidealizowanych procesów, takich jak kompresja helu w cylindrze czy ruch myszy zsuwającej się bez tarcia po wahadle, można łatwo znaleźć i dokładnie zbadać proste wyrażenie matematyczne, opisujące ich przebieg. Jednak takie proste układy badamy właśnie dlatego, że można je łatwo przeanalizować, uczyć ich w szkole i dawać do rozwiązania na egzaminach. Od kilkudziesięciu lat coraz więcej uczonych uświadamia sobie, że takie wyidealizowane sytuacje stanowią wyjątek od reguły.28 Ich stosunek do rzeczywistości przypomina poezję, która również daje pewien wgląd w istotę rzeczywistości – ale w podobnie tajemniczy i ulotny sposób. Naukowcy, którzy dążą do zredukowania obserwacji do ostatecznej, matematycznej teorii wszystkiego – a również i inni – muszą uświadomić sobie ograniczenia matematyki, choć właśnie oni rzadko uważają, że jest to istotny problem. Sierpień 1900 roku: Hilbert w Paryżu Pierwsze rysy na fasadzie matematyki pojawiły się na początku tego wieku, gdy matematycy usiłowali rozwiązać liczne kłopotliwe problemy, które pojawiły się w różnorodnych, wówczas czysto abstrakcyjnych dziedzinach, takich jak logika, teoria zbiorów oraz teoria liczb pozaskończonych (mówiąc niezbyt ściśle, chodzi o nieskończoności).29 W 1900 roku, podczas upalnego paryskiego lata, został ogłoszony jeden z najważniejszych planów umieszczenia matematyki na pewnej, logicznej podstawie. Jak na ironię, doprowadził on ostatecznie do dokładnie przeciwnych wyników.30 Okazją był Międzynarodowy Kongres Matematyków, a bohaterem – reprezentant Deutsche Mathematiker Yereinigung, David Hilbert (1862-1943), od 1895 roku profesor matematyki w Getyndze i jeden z największych matematyków wszystkich czasów. Ósmego sierpnia rano było duszno i gorąco. Hilbert wszedł na mównicę i zaczął swoje wystąpienie. Mówił powoli, tak aby mogli go zrozumieć słuchacze niezbyt dobrze znający niemiecki.31 "Któż z nas nie byłby zadowolony, mogąc uchylić zasłonę skrywającą przed nami przyszłość, rzucić okiem na przyszłe osiągnięcia naszej nauki i poznać tajemnice jej rozwoju w nadchodzących stuleciach?" Na powitanie następnego wieku Hilbert wyliczył dwadzieścia trzy problemy, które miały zainspirować ówczesnych matematyków.32 Drugie miejsce na liście zajęło zadanie wykazania niesprzeczności aksjomatów matematyki. Krótko mówiąc, Hilbert chciał zredukować matematykę do czystej logiki.33 Hilbert rzucił zebranym wyzwanie: "Przekonanie o rozwiązywalności każdego matematycznego problemu jest potężną zachętą dla wszystkich badaczy. Słyszymy wewnętrzny głos, który powtarza: Oto problem. Znajdź rozwiązanie. Można je znaleźć na drodze czysto rozumowej, gdyż w matematyce nie ma żadnego ignorabimus". 34 Program Hilberta, zgodnie z którym matematyczny arras miał być utkany z logicznych związków, przyjęto nazywać matematycznym formalizmem. Zimą 1920/21 Hilbert skupił już całą swoją energię na formalizacji matematyki.35 Dodatkowym bodźcem były dla niego trzy prace młodego Holendra Luitzena Brouwera, liczące razem wszystkiego 17 stron.36 Brouwer zapoczątkował tak zwany intuicjonizm, stanowiący wyzwanie dla formalistów. Holenderski matematyk zaatakował ich przekonanie, że prawa logiki mają charakter absolutny i obowiązują niezależnie od przedmiotu, do którego są stosowane. Hilbert był głęboko zaniepokojony wzrostem popularności intuicjonizmu wśród młodych matematyków. Głównym powodem jego niepokoju stał się heretycki postulat Brouwera, który domagał się odrzucenia arystotelesowskiego prawa wyłączonego środka.37 W ten sposób Brouwer podważył zasadność ważnego sposobu dowodzenia, używanego również przez Hilberta, mianowicie reductio ad absurdum. W tej metodzie zamiast bezpośrednio dowodzić tezy twierdzenia, zakładamy, że jest ona fałszywa, i wykazujemy, iż założenie to prowadzi do sprzeczności. Metoda ta, oczywiście, wymaga przyjęcia założenia, że każde matematyczne stwierdzenie jest albo prawdziwe, albo fałszywe. Przyjmując, że pewne zdania nie są ani prawdziwe, ani fałszywe, Brouwer wykluczył z matematyki metodę dowodzenia przez reductio ad absurdum. Wiele twierdzeń klasycznej matematyki można wykazać również metodami bezpośrednimi, ale takie dowody są na ogół dłuższe i bardziej skomplikowane niż dowody nie wprost. Przyjęcie zasad Brouwera wymagałoby jednak odrzucenia większości twierdzeń o istnieniu, a także znacznej części analizy matematycznej. "Gdybyśmy przyjęli reformy, jakie oni proponują – powiedział Hilbert – zagroziłaby nam utrata wielu naszych najcenniejszych skarbów".38 Narzekał, że zakazać stosowania zasady wyłączonego środka w matematyce "to tak, jakby zabronić astronomom korzystania z teleskopu lub nie pozwolić bokserowi używać pięści".39 Aby odeprzeć wyzwanie Brouwera, Hilbert chciał wykazać, że skończone metody matematyczne są wolne od sprzeczności. Pragnął znaleźć skończony zbiór aksjomatów i reguł wnioskowania, który pozwoliłby udowodnić wszystkie prawdy matematyczne. Odpowiednia procedura dowodzenia winna mieć charakter mechaniczny – musiałaby być tak jasna, aby nie wymagała interpretacji. Procedura powinna również wykluczać możność udowodnienia zdania fałszywego i pozwalać na udowodnienie wszystkich zdań prawdziwych.40 Procedury, prowadzące do realizacji określonego celu przez ślepe stosowanie ściśle sformułowanych instrukcji, nazywamy algorytmami, od imienia wielkiego arabskiego uczonego, Muhammada ibn Musa Al-Chuwarizmiego.41 Większość algorytmów ma dobrze znaną postać programów komputerowych. Metoda Hilberta była zatem równoważna próbie znalezienia algorytmu decyzyjnego dla całej matematyki, czyli procedury pozwalającej mechanicznie sprawdzić, czy dowolne dane zdanie matematyczne jest prawdziwe, czy fałszywe. Program Hilberta stanowi podstawę współczesnej teorii obliczalności, zajmującej się badaniem możliwości i ograniczeń algorytmów. Jej wyniki mają podstawowe znaczenie dla nauki o złożoności, gdyż rzucają światło na naszą zdolność modelowania i symulowania złożonych zjawisk za pomocą komputerów. Hilbert kontynuował swą krucjatę aż do przejścia na emeryturę w 1930 roku, w wieku 68 lat. W tym roku Królewiec, miasto, gdzie Hilbert się urodził, nadało mu honorowe obywatelstwo. Uroczystość ta odbyła się jesienią, podczas spotkania Niemieckiego Stowarzyszenia Naukowców i Lekarzy. Hilbert zabrał głos podczas ceremonii otwarcia. Według jednego ze świadków wyglądał na mównicy zupełnie jak Lenin. Po raz kolejny potępił "głupie ignorabtmus"; ostatnie jego słowa brzmiały: Wir mussen wissen. Wir werden wissen (Musimy wiedzieć. Będziemy wiedzieć).42 Jednak niemal w tym samym czasie inny matematyk kończył pracę, która oznaczała klęskę programu Hilberta. Niezupełność i nierozstrzygalność Siedemnastego listopada 1930 roku redakcja pisma "Monats-hefte fur Mathematik und Physik" otrzymała liczącą dwadzieścia pięć stron pracę pewnego logika z Wiednia. Autorem był mający dwadzieścia pięć lat Kurt Godeł (1906-78), urodzony w Brnie w Czechach, wówczas należącym do Cesarstwa Austro-Węgierskiego. Praca zawierała pierwszy dowód, że pewnych zdań matematycznych nie można ani wykazać, ani obalić. Zawsze da się znaleźć pewne zdania, których wartości logicznej niepodobna ustalić. Nawet jeśli ograniczymy się do arytmetyki, i w tym przypadku istnieją zdania nierozstrzygalne, to znaczy takie, których prawdziwości lub fałszywości nie sposób wykazać bez korzystania z metod spoza rozważanego systemu logicznego.43 Innymi słowy, Godeł udowodnił nieuchronność logicznych paradoksów w arytmetyce, podobnych do paradoksu "to zdanie jest fałszywe".44 Co gorsza, Godeł wykazał również, że nie można nigdy udowodnić, iż dany system matematyczny jest logicznie nie-sprzeczny. Aby dowieść poprawności dowolnego matematycznego systemu formalnego, należy skorzystać z metod nie należących do tego systemu. Za jednym zamachem Godeł dowiódł, że poszukiwany przez Hilberta algorytm decydowania dla całej matematyki jest chimerą, a próby wyprowadzenia matematyki z aksjomatów logiki są skazane na porażkę. Według von Neumanna, bardzo przygnębionego wynikami Godła,45 praca ta "jest wyjątkowa i pomnikowa – faktycznie to coś więcej niż pomnik, to punkt orientacyjny, który pozostanie widoczny z dalekich odległości w czasie i przestrzeni".46 Von Neumann dodał jeszcze, że "logika już nigdy nie będzie taka jak przedtem". John Barrow tak skomentował twierdzenie Godła: "[...] gdybyśmy religię zdefiniowali jako taki system myślowy, który zawiera nie dające się dowieść stwierdzenia, a tym samym element wiary, to z nauki Godła płynie wniosek, że matematyka jest nie tylko religią, ale że jest to jedyna religia, która potrafi dowieść, że nią jest". 47 Odwrotną stroną wiary Godła w platoński świat obiektów matematycznych była niezdolność do radzenia sobie z życiem w fizycznym, tymczasowym świecie. Był jednym z największych logików wszystkich czasów, ale także hipochondrykiem. Pod koniec życia przybrało to postać paranoi. Godeł zagłodził się, ponieważ uwierzył, że jacyś spiskowcy chcą go otruć. Zmarł 14 stycznia 1978 o pierwszej po południu w szpitalu w Princeton, w stanie New Jersey. Według świadectwa zgonu przyczyną śmierci było "niedożywienie i wycieńczenie organizmu", spowodowane przez "zaburzenia osobowości".48 Uniwersalny komputer Mimo śmiertelnego ciosu, jaki programowi Hilberta zadał Godeł, ambitny plan ustanowienia podstaw matematyki doprowadził do sformułowania ważnej koncepcji obliczalności. To początkowo abstrakcyjne pojęcie doprowadziło do powstania komputerów, nowoczesnej nauki o komputerach i systematycznego badania złożoności. Zasadniczy aspekt systemu Hilberta -wspomniany wcześniej – można zwięźle przedstawić w postaci tak zwanego Entscheidungsproblem (problemu decyzji), w pełni sformułowanego dopiero w 1928 roku podczas Międzynarodowego Kongresu w Bolonii, gdzie Hilbert ponowił swe wezwanie, by stworzyć solidniejsze podstawy matematyki.49 Po pierwsze, Hilbert chciał wykazać, że matematyka jest zupełna, czyli że dla każdego zdania matematycznego można podać dowód jego prawdziwości lub fałszywości. Po drugie, chciał również wykazać jej niesprzeczność (spójność); oznacza to, że w ramach matematyki nie można dowieść dwóch zdań sprzecznych. Po trzecie, pragnął stwierdzić, czy matematyka jest rozstrzygalna, to znaczy, czy istnieje metoda algorytmiczna – czyli procedura mechaniczna – w zasadzie stosowalna do dowolnego zdania, która pozwalałaby bezbłędnie rozstrzygnąć, czy zdanie to jest prawdziwe, czy fałszywe. Gdyby matematyka była niesprzeczna i zupełna, istniałaby również mechaniczna metoda, generująca wszystkie możliwe dowody.50 Godeł wykazał jednak, że sformalizowana arytmetyka musi być albo niezupełna, albo sprzeczna, wykluczając tę możliwość. Pozostało do rozstrzygnięcia trzecie pytanie, czyli Entscheidungsproblem: czy istnieje procedura algorytmiczna, pozwalająca rozwiązać wszystkie problemy matematyczne? Skoro formalnie definiujemy algorytm jako procedurę, pozwalającą rozwiązać problem w skończonej liczbie mechanicznych kroków, to w zasadzie każdy algorytm może wykonać "bezmyślna" maszyna. Entscheidungsproblem Hilberta stanowił ni mniej, ni więcej, tylko próbę wykazania, że wszystkie twierdzenia matematyczne można otrzymać za pomocą mechanicznych algorytmów, wykonujących operację na łańcuchach symboli matematycznych. Jak z oburzeniem zauważył pewien matematyk, realizacja tego celu skazałaby wszystkich matematyków na bezrobocie.51 W latach trzydziestych pierwszego kroku w kierunku rozstrzygnięcia trzeciego problemu Hilberta dokonał Alan Turing, jeden z największych matematyków XX wieku, a z perspektywy nauki o złożoności również jeden z największych uczonych zajmujących się naukami przyrodniczymi. Praca Turinga na temat Entscheidimgsproblem narodziła się z rozważań nad naturą umysłu i jego związkiem z fizycznym światem. Ten problem zafascynował go, gdy jeszcze chodził do szkoły w Sherborne. Już w wieku dziesięciu lat, czytając książkę Edwina Tenneya Brewstera Natural Wonders Euery Child Should Know,52 Turing uświadomił sobie możliwość zbudowania inteligentnej maszyny. Brewster zdecydowanie stwierdza: "Rzecz jasna, ciało jest maszyną. To niezwykle złożona maszyna, wielokrotnie bardziej skomplikowana niż jakakolwiek maszyna zrobiona przez człowieka – ale jednak maszyna".53 Matematycy już wcześniej rozważali możliwość znalezienia reguł, pozwalających w czysto mechaniczny sposób rozwiązać dowolny problem matematyczny. To właśnie zrobił Turing, choć w bardzo ogólny i wyidealizowany sposób. Postanowił skonstruować abstrakcyjną maszynę, zdolną do rozwiązania problemu Hilberta, czyli sprawdzenia prawdziwości dowolnego twierdzenia matematycznego. Aby rozłożyć proces obliczania na proste kroki, Turing wymyślił urządzenie przypominające staromodną maszynę do pisania. O czymś takim marzył w dzieciństwie.54 Podobnie jak maszyna do pisania może posłużyć do przepisania wszystkich dzieł Szekspira, tak samo abstrakcyjna maszyna Turinga potrafiłaby wystukać wszystkie twierdzenia matematyczne. Turing wykazał, że jego maszyna dorównuje każdej innej, zaprojektowanej w celu realizacji jakiegoś konkretnego algorytmu. Faktyczne działanie maszyny zależy od listy instrukcji podanej na taśmie – innymi słowy, od specyfikacji maszyny. We współczesnym języku powiedzielibyśmy, że maszyna Turinga jest równoważna pewnemu programowi komputerowemu, na przykład programowi dodawania liczb lub znajdowania największego wspólnego dzielnika. Istnieje nieskończenie wiele maszyn Turinga, podobnie jak można napisać nieskończenie wiele programów. Turing dowodził następnie, że zachowanie danej maszyny również można uważać za proces mechaniczny, który zostanie wykonany przez jakąś inną maszynę Turinga. A zatem można skonstruować maszynę Turinga, która odczytywałaby instrukcje dowolnej innej maszyny Turinga, a potem sama by je wykonywała. W ten sposób narodziło się pojęcie uniwersalnej maszyny Turinga. Taka maszyna potrafi wykonać algorytm każdej innej maszyny, podobnie jak nowoczesne komputery mogą wykonywać dowolne programy.55 Jak zauważył Andrew Hodges: "To wszystko wywodzi się z głębokiej idei, że programy i liczby nie różnią się od siebie".56 Praca Turinga miała godne uwagi konsekwencje. Po pierwsze, uniwersalna maszyna Turinga stanowi teoretyczny schemat komputera. Po drugie, jest ona narzędziem do mierzenia złożoności. Po trzecie, Turing zauważył, że rozkład operacji logicznych i obliczeniowych na elementarne kroki mógłby być przydatny również do opisu działania mózgu; w ten sposób stał się pionierem prac nad budową sztucznej inteligencji. W samej rzeczy, w swej słynnej pracy o liczbach obliczalnych Turing przedstawił śmiałą tezę, że jego hipotetyczna maszyna może reprezentować "stany umysłu" człowieka. Jak wyraził to Andrew Hodges: "Sens jego wywodu był oczywisty – każdemu »stanowi umysłu* ludzkiego komputera odpowiada pewien stan maszyny".57 Początkowo dla Turinga najbardziej istotne było jednak to, że jego uniwersalna maszyna umożliwiła mu rozwiązanie Entscheidungsproblem, nad którym męczyli się liczni matematycy przez pięć lat, jakie minęły, od kiedy Godeł udzielił negatywnej odpowiedzi na pierwsze dwa pytania Hilberta. Niezbyt uniwersalny komputer Uniwersalna maszyna Turinga jest wspaniałym abstrakcyjnym urządzeniem do badania teoretycznych ograniczeń matematyki. Kontynuując rozważania Godła, Turing wykazał, że niemożliwe jest określenie, czy jego maszyna – po odczytaniu danych w postaci łańcucha symboli – zakończy pracę po wykonaniu skończonej liczby operacji (w skończonym czasie).58 To zagadnienie ma oczywiście zasadnicze znaczenie w rozwiązywaniu problemów matematycznych. Aby zilustrować problem zakończenia pracy [w literaturze polskiej spotyka się często określenie "problem stopu", który jednak kojarzy mi się bardziej z metalurgią niż matematyką (przyp. tłum.)], wyobraźmy sobie listę wszystkich możliwych liczb, wypisanych jedna po drugiej w postaci dziesiętnej. Lista jest, oczywiście, nieskończenie długa i zawiera wszystkie liczby, mające skończone lub nieskończone rozwinięcie dziesiętne. Każdą z tych liczb można obliczyć za pomocą pewnej maszyny Turinga; z tego powodu nazywamy je liczbami obliczalnymi. Turing skorzystał z tej listy, aby utworzyć nową liczbę. W tym celu wziął pierwszą cyfrę pierwszej liczby i zmienił ją, następnie drugą cyfrę drugiej liczby i znów ją zmienił i tak dalej. Tak utworzona liczba nie mogła znajdować się na oryginalnej liście, która zawiera wszystkie liczby obliczalne. Wobec tego nowa liczba musi być nieobliczalna. Wynika z tego, na przekór Hilbertowi, że nie istnieje jedna ogólna metoda, pozwalająca rozwiązać wszystkie problemy matematyczne.59 Z uwagi na istnienie nieobliczalnych liczb (w rzeczywistości jest ich znacznie więcej niż liczb obliczalnych) na ogół nie można rozstrzygnąć, czy dana maszyna Turinga zakończy pracę w skończonym czasie. W latach 1936-37 do podobnych wniosków doszli niezależnie od Turinga Alonzo Church, amerykański logik z Princeton, oraz Emil Post, amerykański logik polskiego pochodzenia.60 Wkrótce wykazano, że ich metody są równoważne: nie można zawrzeć całej matematyki w jakimś skończonym zbiorze aksjomatów. Świat matematyki dzieli się na elementy dwojakiego rodzaju, obliczalne i nieobliczalne, skończone i nieskończone. Jak przekonamy się później, wydaje się wątpliwe, by nieobliczalne, superzłożone elementy matematyki odgrywały jakąś rolę w nauce. Jednak nawet obliczalne aspekty często stanowią wielkie wyzwanie dla nauk przyrodniczych w ich dążeniu do zrozumienia złożoności natury. W tej książce z reguły mówimy o badaniach obliczalnej złożoności; tylko wyjątkowo będziemy mieli do czynienia z nieobliczalnością. Czwartego września 1940 roku Alan Turing podjął pracę w Rządowej Szkole Kodów i Szyfrów. Jego głęboka znajomość logiki matematycznej sprawiła, że w latach wojny odgrywał wiodącą rolę w pracy nad łamaniem szyfrów niemieckich w Bletchley Park, w Buckinghamshire. Praca nad metodami kryptoanalitycznymi i maszynami, zwłaszcza służącymi do łamania szyfrów Enigma, używanych przez niemiecką marynarkę wojenną, stanowiła dla niego idealne, choć całkowicie tajne przygotowanie do podjęcia po zakończeniu wojny budowy rzeczywistej maszyny Turinga – czyli do zamiany logicznej abstrakcji w fizyczne urządzenie. Do tego przedsięwzięcia wrócimy w następnym rozdziale, po dokładniejszym pokazaniu ograniczeń matematyki. Równania diofantyczne Praca nad zburzeniem programu Hilberta, zapoczątkowana przez Godła i Turinga, jest kontynuowana również obecnie.61 W latach osiemdziesiątych Gregory Chaitin – z Laboratorium IBM im. Thomasa J. Watsona w Yorktown Heights, w stanie Nowy Jork – rozszerzył twierdzenie Turinga o problemie zakończenia pracy, wykazując, że nawet najprostsza arytmetyka liczb całkowitych zawiera element przypadku. "Znalazłem skrajne warunki, w których nie obowiązują żadne reguły, lecz całkowity chaos" – powiedział sam Chaitin.62 Praca Chaitina związana jest z dziesiątym problemem Hilberta: czy istnieje systematyczny sposób stwierdzenia, że dane równanie diofantyczne ma rozwiązanie w dziedzinie liczb całkowitych, takich jak l, 2, 3?63 Równania diofantyczne, nazwane tak od imienia greckiego matematyka Diofantosa,64 to równania algebraiczne o całkowitych współczynnikach, przy czym rozwiązania również muszą mieć postać liczb całkowitych. To ograniczenie niesie bardzo poważne konsekwencje.65 Na przykład równanie, w którym suma kwadratu pewnej wielkości A oraz kwadratu wielkości B wynosi jeden, ma nieskończenie wiele rozwiązań w dziedzinie liczb rzeczywistych. Jeśli natomiast ograniczymy się do dodatnich liczb całkowitych, to istnieją tylko dwa rozwiązania: A=1 i B = 0 lub odwrotnie. W 1970 roku Jurij Matijasewicz z Instytutu im. Stiekłowa w Leningradzie podał rozwiązanie dziesiątego problemu Hilber-ta. W dwustronicowej pracy, stanowiącej wierzchołek góry lodowej matematycznych rozważań, Matijasewicz wykazał, że nie istnieje ogólna metoda znajdowania całkowitych rozwiązań równań algebraicznych.66 W istocie udało mu się udowodnić, że dziesiąty problem Hilberta jest równoważny z zagadnieniem zakończenia pracy maszyny Turinga. Chaitin wykorzystał ten związek, aby zaatakować pewną odmianę dziesiątego problemu Hilberta za pomocą metod Turinga. Zamiast pytać, czy równanie algebraiczne ma całkowite rozwiązanie, Chaitin rozważał, czy ma skończoną, czy też nieskończoną liczbę takich rozwiązań. Aby rozstrzygnąć ten problem, wpierw sporządził uniwersalną maszynę Turinga, wykonującą operację na liczbach całkowitych. Otrzymał w ten sposób "uniwersalne równanie diofantyczne" 17 000 zmiennych; jego zapis zajmuje 200 stron.67 Równanie to reprezentuje komputer, który – gdyby mógł liczyć nieskończenie długo – byłby zdolny stwierdzić, czy realizacja dowolnego programu zostanie zakończona. Zamiast badać kwestię zakończenia pracy dla każdego programu oddzielnie, Chaitin rozważył zbiór wszystkich programów i badał prawdopodobieństwo, że któryś z nich zakończy pracę w przypadku rodziny uniwersalnych równań diofantycznych, z których każde powstało przez zmianę jednego parametru. Prawdopodobieństwo to można wyrazić w postaci liczby omega, której rozwinięcie binarne jest nieskończenie długie. Każde z tych równań ma skończoną liczbę rozwiązań całkowitych, jeśli na odpowiednim miejscu rozwinięcia liczby omega stoi zero, a nieskończenie wiele, jeśli na tym miejscu znajduje się jedynka. "Każde równanie należące do rodziny jest skonstruowane bardzo perwersyjnie. Kwestia, czy ma ono skończoną, czy nieskończoną liczbę rozwiązań, jest tak delikatna, że nie ma żadnego powodu, aby było tak, a nie inaczej" – stwierdził Chaitin.68 Turing wykazał, że problem zakończenia pracy wymaga nieskończonych obliczeń (czyli jest nierozstrzygalny za pomocą metod skończonych), natomiast Chaitin udowodnił, iż problem ten jest algorytmicznie przypadkowy: gdy wyrazimy go w postaci liczby dwójkowej, otrzymujemy serię zer i jedynek, której nie można odróżnić od serii reprezentującej wyniki nieskończenie wielu rzutów monetą.69 Oznacza to, że odpowiedzi na pytania dotyczące uniwersalnych równań diofantycznych są również przypadkowe. Chaitin rozszerzył analogię z rzutami monetą, aby podkreślić, jak przypadkowa może być "prosta" arytmetyka liczb całkowitych. "Prawdopodobieństwo zakończenia pracy jest maksymalnie niepoznawalne – twierdzi. – Dowolny wynik rzutu monetą nie daje żadnych informacji na temat wyników poprzednich i następnych rzutów. Sytuacja wygląda dokładnie tak samo, gdy pytamy, czy dowolne z moich równań ma skończoną czy też nieskończoną liczbę rozwiązań. Odpowiedź ma charakter nieredukowalnego faktu matematycznego, nie związanego z żadnym innym faktem matematycznym".70 Zaskakujące, ale nawet arytmetyka zawiera elementy przypadkowe. Jak powiedział Chaitin: "Bóg gra w kości nie tylko w mechanice kwantowej, ale nawet w arytmetyce liczb całkowitych!"71 To stwierdzenie matematyczne doskonale współgra z odkryciem deterministycznego chaosu w przyrodzie; do tego pozornego oksymoronu wrócimy później. Wynika z niego również wniosek, budzący głęboki niepokój wśród czystych matematyków. Niektóre problemy matematyczne można badać tylko metodą prób i błędów, czyli przeprowadzając eksperymenty. Praktyczna rozwiązywalność Do tej pory zajmowaliśmy się badaniem dziur w samej strukturze matematyki. Istnieją jednak również inne, bardziej praktyczne zagadnienia. Pewne problemy są w zasadzie rozwiązywalne, ale w praktyce nie można ich rozwiązać w "realistycznym" czasie, nawet za pomocą komputera. Mamy tu do czynienia nie z obliczalnością, lecz z tak zwaną algorytmiczną złożonością, która zajmuje się czasem, potrzebnym na rozwiązanie problemu za pomocą maszyny Turinga. Prace Godła, Turinga, Churcha i Chaitina dotyczą problemu obliczalności, natomiast z algorytmiczną złożonością spotykamy się często w praktyce. Okazuje się, że pewne klasy problemów obliczalnych są znacznie trudniejsze do rozwiązania od innych. Ilość obliczeń, wyrażana na przykład w takich jednostkach, jak "operacje zmien-noprzecinkowe"72 (liczba operacji wykonanych przez algorytm), określa nakład pracy na rozwiązanie danego problemu. Ryc. 2.1. Słynny problem komiwojażera dla przypadku czterech miast. Algorytmy, opisujące problemy obliczalne, można podzielić na dwie klasy ze względu na czas potrzebny do znalezienia rozwiązania problemu, będący funkcją pewnej liczby N, która charakteryzuje jego wielkość. Gdy liczba potrzebnych operacji wzrasta jak pewna skończona potęga N (na przykład kwadrat lub sześcian N), mówimy, że problem jest praktycznie rozwiązywalny73 w czasie wielomianowym; klasę tę oznaczamy symbolem P. Matematykom i specjalistom od komputerów rzedną miny, gdy czas wymagany do rozwiązania problemu (liczba koniecznych operacji) zależy od N w sposób wykładniczy (pewna liczba do potęgi N). Takie problemy są praktycznie nierozwiązywalne, gdyż czas potrzebny na znalezienie rozwiązania wzrasta bardzo szybko ze wzrostem N. Nawet komputery nic tu nie pomagają. Problemy, których nie można rozwiązać w czasie wielomianowym, należą do klasy NP.74 Najbardziej znany problem, należący do klasy NP, to zapewne problem komiwojażera.75 Komiwojażer ma odwiedzić N miast i musi zminimalizować całkowitą długość drogi, gdyż skąpy szef każe oszczędzać na benzynie (por. Ryc. 2.1). Problem ten łatwo sformułować, ale mimo wielu wysiłków nikomu nie udało się znaleźć poprawnego, deterministycznego algorytmu – bez elementów losowych i dającego jednoznaczne rozwiązanie – pozwalającego uzyskać odpowiedź w czasie wielomianowym. Gdy liczba miast i dróg jest niewielka, łatwo otrzymać rozwiązanie, porównując wszystkie możliwości. Gdy komiwojażer ma odwiedzić pięć miast, komputer może z łatwością sprawdzić dwanaście istniejących możliwości. Gdy mamy dziesięć miast, liczba możliwości wzrasta do 181 440 [przy założeniu, że miasta są połączone drogami "każde z każdym" (przyp. red.)]. Nawet jeśli mamy do dyspozycji superszybki komputer, czas potrzebny na sprawdzenie wszystkich możliwości niemal błyskawicznie przekracza wszelkie rozsądne ograniczenia. W przypadku zaledwie dwudziestu pięciu miast liczba możliwych tras podróży staje się tak wielka, że nawet gdyby komputer sprawdzał milion wariantów trasy na sekundę, znalezienie rozwiązania wymagałoby 9,8 miliardów lat (około dwie trzecie obecnego wieku Wszechświata).76 O wielu rzeczywistych zagadnieniach wiadomo, że należą do klasy NP, szczególnie często dotyczy to podobnych problemów optymalizacji. Właściciel fabryki obwodów drukowanych musi maksymalnie zwiększyć wydajność pracy. Firma farmaceutyczna dąży do zmaksymalizowania dopasowania cząsteczki leku do odpowiedniego białka. Eleganckie metody analityczne często nie pozwalają znaleźć optymalnych rozwiązań takich problemów, gdyż optymalizacja stanowi najczęściej zagadnienie praktycznie nierozwiązywalne (klasy JVP). Skąd jednak wiadomo, że dany problem należy do klasy NP? Dzieci w szkole też często twierdzą, że pewnych zadań nie można rozwiązać. Czy opinia, że dany problem należy do klasy NP, nie mówi nam więcej o kompetencjach matematyka niż o samym problemie? W rzeczywistości pytanie to należy do najważniejszych nie rozwiązanych problemów matematyki i informatyki. Nie udało się dotychczas dowieść hipotezy, że problemów typu NP rzeczywiście nie można rozwiązać w czasie wielomianowym za pomocą konwencjonalnych, deterministycznych algorytmów. Na razie należy uznać, że ocena, iż dany problem należy do klasy NP – oparta na próbach skonstruowania algorytmu – zdecydowanie przekonuje nas, że jego rozwiązanie wymaga radykalnie nowego pomysłu. Na pierwszy rzut oka wydaje się, że istnienie problemów klasy NP powinno bardzo zaniepokoić tych, którzy usiłują symulować działanie świata za pomocą komputera. Okazuje się jednak – zajmiemy się tym w następnych rozdziałach – że przyroda dostarcza nam narzędzi do rozwiązywania takich problemów. Matematyka obliczalna Przez ponad dwieście lat od ukazania się Principiów Newtona uczeni uważali, że każdy proces mechaniczny można w pełni wyjaśnić teoretycznie, o ile tylko badacz wykaże dostateczną matematyczną pomysłowość, by rozwiązać analitycznie równania ruchu, opisujące ten proces. Zawsze najwyżej ceniono metody wymagające wyłącznie kartki, ołówka i inteligencji. Nic więc dziwnego, że fizycy przeżyli prawdziwy szok, gdy w 1889 roku Henri Poincare udowodnił, iż nasze rezerwy pomysłowości są bardzo ograniczone – nawet gdy próbujemy rozwiązać problemy obliczalne, o których mówił Turing. Znalezienie analitycznego rozwiązania jest niemożliwe już w przypadku ruchu zaledwie trzech ciał, takich jak Słońce, Ziemia i Księżyc. Matematycy określają takie układy jako niecałkowalne, co oznacza, że nie można analitycznie znaleźć ścisłego rozwiązania równań ruchu. Wobec tego wszystkie układy zawierające więcej niż trzy ciała – nie mówiąc już o miliardach miliardów cząsteczek, wypełniających balon z gazem lub szklankę piwa – również są niecałkowalne. Jest to poważne ostrzeżenie, informujące o niebezpieczeństwie kryjącym się w redukcjonistycznych próbach maksymalnego upraszczania zjawisk. Koncentrując się na nadmiernie uproszczonych modelach – takich jak kulka staczająca się bez tarcia po równi pochyłej – które poddają się uwodzicielskiej sile matematyki analitycznej, matematycy często nie dostrzegają bogactwa i złożoności rzeczywistego świata. Na szczęście, dziś to już nam raczej nie grozi. Dzięki nowoczesnym komputerom możemy badać zachowanie układów nieliniowych, takich jak układ trzech ciał Poincarego, w których zaczyna się przejawiać złożoność. Gdy jednak już porzucimy królestwo zwartych formuł analitycznych i skorzystamy z komputerów, musimy się liczyć z nowymi problemami. Jak skomplikowany musi być algorytm (a zatem również program komputerowy), aby znaleźć numeryczne rozwiązanie problemu? Oczywiście, zawsze są lepsze i gorsze algorytmy; najlepszy (optymalny) pozwoli znaleźć rozwiązanie w najkrótszym czasie. Przypuśćmy jednak, że rozwiązując dowolny problem, zawsze korzystamy z najlepszego algorytmu. Z naszych rozważań o praktycznej rozwiązywalności natychmiast wynika, że różne problemy wymagają mniej lub więcej czasu komputerowego. W ten sposób dostaliśmy jedną z najbardziej skutecznych i najmniej kontrowersyjnych miar złożoności. Złożoność algorytmu można bezpośrednio powiązać z nauką, rozważając, w jakim stopniu obserwowane zachowanie układu daje się algorytmicznie "skompresować".77 Kompresja, pojęcie wprowadzone przez Gregory'ego Chaitina, gdy miał on piętnaście lat, jest użytecznym narzędziem, pozwalającym ocenić trudność w odtworzeniu zachowania danego zjawiska naturalnego i, w zasadzie, sformułować ścisłą definicję złożoności.78 Jak powiedział Chaitin: "Miarą złożoności pewnego obiektu jest długość najkrótszego programu, pozwalającego obliczyć lub opisać ten obiekt. Prostsze rzeczy wymagają krótszych programów".79 Ryc. 2.2. Wzrost nlekompresowalności. Trzy przykłady zależności temperatury od czasu: A – temperatura jest stała, B – zmienia się okresowo, C – zmienia się chaotycznie. W życiu codziennym nie brak takich sytuacji. Gospodarz może powiedzieć niepożądanym gościom, że jest zmęczony lub ma dużo pracy. Może przypomnieć im, że czekają ich inne spotkania. Może też krzyknąć: "wynoście się!" – jest to mocno "skompresowana" forma wypowiedzi, która powinna doprowadzić do zamierzonego celu. W bardziej skomplikowanych przypadkach skompresowany opis może okazać się nieodpowiedni. Najbardziej interesujące są skrajne przykłady układów niekompresowalnych. "Chłopak poznaje dziewczynę, rodzina się wtrąca, oboje umierają" to radykalnie skompresowany opis dramatu Szekspira Romeo i Julia, opis, który jednak nie wydaje się odpowiednim streszczeniem. Żeby w pełni docenić sztukę, trzeba ją zobaczyć; nie wystarczy przeczytać streszczenie lub recenzję. Podobnie, istnieją algorytmicznie niekompresowalne obiekty matematyczne. Dobrym przykładem jest liczba omega Chaitina, algorytmicznie przypadkowa wielkość, z którą zetknęliśmy się przy okazji równań diofantycznych. Można przedstawić pojęcie kompresowalności w sposób bliższy uczonym i matematykom, kładąc nacisk na czas, a nie informację lub program konieczny do rozwiązania problemu. Ryc. 2.2 przedstawia prosty przykład fizyczny – trzy typy zależności pewnej wielkości, powiedzmy, temperatury od czasu. W przypadku A wielkość ta jest stała. Jeśli całkowita długość serii pomiarów wynosi N, to odpowiedni algorytm ma prostą postać: "powtórz początkową wartość N razy". W przypadku B regularnie powtarzającą się serię pomiarów można przedstawić za pomocą prostego algorytmu: "powtórz dwukrotnie serię wyników od O do N/2" – który jest niewiele dłuższy od poprzedniego. Zdarzają się jednak sytuacje, gdy dana wielkość zmienia się tak jak w wersji C – na pozór przypadkowo, a w rzeczywistości chaotycznie. W nauce ma to ściśle określone znaczenie – zajmiemy się nim poniżej. Chwilowo wystarczy, jeśli zwrócimy uwagę, że choć ta seria wydaje się zupełnie przypadkowa, może się w niej kryć pewna zorganizowana struktura. Układy chaotyczne można w pewnym stopniu algorytmicznie skompresować. To wielka ulga dla uczonych przestraszonych złożonością realnego świata: niektóre bardzo skomplikowane zjawiska można opisać za pomocą niewielkiego zbioru deterministycznych równań. Układy chaotyczne są niezwykle wrażliwe na warunki początkowe i ich zachowanie można przewidzieć tylko w krótkiej skali czasowej. Ponadto im bardziej chaotyczny układ, tym mniej kompresowalna jest jego reprezentacja algorytmiczna.80 Gdy pewne zjawisko zachodzące w rzeczywistości jest algorytmicznie niekompresowalne, proces, w którym ono faktycznie występuje, jest najkrótszym sposobem jego przedstawienia. Teorie niewielu zjawisk Niewątpliwie pod wpływem rozwoju komputerów w pewnych kręgach stało się modne twierdzenie, że zamiast uważać prawa natury za platońskie obiekty matematyczne, należy uznać, iż procesy naturalne mają charakter obliczeń. Z tego punktu widzenia prawa natury można interpretować jako programy, wykonywane na naturalnym "komputerze" materii i energii. Jak wskazuje Barrow, można wówczas zdefiniować naukę jako poszukiwanie kompresowalności; ostateczna teoria wszystkiego byłaby prawem wyrażającym ostateczną możliwą kompresję.81 Steven Weinberg, laureat Nagrody Nobla i specjalista od cząstek elementarnych, to jeden z uczonych, którzy marzą o ostatecznej kompresji. Jest optymistą, choć przyznaje, że obecnie fizyka redukcjonistyczna utknęła w miejscu. Nasze teorie mają ograniczony zakres ważności, są prowizoryczne i dalekie od zupełności, "[...] jednak poza nimi widzimy chwilami zarysy teorii ostatecznej, która miałaby nieograniczony zakres ważności i byłaby całkowicie zadowalająca pod względem zupełności oraz niesprzeczności. Poszukujemy pewnych uniwersalnych praw przyrody, a gdy takie prawdy znajdziemy, usiłujemy pokazać, jak można je wydedukować z praw jeszcze prostszych".82 Ten program opiera się na złudnym założeniu, że jest możliwe skondensowanie wszystkich zjawisk naturalnych w najwyżej kilku równaniach matematycznych – wszystko, co poddaje się naukowej analizie, powinno dać się wyjaśnić za pomocą tych podstawowych praw. W praktyce jednak nie wszystko można obliczyć: próby opisu mycia ziemniaków pod bieżącą wodą lub rzutu kostką napotykają na przeszkodę w postaci złożoności obliczeniowej. Jak przyznaje sam Weinberg: "[...] niektóre niezwykłe zjawiska, od turbulencji po procesy myślenia, będą wymagały wyjaśnień nawet po odkryciu teorii ostatecznej".83 Na jeszcze głębszy problem wskazują prace Turinga, które Weinberg lekceważy jako "należące raczej do matematyki lub techniki, a nie do przyjętego zakresu nauk przyrodniczych".84 Poważne trudności wynikają z tego, że w platońskim królestwie abstrakcyjnej matematyki istnieją problemy nie mające obliczalnych rozwiązań. To zmusza nas przynajmniej do rozważenia pytania, czy gdybyśmy znali ostateczną teorię naukową – sformułowaną w matematycznej postaci – potrafilibyśmy obliczyć na jej podstawie wszystko, co nas interesuje. Klątwa Turinga W jakim stopniu nasze próby zrozumienia złożoności są zablokowane przez ograniczenia możliwości matematyki, wykryte przez Godła, Turinga i Chaitina? Byłoby bardzo przygnębiające, gdyby nieobliczalność okazała się ważna w przebiegu rzeczywistych procesów, zwłaszcza najbardziej złożonych zjawisk, związanych z życiem i inteligencją, dzięki którym ludzie mogą uprawiać matematykę. Czy komputer może symulować przejście od układu nieożywionego do żywego? A co z ludzkimi "stanami umysłu"? Czy można skonstruować żywe komputery zgodnie z jakąś rozsądną definicją tego określenia? Czy komputery mogą wykazywać inteligencję i świadomość? Jeśli życie i świadomość to coś więcej niż implementacja jakiegokolwiek pojedynczego algorytmu, to czy cechy te może posiadać dostatecznie złożona maszyna licząca? Bardzo niewiele uwagi poświęcono jak dotychczas kwestii, czy teoretyczne ograniczenia możliwości matematyki naszkicowane w tym rozdziale zmniejszają w jakiś sposób nasze szansę opisu złożoności rzeczywistego świata. Najpoważniejsze do tej pory argumenty, świadczące, że tak może być, przedstawili Marian Pour-El i Ian Richards z Uniwersytetu stanu Minnesota. Udało się im wykazać, że istnieją nieobliczalne rozwiązania pewnych dobrze znanych równań fizyki matematycznej, w tym również równania falowego, które opisuje rozchodzenie się fal elektromagnetycznych – takich jak światło, promieniowanie podczerwone, ultrafioletowe, radiowe oraz rentgenowskie.85 Trudno jednak zrozumieć, jak takie efekty mogą ograniczyć badanie złożoności. Obliczalne warunki początkowe, które prowadzą do nieobliczalnych rozwiązań, są dość niezwykłe.86 Poza tym, jak wskazali Pour-El i Richards, dowolny obserwator badający takie fale widziałby obliczalną serię zdarzeń i nie dostrzegłby niczego niezwykłego. Skoro nauka dotyczy tego, co obserwujemy, to nawet te szczególne wyniki matematyczne nie ograniczają w istotny sposób możliwości wykorzystania komputerów w nauce. Choć z czystej logiki wynikają pewne ograniczenia możliwości matematycznego rozumowania, sam Turing nigdy nie traktował ich bardzo poważnie w swych pracach na temat sztucznej inteligencji.87 Chaitin również uważa, że arytmetyczna przypadkowość jest cechą platońskiego świata, a nie tego, w którym żyjemy.88 Wszystkie problemy matematyki wywodzą się z napięcia między skończonością i nieskończonością lub między wielkościami dyskretnymi i ciągłymi. Komputer, zgodnie z koncepcją Turinga, jest dyskretnym, cyfrowym urządzeniem, mającym skończoną liczbę stanów wewnętrznych. Jeśli nie liczyć możliwego wyjątku, jakim są komputery kwantowe (por. rozdział 3.), uniwersalna maszyna Turinga określa granicę tego, co jest matematycznie obliczalne. Natomiast układy fizyczne, zachowujące się zgodnie z klasyczną fizyką newtonowską, są ciągłe, a nie dyskretne. Wobec tego teoretycznie mają nieskończoną liczbę stanów wewnętrznych. Można zatem przypuszczać, że takie naturalne komputery analogowe przewyższają uniwersalną maszynę Turinga i są zdolne do wykonania obliczeń, jakich nie mogą zrobić komputery cyfrowe, na przykład rozwiązać problem zakończenia pracy i poradzić sobie z liczbami nieobliczalnymi.89 Matematycy wykryli teoretyczne ograniczenia możliwości komputerów cyfrowych, ale mimo to muszą pogodzić się ze wzrastającym znaczeniem tych maszyn w ich dziedzinie. Coraz częściej uczeni akceptują dowody komputerowe, których nie sposób sprawdzić bez pomocy maszyny. Najsłynniejszy problem, który został w ten sposób rozwiązany, to zagadnienie czterech barw. W 1852 roku student Francis Guthrie zwrócił uwagę, że do pokolorowania dowolnej mapy w taki sposób, aby sąsiadujące kraje różniły się barwą, wystarczają cztery kolory. W 1976 roku Kenneth Appel i Wolfgang Haken z Uniwersytetu stanu Illinois, korzystając z pomocy komputera, udowodnili twierdzenie o czterech barwach.90 Komputer posłużył nie tylko do wykonania najbardziej żmudnej części pracy, ale również znalazł sposoby pokonania pewnych trudności, przewyższające pomysłowością koncepcje, jakie zdolni byli wymyślić żywi matematycy. W owych czasach wykorzystanie komputerów do dowodzenia twierdzeń było czymś niezwykłym. Praca Appela i Hakena wywołała burzliwą dyskusję wśród matematyków, gdyż dowody powinny być wolne od empirycznych zanieczyszczeń: skąd mamy pewność, że maszyna nie popełniła błędu? Czy dowód, którego żaden człowiek nie może sprawdzić z kartką i ołówkiem w ręku, rzeczywiście wolno uznać za dowód? Dowód twierdzenia o czterech barwach przetrwał szczegółową analizę, choć krążyły plotki, jakoby okazał się błędny.91 Nie chcemy w ten sposób twierdzić, że dowody komputerowe są bezbłędne. Na przykład Clement Lam, Larry Thiel i Stanley Swiercz z Uniwersytetu Concordia w Montrealu przedstawili "dowód" pewnego twierdzenia, wymagający sprawdzenia 1014 przypadków za pomocą superkomputera. Według ocen raz na tysiąc godzin pracy komputer popełniał niewykrywalny błąd. "Ponieważ obliczenia trwały kilka tysięcy godzin, powinniśmy się spodziewać kilku błędów – powiedział Lam. – Dlatego staram się unikać słowa »dowód« i zamiast tego mówię o "komputerowym wyniku«. Z drugiej strony, wielu matematyków uznaje wynik za dowiedziony!"92 Matematycy również często robią błędy, czego doskonałym świadectwem jest ogłoszony niedawno dowód Wielkiego Twierdzenia Fermata, następnie odwołany, po czym ponownie ogłoszony.93 W przyszłości pewne dowody będziemy uznawać dopiero wtedy, gdy sprawdzi je komputer. Odkrycie ograniczeń, jakim podlega ze swej natury matematyka, w rzeczywistości umocniło zaufanie do komputerów. Ograniczenia te w żadnym wypadku nie oznaczają, że matematyka poniosła klęskę, dowodzą natomiast, iż jest ona znacznie bliższa fizyce, niż gotowi byliby przyznać liczni matematycy. "Matematycy nie mają bezpośredniego dostępu do absolutnej prawdy" – powiedział Chaitin. Według jego zdradzieckich poglądów matematycy coraz częściej będą musieli przeprowadzać eksperymenty, aby na podstawie ich wyników wybrać najbardziej odpowiednie aksjomaty i zasady.94 Fizycy już przyjęli to do wiadomości. Wiedzą, że zasady dynamiki Newtona prowadzą do poprawnych wyników w warunkach codziennych, gdy na przykład rozważamy ruch samochodu; kiedy jednak ciała poruszają się z prędkością bliską prędkości światła, musimy skorzystać z teorii względności Einsteina, a w świecie atomów i cząstek rządzi mechanika kwantowa. Wykorzystując komputery do rozszerzenia swoich horyzontów, matematyk musi założyć, że można mieć do nich zaufanie. To doskonała pociecha dla wszystkich, którzy niepokoją się z powodu wniosków, jakie wynikają z badań Turinga dla naszych prób zrozumienia złożoności. Badacze platońskiego świata coraz częściej będą musieli polegać na urządzeniu ze świata fizycznego, aby dokonać nowych odkryć matematycznych. To urządzenie, cyfrowy komputer, jest jedynym narzędziem umożliwiającym pełne poznanie wspaniałej złożoności przyrody. Pora zatem, żebyśmy bliżej się z nim zapoznali. ROZDZIAŁ 3 PALETA ARTYSTY To wiek maszynerii, w każdym sensie tego słowa. THOMAS CARLYLE Wielka fala u wybrzeża Kanagawa to najlepiej znane r r dzieło Katsushiko Hokusaia, słynnego japońskiego grafika, autora tysięcy rysunków i drzeworytów (Ryc. 3.1). Jest to jeden z serii drzeworytów, które powstały na początku XIX wieku, w szczytowym okresie twórczości artysty, należącego do szkoły Ukiyo-e (obrazy ulotnego świata). Hokusai niezwykle żywo przedstawił w przepływie wody nieuporządkowaną mieszaninę małych i dużych struktur załamującej się fali. Hokusai przez całe życie dążył – na swój sposób – do opanowania tajemnej sztuki złożoności. Piętnaście lat przed śmiercią, w maju 1849 roku, tak pisał: "Od szóstego roku życia miałem manię rysowania różnych przedmiotów. Poczynając od pięćdziesiątego roku życia, zrobiłem wiele prac, ale tak naprawdę to przed siedemdziesiątką nie narysowałem nic godnego uwagi. W wieku siedemdziesięciu trzech lat w końcu uchwyciłem coś z prawdziwego charakteru wyglądu ptaków, zwierząt, owadów i ryb oraz żywej natury traw i drzew. Wobec tego przed osiemdziesiątką zrobię pewne postępy, koło dzie-więćdziesiątki lepiej zrozumiem znaczenie rzeczy, mając lat sto będę doprawdy znakomity, a gdy dożyję stu dziesięciu lat, każda moja linia i każda moja kropka z pewnością będą żyć własnym życiem". Ryc. 3.1. Klasyczna turbulencja: Katsushiko Hokusai, Wielkajala u wybrzeża Kanagawa. Badanie dynamiki cieczy, dążenie do zrozumienia "prawdziwego charakteru" jej przepływu i rozchodzenia się fal uderzeniowych stało się również obsesją Johna von Neumanna. Podczas wojny, będąc jednym z głównych amerykańskich specjalistów od wybuchów, pragnął zrozumieć "każdą linię i kropkę" zachowania fal uderzeniowych podczas eksplozji i implozji.1 Von Neumann potrzebował niezwykle bogatej "palety", aby przedstawić bardzo złożone procesy, które zachodzą, gdy fala wywołana wybuchem zgniata ładunek plutonu w bombie jądrowej, tak aby została przekroczona masa krytyczna. Mówiąc krótko, potrzebował komputera cyfrowego. Dziś jego nazwisko jest nierozerwalnie związane z narodzinami tej maszyny. Jak się już przekonaliśmy, złożoność przyrody wykracza poza obliczeniowe możliwości człowieka, wyposażonego jedynie w kartkę i ołówek. Komputer cyfrowy jest nieodzownym narzędziem do badania uniwersalnych zasad matematycznych, rządzących złożonymi zjawiskami. Za pomocą tych logicznych maszyn możemy symulować, tworzyć i kontrolować liczne złożone procesy, zarówno naturalne, jak i sztuczne. Wkrótce się przekonamy, że badanie złożoności postępowało równolegle z rozwojem komputerów cyfrowych; wzrost szybkości i mocy obliczeniowej komputerów umożliwił nam stopniowe wyjaśnianie coraz to bardziej złożonych zjawisk. Wprawdzie komputery zaczęły wywierać ogromny wpływ na badania naukowe dopiero w ostatniej ćwierci XX wieku, ale historia tego niezwykłego urządzenia liczy wiele stuleci. Tacy pionierzy, jak Ada Lovelace i Charles Babbage, zdawali sobie sprawę z nadzwyczajnych możliwości maszyn liczących; rozważali nawet najbardziej egzotyczne spośród współczesnych zastosowań komputerów – stworzenie "sztucznego życia". Wątpliwe jednak, czy mogli sobie wyobrazić, jak różne będą komputery z końca XX wieku od ich pierwszych mechanicznych konstrukcji. Dzięki wykorzystaniu do budowy komputerów laserów i innych urządzeń, które zawdzięczamy mechanice kwantowej, oraz egzotycznych systemów logicznych, takich jak logika rozmyta, stoimy dziś na progu rewolucji w naszych możliwościach zrozumienia złożoności. Początki Pierwsze prymitywne urządzenia ułatwiające liczenie pojawiły się już w życiu codziennym starożytnych. Początkowo były to rysy na drzewie lub kamieniu, kamyki, sznury z węzłami i kije karbowe.2 O skromnych początkach urządzeń liczących świadczy choćby słowo ccdculus, które po łacinie znaczy "kamyk". Później pojawił się abakus; ta nazwa wywodzi się od greckiego słowa oznaczającego tabliczkę lub deskę. Najwcześniejsze liczydła miały postać kresek narysowanych na ziemi; do oznaczania jedności, dziesiątek i setek używano kamyków. W średniowieczu pojawiły się liczydła mające postać koralików na drutach, takie jak chińskie suan-pam, japoński soroban i rosyjskie szczoty.3 W 1614 roku John Napier (1550-1617), baron Merchiston w Szkocji, wynalazł metodę ogromnie ułatwiającą rachunki. Udało mu się w prosty sposób zredukować mnożenie i dzielenie do znacznie prostszych operacji – dodawania i odejmowania. Jego sekret polegał na zastosowaniu logarytmów. Liczby można mnożyć, dodając ich logarytmy. Ponieważ logarytm iloczynu jest równy sumie logarytmów poszczególnych czynników, trzeba tylko znaleźć wynik na podstawie znajomości uzyskanego w dodawaniu logarytmu. Dzielenie polega na odejmowaniu logarytmów. W latach dwudziestych XVII wieku wiejski pastor William Oughtred wynalazł suwak logarytmiczny, który dla wielu pokoleń uczniów stał się symbolem ponurych lekcji matematyki. W XVII wieku kilku wynalazców usiłowało zbudować mechaniczne urządzenia liczące. W 1623 roku Wilhelm Schi-ckard4 opisał swój rachujący zegar; w tym samym roku Blaise Pascal zbudował maszynę do dodawania; w 1672 Gottfried Leibniz kazał rzemieślnikowi zbudować urządzenie – przez siebie zaprojektowane – do mechanicznego mnożenia. Ich motywacje jasno przedstawił właśnie Leibniz, który zajmował się astronomią i dobrze wiedział, jak żmudne jest ręczne obliczanie tablic astronomicznych: "Jest rzeczą niegodną wybitnych ludzi, by tracili czas, niczym niewolnicy wykonując godzinami rachunki, które można by zlecić komuś innemu, gdyby tylko mieć pod ręką odpowiednie maszyny".5 Niemiecki geniusz był tak dumny ze swego arytmometru, że myślał o upamiętnieniu go medalem z inskrypcją "Lepszy od człowieka".6 Ryc. 3.2. Jedna z pierwszych maszyn liczących, zbudowana według projektu Gottfrieda Leibniza. Pionierzy mechanicznych urządzeń liczących mieli do rozwiązania poważne problemy, wykraczające poza kwestię pewności wyniku. Żaden z tamtych kalkulatorów nie był prawdziwym automatem – każdy wymagał doświadczonego operatora, który interweniował w różnych punktach obliczeń. Pierwszą rzeczywiście automatyczną maszynę – która uporała się z problemem "przenoszenia", a nawet drukowała wyniki – skonstruował w 1821 roku pewien wszechstronny wynalazca. Człowiek ten wymyślił potem maszynę uderzająco podobną do tej, o której sto lat później myślał Alan Turing. Komputer parowy Uważa się, że Charles Babbage (1791-1871) jest ojcem nowoczesnych technik obliczeniowych, ponieważ wielokrotnie próbował zbudować "maszyny", które -jak miał nadzieję – potrafiłyby obliczać i drukować tablice matematyczne, coraz częściej potrzebne uczonym, bankierom, firmom ubezpieczeniowym, inżynierom i nawigatorom. Zwłaszcza nawigacja miała duże znaczenie dla Wielkiej Brytanii, pierwszej morskiej potęgi ówczesnego świata. Zainteresowania Babbage'a nie ograniczały się do maszyn liczących. Wynalazł on również: urządzenie do łapania krów stojących na torach kolejowych, składające się z "mocnej, skórzanej płachty, przymocowanej do żelaznej belki"7; migającą latarnię morską; prędkościomierz oraz buty do chodzenia po wodzie.8 Babbage opracował też zasady badań operacyjnych -obiektywnej analizy i optymalizacji zachowania złożonych układów i organizacji. Był wybitnym kryptologiem, współzało-życielem Królewskiego Towarzystwa Statystycznego i Królewskiego Towarzystwa Astronomicznego, a także niezwykle energicznym organizatorem kampanii na rzecz zakazania w Londynie działalności orkiestr dętych, gry na dudach i innych "narzędziach tortur", które – jak sam twierdził – pozbawiały go jednej czwartej zdolności intelektualnych.9 Charles Babbage urodził się 26 grudnia 1791 roku w domu ojca w Walworth, w hrabstwie Surrey, 450 metrów od słynnego zajazdu Elephant and Castle. W tamtych czasach była to wiejska okolica, niczym nie przypominająca zabetonowanego i pokrytego asfaltem centrum Londynu, w którego skład teraz wchodzi. Za życia Babbage'a Anglia przekształciła się z kraju rolniczego w najbardziej – na owe czasy – uprzemysłowione państwo świata. W 1810 roku Babbage dostał się do Trinity College w Cambridge. Przyłączył się wtedy do wielu studenckich organizacji: towarzystwa organizującego wspólne niedzielne śniadania, Ghost Club, The Extractors (celem tego ostatniego było wyciąganie członków z domów dla obłąkanych, gdyby któryś miał pecha i został zamknięty), a także do klubu wioślarskiego, ironicznie określanego mianem Błazny Babbage'a,10 oraz do towarzystwa matematycznego, które zostało pomyślane jako parodia poważnej grupy religijnej – wtedy też Babbage zainteresował się obliczeniami. Z jego autobiografii wynika, że już w dzieciństwie był zafascynowany maszynami; Babbage wspomina na przykład, jak oczarowały go dwa srebrne automaty, które zobaczył na wystawie.11 W latach 1812-13 ta fascynacja zmieniła się w wizję zmechanizowania matematyki:12 "Pewnego wieczoru siedziałem pochylony nad stołem w pokoju Towarzystwa Analitycznego w Cambridge, będąc w dość marzycielskim nastroju. Przede mną leżały tablice logarytmiczne. Do pokoju wszedł inny członek towarzystwa. »No, Babbage, o czym śnisz?« – spytał, widząc, że drzemię. – »Myślę, że wszystkie te tablice (wskazałem na tablice logarytmów) można by obliczyć za pomocą maszyny" – odpowiedziałem".13 Zdarzenie, które rzeczywiście skłoniło Babbage'a do podjęcia pracy, miało miejsce w 1821 roku: "Herschel, mój przyjaciel, przyniósł pewnego dnia wyniki obliczeń rachmistrzów i zaczęliśmy żmudny proces sprawdzania. Po jakimś czasie okazało się, że znaleźliśmy wiele błędów. W pewnej chwili nagromadziło się ich tyle, że wykrzyknąłem: »Boże, chciałbym, żeby te obliczenia robiła maszyna parowa!«"14 Babbage rozpoczął jednak pracę dopiero w 1823 roku. Wiedział o prostszych kalkulatorach, zbudowanych wcześniej, ale jego maszyna była znacznie od nich potężniejsza i miała pozwolić na bez porównania bardziej skomplikowane obliczenia. Poszczególnym liczbom odpowiadały w maszynie określone położenia licznych kół zębatych ustawionych w kolumny; całość była napędzana korbą. Babbage nazwał swe dzieło maszyną różnicową, ponieważ miało ono służyć do obliczania tablic liczbowych metodą różnic skończonych. Słowo "maszyna" wzięło się stąd, że wynalazca postanowił użyć jako napędu innego cudu owych czasów: silnika parowego. Babbage liczył, że budowa pierwszej maszyny różnicowej zajmie mu jakieś dwa, trzy lata. W rzeczywistości prace nad jej konstrukcją trwały do 1833 roku, po czym zostały przerwane po kłótni z głównym inżynierem, Josephem Clementem, którego Babbage podejrzewał o fałszowanie rachunków.15 Projekt został ostatecznie zarzucony w 1842 roku. Niepowodzenie w budowie maszyny różnicowej miało poważne konsekwencje, gdyż był to największy prywatny projekt badawczy finansowany przez rząd. Gdyby Babbage zrealizował swój plan, rząd zapewne nie wahałby się wesprzeć również inne projekty.16 Praca nad konstrukcją maszyny przyniosła jednak wiele korzyści ubocznych. Dzięki niej uległ przyśpieszeniu rozwój precyzyjnych narzędzi i obrabiarek17; udało się również zbudować pierwszy znany automatyczny kalkulator. W 1832 roku Babbage polecił elementowi, by zmontował fragment maszyny, wykorzystując około 2000 elementów zamiast planowanych 25 000.18 Ta część nie dokończonej maszyny i tak stanowiła tryumf myśli technicznej; jest to jedno z najpiękniejszych urządzeń precyzyjnych z owych czasów, które wciąż działa. Można ją zobaczyć w londyńskim Muzeum Nauki. Jesienią 1834 roku Babbage wpadł na pomysł komputera, któremu poświęcił resztę swego życia. Było to jego największe osiągnięcie, choć tylko czysto intelektualne: maszyna analityczna nie wyszła poza fazę projektu. W przeciwieństwie do maszyny różnicowej, która mogła wykonywać tylko pewne operacje matematyczne, maszyna analityczna była programowalnym, uniwersalnym komputerem. Podobnie jak pierwsze nowoczesne maszyny cyfrowe, składała się z oddzielnej jednostki do "zapamiętywania" liczb, procesora – czyli "młynu" wykonującego operacje19 – oraz części sterującej. Do wczytywania programu i zapisywania wyników miały służyć karty perforowane. Babbage uważał, że będzie można pomijać lub powtarzać pewne karty w zależności od wyników. Koncepcja "rozgałęzienia warunkowego" – to znaczy wyboru wariantu obliczeń w zależności od pewnego warunku – umożliwiała ponowne wykorzystanie otrzymanych wyników w rachunkach. Taką własność ma uniwersalna maszyna Turinga. Babbage przewidywał, że "gdy tylko zostanie zbudowana maszyna analityczna, z pewnością wyznaczy to kierunek dalszego rozwoju nauki".20 Babbage wzorował się na automatycznym warsztacie tkackim, zbudowanym przez Francuza Josepha Marie Jacquarda w 1801 roku. Wynalazek ten zrobił prawdziwą furorę: do 1812 roku w samej Francji zbudowano 11 tysięcy takich warsztatów.21 Jak powiedział Babbage, "[...] warsztat Jacquarda może utkać każdy wzór, jaki podyktuje ludzka wyobraźnia".22 Francuski wynalazca zastąpił wykwalifikowanych tkaczy tekturowymi kartami perforowanymi, przymocowanymi do obracającego się bębna. Karty sterowały haczykami wybierającymi nici odpowiedniego koloru – w ten sposób automatycznie powstawał określony wzór. "Możemy trafnie stwierdzić, że maszyna analityczna tka algebraiczne wzory, podobnie jak warsztat Jacquarda tka kwiaty i liście" – zauważyła kiedyś hrabina Lovelace, Augusta Ada By-ron.23 Ta czarująca i pełna temperamentu arystokratka – promieniująca romantycznym czarem, jak przystało na córkę poety, lorda Byrona – porównała działanie maszyny do tworzenia muzyki. Twierdziła, że "[maszyna] może skomponować wyrafinowane i naukowe dzieła muzyczne o dowolnej złożoności". Ada była kobietą wyjątkową w swoich czasach; dążyła do tego, aby pracować wspólnie z Babbage'em, nie zaś dla niego. Gdy w czerwcu 1833 roku spotkali się po raz pierwszy na jednym z organizowanych przez niego przyjęć, Ada słyszała już ° maszynie różnicowej i miała za sobą lekcje matematyki, których udzielał jej Augustus de Morgan.24 Zwiedzała angielskie fabryki w Midlands i chodziła na odczyty Dionysusa Lardnera, aby lepiej zrozumieć działanie maszyny. Po pewnym czasie Babbage i Ada zostali przyjaciółmi. Punkt zwrotny w ich związku nastąpił w 1840 roku, gdy Babbage miał odczyt w Turynie na temat maszyny analitycznej. Włoski inżynier wojskowy Luigi Menabrea (późniejszy premier zjednoczonych Włoch) napisał artykuł o maszynie, opublikowany później w Genewie.25 Charles Wheatstone zaproponował Adzie, by przetłumaczyła ten artykuł na angielski. Jej komentarze do tekstu niezwykle zaimponowały Babba-ge'owi. Idee Ady wykraczały daleko poza tekst oryginału i -zdaniem Babbage'a – powinny zostać ogłoszone w niezależnej pracy, a nie znaleźć się w przypisach do artykułu w "Tay-lor's Scientific Memoirs".26 Sugestia Babbage'a oznacza, że zdawał on sobie sprawę, iż wkład Ady zasługuje na większe uznanie.27 To ona obmyśliła abstrakcyjną strukturę instrukcji, sterujących maszyną i decydujących o wyborze wariantów obliczeń, oraz instrukcję pętli, jako metodę powtarzania obliczeń.28 Co więcej, wielu historyków zwraca uwagę na brak dowodów na to, że sam Babbage myślał o programowaniu jako praktycznej metodzie, którą można by wykorzystać w maszynach liczących.29 Gdyby Ada ogłosiła jakieś samodzielne prace na temat obliczania, byłoby łatwiej ocenić znaczenie jej notatek. Tak się jednak nie stało. Po pewnym okresie życia w samotności Ada zaczęła szukać przygód pozamałżeńskich.30 Została kochanką Andrew Crosse'a – wynalazcy i hazardzisty – który należał do szerokiego kręgu naukowych znajomych Babbage'a. W dniu gonitwy w Derby w 1851 roku była już zadłużona na 3200 funtów i musiała zastawić rodzinne diamenty. W rym czasie ciężko chorowała na raka trzonu macicy, wykrytego rok wcześniej. Jej matka, lady Noel Byron, odnosiła się do niej bez odrobiny współczucia; usiłowała między innymi uniemożliwić jej korzystanie z opium jako środka przeciwbólowego; zwolniła jej służących i zakazała Babbage'owi odwiedzać Adę. Zmusiła nawet oszołomioną narkotykami, umierającą córkę do zmiany testamentu. Ada Lovelace zmarła wkrótce, pod koniec listopada 1852 roku, ale jej wkład do nauki o komputerach okazał się trwały. Zawdzięczamy jej większość informacji o maszynie analitycznej, w tym również jedyny jasny opis poglądów Babbage'a na temat możliwości jego maszyn. Jej imieniem został nazwany współczesny język programowania komputerów.31 Jak powiedział laureat Nagrody Nobla, Arno Penzias: "należy uznać hrabinę za pierwszego programistę komputerowego w dziejach ludzkości".32 Na nieszczęście dla Babbage'a kolejni premierzy Wielkiej Brytanii odnosili się niechętnie do jego projektów. Często przedstawia się go jako XIX-wieczną ofiarę "brytyjskiej choroby" – chronicznej nieumiejętności wykorzystywania nowych pomysłów. Można jednak przypuszczać, że w równej mierze Babbage był ofiarą swej nadmiernie płodnej inteligencji. W 1871 roku, na kilka lat przed śmiercią Babbage'a, odwiedził go matematyk z Cambridge John Moulton (późniejszy lord Moulton). Podczas wizyty zobaczył części oryginalnej maszyny różnicowej. "Nie skończyłem jej, ponieważ podczas pracy wpadłem na pomysł maszyny analitycznej, która miałaby znacznie większe możliwości" – wyjaśnił mu Babbage. "Po kilku minutach przeszliśmy do następnej pracowni, gdzie pokazał mi i wyjaśnił działanie różnych elementów maszyny analitycznej -wspomina Moulton. – Spytałem, czy mógłbym ją zobaczyć. "Nigdy jej nie skończyłem – odpowiedział – gdyż wymyśliłem, jak można zrobić to samo w inny, znacznie lepszy sposób, a więc nie było sensu kontynuować tej pracy«. Przeszliśmy do trzeciego pokoju. Wszędzie leżały porozrzucane części, ale nigdzie nie widziałem gotowej maszyny. Ostrożnie spytałem go o to i otrzymałem odpowiedź, jakiej się obawiałem. "Jeszcze nie jest gotowa, ale pracuję nad tym. Jej budowa od zera zajmie mniej czasu, niż wymagałoby skończenie maszyny analitycznej*. Opuściłem dom starego Babbage'a z ciężkim sercem".33 Ryc. 3.3. Maszyna różnicowa nr 2 zbudowana przez Charlesa Babbage'a. Z okazji dwusetnej rocznicy urodzin Babbage'a zorganizowano wiele konferencji i wystaw, ukazały się również znaczki pocztowe, upamiętniające to wydarzenie. Muzeum Nauki w Londynie dokończyło dzieło Babbage'a – kosztem sześciu lat pracy i 300 000 funtów zbudowano maszynę różnicową nr 2. Dorona Swade'a, który kierował pracami, zafascynowało wyzwanie, jakim była realizacja projektu. Czy przekraczał on możliwości wiktoriańskich inżynierów mechaników? "Nasze wysiłki przyniosły wreszcie owoce w listopadzie 1991 roku, na miesiąc przed dwusetną rocznicą urodzin Babbage'a. Tak zwana maszyna różnicowa nr 2 bezbłędnie wykonała pierwsze poważne obliczenia. Sukces naszego przedsięwzięcia potwierdził, że porażki Babbage'a wynikały z niedociągnięć praktycznych, a nie błędów w projekcie".34 Teoretyczne koncepcje, na których opiera się konstrukcja maszyny analitycznej, zapewniły Babbage'owi miejsce w historii maszyn liczących. Maszyna różnicowa nr 2, stojąca obecnie w Muzeum Nauki, stanowi tryumf sztuki inżynieryjnej i pomnik ścisłej logiki. Babbage wpadł nawet na pomysł procesora macierzowego, wykonującego jednocześnie wiele operacji35, i wymyślił symboliczny język do opisu struktury i działania maszyny.36 W ten sposób stworzył podstawy i określił kierunek rozwoju logiki symbolicznej, czyli zastosowania logicznych reguł do manipulowania symbolami, co jest wykorzystywane w każdym komputerze. Wśród XIX-wiecznych pionierów tej dziedziny matematyki był jeszcze jeden Anglik i o jego osiągnięciach właśnie teraz opowiemy. Prawa myślenia Boole'a Bertrand Russell kiedyś stwierdził, że George Boole odkrył czystą matematykę.37 Boole przeszedł do historii przede wszystkim jako odkrywca algebr, nazwanych jego nazwiskiem, i pionier nowoczesnej logiki. Jego bardzo znany, choć niezręcznie zatytułowany traktat – An Investigation of the Laws of Thought on Which Are Founded the Mathematical Theories of Logic and Probabiltties – otworzył wiele nowych perspektyw, nie tylko w logice matematycznej, lecz również w teorii obliczeń, dziedzinie mającej dopiero powstać.38 Boole urodził się w 1815 roku w Lincoln w Anglii; jego ojcem był szewc. Gdy tylko skończył szkołę, został nauczycielem, żeby wspomóc swych rodziców. Według jego późniejszych relacji na początku 1833 roku zaczął rozważać koncepcje leżące u podstaw jego najważniejszych prac matematycznych, w których wyraził relacje logiczne w postaci symbolicznej, czyli algebraicznej. Boole miał tylko elementarne wykształcenie matematyczne, ale już w wieku osiemnastu lat pracowicie studiował poważne dzieła matematyczne, samodzielnie ucząc się matematyki; przedtem w taki sam sposób opanował grekę i łacinę. Dzięki pracom ogłaszanym w pismach matematycznych stopniowo zyskiwał uznanie; Royal Society nagrodziło jego pracę z 1844 roku, zatytułowaną O ogólnych metodach analizy, złotym medalem, uznając ją za najlepszą pracę matematyczną, jaka ukazała się w latach 1841-44.39 Osiągnięcie Boole'a wywiera tym większe wrażenie, że rada Royal Society wcześniej właściwie odrzuciła jego artykuł, ale jeden z jej członków, Thomas Davies, zaprotestował, mówiąc, że sam fakt, iż autor jest biedny i nieznany, nie jest dostatecznym powodem, by pomijać jego pracę.40 Wczesną wiosną 1847 roku zatarg między dwoma znanymi logikami, sir Williamem Hamiltonem i Augustusem de Morga-nem, rozbudził od dawna uśpione zainteresowania Boole'a związkami między logiką i matematyką. Spór między dwoma uczonymi rozpoczął Hamilton, oskarżając de Morgana o plagiat.41 W pracy The Mathematical Analysis qf Logic, Being an Essay Towards a Calculus of Deductiue Reasoning42 Boole przedstawił syntezę ich metod. Wprawdzie książka zdradza ślady pośpiechu, ale i tak stanowi początek nowoczesnej logiki symbolicznej. Zamiast skupiać uwagę na figurach i liczbach, Boole rozszerzył zakres matematyki, interpretując symbole jako klasy czy też zbiory obiektów. Jak się przekonaliśmy w rozdziale 2., pojęcia te wstrząsnęły później podstawami matematyki. Kolejnym krokiem w rozwoju koncepcji zawartych w The Mathematical Analysis of Logic była praca An Investigation of the Laws of Thought, opublikowana w 1854 roku. Jak sam stwierdził, Boole chciał "zbadać podstawowe prawa tych operacji umysłu, które składają się na rozumowanie; [chciał] wyrazić je w postaci rachunku symbolicznego i na tym fundamencie ustanowić naukę Logiki i ustalić jej metodę [...] oraz zebrać rozmaite prawdy, wykryte w toku tych badań, aby sformułować prawdopodobne domysły na temat natury i budowy ludzkiego umysłu". Boole przedstawił taki oto schemat. Przede wszystkim logiczne stwierdzenia należy wyrazić w postaci równań. Następnie można dokonywać algebraicznych manipulacji na symbolach występujących w tych równaniach; w ten sposób można prowadzić niezawodne rozumowania logiczne. Rozumowanie polega zatem na rachunku; inaczej mówiąc, Boole zredukował logikę do algebry. Jeśli na przykład symbol x reprezentuje zbiór wszystkich białych obiektów, a symbol y – wszystkich obiektów okrągłych, to iloczyn xy oznacza zbiór obiektów, które są jednocześnie białe i okrągłe. Podobnie jeśli m jest zbiorem wszystkich mężczyzn, a w – zbiorem wszystkich kobiet, to m+w oznacza zbiór wszystkich ludzi.43 Jeśli e to zbiór wszystkich Europejczyków, to oczywiście zbiór wszystkich europejskich mężczyzn i kobiet jest tożsamy ze zbiorem europejskich mężczyzn i europejskich kobiet, a zatem e(m+w)=em+ew. Algebra Boole'a pozwala analizować dowolne stwierdzenia logiczne, gdyż opisuje dwu-wartościowy – czyli binarny – charakter stwierdzeń, które mogą być albo prawdziwe, albo fałszywe.44 Świadomie lub nie, Boole odkrył nowy rodzaj matematyki, idealnie dostosowany do przetwarzania informacji za pomocą komputera. Boole zmarł w 1864 roku. Przedwczesną śmierć45 spowodowała być może po części wiara jego żony w skuteczność homeopatii. Prace Boole'a długo pozostawały niedocenione.46 Wprawdzie już w 1867 roku amerykański logik Charles Peirce zwrócił uwagę, że dwuwartościowa algebra Boole'a pozwala opisać elektryczne obwody przełączające, ale dopiero w 1937 roku amerykański matematyk Claude Shannon z MIT, John Atanasoff z Iowa State College oraz niemiecki inżynier Konrad Zuse niezależnie wykazali, że liczby dwójkowe (O i 1) w połączeniu z algebrą Boole'a są doskonałym narzędziem do analizowania i projektowania elektrycznych obwodów przełączających, a zatem również komputerów.47 Obwody przełączające to systemy przekaźników, występujące w przestarzałych już układach elektronicznych, takich jak centrale telefoniczne, systemy sygnalizacji kolejowej oraz najstarsze elektroniczne komputery cyfrowe. Algebra Boole'a jest naturalnym językiem, który opisuje operację przełączania, będącą podstawą działania komputerów. Przełącznik jest albo włączony, albo wyłączony. Musimy uwzględnić tylko te dwa stany – nie ma żadnych wartości pośrednich. W przypadku przekaźników w staroświeckich układach elektronicznych oznaczało to przepływ lub brak przepływu prądu bądź istnienie lub brak napięcia. Takim stanom odpowiadały zazwyczaj symbole l i 0. Działanie dowolnego układu przełączającego można w pełni opisać, podając, jak stany "na wyjściu" zależą od stanów "na wejściu". Wobec tego algebra Boole'a idealnie nadaje się do opisu obwodu, podobnie jak do analizy struktur logicznych. Przełączniki i obwody można uważać za bramki, które otwierają się i zamykają w odpowiedzi na otrzymane dane, zgodnie z prostymi regułami logicznymi. Z tego powodu bramki te określa się mianem bramek logicznych. Łącząc wiele bramek logicznych, tak aby wyjście jednej sterowało danymi na wejściu następnej, można zbudować obwody zdolne do realizacji skomplikowanych zadań. W ten sposób George Stibitz i Samuel Williams z Bell Laboratories skonstruowali bramki logiczne, mogące dodawać, odejmować, mnożyć i dzielić liczby dwójkowe. Konrad Zuse, pracując w salonie swych rodziców w Berlinie, wykorzystał system dwójkowy, aby uniknąć używanych przez Babbage'a trybów z dziesięcioma zębami. W ten sposób udało mu się zbudować znacznie prostszy mechaniczny kalkulator Zł; późniejsze elektromechaniczne kalkulatory Zusego posłużyły do projektowania rakiet V2. Również współczesne komputery cyfrowe i układy elektroniczne są tak zaprojektowane, aby pracowały zgodnie z regułami matematyki binarnej. Za tymi wszystkimi skomplikowanymi zastosowaniami kryje się prosta teoria matematyczna: stworzony przez Boole'a rachunek symboliczny funkcji zmiennych binarnych. Babbage i Boole z naszej perspektywy Korzystając z przewagi, jaką zapewnia nam współczesność, możemy ulec pokusie spekulacji, jak mogłaby się potoczyć ewolucja komputerów – i nauki o złożoności – gdyby mechanizm analitycznej maszyny Babbage'a został połączony z oprogramowaniem wykorzystującym algebrę Boole'a. Pozostaje tajemnicą, dlaczego uczeni ci nie wymieniali poglądów matematycznych – mieli przecież ze sobą wiele wspólnego.48 Już około 1820 roku Babbage snuł rozważania na temat algebry symbolicznej, którą ostatecznie stworzył Boole.49 Babbage znał i cenił jego prace; w 1847 roku – po ukazaniu się rozprawy Boole'a The Mathematical Analysis of Logic – zanotował na marginesie swego egzemplarza: "dzieło prawdziwego myśliciela".50 Osobiste związki między nimi mogłyby nawet zmienić się w przyjaźń – żona Boole'a twierdziła, że Babbage był przyjacielem jej ojca, obu uczonych łączyli również wspólni znajomi, tacy jak Augustus de Morgan i sir Edward Bromhead. Jesienią 1862 roku Boole odwiedził Babbage'a, aby zobaczyć jego maszynę różnicową. Fakt, że Babbage i Boole nie inspirowali się wzajemnie, nie jest jedyną zagadką w historii rozwoju komputerów.51 Choć Babbage zrozumiał podstawowe zasady budowy maszyn liczących już w latach czterdziestych XIX wieku, pierwszy elektroniczny komputer został zbudowany dopiero sto lat później. Pionierzy budowy komputerów rzadko korzystali z jego prac; niektórzy nie wiedzieli nawet o jego istnieniu. Brak bezpośredniej linii rozwojowej, wiodącej od Babbage'a do dzisiejszych komputerów, skłania niektórych do uznania, że nie należy uważać go za ojca czy ojca ojców tych maszyn, lecz raczej za stryjecznego dziadka.52 Babbage wywarł jednak pewien wpływ na rozwój komputerów w XX wieku. Jego prace znał Alan Turing,53 a Howard Aitken, który brał udział w budowie amerykańskiego komputera Mark I, służącego do obliczania tablic balistycznych w czasie II wojny światowej, był wielkim entuzjastą maszyn Babbage'a. John von Neumann, najważniejszy człowiek w historii elektronicznych komputerów, dobrze znał urządzenie, które zainspirowało prace nad budową maszyny analitycznej. Jego ojciec, dyrektor jednego z głównych węgierskich banków, Magyar Jelzalog Hitelbanka, finansował wprowadzenie na Węgrzech maszyn Jacquarda.54 Źródła inspiracji von Neumanna Pod koniec lat trzydziestych von Neumanna uważano za jednego z najwybitniejszych matematyków i fizyków matematycznych na świecie, ale nie miał on jeszcze żadnych istotnych kontaktów z problemami obliczeniowymi. Później wywarł jednak tak wielki wpływ na rozwój komputerów, że obecnie mówi się o współczesnych maszynach, iż mają one "architekturę von Neumanna". Stanowi to wyraz uznania dla jego jasnej i mistrzowskiej analizy struktury i działania komputerów.55 Oczywiście, również inni uczeni wnieśli wkład w rozwój pierwszych komputerów. Jednak – obok Alana Turinga – von Neumann odegrał czołową rolę w określeniu struktury komputerów, które obecnie sterują fabrykami, samolotami i grami wideo. Von Neumann zainteresował się problemami obliczeniowymi pod wpływem kilku czynników. Duże wrażenie wywarł na nim Alan Turing, którego poznał podczas wizyty w Cambridge w kwietniu 1935 roku.56 Innym źródłem inspiracji była korespondencja z lat 1939-41 z Rudolfem Ortvayem,57 przyjacielem von Neumanna – dyrektorem Instytutu Fizyki Teoretycznej Uniwersytetu w Budapeszcie – który zwracał uwagę na podobieństwo mózgu i elektronicznych urządzeń liczących.58 Na von Neumannie duże wrażenie wywarła także praca dwóch neurologów z Chicago, Warrena McCullocha i Waltera Pittsa,59 napisana pod wpływem artykułu Turinga o liczbach obliczalnych.60 McCulloch i Pitts usiłowali przedstawić logiczne podstawy działania mózgu. Dzięki nim von Neumann zwrócił uwagę na możliwość znalezienia matematycznych regularności w niezwykle złożonych i słabo poznanych zjawiskach w mózgu.61 Turbulentna bomba Gdy von Neumann przyłączył się do pracy nad budową pierwszej bomby jądrowej, jego zainteresowania problemami obliczeniowymi zostały powiązane z praktycznym, groźnym celem. Wkrótce von Neumann wciągnął do tej pracy swego przyjaciela, Stanisława Ulama. Razem usiłowali opisać hydrodynamikę przebiegu implozji. Zagadnienie polegało na zaprojektowaniu takiej soczewki wybuchowej, aby fala uderzeniowa ścisnęła kulę z plutonu w bombie jądrowej.62 "Ten problem hydrodynamiczny łatwo sformułować – wspominał Ułam – ale bardzo trudno rozwiązać. Trudno znaleźć nie tylko szczegółowe rozwiązanie, ale nawet podać rozsądne rzędy wielkości". Początkowo von Neumann stosował tradycyjną, odgórną metodę rozwiązywania problemów hydrodynamicznych, polegającą na badaniu uśrednionego zachowania cieczy, a nie śledzeniu szczegółów zachowania pojedynczych cząsteczek. W bezpośrednio obserwowalnych skalach długości i czasu płyn (czyli ciecz lub gaz) wydaje się obiektem ciągłym – jego własności przestrzenne i czasowe są ciągłe, a własności fizyczne, takie jak prędkość przepływu i lokalna gęstość, mają wartości skończone. Od czasów Newtona i Leibniza do opisu zachowania płynów – a w istocie również wszystkich innych układów – matematycy i fizycy stosują równania różniczkowe. Von Neumann korzystał ze zbioru równań różniczkowych, opisujących przepływ płynu, w tym również z dobrze znanego równania Naviera-Stokesa. Równania takie można wyprowadzić, zakładając, że płyn nie składa się z cząsteczek, lecz jest ciągły, i odwołując się do zasad zachowania masy, energii i pędu, znanych od czasów Newtona.63 Jest to, oczywiście, metoda przybliżona, ale otrzymane w ten sposób równania różniczkowe bardzo dokładnie opisują rozkład prędkości płynu, również podczas bardzo złożonych wybuchów. Von Neumann zajął się rozwiązywaniem równań hydrodynamicznych pod koniec lat trzydziestych. Podobnie jak Ułam i inni przekonał się, że znalezienie rozwiązań stwarza duże problemy, gdyż równania mechaniki płynów są na ogół nieliniowe. Liniowa relacja między dwiema wielkościami to prosta proporcjonalność: dziesięć pomarańczy kosztuje dziesięć razy więcej niż jedna. Nieliniowość oznacza związek nieproporcjonalny: kiedy na przykład kupujemy pomarańcze hurtem, możemy otrzymać rabat w postaci jednej dodatkowej skrzynki przy zakupie dziewięciu, czterech – przy zakupie szesnastu i tak dalej. Nieliniowości towarzyszy sprzężenie zwrotne – skutek nieliniowości wpływa na dalsze zmiany. W naszym przykładzie sprzężenie zwrotne również występuje, gdyż wielkość rabatu wpływa na decyzję, ile skrzynek zakupić. Sprzężenie zwrotne między elementami układu – tutaj mające postać oddziaływania ceny na osobę kupującą – często powoduje nieoczekiwane zjawiska. Gdy na przykład rabat jest bardzo duży, kupujący może nagle zdecydować, że rozpocznie produkuj? marmolady. Sprzężenie zwrotne może mieć dwojaką postać. Dodatnie sprzężenie zwrotne powoduje wzmocnienie efektu -dobrym przykładem jest układ składający się z mikrofonu i głośnika, który przekształca szept w ogłuszające wycie. Ujemne sprzężenie zwrotne blokuje dalsze wzmocnienie danego efektu. Rodzina królików może się mnożyć tak szybko, że zabraknie im pożywienia, co wywoła gwałtowny spadek liczebności populacji. W przypadku płynu występuje zarówno dodatnie, jak i ujemne sprzężenie zwrotne, co powoduje pojawienie się niezliczonej ilości wirów: przepływ cieczy staje się turbulentny. Liniowe równania różniczkowe można stosunkowo łatwo badać i rozwiązywać analitycznie. Inaczej wygląda sprawa z równaniami nieliniowymi. Przed pojawieniem się komputerów uczeni opisywali procesy nieliniowe w sposób przybliżony – li-nearyzując odpowiednie równania.64 Takie przybliżenia liniowe są raczej niezadowalające, ponieważ pomijają te cechy układów nieliniowych, które powodują wystąpienie turbulencji lub innych fascynujących zjawisk. Problemy nieliniowe można rozwiązać brutalnie – należy określić warunki początkowe i rozwiązać równania numerycznie, oddzielnie dla każdego przypadku. Von Neumann zdawał sobie sprawę, że komputer jest nieodzownym narzędziem w badaniu dynamicznej złożoności przepływu płynu. Z tego powodu von Neumann nie tylko odegrał zasadniczą rolę w konstruowaniu komputerów, ale również opracował pionierskie metody numerycznego rozwiązywania równań hydrodynamiki. Uzyskiwane wyniki były dla niego "heurystyczną" wskazówką w głębszych rozważaniach teoretycznych. Von Neumann formułował pewną hipotezę na temat zachowania badanych równań, wybierał szczególne sytuacje, pozwalające ją sprawdzić, i następnie rozwiązywał ten szczególny przypadek na komputerze, aby porównać wyniki z przewidywaniami. Następnie formułował nową hipotezę i cały cykl się powtarzał. Dzięki takim eksperymentom numerycznym von Neumann wykrył fizyczny i matematyczny porządek w zawiłościach hydrodynamiki.65 Jak kiedyś zauważył, "naprawdę szybkie maszyny liczące mogą w dziedzinie nieliniowych równań różniczkowych cząstkowych oraz w innych dyscyplinach, które obecnie są trudne lub całkowicie niemożliwe do zbadania, dostarczyć nam heurysrycznych wskazówek, koniecznych do rzeczywistego postępu we wszystkich działach matematyki".66 Jak zwykle się nie mylił: gdy nie ma innego sposobu, wszyscy uczeni, zajmujący się obecnie złożonością, korzystają z komputerów w doświadczeniach numerycznych, aby uzyskać lepszy wgląd w działanie badanych układów. Von Neumann przyłączył się do pracy nad budową pierwszego komputera elektronicznego w wyniku przypadkowego spotkania latem 1944 roku z Hermanem Goldstine'em, matematykiem, który służył jako oficer w wojskowym Laboratorium Badań Balistycznych. Von Neumann dowiedział się od niego o istnieniu ENIAC-a (Electronic Numerical Integrator and Computer), gdy czekał na dworcu na pociąg do Filadelfii.67 "Wkrótce rozmowa zeszła na moją pracę – wspomina Goldstine. – Gdy stało się jasne, że zajmuję się budową maszyny zdolnej do wykonania 333 mnożeń na sekundę, atmosfera naszej konwersacji uległa gwałtownej zmianie. Zamiast przyjacielskiej pogawędki, zaczęła przypominać egzamin doktorski".68 Goldstine szybko się postarał, aby von Neumanna zaproszono do laboratorium. Siódmego sierpnia von Neumann przyjechał, żeby zobaczyć, jak posuwa się praca nad budową ENIAC-a, potężnego urządzenia w kształcie podkowy, które w ostatecznej postaci składało się z 17 468 lamp, 70 000 oporników, 10 000 kondensatorów, 1500 przekaźników i 6000 przełączników.69 ENIAC został ukończony w listopadzie 1945 roku, prawie trzy miesiące po kapitulacji Japonii, która to kapitulacja nastąpiła wkrótce po tym, jak Amerykanie użyli broni jądrowej. Koszt budowy był dwa razy większy niż planowano, ale maszyna stała się gwiazdą kampanii reklamowej amerykańskiej armii: "Każdy powinien zobaczyć problemy, jakie rozwiązuje ENIAC! Łamigłówki, które nie zmieściłyby się na tej stronie [...], ENIAC dodaje, odejmuje, mnoży, dzieli; wyciąga pierwiastki kwadratowe, sześcienne, dowolne! Wszystko to dzięki niewiarygodnie złożonemu systemowi obwodów, liczącemu ponad 18 000 lamp i ważącemu ponad 30 ton!"70 Poważną wadą ENIAC-a, który poza tym stanowił udaną konstrukcję, była konieczność dostosowania połączeń elektrycznych do rozwiązywanego problemu – czynność ta zabierała bardzo dużo czasu. Von Neumann pomógł zespołowi z Moore School zaprojektować następną maszynę, Electronic Discrete Variable Computer. Wiosną 1945 roku zaproponował, że przygotuje analizę schematu logicznego tej maszyny. Praca von Neumanna z 30 czerwca 1945 roku, zatytułowana First Droft of a Report on the EDYAC,71 w której przedstawił ogólny schemat komputera, wywarła ogromny wpływ na dalszy rozwój komputerów w najbliższym półwieczu72. Goldstine uważają za najważniejszą pracę na temat komputerów, ponieważ to w niej po raz pierwszy pojawiła się idea zapamiętanego programu. Von Neumann pisał: "Wprawdzie wydaje się, że różne części pamięci pełnią nieco odmienne funkcje, różniące się charakterem i celem, ale mimo to warto traktować całą pamięć jako jeden organ".73 W ten sposób von Neumann chciał położyć nacisk na ideę przechowywania zarówno danych, jak i instrukcji – czyli programu komputerowego – w pamięci maszyny. Nie można przesadzić w ocenie znaczenia, jakie ma zapamiętywanie i danych, i instrukcji w ten sam sposób. Dzięki temu można łatwo i szybko zmienić działanie komputera, wpisując nowy zestaw instrukcji (program). Ta koncepcja wymagała rewolucji pojęciowej, gdyż w owym czasie specjaliści od komputerów starannie odróżniali dane od instrukcji.74 Działanie komputera von Neumanna miało polegać nie na ruchu pokręteł lub dźwigni, czy też przekształcaniu ciągłych sygnałów elektrycznych, jak w ówczesnych komputerach analogowych, lecz na wykonywaniu instrukcji zapisanych w pamięci. Algorytmy matematyczne wyobrażamy sobie jako serię kolejnych operacji. Von Neumann założył, że podobnie będzie działać komputer – to znaczy będzie wykonywał instrukcje seryjnie, jedną po drugiej, a nie równolegle, czyli kilka równocześnie.75 Jego komputer przetwarzał informację w pojedynczych krokach. Wobec tego metoda von Neumanna nie jest analogiczna do sposobu działania mózgu, w którym (jak się wkrótce przekonamy) zachodzą liczne procesy przetwarzania informacji jednocześnie. Mimo to większość współczesnych komputerów jest zbudowana zgodnie ze schematem zaproponowanym przez von Neumanna.76 Pod koniec wojny Stany Zjednoczone zaprosiły uczonych z Wielkiej Brytanii, by obejrzeli ENIAC-a. Pierwszy przybył J. R. Womersley, kierownik wydziału matematycznego Krajowego Laboratorium Fizycznego (National Physical Laboratory -NPL). Po zapoznaniu się z opracowaniem von Neumanna Womersley postanowił zorganizować zespół, który zająłby się budową angielskiego komputera. Pierwszym uczonym zwerbowanym do tego projektu był Alan Turing, który lepiej niż ktokolwiek inny orientował się w możliwościach komputerów. Uniwersalna maszyna, którą obmyślił dziesięć lat wcześniej, mogła realizować dowolny program bez konieczności wprowadzania jakichkolwiek zmian w układach elektronicznych. Pod tym względem Turing znacznie wyprzedził wszystkich innych uczonych. W 1945 roku pisał: "Wykluczone są jakiekolwiek zmiany wewnętrzne, nawet gdybyśmy nagle zapragnęli przerwać obliczenia poziomów energii atomu neonu i w to miejsce zająć się zestawianiem listy grup rzędu 720".77 Alan Turing zapoznał się z pracą von Neumanna na temat EDVAC-a i następnie, pod koniec 1945 roku, przygotował własne opracowanie. Zawierało ono ogólny plan dużego komputera, nazwanego Automatic Computing Engine (ACE). Nazwa ta, zaproponowana przez Womersleya, stanowiła ukłon w stronę Babbage'a. Trzy lata później Turing jasno wyłożył nadzwyczajne konsekwencje tego przedsięwzięcia w raporcie pod wymownym tytułem Intettigent Mochinery.78 W tej pracy oraz w odczycie, wygłoszonym na spotkaniu Londyńskiego Towarzystwa Matematycznego 20 lutego 1947 roku, Turing sformułował zasadniczą tezę, iż mózg należy uważać za komputer. Choć w początkowym okresie rozwoju komputerów maszyna wymagała pomocy człowieka, który musiał określić zbiór instrukcji do wykonania, Turing przewidywał, że w przyszłości maszyny będą zdolne do uczenia się. Nauka miała polegać na nadzorowanym treningu, przypominającym pracę ucznia i nauczyciela w szkole. Komputery mogłyby uczyć się na podstawie doświadczenia; Turing nawiązał tu do Darwina, pokazując, że maszyna mogłaby próbować różnych rozwiązań, podobnie jak przyroda próbuje różnych kombinacji genów, aby zwiększyć szansę na przetrwanie. Turing wskazał, że "matematycy zawsze mieli za sobą intensywną naukę. Taką naukę można porównać z wczytaniem tablicy instrukcji [programu] do maszyny. Nie możemy zatem oczekiwać, że maszyna znacząco rozbuduje swój program. Żaden wszak człowiek nie powiększa istotnie już istniejącej wiedzy. Dlaczego mielibyśmy spodziewać się czegoś więcej po maszynie? Innymi słowy, musimy pozwolić maszynie na kontakty z ludźmi, aby mogła dostosować się do ich standardów".79 Turing nie widział żadnych powodów, dlaczego maszyny nie miałyby stać się inteligentne. Uważał ponadto, że ani twierdzenie Godła, ani jego własne rozwiązanie Entscheidungsproblem nie mają związku z tym zagadnieniem, gdyż inteligentne maszyny wykazujące "inicjatywę" nie wykonywałyby ślepo z góry ustalonych instrukcji. O skoncentrowaniu się na ostatecznym celu, jakim było stworzenie sztucznej inteligencji, dobitnie świadczy list Turinga do pewnego neuropsychologa: "W pracy nad ACE bardziej interesuje mnie możliwość stworzenia modelu działania mózgu niż praktyczne zastosowania do obliczeń".80 Ryc. 3.4. Architektura komputera von Neumanna – schemat typowej maszyny, wykonującej instrukcje seryjnie. Niestety, ACE nie dawał szans na realizację oryginalnego planu Turinga, nie mówiąc już o marzeniach przedstawionych w Intelligent Machinery. Osiągnięcie jakichś znaczących wyników wymagało wysiłku dużego zespołu, składającego się z matematyków i inżynierów. Gdy znikł nacisk związany z wojennymi zadaniami, który był motorem prac Turinga z dziedziny kryptologii, projekt ACE ugrzązł w biurokratycznej mitrędze. Ostatecznie zbudowano zmniejszoną wersję pilotażową "Pilot ACE", ale jeszcze przed jej uruchomieniem Turing przeniósł się na Uniwersytet w Manchesterze, gdzie podjęto bardziej obiecujące działania. Przedsięwzięciem tym kierował dawny nauczyciel Turinga i jego kolega z Cambridge, Max Newman. Choć praca von Neumanna na temat EDVAC-a otworzyła nowy kierunek w pracach nad komputerami, maszyna ta powstała dopiero w 1952 roku. Największe trudności wiązały się z przechowywaniem instrukcji programu. Grupa z Uniwersytetu w Manchesterze – za radą głównego inżyniera Freddiego Williamsa – postanowiła skorzystać z trzech lamp katodowych, podobnych do ekranów radarów i telewizyjnych kineskopów, aby przechowywać informacje w postaci kropek, bez konieczności stosowania specjalnych, budowanych na zamówienie urządzeń. 21 czerwca 1948 roku zespół z Manchesteru uruchomił pierwszy próbny program – i tak zaczął działać Mark I, pierwszy elektroniczny, programowalny komputer cyfrowy. W maju następnego roku Maurice Wilkes, inny dawny kolega Turinga z Cambridge, kierownik tamtejszego Uniwersyteckiego Laboratorium Matematycznego, uruchomił Electronic Delay Storage Automatic Calculator – pierwszą programowalną maszynę nadającą się do praktycznego wykorzystania. Korzystając z niej, Wilkes otworzył pierwszy w świecie ośrodek obliczeniowy.81 Dziedzictwo von Neumanna Większość ludzi korzystających z komputerów nie ma czasu, żeby myśleć o tym, jak one działają. Szczegółowa architektura komputerów zależy w dużym stopniu od producenta, ale większość produkowanych obecnie maszyn to w zasadzie komputery działające zgodnie ze schematem von Neumanna (Ryc. 3.4). Komputery otrzymują instrukcje i dane za pośrednictwem urządzeń wejściowych, takich jak klawiatura lub dysk magnetyczny; dane są przechowywane w pamięci komputera. Jednostką pamięci jest bit, czyli O lub 1; bajt to 8 bitów informacji. Wszystkie informacje są zapisywane w określonych miejscach pamięci, niczym w skrzynkach pocztowych. Centralny procesor (central procesor unit – CPU) przerzuca dane i wykonuje operacje arytmetyczne oraz logiczne, zgodnie z instrukcjami zawartymi w programie, w takt wewnętrznego zegara. Gdy program potrzebuje pewnych danych, procesor lokalizuje je w pamięci, ściąga i przetwarza, po czym cykl się powtarza. Każda operacja jest wykonywana sekwencyjnie, dlatego mówimy o "seryjnym" procesorze. Taki schemat działa doskonale, gdy trzeba wykonać operacje numeryczne nie wymagające myślenia, ale gdyby tak pracował mózg von Neumanna, nigdy nie wymyśliłby on architektury komputerowej, która nosi jego imię. Programista najpierw musi wybrać algorytm, pozwalający rozwiązać dany problem (była o tym mowa w rozdziale 2.). Algorytm zostaje następnie zakodowany za pomocą odpowiedniego języka programowania, tak aby komputer potrafił rozpoznać i wykonać instrukcje. Zazwyczaj korzysta się z jednego z języków programowania "wyższego poziomu", zwanych tak, ponieważ przypominają one trochę ludzki język i nie wymagają od programisty specjalistycznej wiedzy.82 Ponieważ procesor składa się ze zbioru logicznych obwodów Boole'a, może wykonywać tylko elementarne operacje arytmetyczne, takie jak dodawanie, odejmowanie, mnożenie i dzielenie. Oryginalny program najpierw musi zostać "skompilowany", czyli przetłumaczony na język maszynowy, wykorzystujący elementarne łańcuchy bitów i operacje arytmetyczne zrozumiałe dla komputera.83 Od flopów do teraflopów W ciągu ostatniego półwiecza prędkość działania komputerów wzrosła ponad bilion razy84. W latach 1940-55 elektroniczne przełączniki przetwarzające informacje w komputerze miały postać lamp elektronowych, wyglądających jak małe żarówki. Komputery komunikowały się z ludźmi za pomocą kart perforowanych i dziurkowanej taśmy papierowej. W ciągu następnych pięciu lat lampy zostały zastąpione tranzystorami – półprzewodnikowymi przełącznikami wielkości ziarnka grochu, wynalezionymi w Bell Telephone Laboratories. W tych latach wprowadzono również rdzeniową pamięć magnetyczną i takie urządzenia wyjściowe, jak bębny i dyski magnetyczne. W 1959 roku Jack St. Clair Kilby z Texas Instruments wynalazł obwody scalone (IC – integrated circutf). W zgłoszeniu patentowym stwierdził on, że jego wynalazek pozwala "osiągnąć gęstość elementów przekraczającą trzydzieści milionów na stopę sześcienną, co należy porównać z największą dotychczas osiągniętą gęstością, wynoszącą pięćset tysięcy elementów".85 Pierwsze komputery wykorzystujące obwody scalone pojawiły się w połowie lat sześćdziesiątych. Na początku następnej dekady Marcian Hoff z firmy Intel rozwinął pionierską koncepcję upakowania całego komputera na pojedynczej płytce (kostce). W ten sposób narodził się mikroprocesor, najważniejszy element różnych urządzeń elektronicznych, takich jak komputery, wagi i dzwonki do drzwi. Pomysł Hoffa doprowadził do powstania czterobitowego procesora Intel 4004, zawierającego 2250 tranzystorów i zdolnego do wykonania 60 000 czterobitowych operacji na sekundę. Następny był Intel 8008, a w 1973 roku powstał pierwszy popularny ośmiobitowy procesor Intel 8080, mający postać kostki o wymiarach 0,25 x 0,5 cm. Procesor ten spowodował rewolucję – powstanie komputerów osobistych. Tendencja do zwiększania liczby elementów na pojedynczej kostce doprowadziła do powstania układów VLSI (very large scalę integration), zawierających ponad 10 000 bramek logicznych. Taka skala integracji znacznie przyspieszyła postęp w wytwarzaniu nowych materiałów i rozwoju nowych technik produkcji obwodów elektrycznych w miniaturowej skali.86 Ryc. 3.5. Komputer do zwiedzania. Z działaniem komputerów, jakie spotyka się na uniwersytetach, w biurach i licznych domach, można zapoznać się podczas wycieczki do The Walk Through Computer – jedynego na świecie muzeum komputerów, zbudowanego w dawnym magazynie wełny w starym porcie bostońskim. Budowa dwupiętrowego komputera kosztowała 1,2 miliona dolarów. Jest on pięćdziesiąt razy większy niż normalny komputer osobisty. Zawiera również największy mikroprocesor świata, o rozmiarach ponad 2x2 m. Autorem całego pomysłu jest dyrektor muzeum, Oliver Strimpel; wystawa została otwarta w czerwcu 1990 roku i ma umożliwić zwiedzającym zapoznanie się z budową komputerów. Chodząc wewnątrz komputera, wśród zwieszających się taśm przewodów, można obserwować w zwolnionym tempie wirujący twardy dysk i gorączkową aktywność elektronów w procesorze. Zaglądając przez okienka do procesora, można zobaczyć powiększony schemat połączeń elektrycznych. Następnie ukazuje się film komputerowy, ilustrujący kolejne operacje procesora, od pobrania danych z pamięci do wyświetlenia wyniku na ekranie. W przybliżeniu co półtora roku pojawiają się nowe mikroprocesory, pracujące dwa razy szybciej niż procesory poprzedniej generacji. W wielu zastosowaniach naukowych tradycyjne, duże komputery typu mainfrarne ustąpiły miejsca komputerom osobistym.87 Obecnie można postawić na biurku komputer znacznie potężniejszy niż duże maszyny z lat siedemdziesiątych i początku lat osiemdziesiątych, z których to urządzeń wspólnie korzystali wszyscy pracownicy firmy lub laboratorium badawczego. Pionierem tych zmian była firma Sun Microsystems, za którą musiały podążyć starsze firmy, takie jak IBM, Hewlett-Packard i DEC. Z drugiej strony, pojawiły się "superkomputery", z założenia znacznie większe i szybsze niż maszyny typu main/rame.88 Wkroczyliśmy w epokę maszyn "teraflopowych", to znaczy zdolnych do wykonania biliona operacji zmiennoprzecinkowych na sekundę. Czasy turbulencji Mimo zdumiewającego postępu w budowie komputerów, jaki nastąpił od wizjonerskich prac von Neumanna, realistyczna symulacja przepływu turbulentnego wciąż przekracza możliwości współczesnych maszyn. Zrozumienie turbulencji pozostaje jednym z podstawowych problemów współczesnej nauki. Podstawowa trudność, jaką musimy pokonać, to niezmierna złożoność turbulencji. Struktura przepływu w najmniejszej skali wywiera ogromny wpływ na zachowanie płynu w dużych odległościach. Jak się przekonaliśmy już wcześniej, równanie Naviera-Stokesa opisuje przepływ normalnego, ciągłego płynu, natomiast komputery cyfrowe są ze swej natury urządzeniami dyskretnymi. Rozwiązanie tych równań wymaga zatem przybliżenia: zastępujemy ciągłą przestrzeń i czas siecią punktów i rozpatrujemy zachowanie płynu tylko w tych punktach. Rozwiązując równania hydromechaniki, stoimy wobec fundamentalnego dylematu: jeśli zastosujemy zbyt drobną sieć, komputer będzie liczył bardzo długo, ponieważ musi uwzględnić ogromną liczbę punktów; jeśli jednak skorzystamy z sieci o zbyt dużych oczkach, pominiemy ważne struktury, takie jak wiry, wpływające na ruch płynu w drobnej skali, w rzeczywistości czas potrzebny na symulację przepływu wzrasta jak wysoka potęga liczby Reynoldsa, będącej miarą skłonności układu do turbulencji. Gdy liczba Reynoldsa jest dostatecznie duża, zaczyna się turbulencja, a wtedy rozwiązywanie równania Naviera-Stokesa może przyprawić o ból głowy.89 Nawet jeśli z matematycznego punktu widzenia nie jest to praktycznie nierozwiązywalny problem klasy NP, to i tak za pomocą obecnie istniejących komputerów można rozpatrywać układy o "rozsądnych" rozmiarach tylko pod takim warunkiem, że liczba Reynoldsa nie przekracza 10 000; wartość ta odpowiada początkowej fazie turbulencji, a nie jej w pełni rozwiniętej postaci.90 Ryc. 3.6. Kosmiczne zderzenie. Symulacja komputerowa skutków kolizji komety Shoemaker-Levy 9 z Jowiszem. Postęp w tej dziedzinie – dzięki nowym pomysłom lub, co bardziej prawdopodobne, budowie jeszcze potężniejszych komputerów – da natychmiast duże korzyści praktyczne, gdyż dynamika płynów odgrywa ważną rolę w wielu dziedzinach techniki. Korzystamy z niej, aby modelować przepływ powietrza wokół samochodu, ciekłego sodu w reaktorze jądrowym czy też wody wokół okrętu podwodnego. Hydrodynamika jest podstawą meteorologii, i to nie tylko na Ziemi. Grupa naukowców z MIT przewidziała zmiany pogody na Jowiszu, spowodowane zderzeniem z kometą Shoemaker-Levy 9, już na trzy miesiące przed spadkiem pierwszego fragmentu w lipcu 1994.91 Wokół miejsc uderzenia największych fragmentów powstały pierścienie, rozszerzające się z prędkością 454 m/s (± 20 m/s); zgodnie z obliczeniami prędkość miała wynosić 400 m/s. Inny model komputerowy lepiej opisywał strukturę obserwowanych pierścieni, ale podał błędną wartość prędkości. Porównanie przewidywań z rzeczywistością dostarczyło ważnych informacji o strukturze atmosfery Jowisza. Turbulencję uważamy za jedno z "wielkich wyzwań" dla współczesnych metod obliczeniowych; inne zaś to takie ezoteryczne zagadnienia, jak powstanie wielkoskalowych struktur we Wszechświecie i problemy dyskretnych teorii z cechowaniem w fizyce cząstek elementarnych.92 Takie wyzwania są motorem postępu. "W ciągu ostatniego półwiecza szybkość i gęstość elementów komputerów wzrosła więcej niż 105 razy – stwierdzają specjaliści od hydrodynamiki numerycznej, Karniadakis i Orszag. – Takiego postępu nie można porównać z jakąkolwiek inną dziedziną techniki; gdyby podobne zmiany nastąpiły w przemyśle samochodowym, cadillac kosztowałby dziś centa, osiągałby prędkość równą jednej setnej prędkości światła, a galon benzyny wystarczałby na dziesięć podróży na Księżyc, tam i z powrotem. Wprawdzie w elektronice komputerów dokonały się ogromne zmiany, ale wielkie problemy praktyczne, które były motorem tych zmian, pozostały aktualne, i tak zapewne będzie w najbliższej przyszłości".93 Skalę wyzwania, jakie stanowią problemy hydrodynamiczne, można łatwo zilustrować, posługując się podstawową jednostką do mierzenia szybkości komputera, czyli flopem (od Floattng point operations per second – liczba operacji zmienno-przecinkowych na sekundę). Średniej wielkości obliczenia wymagają obecnie pięciu godzin pracy superkomputera Cray YMP, działającego z szybkością 200 milionów flopów (200 megaflopów). Na rozwiązanie tego samego problemu komputer osobisty firmy Apple Macintosh (działający z prędkością 0,004 megaflopa) potrzebowałby 28 lat, a maszyna teraflopowa (teraflop – milion megaflopów) – mniej niż 4 sekundy. Rozwiązanie typowego problemu aerodynamicznego zajęłoby dwa tygodnie maszynie teraflopowej, kilka wieków Crayowi YMP, a macintoshowi wiele tysiącleci.94 Rozwój architektury komputerów, procesorów, układów logicznych, a nawet podstaw fizycznych działania elementów, z których zbudowane są układy elektroniczne, niewątpliwie doprowadzi do przyśpieszenia tempa badań, ponieważ pozwoli na szczegółową analizę coraz bardziej złożonych numerycznie problemów. Obecnie nasze największe komputery działają z prędkością miliarda flopów na sekundę. W ciągu kilku lat pojawią się maszyny teraflopowe.95 Takie komputery umożliwią między innymi rozwiązanie równania Naviera-Stokesa dla przepływu wokół całego samolotu, ze średnią lub dużą liczbą Reynoldsa, gdy zaczyna się turbulencja. W ten sposób będzie można testować prototypy pasażerskich odrzutowców za pomocą komputera, bez konieczności wykonywania pomiarów w tunelu aerodynamicznym.96 Architektury komputerów Mikroprocesor to kilka tysięcy obwodów elektronicznych, umieszczonych na płytce z krzemu. Jest to podstawowy element każdego komputera von Neumanna. Ponieważ jeden procesor może wykonywać na raz tylko jedno zadanie, istnieją fundamentalne ograniczenia fizyczne jego prędkości działania. Tak zwane komputery skalarne muszą zakończyć jedną operację, nim rozpoczną następną. Większość obwodów elektronicznych próżnuje, podczas gdy procesor arytmetyczny wykonuje jedną operację. Mamy tu do czynienia z wąskim gardłem architektury von Neumanna; to ograniczenie niemal od powstania pierwszego komputera inspirowało poszukiwania innej architektury komputera. Jedną z pierwszych poważnych zmian wprowadził Seymour Cray, który w 1971 roku założył Cray Research. Dzięki rezygnacji z tradycyjnej architektury von Neumanna Cray w istotny sposób zwiększył szybkość działania superkomputera Cray-1, zbudowanego w 1976 roku. Stało się to możliwe, ponieważ nowy komputer był maszyną wektorową. Oznacza to, że procesor zaczyna wykonywać kolejną operację arytmetyczną, zanim jeszcze poprzednia zostanie całkowicie zakończona. Tym samym znacznie poprawiła się szybkość nowego komputera.97 Inną nowość w architekturze komputerów przyniosły prace prowadzone na Uniwersytecie stanu Illinois już od 1949 roku. Tamtejszy zespół zbudował wpierw maszynę ILLIAC I, która stanowiła kolejny krok w rozwoju komputera EDYAC von Neumanna. Dwadzieścia lat później grupa kierowana przez Dana Slotnicka skonstruowała komputer ILLIAC IV, pierwszą maszynę, która wykorzystywała liczne procesory działające równolegle. W odróżnieniu od komputera Cray-1, wyposażonego w jeden procesor wektorowy, ILLIAC IV miał sześćdziesiąt cztery identyczne procesory skalarne, działające równolegle; każdy dysponował własną pamięcią. Zasadnicza zaleta architektury równoległej jest nadzwyczaj prosta: dwa procesory powinny uporać się z danym zadaniem dwa razy szybciej niż jeden. Nie ma żadnych ograniczeń dotyczących liczby procesorów w jednym komputerze, a zatem na pierwszy rzut oka wydaje się, że w ten sposób można dowolnie zwiększać szybkość działania komputera. Architektura równoległa intrygowała konstruktorów komputerów już od czasów von Neumanna.98 Początkowo jednak budowa takich maszyn nie miała sensu, skoro pojedynczy procesor mógł rozwiązać ten sam problem za niższą cenę. W latach 1950-1965 postęp w elektronice był tak szybki, że producenci mogli zwiększać sprawność swych maszyn tysiąckrotnie, obywając się bez architektury równoległej. ILLIAC IV wyprzedził swoje czasy – w przeliczeniu na ceny z 1990 roku kosztował około 100 milionów dolarów. W latach osiemdziesiątych architektura równoległa zaczęła jednak wyglądać atrakcyjnie zarówno pod względem technicznym, jak i ekonomicznym. W 1986 roku już dobre dwa tuziny firm budowały superkomputery z procesorami działającymi równolegle, aby zaspokoić potrzeby niewielkiego, lecz bardzo lukratywnego rynku. Lawina zaczęła się toczyć. Najtrudniejszym zadaniem w budowie komputera wieloprocesorowego jest zapewnienie synchronizacji między procesorami, które muszą być ze sobą zgrane. Można to osiągnąć, wyznaczając jeden z procesorów na "dyrygenta", kierującego orkiestrą procesorów, tak aby jednocześnie wykonywały tę samą operację na różnych częściach danych zawartych w lokalnej pamięci każdego procesora. Specjaliści określają taką metodę skrótem SIMD (single instruction, multiple data – jedna instrukcja, wiele danych). Jeśli na przykład komputer musi obliczyć liczbę d=(x2+y2+z2)l/2 dla wielu obiektów, może zapamiętać współrzędne x, y, z każdego z nich w pamięci innego procesora. Każdy procesor następnie oblicza kwadraty swoich współrzędnych, sumuje je i wyciąga pierwiastek. Wobec tego komputer typu SIMD produkuje w tym samym czasie tyle razy więcej wyników niż zwykły komputer, ile ma procesorów. Przykładem takiej maszyny jest zbudowana przez Thinking Machinę Corporation pierwsza Connection Machinę, mająca postać czarnego sześcianu o boku 1,5 m, pokrytego migocącymi czerwonymi lampkami. Danny Hillis, założyciel korporacji, chciał skonstruować tak wyrafinowany komputer, by – jak powiedział – "mógł on być ze mnie dumny".99 Aby podkreślić zalety Connection Machinę, wyposażonej w 65 536 stosunkowo prymitywnych procesorów, Hillis odwołał się do analogii z mózgiem,, będącym w stanie wygrać z superkomputerem, choć poszczególne neurony działają znacznie wolniej niż elektroniczne elementy półprzewodnikowe. Sekretem jest paralelizm. Jeśli na przykład komputer tworzy obraz w postaci sieci 256 na 256 kropek, to przetwarzanie obrazu za pomocą pojedynczego procesora wymaga 65 356 kroków. "Natomiast Connection Machinę przypisuje każdemu punktowi oddzielny procesor. Ponieważ wszystkie operacje są przeprowadzane we wszystkich punktach jednocześnie, przetworzenie całego obrazu trwa tyle, ile obliczenia dotyczące jednego punktu".100 Inny schemat, zwany MIMD (multiple instruction, multiple data- wiele instrukcji, wiele danych), dopuszcza, aby każdy procesor zajmował się inną częścią problemu. Każdy procesor może wykonywać zupełnie inne instrukcje niż sąsiednie procesory. W takich komputerach procesory muszą bardzo często kontaktować się z pozostałymi, wymieniając dane i instrukcje, aby zagwarantować synchronizację. Taką architekturę mają równoległe komputery Intela i nCUBE.101 Zarówno SIMD, jak i MIMD mają swe zalety oraz wady. Na przykład w przypadku architektury SIMD często się zdarza, że wiele procesorów próżnuje, a tylko kilka wykonuje instrukcje, co spowalnia całkowitą szybkość pracy maszyny. Natomiast architektura MIMD wymaga oddzielnego zaprogramowania każdego procesora, co potencjalnie ogromnie utrudnia programowanie przy dużej liczbie procesorów.102 Obie metody muszą się liczyć z poważniejszym problemem. Rozpatrzmy go na dwóch przykładach. Przypuśćmy, że jeden człowiek może zbudować dom w miesiąc. Wobec tego budowa 12 domów zajmie mu rok. Zespół dwunastu ludzi może wykonać to zadanie w miesiąc. Natomiast, choć jest prawdą, że jedna kobieta może urodzić dziecko po dziewięciomiesięcznej ciąży, nie wynika z tego, że dziewięć kobiet może urodzić jedno dziecko w miesiąc. Rozwój morfologiczny ma ze swej natury charakter seryjny. Paradoks ten wskazuje na to, że pewnych zadań nie można wykonać szybciej, dzieląc pracę między wielu wykonawców – o tym przekonali się projektanci komputerów wieloprocesorowych. Komputer o architekturze równoległej teoretycznie może jednocześnie wykonywać tysiące różnych zadań, ale rzeczywistość często przynosi rozczarowanie, gdyż sprawność komputera bardzo zależy od komunikacji między procesorami. "W Connection Machinę jednocześnie działają dosłownie miliardy części – powiedział Danny Hillis. – Wszystkie muszą działać zgodnie, aby maszyna mogła pracować".103 Jeśli jeden z procesorów potrzebuje wyników uzyskanych przez inny, musi skontaktować się z kolegami, aby dowiedzieć się, kiedy wynik ten będzie gotowy i gdzie go można znaleźć. Rozmowy między procesorami spowalniają ich pracę. Gdy procesorów jest tylko kilka, można łatwo podzielić pracę, tak aby zminimalizować biurokratyczną mitręgę. Kiedy jednak liczba procesorów wzrasta, gadanie między nimi zmienia się w ogłuszający zgiełk. Procesory zużywają więcej czasu na rozmowy o postępach swoich prac niż na rzeczywistą pracę nad ich rozwiązywaniem. Oprócz problemu kakofonii, maszyny równoległe mają kłopot z pamięcią. Gdy procesor potrzebuje danych, ściąga je z pamięci. Jeśli tysiące procesorów jednocześnie chcą się skontaktować z pamięcią, szybkość działania komputera ogromnie spada. Wszystkie te problemy stanowią różne aspekty prawa Almdahla, nazwanego tak od nazwiska Gene'a Almdahla, który już w 1967 roku twierdził, że korzyści, jakie daje zwiększanie liczby procesorów, są ograniczane przez pojawiające się wąskie gardła.104 Stanowi to nieuchronną konsekwencję zaprzęgnięcia wielu procesorów do pracy nad problemem ustalonej wielkości; prawo Almdahla jednak nie obowiązuje, jeśli liczba procesorów wzrasta proporcjonalnie do potrzebnego nakładu pracy. W takim przypadku prędkość rośnie niemal tak, jak to wynika z teorii. Doprowadziło to do pojawienia się koncepcji skalowania – to znaczy dostosowywania liczby procesorów do problemu, na przykład przez połączenie w sieć komputerów osobistych, bez wprowadzania jakichkolwiek zmian w oprogramowaniu. Potencjalnie jest to bardzo użyteczny pomysł, gdyż pozwala tanim kosztem – przy wykorzystaniu posiadanych komputerów osobistych – otrzymać superkomputer dostosowany do określonego zadania. RISC W ciągu ostatnich kilku lat nastąpiła jeszcze inna rewolucja w projektowaniu komputerów, polegająca na powrocie do prostoty. Od wynalezienia mikroprocesora coraz bardziej "barokowe" kostki pełniły funkcję mózgu w coraz lepszych komputerach. Złożoność takich typowych układów przewyższa złożoność infrastruktury dużego miasta i pozwala programistom korzystać z tysięcy różnych instrukcji. Zbiór instrukcji jest istotnym elementem składowym systemu operacyjnego komputera. Instrukcje sformułowane w języku maszynowym przesyła się bezpośrednio do procesora. Niektóre instrukcje są bardzo proste, na przykład polecają przenieść dane z pamięci do rejestru, tak aby można było ich użyć w obliczeniach. W przybliżeniu można stwierdzić, że 10% instrukcji służy do wykonania 90% pracy. Już w latach sześćdziesiątych producenci zaczęli myśleć o lepszym wykorzystywaniu procesorów przy wykonywaniu zadań wymagających wielu obliczeń. W 1971 roku zespół z IBM, pracujący pod kierunkiem Johna Cocke'a, zwrócił uwagę, że tylko niewielka część wszystkich instrukcji musi być zrealizowana na poziomie elektroniki:105 wymyślne instrukcje pomocnicze, które zmniejszają szybkość działania mikroprocesora, można realizować na poziomie oprogramowania. W ten sposób narodził się pierwszy procesor ze zredukowanym zbiorem instrukcji – RISC (reduced instruction set computer). To wydarzenie zapoczątkowało debatę między specjalistami od architektury komputerów;106 znalezienie rozstrzygnięcia było utrudnione przez brak rzetelnych porównań procesorów RISC i CISC (complex instruction set computer).107 W ciągu ostatniej dekady procesory RISC stopniowo zyskały popularność; są stosowane w komputerach osobistych IBM – zwłaszcza z rodziny RS/6000 – oraz maszynach Hewletta-Packarda i Sun Microsystems. Dzięki wyeliminowaniu ozdóbek i strat, powodowanych przez konieczność tłumaczenia skomplikowanych instrukcji na proste, komputery RISC osiągają szybkość wielokrotnie większą niż konwencjonalne maszyny. Prostota ma również inne zalety. Procesor typu RISC zawiera mniej obwodów, a zatem można go znacznie łatwiej zaprojektować oraz osiągnąć większą gęstość elementów elektronicznych, co przyczynia się do dodatkowego zwiększenia szybkości. Wewnętrzny zegar, zapewniający synchronizację między różnymi częściami procesora, jest w stanie pracować szybciej w maszynach typu RISC.108 Rzecz jasna, komputery RISC mają również pewne wady. Dla użytkownika bardzo ważne jest pytanie, czy taka maszyna może wykorzystywać istniejące programy, ponieważ napisanie nowego programu wymaga pracy. Wobec tego dla istniejących programów mikroprocesor typu RISC musi wyglądać tak, jak bardziej barokowe mikroprocesory. Maszyny RISC powinny udawać konwencjonalne procesory, nie tracąc przy tym swej prędkości działania. Niektórzy producenci omijają problem zgodności, wykorzystując procesory typu RISC tylko do zadań pomocniczych. Inni, zwłaszcza IBM, postawili na maszyny typu RISC, gdyż są przekonani, że w ten sposób mogą zapewnić użytkownikom większą moc obliczeniową w przeliczeniu na cenę sprzętu, pod warunkiem zastosowania właściwego oprogramowania. Wydaje się, że grozi nam tu błędne koło, ale coraz więcej firm zajmujących się produkcją programów oferuje odpowiednie oprogramowanie. Obecnie maszyny typu RISC produkuje nie tylko IBM, ale również DEC, Buli i Apple. Logika rozmyta Rozwój komputera von Neumanna polegał dotychczas na modernizacji i zmianach architektury oraz elementów składowych. Obecnie rozpoczęły się próby zmian systemu logicznego komputera. Jak się przekonaliśmy, tradycyjna logika komputerów jest ograniczona do dwóch wartości – tak lub nie, jeden/zero, prawda lub fałsz, czarne/białe. Konwencjonalne komputery rozwiązują problemy i dokonują operacji arytmetycznych, korzystając z algebry Boole'a. Natomiast nasz mózg często rozumuje opierając się na niejasnych ocenach i przybliżonym wartościowaniu. Uczeni usiłują więc obecnie skonstruować logiczny model ludzkiego rozumowania, uwzględniający jego przybliżony i jakościowy charakter. Dopiero w XX wieku logicy, tacy jak Jan Łukasiewicz, Emil Post i Alfred Tarski, zwrócili uwagę, że można skonstruować niearystotelesowskie systemy logiczne. Zrezygnowali oni z reguły wyłączonego środka (która stwierdza, że dowolne zdanie jest albo prawdziwe, albo fałszywe), dopuszczając zdania prawdziwe, fałszywe i nieokreślone. Później pojawiły się systemy logiczne, uwzględniające jeszcze więcej możliwości. Nie ma powodów, aby uznać któryś z systemów logicznych za wyróżniony – wszystkie są jednakowo niesprzeczne. Nie można za pomocą abstrakcyjnego rozumowania filozoficznego rozstrzygnąć, który z nich należy wybrać do opisu zjawisk naturalnych. Tę kwestię trzeba rozstrzygnąć empirycznie. Uświadomił to sobie Alonzo Church, który zauważył, że z podobną sytuacją miał do czynienia Albert Einstein, usiłując stwierdzić, w trakcie formułowania swojej teorii grawitacji, która spośród wielu matematycznie możliwych geometrii odpowiada rzeczywistości. W poprzednim rozdziale opisaliśmy, jak komputery przekraczają granice między światem rzeczywistym i abstrakcyjnym, badanym przez matematyków. Komputery mają rozwiązywać złożone problemy, ale dotąd wolno im było korzystać tylko z czystej logiki klasycznej. Zapewne jest rzeczą nieuchronną, że wcześniej czy później ich konstruktorzy zechcą zastosować nowe systemy logiczne. Szczególnie jeden z nich znalazł już wiele zastosowań. Jest to tak zwana logika rozmyta, stworzona Przez uczonego z Uniwersytetu Kalifornijskiego w Berkeley, Lotfiego Zadeha, który w swej przełomowej pracy "Zbiory rozmyte" zatarł ostre granice klasycznej logiki.109 Używana dziś logika rozmyta ma znacznie szerszy sens niż tradycyjne systemy logiki wielowartościowej. "Dla niektórych określenie »rozmyte obliczenia" wydaje się sprzeczne wewnętrznie, ponieważ obliczenia polegają zazwyczaj na precyzyjnie określonych operacjach na precyzyjnie określonych zbiorach – pisał Zadeh. – Ludzkie rozumowanie jest natomiast na ogól przybliżone, a nie ścisłe. W sposób, którego obecnie jeszcze nie rozumiemy, ludzie są zdolni do podejmowania racjonalnych decyzji w środowisku zdominowanym przez niepewność i brak precyzji. Potrafimy zrozumieć zniekształconą mowę, odcyfrować niewyraźny charakter pisma, zaparkować w ciasnym miejscu, zrozumieć poezję i streścić skomplikowane opowieści. Robiąc to, nie dokonujemy żadnych obliczeń w tradycyjnym znaczeniu tego słowa. Przetwarzamy informacje, co na ogół polega na obliczaniu, ale przedmiotami naszego rozumowania nie są zazwyczaj liczby, lecz rozmyte struktury bez ostro zdefiniowanych granic".110 W podręcznikach matematyki liczby grupuje się w dokładnie określone zbiory – na przykład zbiór liczb pierwszych lub zbiór liczb parzystych. W rzeczywistym świecie trudno znaleźć takie zbiory. Gdy próbujemy sklasyfikować znajomych według wzrostu, łatwo uznać, że ludzie powyżej metra dziewięćdziesiąt są wysocy, poniżej metra sześćdziesiąt niscy, ale co zrobić ze wszystkimi między tymi granicami? Na dodatek pojęcie "wysoki", podobnie jak większość pojęć używanych na co dzień, ma zmienne znaczenie i zależy od kontekstu – mówi się "wyższy niż przeciętna", "wysoki na swój wiek", "wyższy niż szerszy" i tak dalej. Teoria zbiorów rozmytych usiłuje uwzględnić takie subtelności, przypisując każdemu roszczeniu do przynależności do zbioru odpowiednią miarę, od zera do jedności. W przypadku zbioru ludzi wysokich przypisalibyśmy karłom zero, jedynkę drągalom,111 a odpowiednie liczby z tego przedziału ludziom mieszczącym się między tymi dwiema skrajnościami. Rozmyta klasyfikacja jest w oczywisty sposób sprzeczna z prawem wyłączonego środka Arystotelesa, zgodnie z którym dowolny obiekt albo należy, albo nie należy do danego zbioru. W logice rozmytej wielowartościowość zdań logicznych stanowi punkt wyjścia. Kluczowym pojęciem jest w niej zmienna językowa, to znaczy zmienna, której wartością są słowa, a nie liczby. Jeśli na przykład zmienną językową jest wiek, to może ona przyjmować takie wartości, jak młody, stary, w średnim wieku, bardzo młody, niezbyt stary i tak dalej, przy czym każdą wartość interpretujemy jako nazwę rozmytego zbioru. Pojęcie zmiennej językowej służy do obliczeń za pomocą słów. Jest to zasadnicza sprawa we wszystkich praktycznych zastosowaniach rozmytej logiki.112 Gdy w nauce pojawiają się nowe koncepcje, często towarzyszą temu liczne kontrowersje: opanowanie każdej wąskiej dziedziny wymaga tak wielkiego wysiłku, że I ludzie niechętnie się godzą na zaczynanie tego od nowa. Łatwo zatem zrozumieć, dlaczego najpierw atakują nową teorię. Aby przetrwać taką krytykę, teoria musi dowieść swojej wartości. Sceptycy twierdzą, że logika rozmyta to nic innego, jak nowe ujęcie istniejących już metod,113 i w rzeczywistości nie ma nic wspólnego z logiką. A jednak koncepcję tę z powodzeniem się stosuje; w sumie wydano patenty – lub rozpatruje się zgłoszenia – ponad dwóch tysięcy wynalazków, wykorzystujących logikę rozmytą.114 Jedno z pierwszych zastosowań, opracowała firma F. L. Smidth & Company, kopenhaski producent pieców do produkcji cementu. W piecach tych wapień i glina w wysokiej temperaturze tworzą niewielkie ziarna klimkieru, które następnie przetwarza się na cement, mieląc je Z3 gipsem. Duńscy badacze przeprowadzili wiele wywiadów z • operatorami pieców, aby dzięki praktycznej wiedzy pracowników znaleźć sposób na ścisłe wyrażenie i manipulowanie takimi rozmytymi pojęciami, jak "za dużo wapienia", "za mała prędkość obrotowa pieca". Matematyczny model procesów zachodzących w piecu byłby zbyt skomplikowany, aby można z niego skorzystać w praktyce. Logika rozmyta zyskuje coraz większą [popularność. W 1986 roku stosowano ją w ośmiu urządzeniach przemysłowych lub handlowych. W 1993 roku liczba ta wzrosła do 1500.115 Punktem zwrotnym w rozwoju tej metody był rok 1990, znany w Japonii jako "rok rozmytej logiki". Jak zauważył Zadeh: "Niewykluczone, że z historycznej perspektywy rok 1990 uznany zostanie za początek nowego kierunku w^ projektowaniu urządzeń domowych, elektroniki użytkowej, aparatów fotograficznych i innych powszechnie stosowanych artykułów".116 W Instytucie Cybernetyki Przemysłowej w Sofii zbudowano urządzenie kierujące aparatem spawalniczym, wyposażone w rozmyty czujnik optyczny. W Szanghaju meteorolodzy posługują się logiką rozmytą, aby określić, gdzie najlepiej założyć plantacje kauczukowca. W Japonii można znaleźć wiele przykładów wykorzystania logiki rozmytej. Kilka typów aparatów fotograficznych korzysta z takich układów w systemach automatycznego ogniskowania. Inżynierowie z koncernu Hitachi opracowali automatycznego maszynistę kolejowego, sterującego prędkością pociągu w taki sposób, aby zoptymalizować bezpieczeństwo, wygodę pasażerów i zużycie energii; u podstaw działania tego urządzenia również leżą zasady logiki rozmytej. Podobnie funkcjonuje automatyczny sterownik pralki firmy Matsushita Electric, który wybiera właściwą ilość proszku po zmierzeniu zawartości tłuszczu w wodzie. Firma Mitsubishi zbudowała odkurzacz, który sam określa siłę ssania, w zależności od stężenia kurzu. Istnieją nawet rozmyte kostki – mikroprocesory działające zgodnie z regułami logiki rozmytej. Jak stwierdzili Bart Kosko i Satoru Isaka: "Następne stulecie może okazać się bardziej rozmyte niż sądzimy".117 Świetlana przyszłość W naszych rozważaniach dotyczących współczesnych komputerów przyjęliśmy, że są to maszyny elektroniczne.118 Obecnie jednak uczeni pracują nad przetwarzaniem informacji za pomocą światła. Liczne laboratoria na całym świecie badają możliwości i korzyści wynikające z budowy komputerów, które wykorzystują światło zamiast sygnałów elektrycznych. Fale światła mogą się przecinać, a zatem różne kanały przenoszenia informacji mogą się krzyżować, nie powodując krótkiego spięcia, jak w komputerach elektronicznych. Użycie światła w komunikacji wewnątrz i pomiędzy procesorami doprowadzi do powstania zupełnie nowych rodzajów architektury komputerów. Proszę sobie wyobrazić, jak wyglądałby ruch uliczny w Nowym Jorku lub Londynie, gdyby wszystkie samochody mogły się wzajemnie przenikaj. W komputerach optycznych nie występują takie problemy, jak sprzężenie (przesłuch) między przewodami przenoszącymi sygnały o wysokiej częstości lub utrata takich sygnałów. Można tworzyć układy o dowolnie złożonej topologii.119 Te zalety mają większe znaczenie niż najlepiej znany plus zastosowania światła: fotony poruszają się w próżni mniej więcej tysiąc razy szybciej niż elektrony w przewodnikach i półprzewodnikach, używanych w mikroprocesorach. Oznacza to, że błyski światła mogą być przetwarzane szybciej niż sygnały elektryczne. Dzięki temu komputery optyczne mogą być silniejsze i bardziej elastyczne niż współczesne superkomputery elektroniczne.120 Już dzisiaj światłowody przenoszą dane telekomunikacyjne przez oceany i kontynenty, a lasery umożliwiają przechowywanie informacji na dyskach kompaktowych. Istnieją także obwody optyczne zdolne do wykonywania obliczeń, choć obecnie bardziej obiecujące wydają się układy optoelektroniczne, w których optyka służy do przenoszenia sygnałów, elektronika zaś wykonuje operacje logiczne. W rzeczywistości w każdym komputerze występuje układ optoelektroniczny – monitor. Własności światła da się wykorzystać do wykonywania operacji logicznych. Światło można uważać albo za falę, albo strumień cząstek – fotonów. Korpuskularno-falową naturę światła wyjaśnia mechanika kwantowa; problemem tym zajmiemy się wkrótce. Tu wygodniej będzie uznać światło za falę. Gdy fala przechodzi z jednego ośrodka do drugiego, zmienia kierunek. Można sobie wyobrazić bramkę logiczną, składającą się z pryzmatu i wiązki światła. Jedynka odpowiadałaby plamce światła na ścianie, a zero – na podłodze. Manipulowanie wiązką światła za pomocą pryzmatu jest dość kłopotliwe, ale obecnie znamy bardziej wyrafinowane metody.121 Zespół angielskich uczonych, pracujących w Stanach Zjednoczonych, skonstruował pierwszy optyczny procesor cyfrowy, otwierając w ten sposób drogę do budowy przyszłych komputerów optycznych. David Miller, Michael Prise, Nicholas Craft i Frank Tooley wykonali pionierskie prace jeszcze na Uniwersytecie Heriota-Watta w Edynburgu. W 1990 roku, korzystając z pomocy dwunastu naukowców z AT&T Bell Laboratories w New Jersey, opracowali oni prosty optyczny licznik, który można rozbudować tak, by dodawał i mnożył.m To urządzenie jest jeszcze zbyt skromne, by nadawało się do praktycznego wykorzystania, ale wszystkie informacje są w nim przekazywane za pomocą wiązek światła. Podobnie jak w przypadku zwykłych układów elektronicznych, do budowy optycznych procesorów konieczne są proste przełączniki. Urządzenie skonstruowane w Bell Laboratories wykorzystuje przełącznik, zwany S-Seed (symmetric selfelectro--optic effect device). Przełączanie wiązki światła laserowego w tym urządzeniu następuje wskutek zmiany współczynnika załamania światła i własności absorpcyjnych ośrodka.123 Pierwszy optyczny procesor był zbudowany z czterech warstw – z których każda składała się z trzydziestu dwóch przełączników S-Seed -wymieniających informacje za pomocą wiązek światła z lasera podczerwonego. Cztery zespoły przełączników połączono ze sobą za pomocą soczewek, luster i przesłon, pełniących taką samą funkcję jak przewody w normalnym procesorze. Procesor wykonuje obliczenia, odpowiednio zmieniając ustawienie przełączników. Kontynuacja prac nad tym urządzeniem doprowadziła do skonstruowania eksperymentalnego procesora optycznego, z którym nie może się równać żadna dyskoteka techno: 60 000 wiązek światła łączy w nim 12 000 przełączników bardziej zaawansowanego typu, tak zwanych FET-SEED.124 Zwykłe półprzewodnikowe lasery diodowe na światło podczerwone – wykorzystywane w optycznych urządzeniach komunikacyjnych i magazynujących informacje – są zbyt duże, aby można je było zastosować w komputerach optycznych. Równolegle do prac nad budową procesora optycznego udało się jednak dokonać ogromnego postępu w produkcji miniaturowych laserów.125 Poszczególne lasery położone w danym zespole mogą emitować światło różnej długości fali, co pozwala na równoczesne przesyłanie wielu sygnałów jednym światłowodem. Zespoły mikrolaserów można włączać i wyłączać za pomocą impulsu światła, co ułatwia konstruowanie optycznych komputerów o architekturze równoległej.126 Takie scalone układy optoelektroniczne i procesory optyczne stanowić będą zapewne podstawowe elementy przyszłych komputerów. Według Davida Millera z AT&T Bell Laboratories: "Trudności w konstruowaniu współczesnych komputerów elektronicznych są tak ogromne, a znaczenie wciąż nierozwiązywalnych problemów obliczeniowych tak oczywiste, że naprawdę trzeba być pesymistą, by nie wierzyć w przyszłość optyki wykorzystywanej w cyfrowych urządzeniach liczących".127 Komputery kwantowe Praca Turinga stanowi teoretyczną podstawę działania wszystkich współczesnych komputerów. Jego uniwersalna maszyna jest abstrakcyjnym pojęciem matematycznym, natomiast wszystkie dotychczas opisywane w tym rozdziale komputery stanowią jej fizyczną realizację. Jak wykazał Turing, jego uniwersalna maszyna potrafi wykonać dowolną operację, "którą można w naturalny sposób uważać za obliczalną". To stwierdzenie, zawarte w oryginalnej hipotezie Churcha-Turinga, oznacza, że dowolny komputer będący realizacją uniwersalnej maszyny Turinga – niezależnie od tego, czy seryjny, czy równoległy – może wykonywać dokładnie takie same zadania. Rolf Landauer z IBM jako jeden z pierwszych wskazał na poważne nowe problemy, związane z działaniem prawdziwych komputerów. Niektóre własności uniwersalnej maszyny Turinga nie odpowiadają w pełni własnościom naszego świata. W szczególności wprowadzony przez Turinga związek między obliczaniem i newtonowskimi "procesami mechanicznymi" nie bierze pod uwagę teorii kwantów. A różnica między fizyką klasyczną i kwantową jest naprawdę uderzająca. Każdy rzeczywisty komputer, optyczny lub elektroniczny, musi działać zgodnie z prawami fizyki. Ten oczywisty fakt ma głębokie konsekwencje, z których dopiero od niedawna zdajemy sobie sprawę. Siedemnastowieczna fizyka newtonowska poprawnie opisuje ruch kół zębatych w mechanicznej maszynie Babbage'a. Nowoczesne komputery również działają zgodnie z fizyką klasyczną, ale ich podstawowe elementy mikroelektroniczne – nie mówiąc już o układach przyszłych komputerów optycznych – są tak małe, że do opisu ich zachowania trzeba wykorzystać dwudziestowieczną teorię kwantów.128 Mikroskopowy świat elektronów opisują równania mechaniki kwantowej; na nich opiera się cały przemysł mikroelektroniczny. Teoria kwantów osiągnęła oszałamiające sukcesy w wyjaśnianiu zjawisk zachodzących w skali atomowej lub jeszcze mniejszej; tłumaczy nie tylko ruch elektronów w tranzystorach i fotonów w światłowodach, ale również reakcje chemiczne i jądrowe oraz wiele innych zjawisk. Do odkrycia mechaniki kwantowej doprowadziły właśnie niepowodzenia w próbach zrozumienia świata atomów za pomocą fizyki klasycznej. Zgodnie z fizyką klasyczną atomy – podstawowe cegiełki materii – nie mogą nawet istnieć. Elektron krążący wokół jądra powinien bardzo szybko emitować promieniowanie elektromagnetyczne, utracić energię, zwolnić i spaść na jądro. Pionierzy teorii kwantów, Max Pianek, Albert Einstein i Niels Bohr, zakładali – bez żadnego uzasadnienia, poza tym, że to pozwala wyjaśnić obserwacje – iż takie wielkości, jak energia, nie są nieskończenie po-dzielne, lecz występują w porcjach, zwanych kwantami. Prawa mechaniki kwantowej, sformułowane później przez Wernera Heisenberga i Erwina Schrodingera, wyjaśniają te założenia w spójny matematycznie sposób. Reguły kwantowe nie pozwalają, aby elektron krążący po orbicie emitował energię w sposób ciągły, co pozwala uniknąć kłopotliwej niestabilności atomu. Mechanika kwantowa doskonale wyjaśnia obserwacje naukowe, ale poddaje poważnej próbie naszą ideę niezależnej platońskiej rzeczywistości. Normalnie uważamy, że każdy skutek ma swoją przyczynę, natomiast mechanika kwantowa przyjmuje z zasady nieprzewidywalne "kwantowe przeskoki" między różnymi stanami elektronów, atomów i cząsteczek. Wydaje się, że nie ma żadnych ograniczeń dokładności, z jaką możemy mierzyć własności takich obiektów jak jabłka, na przykład ich wagę lub rozmiary. Inaczej wygląda sytuacja w mechanice kwantowej. Zgodnie z zasadą nieoznaczoności, sformułowaną przez Wernera Heisenberga w 1927 roku, istnieje pewne ograniczenie dokładności równoczesnych pomiarów niektórych par wielkości, na przykład położenia i pędu. Ograniczenie to jest tak małe, że nie wpływa na wyniki pomiarów wielkości makroskopowych, ale ma zasadnicze znaczenie w mikroświecie. Według tej niepokojącej i sprzecznej z intuicją teorii wszystkie obiekty fizyczne mają zjawiskowy charakter. Istnieją w nieokreślonym stanie – "superpozycji" ze wszystkimi możliwymi wartościami prędkości i położenia. Dopiero po przeprowadzeniu pomiaru wiemy, jakie są rzeczywiste wartości wielkości obserwo-walnych.129 Cząstki materii to również fale energii, a fale to cząstki. W zależności od wyboru sposobu pomiaru, obserwujemy falowy lub korpuskularny aspekt obiektów fizycznych. Jeszcze dziwniejsze jest to, że cząstka, przelatująca między dwoma punktami przestrzeni, jednocześnie porusza się wzdłuż wszystkich możliwych trajektorii łączących te punkty. Zgodnie z mechaniką kwantową nie można rozpatrywać oddzielnie dwóch cząstek, nawet jeśli znajdują się na przeciwnych krańcach świata. Nie wchodząc w matematyczne szczegóły, można powiedzieć, że główna różnica między mechaniką kwantową i klasyczną polega na tym, że ta ostatnia zajmuje się bezpośrednio obserwowalnymi wielkościami, jak położenie, prędkość i przyspieszenie piłki. Jeśli jednak zmniejszymy wymiary piłki do rozmiarów atomu, jej cechy przestają się zmieniać w sposób ciągły – pojawiają się kwanty energii. Na poziomie kwantowym musimy skorzystać z tak zwanej funkcji falowej, która określa prawdopodobieństwo zmierzenia konkretnych wielkości zmiennych fizycznych w danym punkcie i danej chwili. Funkcja falowa zawiera informację o wszystkich możliwych stanach układu. Można ją wykorzystać, aby obliczyć, na przykład, prawdopodobieństwo, że wzbudzony atom wyemituje foton w trakcie pomiaru. Choć funkcja falowa niesie informacje o wszystkich obserwowalnych wielkościach, sama jest obiektem nieobserwowalnym. Gdy wykonujemy pomiar, następuje -redukcja" funkcji falowej i pozostaje tylko jej składowa zgodna z otrzymaną wartością wielkości mierzonej. Ponieważ wszystkie istniejące komputery stanowią realizację klasycznej maszyny Turinga, można zadać pytanie, czy dziwaczne efekty kwantowe mają w ogóle znaczenie dla nauki o komputerach. Choć zarówno teoria kwantów, jak i matematyczna teoria obliczeń mają już z górą pół wieku, dopiero niedawno uczeni zaczęli badać związki między nimi.130 Pojawiły się pierwsze kamienie milowe na drodze do rozszerzenia pionierskich prac Turinga na dziedzinę kwantową. W 1982 roku Paul Benioff opisał klasyczny komputer, zbudowany z kwantowych elementów,131 a Richard Feynmann wprowadził ideę "uniwersalnego symulatora kwantowego".132 Dwa lata później David Albert opisał "mierzący siebie kwantowy automat", będący w stanie wykonywać obliczenia, które nie mają klasycznych odpowiedników.133 W 1985 roku David Deutsch z Oksfordu dokonał zasadniczego kroku naprzód, przedstawiając koncepcję "uniwersalnego komputera kwantowego". Deutsch zinterpretował hipotezę Churcha-Turinga jako nową zasadę fizyczną. Fizyczna zasada Churcha-Turinga stwierdza, że "istnieje [lub może być zbudowany] uniwersalny, programowany komputer, który jest w stanie wykonać dowolne zadanie obliczeniowe, jakie wykonuje dowolny obiekt fizyczny". Atomy i cząsteczki to obiekty fizyczne; z nowej zasady wynika zatem, że można zbudować komputer kwantowy, ale nawet Deutsch zdaje sobie sprawę, iż to zadanie zapewne przekracza nasze współczesne możliwości techniczne. Pojawia się natomiast pytanie, czy istnieje – a jeśli tak, to jaka – różnica między komputerem kwantowym a klasycznym komputerem Turinga. Nikomu jeszcze nie udało się zbudować komputera kwantowego, ale mamy powody sądzić, że miałby on zupełnie inne własności niż współczesne maszyny. Kwantowy komputer mógłby wykonywać zadania przekraczające możliwości maszyny Turinga z uwagi na kwantową cechę, zwaną koherencją. Występuje ona dlatego, że w mechanice kwantowej wykorzystujemy funkcję falową do opisu procesów dynamicznych, a nie wielkości obserwowalnych. Przykładowo, klasyczny komputer przechowuje informacje w postaci łańcuchów bitów; zgodnie z regułami Boole'a bit może mieć wartość 0 lub 1. Komputer kwantowy może istnieć również w postaci koherentnej superpozycji obu możliwości O i l, tworzących jeden pakiet. Nowość polega tu na tym, że reguły logiki obliczeniowej stosujemy do tych pakietów, a nie każdej z możliwości oddzielnie. Otrzymujemy w ten sposób zupełnie nowe stany obliczeniowe. W rezultacie komputer wykonuje wiele obliczeń równolegle. Jak wyjaśnia Deutsch: "Kwantowy komputer zajmuje się tymi pakietami hurtowo, a nie detalicznie. Pojedynczy bit kwantowego komputera może zawierać całą paczkę wartości prawda/fałsz, które są ze sobą powiązane poprzez funkcję falową".134 Deutsch udowodnił następnie, że uniwersalny komputer kwantowy może wykonać wszystkie zadania obliczeniowe, jakie potrafi wykonać dowolna skończona maszyna, działająca zgodnie z prawami mechaniki kwantowej".135 Czy komputer kwantowy osiągnie coś, czego nie potrafi komputer klasyczny? Dziedzina ta jest tak młoda, że na wiele pytań nie umiemy jeszcze odpowiedzieć. Można jednak pokusić się o pewne porównania. Jak zwróciliśmy uwagę w rozdziale 2., zgodnie z fizyką klasyczną nie można, ściśle rzecz biorąc, zbudować komputera cyfrowego, a tylko analogowy. "W maszynach analogowych – uważa Deutsch – niewielki błąd może narastać wykładniczo, a zatem istnieje absolutne ograniczenie ich dokładności". Natomiast w komputerach kwantowych błędy numeryczne nie narastają. Ponadto komputery kwantowe powinny znacznie szybciej rozwiązywać te same problemy, co klasyczne komputery. Odnosi się to zwłaszcza do problemów należących do pewnej klasy: dzięki kwantowej superpozycji stanów komputery kwantowe mogą wykonywać jednocześnie wiele obliczeń. Z uwagi na probabilistyczny charakter mechaniki kwantowej komputery kwantowe mogłyby generować liczby losowe, a nie tylko pseudolosowe, jak komputery klasyczne. Każda liczba, wyprodukowana przez klasyczny komputer, to wynik realizacji pewnego algorytmu, a zatem jest w zasadzie przewidywalna. Ponieważ kwantowe komputery nie działają zgodnie z tradycyjną logiką dwuwartościową, wymagają bramek logicznych nowego rodzaju.136 Otwierają one również drogę do stworzenia kwantowej kryptografii, która może dostarczyć nowych, bezpieczniejszych sposobów szyfrowania danych niż metody badane przez Turinga.137 Szyfrowanie opiera się na pewnej operacji matematycznej, której łatwo poddać wysyłany list, ale którą bardzo trudno wykonać w odwrotnym kierunku. Klasycznym przykładem jest mnożenie dwóch liczb pierwszych: łatwo znaleźć ich iloczyn, ale bardzo trudno rozłożyć otrzymany wynik na czynniki pierwsze. Peter Shor z AT&T Bell Laboratories wykazał, że komputery kwantowe mogłyby rozkładać liczby na czynniki pierwsze znacznie szybciej niż komputery klasyczne.138 Gdy to ogłosił, Deutsch ostrzegł, że takie osiągnięcie "byłoby wielkim krokiem naprzód w historii technik obliczeniowych" i sprawiłoby, że najbezpieczniejszy klasyczny system kodowania – RSA – stałby się natychmiast przestarzały. 139 "To stawia całą kryptografię pod znakiem zapytania; wyjątkiem jest kryptografia kwantowa, która jednak podlega surowym ograniczeniom". Kwantowy paralelizm Aby kwantowy komputer mógł efektywnie działać, trzeba rozwiązać jeden ważny problem. Podczas pracy komputera musi zostać zachowana koherencja kwantowych superpozycji stanów – pakiety powiązanych ze sobą wielkości logicznych nie mogą zostać naruszone w trakcie całego, złożonego procesu obliczeń. Mówiąc nieprecyzyjnie, świat zewnętrzny musi zostać odizolowany od koherentnego komputera. Utrata koherencji następuje wskutek oddziaływań z otoczeniem, które w ten sposób "mierzy" czy też zdobywa informacje o stanie komputera, co powoduje redukcję funkcji falowej. Niestety, tu właśnie kryje się najsłabszy punkt mechaniki kwantowej, gdyż nie ma powszechnie przyjętej teorii redukcji funkcji falowej. Konieczność zachowania koherencji wynika z roli, jaką w działaniu komputerów kwantowych odgrywa funkcja falowa: nie można dopuścić, aby jakiś proces przypominający pomiar spowodował jej redukcję. W przypadku obiektu makroskopowego spełnienie tego warunku nie jest bynajmniej łatwe. Jak powiedział zmarły niedawno John Bell – jeden z najwybitniejszych specjalistów od podstaw mechaniki kwantowej – "jeśli teoria kwantów ma się stosować nie tylko do wyidealizowanych doświadczeń laboratoryjnych, to czyż nie musimy przyznać, że procesy »pomiarowe« zachodzą mniej więcej zawsze mniej więcej wszędzie?"140 Pojawia się zatem zasadnicze pytanie: czy można zapobiec redukcji funkcji falowej makroskopowego układu kwantowego?141 Zdaniem Deutscha teoria wielu światów (jedna z interpretacji mechaniki kwantowej) pozwala rozwiązać ten problem, ale dla wielu fizyków propozycja ta nie jest zbyt przekonująca. Deutsch, który w przeszłości zajmował się astrofizyką i kosmologią, broni tej interpretacji, podobnie jak wielu jego kolegów zajmujących się kwantową kosmologią.142 Zgodnie z teorią wielu światów,143 nigdy nie nastąpi redukcja funkcji falowej: w wyniku dowolnego pomiaru cały Wszechświat rozszczepia się na nieprzeliczalnie wiele – całkowicie rozdzielonych -wszechświatów; każdy z nich odpowiada innemu możliwemu wynikowi pomiaru. Zamiast redukcji funkcji falowej Wszechświat dzieli się na nieskończenie wiele nowych, niezależnych wszechświatów. Przypomina to nieco doktrynę grupy muzułmańskich teologów sprzed tysiąca lat, którzy twierdzili, że w każdej chwili Wszechświat rodzi się na nowo. Teoria wielu światów posłużyła również za podstawę szaleńczych spekulacji redukcjonistycznych, określanych jako Teoria Punktu Omega, której autor twierdzi, że fizyka obejmuje teologię i "wyjaśnia" Boga, życie pośmiertne i zmartwychwstanie.144 Choć to przekracza granice pojmowania wielu ludzi, Deutsch sądzi, że kwantowy komputer stanowiłby potwierdzenie słuszności teorii wielu światów jako jedynej poprawnej interpretacji mechaniki kwantowej. Deutsch odrzucił jednak interpretację zakładającą, że Wszechświat się rozgałęzia. Jego zdaniem obliczenia są wykonywane równolegle w wielu wszechświatach. Komputery w różnych wszechświatach zaczynają wykonywać ten sam program. Każdy komputer ewoluuje, prowadząc swoje obliczenia, które oddziałują z innymi obliczeniami, aż wreszcie wszystkie komputery otrzymują tę samą odpowiedź.145 Na tym polega "kwantowy paralelizm".146 Taki paralelizm jest czymś zupełnie innym niż ten, z którym spotkaliśmy się wcześniej, omawiając klasyczne komputery wieloprocesorowe. Zbiór N procesorów, działających równolegle w klasycznym komputerze, może wykonać obliczenia co najwyżej JV razy szybciej niż jeden, natomiast kwantowy paralelizm może znacznie bardziej przyspieszyć obliczenia – zależy to tylko od funkcji falowej. Istnieją jednak pewne ograniczenia: mechanika kwantowa pozwala wydobyć z otrzymanego rozwiązania tylko część informacji, podczas gdy w klasycznym przypadku nie ma takich ograniczeń.147 Jak już wspomnieliśmy, radykalny wzrost prędkości jest możliwy tylko dla pewnych programów, wykonywanych na odpowiednim komputerze. Budowa komputera kwantowego Warto podjąć próbę skonstruowania komputera kwantowego, aby zbadać fizyczne ograniczenia możliwości prowadzenia obliczeń, ale to zadanie wymaga rozwiązania diabelnie trudnych problemów technicznych i zasadniczych trudności teoretycznych, związanych z redukcją funkcji falowej. Niedawno jednak Seth Lloyd z National Laboratory w Los Alamos w Nowym Meksyku opublikował pracę zawierającą schemat pojęciowy komputera kwantowego.148 Jest to pierwszy projekt całkowicie kwantowego komputera, mający jakiekolwiek szansę realizacji. Odwołując się do technologii współczesnej, Lloyd rozważa, jak takie urządzenie mogłoby działać, z jakich materiałów należy je zbudować i jak moglibyśmy się nim posługiwać. Podobne pragmatyczne podejście należy przyjąć przy wyborze układu kwantowego. Jedna możliwość to "komputer jądrowy", w którym za pomocą mikrofal manipulujemy stanem jąder atomów w węzłach sieci krystalicznej.149 Znacznie łatwiej jednak posłużyć się widzialnym światłem laserowym do sterowania elektronami w atomach. Z mechaniki kwantowej wynika, że elektrony w atomie mogą znajdować się w wielu stanach energetycznych. Światło o odpowiednio dobranej częstości może powodować przeskoki elektronów z jednego poziomu energii na drugi. Takie dwa stany stanowią zatem realizację logicznego alfabetu Boole'a, który jest wykorzystywany w klasycznych komputerach cyfrowych. Ostatnie osiągnięcia techniki laserowej pozwalają kontrolować kwantowy stan elektronów w sieci atomów. Odpowiednio dobierając częstość światła, tak aby odpowiadała rezonansowi, można zmusić elektrony do przejścia na górny lub dolny poziom. Za pomocą serii impulsów światła o różnych częstościach można sprawić, że dany układ atomów znajdzie się w dowolnym wybranym przez nas stanie energetycznym. Następna seria impulsów powoduje przekształcenie tego stanu w logicznie uporządkowany sposób, a zatem układ wykonuje pewne obliczenie. Trzecia seria impulsów pozwala rozładować informację nagromadzoną w układzie. Lloyd twierdzi, że jego projekt da się zrealizować za pomocą dowolnego materiału, zbudowanego z powtarzalnych układów atomów. Mogą to być, na przykład, polimery – bardzo długie, jednowymiarowe cząsteczki, zbudowane z tysięcy powtarzających się sekwencji atomów, lub "kwantowe kropki" – defekty zawierające jeden dodatkowy elektron i zachowujące się jak jeden ogromny atom150, czy też trójwymiarowe sieci krystaliczne, złożone z regularnie powtarzających się komórek. Konstrukcja komputera kwantowego wymaga rozwiązania problemu szumu, który wywołany jest wszechobecnym polem elektromagnetycznym, grożącym zniszczeniem kwantowej koherencji. Praca Lloyda ukazała się we wrześniu 1993 roku; w tym czasie uczony ten badał różne materiały, które mogłyby posłużyć do zbudowania jego komputera. Inne grupy również podjęły próbę skonstruowania kwantowych bramek logicznych, obwodów i maszyn. David Deutsch i Artur Ekert z Oksfordu przedstawili schemat "kwantowej maszyny rozkładającej na czynniki", oparty na pracy Petera Shora. Zasadniczą częścią tego urządzenia ma być kryształ krzemu z naniesionymi kwantowymi kropkami. Taki kryształ sam w sobie nie jest jeszcze kwantowym procesorem. Do tego konieczne jest światło: procesorem sterują impulsy światła, mające 60 000 różnych częstości i zmieniające się co pikosekundę (jedna bilionowa część sekundy). "To bardzo, bardzo skomplikowany sygnał świetlny, dzięki któremu cale urządzenie działa jak komputer" – stwierdza Deutsch. Każda kropka ma leżeć w węźle sieci drutów. Przyłożone napięcie powoduje, że elektrony gromadzą się z jednej strony kropki, co umożliwia im oddziaływanie z elektronami w sąsiednich kropkach. Każde oddziaływanie wpływa na absorpcję światła. "Można spowodować przejście, które zachodzi tylko wtedy, gdy sąsiedni elektron jest w stanie wzbudzonym. To pozwala na operacje logiczne – kwantowe operacje logiczne". Skonstruowanie urządzenia emitującego impulsy światła i odpowiedniego układu kropek kwantowych wymagałoby ogromnej pracy, która jednak mogłaby zaowocować powstaniem maszyny równie ważnej, jak maszyna analityczna Bab-bage'a. Według Deutscha "taka maszyna mogłaby rozkładać na czynniki liczby mające, powiedzmy, 250 cyfr, co jest absolutnie poza zasięgiem klasycznych komputerów".151 Kwantowy komputer mógłby być idealnym narzędziem do modelowania złożonego przepływu płynu – zadania, które skłoniło von Neumanna do zajęcia się obliczeniami. Problem ten wciąż stanowi wyzwanie dla naszych metod obliczeniowych. Jednym z fizyków zajmujących się problemami obliczeniowymi jest Bruce Boghosian, obecnie pracujący na Uniwersytecie Bostońskim; uczony ten interesuje się następującą kwestią: jak rozwinąć techniki komputerowe, aby rozwiązać różne problemy fizyczne, zwłaszcza w mechanice kwantowej. Boghosian rozważa, jak każdy elektron w ogromnym układzie kwantowych kropek może symulować zachowanie pojedynczej cząsteczki płynu. Wtedy strumieniowi płynu odpowiadałaby gwałtowna aktywność kwantowego układu elektronów. "W takim przypadku – powiedział Boghosian – mielibyśmy do czynienia z syntezą fizyki i obliczeń".152 Niezależnie od tego, czy te próby doprowadzą do skonstruowania kwantowej maszyny liczącej – nie mówiąc już o otrzymaniu wyników przekraczających możliwości klasycznych komputerów – wysiłki te nie pójdą na marne. Z teoretycznego punktu widzenia, pojęcie kwantowego komputera już teraz wpływa na podstawowe zagadnienia fizyki, matematyki, informatyki i filozofii; podkreśla ono, że obliczanie jest procesem fizycznym, służącym do symulacji przebiegu innego zjawiska fizycznego. Z praktycznego punktu widzenia, rozwój kwantowej kryptografii jest doskonałą ilustracją symbiozy między czystą nauką i techniką. Jak już zauważyliśmy, kwantowa kryptografia dostarcza nowych, bardzo skutecznych metod przesyłania tajnych informacji między komputerami – bez ryzyka, że ktoś mógłby je podsłuchać. Przyszłość obliczeń Karby i inne znaki, służące w najdawniejszych czasach do liczenia bydła i wojowników, doprowadziły do narodzin języka matematycznego, dzięki któremu mogły powstać coraz bardziej złożone społeczeństwa. Znajomość matematyki dawała władzę: na kamiennej głowicy ceremonialnej maczugi z 3000 roku p.n.e., używanej przez egipskiego faraona Menesa, założyciela pierwszej dynastii faraonów, można znaleźć dane o jego majątku: 400 000 wołów, l 422 000 kóz i 120 000 niewolników. Powstająca właśnie globalna sieć informacyjna będzie miała równie głębokie konsekwencje; dzięki niej pojawi się elektroniczne metaspołeczeństwo. W erze cyfrowej komunikacji najróżniejsze informacje błyskawicznie przenoszą się z jednego mózgu do innego. Kaskada elektronicznych impulsów – przepływających przez komputery od czasów maszyny Mark 1 z Manchesteru – spowodowała rewolucję komunikacyjną, umożliwiającą rozpowszechnianie w mgnieniu oka dowolnej idei na całej planecie. Komputer cyfrowy zwiększył moc ludzkiego umysłu, przyczyniając się do głębszego zrozumienia pewnych ograniczonych aspektów złożonych tajemnic natury. Mimo kolosalnych zmian, jakie już spowodowały komputery, i ich nadludzkich możliwości, wciąż mamy do czynienia dopiero z początkiem ery komputerowej, gdyż działanie komputera – z czego zdawał sobie sprawę Turing – zależy od człowieka, który układa program. Obecnie radykalnie wzrastają możliwości modelowania złożonej rzeczywistości za pomocą komputerów, i to nie tylko z powodu technicznych nowinek, które opisaliśmy. Istnienie praktycznie nierozwiązywalnych problemów -przedstawionych w poprzednim rozdziale – z którymi wciąż nie mogą sobie poradzić nasze metody obliczeniowe, świadczy o konieczności odejścia od stosowania sztywnych programów, ściśle wykonujących przewidziane instrukcje. Zamiast tego naukowcy próbują się dowiedzieć, jak takie problemy rozwiązuje natura. Takie badania kiedyś zainspirowały prace Boole'a, Turinga i von Neumanna. Tradycyjne, deterministyczne podejście zmusza komputer do niewolniczego wykonywania każdego kroku algorytmu, natomiast naśladując metody ewolucyjne, można zaatakować praktycznie nierozwiązywalne problemy.153 Nim zajmiemy się kwestią, jak przyroda rozwiązuje takie problemy, warto zastanowić się nad głębokim związkiem między obliczeniami i naturą, który zapewne dostrzegł już Charles Babbage w okresie, gdy marzył o komputerze parowym. Dyskutując na temat swych maszyn z przyjaciółmi, Babbage zastanawiał się, co by się stało, gdyby pewna procedura obliczeniowa inicjowała następną, działającą według innego algorytmu, i tak w nieskończoność. Nie był pewny, czy mogłoby się to do czegoś przydać, ale zwrócił uwagę, że takie obliczenia "stanowiłyby uderzającą, choć oczywiście bardzo daleką analogię procesu powstawania kolejnych gatunków zwierząt, jaki zachodził w ciągu długich epok geologicznych. Błysk zrozumienia, jaki pojawił się na twarzach trzech moich przyjaciół, gdy usłyszeli to nieoczekiwane porównanie, był dla mnie najlepszą nagrodą".154 Dziś wizja ta stanowi podstawę badań nad stworzeniem sztucznego życia. Do tego zagadnienia wrócimy w rozdziale 8. ROZDZIAŁ 4 NATURA ŹRÓDŁEM INSPIRACJI Świat jest szachownicą, zjawiska – pionkami, a prawa natury to reguły gry. T. H. HUXLEY1 Gdy powstał pierwszy komputer, jego twórcy postarali się, aby rozwiązywał on problemy ściśle według logicznych reguł klasycznej matematyki. Obecnie uczeni, aby zwiększyć możliwości komputerów, czerpią inspirację z do dziś słabo zrozumianych zjawisk. Spośród nich warto wymienić wzrost kryształów, własności magnetyczne egzotycznych stopów i wyżarzanie metali. Z drugiej strony, wykorzystanie komputerów do prób zrozumienia tych procesów i ich własności pozwoliło nam lepiej poznać złożoność przyrody. Wspólny wątek, łączący złożoność natury z obliczeniami, zawdzięczamy temu, że złożone, zorganizowane zachowanie jest skutkiem wielu współdziałających lub sprzecznych oddziaływań między odpowiednimi elementami mikroskopowymi, którymi mogą być atomy, bity lub wirujące elektrony. Doskonałym sposobem odsłonięcia tej zależności jest konstruowanie metafor rzeczywistego świata, w których oszałamiające komplikacje mikroskopowe zostają poświęcone w celu zrozumienia ogólnego obrazu; mówiąc krótko, chodzi o znalezienie sposobu, żeby dojrzeć las, a nie tylko pojedyncze drzewa. Takie przenośnie mogą zilustrować, jak złożoność lasu wynika ze splątania drzew, krzewów i poszycia. Wiele procesów naturalnych, prowadzących do powstania złożoności, pozwala również zrozumieć złożoność w ogólniejszym sensie. Naśladując działanie natury w projektach i programach komputerowych, uczeni zyskali możliwość lepszego symulowania złożoności zjawisk naturalnych, a zwłaszcza zachowania żywych organizmów. John von Neumann zrobił pierwszy krok w stronę symulacji złożoności świata ożywionego, proponując definicję życia jako procesu logicznego, podobnego do tych, jakie zachodzą w maszynach. Von Neumann mówił o tym podczas odczytu "Ogólna i logiczna teoria automatów", wygłoszonego w 1948 roku na sympozjum Hixona w Pasadenie.2 W swym wystąpieniu korzystał z "godnych uwagi twierdzeń" Warrena McCullocha i Waltera Pittsa na temat sieci neuronowych oraz wprowadzonych przez Alana Turinga pojęć liczb obliczalnych i uniwersalnej maszyny. W ten sposób von Neumann sformułował ścisłą teorię matematyczną, która pozwalała porównywać złożoność komputerów i układów biologicznych przetwarzających informację, takich jak mózg. Von Neumann wskazał, że "organizmy naturalne są z reguły bardziej złożone i wymyślne, a zatem słabiej poznane niż sztuczne automaty". Mimo to uważał on, że niektóre regularności, obserwowane w działaniu żywych organizmów, mogą stanowić dla nas wskazówkę w pracy nad projektowaniem automatów. Von Neumann chciał skonstruować automat na tyle złożony, aby mógł się reprodukować. W tym celu obmyślił "samoreprodukujący się automat", czyli robota zdolnego do reprodukcji, pływającego w morzu swych części; w ten sposób, za pomocą logiki matematycznej, połączył na pozór zupełnie odmienne światy tkanki nerwowej i elektronicznych elementów. Dla von Neumanna zdolność organizmów do reprodukcji była niemal paradoksem, ale rozumiał on, że kluczem do wyjaśnienia tej sprzeczności jest złożoność. Na niskim poziomie następuje degeneracja złożoności: dowolny automat, zdolny do wytwarzania innych automatów, może produkować tylko urządzenia mniej złożone.3 Jednak po przekroczeniu pewnego progu złożoności mogą istnieć również automaty zdolne do samoreprodukcji. Von Neumann pisał: "To, że poniżej pewnego poziomu złożoność i organizacja się degenerują, a po jego przekroczeniu mogą się utrzymać, a nawet wzrosnąć, z pewnością odegra dużą rolę w przyszłej teorii tych zjawisk". Von Neumann stworzył fundamenty logicznej teorii tłumaczącej samoreprodukcję i przy okazji odkrył głęboką prawdę. Zdał sobie sprawę, że istnieje związek między życiem i złożonością. Kontynuując badania Turinga, wykazał, że teoretycznie istnieje uniwersalny automat, to znaczy złożona maszyna zdolna do zrobienia wszystkiego, co potrafi dowolna inna maszyna, pod warunkiem że otrzyma właściwe instrukcje. Po przekroczeniu pewnego progu dalszy wzrost złożoności nie jest już konieczny do wykonania coraz bardziej złożonych zadań – wystarczą tylko bardziej skomplikowane zbiory instrukcji. Dzięki nieuchronnym mutacjom, spowodowanym przez błędy logiczne w działaniu automatu, jego reprodukcja nie jest w pełni przewidywalna i powoduje pojawienie się z biegłem czasu coraz bardziej złożonych organizmów; jeśli zasoby środowiska są ograniczone, to musi wtedy pojawić się ciśnienie selekcyjne, co prowadzi do darwinowskiej ewolucji. Automaty komórkowe Zakładane własności robota von Neumanna były zbyt odległe od chemii, fizyki i mechaniki, aby wywołać szersze zainteresowanie.4 Matematyk Stanisław Ułam poradził von Neumannowi, jak nadać samoreprodukującej się maszynie bardziej abstrakcyjną, prostszą i elegantszą postać.5 Ułam urodził się we Lwowie, należącym wówczas do Cesarstwa Austro-Węgierskiego. Jak wspominał, już dwadzieścia lat przed odczytem von Neumanna, podczas rozmów w lwowskich kawiarniach, rozważał możliwość budowy różnych automatów.6 Gdy zapoznał się z pracą von Neumanna, zaproponował zastąpienie pływającego robota "robotem tesselacyjnym". Ten dziwny termin sugeruje, że źródłem inspiracji Ulama był wzrost kryształów, polegający na dołączaniu kolejnych bloków. W istocie Ułam przedstawił koncepcję automatu komórkowego7 – abstrakcyjnego zestawu komórek, zaprogramowanego do zbiorowego wykonywania pewnych reguł. Zbiór komórek wykonujących wspólnie pewne obliczenia można uważać za organizm, działający zgodnie z regułami czystej logiki. Automat Ulama miał strukturę sieci kwadratowej. Kwadraty sieci tworzyły komórki, a punkty przecięcia linii – węzły sieci. Czas nie jest tu zmienną ciągłą, lecz dyskretną – automat działa zgodnie z tyknięcłami zegara. Stan automatu w dowolnej chwili jest całkowicie określony przez stan wszystkich komórek. Automat ewoluuje zgodnie z prostymi regułami, które decydują o tym, jak zmienia się stan dowolnej komórki. Zmiany te zależą nie tylko od stanu danej komórki, ale również od stanu komórek sąsiednich. Przy każdym tyknięciu zegara dana komórka uwzględnia informacje o swych sąsiadach i zmienia się zgodnie z ustalonymi regułami. Ryc. 4.1. Jednowymiarowy automat komórkowy Ulama. Rysunek przedstawia zmiany kolejnych komórek, następujące z upływem czasu. Każda Unia pozioma ilustruje stan automatu w danej chwili. Działający w ten sposób automat komórkowy przeprowadza logiczne operacje, tak jak chciał von Neumann. Wszystkie czynności, które miał wykonywać jego automat za pomocą odpowiednich ruchów, może zrealizować automat Ulama, przekazując informacje od komórki do komórki. Von Neumannowi bardzo się spodobał ten pomysł, ponieważ interesował się on wówczas możliwością przyspieszenia pracy komputerów przez zastosowanie architektury równoległej.8 Skoro ewolucja automatu komórkowego opiera się na regułach lokalnych, to każda komórka, aby określić następny krok, potrzebuje jedynie informacji na temat stanu swych sąsiadów. Oznacza to, że działanie automatu komórkowego jest ze swej natury równoległe -możemy podzielić sieć na oddzielne obszary, w których obliczenia przebiegają niezależnie, a problemy pojawiają się tylko na granicy dwóch obszarów. Wobec tego automat komórkowy można uważać za wzorcowy komputer wieloprocesorowy, podobnie jak uniwersalna maszyna Turinga stanowi standardowy komputer jednoprocesorowy. Von Neumann opowiedział o swym automacie komórkowym podczas wykładów im. Vanuxema, wygłoszonych w Princeton w dniach 2-5 marca 1953 roku.9 Jego projekt nie odznaczał się elegancją: automat miał się składać z wykonującego operacje ramienia, zbudowanego z prostokątnego bloku 80 x 400 kwadratów, i z ogona mającego 150 000 kwadratów. W sumie ten samoreprodukujący się obiekt liczył około 200 000 komórek, z których każda dysponowała 29 stanami. Reprodukcja automatu wymagała współpracy mózgu i siły: neurony sterowały logiką całego procesu, komórki transmisyjne przekazywały sygnały z ośrodków sterujących, a mięśnie zmieniały stan komórek. Maszyna miała również "ogon Turinga" – długi łańcuch komórek, zawierających zakodowane instrukcje. Zgodnie z regułami działania automatu komórkowego maszyna wyciągała ramię w kierunku dziewiczego obszaru Wszechświata, po czym poruszała ramieniem na boki, tworząc kopię automatu. Kopia mogła następnie wyprodukować następną kopię, i tak dalej. Od 1953 roku skonstruowano znacznie prostsze automaty zdolne do reprodukcji, ale von Neumann zdołał wykazać, jaki poziom złożoności jest konieczny do samoreprodukcji. Takie automaty komórkowe mogą ewoluować w sposób darwinowski: przypadkowe mutacje powodują zmiany "genotypu" komputerowych "stworzeń", po czym wskutek konkurencji o dostęp do skończonej pamięci i o czas pracy komputera następuje dobór. Nie ma "zdecydowanych dowodów, by istniała jakaś istotna granica między człowiekiem i maszyną".10 Rozwój i upadek automatów Po przedwczesnej śmierci von Neumanna prace nad automatami komórkowymi kontynuował Arthur Burks, który pracował jako inżynier elektryk w Moore School w Filadelfii, gdy budowano tam ENIAC-a, a następnie przygotował pośmiertne wydanie prac von Neumanna na temat teorii automatów.11 W 1949 roku Burks został kierownikiem Grupy Logiki Komputerowej Uniwersytetu stanu Michigan; zajął się tam systematycznymi badaniami związków między obliczeniami i procesami biologicznymi – prace te finansowała Burroughs Company. Burks zachęcał innych do zajęcia się automatami komórkowymi; wkrótce zaczai je stosować jego student, John Holland. W 1960 roku Holland przedstawił koncepcję "komputera itera-cyjnego",12 spokrewnionego z automatami komórkowymi, który mógł naśladować procesy genetyczne. Zgodnie z koncepcją Hollanda różne programy o dowolnej długości były ulokowane w sąsiednich grupach komórek.13 Programy te mogły zmieniać miejsce, dzielić się, łączyć z innymi i wytwarzać własne kopie. Kilka lat później Holland opisał automaty, umiejące dostosować się do otoczenia14 i nadające się do rozwiązywania problemów optymalizacji.15 W tym czasie Ułam i Robert Schrandt wykazali, że automaty komórkowe, działające zgodnie z najprostszymi prawami, mogą generować bardzo złożone, duże struktury, przypominające obiekty ożywione.16 Skonstruowali oni niezgrabne, dziwaczne trójwymiarowe struktury z kolorowych klocków i organizowali nawet walki między automatami, używając do tego komputerów z Los Alamos.17 Jednak mimo oznak, sugerujących narodziny nowej nauki o złożoności, dziedzina ta pozostawała w uśpieniu, częściowo z uwagi na brak wystarczająco szybkich komputerów, częściowo wskutek trudności z przełamaniem linii podziału między tradycyjnymi przedmiotami akademickimi.18 Mimo to pod koniec lat sześćdziesiątych automatami komórkowymi zajęli się matematycy – w jakiejś mierze ze względu na to, że przypominają one gry. Najbardziej znany przykład automatu komórkowego, który znacznie przyczynił się do ożywienia tej dziedziny w 1970 roku, zyskał popularność właśnie z uwagi na to, że przypomina grę. Tego roku John Conway, wówczas pracujący w Gonville and Całus College w Cambridge, wymyślił grę Życie. Conway znał wcześniejsze prace Ulama i Schrandta, którzy eksperymentowali z różnymi układami sąsiadów, liczbami stanów i regułami zmian. Conway bardzo uważnie wybrał takie reguły, aby zachować równowagę między dwiema skrajnościami: zbyt szybkim wzrostem liczby struktur powiększających się bez ograniczeń i zbyt wolnym pojawianiem się szybko znikających obiektów. Znamienna nazwa tej gry stanowi odzwierciedlenie fascynacji Conwaya wynikami stosowania prostych reguł: powstające globalne struktury zmieniają wielkość i kształt, pojawiają się i giną w nieprzewidywalny sposób. Martin Gardner spopularyzował tę grę wśród czytelników "Scientific American" jako "fantastyczną rozrywkę dla samotników".19 Gracze mogą odtworzyć procesy obserwowane w rzeczywistości, choć do gry Potrzebna jest tylko "dość duża szachownica i sporo płaskich, dwukolorowych żetonów". Gra przez pewien czas cieszyła się ogromną popularnością – przypominającą nawet kult – i dzięki temu kolejne pokolenie uczonych zaznajomiło się z koncepcją automatu komórkowego. Niektórzy nazywają wynalazek Conwaya "Boską grą", ponieważ gracz ma do dyspozycji model Wszechświata. Gra jest łatwa, nie wymaga żadnych cudów, religijnych praktyk ani świętych ksiąg. Proszę sobie wyobrazić szachownicę z kilkoma żetonami. Oto reguły gry. Jeśli pusty kwadrat sąsiaduje z trzema zajętymi kwadratami (licząc również kwadraty, z którymi sąsiaduje po przekątnej), to na tym kwadracie stawiamy żeton -dzięki wsparciu sąsiadów kwadrat "ożywa". Jeśli kwadrat sąsiaduje z dwoma zajętymi kwadratami, to nic się nie zmienia. Jeśli natomiast zajęty kwadrat ma dowolną inną liczbę sąsiadów, to traci żeton – "umiera" z braku sąsiedzkiej miłości lub z powodu nadmiernego tłoku. Reguły te stanowią odpowiednik praw fizyki, a układy żetonów – rzeczywistych obiektów. Pod koniec lat sześćdziesiątych przez kilka miesięcy Wydział Matematyki Uniwersytetu w Cambridge był pochłonięty pierwszymi próbami gry Conwaya. Z niewielkiego stolika w pokoju klubowym pole gry rozciągnęło się na podłogę, z kwadratami znaczonymi żetonami i muszelkami. Kolejni gracze wykonywali posunięcia podczas przerw na herbatę. Już wtedy Conway używał komputera PDP-7 do badania populacji żyjących szczególnie długo. Kilka osób, które brały udział w tej akcji, szybko odkryło, że pewne bardzo proste konfiguracje początkowe prowadzą do skomplikowanej ewolucji. Otrzymały one takie nazwy, jak ul, bochenek, staw, wanna, waż, statek, długi statek, pasieka, pulsar i szybowiec. Ten ostatni, jak sama nazwa wskazuje, to grupa żetonów, poruszających się razem przez szachownicę. Conway wysunął hipotezę, że żadna skończona populacja początkowa nie może rozrastać się w nieskończoność, i zaoferował nagrodę w wysokości 50 dolarów za dowiedzenie lub obalenie tego przypuszczenia. W listopadzie 1970 roku nagrodę zdobyła grupa zajmująca się pracami nad sztuczną inteligencją w MIT, która znalazła "wyrzutnię szybowców" – strukturę, wyrzucającą co trzydzieści ruchów szybowiec.20 Ponieważ każdy szybowiec składa się z pięciu żetonów, całkowita populacja wzrasta bez ograniczeń. Okazało się, że strumienie przecinających się szybowców generują fantastyczne wyniki; powstające dziwne struktury znowu wyrzucają szybowce. Czasami konfiguracja rodząca się Ryc. 4.2. Gra Życie. Wyrzutnia szybowców. w wyniku zderzeń rozrasta się i obejmuje wyrzutnie. W innych przypadkach taka konfiguracja "strzela do tyłu" i niszczy wyrzutnie. Gardner pisze, że "ostatnie wirtuozerskie osiągnięcie grupy z MIT polega na umieszczeniu wyrzutni w taki sposób, iż przecinające się strumienie szybowców tworzą fabrykę, która montuje i wyrzuca co 300 ruchów lekki statek kosmiczny". Struktury produkowane przez grę Conwaya mogą być nadzwyczaj złożone; okazuje się, że ten automat komórkowy jest równoważny uniwersalnej maszynie Turinga – dowolne obliczenia, jakie potrafi wykonać dowolna maszyna Turinga, dałoby się przeprowadzić również za pomocą gry Życie.21 Obecnie komputery pozwalają na rozgrywanie nieskończenie wielu wariantów tej gry. Warianty te stosuje się do symulowania złożonych zjawisk, takich jak rozwój biologiczny, reakcje chemiczne, wzrost kryształów, struktura płatków śniegu i meandry rzeczne. Automaty komórkowe z powodzeniem odtwarzają wiele aspektów złożoności obserwowalnego świata, takich jak wzrost, agregacja, reprodukcja, konkurencja i ewolucja. W dalszych rozdziałach zapoznamy się z wykorzystaniem automatów komórkowych do badania tych procesów. Tommaso Toffoli i Norman Margolus z MIT elegancko wytłumaczyli, dlaczego automaty komórkowe są doskonałym narzędziem do badania złożonych zjawisk emergencyjnych:. Automaty komórkowe to stylizowane, syntetyczne wszechświaty, określone przez proste reguły, podobnie jak gra planszowa. Mają one swój własny rodzaj materii, która samodzielnie pędzi w przestrzeni i czasie. Można wymyślić zaskakująco wiele takich automatów. Można je konstruować i śledzić ich ewolucję".22 Turbulentne automaty Jeśli wziąć pod uwagę głębokie zaangażowanie von Neumanna w badanie hydrodynamiki – o czym pisaliśmy w poprzednim rozdziale – zakrawa na ironię fakt, że rozwój automatów komórkowych uległ przyspieszeniu w ciągu ostatnich dziesięciu lat głównie dzięki nieco spóźnionemu spostrzeżeniu, iż mogą się one przydać do modelowania przepływu cieczy i gazu. Tak zwane automaty gazu na sieci opisują przepływ ropy i wody przez porowate skały oraz wiry morskiej wody wokół takich przeszkód, jak śruby okrętowe. Wcześniejsze "odgórne" metody modelowania przepływu cieczy polegały na rozwiązywaniu równania Naviera-Stokesa, o czym mówiliśmy w rozdziale 3. Gdy na początku XX wieku doświadczenia potwierdziły istnienie atomów i cząsteczek, teoretycznie stało się możliwe modelowanie przepływu metodą dynamiki molekularnej, czyli "oddolnie". W tej metodzie korzystamy z opisu atomistycznego i stosujemy równanie Newtona do śledzenia ruchu wszystkich atomów i cząsteczek. Wydaje się to proste, ale w rzeczywistości jest to beznadziejne przedsięwzięcie. Dowolna makroskopowa próbka cieczy zawiera ogromną liczbę cząsteczek – rzędu 100 000 000 000 000 000 000 000 – a zatem zastosowanie metod dynamiki molekularnej jest praktycznie niemożliwe. Klasa automatów komórkowych, określanych jako modele gazu na sieci, umożliwia obliczenie przepływu laminarnego, turbulencji i innych zjawisk hydromechanicznych w dużych skalach, bez konieczności uwzględniania informacji mikroskopowej, niezbędnej w dynamice molekularnej.23 Takie modele stanowią wygodną metodę pośrednią. Określa się je mianem modeli mezoskopowych, ponieważ dają ziarnisty obraz cieczy, leżący gdzieś pomiędzy gładkim obrazem makroskopowym, opisywanym przez równanie Naviera-Stokesa, a mikroskopowym obrazem dynamiki molekularnej. W tym modelu cząsteczki cieczy poruszają się po dwu- lub trójwymiarowej sieci, mając do dyspozycji kilka możliwych kierunków. Zbiór sztucznych cząsteczek podlega zazwyczaj dwóm prawom fizycznym: podczas zderzeń muszą być zachowane energia i pęd. Modele gazu na sieci wydają się odległe od równania Naviera-Stokesa, używanego w metodzie "odgórnej". Uriel Frisch, Brosl Hasslacher i Yves Pomeau wykazali jednak, że tak zwane uśrednione pole – czy też typowe zachowanie cząsteczek w automacie komórkowym – w przybliżeniu odpowiada równaniu Naviera-Stokesa.24 Wolno również twierdzić, że model gazu na sieci jest bardziej realistyczny niż równanie Naviera-Stokesa. Jak pisaliśmy wcześniej, wszystkie ciecze składają się z cząsteczek, a zatem nie można ich uważać za idealnie ciągłe.25 W przypadku pewnych skomplikowanych cieczy, na przykład zawierających duże cząsteczki polimerów, nie znamy żadnego opisu hydrodynamicznego. Modele wykorzystujące automaty komórkowe mają pewne wady. W zastosowaniu do prostych problemów metoda gazu na sieci jest wolniejsza niż metody polegające na rozwiązywaniu równania Naviera-Stokesa.26 Jednak zgodnie z powszechną opinią modele gazu na sieci są lepsze w złożonych sytuacjach, gdy chcemy opisać, na przykład, zachowanie mieszaniny ropy i wody, przepływy, którym towarzyszą reakcje chemiczne, oraz przesączanie się przez nieregularne granice. Automaty komórkowe okazały się szczególnie użyteczne w badaniach przesączania przez skały wapienne oraz piaskowce, w których często znajdują się złoża ropy, co ma duże znaczenie dla jej wydobycia.27 Skoro von Neumann interesował się zarówno numeryczną dynamiką cieczy, jak i automatami komórkowymi, wydaje się zaskakujące, że nie zastosował automatów do badań hydrodynamicznych. W rzeczywistości nie ma w tym nic dziwnego. Automaty komórkowe wymagają komputerów o dużej mocy obliczeniowej i niezbyt nadają się do zastosowania w maszynach jednoprocesorowych. Aby znaleźć złożone makroskopowe struktury, trzeba dysponować dużą liczbą komórek; badanie ich ewolucji to sprawa bardzo długich obliczeń. Typowy program wymaga prześledzenia wielu miliardów zdarzeń (określonych jako zmiana stanu jednej komórki lub węzła sieci); każde z nich to około trzydziestu operacji. Każda taka operacja wymaga z kolei kilku cykli komputera (około 10 mikrosekund na szybkiej maszynie). Wobec tego w czasach von Neumanna wykonanie jakiegokolwiek sensownego obliczenia trwałoby wiele lat. Klasy Wolframa Jeśli uczony ma do dyspozycji Wszechświat, lubi odgrywać rolę Boga. Jak wynika z cytowanej wypowiedzi Toffolego i Margolusa, można definiować dowolnie dużo różnych automatów komórkowych, wybierając różne reguły rządzące ich ewolucją. Stajemy tym samym przed szerszym problemem: czy ogólne cechy zachowania automatów komórkowych są równie różnorodne, czy też pojawiają się jakieś cechy wspólne? Takie uniwersalne cechy pozwoliłyby nam sformułować pewne ogólne wnioski, dotyczące możliwego zachowania dowolnego układu złożonego, dającego się symulować za pomocą takich automatów. Wspomniane pytanie postawił Stephen Wolfram, wówczas zatrudniony w Institute for Advanced Study w Princeton. Wolfram interesował się związkami między regułami lokalnymi i globalnym zachowaniem układu. Zaletą automatów komórkowych jest to, że dostarczają one nadzwyczaj prostego, komputerowego środowiska do badania pochodzenia złożoności. Wolfram badał najprostszy "wszechświat" – jednowymiarowy automat, w którym wszystkie komórki położone są na jednej linii. Stan początkowy automatu, określony przez stany wszystkich komórek, wybiera się w czysto przypadkowy sposób; przedstawia go linia w górnej części ekranu. Każda następna linia symbolizuje stan automatu, otrzymany w wyniku zastosowania lokalnych reguł. Procedurę tę można powtarzać w nieskończoność. Jedno spojrzenie na ekran wystarcza, żeby dostrzec jakieś struktury lub regularności. Ryc. 4.3 przedstawia przykład ewolucji automatu. Wolfram stwierdził, że można wyróżnić cztery typy zachowania automatów w długiej skali czasowej, niezależne od szczegółów lokalnych reguł (zob. Ryc. 4.4). W przypadku klasy I struktury znikają lub automat przechodzi do stałego, jednorodnego stanu. Klasę II tworzą automaty, które generują strukturę o skończonych rozmiarach, powtarzającą się okresowo. Automaty III klasy ewoluują w sposób chaotyczny (to znaczy struktury nigdy się nie powtarzają), bez śladu jakiejkolwiek regularności. Klasę IV tworzą automaty generujące nieregularnie rosnące i malejące struktury złożone.28 Okazuje się, że nieskończony zbiór prostych reguł lokalnych prowadzi do czterech różnych typów globalnej ewolucji – co pozwala na ogromną redukcję złożoności. Klasyfikacja Wolframa ma jednak charakter czysto fenomenologiczny. Nie znamy wyjaśnienia pochodzenia tych klas ani związków między nimi. Ryc. 4.3. Najprostszy wszechświat. Typowe zachowanie jednowymiarowego automatu komórkowego. Każda następna linia, licząc od góry, przedstawia stan układu w kolejnej chwili. Ryc. 4.4. Przykłady automatów komórkowych wszystkich czterech klas. Rysunki publikujemy dzięki uprzejmości Andrew Wuensche'a, który uzyskał je za pomocą programu "Discrete Dynamics Lab"; program ten można otrzymać ściągając przez Internet plik ddlab.zip za pomocą anonimowego ftp z katalogu pub/alife/ddlab (adres: ftp.cogs.susx.ac.uk) lub przez WWB http://alife.santafe.edu/alife/software/ddlab.html. Klasa IV jest najbardziej tajemnicza. Automaty należące do tej klasy zachowują się w wyjątkowo złożony sposób; przykładem takiego automatu jest Życie, gra Conwaya. W ich ewolucji widać lokalną organizację, natomiast trudno znaleźć ślady globalnego uporządkowania. Ponieważ wiadomo, że owa gra pozwala na uniwersalne obliczenia, Wolfram wysunął hipotezę, iż automaty komórkowe IV klasy posiadają zdolność wykonywania obliczeń i są równoważne uniwersalnej maszynie Turinga. Później udało się wykazać, że klasa ta leży między klasą II (struktury okresowe) i III (zachowanie chaotyczne).29 W ostatnich latach niektórzy uczeni, wykorzystujący automaty komórkowe do modelowania złożonych układów ożywionych, przypuszczali, że istnieje związek między życiem biologicznym i sztucznymi układami, zdolnymi do uniwersalnych obliczeń. W rozdziale 8. zajmiemy się bardziej szczegółowo tym interesującym stwierdzeniem, opartym na tezie, że układ ożywiony musi być zdolny do wykonywania dowolnie złożonych czynności, aby mógł przetrwać. Programowalna materia Automaty komórkowe nie tylko umożliwiają naturalny sposób modelowania procesów występujących w przyrodzie, lecz również inspirują prace nad konstruowaniem nowych komputerów, pozwalających szybciej śledzić ewolucję tych procesów. W konwencjonalnych komputerach jednoprocesorowych czas każdego cyklu jest określony przez szybkość rozchodzenia się sygnałów elektronicznych, która nie może przekroczyć prędkości światła. W miarę jak układ staje się coraz większy, wzrasta długość drogi sygnałów, a zatem czas trwania cyklu się wydłuża. Gdy jednak automat komórkowy zostaje zrealizowany już na poziomie układu elektronicznego, wymiana sygnałów następuje tylko między sąsiednimi komórkami, a zatem długość drogi sygnałów nie zależy od rozmiarów maszyny. Wobec tego wzrost liczby komórek nie wpływa w zasadzie na czas trwania cyklu dużego automatu. Pierwsze próby zbudowania elektronicznego automatu komórkowego podjęto już w latach pięćdziesiątych, gdy angielscy uczeni badali, jak połączyć ekran telewizora z komputerem w celu analizy zachowania przelatujących cząstek. W połowie tamtego dziesięciolecia stosowano proste lokalne obwody logiczne do liczenia obiektów mikroskopowych.30 Z tych prób wywodzą się maszyny używane dziś w szpitalach do analizowania krwinek. Nadal trwają próby zbudowania jak najszybszego wszechstronnego automatu komórkowego. W Laboratorium Komputerowym w MIT znajduje się niepozorne pudło z układami elektronicznymi, stanowiące ostatnie osiągnięcie w dziedzinie budowy urządzeń, specjalnie przeznaczonych do pełnego wykorzystania możliwości automatów komórkowych. Działając z maksymalną szybkością, Cellular Automata Machinę 8, maszyna zbudowana z kilku płyt z elektronicznymi obwodami, może pokonać superkomputery, generując struktury modelujące tak różne zjawiska, jak parowanie kropli cieczy, rozprzestrzenianie się pożaru lasu czy rozchodzenie się fali akustycznej.31 Według twórców CAM-8 jest uniwersalnym urządzeniem syntetyzującym: "Podobne jak organy, ma manuały i pedały, pozwalające uruchamiać, łączyć i przekształcać możliwości instrumentu. Jego kolorowy ekran jest oknem, przez które można oglądać »odgrywany« wszechświat".32 Ukończona w 1993 roku maszyna jest dziełem Normana Margolusa, który razem z Tommaso Toffolim przez niemal dziesięć lat pracował nad jej budową. Właśnie Toffoli pierwszy pomyślał o zbudowaniu maszyny o zupełnie innej architekturze niż zwykłe komputery, przystosowanej do prowadzenia symulacji przy użyciu automatów komórkowych. Margolus i Toffoli są fizykami, dlatego interesowało ich pytanie, jak dokładnie można odwzorować przebieg obliczeń na rzeczywiste procesy.33 Pierwsze osiągnięcie obu uczonych w tej dziedzinie wzięło się z frustracji, wywołanej niewielką szybkością pracy stacji roboczych z początku lat osiemdziesiątych: wymagały aż minuty, żeby obliczyć jeden cykl wszechświata składającego się z miliona komórek. Toffoli stwierdził, że może przyspieszyć pracę stacji za pomocą prostego elementu elektronicznego, kosztującego zaledwie kilka dolarów. Urządzenie to przeglądało komórki w maszynie i w optymalny sposób stosowało proste reguły do grup komórek. Tak narodziła się maszyna CAM-1. W kolejnych latach, w miarę jak Toffoli i Margolus poprawiali układy elektroniczne i oprogramowanie,34 powstawały ulepszone wersje: od CAM-2 do CAM-6. Doprowadzając tę linię rozwoju do logicznej skrajności, należałoby zbudować maszynę, która zawierałaby oddzielny procesor dla każdej komórki. Nie byłoby to jednak praktyczne rozwiązanie. "Im więcej procesorów upakujesz na jednej kostce, tym większe trudności z ich połączeniem" – zauważył Margolus. W jego najnowszej maszynie, CAM-8, każdy procesor obsługuje wiele komórek. Margolus odrzucił natomiast tradycyjny schemat, zgodnie z którym każda komórka oddziałuje ze wszystkimi komórkami ze swego otoczenia, a zatem korzysta ze wszystkich danych, zawartych w tych komórkach. Zamiast tego CAM-8 przerzuca ogromne zbiory danych w trzech lub więcej kierunkach, tak że każdy bit jest wykorzystywany tylko w tym miejscu, w którym akurat wylądował. "Przesuwamy dane w taki sposób, że wszystkie informacje potrzebne w danym miejscu tam lądują – powiedział Margolus. – Wygląda to jak fizyczne zderzenia danych: dane mogą oddziaływać tylko wtedy, gdy wylądują w tym samym miejscu. Ten schemat jest idealnie dostosowany do symulacji fizycznych za pomocą metody gazu na sieci, w której cząsteczki poruszają się i zderzają [...]. Teraz wydaje się to oczywiste, ale byliśmy tacy tępi, że minęło dziesięć lat, nim wpadliśmy na ten pomysł. Inni też tego nie dostrzegli". Tak powstała maszyna CAM-8, stanowiąca komputerowy, wielowymiarowy ośrodek, przypominający rzeczywisty świat i specjalnie dostosowany do badania zachowania ogromnej liczby komórek. Toffoli określa bilion komórek tej maszyny jako "programowalną materię". Zdaniem Toffolego i Margolusa im większe jest podobieństwo komputera do rzeczywistego świata, tym lepiej można modelować złożoność zjawisk fizycznych. Z tego powodu usiłują oni zbudować maszynę zdolną do kierowania jeszcze większą liczbą automatów i pozwalającą modelować ziarnistość Wszechświata. Jak powiedział Margolus: "Jeśli uda się zbudować komputer mający taką samą strukturę, jak rzeczywistość, to niewielki fragment świata może odpowiadać niewielkiemu kawałkowi maszyny. Dwa sąsiadujące ze sobą obszary świata odpowiadają sąsiednim częściom komputera. Można zatem zgromadzić tyle układów elektronicznych, aby stworzyć dowolnie duży świat komputerowy".35 Ryc. 4.5. Trójwymiarowy mózg. Sieci powstałe podczas ewolucji mózgu CAM. Prace obu uczonych znalazły wiele zastosowań, na przykład w modelowaniu krystalizacji, złożonych przepływów cieczy i reakcji chemicznych. Przydają się również do takich praktycznych zadań, jak produkcja kinowych efektów specjalnych i komputerowe tworzenie hologramów w czasie rzeczywistym. Od 1993 roku trwa – zaplanowana na osiem lat – praca w Laboratorium Badawczym Przetwarzania Informacji przez Ludzi ATR w Kyoto nad jednym z najbardziej interesujących zastosowań maszyny CAM-8. Hugo de Garis ma nadzieję, że uda mu się stworzyć rozległą sieć elementów, przetwarzających informacje, którą optymistycznie określa jako "sztuczny mózg". Latem 1994 roku zakończył się pierwszy etap, polegający na sformułowaniu ponad 1100 reguł, rządzących dwuwymiarową siecią, utworzoną w "mózgu CAM" (Ryc. 4.5).36 Obecnie trwają symulacje sieci trójwymiarowych; de Garis liczy, że do końca tego tysiąclecia zdoła stworzyć w ciągu dziewiętnastu miesięcy sieć miliarda neuronów, składającą się z biliona komórek. Sieć ta będzie służyć do sterowania automatem, mającym ograniczony repertuar zachowań, powiedzmy: "sztucznym kocia-kiem".37 Podobne prace prowadzą obecnie Todd Kaloudis w MIT i Eduardo Sanchez w Szwajcarskim Federalnym Instytucie Technicznym w Lozannie. Cement: trudny problem Automaty komórkowe zapewne wciąż wydają się przypadkowym czytelnikom dość ezoterycznym pomysłem, ale coraz częściej znajdują one zastosowanie w rozwiązywaniu bardzo praktycznych problemów. Między innymi pomagają one odsłonić tajemnice materiału znanego od dawna i cieszącego się zaufaniem, a stosowanego co najmniej od czasów rzymskich.38 Mowa o cemencie – rozpowszechnionym i niezbyt fascynującym spoiwie budowlanym, które stanowi jednak jeden z najbardziej złożonych i najsłabiej poznanych materiałów. Niedostateczna znajomość własności cementu powoduje rozpadanie się mostów, dróg i innych betonowych struktur, wzniesionych kilkadziesiąt lat temu. Nietrudno jednak pojąć, dlaczego fizyka i chemia cementu oraz betonu są tak tajemnicze. Cement w proszku jest substancją bardzo złożoną. Składa się z nieregularnie ukształtowanych ziaren – o wymiarach od jednego mikrona (jedna milionowa metra) do 100 mikronów -zbudowanych z wielu minerałów. Po zmieszaniu cementu z wodą zachodzą bardzo różnorodne reakcje chemiczne, które ostatecznie powodują przemianę gęstej zawiesiny w wytrzymały, porowaty materiał. Podobnie jak ciasto podczas pieczenia twardnieje, unieruchamiając bakalie, tak samo zastyga cement, tworząc spoiwo betonu, materiału złożonego z cementu, piasku i kamienia. Proces twardnienia jest potwornie skomplikowany. Rozmaite substancje chemiczne w cemencie z różną szybkością reagują z wodą oraz między sobą, tworząc rozmaite produkty uwodnienia. Niektóre z nich pozostają na powierzchni ziarna cementu, inne tworzą kryształy w wypełnionych wodą porach między ziarnami. Mikroskopowe oddziaływania wpływają na mikroskopową strukturę materiału, która z kolei decyduje o tym, czy zaprawa jest dostatecznie mocna, by mogła posłużyć do budowy wieży lub mostu. Niektóre z produktów uwodnienia mają pory o średnicy rzędu nanometra, czyli jednej miliardowej metra. Kawałki kamieni i żwiru, używane do wyrobu betonu, mogą mieć rozmiary rzędu centymetra, a zatem ważne zjawiska zachodzą w skali obejmującej osiem rzędów wielkości. Produkcja cementu jest ważną dziedziną gospodarki, nic więc dziwnego, że prowadzi się intensywne badania nad związkiem między jego ostatecznymi własnościami i sposobami wytwarzania. Automaty komórkowe bardzo pomagają w modelowaniu przebiegu uwodnienia cementu. W rym przypadku wady zmieniają się w zalety. Jak wspomnieliśmy, programowalna materia w postaci automatów komórkowych reprezentuje pośrednie skale odległości między ziarnistym, cząsteczkowym obrazem rzeczywistości i makroskopowymi modelami ciągłymi, opisywanymi przez równanie Naviera-Stokesa. Podobny zakres długości obejmuje składniki cementu: od porów do fragmentów kamieni. Choć dokładny skład chemiczny cementu jest nieznany, automat komórkowy może przynajmniej opisać nieregularne kształty i rozmiary jego ziaren. Kwadratową lub heksagonalną szachownicę automatu komórkowego można "pokolorować", posługując się wzorem zaczerpniętym z rzeczywistości. Obrazy cyfrowe, uzyskane za pomocą mikroskopu elektronowego i analizy chemicznej, mogą posłużyć za punkt startu do dwuwymiarowej symulacji. Stan początkowy można również otrzymać z innych komputerowych symulacji wyidealizowanych materiałów – symulacji pozwalających uzyskać dwu- i trójwymiarowe obrazy (zob. wkładka, fot. nr 2).39 Mając do dyspozycji dokładny opis rozkładu materiałów w mieszaninie, możemy wykorzystać automat komórkowy do modelowania procesów, które zachodzą po dodaniu wody do cementu. Znając stan początkowy i stosując reguły chemii, śledzimy krok po kroku zmiany chemiczne, następujące w miarę postępu procesu uwodnienia różnych materiałów. Dzięki grafice komputerowej operator może obserwować zmiany zachodzące w cemencie na dowolnym poziomie, od ziarenek piasku do kawałków kamieni (zob. wkładka, fot. nr 3). Taki model pozwala zbadać mikroskopową strukturę cementu po dodaniu wody, a zatem ocenić także liczbę połączeń między ziarnami. Dzięki temu uczeni stwierdzili, że twardnienie następuje w ściśle określonej chwili – w punkcie perkolacji – gdy oddzielone od siebie skupiska ziaren łączą się, tworząc sieć wypełniającą całą przestrzeń, niezależnie od tego, czy chodzi o wypełnienie dziury po wiertle, czy umocnienie struktury wieżowca. Po przekroczeniu punktu perkolacjł pozostałe skupiska stopniowo dołączają się do sieci połączeń. Gdy cement przechodzi przez punkt perkolacji, następuje gwałtowna zmiana jego własności. W wyniku tych badań otrzymaliśmy, po raz pierwszy w historii, precyzyjną definicję zastygania cementu. Pojęcie punktu perkolacji pozwoliło uczonym określić, jakie mierzalne zmiany następują w tym momencie: dopiero po przekroczeniu punktu perkolacji w cemencie mogą rozchodzić się ultradźwiękowe fale ścinania (dźwięk o wysokiej częstości, poza zakresem czułości ludzkiego ucha). Przypuszczenie to, sformułowane na podstawie symulacji za pomocą automatu komórkowego, zostało później potwierdzone doświadczalnie.40 W wielu operacjach budowlanych czas jest istotnym czynnikiem, więc do sprawdzenia, czy cement już zastygł i czy można kontynuować budowę, można zastosować sondy ultradźwiękowe.41 Wirtualny cement w komputerze znalazł jeszcze inne zastosowania. Na przykład pozwala on określić szybkość korozji naprężonych stalowych drutów w betonie, mających zwiększyć jego wytrzymałość. Stwardniały cement jest porowaty, a zatem jony – zwłaszcza powszechnie występujące w wodzie gruntowej jony chlorowe – mogą wnikać do materiału, powodując osłabienie, korozję i ostatecznie rozpad drutów, co znacznie nadweręża wytrzymałość struktury. Automat komórkowy potrafi obliczyć szybkości dyfuzji jonów przez cement. W ten sposób można poznać własności zbrojonego betonu nawet po upływie długiego czasu.42 Ma to bardzo duże znaczenie w budownictwie: takie informacje są potrzebne, by opracować lepszy beton i dokładniej poznać efektywny czas życia elementów wystawionych na działanie czynników naturalnych. Problemy wyżarzania Automaty komórkowe powstały częściowo dzięki inspiracji, której dostarczył wzrost kryształów, częściowo zaś z powodu dążenia do zrozumienia biologicznej reprodukcji. W rezultacie uzyskaliśmy narzędzie pozwalające symulować zachowanie różnorodnych struktur. Reguły rządzące oddziaływaniami między sąsiednimi komórkami odpowiadają siłom między atomami i cząsteczkami, które istnieją na poziomie mikroskopowym. W przyrodzie występują jeszcze inne układy pomagające uczonym w rozwiązywaniu problemów, które często łatwo przedstawić, ale bardzo trudno rozwiązać. Należą do nich problemy klasy A/P, o których pisaliśmy w rozdziale 2. Jaki jest najbardziej ekonomiczny schemat obwodu drukowanego w komputerze? Jaka jest najkrótsza droga między danym zbiorem miast, jeśli każde z nich mamy odwiedzić tylko raz? Jaki powinien być skład cementu, aby zastygł on w określonej chwili? Natura oferuje nam doskonałą metaforę, ilustrującą poszukiwania optymalnego rozwiązania powyższych problemów -jest nią szukanie najwyższego szczytu lub najgłębszej doliny w górskiej okolicy. Najpierw musimy sformułować problem w odpowiedniej postaci matematycznej. Można to często zrobić, określając "koszt" lub "dostosowanie" w postaci funkcji, która mierzy, jak dobre jest dane rozwiązanie. W przypadku komiwojażera taką funkcją jest długość wybranej drogi. Problem wyboru optymalnego rozwiązania sprowadza się wtedy do zagadnienia znalezienia minimum lub maksimum tej funkcji. Funkcję kosztu można przedstawić w postaci pejzażu dopuszczalnych rozwiązań, gdzie wysokość danego punktu określa koszt. Taki bogato urzeźbiony pejzaż nazywamy przestrzenią poszukiwań (zob. Ryc. 4.6).   Ryc. 4.6. Pejzaż dostosowań. Pejzaż górski ilustruje położenie globalnego maksimum (najwyższy szczyt) i globalnego minimum (najgłębsza dolina). Wysokość w danym punkcie jest miarą dostosowania, które w tym przykładzie zależy tylko od dwóch zmiennych, x i y. W zagadnieniu komiwojażera najlepsze rozwiązanie odpowiada dnu najgłębszej doliny. Najkrótszą drogę reprezentuje globalne minimum; określenie to ma odróżnić ten punkt od lokalnych minimów, jakie występują w najniższym punkcie wszystkich płytszych dolin. W zagadnieniu obwodu drukowanego szukamy najwyższego szczytu, odpowiadającego maksimum wydajności produkcji. Tego rodzaju zagadnienia optymalizacji są trudne, ponieważ matematyk (lub specjalista od komputerów) musi rozwiązać taki sam problem, jak krótkowzroczny wspinacz, poszukujący Everestu w Himalajach, który dysponuje tylko informacją na temat ukształtowania najbliższej okolicy. Systematyczne sprawdzanie każdego szczytu trwałoby zbyt długo i wspinacz szybko wyczerpałby swoje zapasy. Następna prosta strategia mogłaby polegać na wybraniu najbardziej stromej drogi wiodącej do góry. Krótkowzroczny wspinacz mógłby zdecydować, że cały czas będzie szedł właśnie taką drogą. Ta metoda pozwala szybko wejść na szczyt najbliższej góry, ale to nie to samo, co znalezienie Everestu. Niemal we wszystkich problemach optymalizacji istnieje wiele lokalnych punktów ekstremalnych, co uniemożliwia zastosowanie tej metody. Skuteczniejsza jest strategia, która dopuszcza zejście w dół, co pozwala opuścić lokalny szczyt.43 Godzimy się tu na niewielkie straty w zamian za możliwość dużych zysków. Analogia dotyczy, oczywiście, także poszukiwań najgłębszej doliny. Z takim przypadkiem mamy do czynienia w zagadnieniu najlepszego uporządkowania atomów w stygnącym metalu. Doskonała konfiguracja atomów – odpowiadająca minimum energii44 – to taka, gdy wszystkie atomy są odpowiednio ustawione w węzłach sieci krystalicznej, niczym żołnierze na trójwymiarowej paradzie. Wyżarzanie (odprężanie), sztuczka stosowana przez kowali w celu nakłonienia atomów do ustawienia się w uporządkowany sposób, stanowi cenną metodę znajdowania globalnego minimum, a ponadto można ją zastosować w wielu różnych sytuacjach. Scott Kirkpatrick, Charles Gellatt i Mario Vecchi z IBM Thomas J. Watson Research Center wykorzystali tę analogię w metodzie poszukiwania optymalnego rozwiązania problemów klasy NP, zwanej symulowanym wyżarzaniem. Wyżarzanie to sposób na doprowadzenie metalu do stanu bliższego doskonałej konfiguracji atomów, choć w praktyce nigdy nie udaje się osiągnąć ideału. Gdy metal stygnie, atomy tracą energię kinetyczną i tworzą uporządkowaną konfigurację. Często się jednak zdarza, że choć w niewielkim obszarze atomy są ustawione jak należy, wybrany kierunek uporządkowania nie zgadza się z kierunkami w obszarach sąsiednich. W takim stanie energia metalu ma lokalne minimum. Natomiast globalne minimum odpowiada uporządkowaniu w maksymalnej możliwej skali. To, w jakim minimum znajdzie się metal, zależy od szybkości studzenia. Niewielka ilość ciepła wystarcza, żeby zrekompensować chwilowe straty ewentualnym zyskiem, związanym z przejściem do bardziej uporządkowanej konfiguracji. Ciepło zwiększa przypadkowość: w dowolnej temperaturze powyżej zera bezwzględnego atomy oscylują w węzłach sieci krystalicznej. Energia ich ruchu zależy od temperatury – im wyższa temperatura, tym gwałtowniejsze drgania. W wysokiej temperaturze atomom łatwiej jest zmienić konfigurację, nawet jeśli oznacza to chwilowo przejście do stanu o większej energii całkowitej. Ciepło pozwala, by próbka metalu opuściła lokalne minimum energii, a wtedy, na przykład, atomy w sąsiednich obszarach mogą uzgodnić kierunek uporządkowania. Gdy temperatura opada, maleje energia umożliwiająca zmiany konfiguracji. W miarę jak temperatura zbliża się do zera, atomom coraz trudniej zmienić konfigurację. Im dłużej trwa proces studzenia, tym większe prawdopodobieństwo, że atomy w metalu osiągną konfigurację zbliżoną do doskonałości, czyli że jego energia osiągnie wartość bliższą globalnemu minimum. Należy tu podkreślić słowo "bliższą". Idealne kryształy nigdy nie powstają, gdyż wymagałoby to nieskończenie długiego studzenia. Gwałtownie zahartowany metal ma wiele defektów i dyslokacji na poziomie atomowym, co zwiększa kruchość metalu. Takie defekty struktury krystalicznej można usunąć przez wyżarzanie, polegające na podgrzaniu i powolnym ostudzeniu metalu. Kowale posługują się tą metodą, żeby zwiększyć ciągliwość i zmniejszyć kruchość takich metali, jak miedź. W rzeczywistości konfiguracja atomów w metalu, uzyskana dzięki wyżarzaniu, odpowiada pewnemu minimum lokalnemu, zbliżonemu do minimum globalnego. To wystarcza. Inżynierowie i naukowcy wolą przyjąć dobre, tanie i szybkie rozwiązanie, niż nieskończenie długo szukać rozwiązania idealnego, zapewne tylko nieco lepszego. Zależność od temperatury stanowi podstawę metody optymalizacji Kirkpatricka, zwanej symulowanym wyżarzaniem, którą można stosować do rozwiązywania wielu problemów w informatyce, neuroflzjologii, biochemii i ewolucjonizmie, jak również w przypadku problemu komiwojażera. Szkła spinowe Kirkpatrick opracował metodę symulowanego wyżarzania, ponieważ pragnął wyjaśnić bardzo złożone zachowanie pewnych magnetycznych stopów, określanych jako szkła spinowe. Szkła spinowe to jedne z najprostszych znanych układów nieuporządkowanych; fizycy zaczęli je badać w latach siedemdziesiątych. Próba wyjaśnienia własności złożonego układu oznaczała poważną zmianę w postawie fizyków, którzy wcześniej z reguły ignorowali takie układy. Zachowanie szkieł spinowych z pewnością wyda się większości czytelników dość abstrakcyjne, choć zachodzący w tych materiałach proces polega na optymalizacji, podobnej do tej, z jaką mamy do czynienia podczas wyżarzania. W pewnych przypadkach własności szkła spinowego można obliczyć analitycznie, dzięki czemu otrzymujemy bardzo cenne przykłady układów złożonych. Badania szkła spinowego dostarczyły zupełnie nieoczekiwanych, lecz bardzo ważnych informacji na temat złożoności: jak się przekonamy w rozdziałach 5. i 9., postęp w zrozumieniu sztucznych sieci neuronowych oraz ważnych aspektów działania mózgu był właśnie wynikiem prac nad owymi szczególnymi stopami. Z tych powodów warto spróbować zrozumieć zasadnicze cechy dziwnych materiałów magnetycznych. Skład chemiczny szkła spinowego nie jest szczególnie interesujący. Może mieć postać atomów żelaza rozsianych w sieci atomów miedzi. Nazwa "szkło" wynika z analogii ze zwykłym szkłem, z jakiego zrobione są szyby okienne. Takie szkło otrzymujemy, szybko studząc stopione związki krzemu, aby atomy nie zdążyły utworzyć uporządkowanego w dużej skali stanu z najniższą możliwą energią. Przypadkowa konfiguracja atomów ulega "zamrożeniu" i powstaje raczej nieuporządkowane ciało stałe. To samo dzieje się w przypadku szkła spinowego, ale teraz przypadkowość związana jest z nieuporządkowanym ustawieniem spinów elektronów w atomach, co powoduje zjawiska magnetyczne. Szkła spinowe mają zazwyczaj postać regularnych sieci krystalicznych – w przeciwieństwie do zwykłego szkła – ale maleńkie magnesy atomowe (w podanym przykładzie atomy żelaza, nie zaś miedzi) nie są ustawione w uporządkowany sposób. Szkło spinowe powstaje w wyniku dodatnich i ujemnych sprzężeń zwrotnych, wywołanych przez dążenie magnesów do ustawienia się równolegle do sąsiadów. Własności magnetyczne szkła spinowego są niezwykle złożone i czasami nieprzewidywalne.45 Wyjaśnienie własności szkieł spinowych należy do mechaniki statystycznej. Zadaniem tej dziedziny fizyki jest powiązanie mikroskopowego świata atomów i cząsteczek z własnościami obiektów makroskopowych, które możemy dotknąć, poczuć i zobaczyć.46 Mechanika statystyczna zajmuje się bardzo wieloma problemami, na przykład topieniem się lodu, gotowaniem wody i jej przemianą w parę oraz zmianą własności magnetycznych materiałów w zależności od temperatury. Są to wszystko przykłady przemian fazowych, polegających na gwałtownej zmianie makroskopowych własności materii w określonej temperaturze; przemiany fazowe to skutek zmiany uporządkowania mikroskopowych elementów materii w skali makroskopowej. 4.7. Porządek i magnetyzacja. Dwuwymiarowy przykład ferromagnetyka: A – w temperaturze poniżej punktu Curie wszystkie momenty magnetyczne atomów – przedstawione za pomocą strzałek – wskazują ten sam kierunek, który powoduje magnetyzację; B – w temperaturze powyżej punktu Curie momenty magnetyczne atomów są ustawione przypadkowo i magnetyzacja znika. Ryc. 4.8. Ferromagnetyk i antyferromagnetyk: A – w ferromagnetyku momenty magnetyczne poszczególnych atomów są ustawione w tym samym kierunku, co powoduje magnetyzację; B – w antyferromagnetyku momenty magnetyczne sąsiednich atomów ustawiają się w przeciwnych kierunkach, a zatem magnetyzacja znika. Dobrze znanym przykładem przejścia fazowego jest zmiana magnetyzacji żelaza. Żelazo stanowi naturalny przykład ferro-magnetyka. Taki materiał może istnieć w dwóch odmiennych fazach. W wysokiej temperaturze magnetyzacja znika, w niskiej – magnetyzacja ma niezerową wartość. Przemiana następuje w dokładnie określonej temperaturze, zwanej temperaturą Curie. Możemy sobie wyobrazić kryształ żelaza w postaci uporządkowanej sieci atomów (Ryc. 4.7). Chmura elektronów otaczających jądro atomowe powoduje, że atom zachowuje się jak maleńki magnes. Obecność elektronów nie mających pary z przeciwnie ustawionym spinem powoduje, że atom zyskuje moment magnetyczny. Poniżej temperatury Curie momenty magnetyczne atomów są ustawione w tym samym kierunku; im niższa temperatura, tym dokładniejsze uporządkowanie: całkowita magnetyzacja kryształu jest wtedy równa sumie identycznie ustawionych momentów magnetycznych poszczególnych atomów. Powyżej temperatury Curie gwałtowne drgania atomów powodują chaos w szeregach; teraz momenty magnetyczne atomów są zorientowane zupełnie przypadkowo i magnetyzacja znika. Aby zbadać zachwianie atomów w ferromagnetyku – a także w szkle spinowym – musimy skonstruować model odwołujący się do praw fizyki atomowej. Zasadniczym problemem jest znalezienie punktu równowagi między efektami cieplnymi, zwiększającymi przypadkowość, a oddziaływaniami magnetycznymi między spinami. Na tym właśnie polega zadanie równowagowej mechaniki statystycznej, ponieważ położenie tego punktu określa wszystkie własności makroskopowe danego ciała. Można to osiągnąć za pomocą pojęcia energii swobodnej, która uwzględnia konkurencję między przypadkowymi efektami cieplnymi oraz porządkującymi oddziaływaniami. Energia swobodna ma minimum w punkcie równowagi. Minimalizacja energii swobodnej dostarcza teoretycznego wyjaśnienia przemiany fazowej w ferromagnetykach: poniżej temperatury Curie energia swobodna ma mniejszą wartość w uporządkowanym stanie z niezerową magnetyzacją; powyżej wspomnianego punktu energia swobodna ma minimum w stanie nieuporządkowanym. Zajmijmy się teraz szkłem spinowym, składającym się, na przykład, ze słabego roztworu antyferromagnetycznego manganu w miedzi. Antyferromagnetyk to materiał, w którym spiny atomów w sąsiadujących węzłach sieci ustawiają się anty-równolegle; oznacza to, że spiny najbliższych atomów na ogół wskazują przeciwne kierunki (Ryc. 4.8). Problemy pojawiają się wtedy, gdy nieparzysta liczba antyferromagnetycznych atomów tworzy zamkniętą pętlę. Nie można na przykład globalnie zaspokoić pragnienia wszystkich spinów, które dążą do anty-równoległego ustawienia względem sąsiadów, jeśli tworzą one sieć trójkątną (Ryc. 4.9). Ten efekt ma duże znaczenie w przypadku szkła spinowego, składającego się z manganu i miedzi. Ryc. 4.9. Sfrustrowany antyferromagnetyk. Jeśli atomy tworzą sieć trójkątną i oddziałują antyferromagnetycznie, to nie istnieje taka konfiguracja, w której wszystkie sąsiadujące atomy są ustawione antyrównolegle (w tym przykładzie warunek ten nie jest spełniony dla dwóch par atomów). Przyczyną frustracji jest symetria sieci. To samo zjawisko występuje w szkłach spinowych, ale tu przyczyną jest przypadkowość oddziaływań magnetycznych, które są kombinacją oddziaływań ferromagnetycznych i antyferromagnetycznych. Konkurencja między oddziaływaniami dążącymi do odpowiedniego ustawienia spinów prowadzi do frustracji. Mogą istnieć lokalne obszary stabilności, w których wszystkie atomowe momenty magnetyczne są ustawione antyrównolegle, ale zawsze istnieją takie obszary, gdzie występuje konflikt między sąsiednimi spinami, zmuszonymi do pozostania w energetycznie niekorzystnej konfiguracji. Tu tkwi źródło kłopotów, które muszą pokonać wszyscy szukający minimum energii swobodnej dla szkła spinowego. W tym przypadku energia swobodna ma bardzo dużo lokalnych minimów, niewiele różniących się wartością energii, ponieważ każde odpowiada podobnej energetycznie konfiguracji spinów w sieci.47 Istotny postęp w zrozumieniu złożoności tych materiałów nastąpił w 1975 roku, gdy David Sherrington z Imperiał College w Londynie, pracując podczas urlopu razem z Kirkpatrickiem w IBM, opublikował pracę na temat mechaniki statystycznej modelu szkła spinowego z oddziaływaniami o nieskończonym zasięgu.48 W modelu tym moment magnetyczny dowolnego atomu w szkle spinowym wpływa na wszystkie inne za pośrednictwem oddziaływań magnetycznych o nieskończonym zasięgu. W żadnym rzeczywistym materiale magnetycznym nie występują takie oddziaływania, ale -jak wspomina Sherrington – "wiedziałem, że taki model potencjalnie jest ściśle rozwiązywalny".49 Sherrington i Kirkpatrick rzeczywiście zdołali określić własności magnetyczne takiego szczególnego materiału. Jak poprzednio, bardzo się przyda pojęcie przestrzeni poszukiwań. Ponownie wyobraźmy sobie górski krajobraz, tym razem przedstawiający energię swobodną. Wysokość odpowiada energii swobodnej, a położenie wybranego punktu określa konfigurację atomów. Ogólnie rzecz biorąc, mamy do czynienia z bardzo skomplikowaną powierzchnią (Ryc. 4.6). Łatwość komunikacji między sąsiednimi dolinami (minimami) energii zależy od temperatury: wysokość pasma oddzielającego dwie doliny jest miarą energii cieplnej, potrzebnej na przejście od jednego globalnego stanu spinowego do drugiego. Pokonanie trawiastego kopca wymaga znacznie mniej ciepła niż przejście na drugą stronę Everestu. Duża liczba różnych minimów energii swobodnej powoduje wiele fascynujących zjawisk. Jeśli na przykład atomy żelaza i miedzi są zmieszane w proporcji kilka do stu, to atomy żelaza – zazwyczaj oddziałujące ferromagnetycznie – mogą oddziaływać antyferromagnetycznie. W takim przypadku trudno jest znaleźć stabilny stan o najniższej energii swobodnej. Podobnie jak zagadnienie komiwojażera, ten problem należy do klasy NP. Jeśli spróbujemy znaleźć rozwiązanie za pomocą prostego deterministycznego algorytmu, na przykład metodą najszybszego spadku, to niemal na pewno wylądujemy w najbliższej dolinie – w lokalnym minimum – zamiast znaleźć minimum globalne. Metoda symulowanego wyżarzania, wprowadzona Przez Kirkpatricka i jego współpracowników, pozwala ominąć ten problem.50 Symulowane wyżarzanie, podobnie jak rzeczywiste wyżarzanie metali, pozwala doprawić metodę najszybszego spadku lub wzrostu odrobiną przypadkowości. Każdemu krokowi – w dół lub w górę – przypisujemy prawdopodobieństwo określone przez odpowiednią zmianę energii,51 podzieloną przez "temperaturę" wyżarzania. Jeśli temperatura jest niska, możliwe są tylko kroki wiodące do obniżenia energii i metoda ta jest równoważna metodzie najszybszego spadku. Im wyższa temperatura, tym większe prawdopodobieństwo wykonania kroku w górę i wydostania się z lokalnego minimum. Dzięki temu wzrasta szansa na znalezienie głębszego minimum lokalnego. W miarę upływu czasu algorytm powoduje przejście układu do kolejnych, coraz głębszych minimów. Aby znaleźć minimum globalne, należy stopniowo zmniejszać "temperaturę" będącą źródłem szumu, czyli przypadkowości. Okazuje się, że symulowane wyżarzanie często jest wyraźnie lepsze niż metody tradycyjne.52 Symulowane wyżarzanie, pierwotnie wymyślone do badania szkła spinowego, pozwoliło znaleźć lepsze rozwiązania wielu praktycznych problemów optymalizacyjnych, wykraczających daleko poza ezoteryczne zagadnienia fizyki stopów. Takie problemy stanowią realną wersję dylematu komiwojażera; chodzi w nich, na przykład, o wybór właściwej trasy naładowanych ropą supertankowców lub zaprojektowanie mikroprocesora. Symulowane wyżarzanie umożliwia również wyznaczenie atomowej struktury kryształu na podstawie pomiarów rozpraszania promieniowania rentgenowskiego; tak zwane obrazy dyfrakcyjne nie zawierają dostatecznie wielu informacji, aby określić na ich podstawie strukturę kryształu.53 Posługując się metodą symulowanego wyżarzania, firmy naftowe analizują rozchodzenie się fal sejsmicznych, wywołanych detonacjami, aby zdobyć informacje geologiczne pozwalające zlokalizować złoża węglowodorów. Symulowane wyżarzanie pomaga również wyznaczyć trójwymiarową strukturę białek na podstawie ich składu atomowego. Jest to bardzo trudny problem, którego pomyślne rozwiązanie pozwoliłoby na syntetyczne projektowanie wielu lekarstw.54 Gra szklanych paciorków Bezpośredni atak na makroskopową złożoność przyrody przyniósł wyniki godne uwagi. W poprzednich rozdziałach przekonaliśmy się, jak Turing i von Neumann – pod wpływem zainteresowania złożonością mózgu – zajęli się budową nowoczesnych komputerów. Fascynacja von Neumanna złożonością reprodukcji doprowadziła do powstania automatów komórkowych, nowego wirtualnego laboratorium do badania zjawisk emergencyjnych. Dzięki pracom Sherringtona i Kirkpatricka, dotyczącym złożonych własności szkła spinowego, powstała bardzo skuteczna metoda rozwiązywania wyjątkowo trudnych problemów optymalizacyjnych. W następnym rozdziale przekonamy się, jak te koncepcje, w połączeniu z ideami zaczerpniętymi z biologii, pozwoliły lepiej zrozumieć złożoność obiektów nieożywionych w bardzo wielu dziedzinach nauki. Inicjatorem tych badań był student Arthura Burksa, który rozwinął koncepcje von Neumanna po jego śmierci. John Holland, nim został pierwszym doktorantem Burksa w dziedzinie informatyki, studiował matematykę, ale zniechęciła go dominacja ultrapurystycznej francuskiej szkoły bourbaki-stów. Holland przechowywał swoje notatki na temat emergencji, adaptacji, uczenia się i wielu innych problemów w skoroszytach, które oznaczył Glosperlenspiel l, Glosperlenspiele 2 i tak dalej, zapożyczając tytuł powieści Hermanna Hessego Gra szklanych paciorków.54 Zdaniem Hollanda futurystyczna gra w łączenie i przeplatanie różnych wątków, uprawiana przez intelektualną elitę, jest doskonałym symbolem jego badań. Szczególną rolę w kształtowaniu się eklektycznego zbioru idei Hollanda odegrała książka The Genetical Theory ofNatural Selection Ronalda Fishera, jednego z najwybitniejszych angielskich statystyków zajmujących się biologią. Matematyczne podejście Fishera do ewolucji biologicznej – i niedostatki tej koncepcji – zainspirowały Hollanda, który pragnął wyjaśnić, jak dobór naturalny rozwiązuje złożone problemy. ROZDZIAŁ 5 EWOLUUJĄCE ODPOWIEDZI Naturą nie można rządzić inaczej, niż słuchając jej rozkazów. FRANCIS BACON Fantastyczna złożoność życia jest skutkiem ewolucji i doboru naturalnego. Pojęcia te – często opacznie rozumiane – wytrzymały wiele ataków od czasu, kiedy Charles Darwin wprowadził je do nauki w 1859 roku. Teoria ewolucji, będąca fundamentem nowoczesnej biologii, przetrwała bez uszczerbku ostre testy uczonych i ataki kreacjonistów, jakie trwają już od ponad stu lat. Dziś jej wpływy rozciągają się również na świat nieożywiony, który coraz częściej opisujemy, posługując się ewolucyjnymi metaforami. Biologiczna ewolucja stanowi bardzo silny paradygmat, wskazujący sposoby atakowania praktycznie nierozwiązywalnych problemów za pomocą tak zwanych algorytmów i programów genetycznych. Technika ta polega na komputerowej symulacji ewolucji, co pozwala na "wyhodowanie" najlepszej łopatki turbiny samolotowej lub znalezienie najlepszej drogi przesyłania informacji w ogromnej sieci łączności. Są to niezwykle złożone problemy optymalizacyjne, które można przedstawić za pomocą iście himalajskiego pejzażu dostosowań. Cyfrowy darwinizm jest bardzo skuteczną metodą rozwiązywania takich problemów. Ludzki mózg to, w pewnym sensie, przykład rozwiązania problemu optymalizacji, jaki pojawił się w toku ewolucji biologicznej. Z uwagi na ogromne możliwości mózgu, jest on również źródłem dalszej inspiracji. Paradoksalnie, autorzy niedawnych prób zrozumienia inteligencji za pomocą symulacji odrzucili wszystkie odkrycia, jakich udało się dokonać w związku z badaniem ewolucji, i zaakceptowali podejście określane dziś żartobliwie mianem GOFAI (good old-fashioned artipcial intelligence – dobra, staromodna sztuczna inteligencja). Przekonamy się wkrótce, że okazało się ono intelektualną ślepą uliczką. Bardziej owocne podejście polega na wykorzystaniu przykładów, jakich dostarcza nam przyroda. Taka metoda jest już stosowana w wielu praktycznych sytuacjach: klasyfikowaniu tusz wieprzowych czy przewidywaniu zmian kursu akcji na giełdzie. Przetrwanie najlepiej dostosowanego Gdy ktoś streszcza koncepcję ewolucji Darwina, zazwyczaj powtarza slogan o "przetrwaniu najlepiej dostosowanego". Wydaje się, że rośliny, zwierzęta i owady rozwijają się w taki sposób, aby doskonalić różne cechy, na przykład pszczoły – skrzydła, niedźwiedź polarny – białe futro, a leopard – cętki. Mówimy wówczas o adaptacji lub dostosowaniu, czyli procesie przebiegającym bez wyznaczonego z góry celu; ów proces polega na zmianach ewoluującej struktury wskutek oddziaływania z otoczeniem, mających zwiększyć jej sprawność. Takimi strukturami mogą być białka, mózgi, a nawet całe ekosystemy. Adaptacja tych żywych dzieł sztuki czasami jest zdumiewająco specyficzna. Ewolucja sprawiła, że orchidea Ophrys apifera wygląda jak samica trzmiela, dzięki czemu jest zapylana przez zwabione samce. Rośliny te nie wybrały celowo takiego wyglądu – ich. .celem" w życiu jest po prostu reprodukcja. Wśród rozkładającej się materii na dnie stawu żyją bakterie thiobacilli, które radzą sobie z dużym stężeniem siarki za pomocą złożonego zbioru enzymów – te pozwalają bakteriom korzystać z siarki zamiast tlenu. Proces przetrwania poprzez reprodukcję wymaga, aby nawet najbardziej prymitywne organizmy były zdolne do adaptacji, gdyż inaczej zostałyby wyeliminowane w toku biologicznego wyścigu zbrojeń. Gatunki wciągnięte w tę walkę nieustannie rozwiązują złożony problem optymalizacyjny. Proces dostosowywania się do środowiska prowadzi do znalezienia niemal idealnych rozwiązań, takich jak kształt orchidei Ophrys apifera, hydrodynamiczne cechy płetw wieloryba oraz oczy sowy. Choć adaptacje powodują powstanie bardzo wymyślnych struktur i oddziaływań, zawsze można je jeszcze poprawić.1 Sedno darwinowskiej ewolucji polega na znajdowaniu ulepszeń, a nie rozwiązań optymalnych. Ogólnie zdefiniowane procesy adaptacji odgrywają zasadniczą rolę w tak różnych dziedzinach, jak psychologia, ekonomia, inżynieria i matematyka obliczeniowa. Ewolucja jest zatem dobrą metaforą i źródłem inspiracji. W ostatnich latach wielu uczonych skorzystało z jej wskazówek, reprodukując struktury ewolucyjne w programie komputerowym i wykorzystując je do modelowania oraz znajdowania wspólnych cech w takich procesach i zjawiskach, jak rozpoznawanie obrazów, twardnienie cementu, nauka, pamięć, inteligencja oraz sztuczna inteligencja. Według przyjętych tu standardów ewolucja biologiczna jest procesem adaptacyjnym o niezwykłej złożoności. Wyobraźmy sobie, na przykład, prosty morski wodorost, określony przez tysiąc genów, z których każdy może wystąpić w dwóch postaciach; taki gen może powodować syntezę białka, które sprawia, że wodorost ma kolor zielony, a nie brązowy, gładkie, a nie postrzępione liście, czy też krótki, a nie długi cykl reprodukcyjny. Jeżeli każdy gen może działać niezależnie od pozostałych, to mamy do dyspozycji 21000 kombinacji genów – naprawdę ogromny pejzaż możliwości.2 Podobnie jak symulowane wyżarzanie, optymalizacja ewolucyjna działa tak dobrze, ponieważ czasami pozwala – wskutek mutacji – na zejście na niższy poziom w tym ogromnym pejzażu dostosowań. Dzięki temu organizm może porzucić lokalny szczyt i znaleźć kombinację dającą lepsze dostosowanie. Ewolucja występuje, gdy mamy do czynienia z reprodukcją i konkurowaniem o ograniczone zasoby. Reprodukujący się układ dąży do wytworzenia dokładnych kopii siebie samego, ale żaden mechanizm kopiujący nie działa idealnie. Błędy zazwyczaj zmniejszają zdolność kopii do reprodukcji. Mutant na ogół ginie, a w każdym razie jego geny występują mniej licznie niż geny rodziców. Czasami jednak mutant okazuje się lepszy; w takim przypadku jego geny zwyciężają i stają się bardziej rozpowszechnione niż geny rodziców. Z uwagi na ograniczone zasoby, organizmy i gatunki konkurują ze sobą. Z tego powodu można przypisywać organizmom "reprodukcyjne dostosowanie". Składają się na nie najróżniejsze czynniki; na przykład u małpy: dobry wzrok, ruchliwość, atrakcyjność dla innych małp, inteligencja i siła, określają szansę osobnika na przeżycie. Algorytm genetyczny John Holland dążył do tego, aby komputery – a przynajmniej ich programy – naśladowały żywe organizmy, to znaczy ewoluowały, dostosowując się do poszukiwania rozwiązania danego problemu.3 Jak stwierdził: "Żywe organizmy są najlepsze w rozwiązywaniu problemów. Wykazują elastyczność, która winna zawstydzić najlepsze programy komputerowe".4 Stąd wziął się jego fascynujący pomysł genetycznego algorytmu, to znaczy zbioru programów komputerowych, który ewoluuje wskutek reprodukcji, przypadkowych zmian i konkurencji. Holland wykorzystał idee i język biologów, odwołując się do chromosomów, zawierających program genetyczny organizmu, i do mutacji, które mogą ów program zmienić. Pierwszą poważną pracą, poświęconą wykorzystaniu ewolucyjnej metafory w obliczeniach, była książka Adaptation in Natural and Artificial Systems,5 opublikowana w 1975 roku, dziesięć lat po rym, jak Holland rozpoczął swoje badania. "Gdy ukazała się moja książka, byłem bardzo optymistycznie nastawiony. Oczekiwałem wielu omówień, spodziewałem się, że będzie to bestseller w dziedzinie monografii – wspomina Holland w późniejszym wydaniu. – Niestety! Tak się nie stało. Po Pięciu latach odzyskałem optymizm, ponieważ książka nie »zmarła«, jak to się zazwyczaj dzieje z monografiami: każdego roku sprzedawano od 100 do 200 egzemplarzy. Jednak badania w tej dziedzinie prowadzili niemal wyłącznie moi studenci i ich koledzy. Nie pasują one do przyjętych kategorii. »To z pewnością nie należy do sztucznej inteligencji!* i "Dlaczego ktoś chce badać mechanizm uczenia się, imitując proces, który trwa miliardy lat?« – tak brzmiały typowe komentarze krytyków, niezbyt skłonnych do zapoznania się z naszymi pracami". Na początku lat osiemdziesiątych nastąpił gwałtowny wzrost zainteresowania badaniami Hollanda. Z kilku powodów. Okazało się, że algorytmy genetyczne mogą sobie poradzić z trudnymi problemami – klasy JVP. Pojawiły się prace, których autorzy korzystali z genetycznych algorytmów do projektowania obwodów scalonych, sieci łączności, turbin samolotowych oraz dobierania optymalnych portfeli akcji. Algorytmy genetyczne znalazły również zastosowanie w badaniach nad sztuczną inteligencją, które przez wiele lat pozostawały w cieniu. Ożywienie w tej dziedzinie związane było z rodzącym się przekonaniem, że uczenie się przez oddziaływanie z otoczeniem ma zasadnicze znaczenie w badaniach nad inteligencją. Jeszcze później algorytmy genetyczne stały się powszechnie stosowanym narzędziem w analizie "złożonych układów adaptacyjnych". To ogólne określenie obejmuje nieliniowe układy, składające się z dużej liczby oddziałujących, indywidualnych elementów; do układów tych zaliczamy systemy gospodarcze, ekosystemy, organizacje polityczne, a także układ immunologiczny, rozwijający się embrion i mózg. Holland wykazał, że gdy mamy do czynienia z rozległym i bardzo poszarpanym pejzażem, który reprezentuje dostosowanie lub koszt w problemie komiwojażera, w zagadnieniu szkła spinowego lub zdolności reprodukcyjnych małpy, z reguły algorytmy genetyczne są w stanie znaleźć lepsze rozwiązanie niż inne metody. Wobec tego istnieje skuteczne narzędzie do rozwiązywania "praktycznie nierozwiązywalnych" problemów obliczeniowych. Według Hollanda "pragmatyczni uczeni uważają wyjątkową potęgę ewolucji za coś, co należy naśladować, a nie czynić tylko przedmiotem zazdrości. Wykorzystując mechanizmy ewolucji, naukowcy mogą »hodować« programy, które rozwiązują problemy, nawet jeśli nikt w pełni nie rozumie struktury takiego programu".6 W przypadku ewolucji biologicznej musimy jednak nieco zmodyfikować nasz obraz pejzażu dostosowań. Układ wzgórz i dolin zależy nie tylko od własności jednego gatunku, ale również od sprawności rywali. W darwinowskiej ewolucji każdy gatunek dąży do jak najlepszej adaptacji w złożonym i nieustannie zmieniającym się środowisku. Inaczej mówiąc, pejzaż ulega ciągłym zmianom. Wznoszący się szczyt wskazuje na sukces jednego gatunku, mogący zarazem spowodować zagładę innego gatunku. Ewolucyjne przystosowanie królików, rozważane w izolacji, może teoretycznie osiągnąć dowolnie dużą wartość z najróżniejszych powodów, od wyjątkowej obfitości marchewki do nadzwyczaj czułego słuchu, pozwalającego wykryć zawczasu niebezpieczeństwo ze strony drapieżników. Jednak gwałtowny rozwój populacji lisów i tak może spowodować zagładę królików. Na początku łatwiej jest pominąć pojęcie współrozwijającego się pejzażu i zamiast tego skupić uwagę na czynnikach ewolucji biologicznej, które Holland wykorzystał do zlokalizowania szczytów i dolin, reprezentujących optymalne rozwiązania wielu prostszych praktycznie nierozwiązywalnych problemów. Do ewolucji konieczne są dwa elementy: dobór i reprodukcja. Dobór stanowi filtr, który określa poprzez konkurencję, jakie osobniki z populacji przeżyją i będą miały okazję do reprodukcji. Reprodukcja zaś stwarza okazję do pojawienia się innowacji, spowodowanych zmianami cech genetycznych, co umożliwia powstawanie coraz lepiej przystosowanych osobników. Dzięki hodowli i selekcji udało się nam "zoptymalizować" wygląd róży oraz jakość owczej wełny. Holland zdał sobie sprawę z tego, że podobnie można wykorzystać mieszaninę innowacji i filtrowania wyników do optymalizacji rozwiązań złożonych Problemów. Holland dążył do uwzględnienia w metodach obliczeniowych Procesów, które powodują zmiany w budowie chromosomów: Mutacji, inwersji i zjawiska crossing-over. Mutacje, stanowiące ważne źródło zmian genetycznych, są spowodowane wysokoenergetycznym promieniowaniem {ultrafioletowym lub rentgenowskim), obecnym w środowisku, lub błędami w procesie kopiowania materiału genetycznego w komórkach. Przypadkowe mutacje są odpowiedzialne za różnorodność i czasami wywołują korzystne zmiany w chromosomach. Crossingouer, występujący w gatunkach rozmnażających się płciowo, polega na wymianie materiału genetycznego, pochodzącego z dwóch chromosomów rodziców, dzięki czemu potomstwo otrzymuje dobre geny każdego z nich. Inwersja powoduje zmianę ustawienia genów, wskutek czego geny bardzo oddalone u rodziców znajdują się blisko siebie w chromosomach potomstwa. Takie tasowanie genów czasami nie powoduje większych zmian, miewa też jednak śmiertelne skutki, a niekiedy przynosi korzystne zmiany. Szczególnie istotny w algorytmach genetycznych jest crossing-over. Dzięki niemu korzystne zmiany genetyczne – czyli ulepszenia w rozwiązaniach problemu – podlegają akumulacji. Aby pewien osobnik zyskał dwie korzystne i mało prawdopodobne mutacje bez procesu crossing-over, najpierw jedna z tych rzadkich mutacji musiałaby zdarzyć się u rodzica, a następnie druga – również rzadka – u potomka.7 W populacji gatunku, rozmnażającego się bez zjawiska crossing-over, mogą pojawiać się osobniki mające po jednej z tych mutacji, ale będzie brakowało osobników z dwiema mutacjami. Natomiast gdy występuje crossing-over, korzystne mutacje u obojga rodziców mogą się spotkać w chwili reprodukcji; jeśli lepiej przystosowane osobniki rozmnażają się częściej niż gorzej przystosowane, to prawdopodobieństwo współwystępowania tych mutacji wzrasta. Algorytm Hollanda dopuszcza, by poszczególne osobniki niezależnie badały przestrzeń poszukiwań (tzn. pejzaż przystosowań) i uzyskane wyniki łączyły poprzez crossing-over. Połączenie reprodukcji i wymiany informacji w istotnej mierze przyczynia się do sukcesów algorytmów genetycznych. Jak to się jednak dzieje, że te operacje, wzorowane na zjawiskach biologicznych, umożliwiają rozwiązanie trudnego problemu? Przecież koncepcja systematycznych poszukiwań niezbyt pasuje do przypadkowości, jaką wprowadzają te operacje. Właściwą odpowiedź podał już matematyk Jacques Hadamard, rozważając naturę pomysłowości: "Jest oczywiste, że wynalazek lub odkrycie, w matematyce lub innej dziedzinie, następuje wskutek łączenia idei".8 Crossing-over pozwala jednocześnie wypróbować bardzo dużo rozwiązań. Proces ten ma z natury charakter równoległy, dzięki czemu spośród bardzo wielu możliwości zostaje wybrana szczególnie atrakcyjna kombinacja. Jego działanie wydaje się przypadkowe, ale w rzeczywistości kieruje nim ręka Darwina. Cyfrowy Darwin Pod względem pojęciowym konstrukcja genetycznego algorytmu Hollanda jest jasna, natomiast przetłumaczenie go na program komputerowy sprawia kłopoty z powodu problemu "kruchości": większość mutacji, czyli przypadkowych zmian w konwencjonalnym programie, powoduje natychmiastowe przerwanie pracy. Nawet jedna kropka umieszczona w złym miejscu może wywołać katastrofę. Aby wykorzystać swoje ewolucyjne metody, Holland musiał opracować elastyczną technikę reprezentowania rozwiązań za pomocą "chromosomów", ulegających modyfikacjom wskutek mutacji i zjawiska crossing-over. W tym celu stworzył binarny klasyfikator: dowolne rozwiązanie ma postać łańcucha binarnego. Każdy bit odpowiada obecności (1) lub nieobecności (0) pewnej cechy, podobnie jak chromosomy zawierają geny determinujące wystąpienie (lub brak) takiej cechy, jak kolor włosów. Na przykład w poszukiwaniach odpowiedzi na pytanie, jakie zwierzę jest najlepszym przyjacielem człowieka, pies może zostać zakodowany jako łańcuch, składający się z jedynek – dla takich cech jak "włochaty", "ślini się", "szczeka", "jest lojalny" i "goni za patykami" – oraz z zer – dla takich własności, jak "metalowy", "mówi językiem Urdu" i "ma kartę kredytową". Poszukiwania odpowiedzi na pytanie sprowadzają się wtedy do znalezienia właściwego łańcucha zer i jedynek. Jak zwykle, dobre rozwiązanie odpowiada pewnej szczególnej kombinacji cech w przestrzeni poszukiwań. Możemy tu znowu odwołać się do naszej metafory górskiego pejzażu: kombinacja zer i jedynek określa położenie, a wysokość mówi nam, jak dobre jest dane rozwiązanie. W tym celu musimy zdefiniować funkcję "dostosowania", czy też "kosztu", z którą mieliśmy już do czynienia. Reszta należy do Darwina. Algorytm (Ryc. 5.1) zaczyna od "populacji" chromosomów – łańcuchów binarnych, z których każdy może być rozwiązaniem problemu. Zazwyczaj każdy reprezentuje próbę odgadnięcia rozwiązania lub ma czysto przypadkowy charakter. Następnie algorytm oblicza dostosowanie każdego chromosomu. Analogicznie do terminologii stosowanej w biologii molekularnej każdy bit lub grupę bitów chromosomu nazywamy genem. Wyżej ocenione łańcuchy chromosomowe są następnie łączone za pomocą operacji crossing-over i inwersji, a to, co powstaje, zastępuje chromosomy gorzej dostosowane. Dodatkowo niewielka liczba wybranych przypadkowo genów (jakieś jeden na dziesięć tysięcy) ulega "mutacji pod wpływem środowiska" – to znaczy zero przechodzi w jedynkę i vice wersa. Kombinacja innowacji (mutacje, crossing-over i inwersja) oraz selekcji (przeżywają tylko lepiej dostosowane chromosomy) powoduje, że z pokolenia na pokolenie chromosomy zbliżają się do optymalnego rozwiązania. Jeśli posługujemy się komputerem wieloprocesorowym, każdy chromosom może niezależnie badać duże obszary przestrzeni poszukiwań. Cyfrowy Darwinizm: algorytm genetyczny Efektywność binarnego klasyfikatora można zademonstrować na przykładzie poszukiwań najlepszego projektu turbiny silnika odrzutowego dla samolotów pasażerskich. W tym problemie występuje około 100 zmiennych. Przestrzeń poszukiwań składa się z ponad 10387 punktów. Ocena jednego projektu za pomocą stacji roboczej trwa mniej więcej 30 s, a zatem czysto przypadkowe poszukiwania optymalnego rozwiązania trwałyby zapewne dłużej, niż wynosi wiek Wszechświata. Doświadczony inżynier potrzebuje około dwóch miesięcy, by opracować rozsądny projekt, natomiast algorytm genetyczny w ciągu kilku dni "stworzył" projekt trzy razy lepszy.9 David Goldberg, jeden ze studentów Hollanda – obecnie pracujący na Uniwersytecie stanu Illinois – wykazał, że algorytmy genetyczne potrafią sterować przepływem gazu w rurociągach zgodnie z dziennymi i sezonowymi fluktuacjami zapotrzebowania.10 Jest to przykład tak zwanego adaptacyjnego problemu sterowania. Algorytm genetyczny odpowiada na zapotrzebowanie na gaz w różnych porach i dostosowuje szybkość przepływu. Nawet Holland był zaskoczony tym zastosowaniem: »W pierwszej chwili uznałem, że to za trudny problem jak na rozprawę doktorską. Nie istnieją analityczne rozwiązania nawet uproszczonych wersji problemu, a sterowanie przepływem wymaga długiego okresu czeladnictwa. Dave jednak się uparł i zaskakująco szybko napisał pracę, za którą otrzymał w 1985 roku Prezydencką Nagrodę dla Młodego Uczonego, przyznawaną przez Krajową Fundację Nauki. To tyle jeśli chodzi o moją intuicję co do tego, jakie tematy nadają się na doktorat". Rozwinięciem koncepcji algorytmu genetycznego jest idea programowania genetycznego, którą przedstawił John Koza z Uniwersytetu Stanforda. W zwykłym algorytmie genetycznym badane są rozwiązania jednego typu, reprezentowane przez chromosomy o ustalonej długości. Programowanie genetyczne polega na selekcji programów o różnym kształcie i różnej wielkości. Musimy przeszukać przestrzeń wszystkich możliwych programów i znaleźć najlepiej przystosowany do rozwiązania danego problemu. Hodujemy setki lub tysiące komputerowych programów, korzystając z przetrwania najlepiej przystosowanego -jako kryterium doboru – oraz reprodukcji z możliwością genetycznej rekombinacji (tzn. crossing-over).11 Potomstwo ma na ogół inną strukturę i wielkość niż rodzice. Przykładem jest hodowla programu komputerowego, sterującego ruchem ciężarówki po drodze w taki sposób, aby dotarła do z góry określonego punktu w minimalnym czasie, poruszając się zgodnie z zasadami dynamiki Newtona. Podobnie jak w przypadku algorytmów genetycznych, nie dysponujemy żadnymi matematycznymi dowodami, wykazującymi, że takie metody dają poprawne rozwiązanie. Jedyne, co mamy, to "bogate dane empiryczne, wspierające sprzeczną z intuicją i zaskakującą konkluzję, że programowanie genetyczne pozwala rozwiązać liczne, na pozór zupełnie odmienne problemy z różnych dziedzin".12 Nie brakuje jednak krytyków ewolucyjnych metod obliczeniowych. Komputerowe programy "ewoluują" w sposób przypominający dobór naturalny i często rozwiązują złożone problemy za pomocą metod, których nie rozumieją nawet ich twórcy. Nie znamy ścisłej teorii matematycznej, określającej możliwości tych metod,- a zatem nie mamy żadnej gwarancji poprawności uzyskanych wyników. Chociaż pragmatyk David Goldberg powiedział kiedyś: "Interesuje nas pytanie, co działa i dlaczego [. .]. Nature obchodzi tylko to, co działa. W naturze przekazywane jest tylko to, co przeżywa. Natura nie ma czasu na erudycyjne rozważania i dołączyliśmy do niej w pilnych poszukiwaniach lepszych rozwiązań".13 Sztuczna inteligencja Algorytmy genetyczne i programowanie genetyczne pozwalają znaleźć rozwiązanie wielu "praktycznie nierozwiązywalnych" problemów, a zatem można uznać, że działają "inteligentnie". Dążąc do rozwiązania złożonych problemów, uczeni nie tylko naśladują ewolucję, ale również próbują symulować jej najdoskonalszy wytwór – ludzki mózg. Takie jest zadanie sieci neuronowych, programów komputerowych, które – podobnie jak algorytmy genetyczne – wykorzystują strategie natury w szerszym kontekście. Sieci neuronowe również potrafią rozwiązywać trudne problemy, a ponieważ odgrywają zasadniczą rolę w mechanizmach uczenia się i zapamiętywania, być może doprowadzą do stworzenia prawdziwej sztucznej inteligencji (AI). Warto zacząć od stwierdzenia, że prace nad skonstruowaniem AI należą do najbardziej kontrowersyjnych współczesnych dyscyplin akademickich głównie dlatego, że nie istnieje ogólnie przyjęta definicja inteligencji.14 Większość badaczy zajmujących się sztuczną inteligencją początkowo ignorowała sieci neuronowe, przedkładając dobrą, staromodną AI (GOFAI).15 Ta "odgórna" metoda polega na dzieleniu inteligencji na "moduły", dostosowane do szczególnych rodzajów wiedzy i informacji, takich jak percepcja, planowanie i wykonywanie działań. Każdy moduł jest wyposażony w model zewnętrznego świata; moduły oddziałują między sobą za pośrednictwem reguł logicznych – zawartych w "maszynie do wnioskowania" – co ma doprowadzić do inteligentnego zachowania odpowiedniego robota, który, na przykład, chwytałby różne przedmioty lub unikałby ich. W latach sześćdziesiątych, okresie największej popularności GOFAI, pojawiło się wiele śmiałych opinii o jej możliwościach i perspektywach symulowania inteligencji za pomocą komputera. Jeden z głównych zwolenników GOFAI, Marvin Minsky z MIT, stwierdził w 1970 roku, że "w ciągu 3-8 lat zbudujemy maszynę (GOFAI) dorównującą człowiekowi pod względem ogólnej inteligencji". Ta przepowiednia nigdy się nie sprawdziła.16 Matematyczny fizyk Roger Penrose zyskał popularność z powodu zdecydowanej krytyki tego stanowiska, znanego również jako koncepcja "silnej sztucznej inteligencji". W swojej książce przedstawił on "wiele argumentów mających wykazać fałsz popularnej we współczesnej filozofii tezy, że nasze myślenie w zasadzie niczym się nie różni od działania bardzo skomplikowanego komputera".17 Allen Newell i Herbert Simon z Rand Corporation pomogli zainicjować program GOFAI, ponieważ pod koniec lat pięćdziesiątych wykazali, że łańcuchy binarne w komputerze można wykorzystać nie tylko do reprezentowania liczb, ale również bardziej skomplikowanych symboli.18 Symbole te mogą oznaczać różne aspekty świata; logiczne manipulacje symbolami polegają na zastosowaniu reguł odpowiedniego programu. Ponieważ, jak się wydaje, ludzki mózg również manipuluje symbolami, takimi jak nuty, obrazy i słowa, i jest zdolny do nieskończenie różnorodnych oraz pomysłowych rozumowań, nie powinno nas zatem dziwić, że uczeni zajmujący się sztuczną inteligencją sądzili początkowo, iż jest tylko kwestią czasu, kiedy GOFAI będzie w stanie zrobić wszystko, co potrafią ludzie. Coraz więcej dowodów świadczyło o tym, że sprawne działanie zależy od szybkiego przeszukiwania dużych składnic wiedzy, przedstawionej w postaci symbolicznej. Na przykład systemy AI używane w diagnostyce medycznej naśladowały postępowanie lekarza, który rozpoznaje symptomy choroby, a następnie korzystały z jego wiedzy na temat choroby, leczenia i dalszych testów. Z doświadczeń wynikało, że ekspert jest w stanie rozpoznać 50 000 lub więcej zbiorów symptomów i wykorzystuje je jako klucze do informacji zmagazynowanej w pamięci długotrwałej.19 Wobec tego zwolennicy GOFAI postawili na cyfrowe "kucie": twierdzili, że maszyna może wykazać inteligencję, jeśli władujemy w nią wszystkie fakty i reguły, jakie zdołamy uzyskać od wyznaczonych ludzkich "ekspertów". Następnie specjaliści od GOFAI opracowali komputerowe symulacje ludzkiej inteligencji, działające zgodnie z tą zasadą. Takie systemy eksperckie składają się z trzech części: urządzeń peryferyjnych, służących do wymiany informacji między użytkownikiem i komputerem; bazy danych, zasadniczej części układu, w której zgromadzona jest wiedza dostarczona przez ekspertów; maszyny do wnioskowania, która znajduje odpowiedzi, wykonując systematycznie logiczne operacje, na podstawie zgromadzonej wiedzy i danych dostarczonych przez użytkownika. W przypadku medycznego systemu eksperckiego maszyna do wnioskowania powinna umieć rozpoznać wirusowe zapalenie wątroby na podstawie symptomów przypominających grypę: utrata apetytu, mdłości i żółty kolor skóry pacjenta. Jednym z pierwszych systemów tego typu był DENDRAL, stworzony w 1956 roku w Uniwersytecie Stanforda przez Edwarda Feigenbauma, który współpracował z Joshuą Leder-bergiem, laureatem Nagrody Nobla. Ich system potrafił określić strukturę cząsteczki na podstawie odczytu spektrografu masowego, który analizuje związki chemiczne, rozkładając je i "ważąc" ich fragmenty.20 Systemy eksperckie zawdzięczają swe sukcesy w "inżynierii wiedzy"21 ograniczeniu działania do bardzo wąskie] dziedziny. Systemy takie okazały się bardzo skuteczne w wykonywaniu wielu bardzo dobrze określonych i skomplikowanych zadań, często pojawiających się w finansach i produkcji, planowaniu rozkładów lotów i tras przelotów, diagnostyce medycznej i farmakologii. Choć spotyka się je w wielu dziedzinach ludzkiej działalności,22 możliwości tych systemów są ograniczone przez charakter, jakość i spójność ludzkich reguł, z których korzystają w pracy; zawsze istnieje niebezpieczeństwo, że jeśli nie zwraca się dostatecznej uwagi na potrzeby użytkowników, takie systemy zmieniają się w składowiska bezużytecznych informacji. Systemy eksperckie są bardzo delikatne: nie wykazują najmniejszej dozy zdrowego rozsądku i nie potrafią radzić sobie z niedoskonałą lub dwuznaczną informacją. Weźmy, na przykład, próby nauczenia komputerów języka mówionego albo czytania angielskiego lub francuskiego maszynopisu. W latach sześćdziesiątych powstał program ELIZA, który miał naśladować umiejętności konwersacyjne psychoterapeuty.23 W pierwszej chwili dialog między komputerem i człowiekiem robi ogromne wrażenie, ale wkrótce staje się oczywiste, że zręczność maszyny jest czysto iluzoryczna; maszyna zmienia po prostu odpowiedzi w pytania i reaguje agresywnie na wszelkie wzmianki o matce, ojcu i snach, niezależnie od kontekstu. Zdanie: "Nelson Mandela jest ojcem nowej Afryki Południowej", wywołuje odpowiedź: "Opowiedz mi o swoim ojcu". Wielkie plany zwolenników GOFAI zaczęły wyglądać podejrzanie, gdy na początku lat siedemdziesiątych okazało się, że programy takie nie potrafią poradzić sobie z bajkami dla dzieci. Problem polega na wyposażeniu komputera w dostateczną wiedzę ogólną, aby pod względem zdolności rozumienia dorównał czterolatkom.24 Języki naturalne są bardziej skomplikowane, niż początkowo przypuszczano: w językach tych jest zakodowana ogromna, zależna od kontekstu, wiedza, dzięki której możemy nadać znaczenie wypowiedzianemu słowu. Zdanie: "Piotr zobaczył komputer na wystawie sklepu i chce go kupić" jest dla programu GOFAI niezrozumiałe – maszyna nie wie, czy Piotr chce kupić komputer, czy sklep. Niektórzy podjęli próby znalezienia rozwiązania problemu przez jego uproszczenie. Pewnym sukcesem był program SHRDLU, napisany przez Terry'ego Winograda, studenta Minsky'ego. Program ten potrafił posługiwać się językiem, o ile rozmowa dotyczyła wyidealizowanego "mikroświata" kolorowych klocków,25 Obecnie większość ludzi przyznaje, że wielkie plany budowy takiej sztucznej inteligencji nigdy nie zostaną zrealizowane. Hubert Dreyfus, tradycyjny amerykański krytyk sztucznej inteligencji, uważa, że "umysł" może zyskać zdrowy rozsądek tylko wtedy, gdy ma "ciało", służące do poznania świata: "Każdy, kto ma dzieci, musiał zwrócić uwagę, ile lat mogą się bawić w piasku albo po prostu chlapać wodą, nabierać ją, wylewać, pryskać. Wydaje się, że taka zabawa fascynuje dzieci. Można się zastanowić, co one właściwie robią? Dlaczego to się im nie znudzi? Jaką to ma wartość? Powiedziałbym, że w ten sposób doświadczają one 50 000 przypadków kontaktu z wodą, których potrzebują, aby ją nalewać, pić i przenosić. Podobnie zbierają 50 000 przykładów, ilustrujących, jak ciała stałe zderzają się, skrobią się, dają się układać, upadają. Zgodnie z tym wywodem, zdrowy rozsądek opiera się na tysiącach przypadków, które nie zostały wprawdzie zapamiętane, ale które do-stroiły odpowiednio neurony. Gdy teraz zdarzy się coś podobnego, automatycznie powoduje to odpowiednie działania lub oczekiwania. Na tym polega zdrowy rozsądek".26 Prawdziwym przekleństwem dla GOFAI są problemy, z którymi my radzimy sobie bez wysiłku, takie jak rozpoznanie twarzy w tłumie, mówienie i interpretowanie języka, unikanie strzał, dzid czy lecących kamieni. Zasadniczymi przyczynami łatwości, z jaką rozwiązujemy takie problemy – co miało duże znaczenie dla ludzkiej ewolucji i przetrwania – są struktura i sposób funkcjonowania mózgu. Jeśli nie zrozumiemy, jak mózg dostosował się do takich zadań, nie będziemy w stanie go naśladować, nie mówiąc już o wykorzystaniu go do opanowania złożonych układów. Jak jeszcze wielokrotnie z naciskiem powtórzymy, jedną z najważniejszych cech mózgu jest zdolność do uczenia się wskutek oddziaływania z otoczeniem. Inną istotną cechą jest paralelizm. Gdy ktoś czyta to zdanie, jego system nerwowy jednocześnie kontroluje wiele innych procesów umysłowych oraz procesów zachodzących w jego ciele. Niektórych z nich jesteśmy świadomi, innych nie. Obecnie pojawiły się nowe nadzieje na skonstruowanie sztucznej inteligencji, co nastąpiło dzięki powrotowi do oryginalnych źródeł inspiracji Alana Turinga i Johna von Neumanna. Sieci neuronowe Jedną z pierwszych prób zaprojektowania komputera, mającego strukturę podobną do mózgu, można znaleźć w opracowaniu von Neumanna na temat komputera EDYAC. Widać tu wyraźnie wpływ pracy z 1943 roku A Logical Calculus of the Ideas Immanent in Nervous Activity27 Warrena McCullocha i Waltera Pittsa z Uniwersytetu stanu Illinois, którzy przedstawili matematyczny opis komórek mózgu. Ich pionierskie badania wykazały, że komórki nerwowe (neurony) mózgu, odpowiedzialne za procesy myślenia, stanowią logiczne przełączniki, działające zgodnie z regułami algebry Boole'a. McCulloch i Pitts dowodzili, że łącząc takie elementarne jednostki w "sieci neuronowe", można zbudować urządzenie zdolne do wykonywania dowolnych operacji rachunku zdań (praw logiki).28 McCulloch i Pitts stworzyli plan budowy sztucznej inteligencji "od dołu", wzorowany na paralelizmie połączeń neuronów w mózgu. Neurony otrzymują sygnały od innych neuronów za pośrednictwem pajęczyny połączeń, zwanych dendrytami, a wysyłają impulsy elektryczne przez długie wypustki – aksony. Ak-sony dzielą się na cienkie odgałęzienia, które kończą się synapsami, przekazującymi impuls do następnego neuronu. Uczenie się polega na tworzeniu, przerywaniu lub zmianie wagi połączeń między komórkami mózgu. Do budowy komputerowego modelu mózgu potrzebujemy abstrakcyjnej, logicznej reprezentacji każdego neuronu. Taki schemat przedstawia Ryc. 5.2. McCulloch i Pitts brali pod uwagę tylko sieć dwuwarstwową, w której neurony na pierwszym poziomie zbierają informacje dotyczące zewnętrznego świata, a połączenia między neuronami z obu warstw umożliwiają przetworzenie informacji i określenie odpowiedzi, pojawiającej się na "wyjściu" w drugiej warstwie. Ryc. 5.2. Bio-logika. Logiczna struktura biologicznego neuronu według McCullocha i Pittsa. Sztuczne sieci neuronowe stanowią bardzo uproszczoną logicznie realizację dużych zbiorów takich identycznych neuronów McCullocha-Pittsa, istniejącą w postaci programu komputerowego lub odpowiedniego układu elektronicznego. Mają wiele cech wspólnych z automatami komórkowymi, o których pisaliśmy w rozdziale 4. Każdy neuron należący do sieci (określany przez specjalistów od komputerów jako element przetwarzający, sztuczny neuron lub węzeł) jest połączony z wieloma innymi, które mogą znajdować się dowolnie daleko (Ryc. 5.3), natomiast komórki automatu są w stanie komunikować się tylko z najbliższym sąsiadami. Do zwiększenia zainteresowania sztucznymi sieciami neuronowymi przyczynił się również amerykański matematyk Norbert Wiener, publikując w 1947 roku książkę Cybernetics, w której zawarł opis nowej nauki, zajmującej się mechanizmami sterującymi w człowieku i maszynach.29 Zwrócił w niej uwagę na analogie między urządzeniami sterującymi maszynami i biologicznymi mechanizmami, dzięki którym mózg steruje ciałem.30 Nieco później Frank Rosenblatt, psycholog z Uniwersytetu Cornella, skonstruował sieć, którą nazwał per-ceptronem.31 Jego Mark I Perceptron z 1960 roku składał się z 400 fotokomórek, stanowiących prymitywny model siatkówki, oraz z jednostek kojarzeniowych. Każda taka jednostka łączyła sygnały z kilku fotokomórek i wysyłała sygnał do zespołu jednostek określających odpowiedź. Sieć tę można było nauczyć rozpoznawać litery, "karząc" ją za błędne odpowiedzi i zmieniając połączenia aż do osiągnięcia pożądanego wyniku. Choć praca Rosenblatta wydawała się bardzo obiecująca, dalsze badania w tym kierunku spotkał poważny cios. W 1969 roku ukazała się książka Marvina Minsky'ego i Seymoura Paperta Perceptrons, której autorzy ostro krytykowali sieci neuronowe Rosenblatta, preferując odgórną metodę GOFAI. "Po co się męczyć, projektując nowe, skomplikowane i prawdopodobnie niezdatne do użytku maszyny, skoro dobrze wypróbowane cyfrowe komputery były już o krok od zyskania inteligencji? -pisał z ironią Igor Aleksander z Imperiał College, jeden z badaczy, którym z trudem przyszło kontynuować badania po ataku Minsky'ego i Paperta. – Z dzisiejszej perspektywy widać, że rezygnacja z metody oddolnej była niczym nie uzasadnioną głupotą".32 Ryc. 5.3. Typowa architektura sztucznej sieci neuronowej. Zasadniczą część książki Minsky'ego i Paperta stanowiła analiza własności dwuwarstwowego perceptronu. Wykazali oni, że perceptron, w elementarnej postaci, jest pozbawiony jakichkolwiek interesujących cech.33 Niemal dwadzieścia lat później pojawiło się drugie wydanie Perceptrons, w którym autorzy bronią swego stanowiska; jak stwierdzają w prologu: "Od 1969 roku, kiedy to ukazało się pierwsze wydanie tej książki, nie zdarzyło się nic istotnego".34 Przyznają wprawdzie, że "niektórzy czytelnicy mogą być zaszokowani tym stwierdzeniem", a także że "dokonano odkryć, które w przyszłości mogą okazać się bardzo ważne", ale utrzymują, iż: "nie nastąpiły wyraźne zmiany w teoretycznych podstawach tej dziedziny". Ryc. 5.4. Przykład wielowarstwowego perceptronu z jedną warstwą ukrytą. Warto zwrócić uwagę, że istnieją tylko połączenia między neuronami należącymi do sąsiednich warstw. Poglądu tego nie podzielają "sieciowcy", a "symboliści", tacy jak Minsky i Papert, spokojnie twierdzą, że toczą z nimi wojnę.35 Najprostsze modyfikacje dwuwarstwowego perceptronu prowadzą do wielu nowych możliwości. W połowie lat osiemdziesiątych David Rumelhart i James McClelland z Uniwersytetu Kalifornijskiego w San Diego rozszerzyli możliwości perceptronów, wprowadzając dwie modyfikacje, i w ten sposób pokonali "podstawowe" ograniczenia, na jakie wskazali Minsky i Papert. Po pierwsze, dodali trzecią, ukrytą warstwę neuronów, umieszczoną między neuronami wejścia i wyjścia. Każdy neuron danej warstwy jest połączony ze wszystkimi neuronami z warstw sąsiednich, ale nie ma połączeń między neuronami z tej samej warstwy lub warstw bardziej odległych. Rysunek 5.4 przedstawia trzywarstwową sieć z jedną ukrytą warstwą, choć jest w pełni możliwe wprowadzenie większej liczby warstw (takie maszyny są raczej rzadkością).36 W ten sposób otrzymujemy wielowarstwowy perceptron (multilayer perceptron – MLP). Druga modyfikacja polegała na wprowadzeniu nowego algorytmu, zwanego metodą "wstecznego propagowania błędów" -lub krócej: metodą "wstecznej propagacji" – która pozwala sieci na skuteczną naukę.37 Metodę tę jako pierwszy zaproponował Paul Werbos w 1974 roku, podczas studiów doktoranckich na Harvardzie.38 Polega ona na trenowaniu sieci na przykładach, dla których znamy dane wejściowe i wyjściowe. I tak: sieć może się uczyć rozpoznawać ręczne pismo. Po pierwszej próbie odgadnięcia liter przewidywania sieci są porównywane z poprawną odpowiedzią i sieć zapamiętuje wynik. W tym momencie włącza się algorytm wstecznej propagacji; minimalizuje on błędy sieci, propagując błędy wstecz i zmieniając odpowiednio wagi połączeń, określających oddziaływania między poszczególnymi neuronami, aż – w idealnym przypadku – odszuka globalne minimum błędów. Gdy sieć znajdzie minimum, mówimy, że została wyćwiczona i jest gotowa do "generalizacji"; inaczej mówiąc, sieć może spróbować odcyfrować nie widziany wcześniej rękopis. Uczenie sieci za pomocą pejzażu błędu – którego koncepcja nie różni się od innych pejzaży dostosowań, z jakimi się zetknęliśmy, omawiając problemy optymalizacji – potrafimy dokładniej wyjaśnić. Algorytm kierujący uczeniem się wielowarstwowego perceptronu poszukuje najniższego punktu pejzażu, czyli najmniejszego błędu. Dla danej próbki ręcznego pisma pejzaż jest bardzo skomplikowaną funkcją wielu wag sieci. Podobnie jak w innych przykładach, poszukiwanie globalnego minimum błędu stanowi trudne zagadnienie optymalizacyjne, ponieważ pejzaż ten leży w wielowymiarowej przestrzeni. Jeśli na przykład znaczenie ma dwadzieścia połączeń, to powierzchnia błędów leży w przestrzeni dwudziestowymiarowej (Ryc. 5.5). Algorytm propagacji wstecznej poszukuje zaś globalnego minimum. Tę koncepcję krytykowano z kilku powodów. Algorytm często wpada w pułapkę, jaką tworzy minimum lokalne, i nie znajduje minimum globalnego. Jeśli pejzaż jest bardzo skomplikowany, pojawiają się problemy ze zbieżnością algorytmu. Te trudności można jednak pokonać.39 Ryc. 5.5. Pejzaż możliwości. Powierzchnia błędów w przestrzeni wag stanowi jeszcze jeden przykład pejzażu (por. Ryc. 4.6). Od szkle! spinowych do sieci neuronowych Sherrington i Kirkpatrick z pewnością nie przypuszczali, że ich model szkła spinowego z oddziaływaniami o nieskończonym zasięgu pomoże wyjaśnić działanie sztucznych sieci neuronowych, a także pewne aspekty funkcjonowania mózgu. Związek między szkłem spinowym i sieciami neuronowymi nie wynika z fizycznego podobieństwa – którego brak – lecz bardziej abstrakcyjnej analogii pojęciowej. Ma ona jednak duże znaczenie, ponieważ ilustruje wzajemną wymianę idei, dotyczących złożonych układów ożywionych i nieożywionych. Związek między szkłem spinowym i zbiorowiskiem komórek nerwowych tworzących mózg wynika z tego, że w obu przypadkach pojedyncze jednostki (spiny lub neurony) mogą oddziaływać nawet wtedy, gdy są bardzo odległe. Ponieważ sprzężenia między neuronami w sieci działają pobudzająco lub hamująco – czyli mogą zwiększyć lub zmniejszyć prawdopodobieństwo, że neuron przekaże sygnał – między neuronami często dochodzi do sprzeczności interesów. Te konflikty w sieci neuronowej, podobnie jak zjawisko frustracji w szkle spinowym, omówione w rozdziale 4., bardzo utrudniają określenie globalnego stanu sieci poddanej zewnętrznym bodźcom. Próby zbadania skutków bodźca działającego na dużą sieć neuronową z wieloma połączeniami bardzo przypominają eksplorację pejzażu energii swobodnej szkła spinowego w celu znalezienia globalnego minimum. Ryc. 5.6. Sieć Hopfielda – sieć neuronowa z maksymalną liczbą połączeń. John Hopfield z Caltech pierwszy zdał sobie sprawę z głębokiej analogii między sieciami neuronowymi i magnetycznymi własnościami szkła spinowego. Wykazał on, że istnieje matematyczne odwzorowanie modelu Sherringtona-Kirkpatricka szkła spinowego na prostą sieć neuronową z maksymalną liczbą połączeń {Ryc. 5.6), zwaną obecnie siecią Hopfielda.40 W takiej sieci każdy neuron jest połączony ze wszystkimi innymi, natomiast w modelu Sherringtona-Kirkpatricka każdy spin odczuwa obecność wszystkich pozostałych. Proszę zwrócić uwagę, że sieć Hopfielda zdecydowanie różni się od sieci MLP, które opisaliśmy wcześniej. Wobec tego cała maszyneria mechaniki statystycznej, służąca do analizy szkła spinowego, nadaje się również do badania różnych problemów sieci neuronowych. Fizyka szkła spinowego przyczyniła się do wyjaśnienia dwóch ważnych aspektów działania sieci neuronowych. Po pierwsze, szkło spinowe tłumaczy globalne zachowanie sieci o określonej architekturze i ustalonych wagach. Po drugie, teoria szkła spinowego dostarcza metody wyboru wag w taki sposób, by zoptymalizować działanie sieci, niezależnie od tego, czy ma ona rozpoznawać podpis, czy odczytywać tablice rejestracyjne samochodów. Praca Hopfielda, opublikowana w 1982 roku, przyczyniła się w znacznej mierze do ponownego wzrostu zainteresowania sieciami neuronowymi na całym świecie (a zwłaszcza" w Stanach Zjednoczonych); wcześniej badania te zamarły wskutek krytyki Minsky'ego i Paperta. Hopfield uważał, że jego sieć neuronowa może stanowić podstawę praktycznej pamięci dostosowanej do potrzeb dużych baz danych, tak zwanej pamięci adresowanej zawartością. Pamięć taka, zwana również pamięcią asocjacyjną, naśladuje metody, jakie człowiek wykorzystuje do gromadzenia i przypominania sobie informacji. W zwykłych komputerach dane są magazynowane w uporządkowany sposób, zazwyczaj w oznaczanych (numerowanych) zbiorach. Oznaczenia te możemy uważać za adresy. Aby uzyskać dostęp do określonych danych, użytkownik musi określić odpowiedni adres i komputer odszukuje dane. Ta metoda jest delikatna, w tym sensie, że najdrobniejszy błąd w adresie powoduje katastrofę – albo program pada, albo korzysta z niewłaściwych danych. Takim niepowodzeniom ma zapobiec (kontekstowe) adresowanie zawartością. Użytkownik określa jakieś kluczowe słowo lub słowa z danego zbioru – nawet niepełne lub niepoprawne – a następnie system przeszukuje bazę danych i odnajduje pełny zapis potrzebnych informacji. Baza danych, zawierająca informacje na temat literatury, potrafiłaby skojarzyć "z gleby pamięci wyrwać z korzeniami boleść, z mózgu wymazać zapis trwóg i udręk"41 z Makbetem Szekspira. Nie jest to nowa idea – od dawna krążyła ona wśród inżynierów oraz naukowców zajmujących się komputerami i już wcześniej została zrealizowana.42 Nowość sieci neuronowych kryje się w tolerancji, z jaką traktują one błędne lub fragmentaryczne dane.43 Ryc. 5.7. Pejzaż przyciągający. Stabilny układ działania w otoczeniu atraktora sieci neuronowej. Wynik działania sieci zależy od danych wejściowych i stanowi jeden z "atraktorów" sieci. Wydawałoby się, że spis pobudzonych neuronów sieci Hopfielda w dowolnej chwili będzie zupełnie przypadkowy, ale na ogół układy, pojawiające się podczas działania sieci, ewoluują ku pewnym zorganizowanym formom, w których jedne neurony są nieustannie pobudzone, a inne pozostają w spoczynku. Forma taka zależy od "bodźca", czyli danych wejściowych, określających, które neurony są pobudzone w chwili początkowej (Ryc. 5.7). Liczne sprzężenia zwrotne między neuronami powodują, że znaczenia nabierają zjawiska nieliniowe; sieć stanowi nieliniowy układ dynamiczny. Takimi układami zajmiemy się bardziej szczegółowo w rozdziale 6. Dla dobrze określonego zbioru początkowych poziomów pobudzenia neuronów – warunków początkowych, zadanych przez zewnętrzny bodziec – sieć ostatecznie osiąga pewien typ aktywności, będący atraktorem dla zbioru danych początkowych. Podobnie jak odpowiednio wyćwiczona sieć MPL do rozpoznawania pisma odręcznego rozpoznaje literę "a" w słowie aarduark, niezależnie od charakteru pisma, tak samo różne dane początkowe mogą doprowadzić do tego samego atraktora sieci Hopfielda. Taki zbiór danych początkowych (bodźce zewnętrzne) nazywamy obszarem lub basenem przyciągania atraktora. Z tego powodu sieci neuronowe ze sprzężeniem zwrotnym, takie jak sieć Hopfielda, określa się czasem jako atraktorowe sieci neuronowe.44 Podobnie działa ludzka pamięć: wszystkie bodźce należące do danego obszaru przyciągania powodują, że sieć neuronów w mózgu znajduje się w określonym stanie pobudzenia. Ów stan zawiera zakodowaną informację, kojarzoną z tymi bodźcami. Bodźcem mogą być na przykład różne obrazy tej samej twarzy: w różnym oświetleniu, z krótkimi i długimi włosami, z brodą lub bez, a atraktorem – "Jaś Kowalski". Wobec tego sieć potrafi zapamiętać tyle różnych informacji, ile zawiera atraktorów. Atraktory te wolno uważać za lokalne minima powierzchni błędu, zdefiniowanej w podobny sposób, jak w przypadku wielowarstwowego perceptronu.45 Dla twórców MLP, Rumelharta i McLellanda, najważniejszym problemem była zdolność sieci do uczenia się, ale nie odegrało to szczególnej roli w rozwoju koncepcji Hopfielda. Jego sieć przypomina informację zapisaną w danych początkowych. Hopfield zdawał sobie jednak sprawę, że podstawą uczenia się w neurobiologii jest zasada sformułowana przez kanadyjskiego psychologa Donalda Hebba w książce Organisation of Behavior, opublikowanej w 1949 roku. Hebb wysunął hipotezę, że podczas procesu uczenia się waga połączenia między neuronami wzrasta, jeśli oba neurony są pobudzane jednocześnie, a maleje, gdy pobudzany jest tylko jeden.46 Hopfield wykazał, że jeśli wagi połączeń między neuronami w sieci są zmieniane zgodnie z regułą Hebba, powoduje to zmiany w ukształtowaniu pejzażu błędu tej sieci. Niektóre doliny pogłębiają się, inne stają się płytsze. Wobec tego wielokrotne działanie zewnętrznego bodźca – czyli nauka lub trening -zmienia sposób pobudzania neuronów w sieci Hopfielda, działającej zgodnie z zasadą Hebba. Współpracując z Davidem Tankiem, Hopfield wykazał następnie, że jego sieć może poradzić sobie z "trudnymi" problemami klasy NP, w tym również z problemem komiwojażera.47 Stwierdzili oni, że choć poszukiwania rozwiązania czasami powodują ugrzęźnłęcie w lokalnym minimum, w praktyce sieć często znajduje rozwiązanie bliskie optymalnemu. Groźba utknięcia w lokalnym minimum powoduje jednak, że można mieć wątpliwości co do możliwości tej metody. W 1984 roku Geoffrey Hinton z Uniwersytetu Carnegie Mellon w Pittsburghu i Terry Sejnowski, pracujący wówczas na Uniwersytecie Johna Hopkinsa w Baltimore, zaproponowali wykorzystanie metody symulowanego wyżarzania w tak zwanej maszynie Boltzmanna – ulepszonej sieci Hopfielda, nazwanej tak dla uczczenia Ludwiga Boltzmanna, wielkiego austriackiego fizyka, jednego z twórców mechaniki statystycznej. Podobnie jak przypadkowe ruchy cieplne atomów, występujące podczas wyżarzania, pomagają atomom utworzyć najbardziej uporządkowaną sieć krystaliczną, tak samo symulowany szum w komputerze może wstrząsnąć siecią neuronową, tak aby opuściła lokalne minimum i skierowała się do najgłębszej doliny w pejzażu błędu.48 Jak poprzednio, poziom szumu jest stopniowo redukowany, dzięki czemu sieć z biegiem czasu zmierza do coraz bardziej stabilnego minimum, zawierającego najwięcej informacji.49 Maszyna Boltzmanna steruje siecią neuronową, tak aby dążyła ona do określonych stanów z prawdopodobieństwem określonym przez błędy każdego z tych stanów ("energie"), czyli od głębokości pejzażu w danym punkcie.50 Sieci Boltzmanna nie tylko potrafią lepiej rozwiązywać problemy NP, ale również mogą magazynować ogromną ilość informacji i szybko odnajdywać potrzebne dane. Dla określonych danych sieć może odszukać ogromną ilość informacji skojarzonej z danymi bez konieczności stosowania formalnej procedury poszukiwań. Niestety, sieci Boltzmanna należą do najwolniej działających sieci neuronowych.51 Szok nowości Mózg ludzki jest dostosowany do radzenia sobie z nowymi i nieoczekiwanymi sytuacjami – wie na przykład, jak masz się zachowywać, gdy w pobliżu wywróci się stragan z jabłkami. Natomiast dla prostych sztucznych sieci neuronowych, takich jak wielowarstwowy perceptron, nowość potrafi być poważnym problemem. Jedna zupełnie nowa informacja może naruszyć układ wag sieci. Powoduje to zmiany pejzażu, czyli wewnętrznej reprezentacji sieci – pojawiają się nowe szczyty i doliny. Oznacza to, że sieć trzeba ponownie wytrenować, co zazwyczaj wymaga dużo czasu. Często wolelibyśmy, żeby sieć była zdolna do nauki adaptacyjnej, czyli "nauki podczas pracy". Nowe informacje, dodane do starych, nie powinny powodować katastrofy. Jest jasne, że optymalnie wytrenowana sieć powinna być jednocześnie stabilna i otwarta na nowe informacje; tę cechę zazwyczaj określa się jako plastyczność. Mamy zatem do czynienia z dylematem: stabilność czy plastyczność. Większość sieci wykazuje brak dostatecznej stabilności. Amerykański matematyk i informatyk, Stephen Grossberg, współpracując z Gail Carpenter, opracował sieć zdolną do stałej nauki. Jest to samoorganizująca się sieć neuronowa, to znaczy złożona z sieci, które nie wymagają treningu ani nadzoru.52 Grossberg i Carpenter nazywają ją siecią adaptacyjną, ponieważ jej konstrukcja opiera się na biologicznych modelach zachowania i poznania. Adaptacyjno-rezonansowe dwuwarstwowe sieci (odaptwe resonance theory – ART) potrafią bardzo szybko wykrywać pewne uogólnienia i uczyć się ich.53 Nazwa tych sieci wywodzi się od analogii ze zjawiskiem rezonansu, w którym słabe drgania – z częstością zgodną z częstością naturalnych drgań układu mechanicznego albo elektrycznego -powodują wystąpienie oscylacji o bardzo dużej amplitudzie. Czasami ma to druzgocące skutki, na przykład gdy śpiewak operowy trafi w częstość rezonansową szklanego naczynia lub żyrandola. Podobnie jest, kiedy informacja rozchodząca się przez sieć ART oscyluje między warstwami neuronów – sieć uczy się podczas rezonansu. Sieci ART w pełni wykorzystują jedną z naturalnych zalet sieci neuronowych – ich paralelizm. Jeden z typów takich sieci (ART-3) korzysta z równań modelujących dynamikę neuroprzekaźników, związków chemicznych przenoszących sygnały w mózgu.54 Dowody użyteczności takich sieci można znaleźć na rynku. Podobnie jak inne sieci, sieci ART coraz częściej spotyka się w wielu gałęziach przemysłu. Na przykład w zakładach Boeinga w Seattie taka sieć jest stosowana do zapamiętywania i klasyfikowania projektów. Dzięki temu każdy nowy projekt można szybko porównać ze starymi i znaleźć podobny już istniejący. Powtórne wykorzystanie starego projektu często przynosi duże oszczędności w procesie planowania i produkcji danego elementu.55 Sieć neuronowa: zrób to sam Specjaliści z całego świata budują obecnie sieci neuronowe, mające wykonywać najróżniejsze zadania. Najbardziej rozpowszechnione są wielowarstwowe perceptrony z algorytmem uczenia się metodą wstecznej propagacji. Ich naturalna elastyczność pozwala modelować najróżniejsze związki, na przykład między ruchami pióra i literami, kursami akcji i walut. Zamiast jednak prowadzić abstrakcyjne rozważania, omówmy konkretny przykład: zastosowanie sieci neuronowej do przewidywania momentu twardnienia cementu.56 To zagadnienie ma duże znaczenie w górnictwie naftowym i budownictwie, ponieważ często musimy wiedzieć, ile mamy czasu na manipulowanie zaprawą, nim ta stwardnieje. Ryc. 5.8a. Analiza cementu. Widmo absorpcyjne typowego cementu w zakresie promieniowania podczerwonego. Właśnie dlatego, że wiemy tak niewiele o cemencie, a zwłaszcza o związku między własnościami proszku przed zmieszaniem z wodą i czasem twardnienia po zmieszaniu, sieci neuronowe stanowią doskonałą metodę opanowania tego materiału. Zespół uczonych z Schlumberger Cambridge Research Laboratory zdołał ustalić związek między mierzalną własnością cementu w proszku – widmem absorbowanego promieniowania podczerwonego – a czasem twardnienia. Stąd widmo absorbowanego promieniowania stanowi informację podawaną sieci. Ryc. 5.8a przedstawia typowe widmo absorpcyjne cementu w podczerwieni. Wynikiem działania sieci jest krzywa obrazująca proces twardnienia cementu po zmieszaniu z wodą – przedstawiona na Ryc. 5.8b. Ryc. 5.8b. Twardnienie cementu. Krzywa przedstawia przebieg zastygania cementu. Sieć ma ustaloną liczbę neuronów na wejściu i wyjściu, ale nic nie określa, ile powinna mieć neuronów w ukrytej warstwie. Wybór liczby neuronów w tej warstwie często przypomina czarną magię. Znamy tylko kilka praktycznych reguł, przeto często trzeba wypróbowywać warianty sieci z różną liczbą neuronów w ukrytej warstwie – stopniowo pojawiają się bardziej wyszukane metody rozwiązywania tego problemu. Niedawno została opracowana technika ustalania optymalnej liczby neuronów za pomocą algorytmu genetycznego. Algorytm wybiera najlepszą sieć do rozwiązania danego zadania, korzystając z metody ewolucyjnego programowania Hollanda. Gdy już mamy gotową sieć, musimy ją "wytrenować", czyli nauczyć rozwiązywać zadane problemy. W naszym przykładzie sieć musi otrzymać wiele przykładów widma cementu w podczerwieni; za każdym razem na wyjściu podajemy także "właściwą" odpowiedź w postaci krzywej twardnienia cementu. Początkowo nie wyćwiczona sieć odczytuje każde widmo i propaguje je przez liczne połączenia do neuronów na wyjściu, modyfikując je w zależności od siły powiązania, czyli wagi. Początkowe wartości wag są czysto przypadkowe. Następnie jednak algorytm propagacji wstecznej zmienia wagi, tak że sieć stopniowo uczy się związku między widmem i szybkością twardnienia. Sieć działa w taki oto sposób. Każdy neuron w ukrytej warstwie otrzymuje sygnał z każdego neuronu na wejściu. Neurony sumują sygnały i – zależnie od tego, czy suma przekroczy ustalony próg – decydują, czy wysłać sygnał. Neuron działa jak zapora przeciwpowodziowa, która otwiera się, gdy poziom wody ze wszystkich strumieni docierających do sztucznego zbiornika przekroczy ustaloną wartość. W praktyce dowolny neuron tylko wyjątkowo jest całkowicie pobudzony lub wyłączony. Zazwyczaj gdy wzrasta natężenie sygnału dochodzącego z wejścia, szybko rośnie również natężenie sygnału, wysyłanego do neuronów w warstwie ukrytej lub na wyjściu.57 W pierwszym okresie nauki wynik produkowany przez sieć dla danego widma w ogóle nie przypomina rzeczywistej krzywej twardnienia cementu (Ryc. 5.8b). W miarę upływu czasu zmiany bardzo licznych wag powodują redukcję błędów. Wagi zmieniane są w taki sposób, żeby zminimalizować różnice między zmierzonym i obliczonym czasem twardnienia cementu. Proces ten trwa, dopóki błędy nie zmniejszą się do akceptowanego poziomu. W naszym przykładzie nauka sieci typu MPL – z użyciem 120 widm cementu – trwała około dwóch godzin.58 Ryc. 5.9. Sieć neuronowa używana do przewidywania czasu twardnienia cementu. Na wejściu podajemy informacje dotyczące widma w podczerwieni, na wyjściu otrzymujemy oceny zachowania się cementu. Teraz sieć można poddać prawdziwej próbie. Tym razem podajemy sieci tylko nowe widmo. Sieć nie ma żadnego nauczyciela, który mógłby jej podpowiedzieć: musi sama uogólnić przypadki poznane podczas okresu ćwiczeń i znaleźć krzywą twardnienia. Jeśli trening przebiegał właściwie i nowe widmo nie różni się radykalnie od wszystkich poprzednich, wolno oczekiwać, że wynik będzie zgodny z rzeczywistością. Początkowo przewidywania sieci porównujemy z wynikami doświadczalnymi. Jeśli zgodność jest zadowalająca, można użyć sieci do analizy cementu, dla którego nie znamy krzywej twardnienia. Tak właśnie wykorzystuje się omawianą sieć. Została ona zainstalowana na niewielkim komputerze osobistym, połączonym z aparaturą do mierzenia widma cementu. Wynik możemy otrzymać w ciągu kwadransa, zamiast czekać sześć godzin i mierzyć, co dzieje się z cementem59 – co ciekawe, niemal całe piętnaście minut trwają pomiary widma, sieć podaje wynik niemal natychmiast. Pozwala to na ogromną oszczędność czasu i pracy oraz znacznie przyśpiesza analizę wielu próbek cementu. Jak się już przekonaliśmy, wielowarstwowy perceptron ma tendencję do wpadania w lokalne minima. W wielu przypadkach lepsza okazuje się nieco inna sieć, wykorzystująca bazę funkcji radialnych.60 Takie sieci mają podobną strukturę jak wielowarstwowy perceptron, ale ponieważ dane początkowe o zbliżonych atrybutach (w przypadku cementu – o takich samych widmach) są automatycznie łączone w grupy, neurony w warstwie ukrytej mają lepiej dobrane stałe sprzężenia61 -dzięki temu sieć można trenować, posługując się liniową matematyką. To bardzo przyspiesza naukę i gwarantuje, że wyćwiczona sieć znajdzie globalne minimum. Jak pokazuje przytoczony przykład, fascynującą cechą sieci neuronowych jest to, że nie wymagają one specjalistycznego oprogramowania. Sieć nie musi nic wiedzieć o fizyce i chemii cementu: działa dostatecznie sprawnie, żeby bez żadnych dodatkowych informacji znaleźć związek między składem, określonym przez widmo, a przebiegiem twardnienia – zapewne przekracza to ludzkie możliwości. Mimo wielkiej skuteczności tej metody, niektórzy są z niej niezadowoleni, gdyż uważają, że w ten sposób czarna magia zastępuje naukę. W rzeczywistości często można "przesłuchać" wyćwiczoną sieć, aby poznać jej odkrycia i zinterpretować je w zrozumiały dla nas sposób. Problem ten stanowi jeden z aspektów podziału wśród uczonych, który często uwidacznia się w tej książce: jedni szukają czystych, zrozumiałych odpowiedzi matematycznych, innym wystarcza poprawny wynik. Gdybyśmy wybierali tylko takie problemy, dla których można znaleźć elegancką odpowiedź, przeważająca większość rzeczywistych problemów pozostałaby na zawsze nie rozwiązana. Sieć neuronowa Sieci neuronowe znajdują obecnie imponującą liczbę zastosowań. Jedna z pierwszych sieci, która trafiła na rynek, to sieć Wisard (Wilkie, Stonham and Aleksander's Recognition Device), którą można było nauczyć rozpoznawania różnych obiektów -sieć potrafiła na przykład stwierdzić, czy jej brytyjscy twórcy uśmiechają się, czy też gniewnie się marszczą. Metody rozpoznawania obrazów znajdują wiele innych zastosowań. Mogą służyć do identyfikowania podwodnych celów na podstawie sygnałów sonaru, poszukiwania chorych lub rakowych komórek w upławach z macicy oraz odczytywania ręcznie zapisanych adresów na listach.62 Airline Marketing Tactician to wielowarstwowy perceptron, służący do przewidywania popytu na przeloty pasażerskie, a inne sieci MLP wykrywają anomalie w skurczach serca, prognozują fluktuacje kursów giełdowych i oceniają wiarygodność kredytową klientów banków, czyli decydują o tym, komu warto pożyczyć pieniądze. Jednym z najbardziej udanych zastosowań sieci okazał się system do klasyfikowania tusz wieprzowych, zaprojektowany przez duńskich uczonych. Metoda ta – autorstwa Hansa Thodberga z Duńskiego Instytutu Badań Mięsa – jest obecnie stosowana do oceny zawartości mięsa i tłuszczu w ponad dwudziestu milionach tusz rocznie.63 Każda tusza trafia do maszyny, gdzie dziewięć optycznych czujników odróżnia białe sadło od czerwonego mięsa. Na podstawie tych danych sieć neuronowa ocenia jakość tuszy; maszyna ocenia 360 tusz na godzinę z dokładnością do 1,5%, czyli lepszą niż ta, którą osiągają normalni inspektorzy, choć pod względem inteligencji sieć składająca się z dwustu neuronów nie dorównuje zapewne robakom. "To bardzo prosty mózg, ale został zaprojektowany tak, aby rozwiązywał akurat ten jeden problem" – powiedział Thodberg. Elementy przetwarzające informacje w sieciach neuronowych są rozłożone i działają równolegle. Ma to ważną konsekwencję – sieci neuronowe są tolerancyjne na błędy: jeśli jeden z neuronów przestaje działać (umiera, mówiąc językiem biologii), system może funkcjonować dalej, nie robiąc poważnych błędów. W miarę jak psują się kolejne neurony, ogólna sprawność sieci stopniowo się pogarsza. Taka odporność na uszkodzenia ma oczywiste zalety, zarówno w naturze, jak i w naszym technicznym społeczeństwie. Często lepiej jest skorzystać z niewrażliwej na defekty maszyny z wieloma procesorami, niż polegać na bezbłędnym działaniu jednego procesora, jak w komputerach von Neumanna. Jeśli taki procesor przestanie działać, zawodzi cały system, co powoduje poważne problemy, takie jak katastrofa samolotu lub błędy w sterowaniu satelitą o wartości miliardów dolarów. Można również łączyć idee sieci neuronowych i ewolucji darwinowskiej. Shara Amin i Jose-Luis Fernandez z British Telecommunications Laboratories w Martlesham Heath uruchomili proces ewolucyjny na samoorganizującej się sieci, aby znaleźć efektywne rozwiązanie problemu komiwojażera dla 35 000 miast.64 Jest to najnowsze osiągnięcie w długiej serii rozwiązań dla coraz większej liczby miast. W 1954 roku matematycy z Rand Corporation w Kalifornii podali trasę dla 49 miast. W 1992 roku zespół z AT&T Bell Laboratories w New Jersey, z Uniwersytetów Rice'a, Rutgers i Bellcore zdołali rozwiązać problem dla 3038 miast, co wymagało 18 miesięcy pracy komputera. Zespół angielski rozpoczął od przypadkowej trasy, składającej się z sieci wirtualnych węzłów, odpowiadających poszczególnym przystankom, a następnie "wyhodował" kolejne rozwiązania. Program działa w dwóch krokach. Najpierw oblicza, jak daleko znajduje się dany węzeł od miasta, określając przyciąganie grawitacyjne między nimi. Następnie program przesuwa węzły w kierunku zgodnym z siłą wypadkową i zastępuje przesunięte węzły dwoma (lub więcej) innymi punktami. Proces reprodukcji zachodzi zgodnie z regułami biologii: nowe przystanki nie mogą się mnożyć już w następnym kroku, lecz -podobnie jak dzieci – muszą osiągnąć dojrzałość. "Jeśli pozwolę punktom na natychmiastową reprodukcję, wynik symulacji pogarsza się o 20%" – zauważyła Shara Amin. Tak jak to się dzieje w darwinowskiej ewolucji, program eliminuje przystanki, które w ogóle trudno jest przesunąć. Proces reprodukcji i wymierania powtarza się wielokrotnie; niezależnie od liczby miast algorytm daje rozsądną odpowiedź w rozsądnym czasie. "Osiągnęliśmy właściwy kompromis między czasem i dokładnością obliczeń" – powiedziała Amin. Metoda ta jest tak skuteczna, że British Telecom już ją wykorzystuje do rozwiązywania problemów związanych ze sterowaniem połączeniami. Lekcja Natury Opisane w tym rozdziale metody pozwoliły na rozstrzygnięcie wielu problemów obliczalnych w teorii, ale praktycznie nierozwiązywalnych, to znaczy należących do klasy NP. Wiele z tych nowoczesnych metod obliczeniowych powstało pod wpływem bezpośredniej inspiracji zjawiskami naturalnymi. Metody te stanowią bardzo skuteczne narzędzie, pozwalające zrozumieć złożoność. W następnych dwóch rozdziałach przekonamy się, jak złożone procesy – podobne do opisanych powyżej – mogą powstać nawet w prostych okolicznościach. W takich sytuacjach wielu fizyków usiłuje wyjaśnić zjawiska, odwołując się do najprostszych cegiełek materii i oddziaływań elementarnych. To jałowy redukcjonizm. Lepszym językiem do opisu złożoności świata jest chemia. Nawet w bardzo prostych reakcjach chemicznych mogą wystąpić ' najróżniejsze złożone zjawiska; mamy tu zatem skuteczny, nieliniowy paradygmat powstawania struktur w przyrodzie. Wkrótce przekonamy się, jak chemia potrafi rozwiązywać nawet matematyczne problemy. Aby znaleźć najkrótszą drogę w labiryncie lub doradzić robotowi, jak ma poruszać się wśród półek w magazynie, można pójść drogą wskazaną przez "chemiczną falę". Jest to rozchodzący się front reakcji chemicznej; który bada labirynt, podobnie jak fala chemicznej aktywność} bada sieci neuronów w mózgu. Znów mamy do czynienia z symbiozą między złożonością i obliczeniami. Tak jak chemiczne procesy mogą obliczać, tak samo komputer potrafi odsłonić tajemnice chemicznej złożoności, od struktur idealnie zorganizowanych do całkowicie chaotycznych. Przebieg tych procesów może zostać udoskonalony dzięki darwinowskiej ewolucji i ukształtowany przez przypadkowe zdarzenia, co powoduje powstanie ogromnej różnorodności świata ożywionego – zarówno wijących się bakterii, jak i szarżującego słonia. ROZDZIAŁ 6 ARTYZM NATURY I oto z ziemi budowla ogromna Wstaje [...] JOHN MILTON, Raj utracony (przekład Macieja Słomczyńskiego)1 Złożoność przejawia się na wielu poziomach natury, tworząc struktury wewnątrz struktur oraz nieskończoną piramidę wzorów. Dzięki temu powstały liczne style, równie różnorodne, jak malowidła naskalne, sztuka Renesansu i abstrakcyjny ekspresjonizm. W tym i w następnym rozdziale zwiedzimy galerię sztuki natury i zbadamy, w jaki sposób komputer ułatwia nam uzyskanie wglądu w zjawiska chemicznej samoorganizacji, które utorowały drogę do powstania organizmów żywych, umożliwiają procesy zachodzące w komórkach naszych ciał i wyjaśniają struktury utworzone przez społeczeństwa różnych stworzeń. Z historii znamy wiele fałszywych zapowiedzi rychłego wyjaśnienia złożoności natury. Słynny angielski fizyk teoretyk Paul Dirac stwierdził w 1929 roku, że wraz z powstaniem mechaniki kwantowej "podstawowe prawa fizyczne, konieczne do sformułowania matematycznej teorii znacznej części fizyki i całej chemii, zostały już całkowicie poznane".2 Skoro ludzkie ciało stanowi wspaniały kompleks reakcji chemicznych, czy to stwierdzenie oznacza, że można zredukować do mechaniki kwantowej miriady procesów, zachodzących w komórkach, organach wewnętrznych i mózgu? To intrygująca koncepcja. Niestety, po trwających ponad pół wieku zmaganiach z mechaniką kwantową chemicy zdołali zastosować jej prawa tylko do garstki niewielkich cząsteczek, w żadnej mierze nie dorównujących złożonością białkom obecnym w ludzkim ciele. Podstawowy problem nie sprowadza się do tego, że do rozwiązywania równań opisujących duże cząsteczki potrzebny jest duży komputer. Chodzi przede wszystkim o to, że w ten sposób pomijamy możliwość wystąpienia zasadniczo nowych zjawisk, wynikających z oddziaływań między bardzo dużą liczbą cząsteczek.3 Obliczanie funkcji falowej cząsteczek to bardzo kiepski początek prób zrozumienia chemicznej złożoności, nie mówiąc już o wyjaśnieniu chemicznych procesów samoorganizacji. W jaki bowiem sposób takie procesy powodują regularne zmiany koloru mieszaniny w zegarze chemicznym lub tworzą stabilną strukturę przestrzenną? I w jaki sposób takie same procesy doprowadziły do powstania życia w pierwotnej "zupie" miliardy lat temu? Nie chodzi o to, że natknęliśmy się tu na ograniczenia wynikające z twierdzenia Godła; po prostu wykorzystywanie mechaniki kwantowej do wyjaśniania przebiegu reakcji chemicznych przypomina wynajęcie samolotu do przejścia na drugą stronę ulicy. Byłaby to bardzo brutalna metoda. Zastosowanie komputera do rozwiązania równań mechaniki kwantowe} w połączeniu z wyszukanymi sztuczkami matematycznymi, zazwyczaj polegającymi na przyjęciu pewnych przybliżeń, pozwą-la symulować bardzo proste reakcje chemiczne, ale wyniki znacznie odbiegają od tego, z czym mamy do czynienia w rzeczywistej chemii.4 Takie obliczenia są zazwyczaj niewykonalne, przy czym czas potrzebny komputerowi na rozwiązanie równań zazwyczaj wzrasta jak bardzo duża potęga liczby elektronów. Zupełnie inna, znacznie skuteczniejsza metoda polega na zastosowaniu komputerów do rozwiązywania równań określających przebieg reakcji chemicznych, sformułowanych na "wyższym" poziomie. Mówiąc o wyższym poziomie, mamy na myśli opis, w którym wykorzystujemy własności makroskopowe, takie jak regularne zmiany koloru – tzn. stężenia różnych składników – mieszaniny związków chemicznych, które występują w tak zwanych chemicznych zegarach, a nie cechy mikroskopowe, odnoszące się do bilionów bilionów molekuł. Jeśli chcemy opisać własności emergencyjne, potrzebujemy pojęć odnoszących się do globalnych własności dużych zbiorów cząsteczek, takich jak zmiany stężenia i temperatury, gdyż inaczej grozi nam utonięcie w powodzi zbędnych detali. Na tym właśnie polega zadanie nauki o złożoności. Posługując się takimi narzędziami, jak nieliniowa dynamika, nierównowagowa termodynamika i komputery, możemy wyjaśnić tykanie chemicznego zegara oraz wiele innych złożonych zjawisk. Globalne spojrzenie Pojęciową paletę, używaną w fizyce i chemii do malowania obrazu makroskopowych zjawisk, stanowi zazwyczaj termodynamika, nauka o cieple i pracy, która powstała w XIX wieku, gdy silnik parowy stał się motorem rewolucji przemysłowej. Zamiast opisywać wszystkie szczegóły działania części silnika, takich jak tłoki, zawory i dźwignie, termodynamika zajmuje się jego cechami makroskopowymi – temperaturą działania, wykonaną pracą mechaniczną i wymianą ciepła z otoczeniem.5 Podobnie, gdy zachodzi chemiczna reakcja, termodynamika ignoruje biliony pojedynczych cząsteczek i zajmuje się tylko cechami globalnymi – temperaturą, ciśnieniem i tak dalej. Główny przedmiot zainteresowania tradycyjnej termodynamiki to stan równowagi, czyli zakończenie reakcji chemicznej. Jest to pod wieloma względami najmniej ciekawy stan materii: dla żywych organizmów oznacza on śmierć. Jednak przez grubo ponad sto lat – od powstania termodynamiki w połowie XIX wieku – większość fizyków koncentrowała swe wysiłki na wyjaśnianiu tego ponurego stanu. Główną regułą termodynamiki jest druga zasada, stwierdzająca, że dowolny układ makroskopowy, pozostawiony sam sobie, ewoluuje do stanu, który maksymalizuje entropię Wszechświata. Entropię termodynamiczną można uważać za wielkość-określającą zdolność układu do nieodwracalnej ewolucji w czasie. Mówiąc niezbyt precyzyjnie, wolno również uznać entropię za miarę przypadkowości lub też nieuporządkowania układu. Jak każdemu wiadomo, rzeczy pozostawione same sobie na ogół będą w bardziej nieuporządkowanym stanie końcowym, niezależnie od tego, czy mowa o ogrodzie, biurku czy też o sprawach finansowych. Drugą zasadę termodynamiki można uważać za naukowe sformułowanie tej prostej obserwacji. Zrozumienie działania drugiej zasady termodynamiki ułatwia metafora pejzażu. Teraz szczyty i doliny reprezentują zmiany zależnych wielkości termodynamicznych, takich jak stężenie reagujących związków chemicznych, wyrażonych w postaci funkcji zmiennych niezależnych – na przykład temperatury i ciśnienia – które decydują o stanie układu. Termodynamika równowagowa zajmuje się tylko jednym punktem tego pejzażu – końcowym stanem reakcji chemicznej, określonym przez drugą zasadę termodynamiki. Nie ma natomiast nic do powiedzenia o tym, jak mieszanina dąży do tego punktu, który – z oczywistych powodów – nazywamy atraktorem typu punktu stałego. Rzeczywistość nijak jednak nie przypomina nudnego stanu równowagi. Życie polega na wielu bardzo uporządkowanych procesach biochemicznych, od tych, które zachodzą podczas podziału komórek i skurczów serca, do reakcji towarzyszących trawieniu i myśleniu. Wszystkie te procesy są możliwe tylko dlatego, że układ – organizm -jest utrzymywany w stanie dalekim od równowagi. Aby opisać takie dynamiczne układy, musimy skorzystać z termodynamiki nierównowagowej, która dopuszcza istnienie wielu innych, bardziej skomplikowanych atraktorów. Termodynamika rzeczywistego świata Istnieje jedna siła, która utrzymuje biosystem naszej planety w stanie dalekim od równowagi i zapewnia, że Ziemia nie zmienia się w jałową pustynię: siłą tą jest niewyobrażalna liczba cząstek światła (fotonów), docierających do nas ze Słońca. Fotosynteza, proces, za którego pomocą rośliny wykorzystują energię promieniowania, aby przekształcić dwutlenek węgla w proste cukry, to podstawowe źródło energii dla żywych organizmów. Dopóki promienie słoneczne docierają do powierzchni Ziemi, dopóty nie zapanuje na niej stan martwej, zimnej równowagi. Nierównowagowa termodynamika dzieli się w naturalny sposób na dwie części. Nierównowagowa termodynamika liniowa opisuje układy w pobliżu równowagi, natomiast teoria nieliniowa zajmuje się układami dalekimi od równowagi. Jeśli interesuje nas przede wszystkim złożoność, to nawet nierównowagowa termodynamika liniowa nie ma dla nas specjalnego znaczenia. Jak w 1944 roku wykazał Ilya Prigogine, laureat Nagrody Nobla z Belgii, bardzo wiele układów nierównowagowych ma własności termodynamiczne, zbliżone do własności równowagowych.6 Natomiast jeśli układ znajduje się w stanie dalekim od równowagi, żadne proste prawo nie pozwala określić, jak będzie przebiegać jego termodynamiczna ewolucja. Wiadomo tylko, że ewolucji musi towarzyszyć dysypacja energii – zjawisko to wolno uważać za równoznaczne wzrostowi entropii. Dysypacja następuje podczas dowolnego procesu przemiany energii, niezależnie od tego, czy chodzi o sportowca wykorzystującego glikogen w mięśniach do przebiegnięcia maratonu, czy o żarówkę, w której energia elektryczna zmienia się w światło. Gdy dysypacja zachodzi w stanie dalekim od równowagi, może to doprowadzić do wystąpienia złożonych zjawisk, na przykład zegara chemicznego lub konwekcji w garnku z gotującą się wodą. Gdy usiłujemy zrozumieć złożone zjawiska, przekonujemy się, że potrzebujemy bogatszego języka niż ten, którego dostarcza nam termodynamika. Takim właśnie językiem jest dynamika nieliniowa. Dynamika nieliniowa, złożoność i komputery Dynamika nieliniowa, podobnie jak termodynamika, dostarcza makroskopowego opisu procesów zachodzących w stanie dalekim od równowagi.7 Różnica polega na tym, że nieliniowe równania dynamiczne mają znacznie bardziej ilościowy charakter. Nadają się równie dobrze do opisu zmian populacji brudnicy nieparki, jak i zmian stężenia substratów w chemicznej reakcji. Ponieważ równania te są nieliniowe, przewidują one bardzo wiele możliwych typów zachowań, od uporządkowanej ewolucji do "chaosu", i są w stanie wyjaśnić bogactwo świata, w którym żyjemy. Od jakichś dwudziestu pięciu lat w pełni wykorzystujemy ogromne możliwości dynamiki nieliniowej, a to dzięki wykładniczemu wzrostowi mocy obliczeniowej komputerów. Programy do badania nieliniowej dżungli z reguły są żarłocznymi konsumentami pamięci komputera.8 Analiza nieliniowości wymaga manipulowania ogromnymi zbiorami danych, pochodzących albo z doświadczeń, albo z teoretycznych równań. Gdy symulujemy zachowanie układu nieliniowego, potrzebujemy możliwie dużo pamięci dynamicznej RAM. Jeszcze niedawno uczeni prowadzący takie badania musieli korzystać z dużych komputerów typu mainframe; obecnie zastąpiły je wysokiej klasy stacje robocze, a nawet komputery osobiste. Dysponując takimi narzędziami, możemy modelować zjawiska nieliniowe. Przez grzanie do złożoności Nawet coś tak prostego, jak kałuża oleju, może posłużyć do zademonstrowania jednej z najbardziej intrygujących konsekwencji złożoności, mianowicie samoorganizacji – to znaczy spontanicznego powstania struktury uporządkowanej w czasie i przestrzeni. Jeśli ostrożnie ogrzejemy od dołu cienką warstwę oleju silikonowego, początkowa amorficzna jednorodność nagle zniknie, a zamiast niej pojawi się zbiór heksagonalnych komórek konwekcyjnych, przypominający plaster miodu.9 Te tak zwane komórki Rayleigha-Benarda, utworzone przez prądy konwekcyjne, można łatwo zaobserwować, posypując powierzchnię oleju proszkiem aluminiowym. Ryc. 6.1. Od chaosu ku porządkowi. Komórki Benarda w cienkiej warstwie podgrzewanego oleju silikonowego. Pojęcia zaczerpnięte z termodynamiki i dynamiki nieliniowej pozwalają – w pewnej mierze – opisać to zjawisko. Termodynamika mówi nam, że coś interesującego może się zdarzyć, ale nie określa, co to takiego. Zamiast tego koncentruje się na różnicy temperatur między górną i dolną powierzchnią płynu, przy której pojawiają się komórki Benarda. Temperatura określa punkt bifurkacji, który w istocie informuje nas, że można oczekiwać czegoś nowego. Słowo "bifurkacja" oznacza, że gdy temperatura przekroczy krytyczną wartość, ciecz może zachowywać się na dwa sposoby. Bliższe zbadanie komórek pokazuje, gdzie kryje się wybór: prąd konwekcyjny w sąsiednich komórkach płynie w przeciwnych kierunkach. Jednak wybór, w której komórce prąd płynie w daną stronę, jest konsekwencją interesującego współdziałania przypadku i determinizmu.10 Kierunek wirowania prądu konwekcyjnego w pojedynczej komórce zależy od wszechobecnych przypadkowych fluktuacji, wywołanych ruchami cząsteczek cieczy. Stanowią one ważne zarodki samoorganizacji. W pobliżu stanu równowagi prądy konwekcyjne w cieczy są słabe i ich działanie można pominąć. Podobnie jak szept, fluktuacje szybko słabną. Natomiast w stanie dalekim od równowagi dodatnie sprzężenie zwrotne może spowodować wzmocnienie mikroskopowego prądu konwekcyjnego. Pojawia się zorganizowany stan, który ogarnia cale naczynie – ciecz wygląda wtedy jak plaster miodu. Uczeni znający termodynamikę równowagową zapewne skłonni byliby przypuszczać, że w miarę zwiększania dopływu ciepła cząsteczki cieczy powinny poruszać się coraz szybciej i bardziej bezładnie w całym naczyniu. Jednak po powstaniu komórek Benarda stan oleju jest najwyraźniej bardziej uporządkowany niż przed zwiększeniem temperatury. Bardzo liczne cząsteczki poruszają się w skoordynowany sposób, dzięki czemu tworzą się heksagonalne komórki konwekcyjne. Aby docenić, jak mało jest to prawdopodobne, wyobraźmy sobie pudło wypełnione białymi i czarnymi kulkami. Odpowiednikiem podgrzewania cieczy jest teraz gwałtowne potrząsanie pudłem. Wyobraźmy sobie, że w ten sposób powstaje uporządkowany stan, na przykład wszystkie czarne kulki gromadzą się z prawej, a białe – z lewej strony pudła. Układ komórek konwekcyjnych równie zaskakuje: jego powstanie wymaga współpracy między ogromną liczbą cząsteczek. Można powiedzieć, że pojawienie się tego układu jest jeszcze bardziej zdumiewające, ponieważ korelacje w zachowaniu cząsteczek mają – relatywnie – znacznie większy zasięg niż w przypadku kulek. Siły między cząsteczkami cieczy zazwyczaj mają zasięg zaledwie jednej milionowej centymetra, natomiast zasięg samoorganizacji w takiej strukturze dysypatywnej wynosi około jednego centymetra. Układ zaczyna żyć własnym życiem, nie można go już dłużej uważać za przypadkową zbieraninę cząsteczek. Cząsteczki cieczy spontanicznie utworzyły pewną strukturę – obserwujemy samoorganizację. Uporządkowanie się zmienia, w miarę jak stan cieczy oddala się od równowagi. Zamiast plastra miodu mogą pojawić się wirujące spirale11 lub koła,12 a następnie powstają równoległe cylindry konwekcyjne. Samoorganizacja nie jest już tajemnicą. Takie złożone procesy można modelować za pomocą komputera, posługując się nieliniowymi równaniami hydrodynamicznymi. Procesy te są nieuchronną konsekwencją praw fizycznych, obowiązujących w stanie dalekim od równowagi.13 Samoorganizacja w chemii W naszych ciałach zachodzą bardzo liczne procesy chemiczne, przebiegające w stanie dalekim od równowagi, podobnie jak w przypadku podgrzewanej warstwy oleju. Aby nasze ciała mogły pozostawać w takim stanie, musimy jeść i wydalać. Nie jest przypadkiem, że nawet proste reakcje chemiczne mogą doprowadzić do spontanicznego powstania struktur przestrzennych i czasowych, gdy zachodzą w stanie dalekim od równowagi. Struktury takie – trwałe lub przelotne – powstają dzięki nieliniowym sprzężeniom zwrotnym w cyklu reakcji chemicznych i dyfuzji substratów. Rozmiary struktury zależą od składu mieszaniny i odległości od stanu równowagi. Teoria kwantowa w najlepszym wypadku daje tylko bardzo nieliczne wskazówki i nie pozwala zrozumieć zachodzących procesów. Lepiej radzi sobie z nimi termodynamika, która przynajmniej określa punkty bifurkacji, gdzie pojawiają się interesujące zjawiska chemiczne. Natomiast posługując się komputerem i metodami nieliniowej dynamiki, możemy dokładnie zbadać różnorodne zachowania złożonego układu. Mieszaninę reagujących związków chemicznych łatwo utrzymać w stanie dalekim od równowagi – w tym celu wystarczy pompować je do mieszalnika przepływowego, podobnego do tych, jakie często widzi się w zakładach chemicznych. Sub-straty wchodzą do zbiornika, miesza się je, aby zapewnić właściwy przebieg reakcji, a produkty reakcji są następnie odpom-powywane. Nieliniowość pojawia się wtedy, gdy jeden z produktów (nazwijmy go X) katalizuje proces swego wytwarzania. Takie sprzężenie zwrotne nazywamy autokatalizą. Ilość produkowanego w danej chwili związku X zależy od jego stężenia. Tego rodzaju sprzężenie zwrotne jest całkowicie analogiczne do mechanizmu, jaki działa, gdy podgrzewamy warstwę oleju lub sprzęgamy mikrofon z głośnikiem. W ten sposób bez wysiłku otrzymujemy układ, który umożliwia obserwowanie złożoności powstającej wskutek samoorganizacji. Alan Turing jako pierwszy przewidział takie nieliniowe struktury. Przedstawił swoje koncepcje w bardzo interesującym artykule, opublikowanym w "Philosophical Transactions of the Royal Society" (część B) w 1952 roku. Turing miał wówczas czterdzieści lat, pracował na Uniwersytecie w Manchesterze i chciał znaleźć chemiczny mechanizm powstawania organów i struktur w żywych organizmach – proces ten jest znany w biologii jako morfogeneza.14 Turing usiłował wytłumaczyć, jak żywy organizm przekształca mieszaninę związków chemicznych w strukturę biologiczną i jak po zapłodnieniu sferyczna grupa komórek zmienia się w dojrzały organizm. Jest to jedna z największych zagadek życia. Rozpatrzmy, na przykład, proces ga-strulacji, podczas którego embrion – kulka komórek – traci symetrię. Niektóre komórki tworzą głowę, inne ogon. Jeśli rozwój zaczyna się od kulki komórek, to można oczekiwać, że w toku nieodwracalnej dyfuzji i reakcji chemicznych kontrolujących rozwój zostanie zachowana symetria – w takim przypadku wszyscy wyglądalibyśmy jak wielkie kule. W swojej pracy Turing wykazał jednak, że możliwe jest złamanie symetrii i z zapłodnionej komórki jajowej mogą powstać skomplikowane organizmy. Mamy tu do czynienia z takim samym procesem, z jakim już się spotkaliśmy: w otoczeniu punktu równowagi termodynamicznej jednorodny, maksymalnie symetryczny stan jest stabilny, natomiast daleko od punktu równowagi stan taki staje się niestabilny i fluktuacje mogą zniszczyć symetrię. Turing zilustrował to zjawisko za pomocą analogii mechanicznej: "Jeśli pręt został zawieszony w punkcie nieco powyżej swego środka masy, pozostaje w stanie trwałej równowagi. Gdy jednak na ów pręt wdrapuje się mysz, w pewnym momencie równowaga zostanie naruszona i pręt zacznie się obracać".15 W rzeczywistości rzadko która komórka jajowa jest idealnie symetryczna, a w każdym razie różne czynniki, takie jak choćby przyciąganie ziemskie, łamią symetrię. Idee Turinga pozwoliły jednak doskonale opisać powstawanie różnych struktur w organizmach i w świecie nieożywionym. Są one ważnym elementem współczesnej biologii.16 Turing odkrył, jak efekty nieliniowe w mieszaninie chemicznej mogą doprowadzić do powstania przestrzennych struktur, gdy reagują ze sobą kolorowe substancje, rozpuszczone w cieczy i różniące się współczynnikiem dyfuzji. Ta teoria wydaje się sprzeczna z intuicją, która podpowiada, że nieodwracalne procesy mieszania powinny zatrzeć wszystkie pierwotnie istniejące struktury, tak jak się to dzieje, gdy dodajemy mleko do czarnej kawy. Turing i tym razem znacznie wyprzedził swoje czasy. Sformułował matematyczny przepis na generowanie oscylujących struktur, wyglądających jak kolorowe fale. Stwierdził również, że jeśli substraty dyfundują z różną szybkością – przy czym szybsze składniki mieszaniny tłumią reakcję, a wolniejsze ją podtrzymują – może powstać struktura stacjonarna. Punkt bifurkacji znajdujący się daleko od punktu równowagi, w którym powstają struktury stacjonarne, nazywamy obecnie niestabilnością Turinga. Przez następnych 15-20 lat chemicy i biolodzy właściwie pomijali pracę Turinga. Ta cisza trwała z kilku powodów. Aby poradzić sobie z trudnościami matematycznymi, Turing musiał jakoś obłaskawić swoje nieliniowe równania. W tym celu przyjął rozsądne założenie, że rozwiązania zachowują się w regularny, liniowy sposób w pewnej odległości za punktem bifurkacji, w którym załamuje się symetria przestrzenna. W ten sposób Turing mógł określić, gdzie powstaje struktura, ale nie potrafił opisać jej dalszej ewolucji, gdy układ oddala się od stanu równowagi. Turing zdawał sobie sprawę, że postęp wymaga szybkich komputerów, których wtedy jeszcze nie było. Poza tym przez kilkadziesiąt lat po ukazaniu się jego pionierskiej pracy nikomu nie udało się znaleźć reakcji chemicznej, w której powstawałaby stacjonarna struktura opisana przez Turinga. Brusselator Dwa wydarzenia przyczyniły się do ożywienia badań nad samoorganizacją po ukazaniu się pionierskich prac Turinga. Pierwszym było sympozjum w Pradze w 1968 roku, podczas którego zachodni uczeni dowiedzieli się o fascynującej reakcji Biełousowa-Żabotynskiego (za chwilę ją opiszemy); to skłoniło ich do badania analogicznych oscylacyjnych reakcji – zachodzących w żywych organizmach – takich jak fotosynteza i glikoliza, które dostarczają organizmom energii.17 Drugim wydarzeniem -nastąpiło ono również w 1968 roku – był artykuł ogłoszony przez Lefevera i Prigogine'a18; ten ostatni znał wyniki Turinga, ponieważ odwiedził Manchester akurat tego dnia, kiedy angielski uczony skończył swą pracę o morfogenezłe.19 Lefever i Prigogine sformułowali nieliniowy model dynamiczny układu reakcji chemicznych, zgodny z ich nieliniową termodynamiką i wykazujący cechy niezbędne do samoorganizacji. W 1973 roku John Tyson z Virginia Polytechnic University nazwał ten model brusselatorem, od miejsca, w którym powstał. Brusselator jasno ukazuje, jak sprzężenie zwrotne i nieliniowość prowadzą do samoorganizacji, kiedy bardzo liczne cząsteczki na pozór "komunikują się" między sobą i zachowują w bardzo złożony sposób. W brusselatorze dwa substraty, A i B, przekształcają się w produkty C i D. Zachodzą w tym czasie interesujące zjawiska nieliniowe, ponieważ proces ten składa się z czterech faz i uczestniczą w nim jeszcze dwa związki, X i Y. Szczegóły nie są skomplikowane. Cząsteczka A zmienia się najpierw w X; X reaguje z B i powstaje cząsteczka Y oraz produkt C. W trzeciej reakcji dwie cząsteczki X łączą się z jedną cząsteczką Y, po czym powstają trzy cząsteczki X. Następnie X bezpośrednio przekształca się w D. Sprzężenie zwrotne, konieczne do wystąpienia samoorganizacji, pojawia się w trzeciej reakcji, gdy z dwóch cząsteczek X powstają trzy. Związek X działa zatem jak autokatalizator. Nieliniowość związana jest z tym, że na każde dwie cząsteczki biorące udział w reakcji powstaje jedna dodatkowa. Brusselator można utrzymać w stanie dalekim od równowagi, bez przerwy dostarczając substratów. W tym celu wystarczy posłużyć się otwartym mieszalnikiem przepływowym. Wtedy udaje się utrzymywać stężenie związków A i B na pożądanym poziomie, regulując ich dopływ. Podobnie możemy kontrolować stężenie produktów C i D. Wówczas tylko stężenie X i Y zależy od czasu. Aby zbadać ich ewolucję, musimy rozwiązać matematyczne równania, opisujące brusselator. Mają one postać układu dwóch nieliniowych równań różniczkowych, określających stężenie związków X i Y. Śledząc zachowanie brusselatora, można się przekonać, jak złożona może być ewolucja opisana dwoma równaniami. Model jest na tyle prosty, że rozwiązanie da się znaleźć bez pomocy komputera. Jeśli założymy, że związek X jest czerwony, a Y niebieski, otrzymamy kolorowe struktury. Zacznijmy od końca reakcji. Wymieszane składniki reagują ze sobą i otrzymujemy stan równowagi termodynamicznej, w której ustają wszelkie chemiczne zmiany. Obserwujemy niezbyt interesującą, fioletową zupę -jednorodną mieszaninę cząsteczek czerwonych oraz niebieskich. Jeżeli stężenie związków A i B jest utrzymywane na poziomie bliskim równowagi, to niewiele się zmienia. Ciekawe zjawiska zaczynają się dopiero wtedy, gdy stężenie tych związków przekracza pewną wartość progową powyżej punktu równowagi. Wówczas, niezależnie od początkowego stężenia X i Y, występują oscylacje. Mieszanina zmienia kolor z czerwonego na niebieski i odwrotnie, przy czym zmiany są okresowe. Określamy to mianem niestabilności Hopfa, od nazwiska matematyka, który odkrył to zjawisko. Zmiany koloru można opisać za pomocą metafory pejzażu, tym razem umiejscowionego w tak zwanej przestrzeni fazowej. Poszczególne wymiary przestrzeni odpowiadają stężeniom związków uczestniczących w reakcjach. Oscylacje są spowodowane "uwięzieniem" zmiennych w okrągłej dolinie lub fosie. Mówiąc mniej metaforycznie, przebieg reakcji opisuje cykl w przestrzeni fazowej, zwany cyklem granicznym. Wystarczy zapamiętać, że gdy zmienia się kolor, odpowiednie zmienne poruszają się po okręgu, niczym kulka tocząca się wokół ronda kapelusza. Cykl graniczny to jeden z wielu rodzajów atraktorów. Każdemu punktowi na obwodzie okręgu odpowiada nieco inny kolor mieszaniny. Jeśli przestaniemy dodawać substraty, reakcja chemiczna dobiegnie końca, czemu w przestrzeni fazowej odpowiada punkt stały – atraktor reprezentujący stan równowagi. Ryc. 6.2. Zegar chemiczny. A. Dwuwymiarowy rzut atraktora: X i Y to stężenia dwóch związków chemicznych pośredniczących w reakcji (przyjmijmy, że jeden jest czerwony, a drugi niebieski). B. Trójwymiarowy rysunek, przedstawiający zmiany koloru z biegiem czasu. C. Zmiana rodzaju atraktora z punktu stałego na cykl graniczny. Parametr z określa oddalenie układu od stanu równowagi termodynamicznej. W punkcie bifurkacji wyłania się cykl graniczny i zegar chemiczny zaczyna tykać. Brusselator demonstruje, jak dzięki samoorganizacji z niezbyt obiecującej mieszaniny może się narodzić porządek. Gdy utrzymujemy układ z dala od punktu równowagi, stale dodając reagujące związki chemiczne, mieszanina w reaktorze regularnie zmienia kolor z czerwonego na niebieski i znów na czerwony. Taką oscylującą reakcję często określa się mianem zegara chemicznego, z uwagi na regularność cyklu.20 Regularne cykle przebiegają dopóty, dopóki zapewniamy stały dopływ substratów i odpływ produktów z reaktora. Przebieg tej reakcji z pewnością jest zaskoczeniem dla każdego, kto miał okazję obserwować tylko zwykłe procesy, demonstrowane na lekcjach chemii. Wydaje się, że wszystkie cząsteczki w brusselatorze "komunikują się" między sobą na bardzo dużą odległość i wiedzą, kiedy mają zmienić kolor. "Tyknięcia" zegara chemicznego, w miarę jak reakcja wędruje wokół fosy reprezentującej cykl graniczny, zależą tylko od własności fizycznych brusselatora, natomiast są zupełnie niezależne od początkowych stężeń X i Y. Podobnie jak komórka Benarda, jest to przykład struktury dysypatywnej. Określenie to wprowadził Prigogine, aby podkreślić przyczynę wystąpienia samoorganizacji w procesach zachodzących daleko od równowagi termodynamicznej. Termin ten zwraca uwagę na to, że dysypacja, często uważana za przyczynę rozpadu układów odizolowanych, może w rzeczywistości powodować przeciwny efekt – to znaczy umożliwiać powstanie złożonej struktury. Inne struktury dysypatywne to, na przykład, ludzki organizm, ekosystemy i światło laserów. Pojęcie struktury dysypatywnej znalazło zastosowanie w wielu różnych dziedzinach. Dzięki niemu uczeni zajmujący się naukami przyrodniczymi zainteresowali się równaniami nieliniowymi, wcześniej będącymi domeną matematyków. Podjęto badania chemii reakcji oscylacyjnych, ponieważ stanowią one względnie łatwy do modelowania i doświadczalnego analizowania przejaw złożoności. To z kolei doprowadziło do prób matematycznego modelowania procesów zachodzących w pojedynczych komórkach i układach wielokomórkowych. Okazało się, że oscylujące reakcje biochemiczne, które również można opisać za pomocą pojęcia cyklu granicznego, odgrywają bardzo ważną rolę w żywych organizmach. Ostatecznie, to przecież życie jest najbardziej zdumiewającym, uporządkowanym zjawiskiem chemicznym w przyrodzie. Wszystko to spowodowało gwałtowny rozwój nauki o złożoności. Struktury i fale chemiczne Zegary chemiczne kryją wiele sekretów złożoności. Dotychczas zajmowaliśmy się ewolucją w czasie. A co ze strukturami przestrzennymi Turinga? W naszych rozważaniach pomijaliśmy na razie jeszcze jeden potencjalnie istotny proces nierównowagowy – dyfuzję. Założyliśmy, że chemiczna mieszanina substra-tów jest tak dobrze wymieszana, że wszystkie substancje (A, B, C, D, X i Y) są jednorodnie rozłożone w całej objętości reaktora. Jest to dość nierealistyczne założenie, ponieważ musi minąć trochę czasu, nim się wymieszają wszystkie związki biorące udział w reakcji. Gdy zrezygnujemy z mieszania, nie możemy zakładać, że substancje pośredniczące w reakcjach X i Y oraz produkty C i D automatycznie są produkowane w jednakowych ilościach we wszystkich punktach naczynia. Wobec tego powinniśmy się zastanowić, co się dzieje, gdy w różnych częściach reaktora tworzą się niewielkie obszary, wypełnione jedną z substancji, która następnie musi się przemieścić, aby wziąć udział w reakcjach, prowadzących do wystąpienia sprzężenia zwrotnego. Aby opisać, jak cząsteczki biorące udział w reakcjach wędrują w reaktorze, nim zderzą się z innymi, musimy uwzględnić dyfuzję. Można to łatwo zrobić, włączając do odpowiednich równań człon pochodzący z "prawa Ficka", które wiąże stężenie substancji w danym punkcie z szybkością zmian stężenia w czasie. Stała proporcjonalności w prawie Ficka, wiążąca te dwie wielkości, to tak zwany współczynnik dyfuzji; zależy on od własności danego związku – duże cząsteczki dyfundują powoli, małe zaś rozchodzą się bardzo szybko. Współczynnik dyfuzji uwzględnia również lepkość ośrodka, w którym poruszają się cząsteczki. Za pomocą prawa Ficka możemy określić zależność między ewolucją mieszaniny związków chemicznych w czasie a powstawaniem struktur przestrzennych. To zadanie jest poważnym wyzwaniem dla metod obliczeniowych, używanych do symulowania złożonych procesów, ale za to mamy teraz do czynienia ze znacznie bogatszymi zjawiskami chemicznymi. Teraz cykl graniczny związany z niestabilnością Hopfa może opisywać zmiany nie tylko w czasie, ale i w przestrzeni. Dobrze znanym obiektem, zmieniającym się w czasie i przestrzeni, jest fala – na przykład morska. I rzeczywiście, w reakcji oscylacyjnej, którą rządzi niestabilność Hopfa, powinniśmy obserwować niebieskie i czerwone fale, rozchodzące się w reaktorze, nie zaś jednoczesne zmiany koloru w całej objętości reaktora. Możliwe jest również powstanie struktury przestrzennej, która nie zależy od czasu. W przypadku brusselatora w hipotetycznej probówce mogłyby się pojawić kolorowe kropki lub paski, będące przejawem niestabilności Turinga, o której już wspominaliśmy. Jak się przekonaliśmy, brusselator pozwala opisać różne warianty ewolucji, prowadzącej do samoorganizacji. Teraz wiemy już, że prosty nierównowagowy brusselator może prowadzić do samoorganizacji w czasie, w przestrzeni lub też w czasie i przestrzeni jednocześnie. Ten model matematyczny niesie jednak pewne ograniczenia, ponieważ jego wszystkie atraktory mają postać cykli granicznych. Bardziej złożona ewolucja wymaga zapewne bardziej złożonego atraktora. Zamiast eleganckiej orbity kołowej, opisującej regularne zmiany koloru, może wystąpić wijąca się orbita – w takim przypadku fazy odpowiadające różnym kolorom miałyby różną długość. Obowiązuje jednak ważna zasada: trajektorie, które układ zakreśla w przestrzeni fazowej, nie mogą się przecinać, gdyż prowadziłoby to do matematycznych absurdów. Ten warunek bardzo poważnie ogranicza możliwe typy ewolucji dynamicznej układu w dwóch wymiarach. Jeśli jednak dołączymy trzecią zmienną, opisującą stężenie jeszcze jednego związku chemicznego, owe ograniczenia znikają i możliwe się stają różne egzotyczne rodzaje ewolucji, opisywane przez odpowiednie atraktory. Crosskatalator Choć w przyrodzie nie istnieje nic takiego jak crosskatalator, układ ten doskonale ilustruje, jak prostota rodzi złożoność.21 Aby stworzyć crosskatalator, wystarczy dodać do brusselatora jeszcze jedną reakcję – na przykład taką, w której niebieski związek zmienia się w zielony. Wtedy pojawia się oszałamiająca liczba typów możliwych zachowań. Były one przedmiotem szczegółowych badań jednego z autorów, któremu pomagali koledzy z Schlumberger i Cambridge. Analiza wszystkich dziwnych zachowań crosskatalatora wymaga użycia komputera. Crosskatalator jest zapewne najprostszym układem chemicznym, zdolnym do złożonego zachowania, dzięki czemu stanowi doskonały środek na wszelkie jałowe dyskusje na temat złożoności. Model ten umożliwia badanie wszystkich typów złożonej ewolucji, jakie zdarzają się w reakcjach chemicznych. Jeszcze bardziej uderzające jest to, że jeśli dodamy kolejne reakcje do tych pięciu, które składają się na crosskatalator, mogą zniknąć pewne typy złożonego zachowania: wynika z tego morał, iż proste zwiększanie liczby zmiennych nie zawsze prowadzi do wzrostu złożoności.22 Aby zbadać możliwe typy ewolucji crosskatalatora, musimy najpierw zlokalizować punkty bifurkacji, czyli "drogowskazy", które pojawiają się, w miarę jak reakcja oddala się od stanu równowagi, i sygnalizują jakościowe zmiany w zachowaniu układu. Następnie musimy – posługując się silną stacją roboczą – zbadać pejzaż wokół tych punktów, zmieniając po kolei poszczególne parametry. W ten sposób odkrywamy wszystkie typy ewolucji, z jakimi zetknęliśmy się przy okazji brusselatora. Punkty stałe reprezentują reakcje stacjonarne, gdy kolor mieszaniny składającej się z cząsteczek niebieskich, czerwonych i zielonych nie ulega zmianie, cykle graniczne zaś opisują rytmiczne zmiany koloru mieszaniny. Dwuwymiarowy cykl graniczny ma jednak znacznie szerszy repertuar możliwych zachowań niż jego jednowymiarowy kuzyn, występujący w przypadku brusselatora. Gdy układ wykonuje oscylacje złożone, stężenie jednego ze składników gwałtownie wzrasta, następnie równie gwałtownie spada, po czym występuje kilka niskich maksimów stężenia i cały cykl powtarza się od początku (zob. Ryc. 6.3). Zmieniając względne stężenia substratów, można dowolnie zmieniać liczbę niskich maksimów. Jest rzeczą interesującą, że takie oscylacje opisują przebieg rzeczywistych procesów: pobudzenie pojedynczych komórek nerwowych w ludzkim mózgu w trakcie świadomych lub nieświadomych procesów umysłowych powoduje podobne zjawiska. Elektrochemiczne zachowanie poszczególnych neuronów (omawialiśmy je w rozdziale 5.) przypomina ewolucję crosskatalatora.23 Ryc. 6.3. Złożone oscylacje stężenia w crosskatalatorze. Obszary przyciągania: działanie pamięci Warto zrobić dygresję na temat pewnej szczególnej cechy crosskatalatora, aby w ten sposób podkreślić jeszcze jedną analogię z zachowaniem dużego zbioru neuronów, a zwłaszcza ze sztucznymi sieciami neuronowymi, które omawialiśmy w poprzednim rozdziale. W szczególności pomoże to nam zrozumieć kojarzenie, czyli jedną z najbardziej charakterystycznych cech pamięci. Dzięki kojarzeniu zapach perfum może przywołać wspomnienie pocałunku. Surowy pejzaż crosskatalatora jest doskonałą metaforą związku zapachu ze wspomnieniami. Dla pewnych kombinacji parametrów nasza hipotetyczna mieszanina może w długiej skali czasowej ewoluować na więcej niż jeden sposób. Korzystając z metafory, jakiej dostarcza pojęcie pejzażu, powiemy, że odpowiada to sytuacji, w której alpiniście grozi upadek do więcej niż jednej doliny. Wszystko zależy od jego położenia na zboczu. Równoczesne istnienie więcej niż jednego atraktora jest bezpośrednią konsekwencją nieliniowości równań opisujących crosskatalator. Mówiąc językiem matematycznym, dla danych warunków równania układu dopuszczają więcej niż jedno rozwiązanie. W wielu przypadkach tylko jedno z rozwiązań jest stabilne, ale zdarza się także, że istnieje kilka stabilnych rozwiązań i crosskatalator może odwiedzić kilka atraktorów. Ostateczny wybór zależy wtedy od warunków początkowych. Zbiór wszystkich punktów początkowych, takich że przechodząca przez nie trajektoria prowadzi do danego atraktora, nazywamy jego "obszarem (basenem) przyciągania". Każdy atraktor ma swój obszar przyciągania; innymi słowy, w miarę upływu czasu trajektorie przechodzące przez pewne punkty początkowe prowadzą do danego atraktora, a przechodzące przez inne – do pozostałych. Przyciągające stany automatów komórkowych (klasy od I do IV w rozdziale 4.) również mają obszary przyciągania; ich przykłady widzimy na kolorowej ilustracji nr 4 (wkładka). To samo zjawisko występuje w rekurencyjnych sieciach neuronowych (sieci Hopfielda), którymi również rządzą nieliniowe równania różniczkowe. Jak już wspomnieliśmy w rozdziale 5., proces zapamiętywania informacji przez neuronowe sieci atraktorowe jest związany z obecnością zbioru lokalnych minimów w pejzażu błędów. Odmienne dane początkowe odpowiadają różnym obszarom przyciągania, a zatem przywołują z pamięci różne wspomnienia. Wspomnienia często kojarzymy – na przykład popularną niegdyś piosenkę o miłości łączymy z dawną kochanką. Takie skojarzenia występują wtedy, gdy pokrywają się obszary przyciągania piosenki i kochanki, być może z powodu gorących uścisków na parkiecie. Wtedy przyciągający stan pamięci reprezentuje jednocześnie piosenkę i kochankę. Dysypatywne struktury powstające w sieciach neuronowych są równie dobrymi przykładami samoorganizacji, jak miriady zmian koloru crosskatalatora. Chaos i crosskatalator Wędrując po pejzażu crosskatalatora, można wpaść do obszaru przyciągania innego atraktora, odpowiadającego chaotycznemu przebiegowi reakcji. Wtedy zmiany koloru mieszaniny są na pozór całkowicie nieregularne, ale – paradoksalnie – ta przypadkowość jest w rzeczywistości wynikiem nadmiaru porządku. Aby zilustrować ten intrygujący aspekt chaosu, musimy w jakiś sposób przedstawić menażerię możliwych typów zachowania crosskatalatora w stanie dalekim od równowagi. W tym celu możemy posłużyć się wykresem punktów bifurkacji. Ryc. 6.4 przedstawia kolejne ważne fazy tego wykresu, Na osi pionowej odłożona jest odległość od stanu równowagi; odległość wzrasta, gdy posuwamy się w dół wykresu. W pierwszym punkcie bifurkacji stają się możliwe dwa typy oscylacji, czyli układ zachowuje się jak zegar chemiczny. Każda gałąź rozdziela się następnie na wiele mniejszych gałązek, co oznacza, że istnieje coraz więcej różnych stabilnych stanów. W końcu bifurkacje występują tak gęsto, że zlewają się ze sobą. Ryc. 6.4. Droga do chaosu przez kaskadę bifurkacji, znana również jako proces podwajania okresu. Takie zjawisko występuje w bardzo wielu prostych układach nieliniowych. Ogromna liczba gęsto upakowanych stanów sprawia, że układ może wykazywać oszałamiającą liczbę różnych typów zachowania. Zegar chemiczny nie musi się już ograniczać do kilku gałęzi. Jego zachowanie wydaje się chaotyczne, ponieważ zegar może korzystać z nieskończenie wielu możliwości. W takim przypadku każda seria pomiarów zachowania crosskatalatora daje inne wyniki. W każdym przedziale czasu występuje inna – na pozór zupełnie przypadkowa – seria zmian koloru. Tak samo zachowują się automaty komórkowe, należące do klasy III. Proszę jednak zwrócić uwagę, że znaczenie pojęcia "chaos" jest tu inne niż w mowie potocznej. Oznacza ono proces, który nie jest przypadkowy, a tylko tak wygląda. Ktoś mógłby przypuszczać, że gdy oddalamy się od równowagi, chaos ciągle narasta. W rzeczywistości wykres bifurkacji przypomina cedr – w gęstwinie liści i gałęzi występują przerwy. Można znaleźć "wyspy" i "okna" porządku, oddzielające od siebie obszary chaosu. Takie zachowanie nie jest szczególną cechą crosskatalatora, lecz stanowi oznakę złożoności, jaka często występuje w przyrodzie. Chaos i komputery Choć już w XIX wieku Henri Poincare dostrzegł zarysy chaosu, pierwszy wyraźny dowód jego istnienia uzyskał w 1963 roku Edward Lorenz, profesor meteorologii w MIT. Lorenz prowadził badania komputerowe, których celem było wyjaśnienie częstych rozbieżności między prognozami pogody a rzeczywistością. Lorenz dysponował dość prymitywnym komputerem, ale wśród meteorologów wyróżniał się wyjątkowo dobrym przygotowaniem matematycznym. Dążył do sformułowania możliwie najprostszego modelu atmosfery, uwzględniającego wszystkie istotne zjawiska fizyczne. Układ równań Lorenza opisuje w przybliżeniu poziomą warstwę cieczy, podgrzewaną od dołu, podobnie jak w problemie Rayleigha-Benarda, z jakim zetknęliśmy się na początku tego rozdziału. Ciepła ciecz ma mniejszą gęstość, więc unosi się do góry, co powoduje wystąpienie prądu konwekcyjnego. Gdy źródło ciepła ma wystarczająco duże natężenie, konwekcja zachodzi w nieregularny, turbulentny sposób. Podczas badania rozwiązań równania Naviera-Stokesa, opisujących ruch cieczy, Lorenz zauważył, że niewielkie zmiany warunków początkowych mogą spowodować ogromne różnice w przewidywaniach. Gdy komputer rozwiązuje równania numerycznie, drobne początkowo różnice szybko narastają i już po krótkim czasie wynik wygląda zupełnie odmiennie. Byłoby rzeczą naturalną zwalić winę na komputer, jak z pewnością zrobili wcześniej inni uczeni, ale Lorenz – bez wątpienia dzięki swemu meteorologicznemu wykształceniu – był przygotowany na taki wynik. Pod tym względem wyprzedzał swoje czasy o wiele lat. Zdał sobie sprawę, że jego badania zakończą się niepowodzeniem, jeśli nie uda mu się skonstruować bardzo prostego i zrozumiałego układu równań, mającego chaotyczne rozwiązania. Osiągnął ten cel, drastycznie upraszczając równanie Naviera-Stokesa i redukując problem do trzech sprzężonych nieliniowych równań różniczkowych. Jak później napisał: "Chaos nagle stał się czymś niecierpliwie oczekiwanym".24 Lorenz odkrył, że próby meteorologów z całego świata – mające na celu opracowanie dokładnych prognoz pogody, stosujące prawa hydrodynamiki i coraz potężniejsze komputery – nieuchronnie zakończą się porażką. Skoro równania hydrodynamiki są wrażliwe na warunki początkowe, nawet najdrobniejsze fluktuacje mogą spowodować ogromne zmiany w przewidywaniach. Lorenz ukuł określenie "efekt motyla", oznaczające, że z uwagi na chaos nawet najdrobniejsze wydarzenia mogą mieć ogromne konsekwencje. Innymi słowy, uderzenie skrzydeł motyla w Brazylii może spowodować tornado w Teksasie. Efekt motyla daje się łatwo zrozumieć za pomocą rysunku atraktora. Atraktor Lorenza wygląda zupełnie inaczej niż proste punkty stałe lub cykle graniczne. Składa się z gęstwiny trajektorii, wyglądającej jak para oczu sowy lub motyl (Ryc. 6.5). Najmniejsza zmiana położenia na atraktorze powoduje przejście na radykalnie inną trajektorię, a zatem prowadzi do innej prognozy pogody. Atraktor jako całość przedstawia klimat: choć pogoda w Wielkiej Brytanii często się zmienia, repertuar możliwości pozostaje ograniczony – nie zdarzają się monsuny ani wielomiesięczne susze. Dziwne atraktory, chaos i fraktale Ryc. 6 5 Trzy typy atraktorów. A. Punkt stały i jego mechaniczny odpowiednik – kuleczka staczająca się w dół lejka. B. Cykl graniczny – mechanicznym odpowiednikiem jest teraz kulka, tocząca się wokół ronda kapelusza z trzema rogami. C. Atraktor Lorenza – pierwszy dziwny, czyli chaotyczny atraktor. Przypominający motyla atraktor Lorenza (Ryc. 6.5c) jest przykładem tak zwanych dziwnych atraktorów. Nazwa ta ma zwracać uwagę na ich złożoną strukturę, zupełnie odmienną od prostych atraktorów, takich jak punkt stały i cykl graniczny. W 1971 roku pierwsi rozpoznali i nazwali tę "bestię" David Ruelle, belgijski fizyk matematyczny z Institute des Hautes Etudes Scientifiques w Bursur-Yvette pod Paryżem, oraz Florens Takens z Uniwersytetu w Groningen w Holandii.25 Zajmowali się oni badaniem turbulencji, ale wnioski, do jakich doszli, miały znacznie szersze znaczenie.26 Dwie charakterystyczne cechy dziwnego atraktora wywołują złożone zachowanie. Po pierwsze, w przeciwieństwie do cyklu granicznego, dziwny atraktor jest niezwykle wrażliwy na warunki początkowe. Długookresowe zachowanie układu, którego trajektoria należy do dziwnego atraktora, zależy od najdrobniejszych detali sytuacji początkowej, czego doskonałą ilustracją była właśnie praca Lorenza. Po drugie, w przeciwieństwie do cyklu granicznego, dziwny atraktor to obiekt fraktalny. Słowo "fraktal" wprowadził Benoit Mandelbrot w 1975 roku. Określa ono szczególne własności geometryczne nieregularnych figur i brył, które wyglądają tak samo we wszystkich skalach długości. Niezależnie od powiększenia użytego do badania fraktala, widzimy w zasadzie całą jego strukturę. Taką nieskończoną hierarchię powtarzających się motywów określa się terminem "samopodobieństwo". Ten sam motyw powtarza się we wszystkich skalach długości – na przykład na brzegu listka koniczyny wyrastają mniejsze listki, na nich jeszcze mniejsze i tak w nieskończoność. Do tej kategorii należą zatem również pchły Jonathana Swifta:27 So, naturalists observe, a flea Hath smaller fleas that on him prey And these have smaller fleas to bite'em And so proceed od infinitum. ["Jak twierdzą przyrodnicy, pchla Ma mniejsze pchły, które ją dręczą A te są gryzione przez jeszcze mniejsze, I tak do nieskończoności"] Ryc. 6.6 przedstawia przykład fraktala, skonstruowany przez Mario Markusa z Instytutu Fizjologii Molekularnej Maxa Plancka w Dortmundzie i Javiera Tamamesa z Universidad Complutense w Madrycie.28 Praca Mandelbrota wstrząsnęła naszym rozumieniem wymiaru. Wszyscy wiemy, że linia jest obiektem jednowymiarowym, a powierzchnia prostokąta – dwuwymiarowym. W rzeczywistości jednak są to niemal zawsze idealizacje: liczba wymiarów może być na przykład równa jeden "z hakiem". "Z hakiem" oznacza, że liczba ta jest ułamkowa.29 Mandelbrot zademonstrował to w swojej pracy, stawiając pytanie: "Jak długie jest wybrzeże Wielkiej Brytanii?" Wystarczy chwila namysłu, by stwierdzić, że odpowiedź zależy od skali, w jakiej mierzymy wybrzeże. W przyrodzie występuje wiele obiektów fraktalnych, od kalafiorów po chmury; można je nawet wykryć w zachowaniu cieknącego kranu, gdyż kapiące krople tworzą nieskończoną kaskadę struktur.30 Ryc. 6.6. Hierarchia motywów. Struktura fraktala powtarza się w każdej skali. Przebieg chaotycznej reakcji chemicznej da się przedstawić za pomocą analogii z kulką, poruszającą się po dziwnym atraktorze. Szereg możliwych stanów reakcji nigdy się nie kończy i nie powtarza. Punkty stale i cykle graniczne mają wymiary całkowite – zero, jeden, dwa itd., natomiast dziwny atraktor można zdefiniować jako atraktor mający wymiar fraktalny. Fakt ten powinien nas przygotować na wystąpienie chaosu. Atraktor zawiera nieskończenie wiele możliwości, choć ograniczonych do skończonego obszaru: w miarę upływu czasu układ przechodzi przez nieskończenie wiele niepowtarzalnych konfiguracji. Można sobie wyobrazić, że układ w nieskończoność zakreśla hierarchiczne motywy. W pierwszej chwili trudno to pojąć, ale za pomocą pojęcia fraktali łatwiej zrozumieć, dlaczego crosskatalator – choć ograniczony do skończonego obszaru, swego dziwnego atraktora – może znaleźć się w nieskończenie wielu stanach. Gdy trajektoria przedstawiająca przebieg reakcji dotrze już do dziwnego atraktora, nie podobna szczegółowo przewidzieć jej długookresowego zachowania. Możemy podkreślić złożoność takiej ewolucji, porównując ją z zachowaniem zegara chemicznego uwięzionego w cyklu granicznym. Niezależnie od tego, w jaki sposób rzuciliśmy kulkę na pejzaż, reprezentujący możliwe stany zegara chemicznego, zawsze ostatecznie będzie się ona toczyć po dnie kolistej doliny. Przypuśćmy natomiast, że rzuciliśmy już kulkę na dziwny atraktor i teraz chcielibyśmy, aby druga kulka potoczyła się po takiej samej skomplikowanej trajektorii. Rychło się przekonamy, że niezależnie od tego, jak mała jest odległość między nowym punktem początkowym a poprzednim – odległość ta nie może być równa zeru – trajektoria drugiej kulki bardzo szybko oddali się od pierwotnej trajektorii. Druga kulka porusza się po dziwnym atraktorze zupełnie inaczej niż pierwsza, zakreślając inną drogę przez jego hierarchiczne struktury. Przyczyną deterministycznego chaosu jest nieskończenie złożona struktura fraktalna dziwnego atraktora. Solidne przewidywania ewolucji chaotycznego układu wymagają nieskończenie dokładnej znajomości warunków początkowych. Najdrobniejsza niedokładność – której nie można uniknąć w rzeczywistych doświadczeniach – wyklucza przewidywania, ponieważ nawet dowolnie mały błąd początkowy ulega z biegiem czasu wykładniczemu wzmocnieniu. A jednak w zachowaniu takich układów można znaleźć głęboki porządek. Z tego powodu mówimy o deterministycznym chaosie – takie zachowanie opisuje deterministyczne równanie. Deterministyczny chaos to zatem cecha układu, nie zaś skutek przypadkowych zaburzeń ze strony otoczenia. Typowym źródłem zaburzeń jest ciepło; można je wykryć, obserwując niewielkie fluktuacje temperatury otoczenia. Takie procesy stochastyczne mogą być przyczyną przypadkowego, przypominającego chaos zachowania układu, którego trajektoria nie należy bynajmniej do dziwnego atraktora. Rozróżnienie chaosu deterministycznego od stochastycznego jest jednym z najtrudniejszych zadań, jakie muszą rozwiązać specjaliści od chaosu.31 Deterministyczny chaos zaciera również jasne rozróżnienie porządku od nieuporządkowania. Niektórzy niezbyt kompetentni popularyzatorzy nauki przedstawiają chaos jako wyjaśnienie wszystkich złożonych procesów, nie tylko wtedy, gdy mamy do czynienia z niestabilnością i nieprzewidywalnością, ale również gdy w istocie chodzi o samoorganizację. Nie należy dać się omamić sloganami. Porządek i deterministyczny chaos mają to samo źródło – pojawiają się w nieliniowych dynamicznych układach dysypatywnych. Już w 1973 roku Ruelle przewidział możliwość wystąpienia chaosu w reakcjach chemicznych, ale ta idea, jak wiele innych naprawdę dobrych pomysłów, została początkowo zignorowana.32 O obecności dziwnego atraktora w reakcji chemicznej świadczy brak jakiejkolwiek regularności w zmianach koloru mieszaniny. W 1971 roku Ruelle spytał pewnego chemika, specjalizującego się w badaniu oscylacyjnych reakcji, czy kiedykolwiek obserwował chaotyczną zależność od czasu. "Odpowiedział, że gdyby jakiś eksperymentator, badający przebieg reakcji chemicznej, otrzymał chaotyczne wyniki, wyrzuciłby je, gdyż uznałby, iż doświadczenie się nie udało. Na szczęście sytuacja się zmieniła i obecnie znamy wiele przykładów nieokresowych reakcji chemicznych". Najsłynniejszym przykładem chemicznej złożoności jest reakcja Biełousowa-Żabotyńskiego, która pozwala obserwować zarówno chaos, jak i samoorganizację. Magiczna reakcja Biełousowa-Żabotyńskiego Pół wieku temu Borys Pawłowłcz Biełousow, kierownik laboratorium biofizycznego radzieckiego Ministerstwa Zdrowia, przypadkowo odkrył zdumiewającą reakcję chemiczną. Przygotował on mieszaninę związków chemicznych, która miała symulować przebieg cyklu Krebsa, zasadniczego procesu metabolicznego, zachodzącego w żywych komórkach i umożliwiającego przetwarzanie pokarmu organicznego na energię oraz dwutlenek węgla. Biełousow był bardzo zaskoczony, gdy mieszanina zaczęła z zegarową regularnością zmieniać się z bezbarwnej na żółtawą i znów na bezbarwną. Pewne dowody wskazują na to, że w późniejszych doświadczeniach zaobserwował on również struktury przestrzenne. W ten sposób udało mu się znaleźć pierwszy przykład samoorganizacji mieszaniny wskutek reakcji chemicznych i dyfuzji w stanie dalekim od równowagi. Mniej więcej w tym samym czasie Turing przewidział taki właśnie proces. Na nieszczęście dla Biełousowa jego reakcja była tak wyjątkowa, że miał on wielkie trudności z przekonaniem naukowego establishmentu ojej prawdziwości. Jego praca z 1951 roku została odrzucona – redaktor powiedział Biełousowowi, że jego "rzekome odkrycie" jest zupełnie niemożliwe. Sześć lat później Biełousow przedstawił kolejną pracę, ale redaktor zgodził się opublikować tylko radykalnie skróconą wersję, w postaci dwu-stronicowego komunikatu. Ostatecznie praca Biełousowa ukazała się w rzadko czytanym sprawozdaniu z sympozjum radiologicznego. Biełousow nie był ani pierwszym, ani ostatnim uczonym, który spotkał się z nadmiernym sceptycyzmem kolegów.33 Zainteresowanie oscylacyjną reakcją Biełousowa wybuchło dopiero wtedy, gdy zajął się nią Anatolij Żabotyński. W latach sześćdziesiątych, podczas studiów doktorskich na wydziale biochemii Uniwersytetu Moskiewskiego, wypróbował on różne modyfikacje reakcji, na przykład udało mu się osiągnąć wyraźniejsze zmiany koloru, z niebieskiego na czerwony. Ostatecznie Żabotyński zdołał zainteresować reakcją swych bardziej konserwatywnych kolegów. Inni uczeni podjęli badania nad tym zdumiewającym układem i wkrótce samoorganizacja w reakcjach chemicznych stała się modnym przedmiotem. W latach 1979 i 1980 w odpowiedzi na apel uczeni z wielu krajów wyrazili pozytywną opinię na temat znaczenia tych prac i koniec końców Biełousow, Żabotyński, Walentyn Izraelowicz Krinski, Genrik Iwanickij oraz Albert Zaikin otrzymali Nagrodę Leninowską. Niestety, Biełousow zmarł w 1970 roku, nie doczekawszy międzynarodowego uznania dla swej przełomowej pracy. Reakcję pierwotnie odkrytą przez Biełousowa i jej późniejsze modyfikacje określamy dziś jako reakcję Biełousowa-Żabotyńskiego (BZ). Przebieg tej złożonej reakcji został dokładnie zbadany. Bierze w niej udział około trzydziestu różnych związków, w tym również nietrwałe związki pośredniczące, które występują w szeregu sprzężonych reakcji, składających się na reakcję BZ. Grupa uczonych z Uniwersytetu stanu Oregon przedstawiła uproszczony model, obejmujący pięć reakcji z udziałem sześciu związków. Model ten stał się znany jako "Oregonator".34 Oregonator opisuje właściwie wiele aspektów zachowania reakcji BZ, takich jak występowanie cykli granicznych, generujących chemiczne oscylacje. Ogólny wniosek, jaki wynika z tego modelu, jest jasny: proste, nieliniowe równania często pozwalają wyjaśnić złożone procesy. Rycc. 6.7. Fale spiralne w roztworze, w którym zachodzi reakcja BZ. Subtelności złożonej reakcji są nadal intensywnie badane. Dobrze wiadomo, że podczas reakcji BZ mogą występować spiralne fale (zob. Ryc. 6.7). Jedna z najbardziej aktywnych grup naukowców w tej dziedzinie – zespół pod kierownictwem Harry'ego Swinneya z Uniwersytetu stanu Teksas w Austin -otrzymała wyniki, które niezbicie świadczyły o istnieniu dziwnego atraktora, rządzącego chaosem w tej reakcji.35 Na podstawie szczegółowej analizy dynamiki reakcji udało się sformułować model opisujący chaotyczną ewolucję, który zawiera tylko trzy zmienne, czyli niezbędne minimum.36 Inni pokazali, jak można kontrolować chemiczny chaos, dostrajając się do jednej ze zwykłych niestabilnych orbit, należących do dziwnego atraktora, za pomocą niewielkich zmian w strumieniu dopływających związków chemicznych.37 W ten sposób uczeni częściowo odsłonili porządek ukryty za na pozór zupełnie przypadkowymi zmianami. Naukowcy określają zmiany koloru lub struktury jako zmiany stanu. Ekscytowalny ośrodek – jak mieszanina związków chemicznych, w której zachodzi reakcja BZ – to taki, w którym pod wpływem bodźca przekraczającego pewną wartość progową następuje zmiana stanu. Po wzbudzeniu ośrodek ten staje się ponownie stabilny dopiero po powrocie do stanu początkowego, przechodząc przez wiele stanów wzbudzonych. Przykłady takich zjawisk to fale spiralne generowane przez mięsień sercowy, zachowanie śluzowców podczas zdobywania pożywienia i elektryczna aktywność neuronów w mózgu.38 Istnienie analogii między przebiegiem reakcji BZ i zachowaniem mięśnia serca jest solidnie udokumentowane.39 Znacznie trudniejsze okazało się znalezienie mieszaniny związków chemicznych, w których – zgodnie z przewidywaniami Turinga z 1952 roku – powstałaby statyczna struktura. Kłopoty z otrzymaniem takiej struktury spowodowały, że uczeni mieli wątpliwości, czy takie struktury rzeczywiście występują. Pojawiło się niebezpieczeństwo, że zostaną uznane za produkt matematycznych idealizacji. Ostatnio jednak grupa uczonych z Uniwersytetu w Bordeaux zdołała wytworzyć złożoną, ale naprawdę statyczną strukturę Turinga.40 Otrzymali oni między innymi linię plam, tworzącą wzór podobny do tych, jakie obserwuje się w zachowaniu brusselatora.41 Utworzenie struktury Turinga wymaga spełnienia bardzo surowych warunków. Niezbędne są również: pewien mechanizm, zapewniający dodatnie sprzężenie zwrotne, taki jak au-tokataliza, oraz zastosowanie aktywatora i inhibitora. Francuska grupa znalazła właściwą mieszaninę związków i użyła jako reaktora płaskiego kawałka żelu, umieszczonego między zbiornikami zawierającymi reagujące substancje. Następnie za pomocą wideokamery zarejestrowano zmiany koloru – z żółtego na niebieski – oraz stacjonarną linię plam. W ten sposób udało się otrzymać pierwszy dowód powstania struktury Turinga. Doświadczenia te kontynuowali Harry Swinney i jego współpracownicy. Otrzymali oni statyczne, lecz bardzo nieregularne struktury, kojarzące się z tworami "organicznymi".42 Przypominają one wzory, jakie Turing uzyskał za pomocą arytmometru. Matka Turinga powiedziała kiedyś, że syn "pokazał mi niektóre [wzory] i spytał, czy przypominają mi łaty na skórze krów. Rzeczywiście, były tak podobne, że krowy zawsze mi teraz przypominają jego matematyczne wzory".43 Swinney i jego współpracownicy również użyli żelu jako reaktora oraz badali, jak wzory utworzone przez reagujące żółte i niebieskie związki zależą od różnych warunków. Gdy obniżyli temperaturę, otrzymali wzór heksagonalny. Gdy zmienili stężenie substratów, udało się im uzyskać wzór pasiasty, który utrzymywał się przez wiele dni bez widocznych zmian. Swinney znał już taki wzór ze swoich symulacji komputerowych. Kontynuując te badania, zespół teksaski stworzył układ, w którym niebieskie plamy rodzą się wskutek replikacji i giną z powodu tłoku.44 Według co najmniej jednej relacji, ich zachowanie niezwykle przypomina działanie żywych organizmów.45 Chemiczny komputer Reakcja BZ ma jeszcze inne zaskakujące własności. Oliver Steinbock, Agota Tóth i Kenneth Showalter z Uniwersytetu stanu Wirginia Zachodnia wykorzystali reakcję BZ do rozwiązania złożonego problemu matematycznego.46 Aby znaleźć najkrótszą drogę przez labirynt, komputer jednoprocesorowy zazwyczaj sprawdza wszystkie możliwe drogi i wybiera właściwą. Zamiast posługiwać się taką brutalną metodą, zespół z Wirginii Zachodniej śledził falę chemiczną, rozchodzącą się po najkrótszej drodze. W istocie znaleźli oni sposób rozwiązania problemu, polegający na równoległym wykonywaniu wielu obliczeń, choć zazwyczaj zagadnienie to rozwiązuje się metodą szeregową. Ryc. 6.8a. Chemiczny komputer. Fala chemiczna rozchodząca się w labiryncie z membrany. Ten obraz otrzymano, nakładając pięćdziesiąt zdjęć, wykonanych w odstępach pięćdziesięciu sekund. Ryc. 6.8b. Pole prędkości w labiryncie ukazuje kierunek rozchodzenia się fali w dowolnym punkcie. Czarne punkciki oznaczają początek wektorów prędkości. Ciągłe ciemne linie to najkrótsze drogi z pięciu wybranych punktów do celu, oznaczonego literą S. Fala – rozchodzący się front reakcji – ma wiele własności, koniecznych do rozwiązania tego problemu: porusza się ze stałą prędkością, omija przeszkody (nie ulegając zniszczeniu) i znika po zabrnięciu w ślepą uliczkę lub wskutek zderzenia z inną falą. Aby wytworzyć falę w labiryncie, zespół użył membrany z polimerów, nasączonej substancjami biorącymi udział w reakcji. Wycięte kawałki membrany odgrywały rolę ścian labiryntu. Następnie uczeni wzbudzili reakcję, dotykając membrany srebrnym drutem, i sfilmowali rozchodzący się front falowy, wykonując zdjęcia w regularnych odstępach. W ten sposób otrzymali złożony obraz rozchodzenia się fali w labiryncie (Ryc. 6.8a). Obraz ten posłużył do opracowania mapy, określającej odległość między dowolnym punktem w labiryncie a punktem docelowym. Przy użyciu komputera uczeni obliczyli również pole prędkości frontu falowego w labiryncie i przedstawili je za pomocą wektorów. Startując z dowolnego punktu i poruszając się po strzałkach, można dojść najkrótszą drogą do celu. Wydaje się fascynujące, że działanie mózgu musi opierać się w pewnej mierze na podobnym mechanizmie, rządzącym rozchodzeniem się sygnałów wzdłuż połączeń neuronowych. "Czy optymalizacja połączeń w sieci neuronów polega na wykorzystaniu własności ekscytowalnego ośrodka, jak podpowiada nam nasze doświadczenie?" – pyta Showalter. Jego zespół również z powodzeniem symulował rozchodzenie się fal chemicznych w labiryncie komputerowych połączeń.47 Znaleziony w ten sposób algorytm może mieć użyteczne zastosowania, na przykład pomóc robotowi w znalezieniu najkrótszej drogi do określonej półki w wielkim magazynie. John Ross z Uniwersytetu Stanforda uważa, że regułami "tyknięcia" reakcji BZ mogą pewnego dnia pełnić funkcję zegara w chemicznym komputerze. Pracując z Allenem Hjelmfeltem, Edem Weinbergiem oraz Adamem Arkinem, Ross zidenttyfikował w biochemicznych procesach glikolizy wszystkiej podstawowe funkcje logiczne – w tym również analogiczne i operacje logiki rozmytej – pozwalające na budowę dowolnego komputera. Glikolizą, która zachodzi we wszystkich żywych organizmach, zajmiemy się bardziej szczegółowo w następnym rozdziale. Zespół Rossa wykazał również, że można symulować działanie sieci neuronowych za pomocą reakcji chemicznych, które działają tak samo, jak komórki nerwowe – to znaczy istnieje pewien próg, poniżej którego sygnały są tłumione, a powyżej – wzmacniane. Zbudowano nawet prototyp urządzenia zdolneg4 do rozpoznawania obrazów.48 "Poznanie obliczeniowych możliwości prostych sieci chemicznych może doprowadzić do lepszego zrozumienia sieci istotnych biologicznie" – tak Ross skomentował swoje badania. Chemia automatów komórkowych Złożoność reakcji Biełousowa-Żabotyńskiego można oczywiście symulować za pomocą "programowalnej materii", czyli automatów komórkowych (cellular automata – CA), z którymi zetknęliśmy się w rozdziale 4., omawiając modele turbulencji. Takie symulacje nie zależą od szczegółów zachowania cząsteczek, lecz dotyczą wyższego poziomu opisu: wykorzystują proste reguły, które opisują ekscytowalność, stanowiącą istotną cechę reakcji BZ. Bez niej nie byłoby możliwe zainicjowanie reakcji i nie obserwowalibyśmy ani zegara chemicznego, ani przestrzennych struktur, lecz spokojny ośrodek.49 Aby zrozumieć, jak automat komórkowy może symulować powstawanie struktur, trzeba sobie wyobrazić dużą dwuwymiarową szachownicę, której pola reprezentują miejsca zachodzenia reakcji. Dany kwadrat odpowiada na sygnały dochodzące z kwadratów sąsiednich, to znaczy stan kwadratu w kolejnym kroku zależy od stanu kwadratów sąsiednich. Zamiast wikłać się w chemiczne komplikacje, stan kwadratu -spoczynkowy, refrakcyjny lub wzbudzony – opisujemy liczbą całkowitą. Zero oznacza stan spoczynkowy, czyli taki, który może być wzbudzony. Największa liczba odpowiada stanowi w pełni wzbudzonemu, a liczby pośrednie – stanom stabilnym. Stany stabilne mogą być jeszcze wzbudzone. Aby uruchomić "grę" i stworzyć złożoność, musimy podać zbiór reguł określających, jak stan dowolnego kwadratu zmienia się w kolejnym kroku w zależności od stanu sąsiadów. Jeśli stan danego kwadratu nie został wzbudzony, związana z nim liczba maleje o jeden. W ten sposób automat komórkowy może generować piękne struktury. Jeśli każdej liczbie przypiszemy odpowiedni kolor, możemy przetłumaczyć cyfrowy zapis struktury, jakim posługuje się automat, w kolorowy obraz na ekranie. Takie modele opracowali Mario Markus i Benno Hess z Instytutu Maxa Plancka w Dortmundzie.50 Nim jednak zdołali uruchomić realistyczne symulacje, musieli pokonać problem, który występował we wszystkich wcześniejszych automatach komórkowych. Cząsteczki mogą poruszać się we wszystkich kierunkach, natomiast na szachownicy automatu mamy do dyspozycji tylko cztery kierunki. Klasyczna struktura, jaka powstaje podczas reakcji BZ i w innych pobudzanych ośrodkach, to fala spiralna. Jeśli posługujemy się szachownicą kwadratową, wszystkie wzory mają postać układanki z kwadratów. Szachownica heksagonalna prowadzi do wzorów ułożonych z sześciokątów. Symetria szachownicy przebija się przez wszystkie symulacje, podobnie jak domy zbudowane z cegieł są na ogól kwadratowe lub prostokątne. Markus i Besso wpadli na rozwiązanie w postaci sieci przypadkowej: dzięki temu sieć jest efektywnie jednorodna, to znaczy żaden kierunek ruchu cząsteczek nie jest wyróżniony.51 W ten sposób mogli oni symulować wiele fal spiralnych, w tym również występujących w deterministycznych układach chaotycznych, i uzyskali dobrą zgodność z doświadczeniem. Proszę porównać Ryc. 6.9 i 6.7. W późniejszych doświadczeniach udało się wyprodukować kwadratowe fale spiralne, przeprowadzając reakcję na krysztale rodu. Podobnie jak sieć automatu komórkowego powoduje powstanie fal kwadratowych, tak samo sieć krystaliczna wytwarza kwadratowe fale chemiczne w reakcji tlenku azotu (NO) i wodoru.52 Automaty komórkowe nie tylko są zdolne do symulowania makroskopowej złożoności w nieliniowym świecie, ale nawet pozwalają ją przewidywać. Ta metoda umożliwiła również symulowanie procesów powstawania nieregularnych wzorów, takich jak paski, wyglądające jak domeny magnetyzacji w cienkich błonach ferromagnetyka, oraz plamy, przypominające ubarwienie geparda (Ryc. 6.10).53 Markus i Ingo Kusch wykorzystali automaty komórkowe do modelowania wzorów na muszlach; automaty te należą do IV klasy (por. rozdział 4.), a w ich zachowaniu występują jednocześnie chaos i porządek, konieczne do odtworzenia ubarwienia muszli (Ryc. 6.11).54 Ryc. 6.9. Symulacja spiralnych fal chemicznych z Ryc. 6.7 za pomocą przypadkowych automatów komórkowych. Ryc. 6.10. Stacjonarne wzory Turinga w postaci plam (górny rząd) i pasków (dolny rząd). Symulacje M. Markusa i H. Schepersa z Dortmundu. Zobaczyć świat w ziarenku piasku55 Komputer pozwala lepiej zrozumieć procesy powstawania różnorodnych wzorów na przykładzie jeszcze prostszego modelu niż mieszanina związków chemicznych, w której zachodzi reakcja BZ. Paradygmatycznym przykładem powstawania złożoności jest lawina, staczająca się z pryzmy piachu w przestrzeni cybernetycznej. Lawina piasku ma postać pozornie nieuporządkowanego zbioru drobnych i dużych zdarzeń. Takie same procesy obserwuje się na rynkach finansowych i podczas trzęsień ziemi. Potężny wstrząs może być kulminacją wielu wstrząsów o różnej skali, które powstają podczas zderzenia dwóch płyt tektonicznych. Podobnie, krach finansowy – powodujący wielomiliardowe straty – może być skutkiem niezliczonych czynników, mających różne znaczenie, od tak drobnych, jak wycofanie oszczędności z banku przez pewnego emeryta w Salt Lake City, po tak poważne, jak wojna w Europie. Ryc. 6.11. Wynik symulacji za pomocą automatu komórkowego (u góry) i wzór na prawdziwej muszli (na dole). Analiza takich "kaskadowych" procesów jest trudna, ponieważ na pozór drobne zdarzenie może być równie ważne – dla ostatecznego wyniku – jak duże; podobnie: grzbiet obładowanego wielbłąda może złamać niewielka słomka lub trudny do zignorowania głaz z piramidy Cheopsa. Trzęsienia ziemi, lawiny i krachy finansowe mają wspólną cechę charakterystyczną: rozkład zdarzeń podlega prostemu prawu potęgowemu. Weźmy, na przykład, lawiny. Jeśli w danym przedziale czasu występuje jedno zdarzenie o wielkości 10 000 (w dowolnych jednostkach), to wystąpi również w przybliżeniu 10 zdarzeń wielkości 1000, 100 zdarzeń wielkości 100 oraz 1000 zdarzeń wielkości 10 i tak dalej. Prawo potęgowe oznacza, że małymi lawinami rządzą takie same prawa fizyczne jak dużymi. Nie istnieje żadna charakterystyczna skala czasowa, pozwalająca rozróżnić zachowania w małej i dużej skali. Prawo potęgowe rządzące procesami kaskadowymi da się dostrzec, gdy obserwujemy dwa charakterystyczne objawy: fraktalny rozkład przestrzenny zdarzeń i tak zwany biały szum ("1/f szum", gdzie f to częstość zdarzeń), czyli przypadkowy wzór, który można otrzymać wykreślając przebieg zdarzeń w czasie. Rozpowszechnienie białego szumu w przyrodzie jest jedną z klasycznych zagadek fizyki. Pojawia się w tak różnych zjawiskach, jak przepływ prądu przez opornik, przesypywanie się piasku w klepsydrze, przepływ wody w Nilu i jasność gwiazd, w tym również Słońca.56 Podobnym fluktuacjom podlegają rozmaite wskaźniki ekonomiczne, takie jak Dow Jones. Równie zaskakująca wydaje się obserwacja, że kosmiczne struny, łańcuchy górskie i linie wybrzeża to samopodobne struktury fraktalne. Z tymi samymi zjawiskami – na przykład turbulencją – związane są samopodobne struktury w czasie i przestrzeni. Białego szumu nie można wyjaśnić w konwencjonalny, redukcjonistyczny sposób, to znaczy badając oddzielnie zachowanie milionów elementów, należących do danego układu. Jak powiedział jeden z głównych zwolenników nowych metod badania procesów kaskadowych Per Bak z Brookhaven National Laboratory: "Cechy globalne, takie jak względna liczba dużych i małych zdarzeń, nie zależą od mechanizmów mikroskopowych. Wobec tego globalnych cech układu nie można zrozumieć, analizując oddzielnie jego części".57 Ryc. 6.12. Krytyczna lawina. Ciemne ziarna w środkowej części rysunku przedstawiają drogę lawiny, zainicjowanej przez dodanie jednego ziarna piasku do pryzmy w stanie krytycznym. Z komputerowych symulacji Baka i jego współpracowników z Brookhaven National Laboratory wynika, że zdarzenia w różnych skalach może połączyć "efekt domina".58 Aby wyjaśnić występowanie białego szumu i fraktali w takich procesach, grupa Baka badała zachowanie pryzmy piachu. Zamiast bawić się w piaskownicy, uczeni z Brookhaven skonstruowali komputerowy automat komórkowy, symulujący jedno-, dwu- i trójwymiarowe pryzmy piasku. Ich pryzmy są oczywiście bardzo wyidealizowane – składają się z sześciennych ziaren jednakowej wielkości, po kolei dodawanych do pozostałych. Lokalizacja kolejnego ziarna jest przypadkowa, a zatem rosnąca pryzma ma nierówną powierzchnię. Gdy jednak różnica wysokości między sąsiednimi kwadratami przekracza pewną wartość progową – to znaczy nachylenie zbocza jest zbyt duże i niezgodne z warunkiem równowagi mechanicznej – ziarna z powierzchni przetaczają się do dołków. To z kolei może spowodować dalsze efekty nieliniowe. Za pomocą swych automatów komórkowych Bak i jego współpracownicy wykryli w symulacjach zjawisko samoorganizacji. Nachylenie zbocza wzrasta, aż osiągnie wartość krytyczną.59 Dodając więcej ziarenek, nie można już zwiększyć nachylenia zbocza – ziarna piasku staczają się, a kąt nachylenia nie ulega zmianie. W symulacjach komputerowych w stanie krytycznym ziarna piasku mogły się staczać pojedynczo lub tworzyć małe i duże lawiny. Niezależnie od tego, czy w chwili początkowej pryzma jest zbyt stroma, czy zbyt płaska, zawsze przechodzi do stanu krytycznego. Najbardziej uderzająca cecha stanu krytycznego, który powstaje wskutek samoorganizacji, to brak wyróżnionej skali długości i czasu. Podobnie jak w przypadku białego szumu i fraktali, żadna konkretna skala zdarzenia lub częstości nie jest wyróżniona. W stanie krytycznym prawdopodobieństwo współdziałania dwóch zdarzeń nie zależy od tego, czy mają miejsce blisko siebie w przestrzeni, nie zależy także od czasu, jaki upłynął między nimi. Fizycy znają taką niezależność od czasu i przestrzeni, gdyż cechuje ona tak zwane przejścia fazowe drugiego rodzaju. Na przykład w naczyniu zawierającym dwutlenek węgla w punkcie krytycznym nie można odróżnić fazy ciekłej od gazowej. Istnieje tylko jeden stan materii. Ruch dowolnej cząsteczki w naczyniu wpływa w równej mierze na wszystkie pozostałe, niezależnie od odległości.60 Bak dążył do połączenia w swoim modelu równowagowego pojęcia stanu krytycznego z nierównowagowym pojęciem samoorganizacji. Tak zwana teoria samoorganizującego się stanu krytycznego pozwala przewidzieć, kiedy wskutek samoorganizacji układ przechodzi do stanu krytycznego.61 Kiedy pryzma znajdzie się już w takim stanie, dość trudno go zaburzyć. Eleganckie eksperymenty, w których upuszczano ziarnka piasku na precyzyjną wagę, potwierdziły, że podobne własności mają niewielkie pryzmy piasku.62 Warto zastanowić się nad termodynamiką pryzmy piasku. Punkt równowagi (atraktor w postaci punktu stałego) układu to stan, w którym piasek jest rozrzucony po całej podłodze, jednak rosnąca pryzma znajduje się w stanie dalekim od równowagi. Ziarnka piasku w symulacjach komputerowych zachowują się "kolektywnie": pojedyncze ziarnko może wpłynąć na wszystkie pozostałe. Gdy dodajemy piasek, układ przechodzi do stanu krytycznego, charakteryzującego się długimi okresami staży, przerywanej nieregularnie występującymi fazami aktywności. Pryzma stopniowo staje się coraz bardziej stroma i po jej zboczach staczają się coraz większe lawiny, aż wreszcie osiąga stan krytyczny, a wtedy występują lawiny wszystkich wielkości. Jeśli teraz zmienimy program komputerowy tak, aby opisywał gliniasty, a nie suchy piasek, pryzma przez chwilę będzie znów rosnąć, po czym przejdzie do nowego stanu krytycznego, w którym znów występują lawiny dowolnej wielkości.63 Zachowanie "stworzeń" z gry Conwaya Życie również wykazuje oznaki istnienia samoorganizującego się stanu krytycznego. Per Bak, Kań Chen i Michael Creutz z Brookhaven National Laboratory badali, czy liczba "żywych" miejsc fluktuuje z biegiem czasu, podobnie jak wielkość lawin w modelu pryzmy piasku. Gdy przebieg gry osiągnął już stan stacjonarny, dodawali oni pojedynczy organizm w przypadkowo wybranej pozycji, czekali, aż gra znów osiągnie stan stacjonarny, po czym ponawiali operację. Przedmiotem pomiaru była liczba narodzin i zgonów w "lawinie" po kolejnym zaburzeniu. O dziwo, okazało się, że ich rozkład podlega prawu potęgowemu, co wskazuje, iż układ sam z siebie przechodzi do stanu krytycznego.64 Charakterystyczne oznaki samoorganizującego się stanu krytycznego można zaobserwować także podczas trzęsień zielni, co pomaga w wyjaśnieniu ich przebiegu i rozkładu epicentrów. Epicentra drobnych trzęsień ziemi – wstrząsów, które generują kolejne wstrząsy, składające się na poważne trzęsienie – nie są rozłożone równomiernie na powierzchni Ziemi. Mapa trzęsień pozwala stwierdzić, że układają się one w szeregi wyglądające podobnie we wszystkich skalach długości. Inaczej mówiąc, szeregi te są fraktalami. Z teorii samoorganizującego się stanu krytycznego wynika, że energia uwalniania podczas trzęsienia jest odwrotnie proporcjonalna do częstości takich zdarzeń. Trzęsienia ziemi rzeczywiście zachowują się w taki sposób; mówimy, że podlegają prawu Gutenberga-Richtera, czyli prawu potęgowemu, sformułowanemu w 1956 roku przez geologów: Beno Gutenberga i Charlesa Richtera.65 Uderzające jest to, że w zjawiskach wynikających z działania różnych czynników – takich jak symulowany ruch ziaren piasku lub rzeczywistych cząsteczek – można zaobserwować wspólne cechy. Teoria samoorganizującego się stanu krytycznego spowodowała wzrost zainteresowania poszukiwaniem podobieństw między różnymi złożonymi zjawiskami. Ukazanie się pracy Baka i jego współpracowników, zawierającej opis modelu pryzmy piachu, spowodowało lawinę badań nad samoorganizującym się stanem krytycznym. To stadne zachowanie fizyków teoretyków przypomina intensywne poszukiwania dziwnych atraktorów, wywołane przez odkrycie Ruelle'a i Takensa. Przykłady zjawisk, w których zaobserwowano samoorganizujący się stan krytyczny, to zarówno wybuchy wulkanów i pożary lasu, jak i tarcie, spiralne łańcuchy białkowe, zmiany w przepływie powietrza podczas zapalenia płuc oraz przewodnictwo jednego z izotopów helu.66 Częstość błysków pulsarów i kwazarów podlega podobnemu rozkładowi fraktalnemu, przy czym nie istnieje wyróżniona skala błysków.67 To samo zjawisko obserwujemy również w ekonomii.68 Ekstrapolując te wyniki, Bak doszedł do wniosku, że idea ta może mieć znaczenie dla wyjaśnienia aktywności mózgu: "W toku dziejów wojny i pokojowe oddziaływania międzynarodowe, mogły sprawić, że świat znalazł się w stanie krytycznym, kiedy konflikty i niepokoje społeczne występują w sposób lawinowy. Samoorganizacja stanu krytycznego może wyjaśnić nawet rozchodzenie się informacji w mózgu. Nie jest niespodzianką, że drobne wydarzenia mogą powodować burze mózgów".69 Nie brak również reakcji sceptycznych, zarówno pytań w rodzaju: "No to co?", jak i polemik na temat faktycznego występowania takich zjawisk. Nie udało się na przykład potwierdzić, że rzeczywiste lawiny piasku zachowują się zgodnie z prawem potęgowym.70 "Choć teoretyczna atrakcyjność koncepcji samoorganizującego się stanu krytycznego nie podlega dyskusji, jej znaczenie dla dynamiki rzeczywistego piasku wydaje się wątpliwe" – twierdzą angielscy specjaliści od pryzm piasku, Anita Mehta i Gary Barker.71 Chociaż debata na temat znaczenia samoorganizacji stanu krytycznego jeszcze się nie zakończyła, ten "motyw" można znaleźć w wielu zjawiskach przyrody. Motyw artystyczny Komórka Rayleigha-Benarda stanowi elegancką demonstrację zjawiska, które można uznać za element definicji złożoności: samoorganizacja jest naturalną konsekwencją ewolucji wielkich zbiorów prostych czynników, w tym przypadku cząsteczek cieczy. Gdy czynniki te oddziałują w bardziej skomplikowany sposób – na przykład wskutek reakcji BZ – możemy obserwować jeszcze szerszą gamę zachowań, które prowadzą do powstania spiralnych struktur, przypominających galaktyki, huragany i żywe organizmy. Można z satysfakcją stwierdzić, że "programowalna materia" w automatach komórkowych pozwala symulować te procesy i otrzymywać naturalnie wyglądające struktury, co podkreśla wewnętrzną spójność badań nad złożonością. Od czasu ukazania się odkrywczej pracy Alana Turinga wielu uczonych marzyło o rozszerzeniu teorii powstawania struktur, opracowanej dla względnie prostych układów fizycznych i chemicznych, w taki sposób, aby obejmowała również żywe organizmy 72 Struktury powstające w reakcji BZ można również zaobserwować w żywych organizmach, jeśli odpowiednie jednostki podstawowe – cząsteczki lub całe organizmy – oddziałują nieliniowo i znajdują się w stanie dalekim od równowagi Jak pisał Art Winfree, biolog teoretyk, reakcja BZ "wykazie wiele cech, które sprawiają, że żywe układy są tak interesujące; chodzi tu o chemiczny metabolizm, samoorganizuiącą się strukturę, rytmiczne działanie, dynamiczną stabilność w odpowiednich granicach – i nieodwracalny rozpad po ich przekroczeniu – oraz naturalny czas życia".73 Czas zatem, byśmy zajęli się badaniem życia. ROZDZIAŁ 7 ŻYCIE ZNANE Gdyby spośród wszystkich możliwych światów żaden nie był lepszy od pozostałych, Bóg nigdy nie stworzyłby świata. GOTTFRIED WILHELM LEIBNIZ W XIX wieku biolodzy poświęcili wiele czasu na poszukiwanie iskry życia w tkankach organizmów ożywionych. Nigdy nie udało im się jej znaleźć. Chemicy przedstawili hipotezę, że pewne cząsteczki – tak zwane molekuły organiczne, których struktura opiera się na łańcuchach atomów węgla – występują tylko w roślinach i zwierzętach.1 Wkrótce jednak odkryli, jak można wytwarzać te rzekomo naturalne składniki organizmów z substancji nieorganicznych w laboratorium.2 Fizycy, oślepieni drugą zasadą termodynamiki i jej ponurymi przewidywaniami, jakoby wszystko we Wszechświecie dążyło do stanu przypadkowego i nieuporządkowanego, twierdzili (błędnie), że samo istnienie życia jest bardzo dziwne.3 Dziś dysponujemy zdumiewająco dokładnym obrazem złożoności życia, który otrzymaliśmy łącząc wiedzę biologów, chemików i fizyków. Synteza tych dziedzin umożliwiła powstanie biologii molekularnej, dyscypliny zajmującej się molekularnymi podstawami życia. Znamy niezliczone przykłady ogromnej potęgi tej redukcjonistycznej nauki. Rozważmy zespół Marfana, potencjalnie śmiertelną chorobę, mającą wiele objawów: anormalny wzrost, deformacje klatki piersiowej i niebezpieczne wydłużenie naczyń krwionośnych dochodzących do serca.4 W 1991 roku stwierdzono, że chorzy wytwarzają niezwykłą postać białka, zwanego fibryliną, występującego w tkance łącznej, wiążącej mięśnie i organy wewnętrzne.5 W zależności od konkretnej postaci defektu genu fibryliny występują rozmaite problemy, od chorób oczu do serca. Niedawno zbadano piękną strukturę molekularną wirusa pryszczycy, będącej przekleństwem hodowców bydła (Ryc. 7.1).6 Pół miliona takich wirusów ułożonych razem miałoby długość zaledwie centymetra. Ich budowę udało się poznać, badając rozproszenie promieni rentgenowskich na kryształach wirusa; technikę tę nazywamy krystalografią rentgenowską. Dzięki użyciu nowoczesnego mikroskopu skaningowego o bardzo dużej zdolności rozdzielczej, dającego obraz pojedynczych atomów, uczeni zaobserwowali narodziny wirusa, gdy opuszcza on żyjącą komórkę.7 Gerd Binning – laureat Nagrody Nobla -i jego współpracownicy zauważyli ucieczkę wirusa, gdy skanowali komórkę długości zaledwie jednej setnej milimetra. Iglica mikroskopu wywierała na komórkę ciśnienie dziesięć milionów razy mniejsze niż ciśnienie igły adaptera na płytę. Ryc. 7.1. Wirus pryszczycy. Osiągnięcia biologii molekularnej są niezwykle przekonujące i pozwalają szczegółowo wyjaśnić wiele aspektów życia. Dzięki znajomości różnych procesów molekularnych potrafimy obecnie – lepiej niż kiedykolwiek – zwalczać choroby, unikać ich oraz kształtować rośliny hodowlane metodami genetycznymi. Znamy dokładnie budowę wielu ważnych biologicznie cząsteczek, takich jak pojedyncze cząsteczki białka, zawieszone w komórce, wędrowne wirusy lub fragmenty DNA, zawierające informacje genetyczne. Wiemy też, że manipulując tymi cząsteczkami, możemy wpływać na życie organizmów. Te sukcesy biologii molekularnej przyczyniły się w znacznej mierze do zauroczenia wielu uczonych redukcjonizmem. Jak stwierdził Richard Lewontin, genetyk z Harvardu: "Zgodnie z ideologią nowoczesnej nauki, w tym również nowoczesnej biologii, atom lub jednostka jest przyczyną wszystkich właściwości większych zbiorów. Ideologia ta dyktuje sposób badania świata, polegający na dzieleniu go na pojedyncze fragmenty, które są przyczyną danego zjawiska, i analizowaniu ich w izolacji od pozostałych".8 Tym sposobem ukształtował się popularny obraz człowieka jako organizmu całkowicie kontrolowanego przez geny, które składają się ze zdolnych do replikacji cząsteczek DNA; takiego poglądu broni między innymi Richard Dawkins w książce Samolubny gen.9 A jednak biologia molekularna, choć potężna, nie jest wszechmocna. W poprzednim rozdziale wykazaliśmy już, że czysto molekularny opis nie wystarcza, żeby wyjaśnić złożoność wielu układów chemicznych – takich jak reakcja Bie-łousowa-Żabotyńskiego – będących prototypami układów biologicznych. Złożoność ta wymaga analizy na poziomie makroskopowym, a nie mikroskopowym, gdyż wynika z oddziaływań między bardzo wieloma elementami, których właściwości, rozpatrywane w izolacji, nie mówią nam właściwie nic o zachowaniu globalnym. Trudno wprawdzie sformułować prostą i niepodważalną definicję życia, ale zdolność do samoodtwarzania (autoreplikacji) jest niewątpliwie jedną z ważnych cech żywych organizmów. W rozdziale 4. omówiliśmy logiczne reguły autoreplikacji, podane przez von Neumanna w związku z badaniami automatów. Von Neumann kładzie nacisk na konieczność osiągnięcia minimalnego poziomu złożoności, pozwalającego na reprodukcję oraz na redundancję i zdolność do ewolucji, potrzebne do zachowania zdolności do replikacji w zmiennym środowisku. Aby lepiej zapoznać się ze złożonością życia, musimy zbadać, jak zależy ona od samoorganłzacji i ewolucji. Musimy zbadać, jak nieprzeliczone elementy składowe procesów życiowych łączą się między sobą, i zacząć od poszukiwań replikujących się procesów chemicznych, które dały początek życiu. Nie ma większych wątpliwości, że samoorganizacja odegrała kluczową rolę przy przekraczaniu granicy oddzielającej procesy chemiczne od biochemicznych. Życie nie powstało przypadkowo. Musimy wyjaśnić, jak tajemna sztuka złożoności prowadzi od układów powiązanych ze sobą reakcji chemicznych do złożonych społeczności. Można wykryć pewne regularności w chemicznych procesach, zachodzących w pojedynczych komórkach, w kolektywnym zachowaniu milionów komórek kurczącego się mięśnia sercowego, w ewolucji gatunków i ich środowiska oraz w ogromnym kotle powiązanych procesów w materii nieożywionej i żywych organizmach, które razem tworzą naszą planetę. Poznanie tych regularności pozwala odsłonić liczne powiązania między na pozór zupełnie różnymi dziedzinami. Struktury występujące w reakcjach Turinga i Biełousowa-Żabotyńskiego pojawiają się również w procesach biochemicznych w komórkach i sercu, a także w zachowaniu dziwnego stworzenia, zwanego śluzowcem, oraz hydry (stułbia), niewielkiego słodkowodnego polipa. Regularności w zjawisku masowego wymierania gatunków i innych katastrofach naturalnych mogą mieć podobne podstawy, jak lawiny piasku. Korzystając z komputerów do symulowania zachowania różnych układów, możemy wyjaśnić w darwinowski sposób ewolucję współdziałania między gatunkami, będącą najsympatyczniejszym rodzajem zachowania, tym bardziej zaskakującym, jeśli pamiętamy opowieści o kłach i pazurach natury. Czym jest życie? Podobnie jak wiele innych pojęć omawianych w tej książce -na przykład porządek, nieuporządkowanie, emergencja, świadomość i inteligencja – również życie jest pojęciem trudnym do zdefiniowania. Według jednego słownika jest to "właściwość wspólna dla wszystkich żywych organizmów, odróżniająca je od obiektów nieożywionych", według innego: "stan bycia żywym" – takie tautologie wynikają z desperacji. Biolodzy mogą jednak wyliczyć bardzo wiele cech wspólnych dla niemal wszystkich żywych organizmów. Oprócz zdolności do reprodukcji należą do nich: organizacja, złożoność i istnienie genetycznego zapisu informacji. A przecież można znaleźć wyjątki: nie wszystkie obiekty, które skłonni bylibyśmy uznać za żywe, są zdolne do reprodukcji – chociażby: bezpłodni mężczyźni, kobiety po menopauzie, muły i wirusy. Kichnięcie zaś doskonale pokazuje, że wirus powodujący przeziębienie potrafi nakłonić komórki w układzie oddechowym do pomocy w reprodukcji i rozprzestrzenianiu wirusa, który właściwie jest tylko skrawkiem programu genetycznego zapakowanym w białko. Układy nieożywione też czasem wykazują cechy charakterystyczne dla "życia" – na przykład kryształy są zdolne do samopowielania się w okresie wzrostu. Wybitny austriacki fizyk Erwin Schrodinger w książce What Is Life? podał lepszą definicję. Jego zdaniem podstawową właściwością organizmów żywych jest tendencja do wytwarzania porządku i na pozór nieprawdopodobnych układów elementów składowych, podczas gdy zgodnie z drugą zasadą termodynamiki obiekty pozostawione same sobie dążą do stanu najbardziej prawdopodobnego, czyli całkowicie nieuporządkowanego.10 Wykorzystując zewnętrzne źródła energii – na przykład strumień światła słonecznego dochodzącego do powierzchni planety – organizmy wytwarzają bardzo nieprawdopodobne, uporządkowane stany materii, mające niezwykle małą entropię. Zorganizowana złożoność istnieje na każdym poziomie budowy układów ożywionych, poczynając od poziomu molekularnego, na którym znajdujemy atomy węgla, wodoru, azotu, tlenu i fosforu, ułożone w postaci pięknej podwójnej helisy DNA. W celu zrównoważenia bilansu organizmy stale eksportują entropię podczas procesów oddychania i wydalania. Jak powiedział Schrodinger, organizmy "stale ssą porządek z otoczenia".11 Jednak ta definicja również nie wyróżnia jednoznacznie żywych organizmów, gdyż podobnie zachowują się odwracalne reakcje chemiczne. Interesującym pomysłem jest sugestia, by powiązać życie z ewolucją.12 Większość podręczników pomija tę charakterystyczną cechę życia. Na tej koncepcji opiera się najogólniejsza praktyczna definicja życia, przyjęta na użytek programu badań egzobiologicznych przez amerykańską agencję kosmiczną NASA: życie to samopodtrzymujący się układ chemiczny, podlegający regułom ewolucji darwinowskiej.13 To określenie obejmuje autoreplikację, ciągłość materialną w rozwoju historycznym, zmienność genetyczną i dobór naturalny. Aby zdefiniować życie, powinniśmy rozważać nie przeżywające osobniki lub samolubne geny, lecz ewoluujące układy. Ewolucji podlegają nie jednostki ani geny, lecz całe układy. Taka definicja kieruje naszą uwagę z pojedynczych elementów na oddziaływania między nimi i środowiskiem. Niektórzy uczeni, na przykład James Lovelock, uważają, że organizmy i środowisko tworzą jeden samoregulujący się planetarny superor-ganizm, zwany Gają. Brakujące ogniwo Pierwsze koncepcje na temat powstania życia nie oddzielały jasno problemu pochodzenia życia od zagadnienia ogromnej różnorodności jego form, występujących na naszej planecie. Koncepcja Boga, stwórcy świata pełnego żywych istot, rozwiązywała oba problemy jednocześnie. W XIX wieku Charles Dar-win znalazł wyjaśnienie drugiego z tych zagadnień, nie odwołując się do Boga. Teoria ewolucji nie tłumaczyła jednak, jak powstało życie. Darwin doszedł do wniosku, że wszystkie żyjące organizmy mają wspólnego przodka, który istniał wiele eonów wcześniej. Przyczyną powstania różnorodnych gatunków były natomiast zmiany spowodowane przypadkowymi mutacjami i doborem naturalnym w walce o ograniczone zasoby. Biologia molekularna potwierdziła teorię Darwina, ponieważ okazało się, że wszystkie żywe istoty korzystają z takiego samego mechanizmu "programowania" genetycznego. Różnorodność organizmów jest skutkiem różnic w budowie gigantycznych cząsteczek kwasów nukleinowych DNA i RNA. DNA i RNA przechowują informację genetyczną w postaci sekwencji nukleotydów, chemicznych jednostek, ułożonych liniowo wzdłuż tych makrocząsteczek. Istnieją tylko cztery nukleotydy, ale -podobnie jak litery i zdania w języku – pozwalają one utworzyć w istocie nieskończoną ilość zakodowanych "komunikatów", których treść zależy od kolejności nukleotydów. Te komunikaty to geny, które zawierają szczegółowe instrukcje budowy białek niezbędnych dla żywych organizmów. Taka chemiczna technika informatyczna może się wydać bardzo prymitywna, ale warto pamiętać, że nowoczesne komputery posługują się językiem, którego słowa składają się z dwóch znaków, O i 1. Chromosomy w jądrze pojedynczej ludzkiej komórki są w stanie pomieścić cztery razy więcej informacji niż trzydzieści tomów dzieła Encyclopedia Britannica.14 Etymologia molekularna wyjaśnia organizację genomu, czyli zbioru informacji genetycznych danego osobnika. Ilościowe oceny i doświadczenia wskazują, że dostosowanie pojedynczego genu do wykonania określonego zadania nastąpiło jeszcze przed połączeniem genów w ogromną cząsteczkę, stanowiącą genom naszego hipotetycznego wspólnego przodka.15 Wskazuje na to wielka długość genomu: współczesna częstość występowania błędów podczas transkrypcji informacji genetycznej jest dostosowana do genomów o długości trzech miliardów genetycznych "liter" i w toku ewolucji została w istotny sposób zredukowana, tak aby ograniczyć ilość błędów. Gdyby częstość błędów była tak mała również dla pojedynczych, odizolowanych genów, tempo ich ewolucji uległoby drastycznemu spowolnieniu i nie mogłyby one wykonywać swoich specyficznych zadań tak dobrze, jak to czynią obecnie. Zmiany w DNA i RNA można wykorzystać do mierzenia czasu ewolucji. Porównując genomy gatunków wymarłych i żyjących, biolodzy stwierdzili, że częstość mutacji nie zmienia się w długich okresach. Mutacje doprowadziły ostatecznie do powstania tak różnych gatunków, jak pijawki i porosty. Procesy te definiują ewolucyjny "zegar", tykający w tempie określonym przez częstość występowania mutacji. Zegar ten można wyska-lować na podstawie dokładnie datowanych szczątków kopalnych, a następnie wykorzystać go do określenia, kiedy wyodrębniały się poszczególne gatunki16. Darwin nie wiedział, kiedy nastąpiła godzina zero, ale jego list z 1871 roku dowodzi, że myślał o tym problemie: "Jeśli (och, jakie to duże jeśli) jednak moglibyśmy sobie wyobrazić, że w jakimś ciepłym stawie – zawierającym najrozmaitsze sole fosforowe i azotowe – poddanym działaniu światła, elektryczności, ciepła itd., powstaje na drodze chemicznej cząsteczka białka, gotowa do kolejnych, jeszcze bardziej skomplikowanych przemian [...]".17 Uczeni kontynuujący program Darwina znaleźli dowody wskazujące na to, że najwcześniejszym ogniwem w łańcuchu życia, którego ślady przetrwały, były bakterie. Najstarsze znane przykłady pochodzą z formacji skalnych w Australii, które uformowały się 3,5 miliarda lat temu. W skałach pozostały uwięzione liczne gatunki bakterii. W 1988 roku James Lakę z Uniwersytetu Kalifornijskiego w Los Angeles ogłosił wyniki skomplikowanych genetycznych badań genealogicznych, prowadzących do wniosku, że najwcześniejszym wspólnym przodkiem wszystkich współczesnych organizmów była zapewne bakteria siarkowa, żyjąca w gorących źródłach. Wysiłki Lake'a, mające na celu ustalenie relacji genealogicznych na samym dole ewolucyjnego drzewa, stanowiły jedną z pierwszych prób ustalenia pokrewieństwa między wszystkimi rodzajami życia na Ziemi.18 Inne drzewo ewolucyjne opracowali Carl Woese z Uniwersytetu stanu Illinois w Urbanie, Otto Kandler z Uniwersytetu Monachijskiego i Mark Wheelis z Uniwersytetu Kalifornijskiego;19 ich stanowisko cieszy się poparciem większości uczonych. Według nich wszystkie organizmy należy podzielić na trzy grupy – dwie obejmują bakterie, trzecia zaś wszystkie pozostałe organizmy. W każdym razie bakterie nie są pierwszym ogniwem łańcucha życia, a tylko stanowią najstarsze organizmy, jakie jeszcze przetrwały. Wydaje się bardzo prawdopodobne, że kiedyś istniały jeszcze prostsze formy życia. Obecnie zadanie polega na odtworzeniu jeszcze wcześniejszych ogniw, które nie zostawiły po sobie żadnego śladu, a niegdyś odniosły sukces ewolucyjny, po czym zostały wyparte przez bardziej rozwinięte organizmy. Te najstarsze żywe organizmy powstały w ciągu miliarda lat od ukształtowania się Ziemi 4,6 miliarda lat temu. Ówczesne organizmy przypominały dzisiejsze sinice.20 Miliardy lat, jakie minęły od powstania najwcześniejszych organizmów, sprawiły, że ich pochodzenie jest przedmiotem wielu spekulacji i dyskusji. Większość koncepcji, które omawiamy w tym rozdziale, jest zapewne błędna w szczegółach, natomiast ich schemat pojęciowy pozwala na badanie życia za pomocą komputerów (będzie o tym mowa w następnym rozdziale). Początki badań narodzin życia W latach dwudziestych narodziła się idea, że narodziny życia można wyjaśnić, odwołując się do chemicznych i fizycznych procesów, które zapewne zachodziły we wczesnym okresie ziemskiej historii. W 1921 roku Aleksander Iwanowicz Oparin opublikował przełomową pracę, w której rozważał powstanie zorganizowanych, żywych układów, odwołując się przy tym do porównania z lodem tworzącym "kwiaty" na szybach, choć w jego skład wchodzą tylko cząsteczki wody.21 "Cząsteczki te, podporządkowując się odwiecznym prawom przyrody, wspólnym dla żywych i martwych, tworzą dobrze określone wzory, dzięki czemu na zwykłej szybie powstają fantastyczne ogrody, mieniące się w słońcu wszystkimi kolorami tęczy". Oparin, wykorzystując dane naukowe, wyjaśnił, jak z "organicznych" cząsteczek – czyli cząsteczek zawierających węgiel – mogły powstać żywe organizmy. W latach trzydziestych Oparin oraz J. B. S. Haldane stwierdzili jednak, że związki organiczne konieczne do życia nie mogły powstać, jeśli atmosfera ziemska zawierała dużo tlenu, tak jak obecnie. Wobec tego wysunęli hipotezę, że we wczesnym okresie ziemskiej historii atmosfera miała silne właściwości redukujące, to znaczy w jej skład wchodziło dużo wodoru, metanu i amoniaku.22 Później nastąpiła przerwa w badaniach, trwająca do 1953 roku, kiedy to Stanley Miller, student pracujący w laboratorium Harolda Ureya na Uniwersytecie w Chicago, zainteresował się przebiegiem reakcji chemicznych w takiej atmosferze.23 Aby je zbadać, stworzył prymitywny świat, składający się z dwóch połączonych naczyń. Dolne stanowiło "ocean" wody, a górne wypełniała mieszanina prostych substancji, które – jak wówczas sądzono – wchodziły w skład prymitywnej atmosfery. Następnie Miller spowodował w "atmosferze" błyskawicę. Jak stwierdził: "Po pierwszym dniu woda w naczyniu wyraźnie się zaróżowiła, a pod koniec tygodnia woda była już intensywnie czerwona i mętna". Mieszanina zawierała pewne aminokwasy, podstawowe cegiełki białek, koniecznych do powstania znanego nam życia.24 W późniejszych latach Cyril Ponnamperuma i Leslie Orgel z Salk Institute w San Diego, Sidney Fox z Uniwersytetu w Miami i inni uczeni wykazali, że w podobny sposób mogły powstać liczne ważne biologicznie cząsteczki, w tym także kwasy nukleinowe i cząsteczki magazynujące energię, takie jak kwas adenozynotrłfosforowy (ATP) oraz cukry. Jeszcze inne cząsteczki tworzą się pod wpływem światła lub katalizatora w postaci gliny i minerałów ilastych.25 Nawet jeśli w pierwotnej mieszaninie brakowało pewnych istotnych związków, astronomowie wykazali, że mogły one spaść z nieba: węglowe chondryty – meteoryty będące grudkami pyłu, z którego powstał Układ Słoneczny – zawierają wiele prostych związków organicznych.26 Materiały istniejące na Ziemi i te, które dotarły z kosmosu, razem stanowiły surowiec do powstania organizmów żywych. Kreśląc zasady samoorganizacji chemicznej, możemy spekulować na temat przepisu na powstanie życia. Jeśli w "prebiotycznej zupie" działał jakiś mechanizm sprzężenia zwrotnego, powodujący wystąpienie nieliniowych zależności, to panowały w niej warunki sprzyjające samoorganizacji. Jeśli na przykład jakaś cząsteczka w "zupie" katalizowała swą replikację, powodowało to wystąpienie nieliniowego sprzężenia zwrotnego, charakterystycznego dla samoorganizacji. To mogło zaś doprowadzić do naruszenia przestrzennej jednorodności ośrodka i zainicjować proces powstawania struktur przestrzennych oraz rytmów, z grubsza w taki sposób, jak to przewidział Turing w swej pracy z 1952 roku. Takie struktury i oscylacje występują w zegarach chemicznych. Najważniejszym składnikiem "prebiotycznej zupy" jest zatem cząsteczka zdolna do samoodtwarzania, katalizująca własną produkcję.27 Takie cząsteczki znamy – najlepszym przykładem jest DNA. Jak zademonstrowała grupa uczonych z Caltech, słynną podwójną helisę DNA można zobaczyć za pomocą skaningowego mikroskopu tunelowego28 (zob. wkładka, zdjęcie nr 5). Rozsądnie brzmi przypuszczenie, że pierwszymi prymitywnymi żywymi strukturami były "nagie" geny – łańcuchy nukleotydów zdolne do samodzielnego namnażania się. Ogromna różnorodność żywych organizmów występujących w przyrodzie powstała dzięki zdolności tych cząsteczek do samoodtwarzania i samoorganizacji. Wobec tego głównym zagadnieniem w badaniach powstania życia jest zrozumienie pierwszego układu zdolnego do replika-cji i przenoszącego informacje – "pierwszego genu", łączącego martwe cząsteczki z żywymi komórkami. Z uwagi na brak jakichkolwiek szczątków kopalnych badania te polegają raczej na szukaniu możliwości niż pewności. Zapewne pierwsze białka replikowały się bezpośrednio; następnie "wynalazły" one kwasy nukleinowe i ostatecznie stały się ich niewolnikami. Możliwe jest również, że pierwsze kwasy nukleinowe i spokrewnione z nimi cząsteczki replikowały się bezpośrednio, po czym to one "wynalazły" syntezę białek. Równie dobrze mogły zachodzić dwa procesy jednocześnie, a mianowicie replikacja kwasów nukleinowych i genetyczne kodowanie białek rozwijały się równolegle. Nie można także wykluczyć, że najwcześniejsze układy ożywione wykorzystywały związki nieorganiczne, nie spokrewnione z białkami i kwasami nukleinowymi.29 Nagi gen Załóżmy na chwilę, że można utworzyć DNA lub pokrewny RNA z odpowiednich mniejszych prekursorów nukleotydowych. Przez kilka lat uważano, że takie cząsteczki nie byłyby nagimi genami. Wprawdzie DNA i RNA mogą gromadzić informację, ale nie wydają się dostatecznie elastyczne chemicznie, by potrafiły zorganizować własną reprodukcję. Na dokładkę biologów zmylił sposób, w jaki cząsteczki te funkcjonują w żywych organizmach: mówiąc w skrócie, "DNA wytwarza RNA, RNA wytwarza białko".30 Informacja genetyczna przepływa z DNA do białka via RNA, gońca przenoszącego informację do rybosomów, gdzie wytwarzane są białka. Inny ówczesny dogmat głosił, że enzymy przyspieszające reakcje biochemiczne, a także surowce, z których zbudowane są komórki, to białka. Zdaniem tych, którzy szukali nagiego genu, zdolnego do bezpośredniej autokatalizy, oznaczało to wykluczenie kwasów nukleinowych: nagi gen musiał być białkiem. Później się jednak okazało, że w niektórych wirusach informację genetyczną przechowuje RNA.31 W latach osiemdziesiątych ogromnie wzrosła nasza wiedza na temat chemicznych procesów z udziałem RNA, dzięki czemu stwierdzono, że kwas ten mógł odegrać zasadniczą rolę we wczesnej ewolucji. Biolodzy molekularni przekonali się, że RNA bierze udział w skomplikowanych reakcjach chemicznych, które przedtem uważano za domenę białek. Nagle stało się jasne, że choć DNA jest bezkonkurencyjny jako nośnik informacji genetycznej, a białka są dobrymi enzymami, tylko RNA może spełniać obie funkcje jednocześnie. W ten sposób pojawiła się idea, że "na początku" RNA równocześnie przenosił informację genetyczną i służył jako katalizator. "Świat RNA" stał się prawdziwą obsesją uczonych dążących do zrozumienia początków życia na Ziemi.32 Ich zdaniem obecny świat DNA wyrósł ze świata RNA, podobnie jak kultura pisana wyrosła z tradycji przekazywanych ustnie. DNA posłużyło jako trwały środek zapisu procesów zachodzących wcześniej. Koncepcja ta opierała się na dwóch ważnych faktach, wskazujących na fundamentalne znaczenie RNA. Po pierwsze, wszystkie komórki wytwarzają nukleotydy, z których zbudowany jest DNA, nie od zera, lecz z nukleotydów RNA. To świadczyłoby, że prymitywne komórki wytwarzały RNA na długo wcześniej, nim zaczęły produkować DNA. Po drugie, wiele typowych enzymów białkowych może działać tylko współpracując z mniejszymi cząsteczkami, zwanymi koenzymami, które na ogół stanowią nukleotydy RNA lub cząsteczki blisko z nimi spokrewnione. Oba te fakty stanowiły jednak tylko pewną wskazówkę. Naukowcy nie rozumieli, co spowodowało upadek świata RNA i rozwój świata DNA, a przede wszystkim nie mieli żadnych dowodów, że to RNA odegrał zasadniczą rolę w powstaniu życia. W 1982 roku nastąpił przełom, który zainicjował renesans badań nad początkami życia. Thomas Cech z Uniwersytetu stanu Kolorado zaskoczył biologów odkryciem w jednokomórkowym pierwotniaku Tetrahymena cząsteczek RNA o właściwościach katalizujących. Rok później Sidney Altman i jego koledzy z Uniwersytetu Yale odkryli enzym RNA, czyli rybozym, ukryty w dobrze znanej bakterii przewodu pokarmowego, Escherichia coli.33 Wówczas uważano to za coś w rodzaju żywej skamieniałości – relikt z czasów, kiedy RNA odgrywał podwójną rolę genu i enzymu. Odkrycie to było jednak dużą niespodzianką. Jak powiedział Leslie Orgel: "Gdy pod koniec lat sześćdziesiątych Francis Crick, Carl Woese i ja przypuszczaliśmy, że pierwszy był RNA, nikomu z nas nie przyszło do głowy, że w żywych organizmach można jeszcze znaleźć enzymy RNA".34 Klocki układanki zaczynały pasować do siebie. W 1989 roku Altman i Cech podzielili się Nagrodą Nobla z chemii za odkrycie świata RNA.35 "Świat RNA jest dla nas bazą dla dalszych poszukiwań – powiedział Orgel. – Zamiast bardzo trudnego problemu pochodzenia organizmów mamy teraz dwa problemy: (a) jak powstał świat RNA oraz (b) jak zmienił się świat DNA i białek? Łatwiej jest rozwiązać te dwa problemy, niż próbować znaleźć całą odpowiedź za jednym zamachem".36 Ewolucja w probówce Chemicy, posługując się swoimi metodami, również usiłują wyjaśnić, co działo się trzy miliardy lat temu, kiedy chemiczne reakcje w błotnistym stawie doprowadziły do powstania pierwszych cząsteczkowych prekursorów życia, zdolnych do samo-odtwarzania.37 Metody te łączy wspólny cel, jakim jest znalezienie dostatecznie bogatego układu reakcji, by mogły w nich powstać kwasy nukleinowe i białka. W 1986 roku Gunter von Kiedrowski wyprodukował krótkie łańcuchy cząsteczek (oligo-nukleotydy), zbudowane z tych samych zasad, jakie występują w DNA, i wykazał, że są one zdolne do samoodtwarzania w wodzie.38 W tym samym czasie w laboratorium w Massachusetts Institute of Technology (MIT) grupa Juliusa Rebeka odkryła reakcję chemiczną, mającą pewne interesujące właściwości biologiczne. Był to intrygujący krok naprzód w dziedzinie, którą Rebek nazywa "ekstrabiologią", a która polega na próbach znalezienia zachowań typowych dla życia metodami chemicznymi, czyli od podstaw: "Naszym celem jest przeprowadzenie takich procesów, jak replikacja, regulacja, transport i synteza, za pomocą syntetycznych cząsteczek. Jeśli pojawia się jakieś zjawisko, nie mające odpowiednika w naturze, dla którego nie istnieją jeszcze terminy, tym lepiej".39 Zespół Rebeka rozpoczął pracę w połowie lat osiemdziesiątych. W tym czasie uczeni z MIT próbowali zaprojektować cząsteczkę zdolną do samoodtwarzania. Aby to było możliwe, cząsteczki muszą się rozpoznać: nim cokolwiek się zdarzy, chemiczne składniki powinny zacząć oddziaływać między sobą. Posługując się modelami komputerowymi, zespół Rebeka badał podstawowe czynniki, decydujące o łączeniu się cząsteczek, takie jak ich ogólny kształt i rozkład ładunków elektrycznych. Program komputerowy pozwalał na dokonywanie manipulacji cząsteczkami na ekranie i badanie, czy mogą się wzajemnie dopasować; całość przypominała projektowanie kawałków układanki. Dwa lata później grupa z MIT odniosła pierwszy sukces.40 Ich przepis na samoodtwarzanie wykorzystywał cząsteczki, które najpierw delikatnie łączą się ze sobą, a następnie wytwarzają trwałe wiązania chemiczne. To utorowało drogę do prostego schematu samoodtwarzania, w którym biorą udział trzy cząsteczki. Struktura cząsteczek A i B gwarantuje, że mogą się one połączyć z cząsteczką C, służącą za matrycę. Po przyłączeniu się do C cząsteczki A i B łączą się, tworząc kopię C. Ta kopia może z kolei posłużyć za matrycę dla następnej pary cząsteczek A i B, a zatem działa jak autokatalizator. Replikacja trwa dopóty, dopóki nie wyczerpie się zapas cząsteczek A i B.' Taki prosty mechanizm replikacji sprawia, że powstanie życia wydaje się mniej przypadkowe i bardziej prawdopodobne, pod warunkiem że możliwa jest dalsza ewolucja układu.41 Grupa Rebeka zrobiła pewien krok w tym kierunku, wprowadzając do swych molekularnych gier "mutanty". W nowym układzie cząsteczek bardziej skuteczne replikatory zaczynają dominować w obecności światła ultrafioletowego, podobnie jak bakterie wytrzymałe na światło wygrywają konkurencję z bakteriami czułymi na promieniowanie w nasłonecznionym środowisku. Tym razem nieco różne cząsteczki B i B' tworzą dwie nieco różne matryce, C i C'. Dwie populacje C rywalizują między sobą o cząsteczki A, B i B'. Aby stworzyć mutanty, uczeni z MIT otrzymali cząsteczkę C wrażliwą na promieniowanie ultrafioletowe. Pod wpływem promieniowania cząsteczka ta rozpada się na A i B', które ponownie łączą się na matrycy C, tworząc C'. Cząsteczki C' rozmnażają się szybciej niż C. Dysponując układem z jednym mutantem, grupa Rebeka miała szansę na dokładne zbadanie tego bardzo uproszczonego przykładu ewolucji. W tym układzie wszystkie cząsteczki mogą się mnożyć i mieszać. Jednak C' szybko wygrała konkurencję z niezmutowaną cząsteczką.42 Rebek obecnie usiłuje stworzyć układ przypominający wirusa.43 Ryc. 7.2. Schemat chemicznego replikatora Rebeka. Cząsteczki A i B łączą słę, tworząc replikator C. Struktura replikatora umożliwia przyłączenie kolejnej pary cząsteczek A i B, ułatwiając ich przemianę w następny replikator. Schemat w dolnej części rysunku przedstawia trzy ostatnie fazy reakcji. Proces modelowany przez grupę Rebeka, podobnie jak badany przez von Kiedrowskiego, jest analogiczny do mechanizmu kopiowania DNA w żywych organizmach, choć występują tu również ważne różnice. W odróżnieniu od wcześniejszych eksperymentów von Kiedrowskiego Rebek nie analizuje zachowania cząsteczek kwasu nukleinowego, a symulowane reakcje zachodzą w roztworze organicznym, nie zaś w wodzie. Co więcej, w obu przypadkach w wyniku replikacji pojawia się dokładna kopia matrycy, podczas gdy w procesie replikacji DNA powstaje łańcuch komplementarny.44 Von Kiedrowski wykazał niedawno, że krótkie łańcuchy oligonukleotydów replikują się w taki sam komplementarny sposób, jak DNA i RNA, co przybliża określenie konkretnego prebiotycznego scenariusza, opisującego, jak mogły zachodzić pierwsze procesy replikacji cząsteczek z udziałem kwasów nukleinowych.45 Ewolucja RNA in yvitro Uczeni nie tylko usiłują stworzyć cząsteczki zdolne do samoodtwarzania, ale próbują także badać ewolucję cząsteczek biologicznych w probówce. W latach sześćdziesiątych i siedemdziesiątych Soi Spiegelman i jego współpracownicy wykonali pionierskie badania ewolucji RNA in vitro.46 W następnej dekadzie doświadczenia te kontynuowali Manfred Eigen, Christof Biebricher i inni uczeni z Getyngi.47 Udało się im skłonić enzymy RNA do ewolucji w sztucznych warunkach, osiągając w ciągu kilku tygodni to, na co natura potrzebowała tysięcy lat. Badania tego rodzaju zapewne przyczynią się do wyjaśnienia mechanizmów ewolucji molekularnej, zwłaszcza jeśli podobne reakcje chemiczne z udziałem RNA zachodzą, na przykład, w procesach syntezy białek. Metoda ta stanowi potencjalnie bardzo skuteczny sposób syntezy sztucznych cząsteczek, mających nowe właściwości; cząsteczki te mogą się okazać skuteczne jako leki lub odczynniki diagnostyczne. Idea doświadczeń typu "ewolucja in vitro" jest bardzo prosta: eksperymenty te stanowią empiryczny odpowiednik algorytmów genetycznych, które opisywaliśmy w rozdziale 4. Pozwalają one uczonym zoptymalizować projekt cząsteczki. Zadanie to wykracza poza możliwości tradycyjnych analitycznych metod matematycznych. W pierwszych eksperymentach uczeni usiłowali wpłynąć na możliwość oddziaływania między enzymem białkowym i cząsteczką RNA, później zaś sprawić, że RNA zyskał nowe funkcje katalityczne. W tym celu posługiwali się metodą "nienaturalnego doboru" zamiast precyzyjnego projektowania katalizatora, które wymaga dokładnej, redukcjonistycznej znajomości oddziaływań. Gerald Joyce i Amber Beaudry ze Scripps Research Institute w La Jolla w Kalifornii przeprowadzili ostatnio eksperyment tego typu, wykorzystując populację, która składała się z bilionów odmian molekularnych pojedynczej nici enzymu RNA, tak zwanego rybozymu.48 Użyty rybozym pochodził z jednokomórkowego pierwotniaka Tetrahymena thermophila. Rybozym Tetrahymena składa się z 413 nukleotydów. Naturalne rybozymy to kawałki nici RNA, zdolne do przecinania siebie lub innych fragmentów RNA. Pozwala to rybozymom "redagować" informację zmagazynowaną w ich DNA po jej skopiowaniu na RNA, czyli w pierwszej fazie syntezy białka. W przyrodzie nici RNA ewoluowały poprzez mutacje materiału genetycznego: proces ten doprowadził do faworyzowania rybozymów najlepiej dostosowanych do środowiska w komórce. Aby przeprowadzić ewolucję w laboratorium, Joyce i Beaudry posłużyli się syntetyzatorem DNA, automatycznie produkującym DNA i RNA. Najpierw wyprodukowali 10 bilionów kopii oryginalnego rybozymu. W celu wprowadzenia różnorodności zaprogramowali syntetyzator, który zmieniał genetyczną Informację, włączając do nici RNA odcinki materiału genetycznego o zmiennej długości, tak zwane oligonukleotydy. Każdy oligonukleotyd powodował mutację jednej z czterech specyficznych porcji rybozymu, decydujących o jego własnościach katalitycznych. Populacja zmutowanych cząsteczek RNA otrzymywała teraz katalityczne zadanie: cięcie DNA. Jeśli dany mutant rybozymu potrafił przeciąć cząsteczkę DNA wrzuconą do naczynia, dołączał do siebie część jej nici. Ta etykieta pozwoliła eksperymentatorom zidentyfikować "dostosowane" rybozymy i wzmocnić je w następnej fazie cyklu ewolucyjnego. W tym celu posłużyli się oni metodą reakcji łańcuchowej polimerazy (PCR – polymerase choin reaction), powszechnie stosowanej do namnażania fragmentów materiału genetycznego. Podczas tego procesu amplifikacji (powielania) źródło mutacji stanowiły błędy w reakcji PCR; żaden rodzaj błędów nie był szczególnie uprzywilejowany. Po dwóch dniach Joyce i Beaudry otrzymali całkowicie nową populację rybozymów. Po dwudziestu dniach mieli już dziesiąte pokolenie, zawierające enzymy przecinające DNA sto razy skuteczniej niż cząsteczki wyjściowe. Choć to może się wydać skromnym ulepszeniem, w rzeczywistości zrobiono wielki krok naprzód: był to pierwszy enzym, uzyskany in vitro za pomocą techniki ewolucyjnej. Praca ta stanowi ukoronowanie wieloletnich badań nad RNA i prób wyprodukowania nowych cząsteczek biologicznych przez przypadkowe, a nie zaplanowane zmiany. Jest oczywiste, że tylko takie – darwinowskie lub "genetyczne" – podejście umożliwia usprawnienie działania rybozymu. Obliczenie, które miejsca w cząsteczce należałoby zmodyfikować, jest problemem typu NP, zdecydowanie wykraczającym poza możliwości matematyki analitycznej. Dobór naturalny może się wydać oszustwem wobec uczonych, którzy dążą do dokonania odkryć, wykorzystując wyłącznie swą inteligencję. Nie ma jednak żadnego prostego algorytmu służącego do ustalenia odpowiednich struktur molekularnych. Doskonałym tego potwierdzeniem była końcowa analiza wyników molekularnego hazardu. Najsprawniejsze cząsteczki powstały dzięki mutacjom, które spowodowały zmiany w zupełnie nieoczekiwanych miejscach. Te zaś cząsteczki, które początkowo wydawały się bardzo dobre, ostatecznie przegrały walkę z innymi49 (por. wkładka, zdjęcie nr 6). Opracowując nowe lekarstwa, firmy farmaceutyczne tradycyjnie wykorzystują redukcjonistyczną metodologię i szczegółową znajomość działania odpowiednich związków. Posługują się techniką inżynierii genetycznej, aby masowo wytwarzać pożądane białko z bakterii – o ile wiadomo, jak jest genetycznie zakodowane. Inną możliwością jest tak zwane "racjonalne projektowanie", polegające na wykorzystaniu komputerów w celu zaprojektowania cząsteczki oddziałującej z aktywnym miejscem danego enzymu – o ile znana jest struktura tego miejsca. Dobór nienaturalny, czyli "nieracjonalne projektowanie", ma jedną wielką zaletę w próbach znalezienia nowych specyfików: uczeni mogą ich poszukiwać, nie znając nawet niezwykle złożonych szczegółów ich budowy i działania na poziomie molekularnym. Wszystko, czego trzeba, to trzy zasadnicze elementy darwinowskiej ewolucji: mechanizm wprowadzania przypadkowych mutacji w danej populacji cząsteczek, ciśnienie selekcyjne, które faworyzuje pewne cząsteczki, oraz mechanizm "wzmacniający", dzięki któremu takie cząsteczki szybciej się mnożą. Innymi słowy, metoda ta polega na zastosowaniu bilionów cząsteczek i poczekaniu, by wskutek ewolucji zostały wybrane te, które najlepiej rozwiązują dany problem. Wiele innych zespołów posługuje się obecnie tą metodą, na przykład usiłując znaleźć DNA, który zahamowałby rozwój naturalnego czynnika, powodującego krzepnięcie krwi. Jest to jedna z najpłodniejszych dziedzin współczesnej biotechnologii.50 Niestety, nie do końca wiadomo, jak powtórzyć sukces Joyce'a i Beaudry w przypadku białek. Problem polega na tym, że nikomu nie udało się jeszcze dokonać odwrotnego przekładu genetycznego, od białka do RNA. Sydney Brenner z Medical Research Councits Laboratory for Molecular Biology w Cambridge i Richard Lerner z Scripps Research Institute zaczęli ostatnio badać pewien sposób rozwiązania tego problemu.51 Wytwarzają oni cząsteczki – hybrydy, składające się z dwóch części. Jedna to fragment białka (peptyd), druga to "gen". W ten sposób Brenner i Lerner mogli dobierać cząsteczki w zależności od chemicznego dostosowania ich części peptydowej, a następnie mnożyć je, korzystając z dołączonego "genu". Teoria, komputery i pochodzenie życia Według jednej z naukowych wersji Księgi Rodzaju, powstanie, ewolucja i upadek świata RNA miały miejsce w okresie od 4,2 do 3,6 miliarda lat temu.52 Polowanie na molekularne pozostałości tamtego świata jest jednak jałowe. Jeśli nawet znajdziemy prawdopodobny scenariusz powstania pierwszego nagiego genu, nikt nie będzie mógł z całą pewnością powiedzieć, co działo się w jakimś błotnistym stawie lub w szczelinie w dnie oceanu 3 miliardy lat temu. Badania von Kiedrowskiego, Rebeka i Joyce'a robią wrażenie, ale nie pozwalają odpowiedzieć na podstawowe pytanie: w jaki sposób ze zbioru mniejszych struktur powstała nagle kombinacja materiału genetycznego i białka, zdolna do samoodtwarzania? Układy takie są bardzo nieliniowe, a zatem również bardzo złożone, i ich działanie mogą wyjaśnić symulacje komputerowe. Życie trwa dzięki skomplikowanemu zbiorowi reakcji chemicznych, zachodzących w stanie dalekim od równowagi. Reakcje te mogą przebiegać, gdyż wszystkie organizmy to układy otwarte; ich złożoność opiera się na sprzężeniu zwrotnym, uwarunkowanym obecnością katalizatorów, wspomagających przebieg reakcji i nie ulegających przy tym zniszczeniu. Cząsteczka produkowana w jednym cyklu reakcji metabolicznych może przyspieszyć inne cykle, te zaś z kolei – poprzez sprzężone reakcje chemiczne – mogą przyspieszyć cykl wyjściowy. Stuart Kaufmann z Santa Fe Institute w Nowym Meksyku podał wyidealizowane teoretyczne modele takich chemicznych "sieci". W sieciach tych długie cząsteczki, zbudowane z prostych elementów (polimeryczne makrocząsteczki), oddziałują pod kontrolą katalizatorów, tworząc produkty, które odgrywają rolę surowca lub katalizatora w kolejnych reakcjach. Kaufmann twierdzi, że dostatecznie złożone mieszaniny takich polimerów mogą się replikować, nawet jeśli żaden z elementów składowych mieszaniny nie jest samodzielnie zdolny do replikacji. Zdaniem Kaufmanna, jeśli zaczniemy od "dostatecznie złożonej" mieszaniny związków, musi ostatecznie nastąpić konieczne dla życia zjawisko chemicznego samoodtworzenia. Pozwoliłoby to małym cząsteczkom białka (peptydy) uzyskać zdolność samoodtworzenia, nawet gdy nie miały one jawnych, autokatalitycznych właściwości, tak jak DNA i RNA, W ten sposób mógł powstać zintegrowany białkowy cykl metaboliczny, następnie przejęty przez RNA.53 Niektórzy wpływowi uczeni uważają, że chemiczne sieci Kauffmana nie mają wiele wspólnego z rzeczywistym światem chemicznym.54 Jak zauważył Leslie Orgel: "Nie sądzę, aby związki chemiczne znały jego równania matematyczne i zachowywały się zgodnie z nimi".55 Bardziej przekonujące są badania Jacka Szostaka z Massachusetts General Hospital w Bostonie. Szostak odkrył działanie katalityczne cząsteczek RNA wybranych ze zbioru przypadkowych oligonukleotydów, które mogły istnieć w "prebiotycznej zupie". Katalityczne RNA mogło doprowadzić do połączenia innych cząsteczek RNA w reakcji z udziałem kwasu adenozynotrifosforowego. Ten sam związek bierze obecnie udział w cyklu reakcji, stanowiących źródło energii procesów biochemicznych. "Takie podobieństwo dostarcza argumentu na rzecz tezy, że cząsteczki RNA kiedyś zastępowały katalizatory białkowe, które obecnie są odpowiedzialne za replikację genetycznego materiału w żywych organizmach" – stwierdził Orgel.56 Manfred Eigen, laureat Nagrody Nobla, wykazał, jak białka mogą się włączyć w procesy RNA. Razem z Peterem Schusterem z Wiednia i innymi współpracownikami Eigen spróbował wyjaśnić teoretycznie ewolucję molekularną od prebiotycznej mieszaniny za pomocą tak zwanych hipercykli – cykli replikacyjnych, w których cząsteczka A tworzy B, B tworzy C, a C tworzy A. Eigen opracował tę koncepcję ponad dwadzieścia pięć lat temu, gdy zrozumiał, że niewielkie cząsteczki nie są dostatecznie złożone, aby mogły się samodzielnie reprodukować. Później koncepcja hipercykli została poddana krytyce. John Maynard Smith, biolog ewolucyjny z Uniwersytetu w Sussex, wykazał, że w obecności "pasożytniczych" cząsteczek, które wykorzystują ten mechanizm dla własnych celów, hipercykl staje się niestabilny. Pasożyty eksploatują katalityczne właściwości hipercykli, aby się mnożyć, nie dając nic w zamian. Wobec tego – argumentował Maynard Smith – po dostatecznie długim czasie hipercykle powinny wyginąć.57 Jego analiza odwoływała się do wyidealizowanego modelu, w którym hipercykle były rozmieszczone równomiernie w przestrzeni. Krytyczne argumenty Maynarda Smitha są często cytowane, choć w istocie stanowią błędny trop, gdyż już we wcześniejszej o osiem lat świetnej pracy Eigena i Schustera pojawiła się uwaga, że do działania hipercykli konieczna jest przestrzenna niejednorodność.58 Martin Boerlijst i Pauline Hogeweg przedstawili niedawno bardziej złożony i realistyczny scenariusz. Przeprowadzili oni symulację hipercykli w niejednorodnym ośrodku, posługując się automatem komórkowym, reprezentującym prebiotyczne reakcje chemiczne.59 Hipercykle zachowują się wyraźnie inaczej niż w dobrze wymieszanej "zupie" Maynarda Smitha. Teraz, podczas reakcji, mogą wystąpić gradienty stężenia związków chemicznych, tak jak to przewidywał Turing. Reakcje autokatalityczne powodują wtedy powstanie spiralnych fal aktywności, takich jak w reakcji BZ. Okazuje się, że hipercykle w falach spiralnych odpierają inwazję pasożytów, które zostają zepchnięte na brzeg fali. Michael Gebinoga, student Eigena z Getyngi, znalazł dowód występowania hipercykli w bakteriofagu, wirusie atakującym bakterie. Często uważa się, że wirusy znajdują się na granicy oddzielającej układy martwe od ożywionych. Mają one postać fragmentu kwasu nukleinowego w otoczce białkowej. Gebinoga znalazł dowody działania w wirusach dwóch cykli ze sprzężeniem zwrotnym. Jeden wykorzystuje replikazę, enzym wspierający replikację wirusa, drugi natomiast otoczkę białkową, która blokuje replikację.60 Wirus wydaje się zorganizowaną strukturą, utworzoną przez te dwa elementy hipercyklu. "Wirusy to użyteczne modele do badania, jak cząsteczki mogły się zorganizować w replikujące się struktury w okresie, gdy powstawało życie" – powiedział Eigen.61 Nie oznacza to, że w momencie biochemicznego wielkiego wybuchu działały hipercykle. Rozwój chemii RNA pozwolił stwierdzić, że ta gigantyczna cząsteczka może magazynować informacje genetyczne i spełniać funkcje normalnie przypisywane białkom. Eigen sądzi, że hipercykle działają lepiej w świecie RNA.62 Można łatwo uwierzyć, że w mieszaninie zawierającej miliony odmian cząsteczek polimerycznych powstała spontanicznie sieć reakcji, która utworzyła ekosystem cząsteczek wykazujących swoisty metabolizm. Pierwsze komórki Jeśli złożoność życia rzeczywiście rozpoczęła się od metabolizmu RNA, musiała ewoluować w bardzo szczególnych warunkach, między innymi dlatego, że RNA szybko rozkłada się w wodzie. Życie oparte na DNA wymagałoby ochronnego środowiska, analogicznego do tego, jakie obserwujemy dziś w komórkach. Prymitywne komórki, oddzielone przepuszczalnymi błonami od wodnego ośrodka, umożliwiłyby kontrolowaną ewolucję bardziej złożonych cząsteczek i procesów. Uczeni przedstawili wiele hipotez tłumaczących, jak mogły powstać komórki, takie jak na przykład model spontanicznie tworzących się mikroskopijnych kulek z aminokwasów Sidneya Foxa63 i teoria podwójnej warstwy lipidowej Richarda Goldacre'a, zgodnie z którą cząsteczki tłuszczu połączyły się i utworzyły prostą błonę.64 Pier Luigi Luisi z ETH w Zurychu od kilku lat usiłuje zrealizować układ chemiczny, spełniający warunki "minimalnego życia", podane przez Humberto Maturanę i Francisco Varelę w ich definicji życia jako procesu autopojetycznego – to znaczy takiego, w którym autoreplikacja zachodzi w dobrze określonych granicach.65 Warto zwrócić uwagę, że koncepcja ta różni się od określenia życia według Szostaka, von Kiedrowskiego, Rebeka i Joyce'a, dla których podstawową, minimalną jednostką ożywioną byłaby pojedyncza cząsteczka zdolna do replikacji i mutacji. W 1990 roku zespół Luisiego ogłosił, że znalazł proces, który – ich zdaniem – ma takie właściwości i jest zgodny z prebiotycznymi warunkami chemicznymi.66 Jego protokomórki zawierają grupę zdolnych do autoreplikacji miceli – skupisk cząsteczek kwasów tłuszczowych z dobrze określonymi granicami – które mogły być pierwotnymi błonami komórkowymi. Powstawanie takich skupisk można wyjaśnić, posługując się pojęciami, z jakimi zetknęliśmy się w poprzednim rozdziale.67 Zespół Luisiego bada również bardziej realistyczne procesy reprodukcji, w których ulegają replikacji zarówno cząsteczki kwasów tłuszczowych, jak i zawarte w ich środku RNA.68 Reakcja BZ w układzie ożywionym Gdy w wyniku ewolucji powstały już cząsteczki zdolne do sprawnej autoreplikacji, możemy stworzyć warunki analogiczne do tych, w których zachodzi reakcja Biełousowa-Źabotyńskiego. Obserwujemy wtedy samoorganizację, będącą wynikiem koherentnego zachowania milionów cząsteczek w czasie i przestrzeni. W pojedynczej komórce stężenie różnych związków może się zmieniać w ciągu sekund lub minut. Ogromna liczba komórek, z których zbudowany jest mięsień sercowy, wykonuje mniej więcej siedemdziesiąt skurczów na minutę. W zbiorowiskach komórek, z których zbudowane są rośliny i zwierzęta, zachodzą naturalne zjawiska rozwoju i reprodukcji, trwające wiele lat. Cale ludzkie ciało można uznać za złożony, zorganizowany układ, istniejący w czasie i przestrzeni. Wszystkie te zjawiska cykliczne są regulowane przez nieliniowe procesy, które można wyjaśnić w podobny sposób, jak reakcję BZ. Jedyna istotna różnica polega na tym, że są to układy ożywione. Nie powinno być dla nas niespodzianką, że w układach biologicznych występują podobne mechanizmy sprzężenia zwrotnego, jak w reakcji BZ. Organizm wytwarza enzym, który następnie bierze udział w procesach wpływających na tempo jego produkcji. Enzym może na przykład przyspieszyć lub zablokować działanie niektórych procesów w komórce. Takie nieliniowe zjawiska są trudne do przewidzenia, gdyż wraz ze stężeniem enzymu zmieniają się reguły jego wytwarzania. Sprzężenie zwrotne występuje powszechnie w układach biologicznych, od procesów metabolicznych do organizacji złożonych społeczności. Układy te mogą doprowadzić do samoorganizacji na trzy jakościowo różne sposoby, jak to już widzieliśmy na przykładach reakcji BZ i brusselatora. Możliwa jest organizacja w czasie, odpowiadająca oscylacjom, w przestrzeni – gdy powstają stacjonarne, niejednorodne struktury – oraz w czasie i przestrzeni, gdy obserwujemy rozchodzące się fale aktywności. Jak się przekonamy, te trzy typy zorganizowanego zachowania pozwalają wyjaśnić wiele ważnych procesów życiowych. Same geny, zawierające schemat tych wszystkich procesów sprzężenia zwrotnego, odpowiadają również za to, by organizm właściwie odczytał informację genetyczną. Wobec tego procesy zachodzące w organizmach żywych są ze swej natury skrajnie nieliniowe. To z kolei prowadzi do złożoności i oznacza, że próbując symulować układy ożywione, musimy posługiwać się komputerami. Samoorganizacja w komórkach Mechanizm sprzężenia zwrotnego działa w komórkach roślin i zwierząt, gdzie zapewnia konieczny do życia fizjologiczny porządek. Komórki potrzebują energii do trawienia, syntezy związków chemicznych, ruchów mięśni, podtrzymania temperatury ciała i tak dalej. Bezpośrednim źródłem energii dla komórki są bogate w energię cząsteczki kwasu adenozynotrifosforowego, znanego jako ATP. Kwas ten magazynuje energię w postaci wiązania chemicznego, przypominającego ściśniętą sprężynę, które łączy z resztą cząsteczki grupę fosforową, czyli układ czterech atomów tlenu, otaczających atom fosforu. Po utracie grupy fosforowej ATP zmienia się w ubogi w energię kwas adenozynodifosforowy (ADP). ADP może z kolei zmienić się z powrotem w ATP w procesie ufosforylowania. ATP powstaje między innymi w reakcji fermentacji, zwanej gllkolizą. W procesie tym następuje rozkład cząsteczek cukru. Prymitywne jednokomórkowe organizmy, takie jak drożdże, korzystają z glikolizy, aby przeżyć, gdy są pozbawione powietrza. Z glikolizy korzystają również takie stworzenia, jak ostrygi i zielone żółwie morskie, które spędzają większość czasu pod wodą. Glikoliza odgrywa pewną rolę nawet w ludzkim organizmie, zwłaszcza w niedostatecznie ukrwionych częściach ciała – na przykład w mięśniach podczas dużego wysiłku. Około 1940 roku cały cykl glikolityczny został dokładnie zbadany. W 1957 roku Duysens i Amesz pierwsi zauważyli, że tempo produkcji energii w procesie glikolizy nie zawsze jest stałe: czasami pojawiają się regularne oscylacje. Podobnie oscyluje stężenie różnych związków, biorących udział w całym procesie, a zwłaszcza stężenie bogatych w energię cząsteczek ATP. Wystąpienie takich oscylacji ATP zależy od stężenia cukru i ADP. Oscylacje te regulują procesy fizjologiczne przez mechanizm sprzężenia zwrotnego. Gdy stężenie ATP w komórce jest niewielkie (a zatem występuje dużo ADP), włącza się glikoliza i powstają potrzebne cząsteczki ATP, przy czym komórka korzysta zapewne z zapasów skrobi lub glikogenu. Jeśli stężenie cząsteczek ATP jest duże – na przykład wskutek sprawnego działania łańcucha oddechowego – glikoliza zostaje zablokowana. Tym procesem regulacyjnym, znanym jako efekt Pasteura, steruje w zasadzie jeden enzym. Enzymem tym jest fosfofruktokinaza (PFK). Dzięki trwającej miliony lat ewolucji PFK doskonale dostosowała się do swego zadania. Fosfofruktokinaza aktywizuje się, gdy stężenie ADP jest dostatecznie wysokie, i przestaje działać, gdy stężenie ATP przekracza wielkość krytyczną. PFK powoduje ufosforylowanie – czyli przyłączenie grupy fosoforowej – wskutek czego ADP zmienia się w ATP. Wzrost stężenia ATP przerywa dalsze działanie PFK. To sprzężenie zwrotne jest właśnie efektem nieliniowym, koniecznym dla samoorganizacji. W 1972 roku Albert Goldbeter i Renę Lefever z Wolnego Uniwersytetu Brukselskiego przedstawili teoretyczny model tego zjawiska. Zredukowali oni cały proces glikolizy do najistotniejszych elementów. Początkowo ich model zawierał dwanaście sprzężonych nieliniowych równań różniczkowych, ale w ostatecznej wersji zostały tylko dwa z nich – opisujące stężenie enzymu PFK i bogatych w energię cząsteczek ATP. Dzięki ogromnemu uproszczeniu problemu udało się opisać rytm glikolizy za pomocą równań bardzo podobnych do brusselatora. Jak się przekonaliśmy, samoorganizacja w brusselatorze wynika z istnienia cyklu granicznego. Wobec tego w odpowiednich okolicznościach stężenia ATP i ADP zmieniają się cyklicznie. Okres cyklu wynosi około jednej minuty, co zgadza się z wynikami pomiarów. Rytm glikolityczny był pierwszym potwierdzonym biologicznym przykładem samoorganizacji w czasie, związanej ze strukturą dysypatywną. Później Mario Markus i Benno Hess podali lepszy model matematyczny, którego przewidywania doskonale zgadzają się z obserwacjami. Model ten przewiduje również wystąpienie chaotycznych oscylacji, które zostały następnie zaobserwowane.69 Znamy obecnie wiele przykładów cyklicznych procesów biochemicznych. Okazało się, że często kierują nimi pojedyncze enzymy, takie jak enzymy autokatalityczne – peroksydaza mlecza-nowa i peroksydaza chrzanowa. Zachodzą również procesy cykliczne, którymi steruje kilka enzymów.70 Wahania takie odgrywają ważną rolę w przekazie informacji wewnątrz i na zewnątrz komórek, co pozwala na właściwą koordynację procesów z ich udziałem. Oscylacje są również bardzo ważne w procesie różnicowania się komórek, dzięki czemu komórki embrionu zmieniają się, na przykład, w komórki mózgu lub wątroby. Znamy również przykłady przestrzennych struktur w komórkach, które powstały wskutek samoorganizacji. Badając jaja żaby pod mikroskopem, można dostrzec zaskakujące śrubowe profile gęstości wapnia, przypominające struktury, jakie występują w innych ośrodkach pobudliwych, na przykład spiralne fale, generowane w reakcji BZ lub przez automat komórkowy.71 Jaja żaby są dostatecznie duże – mają około milimetra średnicy – aby mogły w nich powstać fale o długości dziesięciu mikronów (dziesięć milionowych części metra). Wielkość ma tu znaczenie: powstanie struktur przestrzennych w komórkach nie jest wynikiem prostego przeskalowania reakcji BZ do wymiarów komórki, lecz zależy od łatwości, z jaką cząsteczki mogą dyfundować z jednego końca komórki do drugiego podczas jednego cyklu reakcji chemicznych, które prowadzą do samoorganizacji.72 Jim Tabony z Centre d'Etude Nucleaire w Grenoble zaobserwował struktury przestrzenne występujące w procesie powstawania mikrotubuli, które odgrywają ważną rolę w organizacji wewnętrznej komórki.73 Takie rurkowate twory molekularne, złożone z białka zwanego tubuliną, można również otrzymać in uttro, ogrzewając roztwór zawierający tubulinę i nukleotyd -guanozynotrifosforan. Powstają wtedy stacjonarne poziome pasy grubości do jednego milimetra, zbudowane z uporządkowanych mikrotubul. Ten nieliniowy proces przebiega tak, jak miały się zachowywać dysypatywne struktury, opisywane przez Turinga. "Wyniki doświadczeń pokazują, że złożone zjawiska biologiczne występują wskutek działania mechanizmów nieliniowych" -stwierdził Tabony. Wskazał on także, że w procesie rozwoju jaja muszki owocowej występują pasma odpowiadające różnym segmentom ciała, na przykład głowie i odwłokowi. Zajmijmy się teraz tym wyższym poziomem biologicznej złożoności i organizacji, gdzie mamy do czynienia z zorganizowanym zachowaniem komórek, a nie procesami zachodzącymi w ich wnętrzu. Socjalizacja komórek Ciała wysoko rozwiniętych organizmów, takich jak ssaki, składają się z wielu miliardów komórek, które w procesie rozwoju od komórki jajowej do swej dojrzałości tworzą niezwykle złożoną strukturę. Żadnego mechanizmu tego procesu nie rozumiemy jeszcze na tyle dobrze, aby pokusić się o podanie przyzwoitego opisu matematycznego. Wydaje się jednak pewne, że morfogenezę można wyjaśnić, korzystając z pojęć nieliniowej dynamiki, czego doskonałym przykładem jest dziwny stwór, zwany śluzowcem komórkowym. Śluzowiec stanowi formę pośrednią między zbiorem pojedynczych komórek a prawdziwym organizmem wielokomórkowym. Podobnie jak mrowisko, Dictyostelium discoideum jest superorganizmem, ponieważ czasami tworzy wielokomórkowy organizm (składający się nawet ze 100 tysięcy komórek), a czasami jego komórki wędrują niezależnie od pozostałych. Komórki śluzowca żywią się bakteriami. Gdy pożywienia nie brakuje, poszczególne komórki wykazują wielki apetyt i mnożą się przez bezpośredni podział. Nie trzeba chyba tłumaczyć, że taka utopia nie może trwać wiecznie i w końcu kolonii zaczyna brakować jedzenia. Teraz komórki zaczynają "zauważać" inne. Z powodów, których jeszcze w pełni nie rozumiemy, niektóre komórki zaczynają zachowywać się jak "przywódcy" i regularnie wysyłają chemiczne sygnały, wydzielając związek zwany cyklicznym adenozyno-3',5'-monofosforanem (cAMP). Jest to związek powszechnie występujący w przyrodzie, wykorzystywany jako molekularny goniec w kontaktach między komórkami. W tym wypadku stanowi on sygnał alarmowy, informujący o braku pożywienia. Wezwanie do zwarcia szeregów rozchodzi się z prędkością kilku mikrometrów (milionowe części metra) na sekundę. Komórki wzmacniają i przekazują dalej sygnał, co powoduje powstanie nieliniowego sprzężenia. W procesie tym występują dwa ważne elementy. Po wydzieleniu porcji cAMP komórka nie może natychmiast odpowiedzieć na następny sygnał, lecz przechodzi do stanu refrakcyjnego i dopiero później powraca do stanu ekscytowalnego. Komórki mogą również wydzielać inny enzym, fosfodiesterazę, który niszczy cAMP. Dzięki temu powstaje gradient cAMP, który służy jako drogowskaz. Nieliniowy mechanizm sprzężenia zwrotnego powoduje, że coraz więcej komórek zaczyna marsz na miejsce zbiórki. Komórki gromadzą się, tworząc koncentryczne i spiralne fale, uderzająco przypominające fale generowane podczas reakcji BZ. Po utworzeniu galaretowatego skupiska komórki zaczynają się różnicować. Powstaje stożek, który nieustannie wydziela cAMP. Cała masa przybiera postać wielokomórkowego "ślimaka" – z "głową" i "ogonem" – który pełznie w poszukiwaniu światła i wody. Proces łączenia się komórek i powstawania prostego organizmu długości od jednego do dwóch milimetrów trwa kilka godzin. Organizm ten porusza się pod przewodem pulsującego źródła cAMP w stożku. Następnie się prostuje, tworząc sztywny trzonek, na którym spoczywa niewielka "główka" zawierająca zarodniki. Głowa pęka i wiatr roznosi zarodniki na wszystkie strony. Jeśli opadną w odpowiednim miejscu, mogą zakiełkować i rozpocząć nowy cykl życia tego dziwnego organizmu. U podstaw takiego zachowania leżą interesujące procesy biochemiczne, przypominające reakcje glikolizy w "zegarze cukrowym". Cząsteczki cAMP, przekazujące wezwanie dla kurczącej się masy komórek, powstają z ATP dzięki pomocy enzymu – tak zwanej cyklazy adenylowej. Podobnie jak w przypadku glikolizy, występuje sprzężenie zwrotne: cAMP obecny w środowisku otaczającym komórki aktywizuje cyklazę adeny-lową, aby zwiększyć produkcję cAMP z ATP. W ten sposób rozpoczyna się proces autokatalizy, będący istotnym elementem samoorganizacji. Goldbeter wyjaśnił za pomocą modelu nieliniowego – bardzo podobnego do modelu oscylacji glikolitycz-nych w komórkach drożdży -jak cykl graniczny steruje oscylacjami cAMP z kilkuminutowym okresem.74 Jest to doskonały przykład samoorganizacji. Znamy również chaotyczne zmiany stężenia cAMP. W przypadku zmutowanej formy D. discoideum chaotyczne oscylacje cAMP i brak uporządkowania przestrzennego przejawiają się w postaci zdeformowanych trzonków i owocujących ciał; w takich organizmach można przywrócić porządek za pomocą fosfodiesterazy. Powstanie form biologicznych W przyrodzie działają mechanizmy, dzięki którym z prostych komórek powstają struktury zaskakujące swą różnorodnością. Daleko nam do poznania recepty na taką różnorodność. Jednak sam fakt, że rozwojem człowieka rządzi w zasadzie identyczny jak u innych stworzeń – muszki owocowej, mleczy oraz szympansów – mechanizm genetyczny, stwarza nadzieję, że uda się wyjaśnić ogólne zasady powstawania organizmów. Niektórzy uczeni po prostu chcą choć trochę zrozumieć to, co się dzieje, inni marzą o odkryciu zasad biologicznych o znaczeniu podobnym do praw dynamiki Newtona. W pierwszych latach XX wieku D'Arcy Thompson, profesor zoologii w St. An-drew's University w Szkocji, twierdził w swym studium na temat rozwoju organizmów wielokomórkowych, że problem morfogenezy – czyli powstawania organizmów – należy do geometrii. Wielu biologów powiedziałoby, że to podejście nie doprowadziło do niczego: rozwój tej dziedziny badań zawdzięczamy doświadczeniom laboratoryjnym, a nie rozważaniom teoretycznym. Mimo to, równolegle do eksplozji w eksperymentalnych badaniach biologicznych, teoretycy spokojnie pracowali nad znalezieniem wyjaśnienia, jak powstają takie struktury ożywione. Pierwszy ważny krok w tym kierunku zrobił Turing w swej pracy z 1952 roku. Obecnie możemy badać te problemy znacznie dokładniej, gdyż szybkie komputery pozwalają nam uporać się ze wszechobecnymi nieliniowościami, na których zasadza się morfogeneza. Hydra (stułbia), słodkowodny polip, mający kilka milimetrów długości, jest jednym z najbardziej fascynujących stworzeń, do których zastosowano takie metody. Turing poznał zadziwiające właściwości hydry dzięki tej samej książce, która rozbudziła jego zainteresowania mechaniczną inteligencją, mianowicie Natural Wonders Every Child Should Know Edwina Tenneya Brewstera. Jeśli pobierzemy z okolic głowy hydry niewielki kawałek tkanki i przyłożymy go do innego miejsca jej ciała, w ciągu 48 godzin wyrasta nowa głowa. Kawałek hydry odcięty od reszty przekształca się w taki sposób, że powstaje nowy, kompletny organizm. Turing skonstruował wyidealizowany model hydry w postaci pierścienia komórek. Dwa związki chemiczne, reagujące i dyfundujące wokół pierścienia, tworzą falę chemiczną, która określa, gdzie powstaną ramiona, gdy hydra zostanie przecięta na dwie części.75 Badania te kontynuował Hans Meinhardt z Instytutu Badań Wirusów Maxa Plancka w Tybindze i doszedł do wniosku, że skromna hydra stwarza nam szansę opracowania dość dokładnego obrazu procesów regulujących formowanie się względnie prostego organizmu. Powstawanie struktur w przypadku hydry zależy od dwóch czynników: chemicznej aktywacji (wskutek autokatalizy) o krótkim zasięgu i mechanizmu blokowania o długim zasięgu.76 Wynikające z tego nieliniowości prowadzą do powstania struktur wykazujących wiele cech, które występują również w innych organizmach. Na ogół nieduży fragment tkanki zaczyna się nieco różnić od otoczenia i wydziela niewielką ilość "aktywatora", którego stężenie gwałtownie wzrasta wskutek autokatalizy. Duże stężenie aktywatora sprawia, że w tym obszarze powstaje inhibitor, który dyfunduje do tkanki otaczającej wybrany fragment i blokuje tam produkcję aktywatora. Profile stężenia tych morfogenów informują komórki o ich położeniu w stosunku do wyróżnionej, specjalnej tkanki. Jest to istotna informacja, decydująca o tym, czy powstaje komórka głowy, czy ciała. Aktywacja i inhibicja odgrywają istotną rolę nie tylko we wczesnych fazach powstawania struktur, ale zapewne decydują również o rozłożeniu powtarzalnych elementów. W przypadku hydry chodzi tu o ramiona, ale u innych stworzeń mogą to być igły, włosy, pióra i liście. Teorię Turinga zastosowano do wyjaśnienia rozkładu chrząstek w kończynach, piór i łusek, umaszczenia zwierząt i skomplikowanych wzorów na skrzydłach motyli. Takie wzory u zwierząt powstają na ogół już w fazie rozwoju embrionalnego, w komórce jajowej lub brzuchu matki. Dokładny moment ich pojawienia się i rozmiary embrionu mają zasadnicze znaczenie dla określenie wzoru, jaki będzie zdobił dorosłego osobnika. James Murray z Uniwersytetu w Waszyngtonie podał modele matematyczne tego procesu, podobne do tych, które opisują różnorodny repertuar występujący w reakcji BZ. Jego modele tłumaczą, dlaczego myszy i słonie, reprezentujące skrajne możliwe rozmiary ssaków, mają na ogół jednobarwne umaszczenie. Podobne modele wyjaśniają, dlaczego zwierzęta o średnich rozmiarach, takie jak aligatory, leopardy i zebry, mają bardzo skomplikowane umaszczenie. Badając przebieg mechanizmu aktywacji i inhibicji na zwężającym się cylindrze, Murray wykazał, że ogon leoparda jest zbyt cienki, aby mogły na nim powstać plamy. Plamy zlewają się i tworzą paski, przeto można spotkać cętkowane zwierzę z ogonem w paski, ale nigdy odwrotnie.77 Skurcze serca Morfogeneza wyjaśnia, dlaczego może powstać coś tak skomplikowanego, jak ludzkie serce, ale do zrozumienia złożoności jego skurczów potrzebujemy innych narzędzi. Ludzkie serce kurczy się około 70 razy na minutę, 40 milionów razy na rok i 3 miliardy razy w ciągu całego życia. Łatwo znosi konieczność nagłego wysiłku, a jednak najdrobniejsze zakłócenia przepływu krwi mogą je wytrącić z równowagi, co ma często fatalne konsekwencje. Serce od dawna jest niezwykle istotne jako symbol w sztuce i kulturze, ale z uwagi na znaczenie, jakie ma zdrowe serce dla ludzkiego życia, równie długo interesowali się jego właściwościami uczeni.78 Dziś dzięki nowoczesnym superkomputerom jesteśmy już bliscy zrozumienia zachowania serca. W latach dwudziestych dwaj Holendrzy, van der Pol i van der Mark, podali prosty nieliniowy model serca i wykazali, że kilka różnych typów załamania poprawnego rytmu serca – czyli arytmii – można otrzymać, zmieniając pewne parametry w ich modelu; każda arytmia jest powodowana przez bifurkację, dobrze znaną cechę nieliniowych układów dynamicznych, którą opisaliśmy w rozdziale 6. Wielkim krokiem naprzód w próbach zbudowania realistycznego modelu przekazywania impulsów nerwowych była praca Alana Hodgkina i Andrew Huxleya z 1952 roku, którzy dokonali pionierskich badań gigantycznego aksonu kałamarnicy – długiej, nitkowatej wypustki komórki nerwowej, przewodzącej impulsy. Za te badania otrzymali oni Nagrodę Nobla. Ich metody pozwoliły sformułować ilościowy opis aksonu i są obecnie powszechnie używane do modelowania elektrycznej aktywności serca. Komputer na Wydziale Fizjologii w Oksfordzie zawiera komórkę serca, a w każdym razie jej model numeryczny, stworzony przez Denisa Noble'a i jego współpracowników. Zespół z Oksfordu usiłuje zbudować komputerowy model serca, uwzględniający chemiczne procesy zachodzące w komórkach. Skurcze serca są spowodowane skoordynowanymi ruchami włókien białkowych. Podobnie jak powoli opadający ciężarek podtrzymuje ruch wahadła w zegarze, specjalne białkowe pompy sodowe pompują dodatnio naładowane jony sodowe przez błonę komórkową, aby serce było zawsze dalekie od stanu równowagi termodynamicznej. Podczas każdego uderzenia do serca napływają liczne jony wapnia. W kanałach przenoszących jony w obu kierunkach pojawia się również nasz stary znajomy – cAMP. Podobnie jak u śluzowca, współdziała tu z cyklazą adenylową. Razem tworzą mechanizm sprzężenia zwrotnego, który otwiera i zamyka bramki wapniowe. Na poziomie pojedynczej komórki jony wapniowe napływające do serca inicjują skurcz specjalnego białka za pomocą molekularnego mechanizmu zapadkowego. Oczywiście, napływ jonów wapniowych do serca to dopiero połowa skurczu. Jony wapniowe muszą zostać następnie usunięte, aby komórka mogła się rozluźnić. Każda pojedyncza komórka ma zatem swój własny wewnętrzny zegar, oscylator jonów wapniowych – jest to biochemiczny odpowiednik reakcji BZ. Cyfrowa komórka Noble'a zachowuje się w bardzo realistyczny sposób. Gdy wstrzykniemy do ośrodka pobudzania serca wyciąg z liści naparstnicy, spowoduje to zaburzenie normalnego rytmu – pojawia się tak zwany skurcz ektopowy, czyli dodatkowy. Wyciąg z naparstnicy powoduje wzrost stężenia jonów wapniowych, a tym samym nadmierne pobudzenie "zegara wapniowego" komórek serca. Takie palpitacje można wyczuć, ale u większości ludzi zdarzają się one bardzo rzadko. Podobnie można badać i mierzyć działanie rozmaitych hormonów, takich jak adrenalina. Model pozwala również na odtworzenie rozmaitych arytmii. Niektórzy uczeni stwierdzili, że sukces modelu pojedynczej komórki sprawił, iż nie ma już wiele do zrobienia. Zdaniem Noble'a, to "grube nieporozumienie". Komputerowe symulacje Noble'a stanowią przekonujący dowód na to, że właściwości kawałka tkanki serca są czymś więcej niż tylko sumą właściwości poszczególnych komórek. Uderzającą cechą metody Noble'a jest to, że rozbudowuje on fizjologicznie dokładny model pojedynczej komórki, a nie posługuje się uproszczoną idealizacją. Takie podejście wymaga bardzo złożonych obliczeń. Symulacja zachowania pojedynczej komórki nie byłaby możliwa bez długich rachunków. Aby prześledzić ewolucję jednej komórki przez jedną sekundę, trzeba stu sekund obliczeń na stacji roboczej. Symulacja choćby niewielkiego fragmentu tkanki wymaga superkomputera. Noble i Rai Winslow z Uniwersytetu Jołma Hopkinsa w Baltimore posługują się superkomputerem Connection Machinę – z U.S. Army Research Center for High Performance Computing – znajdującym się na Uniwersytecie stanu Minnesota (zob. wkładka, zdjęcie nr 7). Zależnie od skali symulacji, każdy z 64 tysięcy procesorów komputera musi śledzić dynamikę jednej lub kilku komórek serca. Noble i Winslow uwzględnili do czterech milionów komórek, czyli około jednej setnej ich całkowitej liczby. Rzecz jasna, im większa liczba komórek, tym więcej operacji musi wykonać każdy procesor, zwalniając tym samym obliczenia. Szczególnie interesujące i ważne z punktu widzenia medycyny jest zagadnienie globalnej koordynacji skurczów komórek. Wiadomo, że istnieje co najmniej sześć różnych "dyrygentów". Jeden z nich to węzeł zatokowo-przedsionkowy, niewielkie skupisko komórek mięśniowych w prawym przedsionku serca. Tak zwane włókna Purkinjego zawierają komórki, które bardzo szybko przekazują sygnały z węzła zatokowego do potężnego mięśnia komorowego. Komórki węzła muszą być pobudzone przez tak zwany prąd pobudzenia, odpowiadający punktom inicjującym struktury przestrzenne w reakcji BZ. Podejście redukcjonistyczne wskazuje, że należy szukać komórek, które pierwsze wysyłają sygnał, gdyż tam powinien kryć się sekret rytmu serca. W rzeczywistości okazało się, że tak wcale nie jest. To sprzeczne z intuicją odkrycie zawdzięczamy symulacjom uwzględniającym ogromną liczbę komórek serca. Symulacje zachowania jednego z kandydatów na dyrygenta -węzła zatokowo-przedsionkowego – wykonane za pomocą superkomputera Connection Machinę, natychmiast prowadzą do tego wniosku. Wyniki obliczeń można pięknie przedstawić graficznie, ponieważ każdy z 16 384 elementów obrazu na monitorze reprezentuje jedną komórkę, przy czym kolor wskazuje napięcie elektryczne: niebieski dodatnie, a czerwony – ujemne. Każda komórka jest połączona elektrycznie z pozostałymi maleńkimi otworkami, zwanymi kanałami łączącymi. Jak można było oczekiwać, im intensywniejsza wymiana między komórkami, tym więcej komórek jednocześnie wysyła sygnał. Jednak, jak stwierdził Noble, ten model węzła zatokowego daje "całkowicie błędne wyniki".79 Na filmie wideo widać wyraźnie, jak fala pobudzenia zapada się do środka węzła, zamiast rozchodzić się na boki, by wywołać skurcz mięśnia. Winslow i Noble byli bardzo rozczarowani. Gdy jednak dołączyli węzeł do wielkiej sieci komórek, reprezentujących komorę serca, przekonali się, że teraz fala rozchodzi się na zewnątrz. Ten wynik wskazuje na to, że dalekozasięgowe oddziaływania między komórkami są tak samo ważne w działaniu serca, jak w sieciach neuronowych mózgu. "Rytm serca jest wynikiem funkcjonowania całego organu -stwierdził Noble – a nie tylko samego węzła, a z pewnością nie samych komórek, które pierwsze wysyłają sygnały". Później grupa eksperymentatorów z Holandii wykazała doświadczalnie, że fala pobudzenia w wyizolowanym węźle zatokowym również schodzi się do środka węzła, co potwierdziło poprawność modelu Winslowa i Noble'a. "Byliśmy zachwyceni" – powiedział Noble. Ich symulacje dały jeszcze inne fascynujące wyniki. Można na przykład w węźle zatokowym wyznaczyć minimalną liczbę komórek, które są w stanie pobudzić skurcz mięśnia przedsionkowego. Okazuje się, że jest to wyspa złożona z dziesięciu tysięcy komórek. W jednej symulacji Winslow i Noble zaobserwowali, że jeśli brzeg tej wyspy jest nierówny – tak jak w rzeczywistym węźle – sygnał rozchodzi się lepiej w tkance przedsionka. Stwierdzili również, że wystarczy uszkodzić niewielki fragment tkanki, liczący tysiąc komórek, by spowodować dodatkowy skurcz.80 "Tysiąc komórek to dość, by wywołać istotne pobudzenie" – powiedział Noble. Skurcze ektopowe są na ogół nieszkodliwe, ale czasami, gdy tkanka serca jest uszkodzona, pojawia się groźna dla życia arytmia – tak zwane migotanie serca. Noble i jego koledzy usiłują obecnie symulować anomalne skurcze całego serca, być może spowodowane uszkodzeniami większej masy komórek. Skurcz ektopowy mógłby na przykład współdziałać z falami wysyłanymi przez ośrodek pobudzania. Powstałyby wtedy fale spiralne, podobne do tych, jakie obserwuje się w reakcji BZ; takie fale występują podczas prawdziwych zawałów serca. Wydaje się to prawdopodobne, ponieważ fale spiralne powstają wtedy, gdy nakładają się na siebie fale pobudzenia. "Być może jesteśmy bliżej wyjaśnienia migotania, niż nam się wydaje" – zauważył Noble. Badania Winslowa i Noble'a stanowią rzadki przykład komputerowej symulacji złożonego zjawiska makroskopowego, opartej na dokładnym opisie mikroskopowym i stopniowej rekonstrukcji złożoności. W większości przykładów, omawianych w tej książce, z sieciami neuronowymi i automatami komórkowymi włącznie, oblicza się globalne zachowanie układu, wychodząc z tak zwanego modelu mezoskopowego, który pomija wiele detali mikroskopowych (atomowych i cząsteczkowych). Noble wykazał, że dzięki współczesnym komputerom w niektórych sytuacjach można obliczyć makroskopowe właściwości układu na podstawie opisu mikroskopowego. Nie należy przesadzić z krytyką ograniczeń redukcjonizmu. Noble przyznaje, że nie jest łatwo zrozumieć, co się dzieje w jego symulacjach. Czasami jednak redukcjonistyczne podejście pozwala wyróżnić kluczowe czynniki, podobnie jak uczynił to von Neumann, gdy korzystał z komputerów do badań dynamiki cieczy. Reguły zachowania Społeczeństwa, podobnie jak pojedyncze organizmy, są uporządkowanymi strukturami, istniejącymi w czasie i przestrzeni. Znamy różne formy organizacji w czasie i przestrzeni, od wzrostu i zaniku populacji chrząszcza mącznika młynarza81 po współpracę między gatunkami w walce o przetrwanie. Struktury można obserwować również w organizacji zwierzęcych społeczności, czego najlepszych przykładów dostarczają owady społeczne, znane jako Hymenoptera, do których należą pszczoły, osy, termity i mrówki. W koloniach tych owadów obserwuje się bardzo liczne intrygujące zjawiska, takie jak istnienie bezpłodnych robotnic i żołnierzy, którzy heroicznie poświęcają swoje życie dla dobra kolonii podczas prac budowlanych i obrony. Jeśli ktoś uważa, że życie to bezwzględna walka o przetrwanie osobnika kierowanego samolubnymi genami, to musi przyznać, że wygląda to na altruizm. Wyjaśnienie takich zachowań było jednym z największych problemów dla samego Darwina. Jeśli jednak uznamy, że kolonie Hymenoptera należy uważać za "superorganizmy" (podobnie jak śluzowca), to "altruistyczne" działania można zrozumieć, gdyż każdy osobnik ma udział w tym samym zbiorze genów. Nie będziemy tu jednak zajmować się współpracą między krewniakami, lecz między osobnikami nie związanymi genetycznie, gdyż chcemy pokazać, jak różne strategie wzajemnego zachowania mogą się narodzić spontanicznie, wskutek takiego samego ślepego dążenia do przetrwania.82 Takimi zagadnieniami zajmuje się dziedzina matematyki, zwana teorią gier. Jej celem jest znalezienie strategii, jakie powinny stosować jednostki i organizacje, dążące do pewnego celu, gdy wynik jest niepewny i zależy od strategii przyjętych przez innych. Teoria gier pozwala ocenić zyski i straty związane ze wszystkimi możliwymi strategiami wojennymi, ekonomicznymi i ewolucyjnymi. Jej twórcą był von Neumann; jak zwykle, usiłował on zastosować metody matematyczne w dziedzinie, która – na pierwszy rzut oka – nie poddaje się ścisłej analizie. Jego pierwsza rozprawa na temat teorii gier ukazała się w 1928 roku. Na Uniwersytecie w Princeton, pod koniec lat trzydziestych, von Neumann współpracował z matematycznym ekonomistą Oskarem Morgenstemem. Badania te – co typowe w przypadku von Neumanna – miały znaczenie nie tylko w ekonomii, lecz wzbogaciły również wieloma ważnymi wynikami czystą matematykę, zwłaszcza kombinatorykę. W 1944 roku von Neumann i Morgenstern opublikowali klasyczną książkę o teorii gier, zatytułowaną Theory of Games and Economic Behaviour. Obecnie coraz wyraźniej widać, że takie same zasady można zastosować, by wyjaśnić współpracę w społeczeństwach ludzkich, "w świecie egoistów – supermocarstw, polityków lub osób prywatnych – gdy nie istnieje centralna władza nadzorująca ich działania".83 Takie zasady odnoszą się do współpracy między przedsiębiorstwami, osobami należącymi do tej samej organizacji, tak też jest w przypadku administracji, polityki, gospodarki, stosunków międzynarodowych oraz zjawisk biologicznych sensu stricte.84 Teoria gier zafascynowała ekonomistów, ponieważ stworzyła szansę matematycznego wyjaśnienia, dlaczego "niewidzialna ręka" Adama Smitha nie zawsze gwarantuje osiągnięcie wspólnego dobra. Teoria ułatwia zrozumienie, jak przedsiębiorstwa podejmują decyzje na konkurencyjnych rynkach. Politolodzy również zainteresowali się teorią gier, ponieważ ukazuje ona, jak "racjonalny" egoizm może pogorszyć sytuację wszystkich. W latach siedemdziesiątych teoria gier została wprowadzona do biologii, głównie dzięki pracom Johna Maynarda Smitha. Robert Axelrod, profesor nauk politycznych na Uniwersytecie stanu Michigan, jest jednym z wybitnych specjalistów w tej dziedzinie. Zajmował się między innymi modelowaniem oddziaływań między jednostkami na podstawie prostej gry, zwanej dylematem więźnia.85 Idea gry polega na symulacji konfliktów zdarzających się w rzeczywistości – między egoistycznym pragnieniem każdego z graczy, wyznających zasadę "zwycięzca zgarnia wszystko", a koniecznością współpracy i kompromisu w dążeniu do realizacji egoistycznych celów. Podobnie jak wiele złożonych problemów, z którymi się zapoznaliśmy, takich jak znalezienie stanu o najniższej energii w szkle spinowym, uczenie się sieci neuronowych i zagadnienie komiwojażera, jest to zagadnienie optymalizacji, które trzeba rozwiązać przy sprzecznych ograniczeniach. Gra przebiega następująco. Dwaj osobnicy mogą ze sobą współpracować lub nie. Jeśli obaj decydują się na współpracę, każdy dostaje nagrodę – wartą, powiedzmy, trzy punkty. Jeśli jeden postanawia współpracować, a drugi nie, to "spryciarz" otrzymuje pięć punktów, a "naiwniak" nic. Jeśli obaj odrzucają współpracę, każdy zyskuje jeden punkt. Choć każdy gracz zyskuje na współpracy, pojawia się pokusa odrzucenia współpracy w nadziei na maksymalizację zysku i ze strachu przez wykorzystaniem. Na tym polega dylemat. Łatwo znaleźć realistyczną sytuację, odpowiadającą powyższej grze. Wyobraź sobie, czytelniku, że policja złapała ciebie i twego przyjaciela z ukradzionym cennym obrazem, pochlapanym krwią. Policja podejrzewa, że prócz kradzieży popełniliście Jeszcze poważniejszą zbrodnię, ale nie ma żadnego dowodu. Jesteście zamknięci w oddzielnych celach i nie możecie się kontaktować. Prokurator proponuje ci układ: jeśli obciążysz przyjaciela i powiesz, jaką popełnił zbrodnię, nie zostaniesz oskarżony o kradzież. Możesz przypuszczać, że taką samą propozycję przedstawił twojemu przyjacielowi. Co powinieneś zrobić? Jeśli obaj odmówicie zeznań, zostaniecie ukarani za mniejsze przestępstwo – kradzież obrazu, co jest rozsądnym wynikiem. Jeśli obaj będziecie zeznawać, otrzymacie wyrok za zbrodnię, każdy na podstawie zeznań drugiego – co jest złym wynikiem. Jeśli natomiast tylko ty zachowasz milczenie, zostaniesz ukarany za oba przestępstwa, a twój wspólnik wyjdzie na wolność. Oto dylemat. Dylemat więźnia fascynuje matematyków, socjologów i biologów, gdyż stanowi ilustrację powszechnie występującego problemu: jak ambicja jednostek prowadzi do powszechnego nieszczęścia. Jeśli dwaj gracze nigdy się już nie spotkają, to nie mają powodu, aby współpracować. Jednak w rzeczywistych sytuacjach, poczynając od korków ulicznych, a na wojnach kończąc, jest dość prawdopodobne, że przeciwnicy spotkają się w przyszłości. Wobec tego opłacalne stają się inne strategie. Aby znaleźć najlepszą strategię, Robert Axelrod zorganizował międzynarodowy turniej programów komputerowych rozwiązujących dylemat więźnia. W konkursie wzięło udział czternaście programów – niektóre stosujące bardzo złożone strategie. "Ku mojemu zaskoczeniu – powiedział Axelrod – zwyciężył najprostszy ze wszystkich programów, działający według zasady: jak ty mnie, tak ja tobie".86 Program ten napisał Anatol Rapoport, psycholog i teoretyk gier z Uniwersytetu w Toronto. Strategia ta jest bardzo prosta: w pierwszej rundzie współpracuj, a w następnych rób to, co twój przeciwnik zrobił w poprzedniej. Jest to "sympatyczna" strategia, gdyż gracz najpierw sygnalizuje gotowość do współpracy, a później rewanżuje się za ewentualny egoizm partnera. Co więcej, gracz jest skłonny do wybaczania i po natychmiastowym rewanżu zapomina o pretensjach, a zatem nieustannie stwarza okazję do ustanowienia stosunków opartych na zaufaniu: jeśli przeciwnik szuka zgody, gracz wybacza i obaj korzystają na współpracy. Ponadto strategia ta nie jest nadmiernie wydumana. Bardzo złożone strategie są niezrozumiałe: jeśli twój przeciwnik nie rozumie twoich reakcji, nie ma ochoty na współpracę. Sukces strategii "jak ty mnie, tak ja tobie" opiera się na jej prostocie. Axelrod ogłosił wyniki i zorganizował drugi turniej, w którym wzięły udział sześćdziesiąt dwa programy z sześciu krajów. Anatol Rapoport ponownie zgłosił swój stary program i znów wygrał. "To coś bardzo interesującego" – zauważył Axelrod. Rozważając, jak wskutek ewolucji doszło do współpracy w społeczeństwie, Axelrod zdał sobie sprawę, że jego odkrycia mają również znaczenie dla ewolucji biologicznej, i nawiązał współpracę z Williamem Hamiltonem, biologiem z Uniwersytetu w Oksfordzie.87 W wielu naturalnych sytuacjach te same dwa osobniki mogą się wielokrotnie spotykać. Jeśli mają dostatecznie sprawne mózgi, aby się rozpoznawać i pamiętać wynik poprzednich spotkań, to znów pojawia się sytuacja strategiczna, znana jako iterowany dylemat więźnia. Stosowane strategie pozwalają na wprowadzenie reguł uwzględniających historię dotychczasowych spotkań. W latach siedemdziesiątych Robert Trivers z Harvardu, socjobiolog i były prawnik, zasugerował, że takie reguły wzajemności były głównym sposobem nawiązania współpracy między zwierzętami nie związanymi genetycznie.88 Rozważał on między innymi dylemat więźnia, symbiozę między organizmami, takimi jak wargacz, który czyści strzępiela, ostrzegawcze krzyki ptaków i wzajemny altruizm w ludzkich społecznościach, stosowany czasem w celu uniknięcia zemsty. Szczególnie barwnego przykładu dostarczają Buszmeni z Kalahari, którzy mają przysłowie, mówiące: "Jeśli chcesz spać z czyjąś żoną, to daj mu się przespać z twoją, a wtedy żaden z was nie zaatakuje drugiego zatrutymi strzałami".89 W biologii zyski i straty związane z grą można interpretować jako szansę osobnika lub gatunku (czy gatunków) na przetrwanie i reprodukcję: miarą zysku mogłaby być liczba potomstwa wychowanego w czasie jednego sezonu. Znamy wiele przykładów. Jaskółki żyją w grupach, ale nie wszystkie ptaki należące do grupy są rodzicami, a zatem mamy tu do czynienia z elementami dylematu więźnia. Wiążąc się z grupą, ptaki bezpotomne mogą się nauczyć, jakie miejsce jest dobre na gniazdo. Rodzice czerpią korzyść z dodatkowych członków grupy, którzy mogą odstraszać drapieżników. Ptaki bezpotomne mogą jednak zabić pisklęta i przejąć gniazdo. Rodzice na ogół nie odganiają ptaków bezpotomnych. Obie strony zyskują wykazując umiarkowanie: ptaki bezpotomne się uczą, rodzice mają szansę wychowania większej liczby piskląt. Michael Lombardo z Uniwersytetu Rutgers w stanie New Jersey znalazł dowody na to, że w stosunkach między jaskółkami obowiązuje zasada "jak ty mnie, tak jak tobie".90 Ta zasada obowiązuje również w stosunkach między niewielkimi rybami – hermafrodytami, żyjącymi na rafach koralowych u wybrzeży Panamy.91 Podczas zalotów ryby na zmianę odgrywają rolę samca i samicy. Jak można się spodziewać, łatwiej być samcem. Z uwagi na pokusę zdrady, "samica" posługuje się specjalną strategią: składa tylko kilka jajeczek, by sprawdzić, czy "samiec" nie zdradzi i nie ucieknie po ich zapłodnieniu, lecz odegra rolę samicy. W miarę wzrostu zaufania, przy kolejnych zmianach ról samica składa coraz więcej jajeczek. Strategia "jak ty mnie, tak ja tobie" jest trwałym elementem ekosystemu. Daje dobre wyniki w konkurencji z innymi strategiami. Choć żadna strategia nie jest stabilna ewolucyjnie, okazuje się, że strategia "jak ty mnie, tak ja tobie" nie może zostać wyparta przez zdecydowanych egoistów, o ile związki są trwałe. Odkrycie powszechności jej występowania stanowi optymistyczną wiadomość dla wszystkich, którzy obawiają się, że ludzka natura opiera się wyłącznie na egoizmie i chciwości, jak w przypadku dzikusa z Lewiatana Hobbesa: jego życie było "samotne, nędzne, brutalne i krótkie".92 W kontekście ludzkiego społeczeństwa strategia ta może oznaczać, że przedsiębiorca odnoszący sukcesy jest oportunistą, szukającym okazji do współpracy, a nie bezwzględnym manipulatorem. Sympatyczni ludzie nie zawsze muszą znaleźć się na końcu. Ewolucja strategii Z uwagi na złożoność możliwych strategii w dylemacie więźnia Axelrod posłużył się algorytmem genetycznym do badania ich ewolucji. W tym celu przedstawił każdą możliwą strategię jako łańcuch genów w chromosomie, podlegający zwykłemu procesowi ewolucji, zgodnie z algorytmem genetycznym Hollanda. O sukcesie strategii decyduje środowisko, przy czym reprodukcja, mutacje i crossing-over faworyzują lepsze strategie. Axelrod rozważał klasę strategii, uwzględniających wyniki tizech ostatnich ruchów, przy czym założył, że gracz nie popełnia błędów (czyli, że gra jest deterministyczna). Klasa ta obejmuje bardzo liczne strategie.93 Wyczerpujący przegląd wszystkich możliwości jest wykluczony. Jak powiedział Axelrod: "Gdyby komputer weryfikował strategie w tempie sto na sekundę od powstania Wszechświata, do tej pory sprawdziłby mniej niż jeden procent wszystkich możliwości".94 Mamy tu do czynienia z kombinatoryczną eksplozją, dobrze znaną z teorii optymalizacji, w której algorytmy genetyczne odniosły swe największe sukcesy. W jednej z serii prób nowe strategie konkurowały z ustalonym zbiorem ośmiu reprezentatywnych strategii, wybranych spośród uczestników drugiego turnieju w grze w dylemat więźnia. Algorytm genetyczny wyprodukował (zaczynając od strategii przypadkowych) najlepszą strategię, która okazała się równie dobra, jak strategia "jak ty mnie, tak ja tobie". Większość jej reguł była bardzo podobna do strategii Rapoporta, ale pewne nowe zasady dawały wyraźnie lepsze wyniki. Zasady te mogą być jednak dość nietrwałe w innym środowisku. Jak już mówiliśmy, algorytm genetyczny w swej zwykłej postaci polega na swoistym rozmnażaniu płciowym, w którym chromosomy rodziców ulegają rekombinacji. Axelrod zbadał, co się dzieje w przypadku rozmnażania bezpłciowego: okazuje się, że populacja w dalszym ciągu ewoluowała w kierunku strategii równie dobrej, jak "jak ty mnie, tak ja tobie", natomiast zmalało do połowy prawdopodobieństwo powstania strategii wyraźnie lepszej. To podkreśla znaczenie płci. Później Axelrod sprawdził, co się dzieje, gdy zmianom ulega środowisko strategiczne, które teraz stanowiła ewoluująca populacja chromosomów. W tym przypadku populacja początkowo oddalała się od strategii przewidującej znaczącą współpracę, ale po około dwudziestu pokoleniach kierunek ewolucji uległ zmianie. Przedstawiciele populacji zaczęli stosować strategię uwzględniającą współpracę przy wszystkich możliwych okazjach, wraz z możliwością rozróżnienia tych, którzy się odwzajemniają. W końcu osobniki chętne do współpracy zdominowały całą populację.95 Gry Axelroda dostarczają fascynującego obrazu ewolucji strategii. W badaniach tego uczonego problemy teorii gier są przekształcone w poszukiwania wysokich punktów w pejzażu dostosowań, odpowiadającym ogromnej liczbie kombinacji genów.96 Symulacje komputerowe wykazują, że płciowość pomaga populacji zbadać tę wielowymiarową przestrzeń i znaleźć najlepiej dostosowaną kombinację genów;97 konieczny jest przy tym kompromis między zyskami, jakie oferują elastyczność i specjalizacja. Elastyczność daje zazwyczaj przewagę w dłuższym okresie, ale osobniki muszą przetrwać w krótszej skali czasowej. Niektóre aspekty ewolucji są całkowicie dowolne. Jednym z najbardziej uderzających przejawów arbitralno-ści są masowe wymierania, gdy za jednym zamachem giną całe gatunki. Do tej cechy ewolucji powrócimy po tym, jak rozważymy ostatnie prace z teorii gier. Niepewność i Pawłow Sympatyczni ludzie często przegrywają. Pojawienie się współpracy wymaga spełnienia kilku warunków: gracze powinni się wielokrotnie spotykać, muszą się rozpoznawać i pamiętać wyniki poprzednich spotkań. Znaczenie mają również inne czynniki, takie jak prawdopodobieństwo spotkania oraz prawdopodobieństwo, że czynniki genetyczne determinujące zachowanie zostaną przekazane następnemu pokoleniu. W 1987 roku Robert May z Oksfordu wskazał, że takie niepewności powodują, iż wyniki Axelroda dotyczą bardzo wyidealizowanych sytuacji i zapewne nie stosują się bezpośrednio do rzeczywistości.98 Martin Nowak i Karl Sigmund z Uniwersytetu Wiedeńskiego podjęli próby sprawdzenia, w jaki sposób strategia "jak ty mnie, tak ja tobie" radzi sobie z takimi komplikacjami. Okazuje się, że niepewność, z jaką mamy do czynienia w rzeczywistym świecie, na przykład spowodowana ludzką skłonnością do popełniania błędów, powoduje, iż ta strategia nie jest najlepsza. Antropomorfizując, można powiedzieć, że niepewność pozwala osobnikom zastosować nową strategię: niewielka przypadkowość w zachowaniu sprawia, iż wykorzystując "wspaniałomyślność" i prawdopodobieństwo, można testować zachowanie innych graczy. Nowak i Sigmund odkryli, że w takich okolicznościach nie istnieje strategia stabilna ewolucyjnie. W toku ewolucji trwającej tysiące pokoleń nieustannie pojawiają się nowe strategie, przez pewien czas dominują, po czym giną. Niepewność pozwala jednak na współpracę. Ten optymistyczny wniosek Axelroda pozostał ważny. Dwaj gracze stosujący deterministyczną strategię "jak ty mnie, tak ja tobie" mogą ugrzęznąć w nie kończącym się cyklu odwetów. Jeśli jeden gracz rozpoczął od współpracy, a drugi od zdrady, to już nigdy nie wyzwolą się z cyklu współpraca, zdrada, współpraca, zdrada, ad infinitum. Jeśli jednak uwzględnimy możliwość błędu, to po mniej więcej dwustu pokoleniach pojawia się nowa strategia, zwana strategią wspaniałomyślnej wzajemności. Tak jak poprzednio, w odpowiedzi na współpracę gracz podejmuje współpracę. Czasami jednak zdrada zostaje "wybaczona" i zamiast stosować starotestamentową zasadę "oko za oko", gracz nie rezygnuje ze współpracy. Dzięki temu może się wyzwolić ze wzajemnych odwetów, będących plagą deterministycznej strategii "jak ty mnie, tak ja tobie".99 Nowak podkreśla, że sukces tej strategii zależy w dużym stopniu od okoliczności. W populacji egoistów wspaniałomyślna wzajemność może być najlepszym sposobem nawiązania współpracy. Nowak określa tę strategię terminem "katalizator", ponieważ umożliwia ona nawiązanie stosunków między osobnikami. Preferowana strategia zależy również od szczegółowych reguł gry. Wspaniałomyślna wzajemność ma dość ograniczone możliwości, ponieważ zależy tylko od poprzedniego ruchu przeciwnika. Jeśli weźmiemy pod uwagę ruchy obu graczy, w każdym kroku mamy cztery możliwości. Ta dodatkowa komplikacja powoduje, że wygrywa inna strategia. Nowak odkrył ją, przebywając razem z Sigmundem w zamku w pobliżu Wiednia. Początkowo z irytacją stwierdził, że podczas symulacji wykonywanych na przenośnym komputerze strategia wspaniałomyślnej wzajemności przegrała. "Dopiero po dwóch tygodniach zrozumiałem, że najbardziej interesująca w przypadku dylematu więźnia jest strategia inna niż »jak ty mnie, tak jak tobie«".100 Nowa strategia, nazwana Pawłow, jest równie prosta jak "jak ty mnie, tak ja tobie" i uwzględnia podstawowy mechanizm behawioryzmu: "wygrywający zostaje, przegrywający odchodzi". Takie zachowanie można podsumować dobrze znaną maksymą: "Jeśli coś nie jest zepsute, to nie naprawiaj". Strategię tę rozważał Rapoport już w 1965 roku i określił ją szyderczym mianem "strategii głupka".101 Dopiero gdy Nowak i Sigmund wprowadzili element przypadkowości, reprezentujący pomyłki, zdolność tej strategii do korygowania błędów pokazała swoją wartość.102 Gracze stosujący strategię Pawłow po dwóch rundach wzajemnych nielojalności na ogół podejmują na nowo współpracę. Sigmund porównał to do zgody po sprzeczce małżeńskiej. To przypomina strategię wspaniałomyślnej wzajemności, ale Pawłow ma nad nią jedną przewagę: bez wahania wykorzystuje naiwniaków. Pomyłka, która powoduje, że pawłowowski gracz zachowuje się egoistycznie, pozwala mu również wykryć, czy partner współpracuje we wszystkich okolicznościach.103 To odkrycie spowodowało modyfikację wniosków, wyciągniętych z ważnego doświadczenia, przeprowadzonego przez Manfreda Milinskiego z Uniwersytetu w Bochum (obecnie pracuje w Bernie). Milinski uważał, że znalazł dowody, iż cierniki stosują strategię "jak ty mnie, tak ja tobie".104 Na wolności cierniki często podpływają do czyhającego drapieżnika, aby -jak się sądzi – zidentyfikować go i ocenić jego gotowość do ataku. Gdy małe rybki czynią to en masse, mogą podpłynąć bliżej, a w razie ataku chronią się w grupie, a ich liczba może zmylić napastnika. Jednak każda ryba stoi przed wyborem. Gdy jedna podpływa jeszcze bliżej, pozostałe mogą współpracować i jej towarzyszyć, lub też zdradzić i się wycofać. Egoista jest narażony na mniejsze ryzyko zjedzenia i może zyskać więcej informacji, obserwując los naiwniaka. Milinski umieścił ciernika w zbiorniku, gdzie osobnik ten mógł widzieć dużą pielęgnicę Tilapia mariae, przypominającą okonia, często atakującego cierniki. Za pomocą zręcznych manipulacji lustrami Milinski stwarzał obraz ciernika płynącego w kierunku drapieżnika razem z prawdziwą rybą, bądź pozostającego z tyłu i znikającego. "W obu przypadkach – stwierdził – testowana ryba zachowywała się zgodnie ze strategią »jak ty mnie, tak ja tobie«, co potwierdza hipotezę, że ewolucja może doprowadzić do nawiązania współpracy przez egoistów". Milinski stwierdził jednak, że nawet cierniki, które zawsze zdradzały, usiłują nawiązać współpracę w co drugim przypadku, czego należy oczekiwać od gracza stosującego strategię Pawłów. Przestrzeń, przypadkowość i dylemat więźnia Martin Nowak i Robert May dokonali jeszcze jednego odkrycia związanego z dylematem więźnia. Posługując się deterministycznym automatem komórkowym, modelującym oddziaływania dużej liczby graczy na sieci, zdołali oni zbadać skutki przestrzennej niejednorodności. Gdyby nie efekty przestrzenne, ich model doprowadziłby do oczywistego zwycięstwa egoistów. Jednak, jak powiedział May: "Bez żadnej pamięci, bez kontyn-gentnych strategii, bez konieczności wielokrotnych spotkań lub dyskontowania przyszłości – wyłącznie dzięki oddziaływaniom między sąsiadami – można otrzymać spontanicznie zorganizowane lokalne struktury, które pozwalają na przetrwanie zachowań polegających na współpracy". Wobec tego współpraca może być skutkiem wielokrotnych spotkań, niepewności i przestrzennej niejednorodności. Ponieważ gracze w modelu Maya i Nowaka są rozmieszczeni na dwuwymiarowej sieci, nie istnieje żadna niepewność co do tego, z kim dany gracz ma do czynienia w danej chwili: każdy kwadrat ma ośmiu sąsiadów. Gracze pomijają wszystkie subtelności strategiczne i wspomnienia poprzednich spotkań – po Prostu albo współpracują, albo są egoistami. Jedyną zmienną jest zysk, jaki może przynieść egoizm. Po każdej rundzie dany kwadrat zajmuje ten, kto zdobył więcej punktów, to znaczy albo dotychczasowy właściciel, albo sąsiad. Nie powinno być niespodzianką, że w tej ospałej społeczności współpraca popłaca. Egoistom sprzyja anonimowy tłum, natomiast między sąsiadami często dochodzi do współpracy.105 Jeśli oznaczymy odpowiednimi kolorami komórki, które zmieniły się i pozostały w dawnym stanie, to ta gra daje nowy wgląd w dylemat więźnia, ponieważ na sieci powstają nadzwyczaj piękne i złożone struktury przestrzenne.106 Wyniki są naprawdę uderzające (zob. wkładka, zdjęcie nr 8). Jak stwierdzili May i Nowak: "Oto jest nowy świat, oczekujący na zbadanie".107 Te gry ewolucyjne generują nieregularne albo regularnie zmieniające się mozaiki, złożone z obszarów, w których utrzymuje się strategia współpracy lub egoizmu. Nawet jeśli zastąpimy sieć kwadratową siecią heksagonalną lub zmienimy nieco reguły gry, albo zmiany kwadratów są przypadkowe, i tak zachowuje się mieszanina osobników chętnych do współpracy oraz egoistów, przy czym stosunek obu populacji fluktuuje wokół przewidywalnej, długoterminowej średniej. W rezultacie powstaje nieustannie zmieniający się chaos, skupiska rozra1-stają się, zderzają i rozpadają, przy czym "przeżywają zarówno łajdacy, jak i uczciwi". Nawet jeśli zaczynamy od pojedynczego egoisty, może powstać fantastyczny kalejdoskop wzorów przypominających perskie dywany lub koronki. Choć reguły są prostsze niż w przypadku gry Życie Conwaya, wystarczają, aby powstały szybowce, migacze, rotory i motywy rozrastające się w nieskończoność lub wykazujące właściwości fraktalne.108 Te badania są interesujące z kilku powodów. Po pierwsze, wskazują one, że jeśli wprowadzimy do dylematu więźnia czynnik geograficzny, to egoiści i chętni do współpracy są w stanie egzystować obok siebie. Oznacza to, że w przyrodzie mogą, przetrwać gospodarze i pasożyty lub drapieżniki i ofiary, choć oddziaływania między nimi powodują pojawienie się niestabilności. Po drugie, takie badania można rozszerzyć, aby lepiej zrozumieć zachowanie układów przestrzennych, takich jak: dwuwymiarowe szkła spinowe, z którymi zapoznaliśmy się w rozdziale 4., sztuczne i biologiczne sieci neuronowe z rozdziałów 5. i 9. oraz "prebiotyczna zupa", z której wyłoniło się życie. Jak twierdzą uczeni: "Kataliza replikacji cząsteczki jest formą pomocy; łańcuch katalizatorów, w którym każde ogniwo wskutek sprzężenia zwrotnego stymuluje powstanie katalizatora, byłby najwcześniejszym przykładem wzajemnej pomocy. W tym sensie współpraca może być czymś starszym niż samo życie". Takie zastosowanie wydaje się znajome: przestrzenne struktury generowane przez tę dwuwymiarową grę przypominają automaty komórkowe, symulujące reakcje chemiczne, które wykorzystali Marten Boerlijst i Pauline Hogeweg z Uniwersytetu w Utrechcie, by wykazać, że hipercykle są odporne na "nadużycia" popełniane przez zmutowane cząsteczki, otrzymujące więcej pomocy katalitycznej, niż dające. Komputerowe symulacje wykazują zatem, że współpraca może się utrzymać mimo stałego zagrożenia nadużyciami, będącymi naturalną konsekwencją doboru, który przywiązuje dużą wagę do sukcesu pojedynczych osobników. W ciągu całej ewolucyjnej historii życia współpraca między tłumem mniejszych jednostek, takich jak komórki, prowadziła do pojawienia się bardziej złożonych struktur, na przykład komórek z jądrami lub organizmów wielokomórkowych. W tym sensie – argumentują May i Nowak – współpraca i samoorganizacja są równie istotne dla ewolucji jak dobór naturalny: "Współpraca generuje bardziej złożone struktury, a dobór naturalny decyduje, które z nich przetrwają". Jednak, jak podkreślają May i Nowak, skomplikowane koleje trwającej miliardy lat biologicznej wojny – między współpracą i eksploatacją – w toku darwinowskiej ewolucji doprowadziły do tak złożonej sytuacji, że nie byłoby rozsądne oczekiwać, iż uda się znaleźć jakiś naturalny układ zachowujący się dokładnie tak, jak przewiduje prosty model. Katastrofy Nie istnieje "równanie Darwina", opisujące ilościowo ewolucję biologiczną. Mimo to, jak się przekonaliśmy w poprzednich rozdziałach, ewolucja biologiczna stanowi bardzo złożony (nieliniowy) układ dynamiczny. W następnym rozdziale przekonamy się, jak badania komputerowe – w zasadzie wykorzystujące logikę Boole'a – pomagają nam określić ogólne cechy ewolucji. Wprawdzie symulacje komputerowe to jedyny pewny sposób badania takich cech ewolucji, ale pewne jej aspekty można wyjaśnić, posługując się pojęciami, które już poznaliśmy. Jednym z nich jest zjawisko "naruszanej równowagi", opisane przez Nilesa Eldredge'a z Amerykańskiego Muzeum Historii Naturalnej i Stephena Jaya Goulda z Harvardu. Na podstawie danych paleontologicznych Eldredge i Gould doszli do wniosku, że ewolucja poszczególnych gatunków przebiegała dobrze określonymi etapami (czyli okresami braku równowagi), oddzielonymi od siebie długimi okresami stabilności (staza).109 W latach osiemdziesiątych David Raup i John Sepkoski z Uniwersytetu w Chicago stwierdzili, posługując się wynikami analizy szczątków kopalnych tysięcy rodzajów, że w historii występowały krótkie okresy gwałtownego wymierania gatunków. Różni uczeni przedstawili odmienne wyjaśnienia tych obserwacji. Niektórzy uważają okresy masowego wymierania za zbiór nie związanych ze sobą wypadków. Inni szukają jednego mechanizmu, który wyjaśniłby wszystkie takie okresy. Takim mechanizmem mogłyby być: bombardowanie Ziemi przez komety, zniszczenie płytkich mórz podczas zderzeń kontynentów, brak tlenu lub nagłe zmiany klimatyczne. Spośród takich zdarzeń najlepiej znane jest zderzenie z dużym meteorytem – powszechnie uznawane wyjaśnienie zniknięcia dinozaurów 65 milionów lat temu. Matematyk sir Christopher Zeeman posłużył się teorią katastrof110, aby sformułować proste i ogólne wyjaśnienie zjawiska naruszanej równowagi jako skutków niestabilności, wywołanych przez zmiany w środowisku gatunku.1ll Inny model ewolucyjny wykorzystuje koncepcję samoorganizującego się stanu krytycznego, którą rozważaliśmy w poprzednim rozdziale. Per Bak twierdzi, że życie jest układem dynamicznym, który nigdy nie istnieje w stabilnym stanie stacjonarnym, czyli w równowadze, lecz spontanicznie dąży do charakterystycznego, chwiejnego stanu krytycznego. Podobnie jak hipoteza Zeemana, model Baka przewiduje, że życie nie ewoluuje stopniowo, lecz skokami, z długimi okresami staży, przerywanymi wybuchami gwałtownych zmian – wymierania jednych gatunków i powstawania nowych. Istotną cechą tej koncepcji jest to, że obywa się ona bez "zewnętrznej" przyczyny masowego wymierania gatunków. Jeśli życie spontanicznie dąży do stanu krytycznego, to katastrofy, nawet największe, mogą być naturalną, samoorganizującą się cechą ewolucji, nie wymagającą żadnej zewnętrznej przyczyny. Podczas gdy przyczyną wymarcia dinozaurów było zapewne uderzenie meteorytu, w ciągu 600 milionów lat, jakie upłynęły od eksplozji gatunków w prekambrze, w okresie gdy Ziemię zajęły organizmy wielokomórkowe, doszło do wielu katastrof, spośród których możemy wybierać. Podczas najostrzejszego okresu masowego wymierania – mniej więcej 250 milionów lat temu, pod koniec termu – zniknęło ponad 90% gatunków znanych z wykopalisk. Czy to możliwe, że przyczyną takich zjawisk jest naturalna dynamika darwinowskiej ewolucji? Pewne bardzo wyidealizowane komputerowe symulacje ewolucji, przeprowadzone przez Baka i jego współpracowników, pozwoliły ustalić kilka intrygujących faktów. W okresach gorączkowej aktywności ewolucyjnej przeciętne dostosowanie gatunków jest małe; nieustanne mutacje powodują pojawienie się nowych organizmów i trwają poszukiwania lepszego dostosowania. Dostosowanie różnych gatunków jest małe także w okresie masowego wymierania, natomiast ma bardzo dużą wartość w okresach staży, związanych z niską aktywnością ewolucyjną. We wspomnianych modelach samoorganizująca się dynamika ekosystemu sprawia, że dąży on do punktu krytycznego; w tym punkcie przeciętne dostosowanie nie jest szczególnie duże. Wobec tego model Baka świadczy o tym, że "przetrwanie najlepiej dostosowanego" nie oznacza bynajmniej, iż ewolucja prowadzi do stanu, w którym każdy gatunek ma się dobrze. "Przeciwnie, poszczególne gatunki z trudem trwają, niczym ziarnka piasku na stoku pryzmy w stanie krytycznym" – stwierdzają autorzy symulacji. Zgodnie z ich modelem w punkcie krytycznym wszystkie gatunki wpływają na siebie wzajemnie. Zachowują się wtedy jak jeden "metaorganizm" l dzielą wspólny los. Istnienie okresów masowego wymierania potwierdza tę konkluzję. Wynika z tego także, iż gatunki z wieloma biologicznymi zależnościami i związkami (takimi jak miejsce w łańcuchu pokarmowym, relacja drapieżnik – ofiara lub gospodarz – pasożyt), czyli wykazujące dużą złożoność, są bardziej wrażliwe na fluktuacje zaburzające dynamikę ekosystemu i wobec tego stanowią bardziej prawdopodobne ofiary następnej lawiny, czyli masowego wymierania. Jak wyraził to Bak: "Według naszego modelu karaluchy przetrwają dłużej niż ludzie".112 Globalny ekosystem Koncepcja społeczeństwa owadów, działających razem i tworzących jeden superorganizm, jest powszechnie znana. Jak już wspomnieliśmy, tylko w ten sposób można zrozumieć występowanie altruizmu między krewniakami. Jednak zastosowanie koncepcji samoorganizującego się stanu krytycznego raz jeszcze potwierdza, że globalnych właściwości ewolucji biologicznej nie można zrozumieć, analizując je tak, jakby były od siebie niezależne. Taki redukcjonizm stanowi tylko pierwsze przybliżenie; wprawdzie prowadzi do wielu odkryć, ale jednocześnie stanowi wyzwanie, by złożyć wszystkie elementy w jedną całość. W 1968 roku James Lovelock wysunął tezę, że Ziemia nie jest tylko skalistą kulą, pokrytą zieloną warstwą biosfery, czym bardzo zirytował zwolenników Darwina, koncentrujących uwagę na genach.113 Biolodzy, zgodnie z nauką Darwina, uważają, że życie dostosowuje się do środowiska, natomiast Lovelock uznał życie i środowisko za części jednego superorganizmu, w którym organizmy, skały, powietrze i woda oddziałują w bardzo subtelny sposób, tak aby środowisko pozostało stabilne. Jego sąsiad, pisarz William Golding, nadał tej koncepcji nazwę Goja, od imienia starożytnej bogini Ziemi. Lovelock po raz pierwszy opisał koncepcję Gai w 1973 roku. Wielu znanych biologów ostro skrytykowało ten pomysł. Zarzucali mu, przede wszystkim, że ta idea ma charakter teleologiczny – zakłada istnienie dążenia do określonego celu – a tym samym jest nienaukowa. Teoria Gał wygląda na powrót do czasów sprzed Darwina, gdy James Usher, arcybiskup Armagh w Irlandii Północnej, twierdził na podstawie Biblii, że Wszechświat został stworzony w 4004 roku p.n.e. Lovelock i jego zwolennicy obecnie rzadko używają słowa "organizm", zastępując go mniej wyrazistym terminem "układ". Odrzucają również koncepcję z góry ustanowionego celu, ale twierdzą, że istnieją mechanizmy regulujące, które utrzymują środowisko w stanie zdatnym do życia już od trzech lub więcej miliardów lat. Odwołują się oni do różnych mechanizmów sprzężenia zwrotnego, by wyjaśnić względną stałość klimatu, zaskakująco niskie zasolenie oceanów, stałe stężenie tlenu w atmosferze w okresie ostatnich kilkuset milionów lat i różnorodność organizmów. Niezależnie od tego, czy komuś się to podoba, czy nie, poszukiwania potwierdzenia koncepcji Gai pozwalają nam uzyskać wgląd w złożony system sprzężeń zwrotnych, rządzący naszą planetą. Jednym z ostatnich takich przykładów są badania Ryczących Czterdziestek, burzliwych obszarów oceanu na południe od Australii; badania te potwierdziły tezę, że żywe organizmy mają wpływ na regulację klimatu.114 Badania, którymi kierował Greg Ayers z Melbourne, polegały na śledzeniu losów gazu siarczku dimetylu (DMS), produkowanego przez fitoplankton, czyli mikroskopijne morskie rośliny. Uczeni zainteresowali się rym gazem w latach siedemdziesiątych, po tym jak Lovelock i jego współpracownicy podczas podróży na Antarktydę znaleźli zaskakująco dużo tej substancji w wodach powierzchniowych pośrodku oceanu, co potwierdzało teorię Gai. Lovelock i jego współpracownicy z Uniwersytetu stanu Waszyngton twierdzą, że cały gaz DMS ulega przemianie wskutek reakcji z tlenem w atmosferze i powstają wtedy cząsteczki, które zawierają siarkę, stanowiące zarodzie kondensacji chmur. Hipoteza Lovelocka zakłada istnienie biologicznego termostatu: chmury zakrywają Ziemię, odbijając nadmierną ilość promieniowania słonecznego, co ogranicza wzrost fitoplanktonu, wytwarzającego DMS, a to z kolei powoduje zmniejszenie ilości siarczanów, stanowiących zarodzie chmur.115 Zespół australijskich uczonych, pracujący pod kierunkiem Ayersa, mierzył stężenie DMS i cząsteczek unoszących się w powietrzu ponad półwyspem Grim na północno-zachodnim wybrzeżu Tasmanii w okresie od listopada 1988 roku do maja 1990 roku. Zgodnie z przewidywaniami stężenie DMS oraz cząsteczek zmienia się wraz z porami roku: jest duże latem i małe zimą. Ayers zaleca jednak ostrożność: "Nasze badania stanowią znak na drodze biegnącej w kierunku Gai, ale wyniki nie dowodzą jeszcze słuszności teorii termostatu".116 Lovelock zwraca natomiast uwagę na to, że gdyby nie teoria Gai, nikt nie badałby związku między stężeniem DMS, chmurami i klimatem. Lovelock twierdzi, że jego teoria jest dobrze skonstruowaną teorią naukową, opartą na solidnych podstawach matematycznych i mogącą wyjaśnić różnorodność organizmów.117 Krytycy zaś uważają, że teoria Gai jest w najlepszym razie niejasna, a w najgorszym – niemal mistyczna. Lovelock musiał nawet zmienić nazwę swej koncepcji na "geofizjologia", ponieważ recenzenci pism naukowych nie godzili się na stosowanie określenia Gaja, chyba że w krytycznym kontekście.118 Wielu poważnych biologów ewolucyjnych wzdraga się na myśl, że teoria Lovelocka "kwitnie w popularnej historii naturalnej, a zwłaszcza w telewizyjnych filmach dokumentalnych";119 mają oni nadzieję, że jej popularność wkrótce się skończy. Badania złożoności, takie jakie opisywaliśmy w tym rozdziale, potwierdzają jednak, że teoria Gai mimo swych braków jest bardziej wiarygodna, niż to przedstawiają redukcjoniści. Dzięki przeniesieniu uwagi z pojedynczych cząsteczek na globalne własności można pokazać, jak dobór naturalny, działający zgodnie z samoorganizującymi się procesami molekularnymi, doprowadził do powstania życia: autoreplikacja – w istocie będąca rodzajem autokatalizy – stanowiła podstawę nieliniowej złożoności, która umożliwiła samoorganizację na poziomie molekularnym. Mutacje spowodowały wystąpienie wariacji wśród układów zdolnych do autoreplikacji. Źródłem mutacji było promieniowanie, chemiczne związki obecne w środowisku lub nieuchronne błędy w replikacji. Ewolucja molekularna wyselekcjonowała cząsteczki zdolne do autoreplikacji, które najlepiej wykorzystywały chemiczną energię (jedzenie lub "paliwo") w samoorganizujących się procesach. Innymi słowy, życie nie polega wyłącznie na konkurencji, dziedziczeniu, samolubstwie i przetrwaniu najlepiej dostosowanych genów lub jednostek zdolnych do reprodukcji. Ważną rolę odgrywają także pojęcia złożoności i samoorganizacji, z którymi zapoznaliśmy się w ostatnich trzech rozdziałach, choć wzajemne związki między ewolucją, złożonością i spontanicznym powstaniem uporządkowania są wciąż przedmiotem debat między biologami.120 Jak przekonamy się w następnym rozdziale, takie same globalne cechy złożonych układów adaptacyjnych mogą nawet spowodować ewolucję sztucznego życia. ROZDZIAŁ 8 ŻYCIE MOŻLIWE A obrzydliwe niewypowiedzianie, Gorsze niż wszystko, co w baśniach zmyślono Lub co się w wielkiej trwodze przewiduje, Gorgony, hydry i chimery zgubne. JOHN MILTON, Raj utrącany (przekład Macieja Słomczyńskiego)1 Człowiek nie zadowoli się wytworzeniem życia, lecz będzie chciał je ulepszyć". Pisząc te słowa w 1929 roku, młody irlandzki krystalograf, John Bernal, przewidział możliwość powstania maszyn zdolnych do reprodukcji, tak jak żywe organizmy.2 O tej "postbiologicznej przyszłości" pisał w książce The World., the Flesh, and the DeviL: "Stworzenie życia będzie tylko pierwszym krokiem. Ma on znaczenie, o ile zamierzamy następnie pozwolić, aby życie zaczęło się znów rozwijać". Niemal dwadzieścia lat później von Neumann, badając automaty zdolne do samoodtwarzania, po raz pierwszy wykazał możliwość stworzenia sztucznego życia.3 Jego tak zwany model kinematyczny, z którym zapoznaliśmy się w rozdziale 3., miał wyizolować logiczną zawartość biologicznego procesu autoreplikacji. Choć von Neumann obmyślił swój replikujący się automat parę lat przed odkryciem genetycznych podstaw życia (DNA), położył nacisk na jego zdolność do ewolucji. W swoim wykładzie im. Hixona powiedział słuchaczom, że każda instrukcja wykonywana przez maszynę "w przybliżeniu realizuje działanie genu"; następnie opisał, jak błędy automatu "wykazują pewne typowe cechy mutacji, które z reguły są śmiertelne, ale czasami dopuszczają dalszą reprodukcję ze zmodyfikowanymi cechami".4 Różni uczeni podjęli próby realizacji idei von Neumanna. W 1956 roku pojawiła się propozycja budowy "Sztucznej Żywej Fabryki" – pływającej fabryki zdolnej do samoodtwarzania i wydobywającej z morza ważne surowce.5 Freeman Dyson z Institute for Advanced Study w Princeton zdał sobie sprawę z zagrożeń, jakie mogłyby powstać, gdyby taka fabryka wymknęła się spod kontroli, i sam zaproponował mniej groźny Gedankenexperiment, w którym maszyny zdolne do autoreplikacji dają początek życiu w Układzie Słonecznym.6 Odkrycie von Neumanna, że życie ma charakter logiczny, dziś zyskało jednak szczególne znaczenie, ponieważ nowoczesne komputery są zdolne do ewolucyjnego generowania złożoności. Jak się przekonaliśmy, zarówno w biologii, jak i w informatyce występuje tendencja do rezygnacji z logicznego projektowania i stosowania w zamian technik odwołujących się do ślepych sił ewolucji. Proszę sobie wyobrazić, co się dzieje, gdy komputerowy program tak ewoluuje, aby móc rozwiązać trudne problemy optymalizacyjne. Jeśli życie jest takim problemem, to czy – w jakimś sensie – może to doprowadzić do powstania nowych obliczeniowych form życia? Czy da się zrealizować proces darwinowskiej ewolucji wskutek doboru naturalnego – jedynej cechy definiującej życie – wewnątrz komputera? Życie na Ziemi jest cechą wyłącznie organizmów zbudowanych ze związków węgla, natomiast to, co potrafilibyśmy wykreować w komputerze, stanowi zbiór logicznych instrukcji maszynowych; mimo to nie ma dowodów, że ewolucja komputerowa nie może stworzyć układów dorównujących złożonością układom biologicznym. Ewoluujące programy komputerowe powinny umieć wytworzyć dowolnie dużą złożoność, skoro będą prawdopodobnie mogły wykonywać uniwersalne obliczenia w sensie Turinga.7 Tak jak życie biologiczne ostatecznie opiera się na złożonych oddziaływaniach między ogromną liczbą mikroskopijnych jednostek, zwanych cząsteczkami, tak – zdaniem niektórych uczonych – sztuczne życie (artificial life, czyli AL) może wyłonić się ze złożonych logicznych oddziaływań w komputerze. Analogia między dwiema sytuacjami wynika z tego, że u podstaw wszystkich logicznych procesów zachodzących w komputerze leżą atomistyczne cegiełki binarnej algebry symbolicznej Boole'a (zob. rozdział 3.). Nowa nauka o AL wywodzi się z abstrakcyjnej wizji von Neumanna i przynosi wiele korzyści. Jak się przekonamy, może nam pomóc w zrozumieniu życia biologicznego dzięki bardziej abstrakcyjnym badaniom własności emergencyjnych, które nadały mu kształt w procesach reprodukcji, konkurencji i ewolucji. Z drugiej strony, należy pamiętać, że układy darwinowskie są zdolne do rozwiązywania wielu problemów; jeśli układy te wykorzystamy w programach komputerowych, będziemy mogli uporać się z mnóstwem niebiologicznych złożonych zadań optymalizacyjnych, które omawialiśmy w rozdziałach 2., 3., 4. i 5. AL stwarza możliwość zrozumienia skomplikowanych zagadnień inteligencji i sztucznej inteligencji, gdyż -jak już dawno przewidział Turing – kładzie nacisk na wpływ środowiska na uczenie się. Najbardziej intrygujące jest to, że – jak sądzą niektórzy – AL może doprowadzić do powstania radykalnie nowych form życia. Pierwszy krok w tym kierunku nastąpił już parę lat temu, gdy powstały wirusy komputerowe; obecnie w komputerach rodzą się obiekty, które jeszcze bardziej zasługują na określenie "żywe". Zasadniczym celem badań nad AL jest odkrycie istoty i uniwersalnych cech "życia": nie tylko takiego, jakie znamy, ale również życia, które mogłoby istnieć czy to na Ziemi, czy w komputerach, czy też gdzieś indziej w naszym Wszechświecie. Słabe i silne sztuczne życie W pewnym sensie badania nad sztucznym życiem trwają już od dawna, choć nie określano ich tym mianem. Komputery wykorzystano do symulowania przebiegu wielu procesów biologicznych, których często nie można było wyjaśnić w żaden inny sposób, o czym przekonaliśmy się w poprzednim rozdziale. Zazwyczaj sprowadza się to do rozwiązania za pomocą komputera dobrze określonego zbioru równań, które – zdaniem uczonych – poprawnie opisują dane zjawisko, na przykład kształtowanie się kończyn lub agregację śluzowca. Symulacje te w żaden sposób nie są życiem, podobnie jak komputerowe symulacje błysku i grzyba atomowego nie są wybuchającą bombą. Uczeni, którzy prowadzą takie badania, to zwolennicy "słabego" sztucznego życia, ponieważ zajmują się konstruowaniem komputerowych modeli procesów biologicznych, ale symulacji tych nie uważa się za żywe. Pewną grupę uczonych odróżnia od przedstawicieli głównego nurtu badań w tej dziedzinie często milcząco przyjmowana wiara w "silne" AL -wiara w to, że odpowiednio zaprogramowany komputer można uznać za obiekt ożywiony lub przynajmniej wykazujący pewne charakterystyczne cechy życia. To rozróżnienie jest dobrze znane uczonym, badającym sztuczną inteligencję. Istnieje wśród nich grupa zwolenników słabej sztucznej inteligencji (AI), używających komputerów do modelowania procesów zachodzących w mózgu, których inaczej nie można symulować. Natomiast zwolennicy silnej sztucznej inteligencji stawiają sobie większy cel niż wyznawcy silnego AL – chcą przypisać właściwie zaprogramowanemu komputerowi świadomość. Jeden ze sposobów rozróżnienia tych dwóch zasad AI polega na przetłumaczeniu przymiotników tak, aby "słaba" oznaczała "skromna", a "silna" – "wyzywająca".8 Obecnie badania nad sztuczną inteligencją stanowią część badań nad sztucznym życiem, gdyż tylko pewnym żywym formom można przypisać inteligentne zachowanie. Istnieje jednak ważna różnica między AI i AL jako przedmiotami współczesnych badań: jak stwierdził Elliot Sober, filozof z Uniwersytetu stanu Wisconsin, ziemskie życie jest pod wieloma względami lepiej poznane niż ludzki umysł, a zatem AL ma silniejsze podstawy niż AI.9 Jak już podkreślaliśmy w rozdziale 7., zdefiniowanie "życia" nieustannie nastręcza trudności. Skoro niełatwo jest znaleźć dwóch ludzi, którzy zgadzają się co do definicji życia, można oczekiwać, że próby zdefiniowania sztucznego życia tylko powiększą zamieszanie. Małostkowe kłótnie o definicje nie powstrzymały jednak zwolenników silnego AL od zgłaszania pyszałkowatych roszczeń. Szczególnie prowokujące jest oświadczenie Doyne'a Farmera z Los Alamos i Alietty Belin z Shute, Mihaly and Weinberger, jako żywo przypominające twierdzenia zwolenników silnej AI: "W ciągu 50-100 lat zapewne wyłoni się nowa klasa żywych organizmów. [...] Pojawienie się sztucznego życia będzie najważniejszym historycznym wydarzeniem od czasu powstania ludzi. Wydarzenie to może wywrzeć większy wpływ na ludzkość i biosferę niż rewolucja przemysłowa, broń jądrowa oraz zanieczyszczenie środowiska. Musimy już teraz podjąć odpowiednie kroki, by ukształtować przyszłe sztuczne organizmy; mogą one być albo najkoszmarniejszą ziemską klęską, albo najpiękniejszym tworem ludzkości".10 To zakrawa na skandal, ale musimy lepiej poznać zagadnienia AL, nim bez wahania odrzucimy takie poglądy.11 Wirusy Niektóre przykłady "słabych" sztucznych organizmów krążą już w środowisku i są dobrze znane. Narodziły się podczas Core Wars, czyli gry uprawianej kiedyś przez komputerowych maniaków. 12 Celem gry było stworzenie programu, konkurującego z innymi o czas dostępu do procesora i miejsce w pamięci komputera. Programy takie przypominają zwierzęta walczące o żywność i terytorium. Produkty uboczne Core Wars, lepiej znane jako wirusy komputerowe, gnieżdżą się w komputerach osobistych, stacjach roboczych i dużych komputerach na całym świecie. Termin "wirus komputerowy" jest bardzo wymowny; został ukuty w 1983 roku na określenie krótkiego kawałka komputerowego programu, który potrafi "dołączyć się" do jednego lub większej liczby uruchomionych programów. Wirusy są tak groźne, że wiadomości o nich często trafiają na pierwsze strony gazet. Wirusom komputerowym nadaje się efektowne nazwy, takie jak: Brain, DenZuk, Michelangelo, Elk Cloner, Festering Hote i Cyberaids. Wirusy podlegają również mutacjom, gdy kolejny złośliwy osobnik wprowadza niewielkie zmiany do kodu wirusa; na przykład jeden z najbardziej rozpowszechnionych wirusów, Jerusalem, dał początek wirusom Jerspain, Payday, Mendoza, Anarkia, Fu. Manchu i Zerotime.13 Z biegiem czasu wirusy stają się coraz sprytniejsze. W połowie lat dziewięćdziesiątych pojawił się pierwszy wirus używający dwóch strategii replikacji, zależnie od okoliczności. Od pierwszej epidemii wirusa Brain w styczniu 1986 roku do l kwietnia 1991 roku ponad dwieście różnych wirusów zainfekowało komputery osobiste typu IBM.14 Gdy operator uruchamia zainfekowany program, jednocześnie wykonywany jest program wirusa. Wirus może zniszczyć system operacyjny komputera, zamazać ważne zbiory, dane i instrukcje; co więcej, wirus zawiera instrukcje powodujące Jego replikację, dzięki czemu rozprzestrzenia się przez nośniki magnetyczne, takie jak taśmy i dyskietki. Istnieje obecnie cała menażeria zaraźliwych programów. Na przykład "robaki" to programy, które mogą być wykonywane niezależnie i rozchodzą się przez sieć elektroniczną. Inne rodzaje vandalware to bakterie, konie trojańskie, bomby logiczne i zapadnie. Producenci komputerów dążą do standaryzacji oprogramowania, co wyjątkowo sprzyja wirusom. Podobnie jak monokultura zbożowa może zostać całkowicie zniszczona przez chorobę, która niemal nie szkodzi zdrowym, naturalnym łąkom, gdzie rośnie wiele gatunków roślin, tak samo legiony identycznych systemów operacyjnych mogą łatwo paść ofiarą na pozór niegroźnej infekcji komputerowej. Rodzi się nieuchronne pytanie: czy wirusy komputerowe są żywe? To pytanie wydaje się jeszcze bardziej kłopotliwe niż w przypadku biowirusów. Odpowiedź zależy oczywiście od definicji życia. Zarówno naturalne, jak i sztuczne wirusy wykazują pewne cechy żywych organizmów. Mogą się reprodukować, gromadzić informację i wykazują metabolizm, w tym sensie, że piracko wykorzystują system gospodarza, komputera lub komórki. Znamy nawet przykłady oddziaływań między wirusami komputerowymi: jeśli DenZuk i Brain spotkają się w tym samym komputerze, DenZuk zamazuje program przeciwnika. Jednak kluczową różnicę między wirusami komputerowymi i biologicznymi można przedstawić na przykładzie wirusowego zapalenia wątroby (żółtaczka), choroby wirusowej, która zaatakowała mniej więcej połowę ludności świata i jest odpowiedzialna za 90% przypadków raka wątroby. Nie istnieje jeden wirus żółtaczki, lecz jest ich wiele. Pierwszy został odkryty wirus żółtaczki B. Po nim przyszła kolej na wirusy żółtaczki A, C, D i E. Ostatnio pojawiły się doniesienia o odkryciu dwóch następnych i bez wątpienia jest ich jeszcze więcej. O dziwo, nie są to różne odmiany tego samego wirusa, lecz przedstawiciele zupełnie innych rodzin. Łączy je jedna wspólna cecha: stanowią "rozwiązania" tego samego problemu, który zrodziła ewolucja różnych rodzin wirusów, dążących do zaatakowania ludzkiej wątroby, aby się tam rozmnażać. A i E dostają się do organizmu za pośrednictwem jedzenia i wody skażonej ściekami; inne wirusy wykorzystują nasze upodobanie do seksu oraz – podobnie jak wirusy AIDS – są przenoszone przez krew. To powoduje przekazanie wirusa od matki do dziecka – poprzez skażoną igłę – podczas takich praktyk, jak rytualne obrzezanie, wykonywanie tatuażu i ceremonialna wymiana krwi.15 Choć naukowcy nie lubią antropomorfizacji zachowań złożonej cząsteczki, która istnieje na granicy między układami ożywionymi i martwymi, jeden z pionierów badań żółtaczki, Baruch Blumberg, przyznaje, że strategie stosowane przez wirusa są tak sprytne, iż trudno nie przypisywać mu celowych działań. Dzięki zdolności do ewolucji wirus – składający się z kilku genów – na pozór planuje skomplikowane strategie, aby przechytrzyć ludzki organizm. Mutacje wirusa zdarzają się tak często, że w danej populacji zawsze jest kilka wirusów zdolnych do dostosowania się do zmian lub wykorzystania nowych możliwości. W przeciwieństwie do wirusów naturalnych, wirusy komputerowe nie ewoluują; stworzenie wirusa zdolnego do ewolucji jest poważnym wyzwaniem dla programistów, gdyż większość języków komputerowych nie toleruje błędów. Powinniśmy się z tego cieszyć, zważywszy, jakie szkody wyrządziły już istniejące wirusy. W rozdziale 6. przekonaliśmy się, że najlepiej jest definiować układy ożywione jako układy podlegające rygorom darwinowskiej ewolucji. Zgodnie z tą definicją wirusy komputerowe nie są żywymi organizmami. Mimo to niektórzy zwolennicy silnego sztucznego życia, zwłaszcza Farmer i Belin, twierdzą, że wprawdzie wirusy komputerowe wymagają, aby człowiek je stworzył, ale wiele naturalnych organizmów również nie może istnieć bez pomocy innych istot. Wobec tego -argumentują – wirusy komputerowe żyją w symbiotycznym związku z człowiekiem, który umożliwia im ewolucję. Odsuwając na bok jałowe spory terminologiczne, wydaje się jasne, że choć te sztuczne twory stanowią pewną informację mniej lub bardziej bezcielesną, to jednak niepokojąco przypominają -ogólnie rzecz biorąc – żywe istoty. Sztuczny wzrost W niektórych badaniach z dziedziny AL uczeni posługują się komputerami do modelowania wzrostu roślin, co jest piekielnie skomplikowanym przedsięwzięciem. Wystarczy kilka liczb, aby przedstawić skalę problemu w przypadku roślin wielokomórkowych. Każda komórka zawiera tysiące genów. Nie wszystkie są wykorzystywane w każdej komórce – szczegółowa konfiguracja genów aktywnych i biernych jest inna w komórkach łodygi, kwiatu, nasienia lub owocu. Dla n genów liczba kombinacji wynosi 2n. Nawet dla niewyobrażalnie prostej rośliny, mającej dziesięć genów, istnieje 1024 odmiennych kombinacji, definiujących różne plany roślin. Aristid Lindenmayer, nieżyjący już botanik z Uniwersytetu w Utrechcie, kontynuując prace brytyjskiego zoologa D'Ar-cy'ego Thompsona, podjął próbę uchwycenia uniwersalnych cech genetycznego języka, używanego przez wszystkie rośliny. W tym celu opracował matematyczny, formalny opis wzrostu roślin. Po dwudziestu pięciu latach pracy wysiłki te doprowadziły do powstania interesujących symulacji, nazywanych obecnie na cześć uczonego L-systemami.16 Lłndenmayer usiłował opisać wzrost roślin, posługując się takimi samymi technikami gramatycznymi, jakich używają lingwiści do analizy zdań. Zamiast "rozbierać" rośliny, tak jak dokonuje się rozbioru zdań, aby przejść od konkretnych słów do abstrakcyjnych części mowy, L-gramatycy na ogół pracują w odwrotnym kierunku, to znaczy zaczynają od abstrakcyjnych "części roślin" i przez wielokrotne podstawienia, zgodne z regułami gramatyki, dochodzą do takich elementów roślin, jak kora, łodyga, liście i kwiaty. Piękno tej metody polega na tym, że reguły gramatyki nie określają ogólnego kształtu rośliny. Struktura po prostu wyłania się z obliczeń. Ryc. 8.1. Sztuczne rośliny. Gałązka bzu i pole kwiatów stworzone za pomocą metody Lindenmayera. W modelach komputerowych Lłndenmayera organizm rośliny jest przedstawiony w postaci łańcucha symboli, oznaczających poszczególne moduły (liść, ogonek, pąk itd.). Organizm. rośnie", gdy stosując odpowiedni algorytm, manipulujemy tymi symbolami. Nawet proste zbiory reguł prowadzą do "roślin", które wyglądają jak prawdziwe. Następnym krokiem w rozwoju programu było uwzględnienie możliwości rozgałęzień, dzięki czemu powstawały "drzewa". Modele Lindenmayera działały podobnie jak automaty komórkowe. Najbardziej spektakularne wyniki zastosowania L-systemów to hiperrealistyczne rośliny, przypominające paprocie. Dwoje doktorantów Lindenmayera z Uniwersytetu w Utrechcie, Ben Hesper i Pau-Uhe Hogeweg, przedstawiło wyniki cyfrowe otrzymane za północą reguł L-systemu na ekranie. W ten sposób uzyskali bardzo realistyczne obrazy paproci i astrów. Na fotografii uczestników sympozjum na temat sztucznego życia – w Santa Fe w 1987 roku – widać Lindenmayera z astrem. Zdjęcie to uzupełniło słowa dedykacji w poświęconym pamięci Lindenmayera tomie prac z drugiego sympozjum AL, które odbyło się w rok po śmierci uczonego.17 Niektórzy uczeni zastosowali metodę Lindenmayera, aby sprawdzić, czy wygląd prawdziwych zmutowanych roślin można uznać za skutek zmiany konkretnej reguły rozwoju.18 Nawet studia filmów animowanych posługują się obecnie L--systemami, by otrzymać obrazy drzew. Metody Lindenmayera dają wgląd w przebieg procesów morfogenezy, ukazując, jak przez zastosowanie lokalnie prostych reguł, genetycznych lub algorytmicznych, można otrzymać na drodze ewolucji gałęzie, liście i kwiaty. Jednak L-systemy nie są zaprojektowane w taki sposób, aby naśladowały wzrost komórek biologicznych. Z tego powodu zaliczamy je do szeroko zdefiniowanej dziedziny badań sztucznego życia. Sztuczny dobór Programy Core Wars, komputerowe wirusy i robaki są zdolne do autoreplikacji, ale nie mogą ewoluować bez z góry określonego celu. L-systemy nie potrafią się nawet replikować. Zdolność do ewolucji to zasadnicza cecha znanego nam życia i obecnie podejmuje się próby doprowadzenia do sztucznej ewolucji w cyberprzestrzeni. Jeśli miałyby pojawić się jakiekolwiek szansę na stworzenie sztucznego życia w komputerze, najpierw musimy znaleźć sposób na wprowadzanie nowinek wskutek mutacji i dobieranie "najlepiej dostosowanego" obiektu. We wrześniu 1987 roku w Los Alamos w stanie Nowy Meksyk odbyła się pierwsza konferencja na temat sztucznego życia. Przyjechało na nią 160 uczonych, od zoologów i botaników po chemików, fizyków i informatyków. Byli wśród nich również badacze zajmujący się zautomatyzowanymi systemami Lego dla dzieci; wszystkich zgromadzonych łączyło zainteresowanie symulowaniem i wytwarzaniem żywych układów w postaci zbioru reakcji chemicznych, programu komputerowego lub układu elektronicznego. Organizator spotkania, Chris Lang-tón, stwierdził: "Najważniejszą ideę, jaka wyłoniła się podczas sympozjum, można sformułować następująco: sztuczne układy wykazujące cechy żywych organizmów warto badać dla nich samych, niezależnie od tego, czy sądzimy, że procesy, które one naśladują, odegrały jakąś rolę w powstaniu lub funkcjonowaniu istniejących form życia. Takie układy pomogą zrozumieć życie w kategoriach »możliwych form«".19 Ryc. 8.2. Generacja różnorodności w komputerze: biomorfy Oawkinsa. W konferencji wziął również udział znany zoolog Richard Dawkins z Oksfordu. Omówił on, jak jego program ślepy zegarmistrz generuje różne "stworzenia", które można obserwować na ekranie komputera. "Wykorzystując określenie Desmonda Morrisa, odnoszące się do jakby zwierzęcych kształtów na jego surrealistycznych obrazach, nazwałem te istoty biomorfami – wyjaśnił.20 – Moim głównym celem podczas pracy nad programem było zredukowanie do niezbędnego minimum mojego udziału w projektowaniu biomorfów. Chciałem, aby na ile to możliwe – wyłoniła się biologia biomorfów". Biomorfy były generowane przez łańcuchy programu komputerowego, podobnie jak ciała powstają z genów. Komputer dokonywał niewielkich zmian ("mutacje") w programie opisującym biomorfy i przedstawiał na ekranie rozmaite organizmy, Jakie mogą powstać. Ponieważ Dawkins nie mógł wybierać biomorfów na podstawie ich dostosowania do środowiska, wskazywał na kilka – kierując się kryteriami estetycznymi – i hodował z nich następne pokolenia. "Byłem naprawdę zaskoczony i zachwycony bogactwem morfologicznych typów, jakie pojawiły się przed moimi oczami" – stwierdził później. Dawkins wykorzystał swój program, aby wykazać, że "ślepy zegarmistrz" mógł wytworzyć różnorodne organizmy bez uciekania się do pomocy Boga lub wielkiego projektanta. Dawkins, w ślad za Darwinem, twierdził, że bardzo złożona budowa ludzkiego oka mogła powstać w toku ewolucji i doboru naturalnego, dzięki współdziałaniu przypadku i konkurencji. Później dowiedli tego w swej wspaniałej pracy Dan Nilsson i Susanne Pelger z Uniwersytetu w Lund w Szwecji, wykazując, że jeśli dobór zawsze faworyzuje wzrost informacji wizualnej, to po kilkuset tysiącach generacji dzięki stopniowym przeobrażeniom fragment czułej na światło tkanki zmienia się w oko wyposażone w soczewkę.21 Oznacza to, że tak złożony organ, jak oko, mógł – przynajmniej w teorii – powstać w ciągu miliona lat, co w porównaniu z długością epok geologicznych jest mgnieniem oka.22 Ewolucyjne algorytmy Biomorfy Dawkłnsa stanowią uderzający przykład, jak wskutek serii przypadkowych mutacji prosta struktura może się zmienić w obiekt przypominający żywy organizm. Biomorfy powstały jednak dzięki sztucznemu doborowi. To "bóg", czyli Dawkins, stworzył ciśnienie selekcyjne, prowadzące do powstania złożonych układów, a nie pozbawiona celu ewolucja, spowodowana konkurencją z innymi obiektami w tym samym środowisku. Jak wielokrotnie powtarzaliśmy, organizmy żywe wyróżniają się wrodzoną zdolnością do ewolucji wskutek doboru naturalnego, czyli poprzez mechanizm "przetrwania najlepiej dostosowanego". Przeżywają gatunki najlepiej przystosowane do reprodukcji w złożonym, lecz ograniczonym środowisku, określonym przez wszystkie pozostałe gatunki i warunki naturalne. Stworzenia gorzej dostosowane w końcu wymierają. W rozdziale 4. dowiedzieliśmy się, że z tego punktu widzenia ewolucja przypomina inne trudne problemy optymalizacyjne i niesie dodatkowe komplikacje, które spowodowała równoczesna ewolucja pejzażu dostosowań, efekt dążenia do przetrwania wszystkich pozostałych gatunków. Oznacza to, że dynamika ewolucji jest silnie nieliniowa, charakteryzują ją liczne sprzężenia zwrotne i prowadzi ona do powstania układu, który można uznać za apoteozę złożoności. Mimo to, dzięki potędze nowoczesnych komputerów, możemy optymistycznie oceniać, że uda się przeprowadzić symulację sekretów ewolucji metodami obliczeniowymi. Proszę sobie przypomnieć algorytmy genetyczne (GA) Johna Hollanda, omawiane w rozdziale 5., które powstały dzięki inspiracji ideami Darwina. W ciągu mniej więcej dwudziestolecia, jakie minęło od powstania GA, algorytmy te były używane głównie do rozkazywania złożonych problemów świata nieożywionego. Jednak już w latach sześćdziesiątych grupa Hollanda użyła algorytmów genetycznych do badań układów biologicznych, zaczynając od symulacji organizmów jednokomórkowych.23 Chociaż początkowo badania te rozwijały się bardzo powoli, w ostatnich latach algorytmy genetyczne dostarczyły doskonałego sztucznego laboratorium do analizowania ewolucji. Algorytmy genetyczne wykorzystują populację oddziałujących programów komputerowych, reprezentujących poszczególne organizmy, jako model populacji żywych istot. W ewolucji programów "występują zjawiska analogiczne do symbiozy, paso-żytnictwa, biologicznego wyścigu zbrojeń, mimikry, powstawania nisz i specjacji".24 Inne prace z algorytmami genetycznymi częściowo wyjaśniły, w jakich warunkach ewolucja faworyzuje reprodukcję płciową, a w jakich bezpłciową. Rick Riolo z Uniwersytetu stanu Michigan zaobserwował, że algorytmy genetyczne wykazują zdolność do "utajonego uczenia się". Zjawisko to jest podobne do uczenia się sieci neuronowych i zachowania szczura, który nie nagradzany bada labirynt, dzięki czemu później potrafi znacznie szybciej odnaleźć umieszczone w nim jedzenie. David Jefferson, współpracując z grupą AL z Uniwersytetu Kalifornijskiego w Los Angeles, skorzystał z algorytmu genetycznego, by stworzyć sztuczną mrówkę "przecierającą szlak" cyfrowego owada komputerowego, składającego się ze zbioru instrukcji, które nakazywały mu "nauczyć się", jak przejść skomplikowany szlak wyznaczony na sieci. Podobnie zachowują się prawdziwe mrówki, idąc szlakiem wyznaczonym przez sygnały chemiczne.25 Mrówkę reprezentował albo "automat o skończonej liczbie stanów" – to znaczy łańcuch binarny, mający dostęp do skończonej liczby rodzajów zachowań – albo sztuczna sieć neuronowa.26 Jefferson użył algorytmu genetycznego do szukania metodami ewolucyjnymi coraz lepszych reguł rządzących zachowaniem mrówki, gdy ta "wywąchała", co znajduje się w kwadracie przed nią. Program rozpoczął od 65 536 mrówek (2 do potęgi 16) – tyloma procesorami dysponuje komputer Connection Machinę 2 (jedna mrówka na procesor). Po symulacji ewolucji, trwającej siedemdziesiąt pokoleń, znacząca część populacji nauczyła się pokonywać zawiły szlak, składający się z osiemdziesięciu dziewięciu kwadratów. Wydawałoby się, że wymagało to długiego okresu ewolucji, ale każde pokolenie "żyło" mniej niż trzydzieści sekund. W ten sposób udało się wykazać, że metodami ewolucyjnymi można stworzyć sztuczny organizm, zdolny do złożonych zachowań, które przypominają zachowania żywych istot. Taki program byłoby trudno napisać ab initio. Następnie Jefferson i jego współpracownik, Robert Collins, stworzyli Farmę mrówek, program komputerowy symulujący ewolucję strategii żerowania kolonii sztucznych mrówek (Ryc. 8.3a).27 Ryc. 8.3a. Farma mrówek. W chwili narodzin nowego pokolenia wszystkie mrówki są w mrowisku, nie ma żadnych sygnałów chemicznych w postaci fe-romonów, a pożywienie jest rozłożone w różnych punktach na farmie. Podczas ewolucji wirtualnej mrówek zmienia się strategia poszukiwania pokarmu. Chodząc po farmie, mrówki mogą zaznaczać drogę sygnałami chemicznymi. Algorytmy genetyczne pozwalają prześledzić ewolucję takich złożonych zachowań. Z drugiej strony, przykład mrówek raz jeszcze dowodzi, że wiele osobników, działających zgodnie z prostymi regułami, może wytworzyć złożoną strategię żerowania. Steve Appleby z British Telecom Laboratories w Martlesham Heath opracował podobny program, który symulował cechy mrówek, dające im "siłę" – prostotę i zdolność do samoorganizacji w celu znalezienia pokarmu. Appleby ma nadzieję, że owady przyczynią się do rozwiązania jednego z najważniejszych problemów, które stoją przed wszystkimi współczesnymi firmami telekomunikacyjnymi: jak kierować rozmowy poprzez rozmaite możliwe połączenia w niezwykle skomplikowanej sieci. Możliwe są dwa skrajne rozwiązania tego problemu. W pierwszym rozwiązaniu w centrum ogromnej sieci tkwi – niczym pająk – superkomputer, który teoretycznie zawsze jest w stanie obliczyć najlepsze połączenie. W praktyce jednak superkomputer może zbyt długo "drapać się po głowie" i "myśleć", co zrobić. W drugim skrajnym rozwiązaniu każda centrala telefoniczna działa niezależnie, wybierając połączenia na podstawie informacji o obciążeniu sąsiednich central. Taki mechanizm jest szybki, ale w żadnym wypadku nie daje najlepszego rozwiązania, gdyż nie uwzględnia globalnego stanu sieci. British Telecom ma nadzieję, że z pomocą mrówek uda się znaleźć kompromis między sterowaniem lokalnym i globalnym. Wydajna strategia żerowania mrówek jest określona przez zaledwie cztery reguły. Pierwsze trzy są związane z komunikacją między mrówkami za pomocą chemicznych sygnałów, pozostawianych wzdłuż szlaku: (1) Jeśli mrówka znalazła pożywienie, ma je zanieść prosto do mrowiska, znacząc drogę feromonem. (2) Jeśli mrówka przecina wytyczoną drogę i nie ma pożywienia, ma pójść znanym szlakiem do pożywienia. (3) Po powrocie do mrowiska mrówka powinna zostawić pożywienie l wyruszyć na poszukiwania wyznaczonym szlakiem. Ostatnia reguła dotyczy wszystkich nieprzewidzianych wypadków: (4) Jeśli nie można zastosować żadnej z trzech pierwszych reguł, mrówka winna poruszać się przypadkowo (zob. Ryc. 8.3b). Ryc. 8.3b. Samoorganizujące się mrówki stanowią inspirację dla nowych sposobów zarządzania sieciami telekomunikacyjnymi. "Ów szlak feromonowy jest jednym z kluczy do »siły« mrówek – uważa Appleby. – To komunikat dla każdej dorosłej mrówki, która się na niego natknie. Zupełnie inaczej działają komputery: program realizowany na jednym komputerze wysyła komunikat do innego komputera". "Siła" jest naturalną Konsekwencją rezygnacji z adresowania komunikatów. Każda mrówka może zastąpić dowolną inną. Appleby i Simon Steward opracowali następnie rój "mrówek" – ruchomych programów – które pomagają w kierowaniu rozmów poprzez różne połączenia, tak aby wszystkie centrale były równomiernie obciążone.28 Podobnie jak mrówki, programy te nie kontaktują się bezpośrednio, lecz zostawiają komunikaty w centralach, przez które przechodzą. "Jeśli jeden program padnie, nie ma to większego znaczenia, ponieważ inny wkrótce nadejdzie, odczyta komunikat i przejmie pracę. Uodparnia to system na zakłócenia" – twierdzi Appleby. BT bada obecnie, jak wykorzystać takie programy do zarządzania dynamicznymi sieciami, zwłaszcza sieciami łączącymi komputery.29 Ewolucja bez celu Konwencjonalne algorytmy genetyczne wprowadzają do prób stworzenia sztucznego życia pewne aspekty doboru naturalnego, ale podlegają licznym ograniczeniom. Jednym z nich jest sam rozmiar symulacji potrzebnych do reprodukcji złożoności znanego nam życia. Naturalne populacje liczą miliony osobników w przypadku dużych zwierząt, biliony owadów i kwintyliony bakterii.30 Komputery wieloprocesorowe stają się jednak coraz mocniejsze, więc ostatecznie powinno udać się przeprowadzić realistyczne symulacje. Kolejne ograniczenie wynika z tego, że chromosomy algorytmów genetycznych, reprezentujące zakodowane rozwiązanie danego problemu – czyli cyfrowe organizmy – mają zawsze taką samą wielkość.31 Liczne ważne rozstrzygnięcia ewolucyjne są uwzględnione z góry, a nie wynikają z naturalnej ewolucji. Ponadto zjawisko crossing-over jako zasadnicza operacja genetyczna implikuje reprodukcję płciową, podczas gdy w przyrodzie najwcześniejsze i najbardziej prymitywne organizmy rozmnażają się bezpłciowo.32 Poza tym ewolucja przebiegająca zgodnie z algorytmem genetycznym zmierza do określonego celu, natomiast w rzeczywistym świecie jest podporządkowana środowisku. Inaczej mówiąc, środowisko kipiące życiem samo określa problemy do rozwiązania, nie trzeba ich narzucać z zewnątrz. Proszę sobie wyobrazić, że celem jest wyhodowanie stworzenia zdolnego do biegania z prędkością 60 km/h. Można zastosować dwa podejścia. Skoro konie i tak biegają dość szybko, rozpocznijmy program hodowlany. W tym celu wybieramy stado koni, organizujemy wyścigi i wybieramy do rozpłodu zwycięzców. Takie podejście stosuje większość współczesnych algorytmów genetycznych. Zamiast tego można wybrać rozległą trawiastą równinę, taką jak Serengeti, wypuścić tam lwy i całą menażerię innych zwierząt, poczekać parę milionów lat, by przekonać się, do czego doprowadzi ewolucja. Może powstać kort lub szczególnie szybki nosorożec.33 Znaczenie ma jedynie to, że zwierzę potrafi biegać ze stałą prędkością 60 km/h. Ostatnio powstały algorytmy genetyczne, w których dynamika ewolucyjna wyłania się spontanicznie, tak jak w przyrodzie. Wprawdzie taką ewolucją jest trudniej sterować, ale ma ona znacznie bardziej twórczy charakter i niektórzy z jej entuzjastów wierzą, że pozwoli wytworzyć prawdziwe sztuczne życie. Podobnie jak życie biologiczne, prawdziwe sztuczne życie musi być zdolne do konstruowania struktur nie zaprojektowanych i nie zaprogramowanych z góry. Aby proces ewolucji sztucznego życia nie miał określonego celu, musi być przypadkowy (stochastyczny); oznacza to, że powinien uwzględniać element nowości, która może zmienić przebieg ewolucji w zupełnie nieoczekiwany sposób. Gdy zmienia się dostosowanie jednego organizmu, odpowiednio zmienia się pejzaż dostosowań wszystkich współewoluujących organizmów. Wobec tego przypadkowe symulacje mogą doprowadzić do znalezienia rozwiązań przez nikogo nie przewidzianych; komputer mógłby zatem stać się źródłem oryginalności i innowacji. To zaś stanowi warunek konieczny dla zagwarantowania plastyczności ewolucji, dzięki której całemu procesowi nie grozi zabrnięcie w ślepy zaułek. Dotychczas omawialiśmy próby symulowania ewolucji W określonym celu; inaczej mówiąc, pejzaże dostosowań były ustalone raz na zawsze. Na przykład przyjęcie założenia, że wszystkie genomy w algorytmie genetycznym mają jednakową długość, bardzo ogranicza możliwość pojawienia się nowości. W takich modelach łańcuchy symboli reprezentują genomy; symulator działający zgodnie z ustalonymi regułami modeluje ich mutacje, rekombinacje, dobór i replikację. W rzeczywistości nie istnieje tu mechanizm replikacji – jeśli genomy przetrwały fazę doboru, są automatycznie kopiowane.34 Do powstania prawdziwego sztucznego życia potrzeba czegoś więcej. Życie wirtualne: Tierra Thomas Ray z Uniwersytetu stanu Delaware stworzył pierwszy program symulujący darwinowską ewolucję. Jego osiągnięcie z pewnością zostanie zaliczone do najważniejszych odkryć dwudziestowiecznej teoretycznej biologii ewolucyjnej. W komputerze Raya cyfrowe organizmy walczą o miejsce w pamięci (odpowiednik żywności i energii). Przedtem nie eksperymentowano z ewolucją, można było tylko ją obserwować. Trudno uznać to za satysfakcjonujące rozwiązanie, ponieważ długość ludzkiego życia jest znikoma w porównaniu z "głębokim czasem", czyli charakterystyczną skalą czasową ewolucji biologicznej. Program Raya, nazwany Tierra, co po hiszpańsku oznacza "ziemia", stanowi metaforę biologicznej złożoności i narzędzie pozwalające zrozumieć różnorodność przyrody. Ray jest z wykształcenia ekologiem; spędził dużo czasu, badając pnące rośliny w wilgotnym lesie równikowym w Kostaryce. Mieszka tam w dalszym ciągu, w swoim domu-laboratorium, otoczonym czterdziestoma akrami dżungli. A jednak źródłem inspiracji Raya była nie otaczająca go przyroda – i kolibry, i chrząszcze – lecz dawna chińska gra Go. Podczas studiów doktoranckich na Harvardzie Ray pewnego dnia rozmawiał o tej grze z kolegą zajmującym się komputerami. Zwrócił uwagę, że białe i czarne pionki tworzą powtarzające się wzory, którymi rządzą proste reguły gry. Informatyk zauważył – co okazało się bardzo ważne – że równie dobrze można napisać komputerowe programy zdolne do autoreplikacji. To była nowość dla Raya, który od razu pomyślał o dodaniu mutacji i symulacji darwinowskiej ewolucji. Spytał, jak można zaprogramować autoreplikację, i dowiedział się, że to "banalne". Minęło dziesięć lat, nim Ray zdołał rozwiązać ten banalny problem.35 Dla ewolucji kluczowe znaczenie mają mutacje i konkurencja o ograniczone zasoby – sama reprodukcja to jeszcze za mało. Reprodukcja daje tylko banalne "wirusy", zdolne do zatkania komputera swymi identycznymi potomkami. Aby Tierra symulowała ewolucję, Ray musiał rozwiązać nie tylko problem autoreplikacji, ale również mutacji. Gdy możliwe są mutacje, możliwy jest także dobór "naturalny". Odmiany "organizmów" najlepiej dostosowane do okoliczności mogą się szybciej mnożyć. Sztuczne życie polegałoby wtedy na kombinacji złożoności i reprodukcji, przy czym to reprodukcja umożliwia ewolucję złożoności. Ewolucja organizmów przebiegałaby zgodnie z prawami logiki, a nie fizyki.36 Do urzeczywistnienia tego planu konieczne było rozwiązanie ważnego problemu technicznego. Tradycyjne programy dla maszyn von Neumanna nie są odporne na mutacje: wystarczy jedna kropka w złym miejscu, by program przestał działać. Wielu guru sztucznego życia uważało przedtem tę nietolerancję na błędy, czyli "kruchość" programów, za niemal nieprze-zwyciężalny problem. Farmer i Belin stwierdzili na przykład: "Odkrycie, jak sprawić, żeby struktury zdolne do autoreplikacji stały się bardziej odporne, tak aby mogły ewoluować do stanów bardziej złożonych, jest zapewne najważniejszym problemem badań nad sztucznym życiem".37 "Niepokoiło mnie to, ale nie uważałem, że to nierozwiązywalny problem – powiedział później Ray. – Dlaczego język maszynowy miałby koniecznie być kruchy, a język genetyczny nie?"38 W 1987 roku, po zapoznaniu się z kompilatorem języka wysokiego poziomu ("C") i odpowiednim programem do wyszukiwania błędów, które jasno ukazywały schemat działania jego nowego przenośnego komputera, Ray postanowił napisać swój program ewolucyjny w asemblerze. Jest to język binarny niskiego poziomu – dostosowany do konkretnego komputera -którego komendy odwołują się bezpośrednio do instrukcji procesora i funkcji realizowanych przez system operacyjny. Ponieważ asembler jest ściśle związany ze specyfikacją układu elektronicznego komputera, był to dla Raya naturalny język, pozwalający kontrolować środowisko, w którym uczony ten chciał hodować swoje cyfrowe organizmy. Ray uodpornił swój kod maszynowy na przypadkowe mutacje (zmiany wartości jednego bitu), odwołując się do biologii. Biologiczny kod genetyczny składa się z bardzo małego zbioru instrukcji: istnieją sześćdziesiąt cztery instrukcje (kodony) -utworzone z zasad kwasu nukleinowego – które są tłumaczone na dwadzieścia aminokwasów. Język Tierry składał się z trzydziestu dwóch instrukcji, a więc ich zbiór był w przybliżeniu tak duży, jak zbiór instrukcji genetycznych. Sytuacja wygląda zupełnie inaczej w konwencjonalnych komputerach: nawet asembler komputerów typu RISC (ze zredukowanym zbiorem instrukcji) zawiera znacznie więcej instrukcji.39 ; Ray wykorzystał trzy mechanizmy mutacji, mające swoje odpowiedniki w przyrodzie. Czasami zdarzają się błędy w obliczeniach. Jego program od czasu do czasu zmieniał jeden przypadkowo wybrany bit kodu reprezentującego cyfrowy organizm; podczas późniejszej reprodukcji organizmu zmiana ta mogła być przekazana potomstwu. Aby uniknąć zapchania pamięci komputera, co uniemożliwiłoby dalszą ewolucję ekosystemu, Ray wprowadził procedurę, nazwaną kostuchą, która. zabijała" stare i podatne na błędy organizmy. Ta metoda rekompensowała brak drapieżników. Śmierć organizmów następowała wskutek monopolizacji pamięci i procesora komputera przez bardziej zachłanne lub sprawniejsze organizmy. Ray wprowadził również "adresowanie wzorem" jako sposób na umożliwienie bezpośrednich oddziaływań między organizmami. Mechanizm ten pozwala jednemu organizmowi wykorzystywać zbiór instrukcji – czyli genom – innego organizmu cyfrowego, zlokalizowanego w pobliżu w pamięci komputera. Żaden organizm nie może zamazać cudzego genomu, ale wolno mu odczytać i wykonać ten program. Ray opisuje znaczenie takich oddziaływań w przyrodzie, posługując się przykładem wilgotnego lasu równikowego: w niektórych obszarach Amazonii fizyczne środowisko składa się z czystego, białego piasku, powietrza, deszczu i światła słonecznego. W takim środowisku istnieje najbardziej złożony ekosystem na Ziemi, który tworzą setki tysięcy lub miliony organizmów. Nie stanowią one setek tysięcy możliwości dostosowania się do środowiska fizycznego, lecz do wszystkich innych gatunków: to organizmy stały się dominującą częścią środowiska, a w porównaniu z nimi warunki fizyczne niemal całkowicie utraciły znaczenie.40 Ogólny sens pracy Raya jest jasny: wprawdzie życie na Ziemi jest ograniczone do organizmów zbudowanych ze związków węgla, ale życie można również stworzyć wewnątrz komputera, korzystając z logicznych instrukcji. Nie ma żadnych powodów, by sądzić, że ewolucja komputerowa nie może doprowadzić do powstania organizmów dorównujących poziomem złożoności organizmom biologicznym. Wiadomo, że Tierra jest uniwersalną maszyną Turinga, z czego wynika, że ewoluujące programy powinny wytworzyć dowolną złożoność, o ile tylko jest ona obliczalna.41 Opisując Tierrę, należy pamiętać o analogii między sztucznym życiem Raya i życiem na Ziemi. Ewolucja biologiczna zachodzi zgodnie z podstawowymi zasadami samoorganizacji, które naszkicowaliśmy we wcześniejszych rozdziałach. Ewolucja ta przebiega w stanie dalekim od równowagi termodynamicznej, który utrzymuje się dzięki obecności źródeł energii i materii. Energia w ostatecznym rachunku pochodzi ze Słońca; materię organizmy pobierają w postaci pożywienia, które jest konieczne do życia. W takich warunkach możliwa jest samoorganłzacja materii. Autoreplikacja i mutacje, w połączeniu z ograniczoną dostępnością zasobów, prowadzą do konkurencji i ewolucji. Ray zaprojektował Tierrę jako komputer o architekturze równoległej typu MIMD (por. rozdział 2.). Każdemu stworzeniu przypisał jeden procesor, czyli jeden CPU.42 Początkowo używał jednak maszyny jednoprocesorowej, co wymagało symulacji paralelizmu przez przypisanie każdemu wirtualnemu CPU czasu rzeczywistego procesora (obecnie istnieją wersje wykorzystujące paralelizm programu).43 Ryc. 8.4. Analogia między życiem biologicznym i sztucznym. Podobnie jak organizmy biologiczne wykorzystują energię, żeby zorganizować materię, tak samo organizmy cyfrowe Raya wykorzystują dostępny im czas procesora, aby zorganizować pamięć maszyny. Zasadnicza różnica między bardziej tradycyjnymi algorytmami genetycznymi i Tierra polega na sposobie Określenia pejzażu dostosowań. W algorytmach genetycznych Jest on ustalony z góry, natomiast w programie Raya pejzaż zostaje zdefiniowany lokalnie przez oddziaływania między poszczególnymi stworzeniami i środowiskiem. Dlatego pejzaż dostosowań zmienia się wraz z organizmami. Ray miał nadzieję, że początkowy organizm zdolny do samoodtwarzania będzie ewoluował wskutek mutacji i wytworzy różne organizmy, również zdolne do reprodukcji. Organizmy te miały konkurować o skończony czas CPU i pamięć. Wtedy powinny przetrwać te stworzenia, które potrafią najlepiej wykorzystać pozostałe (Ryc. 8.4). Trzeciego stycznia 1990 roku Ray zaszczepił życie w wirtualnym pejzażu Tierry, umieszczając w nim cyfrowy organizm zdolny do replikacji, składający się z osiemdziesięciu instrukcji. Był to komputerowy odpowiednik jednokomórkowego, bezpłciowego organizmu. Stworzenie – pierwsze, jakie wymyślił Ray – stanowiło po prostu zbiór instrukcji napisanych w asemblerze. Organizm wyznaczał swój początek i koniec, obliczał wielkość, kopiował się na wolne miejsce w pamięci i następnie dzielił. Instrukcje takich organizmów, jeśli chcemy skorzystać z analogii biologicznych, należałoby porównać raczej z aminokwasami niż z kwasami nukleinowymi, gdyż organizmy te są "chemicznie aktywne", to znaczy manipulują bajtami, rejestrami CPU, zbiorem instrukcji i systemem operacyjnym. Cyfrowe organizmy Raya są zapewne najbliższe stworzeniom biologicznym wyposażonym w RNA – które wymarły na długo przedtem, nim 600 milionów lat temu kambryjska eksplozja dała początek licznym, złożonym organizmom wielokomórkowym – ponieważ jednocześnie przenoszą informację genetyczną i realizują procesy metaboliczne, czyli stanowią zarazem genotyp i fenotyp. Ray mógł śledzić rozwój cybernetycznej społeczności, ponieważ komputer stale pokazywał liczbę i rozmiary genomów mnożących się stworzeń. Teraz pozostało mu tylko czekać. Wkrótce po uruchomieniu symulacji pojawił się pierwszy mutant. Był nieco mniejszy niż oryginalny organizm; jego populacja szybko rosła i wkrótce przewyższyła liczebnością populację przodka. Inne mutanty potrzebowały jeszcze mniej instrukcji i stopniowo zajmowały coraz więcej cyberprzestrzeni. Po kilku godzinach Ray zatrzymał komputer. Analiza zachowania cyfrowych organizmów potrwała miesiąc. Sztuczne społeczeństwo Tierry szybko stało się bardzo złożone. Pojawiło się między innymi stworzenie, składające się z czterdziestu pięciu instrukcji, co nie wystarcza do tradycyjnej reprodukcji. 45aaa (taką nadano mu nazwę) wymagało pomocy innych organizmów, by móc się reprodukować. Był to pierwszy z wielu pasożytów. Później Tierra stworzyła hiperpasożyty – stworzenia, potrafiące zmusić inne pasożyty do udzielenia im pomocy w reprodukcji, choć mogące również mnożyć się samodzielnie. Zdołały one spowodować wymarcie poprzedniego pokolenia pasożytów, wykorzystując te same główne instrukcje. Po wyeliminowaniu pasożytów rozpoczęło się życie "społeczne": reprodukcja każdego stworzenia wymagała współpracy co najmniej jednego organizmu. Stopniowo ewolucja spowodowała, że populacja utknęła w martwym punkcie, gdy powstał minimalny organizm, składający się z dwudziestu dwóch instrukcji, zamiast początkowych osiemdziesięciu. W działaniu Tierry można było nawet dojrzeć oznaki naruszanej równowagi Eldredge'a i Goulda, gdy występowały długie okresy, podczas których nic się nie działo (zob. wkładka, rysunek nr 9). Warto zauważyć, że po osiągnięciu pewnego poziomu złożoności pojawiły się pasożyty, które z powodu swego planu genetycznego reprodukowały się z błędami. Mają one podobne znaczenie jak reprodukcja płciowa w naturze – to znaczy przypadkowo mieszają kawałki genomów z różnych organizmów. Wydaje się, że od tej chwili do dalszej ewolucji nie są już potrzebne przypadkowe mutacje.44 Ostatecznie Tierra bez trudu wytworzyła tak różnorodne społeczeństwo organizmów, jakie istnieje w wilgotnym lesie równikowym, otaczającym dom Raya w Kostaryce. Podobnie Jak bogactwo gatunków w wilgotnym lesie zależy od obecności. kluczowych drapieżników", tak samo Tierra ma swoje kluczowe pasożyty, bez których nie może istnieć sztuczne życie. "Już W pierwszej próbie dostałem taką ekologiczną różnorodność -Wspomina Ray. – Byłem naprawdę podniecony. Nie miałem wątpliwości, że spełniają się moje najśmielsze marzenia. Myślałem, że czeka mnie pięć lat pracy nad wyborem parametrów". W bogatym społeczeństwie pasożytów poszczególne gatunki dostosowywały się raczej do pozostałych niż do Środowiska komputera. Gdy już powstało życie, proces ewolucyjny podtrzymywał sam siebie. "To autokatalityczny, wybuchowy proces, który wytwarza własne struktury, tak że prostota fizycznego środowiska przestaje mieć znaczenie".45 Można się było naiwnie spodziewać, że Tierra będzie faworyzować organizmy wymagające mniej czasu CPU do replikacji – co rzeczywiście ma miejsce – ale w zasadniczej mierze ewolucja polega tu na wynajdowaniu przez poszczególne stworzenia metod eksploatowania innych stworzeń. To wszystko pojawia się spontanicznie, nie zaś w wyniku celowego działania programisty, i doskonale zgadza się z zasadą darwinowskiej ewolucji, o której wspominaliśmy powyżej: dostosowanie do biosystemu (pod wpływem ciśnienia selekcyjnego, wywieranego przez pozostałe organizmy), a nie do fizycznego środowiska, jest główną przyczyną różnicowania organizmów.46 Ray po raz pierwszy przedstawił Tierrę podczas drugiej konferencji na temat sztucznego życia, zorganizowanej w Los Alamos. Jeszcze w hotelowym pokoju gorączkowo kończył analizę wyników pierwszego poprawnie działającego programu.47 Jednak jego wystąpienie – jak sam przyznaje – zakończyło się zupełną klapą. Na pracę zwrócono uwagę dopiero po tym, jak zdobył nagrodę IBM w konkursie programów komputerowych. Obecnie Tierrę uważa się powszechnie za przełom w badaniach nad sztucznym życiem. Ray wyciągnął ze swych badań zaskakujący wniosek: "Dość łatwo jest stworzyć życie. Najwyraźniej wirtualne życie tylko czeka, byśmy przygotowali właściwe środowisko, w którym życie to mogłoby ewoluować".48 Nie brakuje jednak sceptyków. Robert May – z Wydziału Zoologii Uniwersytetu w Oksfordzie – którego badania nieliniowej dynamiki i chaosu dużo wniosły do współczesnej biologii teoretycznej, uważa pracę Raya za stymulującą, ale ma "[...] pewne wątpliwości, czy wnioski nie są przypadkiem wbudowane w program", a także czy są dostatecznie ogólne, czy może specyficzne dla tego właśnie programu.49 W odpowiedzi Ray stwierdza: "Tworząc sztuczne życie, budujemy pewien wszechświat, ustalamy jego prawa fizyczne, a następnie go uruchamiamy i patrzymy, co z tego wyniknie. Oczywiście, to prawda, że wybierając prawa fizyczne, określamy, co jest możliwe w danym wszechświecie". W istocie krytykom chodzi jednak o to, czy Ray nie określił początkowego organizmu, od którego rozpoczęła się ewolucja, w taki sposób, aby automatycznie powstała społeczność. "To nieprawda – twierdzi Ray. – Nie jestem na tyle bystry, aby »wbudować« do początkowego organizmu tak bogatą ekologię i liczne zmiany sytuacji w ewolucyjnym wyścigu między gospodarzami i pasożytami".50 Plateau i C-Zoo Wbrew krytykom, wyniki Raya zostały potwierdzone przez inne udane symulacje ewolucji bez celu. Carlo Maley – wówczas doktorant ze Stanów specjalizujący się w informatyce i teorii ewolucji – postanowił sprawdzić wspomniane wyniki podczas pracy nad swą rozprawą na Wydziale Zoologii w Oksfordzie.. Chciałem wiedzieć, czy to tylko gadanina, czy poważny wynik – powiedział później. – Musiałem napisać własny program, aby się przekonać, czy Tom Ray wbudował w swój program przyszłe wyniki i czy zależą one od szczegółów programu". Maley spędził dwa lata przy jednej z uniwersyteckich stacji roboczych DEC, usiłując odtworzyć od zera wyniki Raya. Ostatecznie udało mu się napisać program, który nazwał Plateau, Nazwa ta odnosi się do dwuwymiarowego świata, który stworzył Maley. Podczas gdy Ray używał jednowymiarowego łańcucha instrukcji, Maley skonstruował dwuwymiarowy program. Jednym ze stworzeń, które pasły się w pamięci komputera, był Loopy (Pętlasty), składający się z koncentrycznych pętli instrukcji. W przeciwieństwie do Raya Maley miał dużo roboty z uruchomieniem programu z powodu błędów. Pracę Utrudniała mu również nieznajomość wielu szczegółów budowy Tierry, których nie przedstawiono w publikacjach. Dwuwymiarowy język programowania okazał się też bardziej kruchy -gorzej znosił mutacje i oddziaływania między stworzeniami. W końcu Maley usunął wszystkie błędy i Plateau wytworzył bogatą menażerię organizmów, choć proces ewolucji przebiegał wolniej niż w przypadku Tierry. "W obu modelach pojawiają się pasożyty. Jest to jedno z najbardziej uniwersalnych praw ekologii rzeczywistego świata. Niespodzianką było to, że niodele komputerowe zachowują się tak samo" – stwierdził Maley. Inny wariant programu symulującego ewolucję powstał w laboratorium British Telecom w Martlesham Heath. Za podstawę posłużył tu program C-Zoo Jakoba Skippera z Uniwersytetu Kopenhaskiego.51 Jose-Luis Fernandez wyjaśnił, że BT wybrało program C-Zoo, ponieważ ma on podobne cechy do Tierry, ale jest łatwiejszy w użyciu. Jedna z wad Tleny polega na tym, że w każdym organizmie tyle instrukcji jest poświęconych reprodukcji, iż trudno je namówić, żeby ewoluowały, by osiągnąć inny cel, na przykład szukały drogi w labiryncie. Poza tym analiza wyników Tierry, przedstawionych w postaci szeregu kolorowych prostokątów, jest szalenie kłopotliwa. Programy powstające w symulatorze Tierra są trudne do interpretacji, ponieważ wskutek ewolucji zyskują tolerancję na błędy kosztem redundancji. "Zaletą programu C-Zoo jest to, że uwzględnia on te same idee biologiczne co Tierra, ale znacznie łatwiej go zrozumieć" – stwierdził Fernandez. W typowej symulacji, wykonywanej za pomocą programu C-Zoo, szereg mrówek krąży w dwuwymiarowej przestrzeni pamięci, szukając pożywienia, przedstawionego na ekranie w postaci jabłka. Symbol X oznacza miejsce, w którym znajduje się więcej niż jedna mrówka, a zatem zaczyna się walka o miejsce w pamięci. "Podstawiliśmy zamiast tych kawałków programu komputerowego cyfrowe mapy mrówek. Gdy widać mrówkę, w rzeczywistości obserwujemy zbiór komórek zawierających instrukcje obliczeniowe" – powiedział Fernandez. Program dla każdej mrówki składa się z trzydziestu dwóch instrukcji, zgrupowanych w czterech komórkach po osiem instrukcji. To prowadzi do bardzo złożonych zachowań, podobnie jak w przyrodzie złożone białka powstają z zaledwie dwudziestu aminokwasów. Cztery instrukcje to wszystko, czego trzeba, aby poinstruować mrówkę, jak ma się poruszać: "naprzód", "w lewo", "w prawo" lub "stój". Celem jest znalezienie jedzenia, czyli jabłka lub innych mrówek. Te mrówki, którym się to nie uda, giną. Mrówki, które przetrwały, mogą się rozmnożyć, przy czym w trakcie reprodukcji mogą wystąpić mutacje. Poszczególne "gatunki" są oznaczone różnymi kolorami. Gdy mrówka ginie, jej pożywienie – czyli kod – jest przekazywane do centralnej rezerwy pamięci, dokąd dążą inne mrówki. Ekran ma topologię torusa, tak że mrówka, która opuści go górą, pojawia się na dole, a gdy wyjdzie poza prawy skraj – wraca z lewej strony. Fernandez demonstruje samoorganizację w zachowaniu mrówek, składając całe pożywienie w środku ekranu. Początkowo wszystkie mrówki potrafią poruszać się wyłącznie naprzód. Te, które przeżywają, wracają do środka ekranu, gdzie znajduje się pożywienie. Mutanty, które zboczyły z drogi, giną. Po chwili w populacji dominują zielone mrówki. Następnie Fernandez pozwala na przypadkowe mutacje instrukcji sterujących ruchem mrówek. Powstaje armia mrówek, krążących wokół sterty jedzenia. "Szaleńcze żarcie jest skutecznym rozwiązaniem i oczywistym ulepszeniem ewolucyjnym – stwierdził Fernandez. -Sposób przedstawienia wyników w C-Zoo jest znacznie prostszy niż w programie Tierra. Wyniki Tierry bardzo trudno analizować". Gdy Fernandez opowiadał o programie, pojawiał się rój mrówek, których kody realizowały sąsiednie mrówki. Wirtualne pszczoły i ryby Choć dotychczas opisywane symulacje komputerowe przedstawiają wirtualne życie, z pewnością nikt nawet przez chwilę nie pomyślał, że ich wynik, zaprezentowany na ekranie, jest czymś więcej niż tylko bardzo wyidealizowanym obrazem życia ziemskiego. Obecnie są jednak prowadzone prace nad symulacjami, które znacznie lepiej modelują zachowanie układów biologicznych. Terry Sejnowski, Read Montague i Peter Dayan z Salk Institute w La Jolla wykorzystali sieć neuronową do modelowania i wyjaśnienia, jak pszczoły uczą się rozpoznawać, które kwiaty przynoszą im największą nagrodę za trudy.52 Przedmiotem zainteresowania biologów jest komórka mózgu VUMmxl. Według badań Martina Hammera z Wolnego Uniwersytetu Berlińskiego, komórka ta ma połączenia z wieloma punktami w całym mózgu pszczoły. Niektóre połączenia są stymulowane przez zmysły, na przykład gdy pszczoła spija cukier lub wyczuwa jakiś zapach. Inne zaś komórki są połączone z ośrodkami kontrolującymi ruch lub odpowiedzialnymi za uczenie się. Jak stwierdził psycholog pszczół, Randolph Menzel, również pracujący na Wolnym Uniwersytecie Berlińskim, przez połączenia VUMmxl pszczoła uczy się, jak kojarzyć bodziec z nagrodą. W ten sposób w pamięci powstaje więź między zapachem kwiatu i nagrodą w postaci nektaru. Sejnowski uważa, że gdy te skojarzenia się ukształtują, pszczoła może wykorzystać VUMmxl do przewidywania, które kwiaty na polu najprawdopodobniej przyniosą jej największą nagrodę. Sejnowski podjął próbę symulacji działania mózgu pszczoły. Choć składa się on tylko z miliona neuronów (a nie stu miliardów jak ludzki mózg), jego symulacja stanowi poważne wyzwanie obliczeniowe: mózg pszczoły działa z prędkością około 10 000 000 000 000 operacji zmiennoprzecłnkowych na sekundę (10 teraflopów), natomiast najszybsze współczesne komputery pracują zazwyczaj z ponad dziesięć razy mniejszą szybkością. Sieć neuronowa Sejnowskiego zawiera dostatecznie dużo szczegółów, aby stworzyć realistyczny biologicznie model bez uproszczeń. "Model nie sięga do poziomu molekularnego, ale nie jest tak ogólny, że traci z pola widzenia poszczególne neurony" – stwierdził Sejnowski.53 Sztuczna sieć neuronowa została wyćwiczona na podstawie sygnałów "zmysłowych", dostarczających informacji o wykrytych kolorach i smaku nektaru. W zależności od czasu nadejścia tych sygnałów i zapamiętanej możliwej nagrody w postaci nektaru, sztuczny neuron VUMmxl oceniał, czy dany kwiat jest wart zbadania, czy lepiej poszukać następnego. Działanie sieci można było sprawdzić przez porównanie z zachowaniem rzeczywistych pszczół, gdyż Leslie Real z Uniwersytetu stanu Indiana zbadał zachowanie pszczół podczas poszukiwania nektaru, posługując się sztucznymi kwiatami. Okazało się, że owady preferowały niebieskie kwiaty. Dawały one za każdym razem prawie tyle samo nektaru co kwiaty żółte, które średnio zawierały tę samą ilość nektaru, ale z dużo większym rozrzutem. Sztuczna pszczoła Sejnowskiego miała identyczne preferencje. Inny wspaniały przykład wirtualnego zwierzęcia – a właściwie całej ławicy – znajduje się na Wydziale Informatyki Uniwersytetu w Toronto. Można tam zobaczyć zdumiewające akwarium wirtualnych ryb. Akwarium ukazuje wszystkie uroki morskiego świata bez konieczności karmienia ryb, czyszczenia zbiornika i eliminowania ofiar chorób oraz agresji. Aby podziwiać ryby, wystarczy stacja robocza Silicon Graphics, kosztująca kilkadziesiąt tysięcy dolarów, i kopia programu Sztuczny świat ryb. Demetri Terzopoulos oraz jego dwaj doktoranci, Xiaoyuan Tu i Radek Grzeszczuk, zaprojektowali symulację tak, aby dawała możliwie realistyczny obraz ryb, ich kształtu, ruchu i zachowań.54 Ryby wdzięcznie pływają w wodzie, rozpraszają się, gdy atakuje je rekin, rywalizują o kawałki pożywienia, a nawet odbywają rytualne zaloty. A jednak ryby te nie istnieją fizycznie. Każdą rybę opisuje indywidualny program komputerowy, stanowiący część większego programu, generującego prosty podmorski ekosystem. "Stworzyliśmy realistycznie wyglądające sztuczne ryby, zdolne do zachowań zdumiewająco podobnych do zachowań żywych ryb" – stwierdził Terzopoulos55 (zob. wkładka, zdjęcie nr 10). Pisząc program, Kanadyjczycy najpierw wykorzystali obrazy prawdziwych ryb, aby nadać swym tworom właściwe kolory l fakturę. Następnie wyposażyli ryby w "mózgi" kontrolujące ruchy dwunastu mięśni, wzorowane na rzeczywistości, oraz. oczy" pozwalające postrzegać otoczenie i odpowiednio na nie reagować. Program uwzględniał masę i elastyczność ryb, modelując je tak, by mogły zmieniać kształt podczas ruchu w symulowanej wodzie. Aby skoordynować złożone działanie wszystkich mięśni, ryby musiały uczyć się pływać, "podobnie jak dzieci uczą się chodzić" – powiedział Terzopoulos. Ryby próbują przypadkowych kombinacji ruchów mięśni i za pomocą algorytmu starają się opanować te właściwe. Najlepsze kombinacje są wybierane metodą symulowanego wyżarzania, biorąc pod uwagę szybkość i wydajność. Po dziewięćdziesięciu cyklach wyżarzania wirtualny rekin lamparci niemal się nie rusza, ponieważ jego mięśnie drgają przypadkowo, ale po kilku tysiącach takich cykli umie już świetnie pływać. "Ostateczny wynik wygląda bardzo naturalnie – twierdzi Terzopoulos. – Ichtiolodzy zwą to napędem ogonowym, ponieważ ruch zależy głównie od płetwy ogonowej". Podobnie jak wężowy ruch ciała przy pływaniu nie jest zaprogramowany, lecz pojawia się naturalnie, tak samo proste reguły prowadzą do złożonych zachowań: programiści określają upodobanie każdej ryby do ciemności, chłodu i gromadzenia się w ławice oraz definiują bodźce, takie jak stopień wygłodzenia, strach i pragnienie kopulacji. "Wtedy możemy zacząć kształtować drapieżniki i ofiary – wyjaśnia Terzopoulos. – Ofiary tworzą ławice, robią uniki i rozpraszają się, zupełnie jak prawdziwe ryby". Aby modelować skomplikowane rytuały zalotów spotykane w rzeczywistym świecie, zespół z Toronto studiował literaturę przedmiotu. "U niektórych gatunków samica wznosi się, a samiec podpływa od spodu i pociera jej brzuch. Czasami samiec i samica pływają w kółko, jakby się ścigały". Aby symulować zaloty, zespół połączył takie prymitywne formy zachowania, jak krążenie wkoło, wznoszenie się i pocieranie, w ciągi zależne od rozmaitych zdarzeń. Na przykład samica musi obserwować taniec samca przez pewien czas, nim zdecyduje się na odpowiedź. Choć repertuar zachowań ryb został zaprogramowany, ostateczny wynik jest bardzo złożony i nieprzewidywalny, ponieważ zależy od działań wszystkich ryb w sąsiedztwie. "Jeśli samiec musi przerwać zaloty z powodu pojawienia się drapieżnika, to nie dochodzi do kopulacji". Terzopoulos ma nadzieję, że w przyszłości będzie możliwa symulacja wymiany materiału genetycznego i powstawania potomstwa. "Być może niewiele nam brakuje do sformułowania modelu obliczeniowego, zdolnego do imitowania kopulacji i rozrodu ryb oraz ewolucji nowych odmian sztucznych ryb poprzez symulację reprodukcji płciowej". Roboty Inną bujnie rozwijającą się dziedziną badań nad sztucznym życiem jest konstruowanie robotów, czyli fizycznie realnych, lecz sztucznych stworzeń. Ryby Terzopoulosa są stworzeniami wirtualnymi, natomiast inni usiłują zbudować ożywione roboty (animaty). Pod koniec lat sześćdziesiątych i na początku siedemdziesiątych podczas prób skonstruowania inteligentnych robotów odwoływano się do idei staromodnej sztucznej inteligencji (GOFAI). Jak się przekonaliśmy w rozdziale 5., GOFAI polega na podziale inteligencji na moduły, zawierające wiadomości z określonych dziedzin. Do klasycznych przykładów takich maszyn należą Shakey ze Stanford Research Institute l "copy-demo" z MIT. Pierwszy z tych robotów poruszał się, omijając przeszkody w pokoju, drugi układał klocki według podanego wzoru w bardzo uporządkowanym środowisku. W nowym podejściu do stworzenia sztucznej inteligencji, również opisanym w rozdziale 5., złożone zachowanie wynika z oddziaływania między prostymi odruchami i wykorzystania adaptacyjnych, uczących się algorytmów, opracowanych podczas badań sztucznych sieci neuronowych. Podstawowym założeniem tej metody jest przyjęcie, że interesujące roboty są zbyt skomplikowane, aby można je zaprojektować. Pionierem tego kierunku w robotyce jest Rodney Brooks z MIT, twórca prototypu robota, nazwanego Genghis, który powstał w 1989 roku i zainspirował nową falę badań. Genghis jest wzorowany na karaluchu. Nie kieruje nim program komputerowy typu GOFAI – zamiast tego ma sześć niezależnych nóg, komunikujących się między sobą i działających zgodnie z kilkoma prostymi regułami, które Genghis uczy się stosować w praktyce.56 Strategię Brooksa charakteryzują dwa elementy: rozproszona, równoległa architektura i rezygnacja z "kompucentrycznego" podejścia, czyli prób skonstruowania mózgu robota – wyposażonego w gotowy, zaprogramowany umysłowy model świata – na korzyść sterowania na bieżąco. Brooks chce, aby jego maszyny tworzyły własne modele świata, dostosowując je do rzeczywistości na podstawie danych zmysłowych. "Najważniejsze jest sprzężenie między maszyną i środowiskiem" -twierdzi. Sztuczny system nerwowy w jego robotach ma wiele warstw. Tak jak w przypadku nóg Genghisa, każda warstwa przyczynia się do określenia zachowania, choć może niejawnie zależeć od pozostałych. Na przykład warstwa "badaj" nie zwraca uwagi na przeszkody, ponieważ zajmuje się tym warstwa "unikaj". Konstruowanie coraz bardziej wyszukanych robotów metodą zwiększania liczby warstw jest analogiczne do długoterminowych wyników ewolucji.   Ryc. 8.5. Roboty z Applied AI Systems. Robot gramolący się przez nierówny teren nie potrzebuje określonego wcześniej programu komputerowego. "Gdy robot zmienia prędkość, automatycznie zmienia się też stosowany krok – wyjaśnia Brooks. – Robot nie analizuje, jaki krok jest najlepszy, i nie podejmuje jawnie decyzji". Po dodaniu zmysłów technika adaptacyjnego sterowania umożliwia powstanie odruchów. Możemy na przykład dodać czujnik ciepła. Jeśli robot wyczuje wyższą temperaturę z prawej strony, zmieni długość kroku z jednej strony, tak aby ominąć źródło ciepła. "Droga, jaką wybiera robot, nie jest obliczona z góry, lecz wyłania się m trakcie marszu". | prostota projektu i szybkość działania Genghisa sprawiły, że IS Robotics – firma założona przez Brooksa – do spółki z kana-dyjską firmą Applied AI Systems wprowadziła na rynek jego ko-Itiercjalną wersję. Dwadzieścia takich niewielkich robotów posłużyło do symulowania zachowania kolonii termitów. Rozważa się zastosowanie powiększonej wersji robota do wycinania poszycia w kanadyjskich lasach.57 Chris Melhuish z Universiry of West of England w Bristolu przygotowuje oszczędnościową wersję robota, zwaną Marv, przystosowaną do poruszania się ty trudnym terenie, takim jak Dolina Śmierci w Kalifornii. Po ukazaniu się w "Journal of the British Interplanetary Society" artykułu Brooksa – zatytułowanego: Fast, Cheap and Out of Control: A Robot Invasion of the Solar System – robotem zainteresowała się amerykańska agencja kosmiczna NASA. Brooks twierdził w swej pracy, że zamiast wysyłać jedną skomplikowaną maszynę do badania innych planet, lepiej jest wyekspediować liczne małe roboty. Takie rozwiązanie byłoby tańsze, łatwiejsze i bardziej odporne na niepowodzenia. Jak twierdzi Brooks, ekspertom agencji kosmicznej przypadło do gustu, że roboty byłyby tańsze i szybsze, natomiast nie mogli oni pogodzić się z brakiem kontroli nad ich zachowaniem.58 NASA zdecydowała się wysłać sześciokołowy pojazd badawczy na Marsa. Obecnie trwają liczne prace związane z budową robotów. Dave Cliff, Inman Harvey, Phil Husbands, Nick Jakobi i Adrian Thompson z Uniwersytetu Sussex zajmują się opracowywaniem sieci neuronowych sterujących robotami.59 Zamiast projektować gotowe programy sterujące, korzystają oni z algorytmów genetycznych, które symulują ewolucję na przypadkowej populacji liczącej od sześćdziesięciu do stu sieci neuronowych. Sieci te kierują zachowaniem symulowanych robotów; ich czujniki i mechanizmy wykonawcze są w pełni analogiczne do rzeczywistych. Podczas sztucznej ewolucji ciśnienie selekcyjne jest określone przez sprawność działania robota: im lepiej robot wykonuje swoje zadanie, tym więcej potomstwa ma jego architektura. W jednym doświadczeniu zespół z Sussex wytworzył metodami ewolucyjnymi sieć wykorzystującą czujniki wizualne – "oczy" – dzięki czemu robot wielkości dłoni potrafił omijać przeszkody i szukać źródła światła.60 Inny robot, wielkości kosza na śmieci, korzystając z sonarów, czujników antenowych i zderzakowych potrafił poruszać się po Wydziale Nauk o Poznaniu na Uniwersytecie Sussex. "Stosujemy ciśnienie selekcyjne, dzięki czemu sieci lepiej wykonujące wyznaczone przez nas zadanie mają większe prawdopodobieństwo reprodukcji" – stwierdził Dave Cliff, którego koledzy zajmują się teraz rozwojem programów sterujących rzeczywistymi robotami.61 "Otrzymaliśmy bardzo obiecujące wyniki, które stwarzają nadzieję, że zdołamy drogą ewolucji otrzymać programy do wizualnego sterowania, dzięki czemu roboty będą mogły poruszać się po pokoju – dodał. – O ile wiemy, żaden zespół na świecie nie zrobił tego przed nami". Ryc. 8.6. Rodney Brooks z człekokształtnym robotem Cog. Tradycyjnie myślący specjaliści od sztucznej inteligencji lekceważą takie badania, ponieważ uważają, że roboty tylko naśladują owady. W odpowiedzi Brooks podjął ambitny program od- tworzenia ludzkiej ewolucji za pomocą człekokształtnego robota, zwanego Cog. Prace nad konstrukcją Coga trwają od 1993 roku. Ma on ludzką postać, z głową, tułowiem i ramionami; posiada glos, choć jest pozbawiony nóg (podobno przypomina doktoranta z MIT). "Chcemy, żeby zachowywał się jak człowiek" – stwierdził Brooks.62 Wrażenia dotyku są przekazywane z rąk i ramion przez przewodzącą gumę. Miernik naprężenia, czujniki ciepła i prądu pozwolą Cogowi wyczuwać, co robią jego ramiona. Cog będzie miał również parę oczu: jedno szerokokątne, drugie wąskokątne. Jego oczy bez przerwy omiatają przestrzeń, poruszając się w lewo i w prawo. Trzy mikrofony pozwolą mu zlokalizować źródło dźwięku; nam wystarczy do tego dwoje uszu – dzięki skomplikowanemu systemowi przetwarzania sygnałów w mózgu. Takie szczegóły są bardzo ważne, ponieważ to, że mamy ciało, odgrywa dużą rolę. Nasze ciała określają i ograniczają percepcję świata, w którym żyjemy. Rozwój mózgu i ludzkich możliwości poznawczych był uzależniony od naszych interakcji ze światem. "Dowolna inteligencja, z którą uda się nam nawiązać kontakt, powinna mieć ciało podobne do ludzkiego, bo inaczej będzie nam zupełnie obca – stwierdził Brooks. – Nie chcę budować kosmitów, lecz istoty, które możemy poznać i pokochać". Cog przebywa w dostępnej dla publiczności części laboratorium AI, dzięki czemu może kontaktować się z ludźmi, podobnie jak dziecko, na przykład bawiąc się zabawkami, układając różne przedmioty i tak dalej. Wprawdzie Cog będzie zdolny do nauki i jego wizja świata ukształtuje się dzięki doświadczeniom, ale pewne jego reakcje są zaprogramowane z góry, podobnie jak dziecko jest wyposażone w odruch ssania i zdolność do nauczenia się języka. Cog dysponuje poczuciem równowagi i tak obraca głowę, aby mieć w polu widzenia pobliskie osoby. "Chce, aby ludzie zwracali na niego uwagę – zapewnia Brooks. – To jego wewnętrzne dążenie. Mamy nadzieję, że uda się nam je wykorzystać, aby nauczyć go wielu ludzkich zachowań". Do przetwarzania informacji służy zewnętrzny komputer, połączony z robotem pępowiną. "Mój ośmioletni syn był bardzo rozczarowany, gdy dowiedział się, że mózg Coga nie znajduje się w jego głowie – przyznał Brooks, który (co zrozumiałe) ostrożnie ocenia oczekiwany poziom inteligencji Coga. – Dążymy do osiągnięcia poziomu porównywalnego z inteligencją dziecka między szóstym miesiącem a drugim rokiem życia". Cog prawdopodobnie nie nauczy się mówić, lecz będzie odpowiadał pomrukami. "Moglibyśmy wyposażyć go w syntezator mowy, ale to byłoby oszustwo" – uważa Brooks.63 Ewolucyjne ulepszanie programów Jest oczywiste, że weszliśmy już w okres ewolucyjnego programowania komputerów (i robotów). Ewoluujące populacje cyfrowych kodów są użyteczne przy programowaniu bardzo złożonych układów. British Telecom wykorzystał już doświadczenia z programami Tierra i C-Zoo, aby obliczyć, kiedy ludzie zaczną hodować programy, zamiast je pisać. Chris Winter, Paul Mcllroy i Jose-Luis Fernandez zaczęli od przyjęcia założenia, że dobry programista może napisać trzydzieści linii bezbłędnego programu dziennie. Według ich oceny, maszyna działająca z szybkością dziesięciu MIPS (milion instrukcji na sekundę), taka jak współczesna Mac Quadra, potrzebuje 100 dni, żeby osiągnąć taki wynik. Biorąc pod uwagę gwałtowny wzrost szybkości pracy komputerów, można przypuszczać, że około 2000 roku komputery osobiste osiągną prędkość 3000 MIPS i będą w stanie pisać programy równie szybko, jak programiści. Hodowla programów w komputerze umożliwi im ewolucję, tak aby radziły sobie z nowymi zadaniami, na przykład potrafiły zwalczać infekcje wirusowe. Oczywiście, do rozwiązania pozostają trudne problemy techniczne. Mogą pojawić się kłopoty związane z uproszczonym systemem testowania nowych programów. Wypróbowanie każdego organizmu w każdym pokoleniu w każdej możliwe] sytuacji zajęłoby zbyt dużo czasu. Zamiast tego stosuje się prostszy test, na przykład sprawdzając, jak program radzi sobie z rozładowaniem danego zatoru w sieci telefonicznej. Pojawia się wtedy niebezpieczeństwo, że ewoluujące programy wyspecjalizują się w rozwiązywaniu akurat tego problemu. Sprytny sposób rozwiązania tej kwestii polega na jednoczesnej ewolucji programów i problemów, tak że zawsze wybierane są zadania najtrudniejsze do rozwiązania. Metodę tę opracował Danny Hillis z Thinking Machines; określa się ją jako "model koewo-luujących pasożytów" – przez analogię do podobnego wyścigu ewolucyjnego, jaki zachodzi w przyrodzie między pasożytami i gospodarzami.64 Tom Ray zaproponował przykład procedury ewoluowania programów, zamiast pisania ich tradycyjnymi metodami. Jest to część programu rozwoju symulatora Tierra, prowadzonego na Wydziale Układów Ewolucyjnych w Międzynarodowym Instytucie Badań Zaawansowanych Systemów Telekomunikacyjnych w Kioto. Ray chce zorganizować "rezerwat bioróżnorodności", prowadząc jednocześnie ewolucyjne eksperymenty z programem Tierra na komputerach połączonych Internetem – siecią, do której należy mniej więcej dwadzieścia trzy miliony użytkowników z całego świata. Współpracując z Kurtem Thearlingiem, Ray stworzył program, który pozwala na rozmnażanie się "cyfrowych dzikich zwierząt" w sieci.65 Połączenie kilku tysięcy komputerów z całego świata sprawiłoby, że programy znalazłyby się w bardziej złożonym środowisku. Powinno to stanowić dla nich zachętę do wytworzenia jeszcze bardziej wyszukanych strategii przetrwania i reprodukcji. Wśród rozmaitych stworzeń z tej menażerii mogą się kryć programy użyteczne handlowo, potrafiące równocześnie rozdzielać zadania między wiele procesorów lub wykonywać prace, o których Ray i Thearling nawet nie pomyśleli. Na przykład okazało się, że cyfrowe organizmy potrafią spontanicznie wynajdywać triki programowe. Zbiór procesów realizujących ewolucję w symulatorze Tierra można uważać za ogólne urządzenie optymalizacyjne dla programów przeznaczonych dla komputerów o architekturze równoległej. Jak powiedział Ray: "W przyszłości może się okazać, że sztuczna ewolucja jest najlepszą metodą programowania komputerów z wieloma procesorami równoległymi". Ponieważ każdy prawowity użytkownik komputera może przegonić organizmy sieciowe, gdy sam chce używać maszyny, będą one musiały stale wypróbowywać nowe strategie, skracająć do minimum swoje rozmiary, potrzebne do replikacji, i ucząc się, jak znajdować nie używane komputery, należące do sieci. "Powinny nauczyć się wędrować wokół globu, pozostając cały czas po jego ciemnej stronie" – przypuszcza Ray. Stworzenia sieciowe mogą nawiązać współpracę, tworząc "wielokomórkowe" organizmy. Takie dostosowanie Tierry do symulowania ewolucji wielokomórkowych organizmów (a nie "jednokomórkowych", o których dotychczas była mowa) powinno doprowadzić do konstruktywnej współpracy między organizmami w celu rozwiązania jednego problemu – zamiast nieskoordynowanych wysiłków podejmowanych przez organizmy jednokomórkowe i dotyczących różnych zagadnień. Do skoordynowania zachowania organizmów złożonych potrzebne są różne mechanizmy komunikacyjne. Jeden może działać jak hormon, przesyłając wiadomość od komórki matki do komórek potomnych. Inny może mieć postać analogiczną do nerwu, łączącego dwie konkretne komórki. Jednak niektóre sygnały sterujące muszą być wysyłane z jednej komórki; jeśli na przykład komórka-matka ulega podziałowi i wytwarza komórkę potomną. Gdy para taka musi podjąć działania ofensywne, szukać pożywienia lub partnera do reprodukcji, tylko program matki powinien być wykonywany. Jeśli matka i córka będą tak współpracować, Tierra wytworzy pierwszy organizm wielokomórkowy. To może się okazać przełomem w pracy nad skonstruowaniem sztucznego życia i inteligencji. Jak wyraził to Ray: "Jesteśmy żywymi przykładami takiego paralelizmu w skali astronomicznej. Działanie bilionów komórek, występujących w setkach rodzajów w naszych organizmach, jest wspaniale skoordynowane. Twierdzę, iż ewolucja dowiodła, że potrafi to osiągnąć oraz że jest jedyną wypróbowaną metodą tworzenia inteligencji". Automaty komórkowe i skraj chaosu Rozmaite grupy zajmujące się sztucznym życiem skorzystały z prac Raya i podjęły badania idące w podobnym kierunku. Jednym z wariantów Tierry jest Auida, program opracowany przez Chrisa Adamisa i C. Titusa Browna z Caltech.66 Organizmy Tierry istnieją w pozbawionej fizycznych wymiarów cyberprzestrzeni, natomiast Auida wprowadza do sztucznej ewolucji wymiary przestrzenne. Adamis i Brown zachowali większość właściwości Tierry, ale jako element podstawowy wprowadzili dwuwymiarowe tablice komórek. Cyfrowe organizmy zajmują kwadraty sieci i podobnie jak w przypadku automatów komórkowych, oddziałują tylko z najbliższymi sąsiadami. Jednak teraz reguły determinujące zmiany, które zachodzą w poszczególnych kwadratach sieci w kolejnych krokach, nie są ustalone raz na zawsze, lecz określają je genomy najbliższych sąsiadów. Genomy te zmieniają się przypadkowo wskutek punktowych mutacji łańcuchów instrukcji, dzięki czemu możliwa jest ewolucja. Podobnie jak Tierra, Auida może posłużyć do wykonania zadań określonych przez programistę. Jeśli na przykład chcemy otrzymać w toku ewolucji metodę mnożenia dwóch liczb całkowitych, to możemy nagrodzić każdy organizm cyfrowy, zdolny do wykonania tego zadania, dodatkowym przydziałem czasu CPU. Z biegiem czasu powstaną sztuczne organizmy, umiejące mnożyć liczby. W zasadzie, podobnie jak Tierra, takie układy powinny umieć rozwiązać dowolne zadanie, niezależnie od jego złożoności, pod warunkiem że jest ono obliczalne {w sensie podanym przez Turinga). Niektórzy naukowcy twierdzą, że żywe organizmy muszą być zdolne do wykonywania obliczeń o dowolnej złożoności, aby wytrzymać ewolucyjny wyścig zbrojeń. Ponadto wiadomo, że niektóre typy automatów komórkowych (CA) stanowią uniwersalną maszynę Turinga (ten fakt wykazano po raz pierwszy w odniesieniu do gry Życie, którą poznaliśmy w rozdziale 4.). Wymóg, by organizm potrafił wykonywać dowolne obliczenia, skłonił niektórych uczonych do zainteresowania się podaną przez Wolframa klasyfikacją automatów komórkowych. Chciano sprawdzić, czy dostarcza ona wskazówek, jakie typy automatów komórkowych są lepiej przystosowane do sztucznego życia. Jak wiemy, Wolfram wysunął przypuszczenie, że automaty IV klasy są uniwersalnymi maszynami Turinga.67 Automaty te znajdują się na granicy, oddzielającej automaty okresowe od chaotycznych. Wydaje się, że mają one najbardziej skomplikowaną dynamikę ze wszystkich automatów komórkowych. Można zatem przypuszczać, że w sztucznych układach ożywionych, wykorzystujących automaty komórkowe – stanowiących tylko niewielki podzbiór możliwych układów AL – w chwili powstania życia dynamikę opisuje automat należący do klasy IV. Yin i yang Idee na temat związku między dynamiką i obliczeniami stanowią, zwłaszcza w fizyce statystycznej, część szerokiego programu badań, który stawia sobie za cel znalezienie złożonego zachowania w "obszarze krytycznym" między porządkiem i deterministycznym chaosem. Poszukiwanie złożoności w takich obszarach jest również pociągające intelektualnie, ponieważ wydaje się, że w żywych organizmach mamy do czynienia z nieuchwytną mieszaniną yin i yang. Układy biologiczne zajmują strefę między regularnością i turbulentnym chaosem, gdzie przypadkowość współistnieje z twórczą adaptacją. Organizmy łączą zdolność do zmian i innowacji ze stabilnością układów mających sprzężenie zwrotne, która zapewnia im dobrze określoną strukturę i metabolizm.68 Przekonujące dowody istnienia takiej równowagi między chaosem i porządkiem można znaleźć w zachowaniu kolonii mrówek. Blaine Cole z Houston w Teksasie wykazał, posługując się kamerą wideo, że poszczególne mrówki zachowują się chaotycznie. Każda mrówka przez pewien czas się kręci, po czym odpoczywa. I tak w kółko – mrówka błąka się po dziwnym atraktorze, który opisywaliśmy w rozdziale 6. Natomiast na poziomie całej kolonii w zachowaniu mrówek widać wyraźny rytm. Nigel Franks z Uniwersytetu w Bath zaobserwował, że przez pewien czas kolonia jest aktywna, następnie odpoczywa i znów podejmuje działalność; okres tego cyklu wynosi około dwudziestu pięciu minut. Doświadczenia Cole'a wykazały, że sposób zachowania zależy od gęstości mrówek. Jeśli na danym obszarze jest tylko kilka mrówek, zachowują się one chaotycznie. Jeśli jednak ich liczba przekroczy pewną wartość progową, w zachowaniu całej grupy pojawia się rytm. Jest to oddolny proces, zależny od bezpośrednich kontaktów między mrówkami. Mrówki pobudzają się wzajemnie, a zatem podczas spotkania aktywna mrówka nakłania bierną do podjęcia działania. Octavio Młramontes, Richard Sole i Brian Goodwin z Uniwersytetu Otwartego przeprowadzili symulacje takiego zachowania. Opracowali oni automat komórkowy, modelujący życie kolonii mrówek, w którym aktywność poszczególnych mrówek określa sieć neuronowa Hopflelda.69 Według Goodwina: "Gdy gęstość komputerowych mrówek przekracza dobrze określoną wartość, następuje radykalna zmiana w ich zachowaniu. Zamiast zbioru osobników zachowujących się w chaotyczny sposób nagle pojawia się jedna całość – kolonia funkcjonuje jak superorganizm, wykazujący równocześnie rytm i przestrzenne uporządkowanie".70 Obserwacje wykonane w laboratorium Nigela Franksa świadczą o tym, że prawdziwe kolonie mrówek tak dostosowują swoją gęstość, by żyć blisko punktu krytycznego, "na skraju chaosu". Mrówki regulują rozmiary terytorium, na którym budują mrowisko – z królową pośrodku oraz z rozwijającymi się embrionami i larwami wokół niej. Posługując się ziarnkami piasku, mrówki wyznaczają granicę sali wylęgu. Jeśli złośliwy uczony przesunie ziarnka, zmniejszając powierzchnię sali, mrówki przepychają je na poprzednie miejsce. Podobnie, gdy powierzchnia się powiększa, mrówki odpowiednio ją zmniejszają. "Kolonia wyczuwa swą gęstość i przestrzenne uporządkowanie – stwierdza Goodwin.- Wydaje się zatem, że kolonia rzeczywiście tak dostosowuje gęstość, by żyć na skraju chaosu". Te przykłady tłumaczą, dlaczego idea "skraju chaosu" jest tak kusząca. Dla Goodwina to "[...] właściwie twierdzenie na temat życia, Wszechświata i wszystkich układów złożonych i nieliniowych (czyli niemal wszystkich). Mówiąc bardziej antropomorficznie, można przyjąć, że skraj chaosu to dobre miejsce do życia w nieustannie zmieniającym się świecie, ponieważ •2 tego punktu można zawsze zbadać dopuszczalne sposoby Uporządkowania i wypróbować ich przydatność w danej sytuacji. Natomiast lepiej nie utknąć w jednym stanie uporządkowanym, który wcześniej czy później z pewnością stanie się przestarzały (proszę pamiętać o dinozaurach, Imperium Brytyjskim lub IBM przed zmianami). Wobec tego złożone układy zawsze zmieniają się tak, by być blisko skraju chaosu, w gotowości do wykonania twórczego kroku i wykorzystania nadarzającej się nowości, co stanowi istotę procesu ewolucji. W każdym razie można sformułować taką hipotezę". Ewolucja i uniwersalna maszyna Turinga Jednym z gorących obrońców takich koncepcji jest Chris Langton z Santa Fe Instłtute w Nowym Meksyku. Poświęcił on dużo czasu na próby wyjaśnienia, jak życie równoważy yin pozornego chaosu z yang samoorganizacji: "W układach ożywionych dynamika informacji dominuje nad dynamiką energii, która określa zachowanie większości układów martwych. Jak stało się możliwe podporządkowanie krnąbrnej energii woli informacji?"71 Langton twierdzi, że automaty komórkowe zdolne do wykonania "niebanalnych obliczeń" – czyli uniwersalne maszyny Turinga – z reguły istnieją w obszarze przejściowym, między porządkiem i chaosem; należą zatem do IV klasy Wol-frama, znajdującej się między klasą II, zawierającą automaty zachowujące się w sposób uporządkowany, a klasą III – klasą automatów chaotycznych.72 Langton utrzymuje, że skoro układy ożywione w celu przetrwania muszą przeprowadzać skomplikowane obliczenia, to w takim razie dobór naturalny faworyzuje układy na granicy między porządkiem i chaosem – "na skraju chaosu" – ponieważ takie układy dysponują największymi możliwościami przetwarzania informacji. Na podstawie analizy zachowania wielu automatów komórkowych, działających zgodnie z różnymi regułami dynamicznymi, Langton twierdzi, że dla życia najlepsza jest sytuacja, gdy pozornie przypadkowe zachowanie współistnieje z bardziej regularną dynamiką. W tym kontekście "życie" oznacza zarówno życie biologiczne, jak i sztuczne. Langton wierzy, że udało mu się znaleźć obszar przejścia krytycznego w przestrzeni parametrów wszystkich jedno-i dwuwymiarowych automatów komórkowych, gdzie "[...] obserwuje się przemianę fazową od dynamiki bardzo uporządkowanej do nieuporządkowanej, podobną do zmiany ciała stałego w ciecz".73 W tym obszarze mieszczą się automaty IV klasy. Podczas fizycznych przemian fazowych, na przykład przemiany lodu w wodę, a następnie w parę, powstają korelacje w czasie i przestrzeni między dowolnie odległymi cząsteczkami. Ponieważ uniwersalne maszyny Turinga mogą działać tylko w układach mających pamięć i pozwalających na komunikację między dowolnie odległymi punktami, to najprawdopodobniej automaty komórkowe IV klasy są w stanie wykonać niebanalne obliczenia, a nawet pełnić funkcję uniwersalnej maszyny Turinga. Inaczej mówiąc, według Langtona przetwarzanie informacji za pomocą działającej równolegle sieci jest najbardziej wydajne "na skraju chaosu".74 Można zatem przypuszczać, że skoro układy ożywione muszą wykonywać wiele złożonych zadań, to układy te ewoluują do tego obszaru. Podobnie myślący koledzy Langtona usiłują umocnić koncepcję "skraju chaosu", wiążąc ją z innymi ideami. Na przykład Stuart Kauffman twierdzi, że z pojęciem tym "[...] wiąże się nowy schemat teoretyczny, pozwalający zrozumieć ewolucję biologiczną".75 W naturalnym ekosystemie wilgotnego lasu równikowego, składającym się z wielu koewoluujących gatunków, któremu odpowiada zmienny pejzaż dostosowań, sukces jednego gatunku (na przykład żaby) może oznaczać klęskę innego (na przykład muchy), który dla pierwszego gatunku jest ulubionym pożywieniem. Kauffman dowodzi, że cały ekosystem ewoluuje do stanu na skraju chaosu, i łączy tę koncepcję z teorią samoorganizującego się stanu krytycznego Baka, którą omawialiśmy w rozdziale 7. Z kolei Bak przypuszcza, że wiele ekosystemów, w tym również automaty komórkowe,76 ewoluuje do stanu krytycznego.77 Do rozwiązania pozostaje kluczowy problem: czym jest zdolność do wykonywania obliczeń, która rzekomo rozkwita na 'skraju chaosu? Tym pytaniem zajęli się równocześnie, lecz niezależnie od Langtona i Kauffmana, Jim Crutchfield i jego współpracownicy z Uniwersytetu Kalifornijskiego w Berkeley. Crutchfield i Young wykazali, że zdolność układu do wykonywania obliczeń gwałtownie wzrasta, gdy zaczyna on ewoluować chaotycznie; w tym punkcie następuje przemiana fazowa.78 Ich praca została opublikowana w 1989 roku; stanowiła kulminację dziesięcioletnich badań, w których brali udział Ditza Auerbach, Remo Badi, Peter Grassberger, Bernard Huberman, Gyorgii Sepfauluzy, Robert Shaw i inni.79 Crutchfield zastosował elegancką metodę opisu yin i yang złożoności w statystyczny sposób.80 Definicja złożoności Crutchfielda prowadzi do wyników sprzecznych z intuicją. Łańcuch jedynek jest idealnie uporządkowany. Przypadkowy łańcuch jedynek i zer wydaje się nieskończenie złożony. Jednak Crutchfield i Young dowodzą, że dysponując generatorem liczb losowych (na przykład układem chaotycznym), można równie łatwo wytworzyć łańcuch czysto przypadkowy, jak łańcuch samych zer, a zatem całkowita przypadkowość jest tak samo prosta, jak idealny porządek. Eliminując w ten sposób obliczeniowy koszt przypadkowości, możemy odsłonić wyższe poziomy złożoności: statystyczna złożoność ma maksimum gdzieś między porządkiem i przypadkowością. Crutchfield i Young wykazali, że gdy zaczyna się deterministyczny chaos, następuje przeskok od skończonej do nieskończonej pamięci. Wobec tego, zgodnie z ich miarą złożoności, zdolności obliczeniowe układu mają maksimum w obszarze pośrednim, między porządkiem i przypadkowością. Z przyczyn, które za chwilę staną się jasne, należy żałować, że prasa skupiła uwagę na pracach Langtona z Santa Fe, jak również Normana Packarda z Uniwersytetu stanu Illinois, którzy bronią biologicznego znaczenia koncepcji skraju chaosu i metodami ewolucyjnymi uczą automaty komórkowe wykonywać zadania obliczeniowe. Packard zbadał – korzystając z algorytmu genetycznego – jakie automaty komórkowe są "naturalnie" dobierane, gdy kryterium doboru jest sprawność obliczeniowa.81 Doszedł do wniosku, że do wykonywania złożonych obliczeń najprawdopodobniej najlepiej nadają się automaty IV klasy; jego zdaniem, jeśli pozwolić na ewolucję reguł działania automatów komórkowych, tak aby jak najlepiej wykonywały złożone obliczenia, to wybrane zostaną właśnie takie automaty. Praca Packarda została z miejsca uznana – przez niektórych uczonych i dziennikarzy zajmujących się nauką -za przełom w nauce o złożoności. Krytyka skraju chaosu Już w 1988 roku pojawiły się krytyczne oceny prac Packarda i Langtona.82 "Krytycy wskazali i wciąż wskazują na poważne błędy w ogólnym rozumowaniu i w szczegółach matematycznych" – stwierdził Jim Crutchfield,83 którego ważne prace z tej dziedziny zostały pominięte przez prasę. Prace Langtona l Crutchfielda na temat skraju chaosu różniły się pod jednym ważnym względem. Crutchfield i Young zajmowali się układami dynamicznymi, ewoluującymi w sposób ciągły, natomiast automaty komórkowe Langtona działają dyskretnie. Ponadto Langton posługiwał się przybliżoną miarą złożoności. Według Crutchfielda to wszystko sprawiło, iż "nie można uznać, że Z pracy Langtona wynikają jakieś wnioski na temat powstawania struktur w toku ewolucji".84 Melanie Mitchell – zajmująca pokój po przeciwnej stronie korytarza w Santa Fe Institute, miejscu pracy Langtona – również postanowiła sprawdzić, czy prasowe doniesienia na temat skraju chaosu nie są przesadzone. Zirytował ją także brak precyzji niektórych daleko idących stwierdzeń obrońców tej koncepcji. Wraz z Crutchfieldem i doktorantem Peterem Hraberem spróbowała potwierdzić ważne doniesienie Packarda, że jego ewolucyjne symulacje automatów komórkowych wykazują -adaptację do skraju chaosu". Okazało się, że Packard nie ma racji.85 Jego "przełomowy" wynik był niemal na pewno artefaktem, który mówił więcej o sposobie zaprogramowania komputera niż o zachowaniu automatów. Jak powiedziała Mitchell: "W takiej mierze, w jakiej można zrozumieć, co mają na myśli Packard i Langton, mówiąc o »skraju chaosu«, interpretacja wyników ich symulacji nie jest ani dostatecznie uzasadniona, ani poprawna matematycznie".86 Powtarzając eksperymenty komputerowe Packarda, Mitchell i jej współpracownicy nie znaleźli żadnych dowodów na to, że automaty komórkowe z parametrami zbliżonymi do granicy między klasami II i III mają jakieś szczególne zdolności obliczeniowe. Mitchell i jej współpracownicy doszli do istotnego wniosku, że "z matematycznego punktu widzenia jest rzeczą ważną ustalić, które automaty komórkowe są uniwersalnymi maszynami Turinga. Twierdzimy jednak, że w żadnym razie nie jest to najbardziej interesująca własność automatów. W szczególności zaś własność ta nie pomaga uczonym zajmującym się przyrodą w zrozumieniu, jak dochodzi do pojawienia się złożoności, i wykorzystaniu obliczeniowych możliwości automatów komórkowych do rozwiązania rzeczywistych problemów".87 Nikomu nie udało się wykazać, że podczas przemiany fazowej w automacie komórkowym – od porządku do chaosu – zachodzą skomplikowane obliczenia.88 Ten temat zaowocował wieloma nieporozumieniami, spowodowanymi sugestywnym, lecz wieloznacznym terminem "chaos". W języku codziennym chaos jest synonimem przypadkowości. Z tego powodu wielu ludzi uważa chaos za przeciwieństwo uporządkowania i wyobraża sobie coś w rodzaju nietrwałej równowagi przeciwnych tendencji. W nauce termin ten ma jednak zupełnie inny sens; jak już pisaliśmy, określenie "chaos" utrudnia zrozumienie tego, że dynamika chaotyczna jest w istocie nadzwyczaj precyzyjnie zorganizowana. Badania złożoności Nie istnieje żadna prosta czy wzniosła matematyczna teoria życia – ani życia biologicznego, ani sztucznego. Możemy jednak pocieszać się starym paradoksem, że choć świat jest złożony, reguły rządzące przyrodą są proste. Wszechświat obfituje w rozmaite układy fizyczne, od bakterii i lasu równikowego po galaktyki spiralne, a jednak wszystkim rządzą te same prawa. Dzięki szybkim komputerom biolodzy, fizycy i informatycy mogą badać złożoność w jej całej krasie i znajdować odpowiedzi na pytania, które kiedyś należały wyłącznie do filozofii i mistycyzmu. Tierra, najważniejszy współczesny symulator sztucznego życia, wykazuje tak złożoną dynamikę ewolucyjną, że do badania jego zachowania trzeba wykorzystywać doświadczenia komputerowe – podobnie jak w badaniach terenowych biologów. Można oczekiwać, że mając dostatecznie dużo czasu i dostatecznie szybki superkomputer, moglibyśmy za pomocą tego symulatora stworzyć organizmy cyfrowe obdarzone inteligencją, a nawet złożonością. Z badań Brooksa i innych wynika, że byłoby to możliwe tylko wtedy, gdyby cyfrowe życie oddziaływało ze złożonym środowiskiem. Jeśli mamy kontynuować próby stworzenia prawdziwej sztucznej inteligencji, musimy teraz zapoznać się z najdoskonalszym przykładem złożoności w przyrodzie: ludzkim mózgiem. Ten obiekt fascynował von Neumanna oraz Turinga l zainspirował wiele ważnych badań. Obecnie, bardziej niż kiedykolwiek, mózg jest przedmiotem prac uczonych z całego świata. Łatwo zrozumieć dlaczego: jego poznanie jest największym wyzwaniem dla teorii złożoności. Aby obnażyć sekrety mózgu, musimy skorzystać z wielu pojęć i układów, które umówiliśmy w poprzednich rozdziałach, od logiki matematycznej i szkła spinowego po reakcję Biełousowa-Żabotyńskiego oraz ewolucję. ROZDZIAŁ 9 MAGICZNY WARSZTAT [...] Całym światem umysł, Przenikający wszystkie jego części, Porusza, z jego materią zmieszany. PUBLIUS YERGILIUS MARO, Eneida (przekład Zygmunta Kubiaka)1 Jest pomarszczony, waży mniej więcej półtora kilograma, a konsystencją przypomina dojrzałe awokado. Jest dostatecznie wyrafinowany, aby pokierować ruchem atomów i cząsteczek oraz palców skrzypka lub też stworzyć trójwymiarowy obraz na podstawie sygnałów świetlnych, zbieranych z dwóch dwuwymiarowych siatkówek. Może marzyć, tworzyć wiersze, obmyślać dowcipy. Nic nie dorównuje mu pod względem zdolności do myślenia, komunikowania i rozumowania. Przede wszystkim zaś ma wyjątkową świadomość własnej tożsamości i umiejscowienia w czasie i przestrzeni. Oto ludzki mózg, arcydzieło złożoności. Badając mózg, natykamy się na barokową hierarchię dynamicznych i statycznych struktur. Na jednym poziomie powinniśmy zrozumieć, jak – wskutek podziałów i samoorganizacji -z kilku komórek powstaje w embrionie dojrzały mózg. Na innym powinniśmy zbadać strukturę mózgu i wyjaśnić, jak oddziaływania między ogromną liczbą neuronów prowadzą do wielu właściwości emergencyjnych, w tym również umiejętności odróżnienia czerwonego wina od octu winnego lub uśmiechu dziecka od grymasu specjalisty od reklamy. Największą tajemnicą tych właściwości – a właściwie całej złożoności -jest ludzka świadomość. Jeśli kiedykolwiek uda się nam zrozumieć złożoność mózgu, najwyższym testem naszej teorii będzie próba symulacji świadomości na maszynie liczącej. Sedno problemu złożoności znakomicie przedstawił John Searle, filozof z Uniwersytetu Kalifornijskiego w Berkeley: "Poznanie sekretu świadomości wymaga zrozumienia, że jest to zjawisko biologiczne, jak wszystkie inne, takie jak trawienie i wzrost. Mózg rodzi świadomość, tak samo jak żołądek trawi. W żadnym z tych przypadków nie ma mowy o czymś duchowym, eterycznym czy też mistycznym, o czymś, co wykracza poza dziedzinę zwykłych procesów fizycznych. Dwie największe pomyłki w rzeczywistości wynikają z tego samego błędu. Pierwsza polega na uznaniu, że świadomość – ze względu na jej prywatny, subiektywny, delikatny, uczuciowy i eteryczny charakter – nie może być częścią zwykłego, fizycznego świata, w którym żłopiemy piwo i zajadamy kiełbasę. Druga wielka pomyłka to pomysł, że chodzi tu tylko o odpowiedni program komputerowy".2 Z wielu powodów udało się już dokonać ogromnego postępu w poznaniu mózgu. Po pierwsze, jesteśmy uzbrojeni w nadzwyczajną wiedzę o chemii mózgu. Po drugie, dysponujemy obecnie licznymi narzędziami do obserwowania żywego mózgu. Po trzecie, symulacje sieci neuronowych doprowadziły od uchwycenia niektórych emergencyjnych właściwości mózgu in sitico: dotyczy to licznych procesów, od zachowania uszkodzonego mózgu do przetwarzania informacji z siatkówki. Staje się jasne, że trudności w stworzeniu sztucznej świadomości nie są, być może, tak ogromne, jak to sobie wyobrażaliśmy. Historia umysłu Nasza znajomość mózgu rozwinęła się bardzo od czasów, kiedy Renę Descartes (Kartezjusz), ojciec nowożytnej filozofii, przedstawił swoje koncepcje w tej dziedzinie. Descartes urodził się w 1596 roku w Touraine we Francji. Kiedyś, "spędzając całe dnie samotnie w ogrzewanej komorze"3, przeżył podobno chwilę boskiego objawienia, podczas której zrozumiał swoją misję – stworzenie ogólnych zasad nauki (Scientia mirabilis). Trzynaście lat później, w 1632 roku, [podana data publikacji tej pracy jest błędna; rozprawa ta ukazała się dopiero w 1664 roku, a więc po śmierci Kartezjusza (przyp. tłum.)] Descartes ogłosił Le monde ou le traite de la Iwniere, rozpoczynając w ten sposób naukowe badania mózgu.4 Descartes odrzucił rozpowszechniony pogląd, według którego wyjaśnienie procesów biologicznych wymaga odwołania się do specjalnych sił "witalnych". Twierdził, że w ludzkim ciele nie ma nic, czego nie można by wytłumaczyć, posługując się tymi samymi prawami, które rządzą tęczą i gwiazdami.5 Descartes wierzył, że wszystkie działania naszych zmysłów i nerwów zaczynają się i kończą w szyszynce, niewielkim gruczole u podstawy mózgu. Zdaniem filozofa szyszynka miała sterować wypływem "materialnych impulsów"; terminem tym określał on szczególną postać krwi, rzekomo przepływającej przez mózg i układ nerwowy. Natomiast informacja miała – według Descartesa – przepływać od zmysłów do mózgu specjalnymi włóknami wewnątrz tych samych nerwów. Skaleczenie palca powoduje pociągnięcie za sznur od dzwonka i otwarcie specjalnego zaworu w głowie; wysłane materialne impulsy powodują cofnięcie ręki z niebezpiecznego miejsca. Descartes nie wyciągnął jednak ostatecznych wniosków ze swego redukcjonistycznego obrazu. Twierdził, że szyszynką rządzi dusza. Współcześnie uczeni zajmują inne stanowisko. Organizmem rządzi mózg, a nie dusza. Mózg nie składa się z impulsów, rurek i sznurków, lecz z komórek. Stopniowo zaczynamy rozumieć strukturę i funkcje wielu komórek mózgu, a także cząsteczek, przenoszących między nimi informacje. Możemy przedstawić na ekranie monitora komputera kolorowy obraz receptorów na powierzchni komórek mózgu, precyzyjnie ukazujący miejsca, w których oddziałują cząsteczki przenoszące sygnały. Potrafimy, o dziwo, symulować falę elektrycznej aktywności, generowaną wskutek pobudzenia pojedynczej komórki. A jednak – nawet po uwzględnieniu wszystkich szczegółowych informacji – wciąż czegoś brakuje. To coś to ogólny obraz, tłumaczący związek między strukturą mózgu a kształtowaniem się właściwości emergencyjnych, takich jak pamięć. Ważne jest szczegółowe poznanie procesów chemicznych zachodzących w mózgu, ale tylko nauka o złożoności pozwala zrozumieć wyższe poziomy organizacji, na których działają sieci składające się z miliardów neuronów, czemu zawdzięczamy nie tylko pamięć, lecz również wzrok, zdolność uczenia się, uczucia i świadomość. Złożoność pojawia się w mózgu poprzez samoorganizację na kilku poziomach. Po pierwsze, w okresie rozwoju samoorganizacja powstająca wskutek sprzężeń zwrotnych i doboru decyduje o ukształtowaniu mózgu. Po drugie, w złożonych procesach chemicznych, zachodzących w komórkach, rozległe sieci oddziałujących cząsteczek tworzą struktury uporządkowane w czasie i przestrzeni, które można uważać za struktury dysypatywne, podobne do tych, jakie poznaliśmy, omawiając reakcję Biełousowa-Żabotyńskiego (rozdział 6.). Po trzecie, samoorganizacja umożliwia stałe zmiany połączeń między neuronami w celu zapisania czegoś w pamięci, dostosowania jego działania do otoczenia i nadania temu czemuś wielu innych właściwości emergencyjnych. Oprócz tego nie możemy zapominać, że wiele aspektów działania mózgu zostało zoptymalizowanych podczas milionów lat ewolucji. Sir Charles Sherrington, laureat Nagrody Nobla z fizjologii, w swej książce Man on His Nature bardzo obrazowo opisał samoorganizację mózgu: "To tak, jakby Droga Mleczna przystąpiła do kosmicznego tańca. Zbiorowisko cząsteczek, z których powstaje głowa, szybko staje się magicznym warsztatem, gdzie miliony błyskawicznych czółenek tkają znikający wzór, zawsze pełen znaczenia, lecz nigdy nie ustalony: to zmienna harmonia mniejszych wzorów".6 Takie cechy, jak inteligencja i świadomość, nad którymi męczyli się filozofowie przed i po śmierci Descartesa w 1650 roku, teraz poddają się naukowej analizie. Nic dziwnego, że uczonych opanowało podniecenie, podobne do tego, jakie czuli Francis Crick i James Watson, opisując molekularną budowę DNA, czy też Ernest Rutherford, odsłaniając strukturę atomu. Ewolucyjna sztuka projektowania mózgu Mózg jest tworem bogatego środowiska, którego doświadcza poprzez zmysły. Jego początki kryją się w samoorganizacji centralnego układu nerwowego, następującej w toku trwającej miliardy lat ewolucji. Układ nerwowy, stojąc przed koniecznością przetrwania i wprowadzenia porządku w szumiącym chaosie – by użyć słów amerykańskiego filozofa i psychologa, Williama Jamesa – ewoluował tak, aby coraz lepiej wykorzystywać użyteczne informacje na temat otoczenia. Dzięki temu powstała wspaniała harmonia między organizacją i strukturą mózgu a światem, w którym żyjemy. Początki tej harmonii wywodzą się z najwcześniejszych, prymitywnych komórek, rejestrujących bodźce zewnętrzne. Pierwsze powstały proste komórki, wyczuwające gradient stężenia pewnych związków chemicznych lub położenie Słońca. Następnie pojawiły się organizmy wielokomórkowe, które wykorzystywały kilka takich komórek. Hydra (stułbia), słodkowodny polip, z którym zetknęliśmy się już wcześniej (rozdział 6.), omawiając samoorganizację w trakcie morfogenezy, potrzebuje rozproszonego układu komórek nerwowych, by żywić się małymi organizmami, przepływającymi obok jej ramion. Jeszcze bardziej skomplikowanym układem połączeń może się pochwalić wypławek. Jego przypominający drabinę układ nerwowy nie jest równomiernie rozłożony w płaskim, czarnym ciele: aparat zmysłowy znajduje się przy jednym końcu, a tuż obok leżą skupiska komórek nerwowych, tak zwane gangliony.7 Skupiska te stanowią prymitywne zaczątki mózgu. Aby usprawnić koordynację informacji zmysłowych w bardziej złożonych organizmach, podczas ewolucji narodziły się różne koncepcje zmiany połączeń między ganglionami i między komórkami poszczególnych ganglionów.8 Początkowo pod wpływem stymulacji połączenia stają się bardziej wrażliwe. Ten efekt można obserwować, drażniąc skrzela morskiego ślimaka. Najpierw proste stworzenie cofa skrzela; odruch ten kontroluje grupa zaledwie sześciu neuronów. Jeśli jednak ktoś wielokrotnie drażni ślimaka, uczy się on z tym żyć i przestaje reagować. Tę prostą formę pamięci określamy jako przyzwyczajenie (habituacja). Nasze mózgi zawierają miliardy razy więcej neuronów. Ewolucja doprowadziła do powstania innych sposobów zapamiętywania, takich jak pamięć asocjacyjna, gdy połączenia między neuronami powstają lub są przerywane w odpowiedzi na koincydencje i korelacje między komórkami nerwowymi, pobudzanymi przez zmysły.9 W takim dialogu ze środowiskiem nawet prosty system uczenia się pozwala na lepsze wykorzystanie informacji: na przykład gorzki smak pewnych jagód może się kojarzyć z bólem brzucha. W ten sposób mózg mógł wykształcić strategie zwiększające szansę przeżycia. Motor ewolucji sprawił, że mózg przekształcił się w organ złożony z połączonych na wiele sposobów procesorów, zdolnych do przewidywania oraz reakcji na bodźce zmysłowe. Jak powiedział Colin Blakemore, neurofizjolog z Oksfordu: "Interesujące części mózgu są związane ze zmysłami, z ośrodkami mowy włącznie, gdyż język z pewnością wyewoluował z kategoryzacji danych zmysłowych".10 Podczas ewolucji gatunków wzrastały zarówno rozmiary, jak i stopień komplikacji układu nerwowego. Kulminacją tego procesu jest nasz mózg, przewyższający rozmiarami mózgi wszystkich naczelnych.11 Tajemnica nadzwyczajnej sprawności ludzkiego mózgu kryje się w jego złożoności. Mózg składa się z mniej więcej biliona (1012) komórek. Większość z nich to niewielkie komórki tkanki glejowej, które -jak się tradycyjnie uważa – wspierają i chronią neurony, najważniejsze komórki przetwarzające sygnały. Wprawdzie coraz więcej argumentów świadczy o tym, że komórki glejowe odgrywają również pewną rolę w przetwarzaniu informacji, ale przedmiotem zainteresowania uczonych pozostają przede wszystkim neurony.12 Całkowita długość połączeń między neuronami wynosi w przybliżeniu sto tysięcy kilometrów. Liczba połączeń sięga tysiąca bilionów (lO15), a całkowita liczba neuronów wynosi sto miliardów (1011). Dla porównania – nasza Galaktyka zawiera w przybliżeniu tyle samo gwiazd.13 Można by przypuszczać, że budowa tak złożonego organu Wymaga co najmniej biliona instrukcji, po jednej na każdą komórkę mózgu. Jeżeli instrukcje są konieczne również do tworzenia połączeń, to zapewne trzeba ich znacznie więcej. Jeśli założymy, że komórki mózgu są do siebie podobne i tworzą pewne rodziny, to być może okaże się, że wystarczy mniej instrukcji. W rzeczywistości jednak budową i funkcjonowaniem całego ciała rządzi nie więcej niż sto tysięcy genów, z których jedna trzecia odpowiada za konstrukcję najbardziej złożonego we Wszechświecie obiektu, jaki znamy. Jak można pokonać przepaść między liczbą genetycznych instrukcji i złożonością mózgu? Okazuje się, że wszystkie fazy rozwoju mózgu zależą od samoorganizacji i czynników kontyngentnych – czyli mają twórczy charakter.14 Francis Crick, laureat Nagrody Nobla, przestrzega jednak przed pustymi sloganami: "Kto lub co organizuje mózg, jeśli nie robi on tego sam? Mózg mógł się sam zorganizować na bardzo wiele sposobów. Chcemy wiedzieć, jak to robi naprawdę".15 Plan genetyczny Mózg rośnie zgodnie z instrukcją, która zależy częściowo od planu genetycznego, a częściowo od środowiska. Zacznijmy od planu. Cała kaskada genetycznie zaprogramowanych białek, działających w licznych procesach, które wykorzystują mechanizm sprzężenia zwrotnego, powoduje przemianę sferycznej, zapłodnionej komórki jajowej w dojrzały organizm, składający się z miliardów komórek. Procesy te polegają nie tylko na podziale komórek, ale również migracji, łączeniu się i śmierci. Rządzą także różnicowaniem się komórek, dzięki czemu komórka mózgu różni się od komórki wątroby. Ostatnie osiągnięcia biologii molekularnej umożliwiły nam zbadanie szczegółów genetycznych i komórkowych mechanizmów, działających w okresie rozwoju mózgu, gdy co minuta powstaje około 250 tysięcy nowych komórek.16 Zasadnicze fazy rozwoju mózgu wyglądają tak samo u kurczaka, muchy i człowieka. Pierwsza faza polega na wytworzeniu komórek nerwowych we właściwym miejscu. U kurczaka odbywa się to Ryc. 9.1. Najważniejsze fazy rozwoju mózgu. podczas formowania blastodermy, płatka składającego się ze stu tysięcy komórek. Podczas procesu gastrulacji powstają trzy warstwy – ektoderma, mezoderma i endoderma. W rozdziale 6. opisaliśmy, jak Turing usiłował modelować ten proces (Ryc. 9.1). Od środkowej osi odłącza się struktura, zwana grzebieniem nerwowym, a następnie cewka nerwowa. Z grzebienia nerwowego wykształcają się skrzydełka mezodermalne, będące ewolucyjną pozostałością po łukach skrzelowych. Z nich powstają rozmaite struktury twarzy i karku. Choć komórki nerwowe tworzą się również z niektórych komórek grzebienia nerwowego, najbardziej interesujące struktury – centralny układ nerwowy, mózg i oczy – wykształcają się z cewki nerwowej.17 Po upływie czterech tygodni można rozróżnić wszystkie główne części ludzkiego mózgu, takie jak przodomózgowie, śródmózgowie, tyłomózgowie i pęcherzyk oczny, z którego powstają oczy. W wieku około sześciu miesięcy mózg nabiera charakterystycznego, bruzdkowanego wyglądu.18 Już we wczesnych fazach rozwoju wyłaniają się różne rodzaje komórek. Wcześniejsze badania muszki owocowej, ulubionego organizmu genetyków, wykazały, że rolę wszystkich komórek – w tym neuronów – w rozwijającej się muszce określa specjalna klasa instrukcji, zwanych genami Hox. (Hox to skrót od homeobox – jest to fragment DNA, umożliwiający kontakty między genami). Oddziaływania te mają zasadnicze znaczenie dla regulacji genetycznej, bardzo ważnej dla strukturalnej sa-moorganizacji. Genetyczne sprzężenie zwrotne jest możliwe, ponieważ geny Hox kodują białka, wiążące się z innymi specyficznymi sekwencjami genów, co powoduje wzmocnienie lub stłumienie genów, należących do tego samego chromosomu. Geny Hox mogą zainicjować kaskadę zjawisk genetycznych, sterujących rozwojem embrionu. Ten proces, zwany segmentacją, występuje zarówno w rozwoju muchy, jak i człowieka. Przez segmentację rozumiemy powstawanie powtarzalnych struktur wzdłuż głównej osi ciała, od głowy do ogona, takich jak gangliony. U ludzi najbardziej oczywistymi przejawami segmentacji są żebra, kręgi kręgosłupa i korzonki nerwowe, łączące się z obwodowym układem nerwowym. Taki sam rodzaj samoorganizacjł obserwował Jim Tabony w doświadczeniach z tubuliną, opisanych w rozdziale 7. i Mechanizmy genetyczne powodują powstanie ogólnego "schematu połączeń", stanowiącego podstawę strukturalnych cech mózgu każdego gatunku, dzięki którym pająki bez wysili ku tkają sieci, sowy mają wyśmienity wzrok, a ludzie wykazują wrodzoną umiejętność posługiwania się językiem. Rozwój aksonów i dendrytów – włókien odchodzących od neuronów – jest regulowany przez zmiany stężenia pewnych substancji chemicznych.19 Niektóre z tych substancji działają przyciągająco inne odpychająco. Te przeciwne tendencje są jakościowo podobne do działania związków, które zapewniają wewnętrzną organizację hydry. Połowa lub więcej neuronów umiera mniej więcej wtedy, gdy ich włókna docierają do celu, choć wydają się one zdrowe. Uważa się, że proces ten przebiega zgodnie z zasadą doboru naturalnego: wszystkie neurony konkurują o ograniczone zasoby związków chemicznych, koniecznych do przetrwania.20 Jeśli ich nie dostają, popełniają samobójstwo; proces ten jest określany terminem "apoptoza". W wyniku poświęcenia komórek dla dobra mózgu powstaje przybliżona "mapa" – sąsiadujące nerwy w organach zmysłowych, takich jak siatkówka, są połączone z sąsiadującymi obszarami mózgu. Mapa ta jest następnie udoskonalana, nim jeszcze siatkówka zaczyna reagować na światło. Wyniki doświadczeń wskazują, że fale spontanicznej organizacji przechodzą przez komórki nerwowe siatkówki, których włókna tworzą nerw wzrokowy i pomagają końcówkom przyległych komórek nerwowych siatkówki połączyć się z przyległymi regionami mózgu.21 Dojrzały mózg jest mieszaniną sprzeczności: neurony przecinają duże obszary i łączą się z tysiącami innych neuronów. Są zorganizowane w funkcjonalne mapy, tak że różne obszary mózgu zajmują się różnymi rzeczami. Mimo to świadomość jest tylko jedna. Konflikt między integracją i separacją jest paradoksem o zasadniczym znaczeniu dla wszystkich prób teoretycznego zrozumienia mózgu. Jak zauważył Giulio Tononi z Neuroscience Institute w La Jolla: "Istnieje niewiarygodne napięcie między lokalizacjonistami – z jednej strony – i holistami z drugiej".22 Aby ułatwić zrozumienie pozornego konfliktu między lokalnymi i globalnymi funkcjami, Tononi podjął próbę określenia numerycznej miary złożoności neuronowej, zwanej CN, która ma podobny charakter jak statystyczna miara złożoności Crutchfielda i Younga (zob. rozdział 8.). Z działaniem tej miary można się zapoznać na przykładzie z dziedziny fizyki: CN ma małą wartość zarówno dla gazu przypadkowo poruszających się cząsteczek, jak i nieskończonego kryształu, zbudowanego z regularnie rozmieszczonych atomów. Natomiast dla kory mózgowej, gdzie lokalna specjalizacja konkuruje z globalną integracją, CN ma bardzo dużą wartość. Tononi przewiduje, że wartość CN jest większa dla miliardów neuronów, działających w stanie przytomności, niż dla neuronów pracujących podczas snu, czy też elektrycznych burz, które występują w mózgu podczas ataków padaczkowych.23 Naturalne neurony Nim zajmiemy się właściwościami emergencyjnymi miliardów neuronów, działających razem, i zrozumiemy, jak mózg może się uczyć oraz dostosowywać do otoczenia, musimy lepiej poznać budowę i funkcjonowanie pojedynczej komórki nerwowej. W całym królestwie zwierząt neurony wyglądają bardzo podobnie, co stanowi kolejny dowód – tak jakby jeszcze jakiś był potrzebny – słuszności tezy Darwina, że wszystkie zwierzęta wywodzą się od wspólnego przodka. W mózgu, podobnie jak w komputerze, elektryczne sygnały rozchodzą się wzdłuż "kabli": centralna część neuronu – soma – otrzymuje sygnały via rozgałęzione wypustki, zwane dendrytami, i sama wysyła sygnały poprzez grube włókno – akson – które może ciągnąć się z jednego końca ciała do drugiego (por. Ryc. 9.2). Każda komórka otrzymuje sygnały od mniej więcej dziesięciu tysięcy innych, zazwyczaj przez trzy lub cztery kontakty, ale czasami takich kontaktów jest setki. Natomiast akson pojedynczego neuronu może być rozgałęziony lub nie; jego odgałęzienia mają zakończenia synaptyczne. Zakończenie synaptyczne to miejsce, w którym sygnał przechodzi z jednej komórki do drugiej. Mózg stanowi zatem gęstą dżunglę synaps. Choć wszystkie neurony mają podobną ogólną strukturę, liczba ich odmian jest oszałamiająca, co świadczy o tym, jak samoorganizacja w trakcie rozwoju mózgu umożliwiła zróżnicowanie ich funkcji.24 Pod koniec XIX wieku Camilio Golgl, anatom z Mediolanu, przypadkowo odkrył sposób barwienia neuronów solami srebra, co pozwala obserwować ich wygląd.2 Tę metodę doprowadził do perfekcji Santiago Ramón y Cajal z Madrytu (1852-1934), uchodzący za ojca nowoczesnej neu-roanatomii.26 Dzięki barwieniu srebrem stwierdzono, że mózg składa się z dyskretnych elementów, a nie stanowi jednolitej sieci. Cajal uznał te elementy, komórki nerwowe, za "tajemnicze motyle duszy". Komórki przypominają swą różnorodnością motyle – przykładem są zarówno komórki Purkinjego, wyglądające niczym gałązki korali, jak i komórki podobne do liny z postrzępionymi końcami. W samej siatkówce wyróżniamy co najmniej pięć typów neuronów, przetwarzających bodźce świetlne, a liczba rodzajów neuronów gwałtownie wzrasta w mózgu; w sumie istnieje zapewne kilkaset ich typów.27 Podobnie jak struktura spiralna to emergencyjna właściwość reakcji BZ, tak samo pobudzenie komórki nerwowej jest emergencyjna, nieliniową cechą, wynikającą z jej budowy i oddziaływań z innymi neuronami. Pobudzenie zależy także od struktury błony komórkowej. Proszę sobie przypomnieć nasze rozważania z rozdziału 6. dotyczące crosskatalatora. Jak się przekonaliśmy, prosty, nieliniowy układ reakcji chemicznych może spowodować oscylacje chemicznej aktywności, przypominające przebieg zmian elektrochemicznych podczas pobudzenia komórki nerwowej. Błona otaczająca każdą komórkę organizmu wykazuje potencjał elektryczny, ponieważ wewnątrz i na zewnątrz komórki jony mają różne stężenie; to gwarantuje, że komórka znajduje się w stanie dalekim od równowagi, tak jak crosskatalator.28 Neurony, podobnie jak inne komórki, mogą zmieniać swój potencjał elektryczny. Gdy neuron odbiera sygnał, właściwości błony komórkowej ulegają zmianie, dzięki czemu jony mogą przez nią przenikać. Jony sodowe napływają do komórki przez białkowe kanały jonowe i potencjał błony gwałtownie rośnie z -70 do +40. Choć lokalne własności błony szybko się zmieniają, tak aby przywrócić status quo, wpływa to na otoczenie danego punktu, a tym samym wzdłuż włókna rozchodzi się sygnał elektryczny. Ten impuls nazywamy potencjałem czynnościowym. Rozchodzący się potencjał czynnościowy musi ładować po drodze akson, który ma określoną pojemność elektryczną, oraz przezwyciężyć opór elektryczny i straty, spowodowane przez płyn pozakomórkowy. Zadanie to ułatwia otulina z mieliny, otaczająca aksony, która zmniejsza ich pojemność. Słabnący potencjał czynnościowy jest wzmacniany po drodze w tak zwanych węzłach Ranviera. Maksymalna szybkość rozchodzenia się impulsu wynosi 100 m/s – czyli jest milion razy mniejsza niż szybkość rozchodzenia się sygnału elektrycznego w drucie miedzianym w komputerze.29 Ryc. 9.2. Neuron. Przetwarzanie sygnałów przez neurony jest emergencyjną właściwością kanałów jonowych i zależy od pobudzania neuronu przez inne komórki. Niektóre sygnały zwiększają prawdopodobieństwo pobudzenia neuronu, inne je redukują – to zależy od rodzaju połączeń. Aksony łączą się nie tylko z dendrytami, ale również z innymi aksonami – zazwyczaj po to, by zablokować sygnał przesyłany przez taki akson. Dendryty nie tylko odbierają sygnały, ale również mogą je wysyłać do pobliskich dendrytów lub aksonów. Fragmenty dendrytu mogą wpływać na siebie, nie dopuszczając konkurujących sygnałów. Ostateczne działanie neuronu zależy od synchronizacji i rodzaju odbieranych sygnałów. Procesy zachodzące w pojedynczym neuronie są tak złożone, że wielu uczonych poświęca całą swoją karierę naukową na ich badanie. Ryc. 9.3. Architektura neuronów. U góry: Neuron J4 z ośrodka wzroku w mózgu. Na dole: Rekonstrukcja neuronu z szóstej warstwy w korze wzrokowej małpy. Jednym z nich jest Rodney Douglas, neurofizjolog z Medical Research Council's Anatomical Neuropharmacology Unit w Oksfordzie.30 W jego laboratorium sporządzono mapę tysięcy połączeń i reakcji jednego z wielu neuronów z ośrodka widzenia mózgu, tak zwanego neuronu J4 (od imienia Johna Andersona, który pierwszy zaczął go badać). Liczne grupy uczonych z całego świata zajmują się symulowaniem funkcjonowania J4 z uwagi na jego kształt, zachowanie i połączenia z innymi neuronami.31 Trójwymiarowy obraz J4 na ekranie komputera przypomina nieco wyrwane z ziemi drzewo (zob. Ryc. 9.3). Dendryty wierzchołkowe są wygięte i rozłożone na powierzchni mózgu, a kłębek dendrytów u podstawy sięga do "istoty białej" – warstwy ukrytej parę milimetrów pod powierzchnią – w której wiązki aksonów przerzucają informacje między różnymi ośrodkami mózgu. W symulacjach neuron J4 jest dzielony na 150 przedziałów i za pomocą równań różniczkowych uczeni śledzą rozchodzenie się sygnałów elektrycznych w gałęziach, pniu i korzeniach. Liczba możliwych sytuacji początkowych jest oszałamiająca, ponieważ J4 może odbierać sygnały od ponad 5000 neuronów. Reakcja neuronu zależy od wyniku wojny między sygnałami, których amplituda może się zmieniać od l do 10 000 w odpowiednich jednostkach. W typowych symulacjach potencjał czynnościowy jest przedstawiany jako czerwone i żółte zaburzenie, przechodzące przez neuron. Sygnał może również wygasnąć przed dotarciem do aksonu. To tylko dwie możliwości z bardzo szerokiego repertuaru, wykorzystywanego przez J4 do wzmacniania i przetwarzania sygnałów z siatkówki. Neurony in silico Po tak szczegółowym zbadaniu pojedynczych neuronów możliwe stały się próby zbudowania urządzeń "neuromorficznych" -czyli sztucznych urządzeń, które przetwarzają sygnały elektryczne tak jak prawdziwe neurony. U podstaw takich prób leży ambitna idea, by w celu wyjaśnienia działania mózgu najpierw zbudować pojedynczy neuron z krzemu, a następnie skonstruować krzemowy mózg, łącząc 100 miliardów takich neuronów. Uczeni zajmujący się tymi pracami mają nadzieję, że po drodze uda się im skonstruować urządzenia analogowe, naśladujące działanie organów biologicznych, takich jak siatkówka, która jest zdolna do przetwarzania obrazów w tempie przekraczającym możliwości nawet najpotężniejszych współczesnych superkomputerów. Pionierem w tej dziedzinie jest uczony z Caltech, Carver Mead. Jego zespół rozpoczął pracę od naśladowania zmysłów, budując sztuczną wersję podstawowego narządu słuchu – ślimaka ucha. Ślimak na kostce pozwala zlokalizować obiekt wydający dźwięk, symulując metodę, jaką posługują się sowy podczas polowania na myszy.32 Sowa rekonstruuje informację przestrzenną na podstawie różnic w czasie rejestracji sygnałów w obu uszach. Zespół Meada zbudował również kostkę krzemową, której architektura i funkcjonowanie są analogiczne do siatkówki odmieńca amerykańskiego.33 W przeciwieństwie do aparatu fotograficznego, który robi zdjęcie obrazu w danej chwili, siatkówka rejestruje zmiany w postrzeganym obrazie (Ryc. 9.4).34 Obraz produkowany przez krzemową siatkówkę był zaskakująco podobny do obserwowanego przedmiotu i nawet powodował iluzje optyczne: na przykład szary kwadrat wydawał się ciemniejszy na jasnym tle niż na czarnym. Kolejnym krokiem było skonstruowanie krzemowego neuronu, przetwarzającego informacje z krzemowych zmysłów.35 W 1991 roku Misha Mahowald, biolog pracujący z Meadem i Rodneyem Douglasem, ogłosił, że to się im udało.36 Douglas oraz Kevan Martin i inni członkowie zespołu z Oksfordu dostarczyli szczegółowych informacji o zachowaniu neuronu J4. Mahowald opracował następnie analogową kostkę krzemową, precyzyjnie symulującą zachowanie neuronu. Jest to równoważne z modelowaniem zachowania maleńkich kanałów białkowych w błonie neuronu, które regulują przepływ prądu przez błonę, a zatem również potencjał elektryczny błony. Przepływ jonów przez te kanały powoduje powstanie impulsów wyjściowych, dzięki którym neuron komunikuje się z innymi neuronami. Według Mahowalda "[...] sam neuron jest emergencyjną cechą kanałów jonowych".37 Ryc. 9.4. Sztuczny wzrok: obraz Mishy Mahowalda na sztuczne) siatkówce. Zadanie Mahowalda nie było bynajmniej łatwe: cienka błona wokół każdego neuronu zawiera tysiące kanałów jonowych. Niektóre przepuszczają jony sodowe, inne wapniowe. Niektóre otwierają się i zamykają bardzo szybko, inne dość wolno. W różnych etapach kształtowania się impulsu nerwowego działają różne kanały. Niektóre kanały otwierają się i zamykają w odpowiedzi na zmiany potencjału błony, inne reagują na obecność jonów lub cząsteczek neuroprzekażników. W neuronie krzemowym kanałom odpowiadają tranzystory. Kanały te muszą pozostawać zamknięte, dopóki napięcie jest małe, a po przekroczeniu pewnej wartości progowej muszą pozwolić na nagły wzrost potencjału. Błona komórkowa pełni funkcję kondensatora: cząsteczki lipidowe w błonie magazynują ładunek i działają jak element pamięci. Doświadczenia wykazały, że sztuczny neuron zachowuje się w realistyczny biologicznie sposób. Na przykład dopóki na wejściu przyłożone jest napięcie, dopóty neuron generuje regularną serię impulsów. Tak samo działa prawdziwy neuron: zmienia stały sygnał na wejściu w serię impulsów napięcia. Neuron / krzemu może zmieniać tempo, z jakim są wysyłane kolejne impulsy, i potrafi rozróżniać odmienne poziomy napięcia na wejściu, odpowiednio dostosowując swą odpowiedź. W zasadzie jest również zdolny do działania milion razy szybciej, niż pracują komórki służące do czytania. Opisując swoje dzieło w "Nature", Douglas i Mahowald stwierdzili: "Neuron z krzemu stanowi krok w kierunku skonstruowania sztucznych układów nerwowych, wykorzystujących bardziej realistyczne zasady komunikacji między neuronami niż w istniejących obecnie elektronicznych sieciach neuronowych".38 Następny ważny krok – połączenie takich neuronów – okazał się trudny. Zespół zdołał stworzyć sieć trzydziestu sześciu neuronów na kostce o wymiarach 4x6 mm. To jednak dopiero początek: kolejnym wielkim wyzwaniem stało się określenie reguł komunikacji między neuronami. Innym problemem jest znalezienie sposobu dynamicznego zmieniania połączeń między neuronami podczas nauki. To kwestia o zasadniczym znaczeriu. Od tych połączeń zależą emergencyjne cechy sieci neuronów, od których z kolei zależą cechy sieci sieci – czyli globalne własności całego mózgu.39 Zupełnie niezależne próby. stworzenia mózgu ze sztucznie hodowanych sieci żywych neuronów również nie mogą osiągnąć sukcesu w symulacji złożoności prawdziwego mózgu.40 Neuroprzekaźniki Można zrozumieć, dlaczego niektórzy sądzą, że nigdy nie uda się nam uchwycić złożoności budowy mózgu in silico. Złożoność krzemowego neuronu – a w istocie każdego komputera -jest znikoma w porównaniu ze złożonością układu obliczeniowego mózgu. Gdy potencjał czynnościowy wysyła sygnał przez synapsę, pobudzenie komórek nie polega na transporcie elektronów wzdłuż drutu – sygnał jest przekazywany przez cząsteczki neuroprzekażników dyfundujarych przez szczelinę między komórkami nerwowymi. Pierwszy neuroprzekaźnik został zidentyfikowany w 1921 roku; od tego czasu poznaliśmy mniej więcej pięćdziesiąt następnych. Na ich liście znajduje się również dopamina, która doskonale ilustruje znaczenie neuroprzekażników. Dopamina występuje głównie w istocie szarej mózgu; jest wykorzystywana podczas procesów poznawczych i uczuciowych oraz chodzenia i biegania. Jak się często zdarza w badaniach mózgu, znaczenie dopaminy potwierdzają przypadki wielu chorych. Przeprowadzone w latach pięćdziesiątych badania pacjentów cierpiących na chorobę Parkinsona wykazały u nich poważny niedobór dopaminy. Jakiś czynnik środowiskowy, zapewne połączony z anomalią procesów chemicznych w mózgu, może spowodować utratę komórek, produkujących dopaminę w szarej substancji. Zanik ponad 90% tych komórek powoduje stopniową utratę ruchliwości i koordynacji mięśniowej.41 Neuroprzekaźniki, takie jak dopamina, mogą działać w rozmaitych miejscach na białkowe receptory w błonie komórki nerwowej, co dodatkowo zwiększa złożoność mózgu. Ostatnie badania dostarczyły intrygujących wskazówek, że schizofrenia, najpowszechniejsza choroba psychiczna, związana jest z zaburzeniami działania dopaminy na receptory.42 Schizofrenicy mają normalny poziom dopaminy w mózgu, ale znajduje się w nim znacznie więcej miejsc, gdzie może ona działać.43 Jedno z takich miejsc, receptor D4, występuje sześć razy liczniej w tkance mózgu schizofrenika niż osoby zdrowej. Każda dawka dopaminy powoduje, że schizofrenik otrzymuje sześć razy więcej komunikatów. Odkrycie nadmiernej stymulacji dopamina osób chorych wydaje się spójne z takimi symptomami, jak złudzenia i halucynacje, choć jest mało prawdopodobne, aby mogła to być jedyna przyczyna tak złożonej choroby.44 Tkanie na warsztacie Redukcjoniści, do których możemy zaliczyć wielu biologów molekularnych i biochemików, wierzą w powiedzenie "Bóg tkwi w szczegółach". Na szczęście nie musimy rozumieć potwornych szczegółów działania neuroprzekażników i receptorów, żeby uzyskać ogólny obraz działania mózgu. Najważniejszą emergencyjną cechą szczegółowych procesów zachodzących w mózgu jest wpływ doświadczeń przeżywanych w rzeczywistym świecie na wzmacnianie i osłabianie połączeń synaptycznych między komórkami mózgu. Zjawisko to opisał Donald Hebb, z którego pracami zetknęliśmy się w rozdziale 5. Kontynuując idee Eugenio Tanziego45 i Raniona y Cajala, Hebb wysunął hipotezę, że w procesie uczenia się waga połączenia synaptycznego wzrasta, jeśli neuron jest pobudzony wtedy, gdy pobudzone są inne połączone z nim neurony. Hebb pisał: "Najbardziej oczywiste i najbardziej prawdopodobne wyjaśnienie tego, jak jedna komórka może skuteczniej pobudzać inną, to rozwój wypustek synaptycznych i wzrost powierzchni kontaktu między [komórkami nerwowymi]".46 Innymi słowy, potencjał czynnościowy nie tylko przenosi sygnały między neuronami, ale zostawia po sobie metaboliczny ślad, który powoduje zmianę obwodów przekazujących te sygnały. W mózgu istnieją miliardy połączeń między neuronami o różnej sile, która zmienia się wraz z ich wykorzystaniem. Jeśli, w wyniku stymulacji przez zmysły, często równocześnie następują interesujące wydarzenia w sąsiednich neuronach, to neurony na ogół łączą się w sieć. Dzięki tej plastyczności połączeń między neuronami instrukcje dochodzące z zewnętrznego świata umożliwiają mózgowi zorganizowanie sieci do rozpoznawania obiektów – na przykład pióra – niezależnie od tego, czy widzimy je z przodu, z boku czy pod kątem. Mechanizmy molekularne sprawiają, że struktura mózgu dostosowuje się tak, aby uwzględnić związek między zdarzeniami w rzeczywistym świecie. Proces zapamiętywania jest dobrym przykładem działania takich sieci. Porównując mózg z kieszonkowym kalkulatorem, łatwo można błędnie ocenić jego zdumiewającą pamięć. Wystarczy do tego proste doświadczenie, w którym pokazujemy na chwilę Pewnej osobie liczbę i prosimy o jej powtórzenie parę minut Później. Jest to łatwe w przypadku liczby czterocyfrowej, ale w miarę wzrostu liczby cyfr zadanie staje się coraz trudniejsze. Dla większości ludzi osiem cyfr stanowi granicę możliwości. Na tej podstawie można powiedzieć, że pojemność ludzkiej pamięci wynosi 41,86 bita, natomiast prostego kieszonkowego kalkulatora – 1000 bitów. Zaskakujące, że w ogóle jesteśmy w stanie coś zapamiętać. A jednak dziecko uczy się nowych słów w tempie równym w przybliżeniu 10 słów na dzień i ostatecznie może opanować słownik zawierający 100 tysięcy słów. Najlepsi gawędziarze spośród starożytnych Celtów znali na pamięć mniej więcej 350 opowieści. Neurolog Oliver Sacks leczył kiedyś pacjenta, który znał na pamięć dziewięć tomów Grove's Dictionary of Musie and Musicians z 1954 roku, nie mówiąc już o muzyce 2000 oper.47 Te nadzwyczajne osiągnięcia są w istocie mniej tajemnicze, niż można by przypuszczać. Pamiętamy różne rzeczy na podstawie ich znaczenia, czyli dzięki kojarzeniu; proces ten opisaliśmy w rozdziale 5. Sieć neuronów może działać jak "pamięć", pod warunkiem że jest w stanie odtworzyć na żądanie specyficzny układ elektrycznej aktywności. Przypuśćmy, że każdy neuron, należący do pewnego zespołu, jest połączony z pozostałymi za pomocą synaps, których waga może się zmieniać zgodnie z regułą Hebba: wzmocnieniu ulegają połączenia między neuronami pobudzanymi jednocześnie. (W rzeczywistości sytuacja jest nieco bardziej skomplikowana, ponieważ różne sieci rywalizują ze sobą o zapamiętanie danej informacji). Gdy już wszystkie synapsy w sieci, która wygrała rywalizację, zostały wyregulowane zgodnie z regułą Hebba, informacja ulega zapamiętaniu. Neurony, które kiedyś były równocześnie aktywne, są teraz połączone silniejszymi synapsami; podczas przywoływania zawartości pamięci są na ogół znów jednocześnie pobudzane, co ułatwia odtworzenie oryginalnego układu. Sieć neuronowa tego typu może zapamiętać wiele faktów równocześnie, przy czym każda synapsa bierze udział w zapamiętaniu licznych faktów, "kodowanych" przez wiele synaps. Teraz da się zrozumieć tak spektakularne możliwości ludzkiej pamięci. Wystarczy pobudzić niewielki obszar pamięci, by synapsy odtworzyły całe wspomnienie; to zjawisko nazywamy uzupełnieniem. Jest ono blisko związane z nieorganicznymi koncepcjami przechowywania i odnajdywania informacji. Hipoteza Hebba stanowiła teoretyczne wyjaśnienie działania pamięci asocjacyjnej na poziomie neuronów. W 1973 roku Tim Bliss z National Institute for Medicał Research w Londynie i Terje Lomo z Uniwersytetu w Oslo wykonali doświadczenia potwierdzające hipotezę Hebba. Posługując się mikroelektrodami, zbadali oni aktywność elektryczną w mózgu uśpionego królika, koncentrując uwagę na strukturze, przypominającej konika morskiego, zwanej hipokampem. Impulsy docierają do obszaru, zwanego zakrętem zębatym, przez liczne włókna wejściowe, a następnie rozchodzą się przez synapsy do pobliskich neuronów. Bliss i L0mo stwierdzili, że wysyłając serię sztucznych sygnałów włóknami wejściowymi, potrafią wzmocnić odpowiednie synapsy.48 Takie zmiany mogą przetrwać wiele tygodni, a nawet miesięcy, co wystarczy, by mechanizm ten uznać za prawdopodobną metodę działania pamięci krótkotrwałej. Ów proces wzmacniania połączeń jest powszechnie określany jako długotrwałe wzmocnienie synaptyczne. Choć doświadczenia Blissa i Lomo były dość sztuczne, dały wyniki zgodne z teorią Hebba. Zademonstrowali oni komórkowy odpowiednik klasycznego warunkowania, obserwowanego przez Pawiowa w doświadczeniach z psami, które nauczyły się ślinić w odpowiedzi na dźwięk dzwonka, włączanego regularnie przed posiłkami. (W języku psychologii powiedzielibyśmy, że psy zostały uwarunkowane do kojarzenia odpowiedzi z konkretnym bodźcem). Bliss stwierdził, że słabo wzbudzana synapsa nie podlega wzmocnieniu. Ale – i w tym punkcie analogia z psami Pawiowa jest uderzająca – późniejsi badacze wykazali, że jeśli słabo stymulowana synapsa jest aktywna równocześnie z innym, silnym bodźcem, to słaby bodziec ulega wzmocnieniu.49 Dalsze badania potwierdziły znaczenie zmian komórkowych w procesie uczenia się. Jeśli długotrwałe wzmocnienie synaptyczne jest zablokowane farmakologicznie, to szczury mają trudności z radzeniem sobie w labiryntach – wiadomo, że to zadanie wymaga działania hipokampu.50 Szczury nie są jedynymi stworzeniami, które pomagają ludziom w tych badaniach. Niektórzy uczeni polują na genetyczne podstawy pamięci u skromnej muszki owocowej, a inni specjalizują się w badaniach ślimaka morskiego, który ma nadmiernie rozrośnięte komórki mózgu. Zespół Stevena Rose'a z Uniwersytetu Otwartego zajmuje się badaniem kurczaków.51 Kurczaki nie są szczególnie bystre, ale mimo to mają wiele zalet: zaczynają się uczyć natychmiast po wykluciu z jaja, uczą się niezawodnie, ich mózg jest duży i łatwo dostępny. Co ważniejsze, za pomocą prostego testu można sprawdzić, że zapamiętały pewien fakt. Jedno dziobnięcie chromowanego koralika, pokrytego gorzką substancją, wystarcza, by kurczak zrezygnował z takich koralików, czyli zapamiętał, że chromowane koraliki są obrzydliwe w smaku. Gorzki smak powoduje zmiany w mózgu, prowadzące do zapamiętania tej wiadomości. Polegają one na zmianie kształtu oraz rozmiarów komórek nerwowych, i – co najważniejsze – połączeń między nimi. W wyniku takich doświadczeń dendryty pewnych kluczowych neuronów tworzą 60% więcej połączeń, tak jak to przewidział Hebb. Na tym polega nauka. Początkowo kurczak reagował normalnie na widok jaskrawego koralika – to znaczy dziobał go. Po powstaniu w mózgu nowej sieci połączeń ta reakcja została zablokowana: "Nowa sieć zaleca: nie, nie dziob tego". Oprócz pamięci duże znaczenie ma dla nas także zapominanie. Wstrząsająca opowieść Łurii o człowieku, który nigdy niczego nie zapomina i umiera załamany ciężarem wspomnień o wszystkim, co kiedykolwiek zrobił, jest doskonałym przypomnieniem wagi tego faktu.52 Wydaje się zatem, że musi istnieć jakiś mechanizm – analogiczny do tego, który odkryli Bliss i Lomo – powodujący zmniejszenie wag połączeń synaptycznych. Zjawisko to nazywamy długoterminową depresją. Można się spodziewać, że zapominanie polega na ustanowieniu antyhebbowskich korelacji między prę- i postsynaptycznymi stanami pobudzenia.53 Rozumiemy przez to zmniejszenie wag połączeń synaptycznych, gdy dwa neurony są pobudzone równocześnie. Takie zjawisko zaobserwowano w niektórych częściach mózgu, zwłaszcza w móżdżku. Róg Ammona Większość neurologów – teoretyków i eksperymentatorów -używa reguły Hebba jako wyidealizowanego opisu wzmocnienia synapsy podczas nauki. Jak się przekonaliśmy w rozdziale 5., Hopfield wykazał skuteczność tej reguły w swoich sieciach neuronowych, stanowiących modele pamięci asocjacyjnej. Neurolodzy muszą obecnie rozstrzygnąć, czy reguła Hebba i jego sieci pozwalają rzeczywiście stworzyć jednolity obraz pamięci. Dodatkową komplikację stanowi fakt, że pamięć to zbiór rozmaitych zdolności, zależnych od różnych mechanizmów uczenia się i różnych ośrodków mózgu. Aby docenić różnice w pamięci, wyobraź sobie, Czytelniku, że rozmawiasz z kolegą o dniu, w którym nauczyłeś się prowadzić samochód. Po pierwsze, rozmowa wymaga pamięci semantycznej, czyli znajomości języka i świata, w tym również pojęcia samochodu i wszystkiego, co wiesz o nim i o prowadzeniu. Po drugie, zależy od pamięci epizodycznej – pamięci dotyczącej tego, jak niemal przejechałeś pieszego, i uczucia podniecenia, gdy udało ci się go wyminąć. Badacze czasem łączą pamięć semantyczną i epizodyczną w jedną kategorię – pamięć deklaratywną -to znaczy taką, której treść możemy sobie uświadomić i zastanowić się nad nią. Wasza rozmowa dotyczy pamięci innego rodzaju: chodzi o zapamiętaną umiejętność prowadzenia samochodu. Umiejętności klasyfikujemy jako część pamięci niedeklaratywnej, podobnie jak inne zjawiska, na przykład klasyczne uwarunkowanie. Rozmowa zależy również od pamięci operacyjnej, która umożliwia utrzymanie w głowie materiału dostatecznie długo, by zbudować i zrozumieć skomplikowane zdania. Taka pamięć krótkotrwała potrzebna jest również do odczytania numeru nadwozia lub powtórzenia numeru telefonicznego znajomego, który chce się zapisać w notesie. We wszystkich aspektach pamięci zasadnicze znaczenie ma hipokamp. O jego roli dowiedziano się dzięki badaniom pacjentów z uszkodzoną tą częścią mózgu. Badania te świadczyły o tym, że hipokamp funkcjonuje jako pamięć buforowa i przekazuje niedawne wspomnienia do kory mózgowej, gdzie podczas snu są umieszczane w trwałej pamięci.54 Już w 1971 roku David Marr, w interesującej pracy, która wykorzystywała wiele idei zaczerpniętych z informatyki, stwierdził, że hipokamp jest siedzibą pamięci asocjacyjnej i konsoliduje dane z różnych miejsc, po czym przekazuje je w gotowej postaci do kory.55 Edmund Rolls z Oksfordu, wykorzystując nowoczesne teorie sieci neuronowych, rozpoczął polowanie na sieci pamięci w hipokampie. Intensywne badania architektury neuronowej jednej z jego części dały szczególnie obiecujące wyniki. Region ten zwany jest CA3, gdzie CA oznacza cornu Ammonis (róg Ammo-na) – jest to archaiczna nazwa hipokampu. U szczurów każdy z neuronów należących do CAS odbiera sygnały od 12 tysięcy innych neuronów. Na przykład komórki CAS mogą zarejestrować elementy jednego wspomnienia – co, gdzie i z kim dany szczur jadł na obiad. Komórki CAS łączą te elementy i zapamiętują je jako cały epizod, który może zostać przypomniany przez odwołanie się do dowolnej części.56 Istnieje bliska analogia między architekturą sieci Hopfielda i strukturą hipokampu.57 Wydaje się, że aksony neuronów należących do regionu CAS sięgają tak daleko we wszystkie strony, że mogą utworzyć połączenia z niemal wszystkimi innymi neuronami tego regionu. (Proszę pamiętać, że w sieci Hopfielda każdy neuron jest połączony ze wszystkimi pozostałymi, niezależnie od odległości). Aby wykorzystać swoje badania anatomiczne, Rolls nawiązał współpracę z fizykiem Ales-sandrem Trevesem i razem skonstruowali model regionu CAS, zgodny ze schematem sieci Hopfielda. Dało to fascynujące wynikł. Okazuje się, że nie wszystkie neurony w regionie CAS muszą być połączone z pozostałymi, aby mogły powstać asocjacje: pięcioprocentowe prawdopodobieństwo połączenia między neuronami wystarcza, by mogła działać pamięć. Z analizy wynika, że najważniejszy parametr wpływający na pamięć to liczba połączeń między neuronami w sieci – w przeliczeniu na jeden neuron. Podkreśla to znaczenie hipokampu w działaniu epizodycznej pamięci, gdy muszą powstać skojarzenia między różnymi elementami – na przykład między bukietem wina i pewnym obiadem. To wymaga licznych połączeń – nie wystarczy, by CAS był podzielony na wiele obszarów, gdyż wtedy nie mogłoby powstać skojarzenie bukietu wina, przechowywanego w przedziale A, z wspomnieniami obiadu, znajdującymi się w przedziale B.58 Z analizy Trevesa i Rollsa wynika, że im rzadsza reprezentacja – czyli im mniejsza część neuronów jest równocześnie pobudzona – tym więcej faktów można przechowywać i przywoływać z pamięci. Ten wynik można zrozumieć intuicyjnie, przyjmując, że mózg musi jak najlepiej wykorzystywać synapsy i nie poświęcać ich zbyt wiele na jedno wspomnienie. Rozumując w ten sposób, Rolls ocenił, że region CAS w hipokampie szczura może zmagazynować 36 000 "wspomnień".59 Taka przybliżona analiza matematyczna złożonej sieci połączeń w regionie CAS wygląda atrakcyjnie, ale nie stanowi ipso facto dowodu, że ten zespół neuronów działa jak sieć pamięciowa. Ryc. 9.5. Podział zadań między różnymi obszarami mózgu. Aby uwolnić się od konieczności przyjmowania matematycznych przybliżeń, Rolls i Treves zaczęli symulować region CA3 na stacji roboczej. Wykorzystali swoją znajomość działania tej struktury, żeby skonstruować odpowiednią sieć Hopfielda i zbadać, jak hipokamp pełni funkcję pamięci buforowej.60 Najpierw jednak musieli uogólnić model Hopfielda, aby zwiększyć złożoność tego modelu i w ten sposób uczynić go bardziej wiarygodnym biologicznie. Jeden z problemów z sieciami Hopfielda wiąże się z symetrią oddziaływań między neuronami: proces aktywacji działa tak samo na neuron pobudzany i na neuron pobudzający. Jest to nierealistyczne z punktu widzenia biologii. Istnieją jeszcze inne różnice między siecią Hopfielda i prawdziwą siecią neuronową. W sztucznej sieci neurony mają zazwyczaj postać węzłów binarnych – pobudzonych lub nie – natomiast tempo emisji sygnałów przez neurony w hipokampie zmienia się w sposób ciągły i w danej chwili tylko około 1% neuronów zajmuje się czymś sensownym. Aby nadać sieci Hopfielda bardziej realistyczną postać, zespół z Oksfordu wprowadził zmienne tempo pobudzania, asymetryczne połączenia i zmniejszył liczbę połączeń między neuronami. Mimo tych zmian sieć zachowała zdolność do zapamiętywania i przywoływania informacji. Może tworzyć atraktory, czyli doliny, w których przechowywane są wspomnienia. Z pracy oksfordzkich uczonych wynika, że wystarczy 5% danych wejściowych -powiedzmy, przelotne spojrzenie na czyjąś twarz – aby zrekonstruować całe wspomnienie. To pozwala sprawdzić całą koncepcję. Rolls i Treves sformułowali pewne przewidywania, jak powinien zachowywać się hipokamp we wcześniej nie zbadanych sytuacjach, gdy, na przykład, za pomocą środków farmakologicznych zostaną zablokowane pewne synapsy.61 Neurologia obliczeniowa Przez ponad dwa wieki podstawowe metody badania mózgu i zachowania zwierząt wywodziły się z podejścia wprowadzonego przez filozofów, takich jak Descartes, którzy uważali, że jedynym sposobem na poznanie działania mózgu jest introspekcja. Następnie wyzwanie podjęli neurolodzy, psychiatrzy i psycholodzy; ostatnio neurologia znalazła się w rękach biochemików, cytologów i biologów molekularnych. Jak to ilustruje praca Rollsa i Trevesa, istnieje inna możliwość, mianowicie neurologia obliczeniowa, która zajmuje się wykorzystaniem sieci neuronowych do poznawania struktury i funkcji mózgu. Do gwałtownego wzrostu zainteresowania neurologią obliczeniową przyczyniła się w dużej mierze publikacja w 1986 roku książki Porallel Distributed Processing, pod redakcją Rumel-harta i McClellanda. Jest to zbiór esejów o obliczeniach z wykorzystaniem sieci neuronowych, dotyczących przede wszystkim badań prowadzonych przez wiele lat przez zespół Parallel Distributed Processing (PDP) na Uniwersytecie Kalifornijskim w San Diego. Książka ta była bestsellerem w dziedzinie książek akademickich. Choć -jak się przekonaliśmy w rozdziale 5. – dzieło Rumelharta i McClellanda wywarło duży wpływ na całą społeczność uczonych zajmujących się sztuczną inteligencją, celem było tu przede wszystkim opisanie aktualnego stanu metod przetwarzania informacji za pomocą sieci neuronowych. Niektórzy biolodzy zarzucają takim przedsięwzięciom brak biologicznego realizmu,62 ale wynika to z niezrozumienia zasadniczej sprawy: cała nasza książka jest poświęcona temu, że bardzo złożone zachowanie może wynikać z zastosowania prostych reguł do dużego zbioru prostych elementów. Aby zrozumieć coś tak złożonego, jak emergencyjne właściwości mózgu, musimy zacząć od uproszczonych układów i wyodrębnić kluczowe cechy. Dopiero później będziemy mogli stopniowo dodawać wszystkie szczegóły, jakimi zajmuje się neuroanatomia. Sztuczne sieci neuronowe naśladują złożoność mózgu, wykorzystując nieliniowość i liczne połączenia między węzłami. Podobnie jak mózg, są to z natury równoległe urządzenia, które wykonują wiele czynności jednocześnie. Jakościowo ich procesory zachowują się jak neurony, a połączenia między nimi – jak synapsy. Dowolne "programowanie" takiej sieci polega na podaniu reguł, określających wagi połączeń między procesorami. "Programy" rozwiązujące różne problemy pojawiają się spontanicznie, wskutek działania sieci. Istnieją jednak ważne różnice między istniejącymi sztucznymi sieciami neuronowymi. Niektóre są bardziej realistyczne biologicznie, co zależy od ich architektury i metod stosowanych do zmiany połączeń między węzłami. Wielowarstwowy perceptron Rumelharta i McClellanda, który omówiliśmy w rozdziale 5., jest zbudowany z jednokierunkowych połączeń między warstwami neuronów i wyposażony w algorytm uczenia się z nadzorem, wykorzystujący proces wstecznej propagacji błędów. Wielowarstwowy perceptron jest trenowany na danych – aby na przykład potrafił rozróżniać okrągłe kształty geometryczne od kwadratowych – a jego działanie stale koryguje algorytm wstecznej propagacji, aż osiągnie zadowalającą sprawność. W tym stanie perceptron jest zdolny do "uogólniania" – to znaczy klasyfikuje piłkę do rugby jako "okrągławą", a dom – jako zbliżony do kwadratu. Zjawisko uczenia się pod nadzorem nauczyciela występuje w przyrodzie – w podobny sposób zdobywamy wiedzę w szkole. Jednak algorytm wstecznej propagacji per se nie jest prawdziwym mózgiem, a bardziej realistyczne sieci neuronowe mają inną strukturę. Z drugiej strony, jak to opisywaliśmy, wywodząca się z teorii szkła spinowego rekurencyjna sieć Hopfielda, w której istnieją połączenia między wszystkimi parami neuronów, przypomina nieco sieci naturalne, ponieważ neurony w rozległych obszarach mózgu są również bardzo gęsto połączone. Te sieci zazwyczaj biorą udział w procesach nadzorowanej nauki i gwarantują, że pejzaż dostosowań ma odpowiednią postać (zob. rozdział 5.). Istnieje jeszcze jeden rodzaj sieci, dotychczas tu nie omawiany, który daje wgląd w procesy zachodzące w mózgu. Chodzi o sieć, która zamiast uczyć się pod nadzorem, jest zdolna do znajdowania odpowiedzi, ucząc się samodzielnie. Teuvo Kohonen, informatyk z Uniwersytetu Helsińskiego w Finlandii, używa takich sieci do badania uczenia się bez nadzoru. Nikt nie podaje sieci poprawnego rozwiązania problemu – zamiast tego algorytm komputerowy powoduje, że sieć się sama organizuje, żeby rozwiązać problem, korzystając z informacji zaczerpniętych z zewnętrznego świata. Być może w taki sposób rozmaite sieci neuronowe w mózgu radzą sobie z różnymi zadaniami, takimi jak widzenie, kontrola ruchów, wąchanie i tak dalej. Biolodzy określają taką samoorganizację jako lokalizację funkcji mózgu. Samoorganizujące się sieci komputerowe stanowiły główny przedmiot badań Kohonena na długo przed ogromnym wzrostem zainteresowania sztucznymi sieciami neuronowymi w połowie lat osiemdziesiątych. Jego podejście umożliwia wgląd w procesy samoorganizacji w mózgu. Nim omówimy dokładniej prace obliczeniowe Kohonena, warto przypomnieć, co wiadomo na temat lokalizacji rozmaitych funkcji w mózgu. Kartografia mózgu Analiza przeznaczenia różnych obszarów mózgu do wykonywania różnych zadań jest ważną częścią badań mózgu: anatomowie zajmują się występującymi w nim strukturami, a psycholodzy obserwują reakcje na rozmaite iluzje; patolodzy ślęczą nad mikroskopijnymi fragmentami tkanki, fizjolodzy badają liczne mechanizmy działające w mózgu, a biolodzy molekularni starają się wykryć, w jaki sposób geny determinują jego strukturę – wszyscy usiłują przypisać poszczególne funkcje określonym ośrodkom. Koncepcja lokalizacji, jak ją dziś rozumiemy, narodziła się w Paryżu w 1861 roku, gdy francuski lekarz Pierre Paul Broca przedstawił w Societe d'Anthropologie przypadek pacjenta, określanego jako "Tan" – od jedynej sylaby, jaką potrafił wymówić. Sekcja wykazała, że w lewym płacie czołowym miał on dziurę "wielkości kurzego jaja". Broca stwierdził: "Wszystko pozwala nam zatem uznać, że w obecnym przypadku zmiany patologiczne w płacie czołowym były przyczyną utraty mowy".63 Kartografia mózgu rozwija się dzięki nieszczęściu chorych, którzy wskutek operacji, choroby lub uderzenia w głowę doznali uszkodzeń mózgu. Uczeni zajmujący się lokalizacją pamięci byli zafascynowani przypadkiem H.M., amerykańskiego robotnika pracującego przy taśmie, który w 1953 roku przeszedł operację, mającą uwolnić go od ataków padaczkowych. Podczas operacji chirurdzy wycięli mu hipokamp wraz z przyległą tkanką. W wyniku tego H.M. utracił pamięć długotrwałą, choć zachował pamięć krótkotrwałą, to znaczy pamiętał wydarzenia, jakie nastąpiły przed minutą.64 Po latach badań stało się jasne, że wielka synteza umysłowego życia zachodzi w pofałdowanej warstwie powierzchniowej dwóch symetrycznych półkul mózgowych, które stanowią dominujące elementy mózgu (zob. Ryc. 9.5). Warstwa ta – tak zwana kora mózgowa – składa się z licznych komórek, choć ma tylko dwa milimetry grubości. Mimo to w korze jest zaskakująco dużo miejsca na aktywność umysłową. Gdyby wygładzić pofałdowaną powierzchnię kory, miałaby ona wielkość dużej chustki. Sygnały wzrokowe są przetwarzane w tylnej części kory – tak zwanym płacie potylicznym. W lewej półkuli znajdują się ośrodki mowy. Płaty czołowe odpowiadają za skupianie uwagi, planowanie i zachowania społeczne. Z tyłu, pod półkulami mózgowymi, "tkwi" móżdżek, zajmujący się między innymi precyzyjną koordynacją ruchów ciała. Blisko hipokampu leży jądro migdałowate, struktura odpowiedzialna za pamięć uczuciową (np. zdolność rozpoznania strachu na twarzy).65 Na końcu pnia mózgu znajduje się wzgórze (istnieją dwa – dla każdej półkuli oddzielnie), czyli drzwi wiodące do kory mózgowej; wzgórze koordynuje wszystkie dane zmysłowe docierające do kory (z wyjątkiem sygnałów węchowych) i sygnały wyjściowe. Podwzgórze, które jest usytuowane pod wzgórzem, odpowiada za uczucia głodu, pragnienia, przyjemności i bólu. Przez wiele lat trwały dyskusje między neurofizjologami, czy poszczególne neurony w mózgu są zaprogramowane – być może genetycznie – do wykonywania specyficznych, lokalnych zadań, czy też funkcja komórek wynika ze spontanicznej samo-organizacji. Pierwszego podejścia bronią zwolennicy hipotezy "komórki babki", czyli tezy, że istnieje specjalna komórka, której zadaniem jest rozpoznawanie babki, oraz, oczywiście, niewiarygodnie duża liczba innych komórek tego typu. Jednak w całej tej książce mieliśmy okazję zapoznać się z nieprzeliczonymi przykładami emergencyjnych właściwości, wynikających z oddziaływań między prostymi elementami w warunkach nierównowagi. Oddziaływania opisane przez Turinga, które powodują powstanie struktur w reakcji Biełousowa-Żabotyńskiego, mogą również określić układ połączeń w mózgu. Biorąc pod uwagę naszą znajomość działania sieci neuronowych, wydaje się bardzo prawdopodobne, że lokalizacja pojawia się spontanicznie wskutek samoorganizacji sieci, bez potrzeby odwoływania się do komórki babki. Już w 1973 roku Christoph von der Malsburg, wówczas pracujący w Instytucie Maxa Plancka w Getyndze, otrzymał wyniki wskazujące na słuszność tej tezy.66 Później, współpracując z Davidem Willshawem z Edynburga, opracował on komputerowe modele neuronów z kory wzrokowej.67 Obaj uczeni zajmowali się połączeniami między siatkówką żaby i jej ośrodkiem wzrokowym w tectum. Willshaw i von der Malsburg badali odwzorowanie siatkówki na tectum (Ryc. 9.6) i odkryli zaskakującą elastyczność połączeń. Ryc. 9.6. Odwzorowanie siatkówki oka na (pokrywę śródmózgowia) żaby. Badania żab pozwoliły uzyskać fascynujący obraz procesów samoorganizacji, które kontrolują odwzorowanie neuronów w organach zmysłowych na neurony w mózgu. Jeśli, na przykład, w odpowiednim momencie rozwoju żaby usuniemy połowę siatkówki, neurony w drugiej połowie zostaną połączone z neuronami w całym tectum, aby zrekompensować brak części siatkówki. Jeśli natomiast usuniemy część tectum, cała siatkówka zostanie odwzorowana na pozostałą część. Taką spontaniczną zdolność do utworzenia "mapy topograficznej" odkrywamy w działaniu wszystkich zmysłów. Na przykład lokalny obszar w mózgu, odbierający sygnały z sąsiednich palców, podlega szybkiej reorganizacji po przecięciu nerwów jednego palca.68 Jeśli małpa jest tak wyćwiczona, że rozpoznaje szorstką powierzchnię danym palcem, to mapa tego palca w mózgu odpowiednio się powiększa. Na poziomie komórkowym neurony pozbawione informacji wytwarzają wiele receptorów i polują na nowe dane, dostarczane przez neuroprzekaźniki. Ryc. 9.7. Typowa architektura samoorganizującej się sieci Kohonena. Kółka odpowiadają neuronom, strzałki – połączeniom. Willshaw i von der Malsburg opracowali "odgórne" algorytmy dla sztucznej sieci neuronowej, które wykazują podobną elastyczność jak samoorganizująca się kora mózgowa. Zjawisko samoorganizacji badał dalej Kohonen, który wykorzystał uproszczoną wersję algorytmu Willshawa i von der Malsburga.69 Samoorganizujące się mapy mózgu Samoorganizująca się sieć neuronowa Kohonena różni się od wielowarstwowego perceptronu i sieci Hopfielda, ponieważ składa się z jednej, dwuwymiarowej warstwy neuronów; każdy z neuronów na wejściu jest połączony ze wszystkimi neuronami w tej warstwie (Ryc. 9.7). Podczas treningu, na przykład w czasie nauki przekształcania mowy w tekst, w sieci powstaje automatycznie odpowiednia mapa cech. Podobnie jak w przypadku przestrzennej organizacji komórki Rayleigha-Benarda i reakcji Biełousowa-Żabotyńskiego, kluczowym elementem sieci, pozwalającym na samoorganizację, jest nieliniowe sprzężenie zwrotne.70 Jednak cząsteczki w komórce konwektywnej lub podczas reakcji BZ oddziałują tylko z sąsiednimi komórkami, natomiast neurony mogą oddziaływać na dużą odległość. Sieć Kohonena ma mniejszą liczbę połączeń niż sieć Hopfielda: sprzężenie zwrotne ogranicza się do oddziaływań między procesorami znajdującymi się blisko siebie w dwuwymiarowej warstwie. Węzły tej warstwy generują odpowiedź i biorą udział w utworzeniu zorganizowanej mapy danych wejściowych. Kohonen, czerpiąc inspirację z biologii, wprowadził reguły działania sieci zdolnej do uczenia się bez nadzoru. Istnieje dość bliska analogia między tymi badaniami a pracą omawianą w rozdziale 7., dotyczącą morfogenezy hydry. Podobnie jak w tamtym przypadku, kluczowym elementem, pozwalającym na powstanie samoorganizujących się struktur neuronowych, jest kombinacja oddziaływań pobudzających i hamujących – w tym przypadku połączeń między neuronami. Neurony położone blisko aktywnej (pobudzonej) komórki – zachęcane do wysłania sygnału, a leżące dalej – hamowane. Kohonen uzasadnił wybór architektury i reguł uczenia się tym, że większość naturalnych sieci w mózgu, zwłaszcza w korze mózgowej, to dwuwymiarowe warstwy jednostek przetwarzających, gęsto połączonych mechanizmami horyzontalnego sprzężenia zwrotnego. Aby uzasadnić ilość połączeń między neuronami w swym modelu, Kohonen wskazał, że w korze mózgowej na każdy neuron przypada do 10 000 połączeń. Dowody doświadczalne – na przykład badania naczelnych – poświadczają istnienie tych współzawodniczących oddziaływań. Krótkozasięgowe wzbudzenia horyzontalne docierają na odległość 50-100 mikronów. Obszar wzbudzenia jest otoczony pierścieniem o średnicy 200-500 mikronów, składającym się z komórek poddanych oddziaływaniom hamującym. Wykres zmian poziomu pobudzenia w zależności od odległości ma postać sombrera (Ryc. 9.8).71 Ryc. 9.8. Wykres stopnia pobudzenia (pobudzanie '+', hamowanie '–') w zależności od odległości od danego neuronu ma postać sombrera. Taka zależność jest typowa dla mózgu ssaków. W modelu tym w naturalny sposób pojawia się lokalizacja funkcji, taka jaką obserwuje się w rzeczywistym mózgu. Sieci Kohonena znalazły wiele zastosowań. Sam Kohonen interesował się przede wszystkim budową "fonetycznej maszyny do pisania" – elektronicznego procesora tekstu, mogącego pisać pod dyktando. Jest to szczególnie trudne zadanie z zakresu rozumienia mowy. Jak wspomnieliśmy w rozdziale 5., symulacja naturalnego języka stwarza duże problemy. Oprócz podstawowej interpretacji dźwięków ludzie bez wysiłku uwzględniają inne czynniki, takie jak kontekst, składnię, rozbiór gramatyczny i wnioskowanie, a na dokładkę każdy człowiek mówi nieco inaczej. Nasz aparat słuchowy zawiera sprytny filtr, pozwalający wydzielić mowę z hałaśliwego tła, na przykład na przyjęciu.72 Uczeni poświęcili wiele energii na próby poradzenia sobie z tymi komplikacjami, używając konwencjonalnych metod, wykorzystujących specyficzne modele. Podejście Kohonena łączy najlepsze znane sposoby rozwiązania problemu przetwarzania mowy. Sieć neuronowa uczy się bez nadzoru rozpoznawania tylko podstawowych dźwięków -fonemów. Po treningu na różnych tekstach mówionych maszyna do pisania poprawnie zapisuje 92-97% tekstu dyktanda (oczywiście po fińsku, w ojczystym języku Kohonena – mającym charakter zdecydowanie fonetyczny).73 Kohonen następnie zmodyfikował sieć tak, aby radziła sobie z mówcami, którzy nie brali udziału w treningu. W tym celu opracował wariant samoorganizującej się mapy cech, dostrajający mapę utworzoną podczas treningu.74 Dopasowanie sieci do nowego mówcy wymaga około stu słów i dziesięciu minut treningu. Prace Kohonena miały duży wpływ na zwiększenie zainteresowania zastosowaniem sieci neuronowych do rozwiązywania złożonych problemów, nie tylko biologicznych. Rozwinięciem tych sieci są adaptacyjne sieci rezonansowe, które przedstawiliśmy w rozdziale 5. Takie sieci pozwalają przezwyciężyć dylemat stabilności i plastyczności oraz stanowią rozwinięcie koncepcji samoorganizującej się sieci Kohonena. Algorytmy mózgowe Rzecz jasna, sieci uczące się bez nadzoru mają swoje wady. Często składają się tylko z jednej warstwy, chociaż sieci naturalne są wielowarstwowe. Co gorsza, działają powoli i niedokładnie.75 Według Geoffreya Hintona, informatyka z Uniwersytetu w Toronto, wszystko, co wiemy na temat cyklu pracy neuronów – pobudzanych, gdy rozpoznajemy szept w szumie wielu rozmów lub ukryte znaczenie politycznego stwierdzenia – mówi nam wyraźnie, że obecne sztuczne sieci neuronowe są zbyt powolne.76 Najprawdopodobniej sieci biologiczne korzystają z algorytmów uczenia się, stanowiących kombinację metod "z nauczycielem" oraz "bez". Schematy opanowane bez nadzoru pozwalają na rozpoznawanie ogólnych cech zbiorów danych, natomiast pod kierunkiem nauczyciela sieć uczy się, które cechy są szczególnie ważne i na które trzeba zwracać uwagę.77 W przyszłości będziemy prawdopodobnie potrzebować nowych algorytmów. Hinton znajduje zachętę w jednym z odkryć neurobiologii: najbardziej interesująca część mózgu, mianowicie kora – w przeciwieństwie do starszych struktur – ma jednorodną strukturę. Można zatem przypuszczać, że całą korą rządzą te same reguły, niezależnie od tego, czy zajmuje się ona przetwarzaniem mowy, językiem czy też kontaktami towarzyskimi. "Jestem gotów się założyć, że w korze działają jeden lub dwa algorytmy – powiedział Hinton. – Jeden tworzy modele świata, drugi zaś generuje odpowiedzi związane z tymi modelami". Hinton przypuszcza również, że zagadkowe zjawiska umysłowe, takie jak sny, są naturalną konsekwencją procesów rozbudowy struktur i funkcji mózgu. Jego zdaniem rozwój algorytmów komputerowych oraz badania empiryczne doprowadzą do rozwiązania problemu w ciągu kilkudziesięciu lat. Powodzenie tego przedsięwzięcia zależy od dialogu między uczonymi przekonanymi, że do rozwiązania problemu potrzebujemy głębokich, podstawowych i ogólnych zasad, a tymi, którzy chcą tylko dokumentować najdrobniejsze szczegóły tego działania. Sieci wzrokowe Dzięki głębokiemu zrozumieniu procesu przetwarzania informacji Hinton zdołał podać algorytm, który kandyduje do roli algorytmu przetwarzającego sygnały wizualne. Jest to sztuczna sieć neuronowa, która zbiera surowe dane, dotyczące rzeczywistości – na przykład obraz na siatkówce – i przetwarza je tak, by powstała minimalna reprezentacja dla mózgu, pozwalająca na odtworzenie oryginalnego obrazu. Przypomina to kompresję danych lub telewizyjne metody przetwarzania sygnału, obmyślone tak, aby zmieścić jak najwięcej stacji w jednym paśmie: przekazywana jest tylko informacja na temat zmian obrazu, dzięki czemu opis może być krótszy. Istnieje tu podobieństwo do pracy zespołu Meada dotyczącej sztucznej siatkówki. Hinton stworzył algorytm działania samoorganizującej się sieci, wykorzystujący informacje o przypuszczalnych błędach w skompresowanym zapisie jako wewnętrzny wzór do oceny wierności reprezentacji. Nazwał go maszyną Helmholtza, by w ten sposób uczcić Her-manna von Helmholtza (1821-94), niemieckiego fizjologa i pioniera termodynamiki. Maszyna Helmholtza jest następczynią maszyny Boltzmanna, z którą zetknęliśmy się w rozdziale 5. Hinton wykorzystał prace Ralpha Linskera z IBM, który wcześniej odniósł pewne sukcesy w próbach modelowania widzenia. Sprzęgając dwie sieci Helmholtza, Hinton przeprowadził fascynujące badania, które świadczą o tym, że wsteczne połączenia w mózgu są odpowiedzialne za sny i fantazje, pomagające mózgowi w nauce rozpoznawania obrazów.78 Jak wykazały doświadczenia na kotach, wizualna plastyczność mózgu jest największa tuż po narodzinach. Kocięta rodzą się ślepe i otwierają oczy po tygodniu. W ciągu następnych trzech tygodni dialog między obserwowanym światem i mózgiem powoduje doskonalenie widzenia.79 W latach sześćdziesiątych David Hubel i Torsten Wiesel odkryli – co przyniosło im Nagrodę Nobla – że większość neuronów w pierwszorzędowej korze wzrokowej dorosłych kotów (i małp) reaguje, gdy w polu widzenia pojawi się linia o określonym nachyleniu. Różne komórki reagują na linie nachylone pod różnym kątem; cały zbiór komórek rozkłada obraz tak, aby przedstawić kształt przedmiotu za pomocą elementów o danej orientacji. Gdy jednak kociak otwiera oczy, tylko jedna piąta komórek kory wzrokowej jest dostosowana do wyszukiwania linii, przy czym większość z tych komórek reaguje na linie poziome lub pionowe. Przypuszczalnie połączenia odpowiedzialne za działanie tych z góry przygotowanych komórek kształtują się, nim jeszcze oczy zaczną reagować na światło, albo na podstawie instrukcji genetycznych, albo wskutek samoorganizacji stymulowanej przez spontaniczne bodźce, docierające do kory z siatkówki. Zdaniem Colina Blakemore'a z Uniwersytetu w Oksfordzie po otwarciu oczu przygotowane komórki, które na ogół występują w grupach w środkowych warstwach kory, mogą działać jako "nauczyciele".80 W ciągu kilku tygodni niemal wszystkie komórki uczą się reagować selektywnie na linie o danej orientacji i tworzą układ "kolumn": wszystkie komórki nad i pod przygotowaną grupą komórek reagują na ten sam kierunek. W tym przypadku nadzór nie polega na wstecznej propagacji, ale na dostarczaniu przez przygotowane komórki "sygnału uwarunkowującego". Dzięki temu pozostałe komórki uczą się rozróżniać kierunki, wykorzystując koincydencje między sygnałami docierającymi z siatkówki i z komórek nauczycieli. Posługiwanie się oczami we wczesnym okresie życia ma zasadnicze znaczenie dla rozwoju kory mózgowej. O znaczeniu wizualnych doświadczeń świadczy to, że proces uczenia się komórek nie następuje u zwierząt pozbawionych wzroku. Co więcej, na proces ten można wpływać, regulując wizualną "dietę". Colin Blakemore i jego koledzy wykazali 25 lat temu, że kocięta, które we wczesnym okresie życia widziały tylko pionowe białe i czarne pasy, miały później trudności z rozpoznawaniem linii poziomych. Można to wytłumaczyć jako konsekwencję faktu, że większość komórek w korze wzrokowej nabyła umiejętności rozpoznawania linii pionowych.81 Jeśli w kluczowym okresie życia, trwającym przez miesiąc, kot może się posługiwać tylko jednym okiem choćby przez dzień lub dwa, to drugie oko staje się dysfunkcjonalne, ponieważ większość komórek w korze przestaje w ogóle reagować na bodźce z tego oka. Takie trwałe zmiany w korze wzrokowej są pewną formą pamięci: być może polegają one na takich samych mechanizmach molekularnych i cząsteczkowych, jak długotrwałe wzmocnienie w hipokampie.82 Istnieje jednak ważna różnica między pamięciowym podejściem do przetwarzania obrazów i samą pamięcią: podczas gdy pamięć wykorzystuje sieć neuronów do przywołania danych wejściowych, sieci w korze wzrokowej posługują się tą formą pamięci – wczesną plastycznością – aby nauczyć się, jak przekształcić obraz na siatkówce w reprezentację umysłową. Jeden zbiór komórek mózgu może na przykład "zapamiętać" ruch w górę konturu. Podczas obserwacji samolotu może powstać skojarzenie ruchu skrzydeł do góry z podobnym ruchem statecznika pionowego. Stopniowo kora uczy się rozpoznawać kanty, koła, cylindryczne silniki, i w ten sposób powstaje reprezentacja umysłowa samolotu.83 Taki efekt "pamięci" występuje również w działaniu innych zmysłów u wielu zwierząt. Małpy rodzą się z lepiej przygotowanymi komórkami w pierwszorzędowej korze wzrokowej niż koty, a zatem pojawiają się na świecie, dysponując bardziej dojrzałym widzeniem, ale również potrzebują wizualnej stymulacji we wczesnym okresie życia. Świadczy to o tym, że "aktywna" zmiana w układzie połączeń w korze wzrokowej w czasie, gdy zwierzę jest świadome i próbuje zrozumieć otaczający je świat, jest równie ważna, jak pasywne powstawanie połączeń w okresie embrionalnym. Taka zależna od zachowania samoorganizacja wydaje się potwierdzać działanie ogólnych zasad, rządzących wagami synaptycznymi, jakie sformułował na przykład Hebb.84 Aby prześledzić, jak kora samoorganizuje się przez takie zjawiska pamięciowe, Ralph Linsker z laboratorium IBM w Yorktown Heights w stanie New Jersey skonstruował jednokierunkową, wielowarstwową sieć, w której każda warstwa tworzy z od kilkuset do kilku tysięcy sztucznych neuronów. Dla porównania, ośrodek wzrokowy w mózgu tworzy wiele milionów neuronów. Każdy neuron w sieci Lłnskera kontaktuje się z setkami innych, głównie ze swego otoczenia. Zaczynając od zaskakująco niewielu biologicznie prawdopodobnych reguł, rządzących zachowaniem neuronów (takich jak zasada Hebba), Linsker obserwował ewolucję połączeń, postępującą w miarę jak sieć optymalizowała swoje ogólne cechy, czyli "wzrok". Chciał w ten sposób sprawdzić, czy sieć wytworzy struktury do analizy obrazów na siatkówce, odgrywające ważną rolę w układach biologicznych. Okazało się, że tak: samoorganizacja sieci przeszła od układu połączeń z przypadkowymi wagami do sieci o właściwościach podobnych do tych, jakie wykazuje kora wzrokowa. Poszczególne neurony wzięły na siebie konkretne zadania.85 Tak było nawet wtedy, gdy sieć nie otrzymywała żadnych wizualnych danych wejściowych. Ostatnie badania sztucznych sieci neuronowych podpowiadają pewne wyjaśnienie wrażeń estetycznych, czy związanych ze szlachetnym kamieniem, czy z nogami Marilyn Monroe, czy wreszcie z obrazem Claude'a Moneta. Anthony Arak i Magnus Enquist przedstawili hipotezę, że to, iż pewne przedmioty są dla nas estetycznie pociągające, jest ubocznym efektem sposobu rozpoznawania obrazów przez mózg.86 W przypadku sieci neuronowej, zaprojektowanej tak, aby symulowała system rozpoznawania obrazów samicy ptaka, Arak i Enquist stwierdzili, że sztuczny "mózg" silniej reaguje na nowe obrazy samca niż na widok samców, które posłużyły do treningu. W szczególności mózg samicy reagował silniej na samce z dłuższym ogonem niż te, które oglądał podczas sesji treningowej. Co więcej, gdy uczeni pozwolili na ewolucję długości ogona i systemu wzrokowego samicy, samice preferowały coraz dłuższe ogony i stopniowo przestawały reagować na widok samców z ogonem pierwotnej długości. Upodobanie samic do przesadnie rozwiniętej cechy (w tym przypadku do długiego ogona) może spowodować jej dalszy rozwój w toku ewolucji, dopóki nie nabierze znaczenia poważne pogorszenie dostosowania długoogoniastego samca do przetrwania. Badania te potwierdzają oryginalną opinię Darwina, cytowaną przez Arakiego i Enquista: "Gdy podziwiamy samca pracowicie demonstrującego swe wspaniałe upierzenie lub piękne kolory [...], trudno nam wątpić, że samica również podziwia urodę partnera".87 Dokonując pewnej ekstrapolacji, możemy powiedzieć, że badania te sugerują, iż wrodzone skłonności – w osobistym życiu lub sztuce – są ubocznym wynikiem ewolucji mózgu, następującej w celu przetwarzania danych zmysłowych. Nasza pogarda dla obiektów nieregularnych, zniekształconych i poczwarnych wydaje się naturalną konsekwencją sposobu, w jaki mózg rozpoznaje obrazy. Możemy przynajmniej zrozumieć, dlaczego lubimy symetrię płatków śniegu, piękne twarze czy też Tygrysa Williama Blake'a, z jego "grozą symetrii". Dalsze badania Arakiego i Enquista, uzupełnione pracami Rufusa Johnstone'a,88 wykazały, że sieci neuronowe, uczone rozpoznawania obrazów, cechują się naturalną preferencją symetrii, ponieważ symetryczne obiekty są łatwiejsze do rozpoznania z wielu punktów widzenia – proszę porównać kulę i sześcian. To stwierdzenie zostało potwierdzone przez odkrycie, że inne stworzenia – na przykład kruki i małpy – również zdradzają upodobanie do symetrii.89 Integracja Znamy inne przykłady, ukazujące, jak możemy zrozumieć działanie naszych zmysłów na podstawie symulacji za pomocą sztucznych sieci neuronowych. Nie odpowiedzieliśmy jednak jeszcze na ważne i trudne pytanie, w jaki sposób sieci te oddziałują ze sobą. W szczególności rozwiązania domagają się: problem przeciwstawienia integracji i specjalizacji oraz związane z nim zagadnienie synchronizacji sieci. Wspomnieliśmy o tym problemie wcześniej, omawiając szczególną miarę złożoności układu nerwowego, opracowaną w Neurosciences Institute w La Jolla w celu ilościowego ujęcia subtelnego związku między funkcjami lokalnymi i globalnymi. Pewne ośrodki w mózgu rozpoznają twarze, inne rejestrują ruch, kolory i miny. Jak możemy pogodzić istnienie jednolitego umysłowego obrazu, a ostatecznie również jedności świadomości, z zaskakującą specjalizacją różnych ośrodków mózgu? To pytanie czysto określa się jako problem integracji. Sprawa ta może się wydać ezoteryczna, ale w rzeczywistości ma duże znaczenie w takich chorobach jak schizofrenia, która polega na załamaniu się tego procesu.90 Ta sama grupa z La Jolla – Olaf. Sporns, Leif Finkel, Giulio Tononi i laureat Nagrody Nobla, Gerald Edelman – skupiła uwagę na integracji w korze wzrokowej. Jak to się na przykład dzieje, że gdy patrzymy na czerwony płot ze sztachet, komórki w mózgu, które rozpoznają pionową orientację sztachet, wiedzą, iż źródłem bodźca jest ten sam obiekt, który sprawia, że inne komórki rejestrują kolor czerwony? Zespół amerykański skorzystał z badań Charlesa Graya i Wolfa Singera z Instytutu Maxa Plancka we Frankfurcie, którzy wykryli znaczącą koordynację w działaniu neuronów pierw-szorzędowej kory wzrokowej kota.91 Doświadczenia Graya i Singera wskazują, że różne procesy zachodzące w mózgu są precyzyjnie uporządkowane w czasie. Zainspirowani tymi wynikami, Sporn i jego współpracownicy stworzyli model komputerowy kory wzrokowej, wykorzystujący czasowe właściwości działania sieci, które składają się z około dwustu tysięcy neuronów. Neurony zostały podzielone na trzy grupy, zajmujące się kształtem, kolorem i ruchem, tak jak w systemie wzrokowym ssaków. Aby przetworzyć obraz z wideokamery, zespół połączył poszczególne jednostki w biologicznie prawdopodobny sposób, wprowadzając kilka milionów połączeń, głównie między poszczególnymi mapami wizualnymi.92 Modele te, łączące do dziewięciu ośrodków korowych, wykazały, że istnieje dynamiczny sposób na integrację, który może zastąpić tradycyjną ideę statycznej, integrującej "komórki babki". Zespół z La Jolla wykorzystał swoją metodę do wyodrębnienia figury, poruszającej się na tle różnych innych obiektów, oraz do wyjaśnienia iluzji wzrokowych i zjawiska Gestalt, kształty oraz symbole, które oglądane z bliska wydają się pozbawione sensu, widziane z większej odległości – tak że postrzegamy je w całości – układają się w obrazy twarzy lub innej figury.93 John Taylor z Kings College w Londynie zastosował bardziej wyidealizowaną sieć neuronową do modelowania części mózgu – zwanej nucleus reticuloris tholami (jądro siatkowate) – która jest miejscem, gdzie współzawodniczą różne procesy, zachodzące w oddzielnych ośrodkach korowych.94 Taylor wyobraża sobie jądro siatkowate jako korytarz łączący prymitywne ośrodki, które rządzą emocjami, oraz dane, pochodzące z oczu i uszu, z korą mózgową, zewnętrzną warstwą mózgu, odpowiedzialną za pamięć, język, myślenie i intelekt. W swoim neuronowym modelu Taylor symuluje ten proces, dopuszczając konkurencję w sieci neuronów hamujących. W ten sposób powstaje pojedyncza fala elektrycznej aktywności, przechodząca przez całą sieć, która -jak twierdzi Taylor – gwarantuje globalną korelację procesów zachodzących w korze. Podobne fale aktywności obserwowano in vivo, posługując się magnetoencefalografłą, metodą badania mózgu, którą omówimy w Dodatku. "Właśnie czegoś takiego spodziewałbym się na podstawie mojego modelu" – stwierdza Taylor.95 Nie ma jeszcze ustalonej opinii na temat znaczenia tych badań, choć pod pewnymi względami stanowią one uzupełnienie darwinowskiego modelu procesów myślowych, zaproponowanego przez Edelmana. Według niego idee konkurują o "przestrzeń roboczą" w mózgu. Postrzegane w danej chwili otoczenie i zapamiętane doświadczenia mogą wpływać na konkurencję i kształtować wynik myślenia.96 Nie powinniśmy jednak zapominać, że nikomu jeszcze nie udało się stworzyć wiarygodnego modelu funkcji poznawczych wyższego rzędu, takich jak świadomość, nie mówiąc już o stanach emocjonalnych – szczęściu, przyjemności, bólu i smutku. Sieci neuronowe i uszkodzenia mózgu Kolejną demonstracją realizmu sztucznych sieci neuronowych było zastosowanie ich do modelowania skutków uszkodzeń mózgu. Tim Shallice z University College w Londynie, współpracując z Geoffreyem Hintonem i Davidem Plautem, użył sieci neuronowej do wyjaśniania, jak uszkodzenia spowodowane udarem mogą prowadzić do zaburzeń wzroku i trudności z wymówieniem niektórych abstrakcyjnych słów. Takie objawy poprzednio wydawały się zupełnie przypadkowe.97 Próby ponownego wyćwiczenia sieci neuronowej po wypadku pozwalają wybrać najlepszą strategię postępowania. Lekarze mogą obecnie wypróbowywać metody rehabilitacji, oparte na takich teoretycznych podstawach.98 Sieci neuronowe zastosowano również do symulowania rodzaju niepamięci, zwanej agnozją twarzy, spowodowanej przez patologiczne zmiany na granicy między płatem potylicznym i płatem skroniowym kory mózgowej. Chory nie potrafi rozpoznawać twarzy przyjaciół i członków rodziny, a nawet własnej fotografii. Tacy pacjenci często mają trudności z rozróżnianiem poszczególnych obiektów z danej grupy. Zazwyczaj potrafią poprawnie sklasyfikować takie obiekty, jak samochody, psy, koty i garnki, ale nie są w stanie zidentyfikować rozmaitych obiektów z jednego zbioru. Ponieważ agnozja twarzy dotyka tylko wizualnego rozpoznawania twarzy i innych obiektów, chory może rozpoznać osobę na podstawie innych wskazówek, takich jak postawa lub sposób chodzenia, czy też korzystając z innych zmysłów, na przykład słuchu. Bywa, że nie poznaje swego ulubionego kota, ale gdy słyszy jego miauczenie, natychmiast wie, z kim ma do czynienia. Jak zwykle, badając nieszczęsnych pacjentów, uczeni mogą dowiedzieć się czegoś o tym, w jaki sposób informacja na temat poszczególnych obiektów jest przechowywana w mózgu. Czy istnieje wiele reprezentacji jednego obiektu, każda odpowiadająca danym dostarczanym przez inny organ zmysłowy, na przykład wzrok, słuch i węch? A może mamy do czynienia z jedną abstrakcyjną reprezentacją, do której można się odwołać poprzez różne zmysły? Tę koncepcję łatwo zrozumieć, przypominając sobie nasze rozważania z rozdziału 5., dotyczące rekurencyjnych sieci neuronowych. Dane wejściowe z różnych zmysłów mogą zostać zarejestrowane w pewnym globalnym stanie – atraktorze – który reprezentuje kota Puszka. Określenie "globalny" oznacza, że stan ten jest rozłożony w przestrzeni, czyli neurony, których kolektywne pobudzenie stanowi reprezentację Puszka, są rozlokowane w całym mózgu. Jeśli nasza interpretacja agnozji twarzy jest poprawna, to po przecięciu drogi wizualnej, wiodącej do pojęcia Puszka, można do niego dotrzeć innymi drogami sensorycznymi. Jest nawet możliwe, że pacjent, po znalezieniu takiej alternatywnej drogi do neuronowej reprezentacji Puszka, potrafi poprawnie opisać jego atrybuty wizualne." Zgodnie z tą hipotezą istnieje hierarchia sieci rekurencyjnych, umieszczonych jedna w drugiej. Jeśli tak, to można się spodziewać, że wskutek zmian patologicznych ulegną przerwaniu pewne synapsy: pierwsze ulegną zniszczeniu szczegółowe wyuczone wzory (bardziej specyficzne, indywidualne), natomiast szersze klasy powinny przetrwać. Argentyński fizyk Miguel Virasoro z Universita degli Studi di Roma "La Sapienza" – a obecnie dyrektor Międzynarodowego Centrum Fizyki Teoretycznej w Trieście – badał, czym różni się mechanizm przypominania całej klasy zapamiętanych obiektów (np. twarzy) od rozpoznawania poszczególnych obiektów (twarzy jednego człowieka). Używając do symulacji sieci neuronowej typu Hopfielda, Virasoro stwierdził, że stabilność klas jest znacznie większa niż poszczególnych obiektów. Inaczej mówiąc, uszkodzenia mózgu powinny na ogół uniemożliwić rozpoznanie twarzy pojedynczych osób, tak jak się dzieje w przypadkach agnozji twarzy.100 Świadomość Jeszcze niedawno w kręgach naukowych badania świadomości nie były w modzie. Powszechnie sądzono – jak nadal uważa wielu naukowców – że zjawisko to leży poza granicami nauki. Jedną z kluczowych cech świadomości jest subiektywność -każdy z nas zna tylko stan swojej świadomości. Królestwo subiektywnych przeżyć zawsze uważano za ściśle prywatną domenę. Jednak współczesne techniki skanowania mózgu (por. Dodatek) pozwalają obecnie podglądać ten prywatny świat, a sztuczne sieci neuronowe umożliwiają modelowanie go. Skonstruowanie sztucznej świadomości jest ambitnym zadaniem, którego nikomu jeszcze nie udało się rozwiązać, ale liczne przykłady symulacji komputerowych nadzwyczaj złożonych układów rzeczywistych powinny nas zachęcić do dalszych wysiłków. Jeśli weźmiemy pod uwagę postęp, jaki się dokonał w tej dziedzinie, nie powinna nas zaskoczyć tocząca się obecnie żywa debata między filozofami i uczonymi o tym, jakie cechy półtorakilogramowej masy szarej i białej substancji sprawiają, że ma ona świadomość.101 W jednej sprawie niemal wszyscy się zgadzają: badanie świadomości jest bodaj najtrudniejszym i najbardziej fascynującym przedsięwzięciem w historii nauki. Rozwiązanie problemu wymaga poznania nadzwyczajnej złożoności układu neuronów i synaps w mózgu. Podniecenie, jakie wywołują te badania, z pewnością związane jest z głoszonym przez niektórych uczonych poglądem, że przetrwanie naszego gatunku i całej planety zależy od zrozumienia struktury ludzkiego mózgu.102 Na intensywność badań niewątpliwie wpływa to, że coraz więcej uczonych wierzy, iż wyjaśnienie świadomości – neurobiologiczne lub neuroobliczeniowe – jest obecnie możliwe. Francis Crick stwierdził: "Wierzę, że problem świadomości można obecnie zaatakować w naukowy sposób [...]. Jakości (qualia), które postrzegamy – na przykład czerwień czerwonych przedmiotów – mogą mieć prywatny charakter, ale powinno być możliwe odkrycie ogólnego typu aktywności mózgu, która odpowiada świadomości".103 Aby stwierdzić, na czym polega ta aktywność, Crick i jego współpracownik, Christof Koch, badają iluzje wzrokowe, występujące, gdy patrzymy na sześcian Neckera – rysunek sześcianu w perspektywie, który wydaje się wchodzić w stronę lub z niej wystawać, zależnie od tego, jak długo się mu przypatrujemy (Ryc. 9.9). "Pomijając ruchy oczu, sygnał docierający do siatkówki jest stały, a jednak obraz się zmienia – zauważa Crick. – Chcemy stwierdzić, które neurony w mózgu zmieniają stan, gdy zmienia się sposób postrzegania sześcianu".104 Ryc. 9.9. Złudzenia optyczne. Sześcian Neckera. Do powstania kontrowersji przyczynia się brak precyzyjnej definicji świadomości. Jest to cecha nie uszkodzonego ludzkiego mózgu, podobnie jak żółta poświata stanowi własność atomów sodu. W przeciwieństwie do długości fali żółtego światła, emitowanego przez atomy sodu, świadomość nie jest normalną, obserwowalną cechą.105 Oczywiście, można ją obserwować za pomocą szczególnej techniki, zwanej introspekcją. Słowniki usiłują określić tę nieuchwytną cechę jako "stan umysłu człowieka przytomnego, umysłową znajomość dowolnego obiektu, przytomność, myślenie".106 Niestety, "umysł" to również pojęcie odnoszące się do ulotnego, niematerialnego obiektu, a zatem grozi nam błędne koło, chyba że zaakceptujemy kartezjański dualizm, to znaczy uznamy umysł i materię za oddzielne, niezależne byty. Możemy powrócić na teren nauki, zastępując w definicji słowo "umysł" przez "mózg". Pozostaje jednak do rozstrzygnięcia pytanie, czy mamy przypisać świadomość jakiemuś homunkulusowi w mózgu – przypominającemu widza w kartezjańskim teatrze, obserwującego wszystkie nasze przeżycia – czy też możemy opisać świadomość w sposób fizjologicznie spójny i jednolity. Gerald Edelman jest przekonany, że tajemnicy świadomości nigdy nie uda się rozwiązać na jednym poziomie opisu – molekularnym, neuronowym lub psychologicznym. Zamiast tego kładzie on nacisk na skutki ewolucyjnego doboru na wielu poziomach, poczynając od miliardów połączeń między neuronami. Stojąc przed koniecznością walki o przetrwanie, mózg, aby uporządkować chaotyczny świat, wykazuje wielką plastyczność i dostosowuje się do sytuacji, nieustannie kategoryzując wrażenia. "Nerwy razem pobudzane są łączone" – powiada Edelman.107 Każda mapa neuronowa, każda część mózgu jest dynamicznie połączona z pozostałymi, w toku ciągłej wymiany sygnałów ewoluuje i integruje się z innymi.108 Tak więc mózg nieustannie sporządza mapy świata i porównuje je ze sobą. Najważniejsze jednak, że ta ewolucja jaźni jest możliwa wskutek doboru i wzmacniania istniejących grup neuronów oraz powstawania nowych sieci na podstawie "systemu wartości", wywodzących się z ewolucji, takich jak odruchy, smak i apetyt. 109 Wszystkie te procesy prowadzą do powstania niepowtarzalnych systemów połączeń, nawet u bliźniąt jednojajowych. Zrozumienie, w jaki sposób mózg kategoryzuje świat, ma zasadnicze znaczenie dla wyjaśnienia świadomości. Jak wyraził to Edelman: "Świat nie pojawia się w eleganckich pudełkach z etykietami".110 Sztuczne sieci neuronowe i komputery równolegle stanowią trwały oraz ważny element obecnych prób zrozumienia świadomości. Jeśli wyobrazimy sobie mózg jako urządzenie z bardzo licznymi procesorami równoległymi, możemy zrezygnować z koncepcji kartezjańskiego teatru, na którym rozgrywają się zdarzenia obserwowane przez wszystkowidzącego homunkulusa. Ponieważ homunkulus nie istnieje, możemy też odrzucić dualizm, czyli tezę o niezależności materii i umysłu. Na przykład filozof Daniel Dennett twierdzi: "Nie podlega dyskusji fakt, że mózg to komputer. Nie jest to dobrze wszystkim znany komputer von Neumanna, lecz komputer o architekturze równoległej. Nazwa mojej teorii świadomości stanowi aluzję do takiej architektury. Wyobrażam sobie, że mózg działa podobnie do prezydentury Rea-gana – mnóstwo niższych agencji i koalicji oraz konkurujący ze sobą urzędnicy pracują jednocześnie, by stworzyć iluzję, że wszystkim w rzeczywistości kieruje jeden Szef.111 Taki obraz świadomości nie zgadza się z tradycyjnym celem redukcjonistów, jakim jest rozkład działania mózgu na elementy składowe. "Nauka zawsze odnosiła największe tryumfy, gdy potrafiła rozłożyć skomplikowany problem na bardzo proste elementy. Postępując tak samo w przypadku mózgu, ryzykujemy, że pozostaną nam w rękach jedynie połamane kawałki. Odwołując się do porównania, możemy powiedzieć, że chcąc zrozumieć wartość pieniędzy, nie powinniśmy gapić się na dolarowe banknoty – pisał von der Malsburg. – Zamiast tego musimy zrozumieć cały system przekonań i zwyczajów, dzięki którym pieniądze mogą pełnić swoją funkcję. Chcę przez to powiedzieć, że nie powinniśmy oczekiwać, że jakaś wyizolowana część mózgu jest siedzibą świadomości. Świadomość tkwi w typach oddziaływania wszystkich części mózgu, a może nawet w sposobie, w jaki mózg tworzy całość ze światem społecznym i fizycznym".112 Sztuczna świadomość Najtrudniejszym testem naszego rozumienia działania mózgu będzie próba skonstruowania jego sztucznego odpowiednika, wykazującego takie cechy, jak inteligencja i świadomość. Jak się przekonaliśmy, już obecnie sztuczne sieci neuronowe dają wgląd w działanie pamięci, mechanizmu rozpoznawania obrazów i organizację mózgu. Bardziej realistyczne modele funkcji mózgu oraz znajomość sztucznego życia pozwolą nam zrozumieć, dlaczego również istoty nie należące do świata przyrody mogą cechować inteligentne zachowania i świadomość. Zapewne najważniejszy wynik początkowych dyskusji na temat sztucznej inteligencji zawdzięczamy Alanowi Turingowi, który zajął pragmatyczne, "operacyjne" stanowisko. Operacjonista powiedziałby, że komputer ma ludzką cechę, gdy potrafi ją imitować tak dobrze, że pod tym względem jest nieodróżnialny od człowieka. Turing przedstawił opis swojego testu w artykule Computing Machinery and Intelligence, który ukazał się w piśmie filozoficznym "Mind" w 1950 roku. Turing argumentował, że należy uznać, iż komputer jest zdolny do myślenia, jeśli człowiek, prowadząc z nim dialog za pośrednictwem poczty elektronicznej, nie może stwierdzić, czy rozmawia z człowiekiem, czy z maszyną. Takie zagadnienia mają poważne znaczenie filozoficzne i zaowocowały ogromną literaturą.113 Znany matematyk, sir Roger Penrose, w swej prowokującej, bardzo znanej książce Nowy umyśl cesarza przedstawił interesującą krytykę całego pomysłu sztucznej inteligencji (AI). Swoje poglądy uściślił i rozwinął w kolejnej książce, Shadows of the Mind.114 Jego argumenty opierają się na twierdzeniach Godła o nierozstrzygalności w logice matematycznej, z którymi zetknęliśmy się w rozdziale 2. Penrose twierdzi, że ludzki mózg jest zdolny "dostrzec" prawdę lub fałsz twierdzeń typu Godła, których wartości logicznej nie można ustalić w ramach formalnego systemu aksjomatycznego. Nie oznacza to, że ludzki mózg zasadniczo różni się od zwierzęcego. Według Penrosa istotne jest to, że ta zdolność "to jasny przykład nieobliczalności – nieobliczalności, która musi występować w dowolnym procesie wykazującym świadomość i która nie jest wyjątkową cechą ludzkiego mózgu".115 Skoro możemy wykroczyć poza formalny system aksjornatyczny – argumentuje Penrose -i uzyskać wgląd w wartość logiczną takich nierozstrzygalnych twierdzeń za pomocą rozumowania, mającego jednak charakter matematyczny, wynika z tego, że nasz mózg nie działa algo-rytmicznie. Ponieważ komputery tylko wykonują zaprogramowane instrukcje, czyli realizują algorytm, wobec tego nie mogą być tak inteligentne, jak my. Gdyby wywód Penrose'a był słuszny, to ambitny cel zwolenników silnej sztucznej inteligencji – skonstruowanie świadomego urządzenia obliczeniowego – rozsypałby się w proch. Argumenty Penrose'a wydają się dość przekonujące, a jednocześnie mają pewien mistyczny urok. Podobnie jak wielu matematyków, Penrose wierzy w platoński świat matematycznych pojęć, istniejący niezależnie od nas, z którym możemy nawiązać kontakt, uprawiając matematykę.116 Z twierdzenia Godła wynika, że przynajmniej część tego abstrakcyjnego świata pozostanie na zawsze poza zasięgiem "głupich" algorytmicznych obliczeń. Ludzkie świadome mózgi – a raczej mózgi matematyków – są konieczne, żeby dotrzeć do platońskiego kosmosu i znaleźć rozwiązania tych nieobliczalnych problemów. Roger Penrose idzie w swym rozumowaniu jeszcze dalej. Jak się przekonaliśmy w rozdziale 2., nie można wykluczyć, że pewne prawa fizyczne, w obecnej postaci matematycznej, mają nieobliczalne konsekwencje. Opisaliśmy tę możliwość, rozważając matematyczne prace Pour-El i Richardsa – znaczenie tych prac dla fizyki pozostaje niejasne. Z przyczyn całkowicie nie związanych ze sztuczną inteligencją Penrose twierdzi, że wiele problemów występujących w mechanice kwantowej i teorii grawitacji można rozwiązać, jawnie uwzględniając nieobliczalne elementy w bardziej udanej, lecz dotychczas nieznanej kwantowej teorii grawitacji.117 To jest dla niego podstawą spekulacji, że inteligencja i świadomość mózgu są konsekwencją rzekomo niealgorytmicznej nowej fizyki. Aby przejść od obecnie nieznanej kwantowej grawitacji do neuronów w świadomym mózgu, Penrose odwołuje się do koncepcji Stuarta Hameroffa, dotyczących mikrotubuli.118 Większość neurologów przyjmuje, że mikrotubule stanowią "szkielet" neuronu, który pełni dwie funkcje: kontroluje kształt neuronu oraz transportuje cząsteczki od ciała komórki do synaps i z powrotem. Penrose wykracza poza ten powszechnie uznany pogląd i sugeruje, że sieć mikrotubuli zachowuje się w sposób analogiczny do zjawisk zachodzących podczas kwantowych pomiarów, co jest źródłem nieobliczalności, koniecznej – zdaniem uczonego – do powstania świadomości. Jednak mikrotubule stanowią tylko część całego układu, jaki wyobraża sobie Penrose; układ wymaga, aby wiele komórek działało w synchronizowany sposób.119 "Neuronowy poziom opisu, któremu odpowiadają modne obecnie modele mózgu i umysłu, jest tylko cieniem głębszego poziomu cytoszkieletowego, i to na rym głębszym poziomie musimy szukać fizycznej podstawy umysłu!"120 Podstawowy argument Penrose'a i innych przeciwników sztucznej inteligencji, w którym odwołują się oni do twierdzenia Godła, był mocno krytykowany.121 Crick uważa, że rozszerzając swe koncepcje na mikrotubule, Penrose mówi o rzeczach, o których nie ma pojęcia.122 Sugestia, że mikrotubule mają duże znaczenie dla świadomości, nie zrobiła większego wrażenia na sir Aronie Klugu, uczonym, który zbadał ich trójwymiarową strukturę.123 Gerald Edelman wskazuje, że "istnieje staromodne lekarstwo na podagrę i artretyzm, które rozpuszcza mikrotubule – co się dzieje wówczas z ludzką duszą?"124 Mimo wielu krytycznych uwag wywód sir Rogera Penrose'a na temat ulotności obliczeniowej świadomości jest bardzo ważny i niepodobna go pochopnie odrzucać. Można natomiast twierdzić, że stanowisko Penrose'a wynika ze zbyt restryktywnego pojęcia komputera. Twierdzenie Godła należy do logiki i mówi o matematycznych systemach aksjomatycznych, nie zaś o maszynach. Michael Arbib, informatyk z Uniwersytetu Południowej Kalifornii, stwierdził wiele lat temu, podobnie jak inni, że twierdzenie Godła, choć niewątpliwe fascynujące, jest pozbawionym znaczenia faktem matematycznym. "Ci z nas, którzy modelują ludzką inteligencję, wiedzą, że ludzie nie zawsze rozumują na podstawie aksjomatów. Rozumujemy posługując się analogiami. Wciąż uczymy się nowych rzeczy. Popełniamy błędy. Nie jesteśmy spójni, w przeciwieństwie do aksjomatów" – wylicza Arbib.125 Twierdzenie Godła wyznaczałoby granice możliwości sztucznej inteligencji tylko wtedy, gdyby ograniczała się do układów typu GOFAI.126 Penrose uważa możliwość nauczenia komputerów aksjomatów matematycznych i praktycznych reguł za bez znaczenia dla sposobu, w jaki ludzie rozumieją matematykę.127 Zdaniem większości to jednak właśnie umiejętność uczenia się pozwala uniknąć nowoczesnym systemom AI ograniczeń wynikających z twierdzenia Godła, jak zresztą twierdził Turing już wiele lat temu.128 Dowolna sztuczna świadomość będzie zdolna do włączania nowych aksjomatów do swej struktury, kierując się doświadczeniem lub innymi danymi. Neuronowe maszyny obliczeniowe, zbudowane na wzór mózgu, nie mają być maszynami do logicznego wnioskowania, lecz urządzeniami, oddziałującymi ze światem i uczącymi się na podstawie popełnionych błędów – mają nieustannie dopasowywać swoje zachowanie do świata. Zdaniem Arbiba: "Twierdzenie Godła absolutnie nic nam nie mówi na ten temat".129 To mylny trop. 13° Większość uczonych zajmujących się symulacjami inteligencji i świadomości uważa, że prawdziwe wyzwanie polega na zrozumieniu biochemicznej maszyny, zwanej mózgiem. Upadek GOFAI doprowadził do powstania wielu strategii obliczeniowych, które omawialiśmy w tej książce. Obecnie trwa ewolucja menażerii współzawodniczących metod, co może tylko wzbogacić badania sztucznej inteligencji. Z pewnością będą się one dalej rozwijać, niezależnie od argumentów Penrose'a, skierowanych przeciw silnej sztucznej inteligencji. Na przykład budowa mózgu człowieka i ślimaka jest w wielu szczegółach podobna, choć możliwości tych organów znacznie się różnią, co odpowiada ich względnej złożoności. Wydaje się bardzo prawdopodobne, że różne stopnie złożoności prowadzą do odmiennych stopni świadomości. Wobec tego dążenie do zbudowania sztucznej inteligencji jest równoważne ze wzrostem złożoności konstruowanych urządzeń. Opisaliśmy już próby rekonstrukcji złożonych układów chemicznych, z których zbudowany jest mózg; próby te są jeszcze bardzo prymitywne. Inne podejście polega na próbach stworzenia dostatecznie złożonych sieci neuronowych albo na poziomie elektroniki komputera, albo na poziomie oprogramowania. Choć taka reprezentacja neuronów jest bez porównania prostsza niż uzyskiwana metodami chemicznymi, wykazuje ona kilka cech, mających zasadnicze znaczenie dla funkcjonowania mózgu. Jeszcze ważniejsze jest to, że złożoność takich sieci wynika z kolektywnego działania dużej liczby prostych elementów, tak samo jak złożoność mózgu wynika z połączenia miliardów neuronów. Nowa cecha sieci neuronowych to brak jawnego programu. Oczywiście, jakiś algorytm jest zawsze obecny we wszystkich symulacjach za pomocą sieci neuronowych – gdyż bez niego nie można określić dynamiki uczenia się sieci – podobnie jak kod genetyczny "programuje" architekturę i tryb uczenia się mózgu. Jednak takie sieci, gdy już działają, uczą się na podstawie oddziaływań ze światem. Wobec tego można sobie łatwo wyobrazić, że dostatecznie złożona maszyna nauczy się "dostrzegać" wartość logiczną pewnych nierozstrzygalnych zdań Godła. W rzeczywistości w taki sam sposób niektórzy ludzie zdobywają umiejętność rozwiązywania problemów Godła – konieczne jest do tego dostateczne wykształcenie (czyli długotrwały i bardzo wyspecjalizowany proces uczenia się), które pozwala im wykroczyć poza ograniczenia systemów formalnych. A jeśli nawet, jak twierdzi Penrose, istnieją znaczące ograniczenia inteligencji cyfrowych sieci neuronowych, analogowe sieci rekurencyjne są zdolne do wykonywania obliczeń przekraczających możliwości uniwersalnej, skończonej maszyny Turinga.131 Niezależnie od tego, jakie prawa fizyczne rządzą mózgiem, jedno jest pewne: prawom tym podlegają dowolne obiekty fizyczne, zarówno neurony, jak i kostki krzemowe. Większość uczonych uważa, że pozostało dużo do zrobienia w dziedzinie konwencjonalnych badań złożoności mózgu. Jak podkreślaliśmy w całej książce, znana nam fizyka prowadzi do tak złożonego zachowania, że jest w stanie wyjaśnić podstawowe procesy życia i mózgu. "Nikt jeszcze nie stwierdził, że jego badania hipokampu utknęły w miejscu, ponieważ podstawowe prawa fizyki są zbyt restryktywne" – zauważył Arbib.132 To nie oznacza, że wykluczamy możliwość rewolucji. Podobnie jak badania układów mikroskopowych doprowadziły do odkrycia mechaniki kwantowej, a badania Wszechświata przyniosły ogólną teorię względności, tak samo może się zdarzyć, że badania układów złożonych zaowocują odkryciem nowych podstawowych praw. Jednak zdecydowana większość uczonych zajmujących się mózgiem, inteligencją i świadomością zgodziłaby się ze stwierdzeniem Arbiba: "Byłbym zaskoczony, gdyby się okazało, że -jak twierdzi Penrose – odpowiedź tkwi w kwantowej grawitacji. Byłby to czysty przypadek". Maszyna do snów Daleko nam jeszcze do symulowania działania mózgu ze wszystkimi jego szczegółami. Mimo to nawet w bardzo uproszczonych symulacjach zdarzają się niespodzianki. Przykładem może być model Rogera Trauba z IBM, który, współpracując z Uniwersytetem Columbia, stworzył komputerowy model hl-pokampu, zdecydowanie różniący się od modelu Trevesa i Rol-Isa. Traub chciał zbadać elektryczne rytmy w mózgu. Jego model składał się z dziesięciu tysięcy sztucznych neuronów, stanowiących dość wierną mikroskopową kopię naturalnych neuronów i reagujących w bardzo podobny sposób. Był to przykład oddolnego podejścia do symulacji złożoności, stylem przypominającego symulacje serca, prowadzone przez Denisa Noble'a. Nieoczekiwanie sieć Trauba wytworzyła elektryczne fale, podobne do tych, jakie są generowane przez duże populacje komórek mózgu. Takie fale można wykryć metodą elektroencefalografii. Traub zarejestrował między innym "rytm theta", który pojawia się, gdy pacjent śpi. Nie znamy pochodzenia tego rytmu ani w mózgu, ani w komputerze IBM 3090. "To spora niespodzianka – stwierdził Traub.133 – Gdy zaczynaliśmy, używaliśmy tego modelu wyłącznie po to, aby potwierdzić obserwacje laboratoryjne. Teraz robimy z nim doświadczenia, tak jakby to był żywy organizm". Traub, współpracując z Johnem Jefferysem z St. Mary's Hospital Medical School w Londynie, rozwinął swój model tak, aby opisywał najgwałtowniejszy wybuch elektrycznej aktywności, jaki zdarza się w mózgu, gdy podczas ataku padaczkowego z jednego miejsca w mózgu rozchodzi się bardzo silny sygnał. Szczególnie uderzająca w jego symulacjach jest zgodność tak zwanych rozładowań następczych z obserwacjami podobnych procesów w hipokampie świnki morskiej. (Rozładowanie następcze to anomalny potencjał elektryczny, trwający przez pewien czas, zazwyczaj mający postać serii oscylacji). Komputerowy model składał się z 100-8000 neuronów piramidowych, z których każdy został podzielony na dziewiętnaście przedziałów, tak aby można było w miarę realistycznie modelować ich elektryczne właściwości.134 Model pozwolił na reprodukcję przestrzennych i czasowych własności rozładowania następczego. Za pomocą sztucznej sieci neuronowej dało się również modelować najbardziej intrygujący rytm występujący w mózgu. Pojawia się on tylko wtedy, gdy człowiek jest przytomny lub śni. Częstość zmian wynosi 40 cykli na sekundę; można je wykryć, śledząc elektryczne i magnetyczne procesy w mózgu. Niektórzy badacze twierdzą, że rytm ten pełni funkcję komputerowego zegara, to znaczy koordynuje procesy zachodzące w wyspecjalizowanych ośrodkach mózgu. Inaczej mówiąc, rytm o częstości 40 Hz jest związany z rozstrzygnięciem problemu integracji, od którego zależy jedność świadomości. Z tym problemem zetknęliśmy się już wcześniej. Wysunięto wiele hipotez na temat pochodzenia tego rytmu: może poszczególne komórki działają w takim rytmie, może pojawia się on wskutek sprzężenia zwrotnego między neuronami hamującymi i komórkami piramidowymi lub między takimi strukturami, jak kora i wzgórze. Współpracując z Jefferysem i Milesem Whittingtonem, Roger Traub wytworzył taki rytm w wirtualnym fragmencie hipokampu, składającym się ze 128 neuronów hamujących; neurony były reprezentowane przez komórki podzielone na 46 części. Eksperymenty potwierdziły, że rytm ten dalej występuje w komórkach hamujących, nawet gdy metodami farmakologicznymi wyłączymy komórki piramidowe w hipokampie. Ów rytm jest emergencyjną cechą układu neuronów hamujących. "Znaleźliśmy narzędzie do badania roli rytmu 40 Hz w problemie integracji" – stwierdził Traub.135 Największa sieć uruchomiona przez Trauba imitowała działania zaledwie dziesięciu tysięcy komórek. Elektroniczna wersja mózgu, wykorzystująca sztuczne sieci neuronowe, wymagałaby około 1011 neuronów lub procesorów. Komputer wieloprocesorowy CM-2, zbudowany przez Thinking Machines Corporation, składa się z 65 tysięcy procesorów; gdyby każdy miał działać jak jeden neuron, potrzebowalibyśmy maszyny o całkowitej mocy równej dziesięciu milionom CM-2, żeby osiągnąć poziom mózgu. Jak już się jednak przekonaliśmy, znaczenie ma nie tylko liczba neuronów. Ważne jest, jak są one ze sobą połączone, tworząc złożoną hierarchię sieci umieszczonych jedna w drugiej i sprzężonych z innymi. Struktura ta stanowi wynik biologicznego programowania genetycznego oraz adaptacji wskutek nauki i nie występuje od razu, w gotowej i ustalonej na zawsze postaci. Jeśli nawet kiedyś stanie się możliwe symulowanie zachowania setek miliardów neuronów, taka sieć będzie wykazywać inteligencję i świadomość, podobne do właściwości ludzkiego mózgu, tylko wtedy, gdy poddana zostanie podobnym bodźcom zmysłowym i doświadczeniom. Dowodzą tego prace Rodneya Brooksa – opisane w poprzednim rozdziale – którego komputer był połączony z wieloma aparatami sensorycznymi. Konwencjonalna AI zawiodła, ponieważ jej twórcy nie dostrzegli znaczenia wiedzy zależnej od kontekstu i zdolności do uczenia się podczas pracy. Zamiast tego przyjmowali niezbyt realistyczne założenie, że programista może zaprogramować maszynę, by imitowała tak złożone i subtelne zjawisko jak świadomość. Inteligencja jest cechą związaną z plastycznością mózgu i bezpośrednimi postrzeżeniami świata. Aby maszyna mogła być inteligentna, musi oddziaływać ze światem i uczyć się na podstawie doświadczeń. Do powstania takiego stworzenia doprowadziła również ewolucja biologiczna; jest to zasadniczy, a często pomijany element inteligencji. Dominującym wątkiem tej książki są poszukiwania wyjaśnienia złożoności w symbiozie natury, nauki i komputerów. W poprzednim rozdziale przekonaliśmy się, że nastąpił postęp w dziedzinie badań nad sztucznym życiem. Tutaj pokazaliśmy, jak modele obliczeniowe sieci neuronowych pozwalają uzyskać wgląd w złożoną strukturę i funkcjonowanie mózgu. W miarę jak będzie wzrastać moc komputerów i dokładność odwzorowania szczegółów biologicznych w programach komputerowych, takie metody pozwolą na coraz głębsze wyjaśnienie działania mózgu. Naszym zdaniem są powody, by wierzyć, że pewnego dnia dostatecznie złożona maszyna będzie mogła naśladować inteligencję i świadomość, czyli najbardziej wyszukane cechy gatunku, stanowiącego najbardziej złożony twór ewolucji. Pokładamy ufność nie tyle w umiejętnościach programistów, co w twórczych siłach ewolucji i samoorganizacji. Jak wskazaliśmy w rozdziale 8., niedawno okazało się, że nawet ludzkie oko – którego budowa była dla Darwina ciężką próbą wiary we własną teorię, a dla wielu innych podstawą ataków na biologiczną ewolucję -jest prawdopodobnie produktem ślepej ewolucji.136 Niektórzy mogą czuć przygnębienie z powodu skuteczności takiego podejścia, które, ich zdaniem, umniejsza znaczenie naszego istnienia, gdyż oznacza, że poddajemy się siłom ślepego przypadku zamiast ważnym zasadom metafizycznym. Zrozumienie twórczości, życia i świadomości, które zawdzięczamy badaniu ich złożoności, nie grozi jednak, lecz wzbogaca tak ważne dla nas pojęcia szansy, indeterminizmu i wolnej woli. ROZDZIAŁ 10 PANORAMA Dust as we are, the immortal spirit grows Like harmony in musie; there is dark Inscrutable workmanship that reconciles Discordant elements, makes them cling together In one society, ["Choć jesteśmy pyłem, nieśmiertelny duch rośnie niczym harmonia w muzyce; nieprzeniknione mistrzostwo godzi sprzeczne elementy i sprawia, że łączą się w jedno społeczeństwo".] WILLIAM WORDSWORTH Historia Wszechświata to historia narastającej złożoności. Symulując procesy, które doprowadziły do powstania w kosmosie struktur przestrzennych i czasowych, uczeni rozwiązują rzekomo nierozwiązywalne problemy, odkrywają organizację i działanie mózgu, a nawet tworzą sztuczne światy. Pora już na podsumowanie i wyciągnięcie wniosków. Niektóre pytania nasuwają się same. Jakie znaczenie ma badanie złożoności dla nauki i jej przyszłego rozwoju? Jaki jest związek między nauką o złożoności i innymi ludzkimi przedsięwzięciami? W jaki sposób wpływa ona na nasze życie? Wielu ludzi zaakceptowało redukcjonistyczne posłanie współczesnej nauki. Choć redukcjonizm jest czasem nadzwyczaj skuteczny, niekiedy jego uproszczenia okazują się destrukcyjne. Gdy matka traci syna z powodu choroby nowotworowej, gorączkowo szuka jakiegoś wyjaśnienia: Czy przyczyną był sztuczny barwnik w jego ulubionym soku, czy może kabel elektryczny za oknem sypialni? A może dym papierosów? Czasami udaje się znaleźć prostą przyczynę, ale często jest to niemożliwe. Częstokroć zapoznajemy się z wynikami badań, mówiącymi o związku określonej diety ze zdrowiem, które podpowiadają nam, co mamy jeść, a czego unikać. Takie badania nierzadko dają sprzeczne wyniki. Nauka o złożoności mówi nam, że pewne zjawiska mają nieredukowalny gąszcz przyczyn. Nasze zdrowie może zależeć od ogromnej liczby czynników, podobnie jak własności zaprawy cementowej. Prostoduszni redukcjoniści twierdzą, że całość jest niczym innym, jak tylko sumą swoich części, które można badać oddzielnie. Taki redukcjonizm ma poważne ograniczenia. Rozważmy globalne skutki odczytania całego ludzkiego genomu. Będzie to miało wiele pozytywnych konsekwencji w medycynie, gdy na przykład uda się znaleźć przyczyny defektów genetycznych, powodujących dziedziczne choroby i określających predyspozycje do chorób serca, raka czy demencji. Pojawi się jednak także niebezpieczeństwo złego wykorzystania tego osiągnięcia, zwłaszcza próby wpływania metodami genetycznymi na ludzkie zachowanie.1 Złożone zachowania społeczne, takie jak osobowość, inteligencja, kryminalne skłonności, alkoholizm, schizofrenia, homoseksualizm i depresja maniakalna, coraz powszechniej uważa się za cechy wynikające z określonych genetycznie predyspozycji. Dzięki badaniom bliźniaków, rodzin i adoptowanych dzieci pojawia się myśl, że pewne zachowania są przynajmniej częściowo dziedziczne; problem polega na stwierdzeniu, które cechy są dziedziczone, a które wynikają z wychowania w podobnym środowisku rodzinnym. Jednak dużo badań, których wyniki miały świadczyć o genetycznym uwarunkowaniu pewnych zachowań, było błędnych, i to na wielu poziomach. Takie publikacje tylko odwracają uwagę ludzi od ważnych czynników środowiskowych i społecznych.2 "Znamy wiele fałszywych stwierdzeń – na przykład, że pojedynczy gen powoduje schizofrenię lub psychozę maniakalno-depresyjną, że istnieje gen alkoholizmu, rozwodu i tak dalej – zauważa Doug Wahlstein z Uniwersytetu Alberta. – Jeśli będziemy dalej iść tą drogą, to grozi nam wiele nadużyć naukowych". Niewykluczone, że nie zdajemy sobie sprawy, jak bardzo rozpowszechniony jest pogląd, iż wszystkie problemy społeczne mają przyczyny genetyczne. Garland Allen z Uniwersytetu Waszyngtona w St. Louis ostrzega, że próby powiązania genetyki z tak złożonymi zachowaniami mogą stanowić początek nowego rozdziału w "przygnębiającej historii" nadużywania tej nauki.3 W latach dwudziestych i trzydziestych podobne twierdzenia doprowadziły do rozwoju ruchu zwolenników eugeniki, przymusowej sterylizacji i restryktywnych praw imigracyjnych. "Takie myślenie leżało również u podstaw hitlerowskiej eugeniki i Holocaustu w Europie – twierdzi Allen. – Współczesne badania nie wnoszą niczego nowego i są takim samym uproszczeniem jak dziewiętnastowieczne próby powiązania wyglądu zewnętrznego z kryminalnymi skłonnościami. Niepokojące jest natomiast, że takie poglądy zyskują popularność w naszym wykształconym społeczeństwie. Odwołanie się do genetyki ma zrzucić odpowiedzialność za powracające społeczne i ekonomiczne problemy z warunków społecznych na biologiczne cechy jednostek". Redukcjonizm ma równie ograniczoną wartość w abstrakcyjnym świecie matematyki. Twierdzenie Godła jest przekonującym dowodem na to, że nie można zredukować platońskiego świata matematyki do skończonego alfabetu symboli oraz skończonego zbioru aksjomatów i reguł wnioskowania. "Z wyjątkiem banalnych przypadków, o prawdziwości matematycznego stwierdzenia można rozstrzygnąć tylko wtedy, gdy zbada się jego znaczenie i kontekst w szerszym świecie matematycznych idei" – zauważył Freeman Dyson z Institute for Advanced Study w Princeton.4 Dyson opisuje twierdzenie Godła jako wielkie dzieło sztuki, będące nie tyle redukcjonistycznym zabiegiem, lecz wspaniałą konstrukcją: "Godeł udowodnił, że w matematyce całość jest zawsze czymś więcej niż tylko sumą części".5 Dodatkowy cios zadał redukcjonistom Gregory Chaitin, wykazując, że fizykom nigdy nie uda się udowodnić, iż jakaś Teoria Wszystkiego – czyli skompresowany opis świata -jest rzeczywiście teorią ostateczną.6 Rzeczywiste układy złożone nie zachowują się z zegarową regularnością i dokładne, długoterminowe przewidywania ich działania często okazują się mrzonką. Złożoność nowoczesnej gospodarki przemysłowej jest tak wielka, że nigdy nie poddaje się ona prostym manipulacjom ministrów finansów. Złożoność globalnego klimatu sprawia, że stopniowy wzrost stężenia gazów cieplarnianych nie zawsze powoduje stopniowe zmiany pogody: w ciągu życia jednego pokolenia może nastąpić radykalna zmiana klimatu.7 Nawet pewne bardzo proste układy dynamiczne niepodobna opisać w kompletny, deterministyczny, newtonowski sposób, co kiedyś wydawało się możliwe. Nie istnieje prosty algorytm, który moglibyśmy wykorzystać. Zamiast tego musimy spróbować zrozumieć świat, korzystając z pojęć globalnych, rozważając oddziaływania między jego elementami. Jeśli chcemy zrozumieć świat, to zamiast dążyć do stworzenia deterministycznego, mechanicznego obrazu, powinniśmy przejść na wyższy poziom opisu. Życie również jest zjawiskiem emergencyjnym, które powstaje w fizykochemicznych układach, wykazujących szczególną organizację i oddziałujących w pewien sposób. Istota ludzka jest emergencyjną cechą dużego zbioru komórek. Podobnie, firma jest czymś więcej niż sumą personelu, nieruchomości, przyborów do pisania i papieru, a miasto to emergencyjną cecha tysięcy lub milionów ludzi. Nikt nie powinien mieć wątpliwości, że nasze skryte myśli, uczucia miłości i nienawiści są czymś więcej niż tylko skutkiem produkcji pojedynczych hormonów lub pobudzenia pojedynczych neuronów w mózgu. Badania złożoności, dzięki naciskowi na własności emergencyjne, przyczyniają się do przywrócenia równowagi między duchową i naturalną stroną naszej natury. Czy możemy mieć nadzieję, że kiedykolwiek uda się nam zrozumieć takie nadzwyczaj złożone własności emergencyjne? Niektórzy uczeni już widzą siebie "w roli Boga", gdy na przykład konstruują zamknięte światy automatów komórkowych lub "kierują" ewolucją, używając programów genetycznych, w których reguły i miary dostosowania są określone z zewnątrz. A może sami tańczymy pod batutą nieznanego dyrygenta? Być może. Jednak każda pojedyncza melodia jest zbyt złożona i "delikatna", zbyt wrażliwa na historię i zewnętrzne wydarzenia, aby można było zrozumieć coś więcej niż tylko jej ogólny przebieg. Ktoś może to uznać za defetyzm. Wyjaśnienie złożoności może jednak bardzo pomóc w zrozumieniu świata, gdyż daje globalne ujęcie naszej w nim roli. Choć zapewne nie będziemy w stanie przewidzieć długookresowej ewolucji złożonego układu, nieliniowa dynamika demonstruje, że możemy poznać pewne globalne cechy jego zachowania – na przykład dzięki wykryciu zbioru atraktorów tego układu. Takie idee mogą w przyszłości posłużyć jako podstawa do podejmowania decyzji. Ludzkość nigdy nie miała większego wpływu niż obecnie na stan naszej planety i nigdy konieczność zrozumienia tego wpływu nie była bardziej paląca. Działalność człowieka zagraża licznym gatunkom flory i fauny, o których często niemal nic nie wiemy. Ile nadużyć wytrzyma jeszcze Ziemia? Ekosystemy – do których należymy – są bardzo złożonymi układami współistniejących organizmów; to układy, którymi rządzą subtelne sprzężenia nieliniowe. Kto wie, czy nie siedzimy na ekologicznej bombie zegarowej z włączonym zapalnikiem: zniszczenie naturalnego środowiska na całym świecie – od lasów tropikalnych do tundry – może mieć konsekwencje, które wystąpią nagle i gwałtownie, być może już za kilkadziesiąt lat. Niewykluczone, że nawet gatunki, które wydają się nie zagrożone, w rzeczywistości są już skazane. Na taką możliwość wskazuje nieliniowy model matematyczny, opracowany przez Roberta Maya, Martina Nowaka i Davida Tilmana, którzy badali różnorodność roślin na obszarach trawiastych – starych polach i prerii w Cedar Greek National History Area w Minnesocie.8 Stwierdzili oni, że o ewolucyjnym sukcesie gatunku nie stanowi tylko liczebność populacji. Do przetrwania konieczna jest także umiejętność dostosowania się i wykorzystania nowego środowiska w obliczu zagrożenia. W tym modelu poszczególne gatunki, znajdujące się na danym obszarze, są traktowane jako "metapopulacje" – zbiory małych, lokalnych populacji roślin, występujących w porozrzucanych miejscach, lecz połączonych wskutek rozpraszania nasion na dużą odległość. Obserwacje z Cedar Creek przekonują nas, że rośliny, które wygrywają konkurencję o ograniczone zasoby, stosunkowo słabo się rozpraszają. Trawy na przykład poświęcają tyle energii na rozbudowę korzeni, że wytwarzają niewiele nasion. May, Nowak i Tilman uwzględnili w swoim modelu koncepcję konfliktu między zdolnością do konkurowania i rozpraszania oraz obliczyli wpływ utraty środowiska na wyginięcie gatunku. Z ich modelu wynika, że spadek różnorodności (to znaczy zmniejszenie liczby gatunków) jest niewielki, nawet jeśli zniszczeniu ulega połowa środowiska. Natomiast po przekroczeniu granicy 60% dalsze kurczenie się środowiska powoduje gwałtowny wzrost liczby ginących gatunków, przy czym utrata środowiska i wyginięcie gatunku są od siebie odsunięte w czasie o kilka pokoleń. Może to oznaczać, że minie kilkadziesiąt lat, nim zobaczymy konsekwencje zniszczenia tropikalnych lasów deszczowych. Jest tak po części dlatego, że zniszczenie środowiska nie tylko powoduje zgubę istniejącej populacji, ale również likwiduje miejsca nadające się do kolonizacji. Zaskakujące jest to, że – zgodnie z tym modelem – gatunki, które odniosły największy sukces w konkurencji o ograniczone zasoby, a tym samym odgrywały dominującą rolę w dotychczasowym środowisku, są najbardziej narażone na zgubę. W przeszłości organizmy te nie musiały dostosowywać się do konieczności zmiany środowiska. Badania złożoności wykazały również znaczenie różnorodności i przypadkowości dla podtrzymania zdolności do adaptacyjnych innowacji. Przyszłość naszego gatunku i całej planety zależy od tej zdolności. Tu przydaje się wprowadzona przez Lovelocka koncepcja Gai: dostarcza ona metafory jasno ukazującej, że zniszczanie środowiska jest równoznaczne z unicestwieniem nas samych. Z tego powodu musimy zająć się problemem niszczenia lasów deszczowych, przerażającego zmniejszania się liczby gatunków, rozproszeniem warstwy ozonowej i globalnymi zmianami klimatycznymi. Integracyjne badania złożonych układów ożywionych zapewne dostarczą racjonalnych podstaw dla podjęcia globalnych działań. Symulacje komputerowe doprowadziły do lepszego zrozumienia złożoności klimatu, wymierania gatunków i ekosystemów. Podobnie, modele komputerowe umożliwiają wgląd w złożoną "ekologię" komórek, która chroni organizm przed infekcjami9, oraz opisuje ich zachowanie, gdy są zagrożone, na przykład przez HIV.10 W ciągu ostatnich pięciu lat podjęto ambitne próby pójścia dalej i opracowania komputerowych symulacji ewolucji oraz stworzenia sztucznego życia. Podczas jak "zamknięcie ewolucji biologicznej w butelce", sztuczne życie jest -by tak rzec – pogiętym zwierciadłem, w którym możemy się przeglądać. Mówi nam o życiu, jakie mogłoby być, a nie takim, jakie istnieje na Ziemi. Można nawet twierdzić, że byliśmy już świadkami narodzin innego, cyfrowego życia, kryjącego się w wirtualnym świecie symulatora Tierra. Prace na temat mózgu, które opisaliśmy w poprzednim rozdziale, należą do najbardziej fascynujących przykładów potęgi współczesnego podejścia do zagadnień złożoności. Dotychczasowe osiągnięcia wolno uznać za źródło ostrożnego optymizmu co do możliwości stworzenia inteligentnych maszyn metodami ewolucyjnymi. Nie należy jednak dać się ponieść entuzjazmowi. Daleko nam jeszcze do wyjaśnienia najbardziej złożonego obiektu, mianowicie świadomego, myślącego podmiotu. Do pokonania pozostają poważne bariery. Maszyny jeszcze nie potrafią dobrze rozpoznawać obrazów, posługiwać się językiem i tłumaczyć – nie mówiąc już o połączeniu takich umiejętności w jednym urządzeniu.11 W ciągu najbliższych kilkudziesięciu lat z pewnością dokona się w tej dziedzinie wielki postęp. Metody programowania genetycznego pozwolą połączyć sztuczne sieci neuronowe w struktury o coraz bardziej złożonej architekturze. Dialog z zewnętrznym światem za pośrednictwem urządzeń sensorycznych, tak jak w przypadku robota Cog, pozwoli zwiększyć sprawność sztucznych mózgów. Dzięki nieubłaganemu wzrostowi mocy obliczeniowej komputery dorównają pod tym względem ludzkiemu mózgowi, i to niezależnie od powstania komputerów kwantowych. Niewątpliwie ogromnie zmieni się środowisko, a nawet kultura, w jakiej utrzymujemy i wychowujemy sztuczne mózgi, tak że pewnego dnia pod względem dynamiki i złożoności zrównają się one z nami. Możemy oczekiwać, że komputerowe metody ewolucji celowej zostaną zastosowane do wytworzenia "inteligentnych" urządzeń, odpowiadających naszym potrzebom. Kto jednak decyduje, co jest nam potrzebne? Nasze moralne wzorce zachowania, nie mówiąc o samej nauce, ewoluują i nadal będą ewoluować w odpowiedzi na czynniki polityczne, ekonomiczne oraz społeczne. Czynniki te stwarzają "ciśnienie selekcyjne" i w znacznej mierze określają, co nam odpowiada. Takie "metaprocesy" zachodzą w umysłach świadomych jednostek, gdzie konkurują ze sobą różne koncepcje. W tym kontekście idee to – wedle Richarda Dawkinsa – memy, czyli jednostki kulturowego dziedziczenia.12 Memy są zdolne do autoreplikacji, gdy przenoszą się z mózgu do mózgu. Przykłady memów to idee, melodie, mody. "Gdy szkołę ogarnia mania, na przykład wszyscy bawią się kostką Rubika lub papierowymi rakietami, proces ten rozwija się tak samo jak epidemia odry -stwierdza Dawkins. – Mody i manie następują po sobie nie dlatego, że jedna jest lepsza od drugiej, ale po prostu dlatego, że akurat taka epidemia ogarnia szkołę".13 Jak zauważył filozof Daniel Dennett, pojęcie memu jest dobrym sposobem myślenia o ideach, ale stwarza niepokojącą, a nawet odpychającą perspektywę: "Nie wiem, jak tobie, ale mnie nie podoba się pomysł, że mój mózg jest kupą nawozu, w której rozmnażają się larwy pomysłów innych ludzi, a potem wysyłają swoje kopie na informatyczną diasporę".14 Dawkins nie stosuje swojej wirusowej metafory do całej kultury, wiedzy i wszystkich idei. "Nie wszystkie programy komputerowe rozprzestrzeniają się jak wirusy – uważa. – Dobre programy – procesory tekstu, arkusze kalkulacyjne i programy do obliczeń – rozprzestrzeniają się, ponieważ ludzie ich chcą. Natomiast wirusy komputerowe rozchodzą się niemal wyłącznie dlatego, że tak każe ich program. Bez wątpienia istnieje całe spektrum programów, od czystych wirusów po naprawdę pożądane programy, z grami zagrażającymi popadnięciem w nałóg gdzieś pośrodku". Z podobnym spektrum mamy do czynienia w teorii samolubnego genu Dawkinsa – od wirusów do użytecznych genów, zwiększających dostosowanie. "Genetyczna instrukcja "Stwórz szybką, mocną, inteligentną, seksualnie pociągającą antylopę* powiada »skopiuj mnie« tylko w bardzo pośredni sposób, który wydaje się nam znacznie mniej bezmyślny i jałowy niż jawne polecenia »skopiuj mnie«, do jakich sprowadzają się programy z wirusowej części spektrum" – pisze Dawkins. Jego zdaniem w dziedzinie kultury nowe idee i piękne dzieła sztuki rozprzestrzeniają się nie dlatego, że zawierają niewolniczo wykonywane instrukcje, ale z powodu swych zalet. "Dzieła Darwina i Bacha to nie wirusy. Natomiast apele telewizyjnych kaznodziejów o przysłanie pieniędzy na sfinansowanie dalszych takich apeli są równoważne instrukcji •skopiuj mnie«". Dawkins rozwinął swoje koncepcje tak, aby zdecydowanie odróżnić przekonania religijne – które jego zdaniem "są bardzo blisko wirusowego krańca spektrum" – od naukowych. Twierdzi on, że religia trwa nie z powodu cynicznych manipulacji księży ani z pewnością nie z powodu prawdziwości doktryny, ponieważ różne sprzeczne ze sobą religie trwają równie dobrze. "Doktryny religijne trwają, ponieważ wpaja się je dzieciom w wieku, gdy są podatne na sugestie; gdy dzieci dorosną, wpajają je z kolei własnym dzieciom". Inaczej mówiąc, zdaniem Dawkinsa wiara religijna utrzymuje się z powodów epidemiologicznych. Wywód Dawkinsa nie jest jednak wolny od trudności. Z pewnością jest prawdą, że współistnieje wiele różnych religii konkurujących ze sobą, takich jak judaizm, chrześcijaństwo, islam, buddyzm i hinduizm, natomiast memy naukowe na ogół się wykluczają: zwycięska teoria w danej dziedzinie i w danym okresie eliminuje wszystkie inne. Każdy ocenia wiary religijne, podobnie jak poglądy polityczne, kierując się własnymi poglądami ogólnymi i nabranymi przesądami. Natomiast zgodnie z argumentacją Dawkinsa uczeni mają akceptować takie, a nie inne teorie z uwagi na przekonujące dowody ich słuszności. Memy naukowe odnoszą tym większe sukcesy, im dokładniej wyjaśniają lub przewidują wyniki doświadczeń – to kryterium jest miarą ich "dostosowania". W przypadku koncepcji "nienaukowych", takich jak religia, nie istnieje obiektywna miara dostosowania, a zatem sukces zależy od całego zbioru mniej lub bardziej dowolnych i subiektywnych kryteriów. Możemy zatem zakładać, że religia zawiera więcej nie udowodnionych stwierdzeń niż nauki przyrodnicze, natomiast takie dziedziny, jak ekonomia, zajmują miejsce gdzieś między tymi skrajnościami. Ekonomia mieści się między naukami przyrodniczymi i humanistycznymi. Światowa gospodarka wykazuje nieliniowe cechy charakterystyczne dla złożonego układu dynamicznego, natomiast rynek kojarzy się z finansową wersją "przetrwania najlepiej dostosowanego". Istnieją obiektywne miary sukcesu ekonomicznego i finansowego, czy to całych krajów, czy poszczególnych przedsiębiorstw, takie jak produkt narodowy, deficyt budżetowy, udział w rynku, zyski i straty, dochody i ceny akcji. Jednak miary te zależą od czynników, które są źle określone. Katastrofę na Wall Street może wywołać rzeczywiste finansowe trzęsienie ziemi lub szeptana kampania. Plotki rozpuszczane przez akcjonariuszy, analityków i spekulantów mogą spowodować fluktuacje cen akcji oraz kursów walut, co wpływa na obiektywne miary "dostosowania". Warto zauważyć, że minęło dużo czasu, nim ekonomiści zdali sobie sprawę z naturalnej złożoności swej dziedziny. Przez długie lata centralnym dogmatem ekonomii były stare zasady równowagowe, podobnie jak termodynamika równowagowa w fizyce, chemii, a nawet biologii. Ekonomiści usiłowali, z takich samych przyczyn co uczeni zajmujący się przyrodą, zamknąć całą ekonomię w teoriach, których zaletą były matematyczna prostota i elegancja, a nie realna zdolność do wyjaśnienia działania rzeczywistej gospodarki. W ten sposób memy klasycznych teorii równowagowych zarażały umysły kolejnych pokoleń studentów ekonomii i nauki, którzy przejmowali dogmat, że zachowanie złożonego układu można przewidzieć, badając jego części składowe.15 W ostatnich czasach w ekonomii pojawił się nowy kierunek badań, wykorzystujący pojęcia ewolucyjne i nieliniowe. Robert May i inni zastosowali narzędzia używane do analizy nieliniowych zjawisk biologicznych do zbadania fluktuacji kursów walut i cen akcji. Stwierdzenie, czy możliwe są jakieś przewidywania, wymaga między innymi opracowania metod pozwalających wykryć ślady chaosu w na pozór zupełnie przypadkowych danych.16 Takie badania pomogły wykazać, że złożone zachowanie rynków finansowych jest w pewnej mierze przewidywalne. Analiza nieliniowa oraz wiele innych technik, od sieci neuronowych i logiki rozmytej do statystyki nieliniowej, służą do znajdywania lukratywnych struktur w zachowaniu rynku.17 Według pewnych ocen w 1993 roku około tuzina firm zarządzało funduszami rzędu 100 milionów dolarów każda, korzystając z takich rad komputerów.18 W 1994 roku – pięćdziesiąt lat po ukazaniu się książki von Neumanna i Morgensterna Theory of Games and Economic Behaviour – Nagroda Nobla w dziedzinie ekonomii została przyznana za prace z dziedziny teorii gier. Nowi laureaci, Amerykanie John Harsanyi i John Nash oraz Reinhard Selten z Niemiec, odegrali zasadniczą rolę we wprowadzeniu teorii gier jako podstawowego narzędzia służącego do badania wielu problemów, od organizacji przemysłowych, poprzez międzynarodowy handel, do polityki monetarnej. Przykładem mogą być strategie, jakie stosują monopolistyczne firmy, aby zniechęcić potencjalnych konkurentów do wchodzenia na rynek. Jedna strategia monopolisty polega na grożeniu wojną cenową, mającą doprowadzić do zrujnowania przeciwnika. To jednak może być groźne również dla monopolisty, chyba że ma bardzo duże rezerwy finansowe. Wobec tego konkurent musi ocenić, na ile poważna jest taka groźba. Monopolista może także przyjąć bardziej przyjazną strategię, na przykład zaproponować współpracę i stworzyć kartel, pozwalający obu firmom czerpać zyski z wysokich cen. Korzyści, jakie przynosi zastosowanie matematyki do takich problemów, są obecnie powszechnie znane. W Stanach Zjednoczonych Federal Communications Commision organizuje obecnie aukcje częstości radiowych zgodnie z zasadami teorii gier.19 Wbrew nazwie inne "nauki" społeczne nie są zazwyczaj uważane za naukowe. Mimo to, dzięki zastosowaniu metod opracowanych do badania złożoności, zjawiska społeczne stopniowo również stają się przedmiotem naukowej analizy. Można twierdzić, że przedstawiciele nauk społecznych zainteresowali się problemami nieliniowymi w 1844 roku, gdy Verhulst, odwołując się do idei Malthusa, sformułował równanie logistyczne, opisujące wzrost liczby ludności.20 W ludzkich i zwierzęcych społecznościach można znaleźć wiele przykładów złożonej organizacji, poczynając od mrowisk i uli, a na giełdzie kończąc. W takich otwartych i nieliniowych strukturach społecznych działa wiele mechanizmów konkurencji i sprzężenia zwrotnego. Uczeni dokładnie zbadali strategie stosowane przez mrówki podczas żerowania i magazynowania pożywienia.21 Podjęto próby modelowania "organicznego" rozwoju miast, wykorzystując do tego pojęcie struktur dysypatywnych (opisane w rozdziale 6.).22 Modele komputerowe posłużyły również do przeanalizowania wpływu na środowisko tanich i powodujących poważne zanieczyszczenia sposobów transportu oraz kosztownych rozwiązań ekologicznych.23 Inni naukowcy wykorzystują modele nieliniowe do analizy ruchów ludności; pozwala to wyjaśnić powstawanie równomiernie rozprzestrzenionych skupisk, gett i ciągłych migracji.24 Możemy dopatrzeć się analogu między punktami krytycznymi, związanymi z samoorganizacją i chaosem w układach nieożywionych, takich jak reakcja Biełousowa-Żabotyńskiego, i pewnymi zjawiskami występującymi w ludzkim społeczeństwie, takimi jak rewolucje i załamania porządku społecznego. Podczas planowania ludzie często muszą ustalić hierarchię zadań, uporządkować je ze względu na znaczenie i pilność. Do takich złożonych problemów można zastosować strategie określone przez kilka prostych reguł, które z kolei można ulepszać metodami ewolucyjnymi, stosując technikę programowania genetycznego.25 Ludzkie społeczeństwo cechuje nadzwyczaj złożona organizacja. Agencje rządowe i przedsiębiorstwa mogą działać skutecznie tylko wtedy, gdy ich pracownicy należycie współpracują. Jednak struktura i natura organizacji czasami powoduje powstanie konfliktu między celami organizacji a interesami osób zatrudnionych. Taki konflikt można zrozumieć, rozważając strategie zastosowane przez zainteresowane strony. W wielu organizacjach ludzie są często przesuwani z jednego stanowiska na drugie, na przykład co trzy lata lub jeszcze częściej. Wtedy pojawia się pokusa, żeby się szybko "wykazać", choć to może być sprzeczne z długofalowymi interesami organizacji. Może się również zdarzyć, że człowiekowi dbającemu tylko o własną karierę nie zależy wtedy na współpracy z kimś, z kim w przyszłości nie będzie miał już do czynienia, co oczywiście powoduje wiele trudności w działaniu organizacji jako całości. Teoria gier wskazuje, że należy albo zatrudniać ludzi dłużej na jednym stanowisku, albo po przeniesieniu śledzić, co dzieje się na ich poprzednim miejscu pracy. Poza konkretnymi zastosowaniami teoria gier wskazuje również, jak bardzo irracjonalne są ludzkie zachowania. Do rozwoju złożoności ludzkich oddziaływań przyczyniła się stale doskonalona technika wymiany informacji na wszystkich poziomach, od jednostek do rządu. Im intensywniejsza wymiana informacji, tym silniej działają procesy sprzężenia zwrotnego i tym bardziej zwiększa się złożoność układu. Sieci komputerowe spowodowały kolejną rewolucję w łączności i ogromnie zwiększyły dostępność informacji. Korzystając z terminologii Dawkinsa, można powiedzieć, że sieci komputerowe sprzyjają rozprzestrzenianiu się memów. Internet jest dominującą superstrukturą, łączącą miliony komputerów osobistych na całym świecie. Według oceny z połowy 1993 roku, sieć łączyła wtedy około 1,7 miliona komputerów, a korzystało z niej 17 milionów użytkowników.26 Gdy piszemy te słowa, liczba ta wzrosła do 23 milionów. Pod wieloma względami działanie Internetu przypomina zjawiska opisywane w tej książce: sieć ewoluuje, jest rozproszona, nie istnieje żaden centralny ośrodek kierujący, występują zjawiska emergencyjne w postaci struktur opartych na wymianie informacji. W miarę jak wzrasta ludzka ruchliwość i działalność gospodarcza rozprzestrzenia się na cały glob, łatwo pokonując fizyczne granice, geograficznie zlokalizowane społeczeństwa ulegają podziałowi -wyodrębniają się grupy różniące się od pozostałych rodzajem zajęć, religią, kulturą, nauką, życiem społecznym i rozrywkami. W tej sytuacji Internet jest ważnym czynnikiem sprzyjającym zachowaniu tożsamości – choć w znacznej mierze pozbawionej własnego wyrazu – w trzęsawisku sprzecznych działań. Ta "informatyczna autostrada" przeżyła gwałtowny wstrząs kilka lat temu, gdy powstały graficzne interfejsy do World Wide Web, pozwalające na multimedialny dostęp do niemal nieograniczonych zbiorów danych, w tym również danych w postaci obrazów.27 Takie elektroniczne sieci na zawsze zmienią sposób życia i działania techniczne zaawansowanych społeczeństw. Bardziej tradycyjny i uniwersalny sposób komunikacji – poprzez dzieła sztuki – często uważa się za niezależny od nauki, a nawet będący wobec niej w zasadniczej opozycji. Zgodnie z powszechnym mniemaniem nauka nie ma wiele do powiedzenia w kwestiach estetycznych malarstwa, literatury czy teatru, poza zagadnieniami geometrycznych proporcji i technicznych środków realizacji zamysłu twórcy. Jest tak dlatego, że, zgodnie z newtonowską tradycją, nauka ma się zajmować abstrahowaniem ze zjawisk "nieredukowalnej matematycznej istoty". Według redukcjonistycznej metodologii nauka interesuje się nie całością, lecz jej elementami składowymi. W ostatnich czasach nauka o złożoności przyczyniła się do zmiany tej opinii. Poetyckie zaniepokojenie arogancją fizyki newtonowskiej można znaleźć w wierszu Alexandra Pope'a, który posłużył nam za motto do rozdziału 2. Tacy poeci jak, Blake i Keats, gardzili redukcjonistycznym i materialistycznym obrazem świata, ale nie wszyscy godzili się z ich opinią. Gdy Mary Shelley napisała Frankensteina, bez wątpienia najlepiej znaną książkę o sztucznym życiu, wzięła w ten sposób udział w debacie na temat witalizmu, która toczyła się od 1814 roku.28 Czyż historia nie przemyślanej próby Victora Frankensteina ożywienia martwego ciała dodatkiem czegoś analogicznego do elektryczności nie była kpiną ze spirytualistów i argumentem na rzecz materialistycznego światopoglądu? W XX wieku oddziaływania między nauką i sztuką były równie silne, co zawsze. W literaturze można znaleźć wiele odwołań do teorii względności Einsteina – na przykład w Kwartecie aleksandryjskim Lawrence'a Durrella29 lub w Finnegaris Wake, gdzie Joyce korzysta z odkrycia Einsteina ("Winestaina", jak go nazywa), że światło w zakrzywionej czasoprzestrzeni może powrócić do źródła – co pozwala obejrzeć się od tyłu.30 Nauka o złożoności wpływa na sztukę na wielu poziomach. Jeden z głównych bohaterów tej książki, Alan Turing, zainspirował sztukę Breaking the Code Hugha Whitemore'a z 1986 roku.31 Złożoność oferuje "kosmogoniczny koktajl" – fraktale, teorię katastrof i chaos – który rozbudził wyobraźnię architektów.32 Może również wzbogacić powieści i wiersze. W Parku jurajskim Michaela Crichtona występuje karykaturalna postać "matematyka chaosu", który ostrzega przed niebezpieczeństwami związanymi z manipulowaniem DNA dinozaurów. Motyl Lorenza zamachał skrzydełkami w wierszach Paula Muldoo-na.33 Nauka o złożoności przyczyniła się również do stworzenia postaci Lemuela Falka, rosyjskiego specjalisty od chaosu, z "grubymi, zrogowaciałymi palcami" i "grzywą zabrudzonych popiołem włosów, która sprawia wrażenie jakby była potargana wiatrem, nawet gdy nic nie wieje". Falk pojawił się w powieści Roberta Littella The Yisiting Professor, w której oszołomił uczestników sympozjum w Pradze swym dążeniem do znalezienia czystej przypadkowości: "Lemuel zaprogramował duży komputer ze Wschodnich Niemiec i obliczył k do sześćdziesięciu pięciu milionów trzystu trzydziestu trzech tysięcy siedemset czterdziestu czterech miejsc po przecinku (wówczas był to światowy rekord), ale nie odkrył żadnych śladów porządku w rozwinięciu dziesiętnym".34 Idee nieliniowej dynamiki i fraktali zainspirowały również powstanie Arcadii, znanej sztuki Toma Stopparda z 1993 roku. Stoppard uważał nawet sam proces pisania dramatu za przykład literackiej samoorganizacji.35 Akcja sztuki przeskakuje w czasie dwa wieki: pewien pozbawiony skrupułów uczony, który postanowił stworzyć na tyle sensacyjną pracę o Byronie, by trafiła ona na strony brukowej prasy, wykorzystuje w tym celu kryminalną historię, "wydedukowaną" z korespondencji dawnych postaci. Sztuka łączy wywody na temat kształtowania ogrodów i rozwoju romantyzmu z dyskusjami dotyczącymi postępu, doskonalenia, determinizmu i wolnej woli. Najbogatsze idee pojawiają się dzięki odkryciom młodej bohaterki, Thomasiny Coverly, których dokonała u stóp swego mistrza w 1808 roku. Thomasina przypadkowo wynalazła "geometrię nieregularnych kształtów" – mamy tu aluzję do fraktalnej geometrii Mandelbrota, która dla uczonych jest synonimem dziwnych atraktorów. Jako sztuka teatralna, Arcadia na wiele sposobów odwołuje się do idei fraktali, zarówno w oddziaływaniach między postaciami i elementami scenografii, jak i w rezonansach między dialogiem i muzyką. Stoppard porównuje strukturę sztuki, z zygzakami między przeszłością i teraźniejszością, do "najbardziej prymitywnego diagramu podwajania okresu. Ostatnia scena reprezentuje chaos, w tym sensie, że współistnieją oba okresy".36 Stoppard konsultował swoje idee zaczerpnięte z teorii chaosu z Robertem Mayem, który wziął udział w seminarium z autorem sztuki, dyrektorem teatru Trevorem Nunnem i całym zespołem National Theater. Jeden z jego doktorantów, Ałun Lloyd, przygotował "zbiór Coverly" dla Thomasiny, posługując się prostą formułą matematyczną, generującą złożone, przypominające liść struktury, których poszukiwała.37 Komputerowe obrazy fraktali, od zupełnie abstrakcyjnych obiektów, takich jak zbiory Mandelbrota czy Julii, do realistycznych form biologicznych i fizycznych, stały się popularnym motywem na plakatach i pocztówkach (Ryc. 10.1). Wykazują one naturalne piękno, które wzbudza podobne reakcje, jak widoki przyrody lub ludzkich dzieł sztuki, czy to realistycznych, czy abstrakcyjnych. Ryc. 10.1. Popularna wersja chaosu. Obraz zbioru Mandelbrota przygotowany przez Chaos Laboratory ze Scarborough. Na artystycznej scenie pojawił się również cyfrowy darwinizm: grupa artystów znających się na komputerach używa technik ewolucyjnego programowania do tworzenia nowych form artystycznych. Jednym z najbardziej znanych zwolenników takiego podejścia jest William Latham, angielski artysta, niegdyś zatrudniony w IBM, założyciel firmy Computer Artworks Ltd. Stosuje on metody ewolucyjne, by stworzyć na komputerze niezwykłe formy (zob. wkładka, zdjęcie nr 11). Wybierając struktury, które wywołują niesamowite wrażenie, i hodując je, Latham stworzył – jak powiada – "ogród nieziemskich rozkoszy". Jego prace nie tylko zacierają granice między naturą i sztuką, ale również ilustrują bogactwo współczesnej symbiozy sztuki z nauką. Mutator, program opracowany przez Lathama i Stephena Todda, matematyka z IBM, nie tylko potrafi tworzyć dzieła artystyczne, ale również zaprojektować dom lub wybrać parametry komputerowego arkusza obliczeniowego. Operator może uśmiercać warianty, które mu się nie podobają, i wybierać rozwiązania do dalszej ewolucji. Latham użył tego programu do stworzenia bogatej kolekcji obrazów budynków, w grach komputerowych oraz do zaprojektowania butelki do szamponu. "Mutator znajduje ekstremalne i subtelne kształty, których człowiek by nie wymyślił" – zauważa Latham.38 Obraz przedstawiony na zdjęciu nr 12 (wkładka) stworzył Karl Sims, używając populacji programów genetycznych, znalezionych metodą "interakcyjnej ewolucji". Komputer generuje przypadkowe mutacje w matematycznych równaniach, opisujących kolorowe obrazy, a następnie artysta stosuje "estetyczne ciśnienie selekcyjne", wybierając do dalszej ewolucji te obrazy, które uważa za najlepsze. Ta procedura przypomina metodę zastosowaną przez Richarda Dawkinsa do generacji biomorfów, którą omówiliśmy w rozdziale 8. Po wielu iteracjach powstaje obraz zaskakujący swą złożonością. Podczas wystawy Genetic Images, zorganizowanej w Centre Pompidou w Paryżu w 1993 roku, Sims użył komputera Con-nection Machinę do hodowania przypadkowych obrazów, prezentowanych na ustawionych w łuk szesnastu dużych monitorach. Przed monitorami znajdował się czujnik, pozwalający zwiedzającym wybierać obrazy według swego gustu. Obrazy odrzucane były unicestwiane i zastępowane mutacjami tych, które przetrwały. "Ludzie w muzeum sterowali ewolucją – opowiada Sims. – To był przypadek przetrwania obiektów najbardziej interesujących estetycznie".39 Sims następnie opracował program generujący stworzenia, których wygląd i działania podlegały ewolucji. Pewne "geny" decydowały o kształcie istot zbudowanych z klocków – podobnie, choć w nie tak prosty sposób, jak zwykłe geny decydują o kształcie organizmu – inne opisywały uproszczony program, mózg stworzenia, sterujący ruchami i reakcjami na światło, dotyk i kąt stawów. Symulowana ewolucja zaczynała się od trzystu stworzeń -przypadkowych konfiguracji kolorowych klocków. Niektóre były nieciekawe, inne dziwaczne, jeszcze inne nierówno dygotały. Korzystając z superkomputera, Sims może śledzić ewolucję przez wiele pokoleń, wybierając stworzenia z pożądanymi cechami, na przykład potrafiące walczyć, pływać lub poruszać się (Zob. wkładka, zdjęcie nr 13). Interesujące, że podczas pierwszych prób komputerowe stworzenia "oszukiwały". "Robiły to, co chciałem, ale w inny sposób niż zamierzałem" – przyznaje Sims. Stworzenia ewoluowały tak, aby wykorzystać błędy w programie, który miał zapewnić, że będą poruszać się zgodnie z prawami fizyki newtonowskiej. Jeden z błędów pozwalał na naruszenie zasady zachowania pędu. Po kilku pokoleniach pojawiły się stworzenia, które poruszały się, uderzając się wiosłem. Inne znalazły błąd w programie całkującym równania ruchu Newtona, dzięki czemu poruszały się z niefizycznym przyspieszeniem. Sims zrobił następnie film wideo, ukazujący na przykład wynik trwającej sto pokoleń ewolucji stworzeń rozmnażających się płciowo, które miały stać się "dobrymi pływakami". Niektóre cyfrowe stworzenia przybrały kształt podobny do ślimaka i wiły się w wirtualnej wodzie. Inne nauczyły się poruszać ruchem śrubowym lub zyskały duże płetwy. "Jeden z interesujących aspektów symulowanych ewolucji to możliwość stworzenia istot tak skomplikowanych, że nie można ich zrozumieć -zauważa Sims. – Na szczęście, tak być nie musi". Sims przypuszcza, że mógłby wyhodować jeszcze dziwniejsze stwory, gdyby potrafił wykształcić w nich poczucie piękna. Nauka o złożoności pozwala nawet badać przeżycia w stanie bliskim śmierci. W jednej bardzo spekulatywnej próbie symulacji takiego przeżycia sieć neuronowa została zmuszona do "zwymiotowania" całej informacji, jaką sobie przyswoiła. Przed oczami sieci przemknęło całe jej wirtualne życie.40 W innych badaniach sztucznej śmierci uczeni korzystali z nieliniowych modeli dynamicznych, by analizować przeżycia wielu ludzi, od wirujących tuneli światła do szczególnie silnego wrażenia wyjścia poza ciało, często interpretowanych jako przebłyski pośmiertnego życia. Mario Markus z Instytutu Maxa Plancka Fizjologii Molekularnej w Dortmundzie szukał powstających w korze wzrokowej zorganizowanych struktur Turinga, mając nadzieję, że mogą one wyjaśnić pochodzenie geometrycznych wizji, występujących podczas halucynacji i w stanie bliskim śmierci. Znając geometrię kory wzrokowej i jej połączenia z siatkówką, można stwierdzić, jakie percepcje wzrokowe odpowiadają takim strukturom. Markus przeanalizował rysunki wizji wywołanych LSD, przedstawiające dziwne spirale i linie zbiegające się do punktu. Komputer wydedukował, że takie wizje mogą powstać, jeśli struktura aktywności kory wzrokowej przypomina umaszczenie zebry (Ryc. 10.2). W podobny sposób Markus tłumaczy występujące w stanie bliskim śmierci wizje tuneli, wypełnionych silnym – zdaniem niektórych, niebiańskim – światłem. Takie wizje mogą być spowodowane strukturami powstającymi w mózgu wskutek choroby lub ran.41 Ryc. 10.2. Halucynacje. Rozkład aktywności w korze wzrokowej (z lewej), odpowiadający postrzeganemu obrazowi (z prawej]. Jaka inna dyscyplina poza nauką o złożoności ma coś do powiedzenia na tak różne tematy, jak cechy emergencyjne, życie, inteligencja, piękno, sztuka, śmierć i umieranie? Tylko filozofia. Teoria złożonych układów wywrze zapewne znaczący wpływ na rozważania filozoficzne, dotyczące licznych problemów mających dla nas duże znaczenie.42 Jak mogliśmy się przekonać, trudno jest abstrakcyjnie określić takie pojęcia, jak życie, inteligencja i świadomość. W przeszłości poświęcono tym zagadnieniom wiele raczej mglistych rozważań teoretycznych. Modele komputerowe pozwalają jednak na naukowe badanie rozmaitych układów złożonych. Zaletą tych modeli są precyzja i jasne wyłożenie wszystkich przyjętych założeń. We współczesnej filozofii można dostrzec tendencję do pomijania zjawisk emergencyjnych, natomiast oddolne modele, wykorzystujące sztuczne sieci neuronowe, jasno wykazują, że godne uwagi zdolności takich sieci do przetwarzania informacji wynikają z bardzo rozproszonej, równoległej dynamiki globalnej. Pojawia się intrygujące pytanie o rozróżnienie między symulacjami komputerowymi i rzeczywistością. W wielu przypadkach nie można pomylić symulacji komputerowej procesu fizycznego lub chemicznego z samym procesem. Komputerowy model chwiejącego się mostu to coś innego niż most. Zdarza się jednak, że symulacja daje wyniki będące realizacją symulowanego procesu. Prostym przykładem jest komputerowa symulacja muzyki. Dowodziliśmy wcześniej, że nie ma żadnych powodów, dla których komputer nie miałby w pewnych warunkach wykazywać inteligencji i innych cech charakterystycznych dla życia. Jeśli zaakceptujemy możliwość stworzenia sztucznego życia, musimy rozważyć trudne kwestie etyczne, mające znaczenie dla całej ludzkości. Jak należy postępować, jeśli cyfrowe organizmy w symulacjach sztucznego życia są naprawdę żywe? Czy mamy prawo zabijać je lub robić im krzywdę? Czy wolno nam poddawać je sztucznej selekcji w celu stworzenia pożądanych form, a jeśli tak, to w jakich celach? Dla uczonych istotne jest, że analiza złożoności zmusza do podjęcia interdyscyplinarnych badań w renesansowym stylu i do symbiozy nauki z techniką. Spotkaliśmy się tu z wieloma przykładami, ilustrującymi owocność takiego podejścia, i nie mamy wątpliwości, że tak będzie i w przyszłości. Jej najbardziej fascynującym zwiastunem są pierwsze obliczenia biochemiczne, zapewne oznaczające narodziny nowego rodzaju komputerów.43 Gdyby Alan Turing i John von Neumann mogli to zobaczyć, z pewnością byliby zachwyceni, że cząsteczki rozwiązują złożony problem obliczeniowy. Ponieważ cząsteczki te to DNA, praca ta oznacza kolejny krok w kierunku zatarcia różnicy między komputerami i żywymi organizmami, co Turing i von Neuman niewątpliwie również by zaaprobowali. Koncepcja molekularnych obliczeń narodziła się już w 1959 roku, gdy przyszły laureat Nagrody Nobla, fizyk Richard Feyn-man, wygłosił wykład o możliwości skonstruowania submi-kroskopowego komputera.44 W poprzednich rozdziałach omawialiśmy dwa kierunki takich badań; jeden związany z wykorzystaniem reakcji BZ do rozwiązywania problemów, drugi -z próbami zbudowania komputera kwantowego. Informatyk Leonard Adleman z Uniwersytetu Południowej Kalifornii zaproponował nowe podejście, wykorzystujące inny aspekt naturalnego paralelizmu przyrody. Eksperyment Adlemana polegał na zastosowaniu molekularnego paralelizmu do znalezienia "zorientowanej drogi Hamiltona". Jest to trudny problem typu NP; chodzi w nim o znalezienie drogi przechodzącej raz i tylko raz przez wszystkie podane wierzchołki grafu. Droga hamiltonowska przechodzi przez każdy wierzchołek grafu dokładnie raz. Rozważmy na przykład zbiór czterech amerykańskich miast: Atlanta, Baltimore, Chicago i Detroit. Załóżmy, że samoloty latają tylko na trasach Atlanta – Chicago, Chicago – Detroit, Chicago – Baltimore i Baltimore – Detroit. Problem skierowanej drogi hamiltonowskiej możemy teraz wyrazić następująco: czy podróżnik może zarezerwować bilety na dokładnie trzy loty, tak aby startując w Atlancie i lądując w Detroit, odwiedził wszystkie miasta? W tym przypadku łatwo stwierdzić, że podróżnik musi lecieć trasą Atlanta – Chicago -Baltimore – Detroit. Jeśli jednak liczba miast i połączeń wzrasta, to, jak we wszystkich problemach klasy NP, liczba możliwych tras do sprawdzenia gwałtownie rośnie. Molekularny komputer rozwiązał ten problem, stosując brutalną siłę i rozległy paralelizm. "Komputerowy" program miał postać mieszaniny bilionów fragmentów cząsteczek DNA z jedną nicią helisy, reprezentujących miasta lub połączenia. Wśród ogromnej liczby kombinacji, do jakich doprowadziło łączenie komplementarnych nici DNA, niemal na pewno musiała się znaleźć również kombinacja o pożądanych własnościach. Następnie Adleman posłużył się standardowymi metodami biologii molekularnej, by wyłowić tę cząsteczkę: "rozwiązanie" wyraźnie różniło się od innych cząsteczek długością i składem.45 Później wykazano, że DNA może posłużyć do rozwiązywania innych problemów – wymagających przeszukania ogromnego zbioru potencjalnych rozwiązań – które przekraczają możliwości dowolnego konwencjonalnego komputera.46 Obecnie uczeni usiłują skonstruować uniwersalny komputer molekularny, zdolny do rozwiązania dowolnego problemu obliczeniowego. Ponieważ DNA może przechowywać i wynajdywać dane, pewnego dnia prawdopodobnie uda się opracować ogólną metodę molekularną regulowania oddziaływań między cząsteczkami i wydobywania z nich danych. To z kolei zapewne przyczyni się do rozwiązania problemu, czy układy biologiczne to rzeczywiście skomplikowane urządzenia obliczeniowe, wykonujące instrukcje zawarte w genach. Moglibyśmy wówczas poznać nowe szczegóły ewolucji i wyjaśnić przebieg złożonych procesów biochemicznych, takich jak te, które zachodzą w ludzkim mózgu. Z technicznego punktu widzenia warto pamiętać, że choć istniejące obecnie superkomputery są zdolne do wykonywania biliona operacji na sekundę, komputery molekularne mogą być miliard razy szybsze. Magazynowanie informacji w cząsteczkach DNA wymaga bilion razy mniej miejsca niż współczesne metody, takie jak dyski CD, i zużywa wiele rzędów wielkości mniej energii. Kto wie, do jakiej rewolucyjnej symbiozy doprowadzi to nowe skrzyżowanie nauki z komputerem? W przyszłości będziemy z pewnością oglądać dalsze przykłady syntezy dwóch głównych wątków tej książki: zdolności komputerów do symulowania złożoności i umiejętności rozwiązywania problemów, jaką wykazują złożone układy biologiczne, a zwłaszcza ludzki mózg. Proszę sobie wyobrazić supermózg, utworzony przez globalną sieć komputerów molekularnych, wykorzystujących DNA. Czy ewolucja takiego supermózgu doprowadziłaby do powstania globalnej inteligencji? Jeśli tak, to zaczęłaby się nowa epoka w historii ewolucji. DODATEK CZYTANIE W MYŚLACH Wczoraj trzech uczonych otrzymało Nagrodę Nobla za odkrycie najmniejszego obiektu we Wszechświecie. Okazało się, że jest to kotlet u Denny'ego. JAY LENO, komik TV Komputery nie tylko pozwalają modelować złożoności mózgu, lecz stwarzają również możliwość nadzwyczaj szczegółowego badania jego struktury oraz działania, uzupełniając w ten sposób doświadczenia na zwierzętach i ofiarach uszkodzeń mózgu. Zdolność do przetwarzania ogromnej ilości danych z wielu czujników jest zasadniczym elementem wielu bardzo skutecznych, nieinwazyjnych metod obrazowania mózgu. Skanery mózgu osiągnęły taki poziom skomplikowania, że potrafimy obserwować działanie ogromnych sieci neuronów, i to z rozdzielczością czasową rzędu jednej tysięcznej sekundy. Dzięki technice możemy przeniknąć przez czaszkę i zdobyć informacje o umysłowym pejzażu mózgu. Takie metody nie pozwalają odczytać myśli pacjenta, ale umożliwiają stwierdzenie, gdzie zachodzi proces myślenia i czy przebiega on poprawnie. Uzyskane informacje na temat funkcjonowania mózgu można użyć podczas budowy sieci neuronowych, aby wyjaśnić jego organizację. Najstarsza, najbardziej rozpowszechniona i najmniej uzależniona od komputera jest elektroencefalografia (EEG), polegająca na rejestracji pola elektrycznego w mózgu za pomocą elektrod przyłożonych do czaszki. Metoda ta nie pozwala dokładnie zlokalizować zaburzeń elektrycznych, gdyż ich obraz jest zatarty przez tkankę. Mimo to EEG dostarcza cennych i często intrygujących informacji, umożliwiając śledzenie zmian aktywności w skali milisekundowej. Na przykład Nathan Fox z Uniwersytetu stanu Maryland wykazał na podstawie danych z EEG, że elektryczna aktywność w prawej półkuli mózgu dziecka pozwala przewidzieć, czy wyrośnie ono na człowieka nieśmiałego. Jest to pierwszy przykład związku zachowania społecznego i czynników fizjologicznych.1 EEG jest względnie prymitywną metodą czytania w myślach, zwłaszcza w porównaniu z nowymi technikami, wymagającymi ogromnych obliczeń, ale pozwalającymi zlokalizować ośrodki aktywności głęboko w mózgu. Dwie najpopularniejsze obecnie metody to tomografia wykorzystująca emisję pozytonów (Positron Emission Tomography – PET) i obrazowanie za pomocą analizy rezonansu magnetycznego (Magnetic Resonance Imaging – MRl). Obie metody polegają na śledzeniu aktywności mózgu przez pomiar zapotrzebowania komórek na krew. Doskonalszą metodą jest PET. Dzięki niej otrzymaliśmy pierwsze obrazy działających ośrodków mózgu, uzyskane za pomocą pomiarów drobnych zmian przepływu krwi, które występują po zażyciu takich substancji, jak alkohol, lub gdy myślimy.2 W typowych doświadczeniach pacjent otrzymuje zastrzyk niewielkiej ilości wody, oznaczonej krótko żyjącym, nieszkodliwym radioizotopem tlenu 15O (Ryc. D.l). Głowa pacjenta znajduje się w pierścieniowym detektorze promieniowania. Nietrwałe jądro tlenu rozpada się, emitując pozyton (dodatnio naładowana antycząstka elektronu). Pozyton natychmiast zderza się z elektronem, co powoduje anihilację cząstek i powstanie pary silnie skorelowanych fotonów, które opuszczają miejsce zderzenia w przeciwnych kierunkach.3 Po mniej więcej minucie wstrzyknięta woda przedostaje się do mózgu w tempie zależnym od szybkości przepływu krwi. Im większy przepływ, tym wyższy poziom promieniowania w mózgu, co można zarejestrować za pomocą detektora PET. PET zademonstrował nadzwyczajną sprawność mózgu w filtrowaniu informacji o cechach otoczenia na podstawie zmian natężenia światła, docierającego do siatkówki. Zdaniem Semira Zekiego z University College w Londynie, jednego z najwybitniejszych uczonych, badających widzenie, dzięki tomografii pozytonowej ta dziedzina badań ma równie naukowy, co filozoficzny charakter.4 Ryc. D.1. W ośrodku cyklotronowym Medical Research Council w Hammersmith, w zachodniej części Londynu, skaner PET jest wykorzystywany do badania "laboratorium przetwarzania kolorów" w mózgu. Długość fali światła odbitego od powierzchni obiektu zmienia się znacznie, w zależności od tego, czy jest on oświetlony żarówką, światłem dziennym czy światłem w porze zmierzchu. Mimo to większości obiektów przypisujemy zawsze takie same kolory: drzewo wydaje się zielone zarówno rano, jak i wieczorem. Ten paradoks interesował wielu wielkich uczonych i filozofów, takich jak Newton, Young, Maxwell, Helmholtz, Goethe, Schrodinger i Wittgenstein.5 Wcześniej, na podstawie badań pacjentów z uszkodzeniami mózgu, niektórzy uczeni sformułowali hipotezę, że w mózgu istnieje "ośrodek kolorów". Została ona zaakceptowana dopiero niedawno, gdy Semir Zeki potwierdził istnienie takiego ośrodka, najpierw badając makaki, a następnie śledząc skanerem PET działanie ludzkiego mózgu. Zeki i Richard Frackowiak – z ośrodka cyklotronowego Medical Research Council w Hammersmith w zachodnim Londynie -porównywali aktywność mózgu, gdy pacjent oglądał kolorowy, abstrakcyjny obraz Mondriana, pozbawiony rozpoznawalnych kształtów, oraz gdy patrzył na szary obraz. W ten sposób odkryli w tylnej części mózgu ośrodek, będący laboratorium przetwarzania kolorów.6 Zeki następnie wykazał, że istnieje oddzielny ośrodek do opracowania obrazu ruchu, potwierdzając, że kolor, kształt, ruch i, być może, inne atrybuty widzialnego świata są oddzielnie przetwarzane w mózgu. Praca ta była prawdziwą tour de force techniki skanowania, ale metoda PET ma oczywiste niedostatki: jest powolna i wymaga zastosowania promieniowania. MRI może zająć miejsce PET, ponieważ umożliwia uzyskanie względnie wysokiej rozdzielczości przestrzennej i czasowej. Metoda rezonansu magnetycznego jest używana od dziesięciu lat do badania ludzkiego ciała. Stosuje się ją z powodzeniem do lokalizacji guzów nowotworowych i badania miękkiej tkanki, niewidocznej dla promieniowania rentgenowskiego. Do przeprowadzenia badania konieczne jest pole magnetyczne kilkadziesiąt tysięcy razy mocniejsze niż ziemskie. Takie pole magnetyczne sprawia, że jądra wielu atomów ustawiają się równolegle. Gdy skierujemy na nie fale radiowe o odpowiednio dobranej częstości, jądra będą zmieniać swoje położenie względem kierunku pola. Jądra wodoru – protony – obficie występujące w wodzie i substancjach organicznych, należą do najcenniejszych rezonatorów. Oscylujące jądra wodoru emitują fale radiowe, których częstość zależy od cząsteczek w otoczeniu danego protonu. Ponadto, im więcej protonów w danym miejscu, tym mocniejsze promieniowanie. Niedawno zmarły Linus Pauling pierwszy zauważył w 1937 roku, że obecność tlenu gwałtownie zmienia własności magnetyczne krwi. W 1990 roku zespół pracujący pod kierunkiem Sejio Ogawy z Bell Laboratories w New Jersey zademonstrował, że posługując się metodą MRI, można sporządzić mapę zmian w mózgu.7 Silne pole magnetyczne skanera porządkuje wzajemne ustawienie jąder żelaza w hemoglobinie – cząsteczce zawartej we krwi – która przenosi tlen. Lokalne pole magnetyczne w otoczeniu cząsteczki hemoglobiny powoduje charakterystyczne zniekształcenie sygnału radiowego emitowanego przez pobliskie protony; można to zarejestrować skanerem. Ponieważ w ten sposób namagnesują się tylko cząsteczki hemoglobiny pozbawione tlenu, efekt ten jest widoczny głównie wtedy, gdy krew odpływa do serca, a nie przypływa do mózgu.8 Takie subtelne efekty pozwalają zarejestrować zmiany w przepływie krwi w obszarach mózgu o rozmiarach jednego milimetra, ale – podobnie jak w metodzie PET – rozdzielczość czasowa jest zbyt mała, aby można było śledzić dynamikę neuronów. Posługując się tą metodą, zespół uczonych amerykańskich zaobserwował, że gdy chodzi o przetwarzanie mowy, mózg mężczyzn jest zorganizowany inaczej niż mózg kobiety.9 Natomiast Xiaoping Hu i jego współpracownicy z Center for Magnetic Resonance Research Uniwersytetu stanu Minnesota prześledzili działanie wyobraźni.10 Stwierdzili oni, że gdy pacjenci coś sobie wyobrażają, pobudzone są również ośrodki wzrokowe, choć poziom aktywności jest dwa razy niższy, niż gdy badani rzeczywiście coś obserwują. Ten sam zespół wykrył podobne zjawisko w ośrodku przetwarzania dźwięków, gdy pacjenci mieli sobie wyobrazić, że coś mówią. Hu i jego współpracownicy zlokalizowali również obszar mózgu, biorący udział w kształtowaniu umysłowego obrazu czy też mapy. Obszar ten mieści się w przerwie między płatem ciemieniowym a potylicznym i staje się aktywny, gdy pacjenci mają sobie wyobrazić, że szukają drogi do domu. Wśród badanych był japoński taksówkarz, który wskutek odniesionej rany głowy stracił orientację w mieście. Okazało się, że ma uszkodzoną właśnie tę część mózgu, którą zlokalizował Hu. Ryc. D.2. Odliczanie, aż pacjent powie "kot". W okresie od spostrzeżenia kota do wypowiedzenia słowa "kot" Finss, posługując się skanerem, wykrył następujące fazy: 0 s: pacjentowi ukazuje się obraz kota; 0-200 milisekund: zostaje pobudzony ośrodek wzrokowy w tylnej części mózgu; 200-400 milisekund: zostają pobudzone ośrodki mowy, również w tylnej części mózgu; 500 milisekund: zostają pobudzone ośrodki mowy w przedniej części mózgu, zwłaszcza ośrodek odpowiedzialny za uformowanie nazwy "kot" (choć uważa się, że to lewa półkula odgrywa dominującą rolę w przetwarzaniu języka, widać aktywność w obu półkulach); 500-800 milisekund: aktywizacja ośrodków motorycznych, regulujących działanie mięśni ust i strun głosowych; 830 milisekund: pacjent mówi "kot". Mózg działa z fantastyczną szybkością. Na przykład obraz wyświetlony na ekranie dociera do wyspecjalizowanego ośrodka wzrokowego w korze już po trzydziestu milisekundach.11 Jak dotychczas, wszystkie skanery były zbyt wolne, aby uchwycić myśl w locie. Teraz to się zmieniło. Riitta Salmelin i jej współpracownicy12 z Politechniki Helsińskiej pokazali, jak można prześledzić myśl, której odpowiada fala aktywności neuronów, wychodząca z tylnej części mózgu i ogarniająca obie półkule (Ryc. D.2). Sześciu badanych pacjentów miało wykonać dobrze wszystkim znaną czynność – nazwać pokazany obraz, na przykład kota. Pomiar polega na rejestracji szybko-zmiennego pola magnetycznego, generowanego przez zmienne pole elektryczne w świadomym mózgu. Pionierem tej metody, zwanej magneto-encefalografią (MEG), był David Cohen z Massachusettes Institute of Technology, który w 1968 roku wykazał, że można zarejestrować sygnały magnetyczne generowane przez prądy elektryczne w mózgu. Ta metoda pozwala uniknąć podstawowej wady EEG, czyli zamazywania elektrycznych sygnałów w tkance. Pole magnetyczne przenika niemagnetyczne materiały, takie jak mózg, bez żadnych zniekształceń, co pozwala monitorować szybkie zmiany aktywności neuronów w skali milisekund. Te metoda już pomaga w pracy chirurgom z Wydziału Fizjologii i Biofizyki Uniwersytetu Nowojorskiego, którym kieruje Rodolfo Llinas. Mają oni nadzieję, że w niedalekiej przyszłości uda im się zlokalizować ośrodek mowy i wiele innych, a następnie będą mogli praktykować "cyfrowym skalpelem", nim dotkną choćby włosów pacjenta. W ich metodzie zwykły skaner MRI służy do odsłonięcia skomplikowanych fałd żywego mózgu. Następnie za pomocą MEG można śledzić działanie ośrodków mózgu, na przykład kontrolujących ruchy palców. MEG pozwala dostrzec, jak w kilka tysięcznych sekundy, nim pacjent poruszy palcem, komórki w ośrodku motorycznym mózgu wysyłają odpowiednie sygnały do mięśni. Drugi obraz, wykonany czterdzieści tysięcznych sekundy później, pokazuje, jak inny ośrodek przetwarza informację z mięśni i stawów, tak że palec rzeczywiście się porusza. "To zdumiewające – twierdzi Llinas. – Obserwujemy w realnym czasie, jak działa mózg". PRZYPISY PROLOG 1. Brat von Neumanna podaje przykłady jego poczucia humoru. Von Neumann szczególnie lubił anegdotę o zdarzeniu na ulicy w Berlinie w czasach I wojny światowej. Mężczyzna na rogu ulicy wielokrotnie wykrzykuje: "Cesarz jest idiotą! Cesarz jest idiotą!" Pojawiają się dwaj agenci i aresztują go za zdradę stanu.. Aleja mówiłem o austriackim cesarzu, nie o naszym!" – broni się tamten. "Nie oszukasz nas! – odpowiada agent. – My wiemy, kto jest idiotą!" Według: Nicholas A. Vonneuman, John von Neumann, as seen by his brother, s. 39, © Nicholas Vonneuman, PO Box 3097, Meadowbrook, PA 19046 USA, 1987 – za zgodą autora. 2. A. Hodges, Alan Turing: The Enigma. Vintage, Londyn 1992, s. 95. P. Hilton, "American Association for the Advancement of Science", luty 1995. 3. Ibid., s. 89. 4. A. Turing, Computing machinery and intelligence, "Mind" 59, nr 236. Patrz także: D. Hofstadter, D. Dennett (red.), The Mind's I. Basic Books, Nowy Jork 1981. 5. A. Hodges, Alan Turing: The Enigma. Vintage, Londyn 1992, s. xiii. 6. Ibid., s. 488. "W pewnym sensie Turing przygotowywał się do tego, ale nie wybrał z premedytacją chwili, kiedy to nastąpi. Niewątpliwie duże znaczenie miał tu długi weekend; Turing ich nie znosił. Gdy był w pracy, potrafił zapomnieć o swojej sytuacji". P. Hilton w wywiadzie udzielonym R. Highfieldowi, luty 1995. Hilton przyłączył się do prac nad łamaniem szyfrów w styczniu 1942 roku i wtedy poznał Turinga, z którym pracował nad kodami niemieckiej marynarki wojennej. Pierwsze pytanie Turinga brzmiało: "Hilton, czy grasz w szachy?" Zaprzyjaźnili się, gdy Hilton pomógł mu rozwiązać problem szachowy, o którym Turing obsesyjnie rozmyślał. 7. P. Hilton,. American Association for the Advancement of Science", luty 1995. 8. A. Hodges, Alan Turing: The Enigma. Vintage, Londyn 1992, s. 519. 9. Nicholas A. Vonneuman, "John von Neumann, as seen by his brother", s. 4, © Nicholas Vonneuman, PO Box 3097, Meadowbrook, PA 19046 USA, 1987. 10. John von Neumann, The Computer and the Brain. Yale University Press, New Haven 1958, s. 82. Rozdział 1: TAJEMNA SZTUKA 1. I. Kant, Universal Natural History and Theory of Heavens. Przekład na angielski S. Jaki. Scottish Academic Press, Edynburg 1981, s. 87. 2. Jak już zauważyliśmy, zgodnie z drugą zasadą termodynamiki nieodzownym elementem makroskopowej złożoności jest nieodwracalność. Ta zasada jest w sprzeczności z prawami fizyki mikroskopowej, które opisują tylko procesy odwracalne. Problem ten rozważaliśmy w naszej wcześniejszej książce, The Arrow of Time. Wydanie polskie: Strzaffca czasu. Przełożył P. Amsterdamski. Zysk i Ska (w przygotowaniu). 3. O. Penrose, P. V. Coveney, "Proc. R. Soc. London", A447, 631 (1994). Praca ta pokazuje m.in. na bardzo prostym przykładzie, że jeśli mikroskopowy, klasyczny opis mechaniczny ma być zgodny z makroskopowym, to trzeba przyjąć pewne ograniczenia dotyczące możliwych obserwacji mikroskopowych. 4. M. Gell-Mann, Kwark i jaguar. Przełożył P. Amsterdamski. CIS, Warszawa 1995. 5. Mówiąc ściśle, wykresy te przedstawiają wykładniki Lapunowa. Rozwiązanie opisuje chaos tylko wtedy, gdy co najmniej jeden wykładnik jest dodatni. 6. Odkrycie to potwierdziło teorię unifikacji elektromagnetyzmu i oddziaływań słabych. 7. W marcu 1995 roku dwa zespoły fizyków z Fermi National Laboratory w pobliżu Chicago, liczące 450 osób każdy, jednocześnie przekazały doniesienia o odkryciu do "Physical Review Letters". Jednak wynik wzbudził rozczarowanie: fizykom udało się tylko zredukować prawdopodobieństwo, że obserwowane zdarzenia nie są związane z istnieniem kwarka z 1/400 -oszacowanie podane rok wcześniej – do 1/500 000. Już przed wielu laty poważni uczestnicy konferencji na temat fizyki cząstek elementarnych przewidywali, że w pewnym momencie ktoś z Fermilabu ogłosi odkrycie kwarka szczytowego, ponieważ tylko tam istnieją detektory pozwalające zarejestrować cząstkę o tak dużej masie. Dośwladczalnicy zazwyczaj stwierdzają tylko, że gdyby cząstka miała taką to a taką masę, zostałaby wykryta, a zatem musi być cięższa. Sygnały mówiące o istnieniu kwarka szczytowego krążyły już w środowisku fizyków co najmniej od 1992 roku. 8. A. Toffler, we wstępie do: I. Prigogine, I. Stengers, Order Out of Chaos. Heinemann, Londyn 1984, s. xi [Wydanie polskie: Z chaosu ku porządkowi. Przełożyła K. Lipszyc. PIW, Warszawa 1990]. 9. S. Rose, "Nature" 373, 380 (1995). 10. J. Monod, Przypadek i konieczność. Esej o filozofii biologii współczesnej. Przełożył J. Bukowski. Głos, Warszawa 1979. 11. Nie oznacza to, że Bóg został wyeliminowany z teorii Habgooda. "W całym procesie można dostrzec rękę Boga. Bardzo upraszczając, można powiedzieć, że prawa fizyki są zapisane w Bożym umyśle". Arcybiskup Habgood, w wywiadzie udzielonym R. Highfieldowi, wrzesień 1994. 12. Arcybiskup Habgood, A Theological Undestanding of Life and Death, "British Association for the Advancement of Science", wrzesień 1994. 13. Jedno należy jasno stwierdzić: zjawiska obliczeniowe i naturalne nigdy nie będą identyczne. Pierwsze są wynikiem dyskretnych (cyfrowych) obliczeń, a drugie wiąże się z ciągłymi (analogowymi) procesami. Do tego rozróżnienia powrócimy w rozdziałach 2., 3. i 9. 14. Oto przykład: "Nie istnieje wewnętrzna definicja złożoności. Określenie złożoności zawsze zależy od kontekstu". M. Gell-Mann, w rozmowie z autorami, marzec 1994. Proszę zwrócić uwagę, że termin naukowy "chaos" ma precyzyjną definicję matematyczną i jego znaczenie odbiega od tego, jak się to słowo rozumie na co dzień. W tekstach popularnych uczeni często celowo nadają temu słowu niejasny sens, a laicy zazwyczaj w ogóle nie rozumieją terminu "chaos". 15. C. Emmeche, The Garden in the Machine: The Emerging Science of Artificial Life. Princeton University Press, Princeton 1994, s. 18. D. Johnson, redaktor działu sztuki i książek w "The Daily Telegraph", wskazuje, że w ramach pewnego podejścia do uczenia sztuk pięknych, sztuka jest definiowana niemal tak samo – nie jako coś, co można oglądać lub dotykać, lecz jako proces, w którym idee stanowią sztukę. Rozdział 2: KOD ARTYSTY 1. A. Pope, Wiersz o człowieku. List II [O przyrodzeniu i stanie Człowieka w stosunku do niego samego w szczególności], w: Poeci języka angielskiego, tom II. Wybór i opracowanie: H. Krzeczkowski, J. S. Sito, J. Żuławski. PIW, Warszawa 1971, s. 44. [Pełny tekst poematu w: Wiersz o człowieku Alexandra Pope. Przekład L. Kamieńskiego. Nakładem Zawadzkiego i Węckiego, Warszawa 1816 (przyp. red.)]. Ton tego poematu jest wyraźnie dwuznaczny, zwłaszcza w porównaniu ze słynnym epitafium, jakie Pope zaproponował na nagrobek Newtona: Nature, and Nature's Laws lay hid in Night/ God said, Let Newton be! and All was Light. (Przyroda i jej prawa leżały skryte w ciemnościach. Bóg powiedział: Niech będzie Newton! I stała się jasność). 2. R. Bacon, Opus Maius, 4, III. University of Pennsylvania Press, 1928. 3. Stwierdzenie to jest ważne z zastrzeżeniem, że wykluczamy z naszych rozważań komputer kwantowy. Takie maszyny omawiamy w rozdziale 3. 4. Jak się wkrótce przekonamy, oznacza to, że proces ten musi mieć reprezentację algorytmiczną. 5. Companion Encyclopaedia of the History and Philosophy of the Mathematical Sciences, torn 2, I. Grattan-Guinness (red.). Routledge, Londyn 1944, s. 1054. 6. John D. Barrow, K razy drzwi. Przełożyła K. Lipszyc. Prószyński i S-ka, Warszawa 1996, s. 419. Odpowiedź, jaka nieuchronnie wynika z naszej książki, brzmi, że matematyka działa, ponieważ mózg ewoluował tak, by poznawać świat, w którym żyjemy. Zgadza się to ze wspomnianą w prologu wizją von Neumanna. 7. Nie brakuje przykładów protomatematycznej aktywności; w latach pięćdziesiątych wykopano w Ishango (obecnie na terenie Zairu) kość z okresu 9000-6500 p.n.e. z naciętymi i połączonymi w grupy znakami karbowymi. W 1937 roku w środkowej Czechosłowacji znaleziono liczącą 30 000 lat kość wilka z wyciętymi 55 znakami, połączonymi w grupy po 5 nacięć. Być może był to zapis wyników polowania, zorganizowany na wzór palców ręki myśliwego. Zob.: L. Bunt, P. Jones, J. Bedlent, The Historical Roots of Elementary Mathematics. Prentice-Hall, New Jersey, Englewood Cliffs, s. l, oraz Companion Encyclopaedia of the History and Philosophy of the Mathematical Sciences, torn 1, I. Grattan-Guinness (red.). Routledge, Londyn 1944, s. 31. 8. U Arystotelesa czytamy: "Dlatego też nauki matematyczne rozwinęły się najpierw w Egipcie; tam bowiem kasta kapłańska rozporządzała wolnym czasem" – Arystoteles, Metafizyka. Przełożył, wstępem, komentarzem i skorowidzem opatrzył K. Leśniak. PWN, Warszawa 1983, s. 6. Zob. również: Proklos, On Euclid /, w: Thomas, Greek Mathematical Works/. Heinemann, 1939, s. 145-147: "Według większości relacji, geometrię odkryli Egipcjanie; wywodzi się ona z pomiarów pól". 9. Pitagorejczycy przyjęli za swój symbol pięcioramienną gwiazdę (pentagram). Przypisywali oni całkowite liczby takim podstawowym pojęciom, jak sprawiedliwość, dusza i powodzenie. Zbadali związek między długością struny i wysokością tonu; było to jedno z pierwszych praw fizycznych odkrytych na drodze eksperymentalnej. Wierzyli, że liczby są istotą wszechrzeczy. M. Kline, Mathematical Thought from Ancient to Modern Times. Oxford University Press, Nowy Jork 1972. Choć uczeni przedstawiciele niektórych starożytnych cywilizacji, na przykład Egipcjanie i Babilończycy, nauczyli się myśleć o liczbach w oderwaniu od przedmiotów, nie jest jasne, w jakiej mierze zdawali sobie sprawę z abstrakcyjnego charakteru takich rozważań. 10. W. Burkert, Lore and Science in Ancient Pythogoreanism. Harvard University Press, Cambridge 1972, s. 112. Eudemus, pierwszy historyk matematyki, uważał Pitagorasa za twórcę czystej matematyki. Według relacji wielbicieli, Pitagoras był dociekliwym uczonym i filozofem, świętym człowiekiem, doskonałym politykiem oraz mężem stanu. S. Bochner, The Role of Mathematics in the Rise of Science. Princeton University Press, Princeton 1966, s. 359. Jego rzeczywisty wkład w rozwój matematyki przesłaniają rozliczne legendy. Jest wątpliwe, by sam był rzeczywiście autorem jakichś ważnych odkryć matematycznych. Companion Encyclopaedia of the History and Philosophy of the Mathematical Sciences, torn 1, s. 46. M. Kline, Mathematical Thought from Ancients to Modern Times, s. 28. 11. Twierdzenie Pitagorasa mówi, że kwadrat długości przeciwprostokątnej jest równy sumie kwadratów długości przyprostokątnych. Jednak jeśli zastosujemy je do kwadratu o jednostkowym boku, to stwierdzimy, że długość przekątnej jest równa – jak dziś mówimy – pierwiastkowi z dwóch. Pitagorejczycy później wykazali, że jest to liczba niewymierna, to znaczy nie można jej przedstawić w postaci stosunku dwóch liczb całkowitych; wprawiło ich to w konsternację, bo oznacza to, że nie da się dokładnie zmierzyć długości przekątnej. Odkrycie liczb niewymiernych wywarło głęboki wpływ na ich wiarę w matematykę jako sekretny kod opisujący wszechświat. Kryzys ten był zapowiedzią filozoficznych problemów, jakie powstały w XX wieku w związku z nieobliczalnością. 12. B. Russell, Mój rozwój filozoficzny. Przełożyli: H. Krahelska, Cz. Znamierowski. PWN, Warszawa 1971. 13. N. Wiener, Cybernetics, or Control and Communications in the Animal and the Machine. Wyd. II. MIT Press, John Wiley & Sons, Nowy Jork, Londyn 1961, s. 2. 14. Mimo ogromnych zasług, pod koniec życia Leibniz był wyśmiewany z powodu swych staromodnych i nadmiernie ozdobnych szat, ogromnej czarnej peruki i coraz bardziej szalonych pomysłów. Pogrzeb Leibniza radykalnie kontrastował z celebrą, wierszami oraz pomnikami, którymi upamiętniono życie jego rywala, Newtona. Jedyną osobą, która przyszła pożegnać Leibniza, był jego osobisty sekretarz. Jak zapisał świadek: "[...] pochowano go raczej jak złodzieja, niż jak człowieka, który był prawdziwą chlubą swego kraju". H. Goldstine, The Computer: From Pascal to von Neumann. Princeton University Press, Princeton 1972, s. 9. 15. "Gdybyśmy potrafili znaleźć symbole lub znaki oddające wszystkie nasze myśli równie jasno i dokładnie, jak arytmetyka wyraża liczby, a geometria linie, moglibyśmy we wszystkich dziedzinach, poddających się rozumowaniu osiągnąć to samo, co w arytmetyce lub geometrii [...]. A gdyby ktoś podawał w wątpliwość moje wyniki, powiedziałbym mu -•Obliczmy to, łaskawy panie* – i wkrótce za pomocą pióra i atramentu rozstrzygnęlibyśmy nasz problem". G. Leibniz, The Philosophical Works of Leibniz. Tuttle, Morehouse & Taylor, Connecticut, New Haven 1916. Choć wypowiedź ta wydaje się prorocza, jednocześnie przypomina pychę niektórych dwudziestowiecznych informatyków; nawet za życia Leibniz stał się przedmiotem satyry Swifta w Voyage to Balnibarbi. Zob.: G. Mac-Donald Ross, Leibniz. Oxford University Press, Oksford 1984, s. 13. 16. Data 8 maja 1686 roku została dodana w drugim wydaniu, zapewne wskutek ostrego sporu z Leibnizem na temat pierwszeństwa w odkryciu rachunku różniczkowego. Cytat w tekście omija uwagę w nawiasie "(jak podaje Pappus)". Pappus z Aleksandrii w 320 roku napisał zbiór krytycznych komentarzy o wcześniejszych pracach. 17. I. Newton, Sir Isaac Newton's Mathematical Principles of Natural Philosophy and His System of the World. University of California Press, Berkeley 1934, Wstęp do pierwszego wydania, s. xvii. 18. J. Jeans, "Philosophy" 7, 9 i 12 (1932). 19. "Tak właśnie, jakeśmy to przed chwilą mówili, jak on w górę gdzieś pociąga duszę i zmuszają do zajmowania się liczbami samymi, a nie dopuszcza żadną miarą, żeby mu ktoś widzialne albo dotykalne ciała, mające swoje liczby, pokazywał i o nich mówił". Platon, Państwo. Przełożył W. Witwicki. Alfa, Warszawa 1994, tom II, ks. VII, s. 74. 20. Godfrey Hardy (1877-1947), wybitny matematyk angielski, pisał: "Sądzę, że rzeczywistość matematyczna znajduje się poza nami, a naszym zadaniem jest odkrywać ją lub obserwować i że twierdzenia, których prawdziwość dowodzimy i które opisujemy górnolotnie jako nasze wytwory – to po prostu zapiski z naszych obserwacji". Godfrey Hardy, Apologia matematyka. Przełożył Marek Fedyszak. Prószyński i S-ka, Warszawa 1997, s. 86. 21. E. Wigner, "Communications in Pure and Applied Mathematics" 13, l (1960). 22. B. Newton-Smith, w wywiadzie udzielonym R. Highfieldowi, czerwiec 1994. 23. P. Kitcher, The Nature of Mathematical Knowledge. Oxford University Press, Oksford 1983, s. 5. 24. N. Cartwright, How the Laws of Physics Lie. Clarendon Press, Oksford 1983, s. 19. 25. Ibid., s. 3. 26. Ostatnio pewne twierdzenia abstrakcyjnej teorii liczb znalazły zastosowanie w badaniach układów dynamicznych, a zwłaszcza w analizie rozkładu poziomów energii w reżymie półklasycznym, czyli na granicy między mechaniką klasyczną i kwantową. Szczególnie intrygujący jest przykład podany przez Mike'a Berry'ego z Uniwersytetu Bristolskiego: twierdzi on, że poziomy energetyczne pewnego konkretnego, dotychczas nie znanego układu (z asymetrycznym w czasie hamiltonianem) odpowiadają rozkładowi zer funkcji zeta Riemanna. Berry dowodzi, że jeśli słuszna jest hipoteza Riemanna (zgodnie z którą wszystkie zera leżą na jednej linii), to w granicy klasycznej układ staje się chaotyczny; M. V. Berry, "Proc. R. Soc. London" A400, 229 (1985). Nikomu jeszcze nie udało się dowieść hipotezy Riemanna, choć wyniki numeryczne potwierdzają jej słuszność aż do bardzo dużych wartości argumentu. Byłoby interesujące, gdyby taki dowód pojawił się dzięki fizyce. 27. Ich zachowanie z kolei można całkowicie wyjaśnić, odwołując się do własności licznych cząstek elementarnych, takich jak elektrony, protony, neutrony i kwarki – lecz nie jest bynajmniej jasne, czy ten ciąg coraz głębszych poziomów objaśnień kiedyś się skończy. 28. Jedną z najbardziej oczywistych trudności dla atomistycznych redukcjonistów jest druga zasada termodynamiki, która stwierdza, że ewolucja układów makroskopowych jest nieodwracalna w czasie, mimo iż wszystkie mikroskopowe równania ruchu są odwracalne. Ten problem omawialiśmy szeroko w naszej poprzedniej książce, Strzałce czasu. Nowe koncepcje, mogące pomóc w rozwiązaniu tych paradoksów, przedstawiają artykuły: O. Penrose, P. V. Coveney, "Proc. R. Soc. London" A447, 631, (1994); P. V. Coveney, A.K. Evans, "J. Stat. Phys." 77, 229, (1994); A. K. Evans, P. V. Coveney, "Proc. R. Soc. London" A448, 293, (1995). 29. Proszę jednak pamiętać, że niemiecki matematyk Georg Cantor (1945-1918) wprowadził do matematyki liczby nieskończone w całkowicie niesprzeczny sposób, rozważając zbiory nieskończone. 30. Niemal jednocześnie B. Russell rozpoczął pracę nad podobnym przedsięwzięciem. W 1900 roku Russell wziął udział w Międzynarodowym Kongresie Filozoficznym w Paryżu, gdzie wygłosił referat (B. Russell, L'Idee d'ordre et la position absolue dans I'espace et le temps. Congres international de philosophic, logique, et histoire des sciences, tom III, Paryż 1901, s. 241). Podczas kongresu zapoznał się z pracami Giuseppe Peano; stanowiło to zwrotny punkt w życiu Russella: "Podczas dyskusji na kongresie zauważyłem, że był zawsze bardziej precyzyjny niż ktokolwiek inny i że niezmiennie wygrywał każdy spór, w jaki się wdał. W miarę upływu dni doszedłem do wniosku, że musi to zawdzięczać swej logice matematycznej". B. Russell, Autobiografia 1872-1914. Przełożył B. Zieliński. Czytelnik 1971. Russell połączył siły ze swym dawnym profesorem matematyki z Cambridge, Alfredem Northern Whiteheadem, i razem stworzyli magnum opus – Principia Mathematica – którego celem było wykazanie, że całą czystą matematykę można zredukować do prymitywnej logiki (można to nazwać "atomizmem logicznym"). Choć Principia Russella są równie ważkie jak Newtona, ich wpływu na naukę nie można porównywać. "Jeden z wielkich intelektualnych pomników wszech czasów" – to typowe określenie dla dzieła Russella. Jednak, podobnie jak wiele pomników, upamiętnia ono honorową śmierć, tym razem śmierć... idei, a nie człowieka. Książka Russella i Whiteheada wywarła niewielki wpływ na współczesną matematykę; Principia nazwano również "wielką i wspaniałą klapą". V. Lowe, Alfred North Whitehead, The Man and His Work, tom I: 1861-1910. The Johns Hopkins University Press, Baltimore 1985, s. 290. 31. Constance Reid, op. cit, s. 73. 32. D. Hilbert, "Bulletin of the American Mathematical Society" VIII, 437, (1901-02). Podczas kongresu Hilbert przedstawił tylko dziesięć z dwudziestu trzech problemów, ponieważ Hermann Minkowski namawiał go, by skrócił swe przemówienie. 33. Zob. przypis 30. Wydaje się, że Russell nie znał programu Hilberta. W styczniu 1914 roku pisał w liście: "Hilbert zainteresował się pracą Whiteheada i moją; mają mnie zaprosić na wykłady w przyszłym roku. Mam nadzieję, że tak zrobią. Niemcy (z wyjątkiem Fregego, który jest nieznany) dotychczas pozostawali w tyle w logice matematycznej, ale jeśli zajmą się nią tamtejsi matematycy, to zapewne dokonają cudów", w: The Selected Letters of Bertrand Russell tom I: The Private Years 1884-1914, Nicholas Griffin (red.). Allen Lane, The Penguin Press, Londyn 1992, s. 487. 34. D. Hilbert, "Bulletin of the American Mathematical Society" VIII, 445. Macmillan, Lancaster, Pensylwania i Nowy Jork 1901-02. Była to riposta na znaną wypowiedź Emila du Bois Reymonda, fizjologa i filozofa. Gdy osiemnastoletni Hilbert wstąpił na uniwersytet w swoim rodzinnym Królewcu, często cytowano stówa Reymonda: Ignoramus et ignorabimus -"nie wiemy i nie będziemy wiedzieć". 35. Constance Reid, op. cit, s. 153. 36. Ibid., s. 148; patrz również "Bull. Am. Math. Soc." 30, 31 (1924) i 30, 81 (1913) oraz "South African J. Sci." 49, 139 (1952). 37. W XX wieku tacy logicy, jak Jan Łukasiewicz, Emil Post i Alfred Tarski, odrzucili zasadę wyłączonego środka i stworzyli systemy logiczne odmienne od logiki Arystotelesa. Jak pisał Alonzo Church w 1932 roku: "Niewątpliwie istnieje więcej niż jeden system formalny, który nadaje się do wykorzystania w charakterze logiki; któryś z tych systemów może być ładniejszy lub wygodniejszy niż pozostałe, ale nie można powiedzieć, że jeden jest słuszny, a wszystkie inne błędne". Zob. także rozważania na temat logiki rozmytej w rozdziale 3. 38. Constance Reid, op. cit, s. 155. Inną ofiarą tego programu byłaby teoria nieskończonych zbiorów Cantora. 39. Ibid., s. 268. 40. Jedna mechaniczna metoda zbadania ogromnego zbioru możliwych dowodów polega na zastosowaniu – jak to się żartobliwie określa -"algorytmu Muzeum Brytyjskiego". Algorytm przegląda wszystkie dowody uporządkowane pod względem długości, odrzucając brednie i wywody błędne logicznie, dzięki czemu otrzymujemy zbiór poprawnych dowodów. G. Chaitin, w wywiadzie udzielonym R. Highfieldowi, grudzień 1994. 41. Oznacza to "człowiek z Choresmu", państwa na Środkowym Wschodzie. Jego praca przetrwała w łacińskim przekładzie Afgorithmi de numbro indorum. Zob. Companion Encyclopaedia of the History and PhiJo-sophy of the Mathematical Sciences, tom l, I. Grattan-Guinness (red.). Routledge, Londyn 1944, s. 689. 42. Constance Reid, op. cit., s. 196. 43. K. Godeł, "Monatshefte fur Mathematik und Physik" 38, 173 (1931). Mówiąc ściśle, twierdzenie Godła powiada, że nie można wykazać niesprzeczności dowolnego aksjornatycznego systemu formalnego obejmującego arytmetykę, posługując się wyłącznie metodami tego systemu. Arytmetyka zajmuje się własnościami liczb całkowitych i operacjami algebraicznymi na tych liczbach, a więc takim zagadnieniami, jak podziel-ność, liczby pierwsze i rozkład liczb na czynniki, partycje, liczby niewymierne i transcendentne, niezależność algebraiczna, rozwiązywanie równań w liczbach całkowitych (równania diofantyczne). Aby dowieść twierdzenia o niezupełności, Godeł skonstruował tak zwane liczby Godła, jednoznacznie odpowiadające dowolnym ciągom symboli systemu formalnego; twierdzenia systemu odpowiadają w ten sposób określonym własnościom liczb Godła. Następnie skonstruował liczbę Godła dla twierdzenia, że formuły związanej z tą liczbą nie można dowieść. Inaczej mówiąc, udowodnił zdanie stwierdzające: "Nie można mnie dowieść". 44. Ta zaskakująca trudność związana jest z dobrze znanymi paradoksami samoodniesienia, badanymi na przełomie wieków przez Bertranda Russella. Paradoksy te wywodzą się z prac Georga Cantora (1845-1918), który opracował metody posługiwania się zbiorami nieskończonymi. Russell napotkał na zasadniczą trudność, gdy próbował rozszerzyć jego prace. Odkrył wtedy logiczne paradoksy, które wprawdzie wydawały się banalne, ale miały katastrofalne skutki dla jego wywodów. 16 czerwca 1902 roku przerażony Russell napisał do Gottloba Fregego, logika, który zainspirował jego badania. W liście przedstawił sprzeczność, którą odkrył rok wcześniej, zaczynając od niewinnego stwierdzenia "Mam trudności tylko wjednym punkcie [...]". W tym czasie Frege przygotowywał drugi tom swojej klasycznej rozprawy o logicznych podstawach arytmetyki, Grundgesetze der Arithmetik. Frege odpisał 22 czerwca: "Pańskie odkrycie sprzeczności jest dla mnie wielką niespodzianką i, powiedziałbym nawet, źródłem poważnej konsternacji [...]. Die arithmetik ist ins Schwanken geraten [arytmetyka się zachwiała]". 45. N. Cooper (red.), From Cardinals to Chaos. Reflexion on the Life and Legacy of Stanislaw Ulam. Cambridge University Press, Cambridge 1989, s. 306. 46. J. von Neumann, J. Bulloff, T. Holyoke, S. Hahan (red.), Foundations of Mathematics, Symposium Papers Commemorating the Sixtieth Birthday of Kurt Gódel. Springer Verlag, Berlin 1969. 47. J. D. Barrow, 71 razy drzwi, s. 38. 48. H. Wang, Reflexions on Kurt Godel. MIT Press, Massachusetts, Cambridge 1987, s. 133. 49. D. Hilbert, Probleme der Grundlegung der Mathematik. Atti del Congresso intemazionale del matematici, Bolonia, 3-10 września 1928. Bolonia 1929, l, s. 135. 50. Na przykład za pomocą tak zwanego algorytmu Muzeum Brytyjskiego. 51. Wykład im. Rouse Balia z 1928 roku, wygłoszony przez Hardy'ego. Cytat za: A. Hodges, Alan Turing: The Enigma, s. 93. 52. A. Hodges, op. cit, s. 11. 53. Andrew Hodges opisuje, jak od śmierci najbliższego przyjaciela, Christophera Morcoma, na gruźlicę w 1930 roku, Turing był zafascynowany fizyczną naturą umysłu. Turing często dyskutował z Marcomem na temat astronomii, szyfrów i nauki. Po jego śmierci miał wrażenie, że ten wciąż pomaga mu w pracy i inspiruje go. Jak na ironię, wielka praca Tu-ringa – On computable numbers, with application to the Entscheidungs-problem – położyła kres wszelkim spekulacjom na temat duchowego przetrwania i komunikacji. Turing stał się materialistą i uważał umysł za maszynę. Jak zauważa Hodges: "Christopher Morcom zmarł po raz drugi, a Computable numbers były oznaką jego zgonu". A. Hodges, op. cit. s. 108. Warto jednak zauważyć, że Turing bardzo interesował się ESP; [ESP – Extrasensory Perception (percepcja pozazmysłowa – przyp. red.] wspomina o tym jak o prawdopodobnym zjawisku (w artykule w czasopiśmie "Mind"). 54. A. Hodges, op. cit, s. 96. 55. A. Turing, "Proceedings of the London Mathematical Society (ser. 2)" 42, 230 i errata 43, 544, 1937. 56. A. Hodges, w wywiadzie udzielonym autorom, czerwiec 1994. 57. A. Hodges, op. cit. s. 106. 58. Sprzeczność powstaje wtedy, gdy maszynę Turinga zastosujemy do niej samej. Zasadniczy element dowodu Turinga okazuje się głęboko związany z dowodem twierdzenia Godła. 59. Dowód stanowi subtelne rozwinięcie Cantorowskiej metody diagonalnej dowodu istnienia liczb niewymiernych (ściślej, wykazania, że moc zbioru liczb rzeczywistych jest większa od mocy zbioru liczb naturalnych). Na pierwszy rzut oka wydaje się, że metoda ta jest zbyt prosta, by pokonać maszynę Turinga. Problem polega na tym, że nie ma żadnych gwarancji, iż – na przykład – maszyna obliczy 5812 cyfrę 5812 liczby w skończonym czasie: maszyna może obliczyć jedną cyfrę, sto, lub nawet pracować bez końca, nie dając żadnych wyników. Nie istnieje sposób, żeby zagwarantować, iż maszyna obliczy kolejne cyfry rozwinięcia dziesiętnego w skończonym czasie, a zatem proces ten nie poddaje się mechanizacji. Wszystkie liczby nieobliczalne są niewymierne, ale nie odwrotnie -niektóre liczby niewymierne, takie jak n i e, są obliczalne, ponieważ dowolną cyfrę ich rozwinięć można obliczyć w skończonym czasie. Problem zakończenia pracy w istocie wynika z faktu, że istnieje nieprzeliczalnie wiele liczb rzeczywistych, zaś liczba maszyn Turinga jest przeliczalna. (Liczby obliczalne tworzą zbiór miary zero). 60. Church posłużył się swoim eleganckim rachunkiem lambda. Zob.: A. Church, "Annals of Mathematics Studies" nr 6. Princeton University Press 1941. Wczesne odkrywcze prace można znaleźć w: M. Davies (red.), Computability: The Undecidable: Basic Papers on Undecidable Propositions, Unsolvable Problems and Computable Functions. Raven Press, Nowy Jork 1965. 61. G. J. Chaitin, The Limits of Mathematics (1994, dostępne przez pocztę elektroniczną – e-mail: chao-dyn@xyz.lanl.gov., "Subject: get 9407010", lub uia World Wide Web – http://xyz.lanl.gov/); G. J. Chaitin, Information-Theoretic Incompletness. World Scientific, Singapur 1992; G. J. Chaitin, Information, Randomness and Incompletness. Wydanie II. World Scientific, Singapur 1990; G. J. Chaitin, Algorithmic Information Theory. Cambridge University Press 1987; G. J. Chaitin, w: The New Scientist Guide to Chaos, N. Hall (red.), Penguin, Londyn 1991. 62. G. J. Chaitin, w wywiadzie udzielonym R. Highfieldowi, listopad 1994. 63. D. Hilbert, "Bulletin of the American Mathematical Society" VIII. Macmillan, Lancaster, Pensylwania i Nowy Jork 1901-02, s. 439. Wielkie twierdzenie Fermata, jeden z najsłynniejszych problemów matematycznych, również dotyczy takich równań. Twierdzenie to mówi, że nie można wyrazić sześcianu żadnej liczby jako sumy sześcianów dwóch liczb, podobnie czwartej potęgi jako sumy czwartych potęg dwóch liczb i tak dalej. 64. Diofantos, grecki matematyk z III wieku p.n.e., jest dość tajemniczą postacią. Wiadomo tylko, ile miał lat, gdy się ożenił, gdy urodził się jego syn i gdy zmarł; informacje te można wywnioskować z arytmetycznej zagadki, zawartej w jego epitafium ("Ten grób daje naukową miarę jego życia"). Zachowało się tylko sześć z trzynastu ksiąg jego dzieła Arithmetica; zawierają one najwcześniejsze przykłady notacji algebraicznej i dotyczą różnych problemów z teorii liczb i geometrii. 65. M. Davis, J. Matijassevich, J. Robinson, Proceedings of Symposia in Pure Mathematics XXVIII, F. Bowder (red.), Providence, Rhode Island, American Mathematical Society 1976, s. 223-378. 66. Kilka lat później James Jones z Uniwersytetu w Calgary i Jurij Matijasewicz odkryli, że można rozwiązać dziesiąty problem Hilberta, nie korzystając ze skomplikowanych pojęć teorii liczb, lecz opierając się na twierdzeniu udowodnionym przez Edouarda Lucasa już sto lat wcześniej. 67. Jest to wykładnicze równanie diofantyczne, to znaczy wykładniki potęg zmiennych występujących w równaniu są również zmiennymi całkowitymi. Dowód Jonesa i Matijasewicza, że dowolne obliczenie można zakodować w postaci wykładniczego równania diofantycznego, został ogłoszony w: "Journal of Symbolic Logic" 49, 818 (1984). 68. G. J. Chaitin, w wywiadzie udzielonym R. Highfieldowi, listopad 1994. 69. Szczegóły można znaleźć w: G. J. Chaitin, Algorithmic Information Theory. 70. G. J. Chaitin, w wywiadzie udzielonym R. Highfieldowi, listopad 1994. 71. G. J. Chaitin, Information, Randomness and Incompletness. 72. Liczba zmiennoprzecinkowa to liczba mająca ustaloną liczbę cyfr, w której przecinek może znajdować się w dowolnym położeniu. 73. W rzeczywistości nie możemy obecnie rozwiązać wielu problemów należących do klasy P, nie mówiąc już o NP, ponieważ potrzebny czas wzrasta jak duża potęga rozmiaru problemu N. Z taką sytuacją mamy do czynienia na przykład obliczając przepływy turbulentne lub wykonując ab initio rachunki kwantowe dla dużych cząsteczek. 74. Ściśle mówiąc, powinniśmy tu zachować większą ostrożność. Klasa NP zawiera problemy, których rozwiązania można sprawdzić (ale nie znaleźć) w czasie wielomianowym za pomocą algorytmu niedetermini-stycznego. Problemy te są zatem określone poprzez algorytm decydowania. Natomiast znalezienie rozwiązania w deterministyczny sposób dla problemów należących do klasy NP może wymagać czasu wykładniczego. Rozróżnienie między algorytmami deterministycznymi i niedetermini-stycznymi do rozwiązywania złożonych problemów ma bardzo głęboki sens. Algorytmy genetyczne, tzw. symulowane wyżarzanie i sieci neuronowe to algorytmy niedeterministyczne, co tłumaczy ich skuteczność w rozwiązywaniu "praktycznie nierozwiązywalnych" problemów (por. dalsze rozdziały). Niektóre sprytne algorytmy niedeterministyczne potrafią sprawdzić wykładniczą liczbę rozwiązań w czasie wielomianowym, a zatem jest niemal pewne, że są one w ogólności mocniejsze niż wielomianowe algorytmy deterministyczne. Wydaje się zatem bardzo prawdopodobne, że klasy P i NP nie są identyczne, ale nikomu dotąd nie udało się tego ściśle udowodnić. y 75. Inne przykłady można znaleźć w: M. Garey, D. S. Johnson, Computers and Intractability, dodatek 3. Ściśle mówiąc, problem komiwojażera należy do klasy tak zwanych problemów NP-zupełnych, najtrudniejszych z całej klasy; algorytm wielomianowy rozwiązujący takie problemy istnieje tylko pod warunkiem, że klasy P i NP są identyczne. Wynika z tego, że gdyby udało się rozwiązać choć jeden problem NP zupełny w czasie wielomianowym, to byłoby wiadomo, że można tak rozwiązać wszystkie problemy NP. 76. D. Stein, "Sci. Amer." 261, 450 (1989). 77. Do sformułowania pojęcia złożoności algorytmicznej przyczynili się: Chałtin, Kołmogorow, Solomonoff, Martin-Lóf, Willis i Loveland; zbiór prac na ten temat znajduje się w: G. J. Chaitin, Information, Randomness and Incompletness. Wyd. II. World Scientific, Singapur 1990. 78. G. J. Chaitin, w wywiadzie udzielonym R. Highfieldowi, grudzień 1994. Chaitin zajął się tymi zagadnieniami pod wpływem prac von Neumanna i opublikował pierwszy ważny artykuł, gdy miał dziewiętnaście lat. 79. G. J. Chaitin, Information, Randomness and Incompletness, s. 88. 80. Zob.: G. J. Chaitin, Algorithmic Information Theory. Cambridge University Press 1987. 81. J. D. Barrow, 7t razy drzwi, s. 234. 82. S. Weinberg, Sen o teorii ostatecznej. Przełożył P. Amsterdamski. Alkazar, Warszawa 1994, s. 13. 83. S. Weinberg, op. cit, s. 29. 84. Ibid., s. 77. 85. Na przykład Pour-El i Richards udowodnili, że dla pewnych danych początkowych po jakimś czasie od emisji pole reprezentowane przez równanie falowe jest nieobliczalne: M. Pour-El, I. Richards,. Ann. Math. Logic" 17, 61 (1979); "Adv. Math." 39, 215 (1981); "Int. J. Theor. Phys." 21, 553 (1982); Computability in Analysis and Physics, Springer-Verlag, Heidelberg 1989. Ich książka zawiera dowody, że cząstkowe równania różniczkowe związane z nieograniczonymi operatorami, takie jak równanie falowe i inne równania hiperboliczne, mogą mieć nieobliczalne rozwiązania dla obliczalnych warunków początkowych. Jest to natomiast niemożliwe dla eliptycznych i parabolicznych równań różniczkowych cząstkowych, odpowiadających operatorom ograniczonym – na przykład dla równania przewodnictwa cieplnego (ich Pierwsze Główne Twierdzenie). Interesującą recenzję z ich książki napisał D. S. Bridges (w: "Bulletin of the American Mathematical Society" 24, nr l, styczeń 1991, s. 216-228). Rozważa on postawione przez Pour-Ela i Richardsa pytanie – zawarte w "Addendum: Open Problems" – jak ich wyniki wyglądają z punktu widzenia nieklasycznych metod rozumowania matematycznego, takich jak intuicjonizm Brouwera. Bridges wskazuje, że ze ściśle konstruktywistycznego punktu widzenia, odrzucającego całkowicie rekursywne podejście Churcha, problem nieobliczalnych rozwiązań w ogóle nie może powstać, ponieważ wtedy takie obiekty w ogóle nie istnieją. (Autorzy dziękują profesorowi Pour-Elowi za wskazanie tej recenzji). 86. Nieobliczalne rozwiązania są "słabe" w tym sensie, że choć ciągłe, nie są dwukrotnie różniczkowalne. W książce Nowy umyśl cesarza (Przełożył P. Amsterdamski, Wydawnictwo Naukowe PWN, Warszawa 1995) Roger Penrose twierdzi, że taka ewolucja nie jest fizycznie realistyczna, ponieważ jednokrotnie różniczkowalne rozwiązania nie są dostatecznie gładkie. Jednak wiele nieróżniczkowalnych zjawisk w przyrodzie spełnia kryteria Pour-Ela i Richardsa – na przykład fale uderzeniowe. 87. P. Hilton, w wywiadzie udzielonym R. Highfieldowi, luty 1995. "Można powiedzieć, że Turing toczył znacznie bardziej podstawową walkę. Walczył o to, by ludzie zaakceptowali, że wolno używać takich słów, jak »myślenie« do opisu działania maszyny. To było wówczas niemal taką herezją, jak w swoim czasie darwinizm". 88. G. J. Chaitin, w wywiadzie udzielonym R Highfieldowi, listopad 1994. 89. H. T. Siegelmann, "Science" 268, 545 (1995). Zob. również: S. Wolfram, "Phys. Rev. Lett." 54, 735 (1985) i C. Moore, "Nonlinearity" 4, 199 (1991). Wydaje się, że pozostaje nie rozstrzygnięte pytanie, czy modele analogowe, takie jak opisali Siegelmann i Moore, są dostatecznie stabilne strukturalnie, by móc działać jako urządzenia obliczeniowe. 90. K. Appel, W. Haken, "Illinois Journal of Mathematics" 21, 429-567 (1977). 91. K. Appel, W. Haken, "The Mathematical Intelligencer" 8, 10 (1986). 92. C. W. H. Lam, "The Mathematical Intelligencer" 12, l (1990). Zob. również: C. W. H. Lam, "Canadian Journal of Mathematics" XLI, 1117 (1989). 93. A. Wiles przedstawił swój dowód w serii trzech wykładów, wygłoszonych w Instytucie Izaaka Newtona w Cambridge w czerwcu 1993 roku. Patrz P. Swinnerton-Dyer, "Nature" 364,13 (1993). 6 grudnia 1993 roku Uniwersytet w Princeton podał komunikat prasowy, w którym Wiles wycofał swe twierdzenia. Jednak 16 października 1994 roku Uniwersytet w Princeton poinformował, że zostało rozesłane wstępne doniesienie, zawierające nową wersję dowodu, a dwie prace na ten temat zostały złożone do "Annals of Mathematics". 94. G. J. Chaitin w: Nature's Imagination. J. Cornwell (red.). Oxford University Press, Oksford 1995. Rozdział 3: PALETA ARTYSTY 1. Jeden z problemów brzmiał następująco: jak ukształtować ładunek wybuchowy, aby zogniskować energię wybuchu pocisku przeciwczołgowego, wystrzeliwanego z bazooki. Inne zagadnienie wiązało się z budową pierwszej bomby jądrowej: zadanie polegało na zaprojektowaniu takiego układu konwencjonalnych materiałów wybuchowych, aby fala uderzeniowa zgniotła kulę z materiału rozszczepialnego (plutonu) i spowodowała szybkie uformowanie masy krytycznej, a tym samym zainicjowała wybuch jądrowy, a nie słaby niewypał. R. Rhodes, The Making of the Atomie Bomb. Simon and Schuster, Nowy Jork 1986, s. 480. 2. D. Swade, Companion Encyclopaedia oj the History and Philosophy of Mathematical Sciences, torn 1. I. Grattan-Guinness (red.). Routledge, Londyn – Nowy Jork 1994, s. 694. 3. J. Palfreman, D. Swade, The Dream Machinę. BBC Books 1991, s. 13. 4. We wrześniu 1623 roku Schickard tak pisał do wielkiego astronoma i matematyka, Johannesa Keplera: "Skonstruowałem maszynę składającą się z jedenastu kompletnych i sześciu niepełnych (»pokaleczonych«) kół zębatych, która potrafi liczyć. Wybuchnąłbyś śmiechem widząc, jak przenosi z jednej kolumny dziesiętnej do drugiej lub pożycza od nich podczas odejmowania". Cytat za: S. Augarten, Bit by Bit. George Allen & Unwin, Londyn 1985, s. 15. 5. H. Goldstine, The Computer form Pascal to von Neumann. Princeton University Press, Princeton 1972, s. 8. 6. G. MacDonald Ross, Leibniz. Oxford University Press, Oksford 1984, s. 12. 7. "Każde zwierzę, które zabłąka się na tory, zostanie wrzucone do płachty – prawdopodobnie połamie nogi, ale nie przeszkodzi w dalszej jeździe pociągu". C. Babbage, Passages from the Life of a Philosopher. Longman, Green, Longman, Roberts & Green 1864, s. 318. 8. Miały one postać butów z klapami na zawiasach, rozkładającymi się na boki przy ruchu w dół. Zob.: D. Swade, Charles Babbage and His Calculating Engines. Science Museum, Londyn 1991, s. 38; D. Swade, "Bulletin of the Scientific Instrument Society" 28, 22 (1991). O innych wynalazkach i talentach pisze A. Hyman, Charles Babbage, Pioneer of the Computer. Oxford University Press 1982, s. 225 i 228. Babbage opracował nawet zbiór słowników do łamania szyfrów; zob.: C. Babbage, On the Economy of Machinery and Manufactures. Charles Knight, Londyn 1832. Najłatwiej dostępne źródło, zawierające tę i inne prace Babbage'a, to jedenastotomowy zbiór: Martin Campbell-Kelly (red.), The Works of Charles Babbage. Pickering & Chatto, Londyn 1989. 9. C. Babbage, Passages from the Life of a Philosopher, s. 337. Można tam znaleźć fragment pełen niezamierzonego komizmu, mówiący o walce Babbage'a z ulicznymi muzykantami: "Zyskałem w moim kraju sławę, której mi pewnie nikt nie zazdrości, nie z powodu jakiegoś czynu, lecz wyłącznie wskutek mojego zdecydowanego oporu przeciw tyranii najgorszego motłochu, którego uwielbienie, nie dla muzyki, lecz dla koszmarnego hałasu, jest tak wielkie, że tłum chce go wysłuchiwać o każdej godzinie i na każdej ulicy" (s. 345). "Jedna czwarta mojej zdolności do pracy została zmarnowana przez te hałasy, przeciw którym protestowałem". Dzieci z okolicy płatały mu figle, a sąsiedzi wywieszali plakaty, "w których obrażali mnie z powodu prawa, które wprowadziłem przeciw tym niszczycielom mojego czasu" (s. 354). 10. C. Babbage, op. cit., s. 34 i 37. 11. "Jedna z nich szła, lub raczej przesuwała się o jakieś cztery stopy, po czym obracała się i wracała na początkowe miejsce. Po drodze od czasu do czasu unosiła do oczu okulary i kłaniała się często, jakby witała znajomego. Poruszała się z nadzwyczajną gracją. Druga srebrna figurka przedstawiała piękną danseuse, z ptakiem na palcu prawej dłoni, który machał ogonem i skrzydłami oraz otwierał dziób. C. Babbage, op. cit., s. 17. W 1934 roku Babbage kupił tańczącą damę na aukcji. 12. C. Babbage, op. cit., s. 42. 13. Ówczesne tablice matematyczne i nawigacyjne zawierały legendarną ilość błędów. Dionysius Lardner, jeden z pionierów popularyzacji nauki – i pomysłów Babbage'a – stwierdził, że errata do przypadkowo wybranych czterdziestu tomów tablic matematycznych zawierała 3700 poprawek, z których część była również błędna. D. Swade, "Sci. Amer.", 268, 62 (1993). ["Świat Nauki" – 4 (1993), s. 64]. 14. D. Swade, Charles Babbage and His Calculating Engines, s. 4. 15. Jak stwierdził Babbage: "Pierwszą i zasadniczą przyczyną tej przerwy były nieprzyzwoicie ekstrawaganckie żądania pracownika, którego zatrudniłem, aby skonstruował ją dla Rządu". C. Babbage, op. cit., s. 449. 16. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 134. 17. Ibid., s. 170. 18. Ibid., s. 128. 19. Jak powiedział Babbage: "Maszyna analityczna składa się z dwóch części. Pierwsza to skład, gdzie są przechowywane wszystkie zmienne, na których wykonuje się operacje, oraz wielkości będące wynikiem tych działań. Druga to młyn, do którego wprowadzane są wielkości, na których mają być wykonane operacje". 20. C. Babbage, Passages from the Life of a Philosopher, s. 137. 21. H. Goldstine, The Computer form Pascal to von Neumann. Princeton University Press, Princeton 1972, s. 20. 22. C. Babbage, Passages from the Life of a Philosopher, s. 116. 23. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 198. 24. Ibid., s. 177. 25. L. Menabrea, Bibliotheque Universelle de Geneva, s. xli (1842). Zob.: Martin Campbell-Kelly (red.), The Works of Charles Babbage. Pickering & Chatto, Londyn 1989. 26. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 196. Ta sugestia rozgniewała Adę, która nie miała zamiaru zgodzić się, aby jej pierwsza publikacja została w ostatniej chwili opóźniona. 14 sierpnia 1843 roku wysłała szesnastostronicowy list do Babbage'a, zawierający wymowną uwagę na temat odmienności ich motywacji: "Moją bezkompromisową zasadą jest kochać prawdę i Boga, nie sławę i chwałę [...]. Ty również kochasz prawdę i Boga (tak, głęboko i zawsze), ale bardziej sławę, chwałę i zaszczyty". Według biografa Babbage'a, Anthony Hymana, jej "nieco egzaltowany ton można przypisać wpływom alkoholu lub opium, bądź obu tych substancji". 27. Raz nawet pogodnie przyznał, że Ada znalazła "poważny błąd" w jego pracy. C. Babbage, Passages from the Life of a Philosopher, s. 136. 28. W. Kaufmann, L. Smarr, Supercomputing and the Transformation oj Science. Scientific American Library 1993, s. 27. 29. M. Wilkes, "Communications of the ACM" 35, 21 (1992). Inni twierdzą, że Ada słabo znała matematykę, na przykład nie poprawiła błędu drukarza w tłumaczonej pracy Menabrea, choć prowadził on do matematycznego nonsensu; zob.: D. Stein, Ada: Life and Legacy. MIT Press, Massachusetts, Cambridge 1987. Jednak Doron Swade uważa, że opinia Steina wynika raczej z jego niechęci do apodyktycznego i pewnego siebie stylu Ady niż rzeczywistej znajomości rzeczy. 30. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 235. 31. ADA, język komputerowy wysokiego poziomu opracowany z inicjatywy Departamentu Obrony Stanów Zjednoczonych i używany głównie do pisania programów wojskowych. Narain Gehani, ADA An Advanced Introduction Including Reference Manual for the Ada Programming Language. Prentice-Hall, New Jersey, Englewood Cliffs 1984. 32. Ibid., s. vi (przedmowa Arno Penziasa). 33. E. Horsburgh (red.), Modem Instruments and Methods of Calculations. G. Bell and Sons 1914, s. 19-20; Lord Moulton, Napier Tercentenary Memorial Volume. C. Knott (red.). Londyn 1915, s. 19-21. 34. D. Swade, "Sci. Amer" 268, 62 (1993). Zob. również: D. Swade, Charles Babbage and His Calculating Engines, s. ix. 35. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 168. Zob. również: D. Kuck, The Structure of Computers and Computations. Wiley, Nowy Jork 1978, s. 55. 36. C. Babbage, Passages from the Life of a Philosopher, s. 142. "Wkrótce stało się jasne, że dalsza praca ulegnie znacznemu spowolnieniu, jeśli nie wymyślę sposobu pozwalającego na znaczenie szybszą interpretację i wyjaśnienie moich własnych rysunków" (s. 143). "Nazwałem ten system znaków Mechaniczną Notacją. Stosując ją do geometrycznych rysunków, otrzymaliśmy nową metodę naukową, pozwalającą wykazać, czy dana maszyna może istnieć, a jeśli tak, to czy będzie działać zgodnie z planem". 37. B. Russell, "Proceedings of the Royal Irish Academy Series B" 57, 64(1955). 38. G. Boole, Investigations of the Laws of Thought. Dover, Nowy Jork 1958. 39. G. Boole, "Philosophical Transactions of the Royal Society" 134, 225 (1844). 40. D. Mac Hale, George Boole, His Life and Work. Boole Press, Dublin 1985, s. 61. 41. Ibid., s. 69. 42. G. Boole, The Mathematical Analysis of Logic, Being an Essay Towards a Calculus of Deductive Reasoning. Macmillan, Barclay, and Mac-millan, Cambridge 1847. 43. Znak "+" oznacza tu operację sumy w algebrze Boole'a. Z matematycznego punktu widzenia jest to algebra zbiorów lub klas, w której zdefiniowane są operacje sumy, iloczynu i dopełnienia. 44. Algebra Boole'a jest izomorficzna z rachunkiem zdań, który zajmuje się logicznymi związkami między zdaniami. 45. Boole zmarł w okresie rozkwitu swych zdolności matematycznych, ale nigdy nie cieszył się dobrym zdrowiem. Wkrótce po ślubie żona zabroniła mu pisać wiersze, ponieważ był przepracowany – w ten sposób chciała uchronić jego mózg przed zbytecznym wysiłkiem. (D. Mac Hale, George Boole, His Life and Work, s. 240). 24 listopada 1864 roku Boole wędrował piechotą w deszczu trzy mile z domu w Ballintemple do Queen's College, po czym w mokrym ubraniu poprowadził wykład, co zakończyło się poważnym przeziębieniem. Jego żona pozostawiła bardzo plastyczny obraz jego cierpień, gdy Boole przypomniał sobie wers "Na zawsze, o Panie, Twoje słowo w niebiosach", który zwykle kojarzył ze swymi odkryciami. "Pewnego dnia powiedział mi, że cały wszechświat zda się rozciągać przed nim jak czarny ocean, gdzie niczego nie widać i nie słychać, a tylko od czasu do czasu srebrna trąbka głosi nad wodami »Na zawsze, o Panie, Twoje słowo w niebiosach*". Boole zmarł wieczorem 8 grudnia 1864 roku w Ballintemple, pozostawiając żonę i dzieci w nędzy. 46. Podobnie jak w przypadku Godła, śmierć tego nadzwyczajnego logika miała dziwnie irracjonalny aspekt: niewykluczone, że to Mary Boole przyśpieszyła śmierć męża. W swej książce The Message of Psychic Science to the World (C. W. Daniel, 11 Cursitor St., Londyn 1908, s. 161) stwierdza ona: "Teoretycznie błędem jest spanie z termoforem w łóżku -z wyjątkiem przypadków poważnej choroby. Powoduje to wzrost podatności na chłód w przyszłości. Leczenie chronicznie marznących stóp może polegać, jeśli pacjent jest dość silny, na chodzeniu przez kilka minut dziennie po żwirze w strumieniu; jeśli chory jest słaby i delikatny, należy przed pójściem spać dokładnie nagrzać mu stopy, po czym oblać je zimną wodą i wymasować. To homeopatia". Ethel, najmłodsza córka Boole'a, napisała o Missus (jak nazywano Mary): "Uważano, że przyczyną przedwczesnej śmierci ojca była wiara Missus w jakiegoś szarlatana, który proponował terapię z zastosowaniem zimnej wody na wszystkie możliwe choroby. Ktoś – nie pamiętam już, kto – odwiedził Ojca i zastał go "dygocącego między mokrymi prześcieradłami". Sama jestem skłonna uwierzyć, że tak się mogło zdarzyć". 47. W. Kaufmann, L. Smarr, Supercomputing and the Transformation of Science. Scientific American Library 1993, s. 28. 48. D. Mac Hale, George Boole, His Life and Work, s. 234. 49. Ibid., s. 235. 50. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 244. 51. J. Dubbey, The Mathematical Works of Charles Babbage. Cambridge University Press, Cambridge 1978, s. 216. 52. M. Wilkes, "Communications of the ACM" 35, 15 (1992). Zob. również: D. Swade, Charles Babbage and His Calculating Engines, s. x. 53. A. Hyman, Charles Babbage, Pioneer of the Computer, s. 255. Zob. również: A. Hodges, Alan Turing: The Enigma, s. 297. 54. Nicholas A. Vonneuman, "John von Neumann, as seen by his brother", s. 24. 55. Są to jednoprocesorowe (seryjne) komputery cyfrowe. Należy je odróżniać od komputerów analogowych i cyfrowych komputerów wieloprocesorowych (równoległych). 56. Polski matematyk Stanisław Ułam, bliski przyjaciel von Neumanna, powiedział, że latem 1938 roku, gdy razem podróżowali po Europie, von Neumann zajmował się podanym przez Turinga opisem liczb obliczalnych i w ciągu następnego roku wielokrotnie chwalił jego pracę. Po wojnie von Neumann wciągnął artykuł Turinga z 1937 roku na listę lektur obowiązkowych dla wszystkich pracowników biorących udział w budowie komputera. Von Neumann po raz pierwszy odwołał się do pracy Turinga w wykładzie "The general and logical theory of automata", wygłoszonym 20 września 1948 roku; tekst ten zamieszczono w: John von Neumann, Collected Works. Pergamon Press, Oksford 1963. 57. W. Aspray, John von Neumann and the Origins of Modern Computing. MIT Press, Massachusetts, Cambridge 1990, s. 177. Zob. również: A. Hodges, Alan Turing: The Enigma, s. 178. 58. W pewnym liście Ortvay po raz pierwszy rozważa analogię między mózgiem i elektronicznymi urządzeniami liczącymi. W innym opisuje mózg jako sieć komórek wymieniających sygnały. W. Aspray, John von Neumann and the Origins oj Modern Computing, s. 177. Zob. również: A. Hodges, Alan Turing: The Enigma, s. 179. 59. W. McCulloch, W. Pitt, "Bulletin of Mathematical Biophysics" 5, 115 (1943). 60. W. Aspray, A. Burks (red.). Papers of John von Neumann on Computers and Computer Theory. MIT Press, Massachusetts, Cambridge 1987, s. 422. Warren McCulloch stwierdza: "Dopiero gdy poznałem pracę Turinga, zacząłem posuwać się we właściwym kierunku. Pitts pomógł mi sformułować wymagany rachunek logiczny. Chcieliśmy wtedy (i uważam, że się nam udało) potraktować mózg jak maszynę Turinga". 61. Później zauważył: "Często spotyka się twierdzenie, że działanie i funkcje układu nerwowego są tak skomplikowane, iż żaden mechanizm nie jest w stanie ich wykonać [...]. Wyniki McCullocha i Pittsa [...] dowodzą, że każdy układ, którego działanie da się wyczerpująco i jednoznacznie określić, można ipso facto zrealizować za pomocą odpowiedniej skończonej sieci neuronów". W. Aspray, A. Burks (red.), Papers of John von Neumann on Computers and Computer Theory, s. 412. 62. R. Rhodes, The Making of the Atomic Bomb, s. 544. 63. Równania Naviera-Stokesa można również wyprowadzić, wychodząc z praw mikrofizyki. Wyprowadzenie zaczyna się od równania Boltz-manna dla jednocząstkowej funkcji rozkładu dla płynu. Rozwiązując to równanie metodą Chapmana-Enskoga, otrzymujemy równanie Naviera-Stokesa dla jednocząstkowej funkcji rozkładu. Problem polega na tym, że równanie Boltzmanna jest tylko pewnym przybliżeniem ścisłego równania kinetycznego. 64. W rzeczywistości jest to nadmierne uproszczenie. Często można korzystać z metod asymptotycznych, a niektóre układy nieliniowe – takie jak równanie Kortewegade Vriesa, opisujące solitony – dają się rozwiązać analitycznie. 65. J. von Neumann, Theory of Self Reproducing Automata. A. Burks, (red). University of Illinois Press, Urbana – Londyn 1966, s. 3. 66. Ibid., s. 4. 67. H. Goldstine, The Computers from Pascal to von Neumann. Princeton University Press 1972, s. 25. 68. Ibid., s. 182. 69. ENIAC posługiwał się liczbami dziesiętnymi, a nie dwójkowymi. Mimo to komputer ten działał całkiem nieźle. Jego pierwszym zadaniem było wykonanie obliczeń dla wczesnych projektów bomby wodorowej. 70. S. Augarten, Bit by Bit, s. 129. 71. Można go znaleźć w: W. Aspray, A. Burks (red.), Papers of John von Neumann on Computers and Computer Theory, s. 17. 72. Raport ten stał się głównym punktem sporu, kto jest autorem tych koncepcji. Przeciwnikami byli Goldstine i von Neumann (z jednej strony) oraz Eckert i Mauchly. Stawką były prawa patentowe do rozwiązań zastosowanych w konstrukcji EDVACA. Sąd federalny zdecydował, że rozpowszechnienie pierwszej wersji raportu w 1945 roku było równoważne z jego publikacją, a tym samym unieważnił zgłoszenie patentowe Eckerta i Mauchly'ego z 1947 roku. (H. Goldstine, The Computer from Pascal to von Neumann, s. xvi). Eckert i Mauchly złożyli dymisję 13 marca 1946 roku, co spowodowało spowolnienie, a później przerwanie pracy nad projektem EDVAC. 73. W. Aspray, A. Burks (red.), Papers of John von Neumann on Computers and Computer Theory, s. 20. 74. A. Hodges, w wywiadzie udzielonym autorom, czerwiec 1994. 75. Von Neumann zniechęcił się do architektury równoległej po złych doświadczeniach zjedna z pierwszych maszyn IBM; zob.: W. Aspray, John uon Neumann and the Origins of Modern Computing, s. 30: "W marcu lub kwietniu 1944 roku [von Neumann] spędził dwa tygodnie, zajmując się maszynami na karty perforowane, przepychając karty przez różne maszyny, ucząc się okablowywania tablic rozdzielczych, projektowania układów kart i poznając wszystkie czynności związane z obsługą maszyn. Szczególnie frustrujące było dla niego okablowywanie tabulatora, który mógł wykonywać równoległe operacje na oddzielnych licznikach. Okablowanie tabulatora w celu wykonywania równoległych operacji wymagało wzięcia pod uwagę ich synchronizacji. Później [von Neumann] powiedział nam, że to doświadczenie skłoniło go do odrzucenia architektury równoległej i zaprojektowania kodu z instrukcjami z pojedynczymi adresami, gwarantującego, że nie zdarza się konieczność równoległego wykonywania operacji". 76. Jak na ironię, w swoim raporcie z 1945 roku na temat EDVACA von Neumann opisał programowalny komputer, zbudowany z wyidealizowanych neuronów, wprowadzonych przez McCullocha i Pittsa w ich pracy z 1943 roku (tekst ten stanowił źródło inspiracji dla von Neumanna). To pozwoliło mu oddzielić projekt logiczny od technicznych szczegółów jego realizacji. W swym raporcie von Neumann przeprowadził analogię między kojarzeniowymi, sensorycznymi i motorycznymi neuronami ludzkiego układu nerwowego a centralnym procesorem oraz urządzeniami wejściowymi i wyjściowymi komputera. Wskazał również, że uproszczony neuron można modelować, korzystając z przekaźnika telegraficznego lub lampy elektronowej, i przeciwstawił synchroniczne działanie obwodów elektronowych asynchronicznej aktywacji neuronów. W. Aspray, John von Neumann and the Origins o/Modern Computing, s. 173 i 24. 77. A. Hodges, Alan Turing: The Enigma, s. 292. 78. Pracę Turinga pokrył kurz w archiwum NPL. W końcu została opublikowana w: Machine Intelligence 5, B. Meltzer, D. Michie (red.). Edinburgh University Press 1969. Jak wyjaśnia Hodges – w rozdziale szóstym swej książki: Alan Turing: The Enigma-raport ten, podobnie jak wykład Turinga, wygłoszony na zebraniu London Mathematical Society 20 lutego 1947 roku, został przyjęty z niedowierzaniem i zakłopotaniem. 79. Wykład Turinga, wygłoszony na zebraniu London Mathematical Society, cytat za: A. Hodges, Alan Turing: The Enigma, s. 361. Zob. rozdział 519, gdzie mowa o takich maszynach. 80. Ibid., s. 363. 81. G. Tweedale, Calculating Machines and Computers. Shire Publications, Princes Risborough 1990, s. 26. 82. Pierwszym popularnym językiem komputerowym był Fortran (FORmula TRANslation), stworzony przez zespół z IBM, pracujący pod kierunkiem matematyka Johna Backusa. Mniej techniczny charakter miał Cobol (COmmon Business Oriented Language), przeznaczony dla przedsiębiorstw. Powstało wiele języków, takich jak BASIC (Beginner's All-purpose Symbolic Instruction Code) i ALGOL (ALGOrithmic Language). Większość osób piszących programy posługuje się językami wysokiego poziomu, takimi jak Fortran, C i Pascal. Programowanie w takich językach jest względnie łatwe, ale przed wykonaniem takiego programu konieczna jest kompilacja, czyli przetłumaczenie programu na język maszynowy, bezpośrednio zrozumiały dla centralnego procesora. Język maszynowy można skompilować z asemblera; zapaleńcy piszą programy w asemblerze, ponieważ są one wykonywane znaczenie szybciej niż programy napisane w języku wysokiego poziomu. Przykładem programu napisanego w asemblerze jest TierraToma Raya (por. rozdział 8.). System operacyjny komputera to fragment programu maszynowego, zawierający wszystkie instrukcje konieczne do obsługi komputera, w tym monitora, klawiatury, dysku i tak dalej. 83. Zespół Johna Backusa pracował trzy i pół roku nad kompilatorem Fortranu; ostatecznie kompilator składał się z 25 000 linii programu napisanego w asemblerze i – podobnie jak wiele innych pionierskich przedsięwzięć – zawierał wiele błędów. S. Augarten, Bit by Bit, s. 216. 84. W. Kaufmann, L. Smarr, Supercomputing and the Transformation of Science. Scientific American Library 1993, s. 233. 85. S. Augarten, Bit by Bit, s. 239. 86. Jedną z najważniejszych technik jest epitaksja molekularna. Metoda ta pozwala na uzyskanie warstwy substancji o grubości zaledwie dwóch angstremów; na umieszczonym w komorze próżniowej półprzewodniku osadzają się atomy substancji z pary produkowanej w pobliskich parownikach. 87. Nie zapomnieliśmy bynajmniej o rozwoju komputerów osobistych. Takie komputery doskonale nadają się do wielu obliczeń, ale stanowią urządzenia "niższego poziomu" – nie omawiamy ich tutaj, gdyż interesują nas tylko najtrudniejsze obliczenia naukowe. W dzisiejszych czasach komputery osobiste można wszakże wykorzystywać do łączenia się za pośrednictwem sieci komputerowych z odległymi superkomputerami. 88. Firmy komputerowe widzą świat podzielony na dwie części. Większa to sektor komercyjny; terminem mainframe określa się zazwyczaj największe komputery komercyjne. Mniejszy sektor to maszyny do obliczeń naukowych; dziś największe maszyny tego rodzaju zwykle określa się mianem "superkomputerów". 89. Bezwymiarowa liczba Reynoldsa jest zdefiniowana jako stosunek sił bezwładności do lepkości: im mniejsza lepkość, tym większa tendencja do wystąpienia turbulencji. Gdy liczba Reynoldsa wynosi 100, przepływ jest zazwyczaj laminarny; gdy sięga miliona, mamy od czynienia z w pełni rozwiniętą turbulencją. Wartości pośrednie odpowiadają stanom przejściowym między tymi dwiema skrajnościami. 90. Z tych powodów uczeni intensywnie pracują na tak zwanym modelowaniem subsieciowym, mając nadzieję, że za pomocą podstawowej fizyki uda się im pokonać numeryczną ścianę. Inne podejście polega na wykorzystaniu metod spektralnych, czyli zastosowaniu szeregu Fouriera z uwzględnieniem bardzo wielu wyrazów szeregów. 91. J. Harrington, R. LeBeau, K. Backes, T. Dowling, "Nature" 368, 525 (1994). Tim Dowling, w wywiadzie udzielonym R. Highfieldowi, luty 1995. 92. "Grand challenges 1993: High Performance Computing and Communications", raport Komitetu Nauk Fizycznych, Matematycznych i Inżynieryjnych Federalnej Rady Koordynującej Nauki, Inżynierii i Techniki, Waszyngton, D.C. (1992). 93. G. Karniadakis, S. A. Orszag, "Physics Today", marzec 1993, s. 42. 94. Ibid., s. 36. 95. "From Desktop to Teraflop: Exploiting the U.S. Lead in High Performance Computing", NSF Blue Ribbon Panel on High Performance Computing, sierpień 1993. 96. Dotyczy to obliczeń z uśrednioną liczbą Reynoldsa. Oceny oparte na skalowaniu Kołmogorowa wskazują, że bezpośrednia numeryczna symulacja przepływu powietrza wokół całego samolotu wymagałaby komputera eksaflopowego (1018). Zatem nawet po zbudowaniu teraflopowego komputera pozostanie daleka droga do przebycia; odpowiednie wykorzystanie teorii, doświadczeń i programów będzie miało ogromne znaczenie w najbliższej dekadzie lub jeszcze później. 97. W każdym razie dla obliczeń, które można łatwo zwektoryzować, takich jak rachunki hydrodynamiczne. Rzecz jasna, nie wszystkie obliczenia dają się zwektoryzować; zwiększając szybkość skalarnych operacji, Cray zagwarantował, że wszystkie programy będą działać znacznie szybciej. 98. W 1946 roku John Mauchly powiedział słuchaczom Moore School Lecture, że "istnieją [...] dwa skrajne warianty w architekturze komputerów. Z jednej strony mamy maszynę o architekturze w pełni równoległej [...] z drugiej – całkowicie szeregowej. Istnieje, oczywiście, bardzo wiele wariantów pośrednich, to znaczy maszyn o architekturze w pewnej mierze równoległej, a w pewnej mierze szeregowej". J. Mauchly, Digital and Analog machines, Lecture 3, w: The Moore School Lectures: Theory and Techniques for Design of Electronic Digital Computers. Tom 1, M. Campbell-Kelly, M. Williams (red.). MIT Press, Massachusetts, Cambridge 1946, s. 37. 99. "The Boston Globe", Business Section, 6 września 1994, s. 21. PVC jest wdzięczny Bruce'owi Boghosianowi za wskazanie tego źródła. 100. D. Hillis, "Sci. Amer", 256, 108 (1987). Zob. również: B. Boghosian, "Computers in Physics" 4, 14 (1990). 101. Komputery o architekturze równoległej można podzielić na dwie kategorie, w zależności od tego, czy procesory są połączone z pamięcią za pomocą szybkiego połączenia, zwanego magistralą (bus), czy takimi metodami, jak w maszynach nCUBE i Connection Machine. Obie wywodzą się z eksperymentów Cosmic Cube, przeprowadzonych w Caltechu na początku lat osiemdziesiątych przez Charlesa Seitza i Geoffreya Foxa. C. Seitz, "Communications of the ACM" 28, 22 (1985). 102. Najnowsza maszyna Thinking Machines Corporation, CM-5, jest przykładem konwergencji między architekturami SIMD i MIMD; wykorzystuje ona specjalny język "zrównoleglania danych", CM-Fortran, tak zoptymalizowany, aby przyśpieszyć działanie maszyny. CM-5 stanowi naturalne środowisko do symulacji wykorzystujących automaty komórkowe (zob. rozdział 4.). 103. Danny Hillis w wywiadzie udzielonym R. Highfieldowi, październik 1993. 104. J. L. Gustafson, "Communications of the ACM" 31,5 (1988). 105. W. Kaufmann, L. Smarr, Supercomputing and the Transformation of Science, s. 47. 106. D. Patterson, D. Ditzel, "Computer Architecture News" 8, 25-33, (1980). 107. R. Colwell, C. Hitchcock, E. Jensen, "Computer Architecture News" 11, 44 (1983). 108. W tej chwili najszybciej taktowane maszyny IBM RISC mają zegary działające z szybkością cztery razy mniejszą niż Cray Y-MP. Jednak maszyny IBM mogą wykonywać kilka instrukcji w jednym cyklu zegara -ta możliwość oznacza, że są one w stanie dorównać Crayowi w pracy nad pewnymi problemami. Ponadto, łącząc kilka komputerów RISC, można uzyskać superkomputer wykonujący obliczenia równolegle. 109. L. Zadeh, "Information and Control" 8, 338 (1965). 110. L. Zadeh, przedmowa do Fuzzy Computing, Theory, Hardware and Applications. M. Gupta, T. Yamakawa (red.). Elsevier Science Publishers, Amsterdam 1988. 111. Osobnik chudy jak szczapa. 112. L. Zadeh, poczta elektroniczna do R. Highfielda, luty 1995. 113. Wnioskowanie statystyczne i teoria prawdopodobieństwa. 114. Najnowszy przegląd przeprowadzili T. Munakata i Y. Yani, w: "Communications of the ACM" 37, 69 (1994). Przybliżoną liczbę patentów podał L. Zadeh. 115. T. Munakata, Y. Yani, "Communications of the ACM" 37, 70 (1994). 116. L. Zadeh, "Communications of the ACM" 37, 77 (1994). 117. B. Kosko, S. Isaka, "Sci. Amer." 269, 62 (1993) ["Świat Nauki" 9 (1993), s. 60]. Istnieją również sieci neuronowe, działające zgodnie z zasadami logiki rozmytej. 118. Zob., na przykład, jak definiuje się "komputer cyfrowy" w: Coilins Reference Dictionary of Computing. Collins, Glasgow 1988. 119. Zastosowanie elementów optycznych może również wydatnie zmniejszyć moc elektryczną zużywaną do komunikacji i zapewnić nie-wrażliwość na zaburzenia elektromagnetyczne. David Miller, szef Advanced Photonics Research Department w AT&T Bell Laboratories, w rozmowie z R. Highfleldem, lipiec 1994. 120. J. L. Jewell, J. P. Harbison, A. Scherer, "Sci. Amer." 265, 86 (1991) ["Świat Nauki" l (1992), s. 30]. 121. Własności optyczne pewnych materiałów zmieniają się w polu elektrycznym. Polem tym może być światło lasera, jak również pole to może pochodzić ze źródła zewnętrznego. W polu elektrycznym zmienia się między innymi współczynnik absorpcji światła oraz współczynnik załamania, to znaczy stosunek prędkości światła w próżni od jego prędkości w danym, gęstszym ośrodku. Dla światła o ustalonej częstości (długości fali) współczynnik ugięcia danej substancji w danej temperaturze i przy danym ciśnieniu jest stały. Jednak w przypadku tak zwanych materiałów optycznie nieliniowych współczynnik załamania silnie zależy od pola elektrycznego. To powoduje cały szereg dziwnych zjawisk optycznych i pozwala precyzyjnie manipulować wiązkami światła – z rozdzielczością czasową rzędu jednej bilionowej części sekundy (1/1000 000 000 000) lub jeszcze większą. Wiązkę światła o dużym natężeniu i odpowiednio silnym polu elektrycznym można otrzymać za pomocą lasera; światło lasera ma ustaloną długość fali, co pozwala inżynierom wykorzystać efekty nieliniowe. Stosując lasery w połączeniu z efektami nieliniowymi, można użyć światła do łączności, obliczeń i przechowywania informacji. 122. F. McCormick, F. Tooley, T. Cloonan, J. Brubaker, A. Lentine, R. Morrison, S. Hinterlong, M. Herron, S. Walker, J. Sasian, "Applied Optics" 31, 5431 (1992). 123. D. Miller, D. Chemia, S. Schmitt-Rink, Optical nonlinearities and Instabilities in Semiconductor. H. Haug (red.). Academic Press, Orlando 1988, s. 325. 124. D. Miller, list do Rogera Highfielda, lipiec 1994. Technika FET--SEED łączy tranzystory polowe z fotodiodami i modulatorami kwantowymi; dzięki niej stworzono układ działający z prędkością 155 Mb/s. 125. J. L. Jewell, J. P. Harbison, A. Scherer, Y. H. Lee, L. T. Florez, "IEEE Journal of Quantum Electronics" 27, 1322 (1991). 126. G. Fox, P. Messina, "Sci. Amer.", październik 1987. 127. D. Miller, "Optics in Digital Computing", preprint, 1994. 128. Na przykład urządzenia FET-SEED wykorzystują kwantowy efekt Starka. 129. Zob.: P. Coveney, R. Highfield, Strzalka czasu, rozdziały 4. i 8., gdzie omawiamy kontrowersje związane z interpretacją mechaniki kwantowej i problem pomiaru. Przedmiotem debaty jest na przykład kwestia, czy redukcja funkcji falowej jest rzeczywistym zdarzeniem fizycznym czy też różne równoległe kopie obserwatora uświadamiają sobie różne możliwe wyniki pomiaru. 130. Mówiąc nieco bardziej abstrakcyjnie, chodzi tu o rozstrzygnięcie dwóch problemów: (1) czy istnieją inne użyteczne w obliczeniach systemy aksjomatyczne, których podstawowe pojęcia różnią się od systemu Tu-ringa? (2) czy jest możliwe zrealizowanie takich systemów za pomocą normalnych układów fizycznych? Mechanika kwantowa łączy się ze swą własną odmianą rozmytej logiki, gdyż koherentne superpozycje odpowiadają "włączonemu", a nie "wyłączonemu" środkowi. 131. P. Benioff, "J. Stat. Phys." 22, 563 (1980); "Phys. Rev. Lett." 48, 1581 (1982). 132. R. Feynman, "Int. J. Theor. Phys." 21, 467 (1982); "Opt. News" 11, 11 (1985); "Found. Phys." 16, 507 (1986). 133. Ogólny przegląd problematyki można znaleźć w: D. Deutsch, "Physics World" 5, 57 (1992). 134. D. Deutsch, w wywiadzie udzielonym R. Highfieldowi, czerwiec 1994. 135. D. Deutsch, "Proc. R. Soc." A 400, 97 (1985); "Proc. R. Soc." A 425. 97(1989). 136. Przykładem jest bramka "pierwiastek kwadratowy z NIE". Dwie takie bramki ustawione w szereg dają klasyczną bramkę NIE. 137. Charles Bennett i jego współpracownicy z IBM stworzyli kwantową kryptografię. Ich system opiera się na technice publicznego klucza kwantowego, opisanej w: C. Bennett, G. Brassard, A. Ekert, "Sci. Amer." 262, 26 (1992). ["Świat Nauki" 12 (1992), s. 28]. 138. P. Shor, "Algorithms for Quantum Computation: Discrete Log and Factoring", AT&T Bell Laboratories, New Jersey 1994. Praca ta ukazała się w sprawozdaniu z konferencji, która odbyła się w listopadzie 1994 roku; "Proceedings of the 35th Annual Symposium on Foundations of Computer Science". IEEE Press. 139. D. Deutsch, w wywiadzie udzielonym R. Highfieldowi, maj 1994. 140. J. S. Bell, Speakable and Unspeakable in Quantum Mechanics. Cambridge University Press 1987, s. 117. 141. W rozdziale 8. Strzalki czasu przedstawiliśmy nasze stanowisko, że nieodwracalność jest ściśle związana z redukcją funkcji falowej. Takiego poglądu bronią również Ilya Prigogine, Oliver Penrose i Roger Penrose oraz wielu innych (choć nie zawsze z tych samych powodów matematycznych). Symetria kwantowych równań ruchu ze względu na odwrócenie kierunku czasu sprawia, że mechanika kwantowa nie może wyjaśnić redukcji funkcji falowej. Wydaje się zatem bardzo prawdopodobne, że "koherencja" jest bardzo szczególną cechą pewnych typów dynamicznej ewolucji, a nie ogólną własnością wszystkich procesów. 142. Wielu kosmologów akceptuje teorię wielu światów, ponieważ błędnie wierzą oni, iż w przeciwnym przypadku trzeba uznać, że to obserwacje powodują redukcję wektora stanu – a kto miałby obserwować cały Wszechświat? Bóg? Kosmolodzy na ogół nie traktują poważnie nieodwracalności, ponieważ są przywiązani do opisywania świata za pomocą symetrycznych w czasie równań matematycznych, klasycznych bądź kwantowych. 143. B. de Witt, N. Graham, The Many Worlds Interpretation oj Quantum Mechanics. Princeton University Press 1973. 144. F. Tipler, The Physics of Immortality. Macmillan, Londyn 1995, s. 169. 145. Deutsch wyobraża sobie takie obliczenia w postaci ogromnego automatu komórkowego (por. rozdział 4.), którego komórki odpowiadają różnym wszechświatom. D. Deutsch, w wywiadzie udzielonym R. Highfieldowi, maj 1994. 146. Sceptycy twierdzą, że wszystkie te nieobserwowalne wszechświaty to zbyteczny, metafizyczny bagaż, ale Lloyd i Deutsch nieustępliwie dowodzą, iż tylko w ten sposób można wyjaśnić przebieg kwantowego procesu obliczeniowego. 147. To ograniczenie jest dobrodziejstwem dla kryptografów, gdyż wyklucza możliwość podsłuchiwania kwantowych kanałów łączności. 148. S. Lloyd, "Science" 261, 1569 (1993) oraz w wywiadzie udzielonym R. Highfieldowi, wrzesień 1993. 149. D. Deutsch, w wywiadzie udzielonym R. Highfieldowi, maj 1994. 150. M. Reed, "Sci. Amer." 268, 98 (1993). ["Świat Nauki" 3 (1993), s. 40]. 151. Cytat z wywiadu udzielonego R. Highfieldowi, maj 1994. 152. B. Boghosian, w wywiadzie udzielonym R. Highfieldowi, październik 1993: 153. Greg Chaltin również zauważa: "Jeśli matematyka może powstać w toku ewolucji darwinowskiej, to fakt ten uzupełniają o coś bardzo podstawowego, a jeśli nie, to Darwin musiał się pomylić i życie pozostaje cudem, nie wyjaśnionym przez naukę". G. Chaitin,. Association for Computing Machinery SIGACT News" 4, 12 (1970). 154. C. Babbage, Passages from the Life of a Philosopher, s. 389. Rozdział 4: NATURA ŹRÓDŁEM INSPIRACJI 1. T. H. Huxley, Lay Sermons ec, iii, A Liberal Education. 2. Zob.: W. Asprey, A. Burks (red.), Papers of John von Neumann on Computers and Computer Theory. MIT Press, Massachusetts, Cambridge 1987, s. 391. Teoria automatów von Neumanna była dość bliska cybernetyce N. Wienera; w tych teoriach widać wzajemne wpływy. Von Neumann kładł jednak większy nacisk na logikę i komputery cyfrowe, Wiener zaś Interesował się raczej fizjologią i sterowaniem. Inną postacią w tej historii jest niemiecki inżynier Konrad Zuse. Pod koniec II wojny światowej, ukrywając się przed hitlerowcami w górach w Austrii, wymyślił on cyfrowy układ mechaniczny, działający nie w sposób ciągły, lecz metodą kolejnych kroków. To doprowadziło Zusego do badań nad sztucznymi regułami, określającymi stan maszyny w następnym kroku; tak narodziła się Zusowska koncepcja "przestrzeni obliczeniowych". Dobre wprowadzenie do tej dziedziny znajduje się w: T. Toffoli, N. Margo-lus, Cellular Automata Machines. MIT Press, Massachusetts Cambridge 1987. 3. W. Asprey, A. Burks (red.), Papers oj John von Neumann on Computers and Computer Theory, s. 421. 4. Ibid., s. 538. 5. S. Ułam, "Proc. Int. Cong. Mathem." 2, 264 (1952). 6. Nie jest to dziwne miejsce na matematyczne pomysły, jak mogłoby się zdawać. Wkrótce po tym, jak siedemnastoletni Ułam wstąpił na Politechnikę Lwowską, przekonał się, że naprawdę ważną matematykę można poznać nie podczas wykładów, lecz w otoczeniu bardzo przypominającym Analytical Society Babbage'a. Lwowscy matematycy gromadzili się w Szkockiej – jednej z większych kawiarni w mieście – gdzie plotkowali i dyskutowali o różnych problemach matematycznych. 7. Termin ten wprowadził Arthur Burks. 8. W. Asprey, A. Burks (red.), Papers of John von Neumann on Computers and Computer Theory, s. 495. W pracy: Kendall Preston, Michael Duff, Modem Cellular Automata, Theory and Applications. Plenum Press, Nowy Jork 1984, s. l, czytamy: "Obecnie von Neumann kojarzy się przede wszystkim z przestarzałą architekturą komputerową z jednym centralnym procesorem. Wielu współczesnych informatyków i inżynierów całkowicie zapomniało, że von Neumann był również pionierem architektury równoległej, którą zajmował się w ramach swych badań zespołów komputerów lub automatów komórkowych". 9. Wykłady von Neumanna przedstawił w spopularyzowanej wersji John Kemeny, w: "Scientific American" 192, 58 (1955). Pośmiertnie opublikowana książka von Neumanna, The Computer and the Brain. Connecticut, New Haven 1958, opiera się w znacznej mierze na tych wykładach. 10. J. Kemeny, "Scientific American" 192, 67 (1955). 11. J. von Neumann, Theory of Self Reproducing Automata. A. Burks (red.). University of Illinois Press, Urbana – Londyn 1966. 12. Komputery z iteracyjnymi układami mają dwie charakterystyczne cechy: (1) procesor komputera składa się z identycznych modułów, jednakowo połączonych; (2) komputer może wykonywać jednocześnie dowolnie wiele programów, w granicach określonych przez pojemność pamięci. 13. A. Burks (red.), Essays on Cellular Automata. University of Illinois Press, Urbana – Chicago 1970, s. xxii. 14. J. Holland, "Journal of Association for Computing Machinery" 9, 297 (1962). 15. J. Holland, Universal Spaces: A Basis for Studies in Adaptation, w: Automata Theory. Academic Press, Nowy Jork 1966, s. 218-230. 16. A. Burks (red.). Essays on Cellular Automata, s. 219. 17. Ibid., s. 233. 18. J. Holland, Universal Spaces: A Basis for Studies in Adaptation, w: Automata Theory, s. 218-230. 19. M. Gardner, "Sci. Amer." 223, 120 (1970). 20. M. Gardner, "Sci. Amer." 224, 120 (1971). Achim Flammenkamp stworzył bardzo obszerną, lecz wciąż niekompletną listę różnych obiektów występujących w grze Życie. 21. E. Berlekamp, J. Conway, R. Guy, Winning Ways for Your Mathematical Plays. Academic Press, Nowy Jork 1982. Krótko mówiąc, szybowce są analogiczne do bitów, wyrzutnie szybowców do zegara, a inne struktury mogą modelować różne bramki logiczne. 22. Ze wstępu do: T. Toffoli, N. Margolus, Cellular Automata Machines. 23. Modelowanie takich układów za pomocą gazu sieciowego ma przewagę nad symulacjami dynamiki molekularnej przede wszystkim dlatego, że poszczególne cząstki gazu nie muszą wtedy reprezentować pojedynczych molekuł. Poza tym krok czasowy w gazie sieciowym jest rzędu średniego czasu swobodnego, natomiast w symulacjach dynamiki molekularnej jest zazwyczaj dwa rzędy wielkości krótszy. Jednak ostatnio pojawiła się nowa metoda – określana jako "dysypatywna dynamika cząsteczek" – która ma stanowić połączenie najlepszych cech gazu sieciowego i dynamiki molekularnej; por. P. J. Hoogerbrugge, J. M. V. Koelman, "Europhysics Letters" 19, 155 (1992). 24. U. Frisch, B. Hasslacher, Y. Pomeau ["Phys. Rev. Lett." 56, 1505 (1986)] wykazali, że pewna klasa deterministycznych gazów siatkowych z dyskretnymi elementami boolowskimi symuluje równania Naviera-Sto-kesa i może posłużyć do skonstruowania prostych maszyn liczących z bardzo wieloma procesorami. Mniej więcej w tym samym czasie Stephen Wolfram, wtedy pracujący w Institute for Advanced Study w Princeton, opublikował pracę, w której wyprowadził ciągłe równania dla automatów komórkowych, opisujących gaz sieciowy; S. Wolfram, "J. Stat. Phys."45, 471 (1986). 25. Proszę zwrócić uwagę, że numeryczne rozwiązanie równania Naviera-Stokesa i tak wymaga dyskretyzacji czasu oraz przestrzeni, a zatem ciągłe równanie nabiera wtedy pewnych cech automatu komórkowego. 26. Jednym z przykładów jest przepływ okresowy. Z drugiej strony, prosty przepływ Poiseuille'a z małą liczbą Reynoldsa stanowi przykład sytuacji, w której metoda gazu sieciowego okazuje się dużo lepsza niż metoda spektralna (ale nie jest lepsza od metod elementów spektralnych, elementów skończonych, sieci Boltzmanna, a nawet metody różnicowej). Niektórzy jednak twierdzą, że metoda gazu sieciowego to sposób na rozwiązanie równania Naviera-Stokesa. Wadą wszystkich modeli sieciowych jest utrata symetrii Galileusza. 27. M. Sahimi, "Rev. Mod. Phys." 65, 1393 (1993). Zob. również: B. Bohhosian, P. Coveney, A. Emerton, A Lattice-gas model of Microemulsions, preprint (1995). 28. S. Wolfram, "Rev. Mod. Phys." 55, 601 (1983). Automaty komórkowe I klasy mają punkty stałe; automaty II klasy ewoluują do cykli granicznych; automaty III klasy są związane z dziwnym atraktorami. Wśród ciągłych układów dynamicznych nie ma odpowiedników automatów klasy IV: wiąże się je z istnieniem długotrwałych stanów przejściowych. Jednak uczeni zajmujący się badaniami sztucznego życia przypisują wielkie znaczenie złożonej dynamice, odpowiadającej automatom klasy IV. Termin "skraj chaosu" odnosi się do dynamicznego zachowania automatów należących do klasy IV, położonych między klasami II i III (por. rozdział 8.). 29. C. Langton, rozprawa doktorska, Uniwersytet stanu Michigan, (1991). Langton zmieniał tak zwany parametr lambda i wykazywał, że wówczas typ ewolucji przechodzi z klasy I do II, IV i III. 30. K. Preston, M. Duff, Modern Cellular Automata: Theory and Applications. Plenum Press, Nowy Jork 1984, s. 3. 31. N. Margolus, CAM-8. A Computer Architecture Based on Cellular Automata, w: Pattern Formation and Lattice Gas Automata, E. Lawniczak, R. Kapral (red.). American Mathematical Society, Waszyngton D.C. 1995. 32. Ze wstępu do: T. Toffoli, N. Margolus, Cellular Automata Machines. 33. Toffoli i Margolus interesowali się obliczeniami odwracalnymi. Zob. na przykład: C. H. Bennett, "IBM Res Dev" 17, 525 (1973); E. Fred-kin, T. Toffoli, "Int. J. Theor. Phys." 21, 219 (1982); N. Margolus, "Physics" 10D, 81 (1984); T. Toffoli, Automata, Languages and Programming. De Bakker, van Leeuwen (red.). Springer-Verlag, Nowy Jork 1980, s. 632-44. Zdefiniowanie informacji jest trudnym zagadnieniem. 34. N. Margolus, T. Toffoli, G. Vichniac, "Phys. Rev. Lett." 56, 1964 (1986). 35. N. Margolus, w wywiadzie udzielonym R. Highfieldowi, luty 1995. 36. Sieci neuronowe, wykorzystujące automaty komórkowe, rosną w procesie dwufazowym. Najpierw tworzy się trzykomórkowe szlaki, wysyłając sygnały wzrostu (np. naprzód i w prawo) w środku szlaku. Instrukcja zostaje wykonana, gdy dociera do końca szlaku. Sekwencja instrukcji wzrostu jest traktowana jak chromosom w algorytmie genetycznym i podlega ewolucji: sekwencje są odwzorowywane na sieć w automacie komórkowym. Gdy szlaki się przecinają, tworzą "synapsy". Gdy Już powstanie sieć w automacie komórkowym, jest wykorzystywana jako sieć neuronowa w drugiej fazie sygnalizacji neuronowej. Niektórych sygnałów neuronowych można użyć do sterowania pewnymi procesami, a wtedy jesteśmy w stanie zmierzyć jakość sterowania, czyli dostosowanie sieci. Ta miara dostosowania pozwala określić ciśnienie selekcyjne w ewolucji sieci. 37. H. de Garis, T. Kaloudis, The "CAM-Brain" Project; H. de Garis, Brain Building: The Evolutionary Engineering of Artificial Nervous Systems. (Wiley, w druku) 1995. 38. Szczegóły można znaleźć w: D. Bentz, P. Coveney, E. Garboczi, M. Kleyn, P. Stutzman, "Modelling and Simulations in Material Science and Engineering" 2, 783 (1994). 39. Wykorzystany algorytm wywodził się ze wcześniejszej pracy, dotyczącej porowatych skał wapiennych, w których kamienna sieć i pory per-kolują. Okazuje się, że można otrzymać uderzająco podobny trójwymiarowy obraz skał wapiennych – mający takie same własności statystyczne – progując odpowiednie gaussowskie konwolucje trójwymiarowych obrazów, w których początkowo wszystkie miejsca są zapełnione za pomocą białego szumu. Zob.: P. A. Crossley, L. M. Schwartz, J. R. Banavar, "Appl. Phys. Lett." 59, 3553 (1991). 40. R. D'Angelo, T. Płoną, L. Schwartz, P. Coveney,. Advanced Cement Based Materials" 2, 8 (1995). 41. Jest to szczególnie istotne przy wydobywaniu ropy, gdzie cement stosuje się do wykładania wierconych szybów. Przy takiej pracy trzeba wiedzieć, że cement nie zastygnie zbyt szybko, gdy jest jeszcze pompowany, oraz kiedy zastygnie po znalezieniu się na miejscu. 42. E. Garboczi, D. Bentz, "Journal of Materials Science" 27, 2083 (1992); D. Bentz, E. Garboczi, NISTIR5125 (1993). 43. Innymi słowy, konieczna jest pewna przypadkowość w poszukiwaniach rozwiązania. Podobny pomysł przyszedł do głowy Stanisławowi Ulamowi w 1946 roku, gdy usiłował rozwiązać problem, jak przewidzieć siłę wybuchu bomby jądrowej, spowodowanego reakcją łańcuchową z udziałem neutronów. Ułam dochodził do siebie po chorobie i dla rozrywki układał pasjansa. Po nieudanych próbach oceny prawdopodobieństwa wygranej wpadł na pomysł, że można to zrobić eksperymentalnie, notując liczbę gier i wygranych. Im większa liczba gier, tym lepsza zgodność takiego oszacowania z wynikiem teoretycznym. Podobnie można śledzić losy pojedynczych neutronów. Metoda ta – nazwana metodą Monte Carlo od miejsca, gdzie znajduje się słynne kasyno – została przetestowana za pomocą ENIAC-a w 1947 roku i od tego czasu wykorzystuje się ją w bardzo wielu dziedzinach badań. 44. Mówiąc ściśle, chodzi o energię swobodną, określoną tak jak w termodynamice. 45. D. Stein, "Sci. Amer." 261, 36 (1989). 46. Pionierami metody statystycznej byli S. F. Edwards i P. W. Anderson [zob.: "Journal of Physics" F5, 965 (1975)]. Sformułowali oni wyidealizowany model szklą spinowego, którego własności można było obliczyć. David Sherrington spróbował uprościć ich model, a Scott Kirkpatrick przeprowadzał symulacje komputerowe, eksperymentując z nowymi sposobami, które gwarantowałyby, że szkło spinowe nie zastygnie w lokalnym minimum. 47. W rzeczywistości ich liczba rośnie wykładniczo. Proszę zwrócić uwagę, że szkła spinowe nie są z natury metastabilne, jak normalne szkło okienne. Może istnieć jeden stan podstawowy, w którym znajduje się szkło spinowe w stanie ścisłej równowagi, ale istnieje również wiele metastabilnych stanów, związanych z nisko położonymi lokalnymi minimami energii swobodnej, oddzielonych od stanu podstawowego bardzo wysoką barierą energetyczną (w porównaniu z energią cieplną). Takie stany różnią się od siebie na poziomie makroskopowym. W praktyce nie ma sensu skupiać uwagi na jednym z takich stanów – wszystkie są tak samo stabilne. 48. D. Sherrington, S. Kirkpatrick, "Phys. Rev. Lett." 35, 1972 (1975); D. Sherrington, S. Kirkpatrick, "Phys. Rev. B" 17, 4384 (1978). Pierwszy na ten pomysł wpadł D. Sherrington i zreferował go podczas pobytu w Imperiał College. Warto pamiętać o ogromnej różnicy między podejściem fizyków i biologów do kwestii wyjaśniania świata. Fizycy są zadowoleni, gdy mają wyidealizowany model, który można analizować matematycznie i następnie spróbować wyciągnąć ogólne wnioski; biolodzy usiłują na ogół za wszelką cenę uwzględnić wszystkie szczegóły. 49. David Sherrington, w wywiadzie udzielonym R. Highfieldowi, lipiec 1994. Ścisłe rozwiązanie można otrzymać w przybliżeniu średniego pola. 50. S. Kirkpatrick, C. Gelatt, Jr., M. Vecchi, "Science" 220, 671 (1983). Autorzy podają wyniki optymalizacji dla problemu komiwojażera, który odwiedza tysiące miast. Szczegóły techniczne dotyczą wyboru algorytmu i procedury studzenia. 51. Chodzi o energię wewnętrzną, a nie swobodną. 52. Symulowane wyżarzanie jest w istocie ściśle związane z metodą Monte Carlo. Metoda Monte Carlo, wymyślona przez Stanisława Ulania i dziś wykorzystywana najczęściej w postaci algorytmu Metropolis, jest w istocie stochastyczną techniką poszukiwania, w której zmiany powodujące zmniejszenie energii są akceptowane z prawdopodobieństwem równym jedności, a powodujące zwiększenie energii – z prawdopodobieństwem danym przez, zależny od temperatury, czynnik Boltzmanna. Metodę tę stosuje się powszechnie do modelowania zachowania równowagowego dużych zbiorów jonów, atomów i cząsteczek, jak również do numerycznego obliczania skomplikowanych całek i innych wyrażeń matematycznych. 53. A. Briinger, J. Kuriyan, M. Karplus, "Science" 235, 458 (1987). 54. Chodzi o problem struktury przestrzennej białek. Zob. na przykład: S. Schulze-Kremer, w: Parallel Problem Solving Jorm Nature 2. R. Manner, B. Manderick (red.). North-Holland, Amsterdam 1992, s. 391-400; T. Dandeker, P. Argos, "Protein Engineering" 5. 637 (1994), s. 163. 55. M. Waldrop, Complexity. Penguin 1994, s. 163. Rozdział 5: EWOLUUJĄCE ODPOWIEDZI 1. "W każdym przypadku, jaki badałem, łatwo można było wymyślić jakieś ulepszenia – stwierdza John Holland. – Na przykład w ludzkim oku, choć takie wspaniałe, ciało neuronów znajduje się przed siatkówką!" John Holland, w liście do Rogera Highflelda, 6 lipca 1994. 2. M. Waldrop, Complexity. Penguin, Londyn 1994, s. 167. 3. Holland otrzymał pierwszy tytuł doktora informatyki nadany w Stanach Zjednoczonych. Zob.: S. Levy, Artificial Life. Pantheon, Nowy Jork 1992, s. 60. Bibliografię wczesnych prac na temat genetycznych algorytmów można znaleźć w: J. Holland, "Journal of the Association for Computing Machinery" 3, 297 (1962). 4. J. Holland, "Sci. Amer." 267, 66 (1992). ["Świat Nauki" 9 (1992), s. 34]. 5. J. Holland, Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control and Artificial Intelligence. MIT Press, Massachusetts, Cambridge 1992. Wydanie z 1975 roku ukazało się nakładem University of Michigan. Pierwsza uwaga na temat "genetycznych algorytmów" pochodzi z 1967 roku. Pojawiła się ona w rozprawie doktorskiej, która opisywała program, grający bardzo uproszczoną wersję szachów. Zob.: J. Bagley, The behaviour of adaptive sys-tems which employ genetic and correlations algorithms; rozprawa doktorska, Uniwersytet stanu Michigan, 1967. 6. J. Holland, "Sci. Amer." 267, 66 (1992). Proszę zwrócić uwagę, że algorytmy genetyczne są niedeterministyczne, z uwagi na przypadkowe mutacje i crossing-over. 7. J. Holland podkreśla, że głównym źródłem skuteczności genetycznych algorytmów – podobnie jak ewolucji w przyrodzie – jest crossing--ouer, powiązany z przetrwaniem obiektów najlepiej dostosowanych. Przypadkowe mutacje są stosunkowo nieistotne. Ta obserwacja podważa sens prób adaptacyjnego rozwiązywania problemów z wykorzystaniem wyłącznie mutacji bezpłciowych i przetrwaniem najlepiej dostosowanego. Zob. na przykład: R. Dawkins, Ślepy zegarmistrz. Przełożył A. Hoffman. PIW, Warszawa 1994. 8. J. Hadamard, Psychologia odkrycia matematycznego. Przełożył R. Molski. PWN, Warszawa 1964. 9. Algorytm rozpoczął ewolucję od projektów opracowanych przez system ekspercki, wykorzystujący reguły wnioskowania, które zostały sformułowane na podstawie doświadczeń i służą do oceny jakości projektu. 10. D. Goldberg, Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Massachusetts, Reading 1989, rozdziały 4 i 7; zob.: Wstęp, gdzie znajdują się cytowane uwagi Hollanda. 11. Genetyczne programowanie ma pewne zalety w porównaniu z genetycznymi algorytmami. Dane wejściowe dla genetycznego programowania zazwyczaj zostały wzięte bezpośrednio z rozwiązywanego problemu i stanowią jego "naturalną" reprezentację. Algorytmy genetyczne, jak również sieci neuronowe, na ogół wymagają, by dane wejściowe zostały wstępnie przetworzone, zanim zostaną wczytane. 12. J. Koza, Genetic Programming. MIT Press, Londyn 1992, s. 4. Należy mieć nadzieję, że w przyszłości matematycy znajdą ten dowód. 13. D. Goldberg, Genetic Algorithms in Search, Optimization and Machine Learning, s. 309. 14. Zob. na przykład: Artificial Intelligence at MIT: Expanding Frontier. P. Winston, S. A. Schellard (red.). MIT Press, Massachusetts, Cambridge 1990. Autorzy wstępu przyznają: "Niestety, wiele wskazuje na to, że obecnie jest rzeczą niemożliwą zdefiniować inteligencję, gdyż wydaje się ona amalgamatem tak wielu zdolności do przetwarzania oraz przedstawiania informacji". 15. J. Haugeland, Artificial Intelligence: The Very Idea. MIT Press, Massachusetts, Cambridge 1985. 16. I. Aleksander, P. Burnett, Thinking Machines: The Search for Artificial Intelligence. Oxford University Press, Oksford 1987, s. 195. 17. R. Penrose, Nowy umyśl cesarza. Przełożył P. Amsterdamski. Wydawnictwo Naukowe PWN, Warszawa 1995, s. 488. 18. A. Newell, H. A. Simon, Computer Simulation of Human Thinking. The RAND Corporation P-2276 (20 kwietnia 1961). Zarówno Alan Turing, jak i Ada Lovelace dawno już rozumieli, że komputery potrafią znacznie więcej, niż tylko manipulować liczbami. 19. E. S. Shapiro, Encyclopaedia of Artificial Intelligence, tom 1. Wiley Interscience, John Wiley, Nowy Jork 1987, s. xi. 20. B. Buchanan, E. Feigenbaum, "Journal of Artificial Intelligence" 11, 5 (1978). 21. E. Feigenbaum, IJCAI-77 Proceedings, s. 1014. 22. F. Hayes-Roth, N. Jacobstein, "Communications of the ACM" 37, 36 (1994). 23. J. Weizenbaum, "Communications of the ACM" 9, 36 (1966). 24. H. Dreyfus, What Computers Stttl Can't Do. MIT Press, Massachusetts, Cambridge 1992, s.57-62. 25. T. Winograd, A Procedural Model of Language Understanding, w: Computer Models of Thought and Language, R. Schank, K. Colby (red.). W. H. Freeman, San Francisco 1973. SHRDLU to skrót, który nic nie oznacza; Winograd zaczerpnął ten pomysł z "Mad Magazine". Minsky powiedział o tym modelu: "Opowiada on o baśniowej krainie, w której rzeczy są tak uproszczone, że niemal każde twierdzenie na ich temat byłoby fałszywe, gdyby zastosować je do rzeczywistości". H. Dreyfus, What Computers StiU Can't Do, s. 9. 26. Ibid., s. xi. 27. W. S. McCulloch, W. Pitts, "Bull. Math. Biophysics" 5, 115 (1943). 28. Zaproponowali oni koncepcję formalnych, binarnych neuronów, mogących przyjmować tylko jeden lub dwa sygnały wejściowe; Rosenblatt rozszerzył tę koncepcję, mówiąc o dowolnej liczbie danych. 29. N. Wiener, Cybernetics. MIT Press, Massachusetts, Cambridge 1986. 30. N. Wiener, Cybernetics, or Control and Communication in the Animal and the Machine. Wyd. II. MIT Press i John Wiley & Sons, Nowy Jork -Londyn 1961,8. 116. 31. F. Rosenblatt, "Psychological Review" 65, 386 (1958). Rosenblatt kładzie nacisk na statystyczną, czyli przypadkową naturę sieci, nie zaś na analizę logiczną, jak to czynili McCulloch i Pitts. 32.1. Aleksander, P. Burnett, Thinking Machines: The Search for Artificial Intelligence, s. 157. 33. Chodziło o to, że perceptron nie może rozwiązać problemu XOR, który nie jest "liniowo separowalny". M. Minsky, S. Papert, Perceptrons: An Introduction to Computational Geometry, Expanded Edition. MIT Press, Massachusetts, Cambridge 1988, s. 227: "Wiele twierdzeń dowodzi, że perceptrony nie mogą rozpoznawać pewnych struktur". 34. M. Minsky, S. Papert, Perceptrons: An Introduction to Computational Geometry, wydanie rozszerzone, prolog. 35. Ibid. 36. Obecnie wiadomo, że warstwa sigmoidalnych ukrytych jednostek wystarcza, by sieć mogła działać jak uniwersalny aproksymator. Nie rozwiązane pozostaje pytanie, jak liczba ukrytych jednostek dostraja się do rozmiarów problemu. Zob.: K. Hornick, M. Stinchcombe, H. White, "Neural Networks" 2, 359 (1989); K. Hornick, M. Stinchcombe, H. White, P. Auer, "Neural Networks" 6, 1261 (1994). 37. Podstawowym warunkiem działania metody wstecznej propagacji błędu jest różniczkowalność odwzorowania wejście-wyjście. W rzeczywistości to maszyna Boltzmanna (omawiana poniżej) stanowiła pierwszy uczący się algorytm dla wielowarstwowych sieci z ukrytymi jednostkami. 38. P. Werbos, Beyond Regression: New Trends for Prediction and Analysis in the Behavioral Sciences; rozprawa doktorska, Uniwersytet Harvarda 1974. Jego idea nie wywarła jednak wpływu na dalsze badania, ponieważ Werbos nie wykazał, że algorytm wstecznej propagacji może działać. 39. Inne lekarstwa na trudności z nauką wielowarstwowych percep-tronów to zmniejszenie szybkości zmian wag, zwiększenie liczby węzłów w ukrytej warstwie i dodanie szumu (por. maszyna Boltzmanna). Bardziej drastyczne rozwiązanie polega na zastosowaniu do opisu sieci funkcji radialnych. 40. J. Hopfield, "Proc. Natl. Acad. Sci. USA" 79, 2554 (1982). 41. William Shakespeare, Makbet. Przełożył S. Barańczak. W drodze, Poznań 1992, akt V, scena 3. 42. Zob., na przykład, tekst M. Lea, w: Advanced Digital Information Systems, I. Aleksander (red.). Prentice Hall, New Jersey, Englewood Cliffs 1984. 43. Proszę zwrócić uwagę, że pamięć asocjacyjna i sieci neuronowe są dość luźno związane: jedna nie implikuje drugiej. Można tu wymienić również asocjacyjną sieć Willshawa i sieć ADAM (advanced distributed associative memory network), będącą ulepszeniem poprzedniej. 44. Ważnym problemem jest charakter stanów przyciągających. Podobnie jak w nieliniowej dynamice, gdzie występują punkty stale, cykle graniczne, torusy i dziwne atraktory (zob. rozdział 6), takie same stany mogą w zasadzie pojawić się w sieciach neuronowych. Najprostsze są punkty stałe – w takim przypadku sieć zachowuje się w jeden, powtarzalny sposób. Obecnie bada się głównie takie stany, z uwagi na – powszechnie przyjmowane w celu uproszczenia problemu – założenie równowagi szczegółowej, które oznacza, że waga połączenia między neuronami A i B jest taka sama, jak między B i A. Założenie to nie ma żadnych podstaw fizjologicznych, przeciwnie, w zastosowaniach biologicznych jest błędne, choć błąd ten nie ma wielkiego znaczenia. Cykl graniczny implikuje zapamiętanie zachowania dynamicznego, czyli struktury okresowej, natomiast dziwny atraktor odpowiadałby aperiodycznemu zapamiętywaniu informacji. Teraz, gdy już rozumiemy własności symetrycznych połączeń między neuronami, możemy łatwiej poradzić sobie z bardziej złożonymi połączeniami asymetrycznymi. 45. Hopfield i inni badacze często mówią o "powierzchni energii", nie zaś błędów, z uwagi na analogię między błędem sieci i energią swobodną w szkle spinowym. 46. D. Hebb, Organization oj behaviour. Wiley, Nowy Jork 1949. 47. J. J. Hopfield, D. W. Tank, "Biological Cybernetics" 52, 141 (1985). W rzeczywistości ta sieć sprawia kłopoty całej dziedzinie, ponieważ sprawuje się tak kiepsko, że nawet dziś nie jest konkurencyjna wobec innych technik. Prawdziwe znaczenie wymienionej pracy polega na tym, że autorzy pokazali, jak można sformułować problemy optymalizacji z więzami posługując się sieciami neuronowymi. 48. G. Hinton, T. Sejnowski, D. Ackley, Boltzmann Machines: Constraint Satisfaction Networks That Learn, "Tech. Rep. CMU CS" 84, 111 (Carnegie-Mellon University, Pittsburgh 1984); zob. również: G. Hinton, T. Sejnowski, w: Parallel Distributed Processing, tom l, D. E. Rumelhart, J. L. McClelland (red.). MIT Press, Massachusetts, Cambridge 1986, s. 282. 49. Fałszywe lub pozorne minima powstają na ogół wtedy, gdy sieć samoorganizuje się, tworząc zbiór atraktorów (szczególnych układów pobudzonych neuronów) do zapamiętywania informacji, na przykład zgodnie z regułą Hebba. Niemal nieuchronnie powstają wtedy dodatkowe minima, które trzeba usunąć. Informacja jest zapamiętywana wskutek celowych zmian wag; powstawanie dodatkowych minimów wolno interpretować jako nieintencjonalne zapamiętywanie pewnych struktur. Można je często wyeliminować, wprowadzając szum lub asymetryczne połączenia synaptyczne. Zamiast uważać te dodatkowe minima za wynik twórczego myślenia, fizyk Daniel Amit sugeruje, że należy raczej uznać to zjawisko za "psychiatryczną metaforę schizofrenii". D. Amit, Modelling Brain Function. Cambridge University Press 1989, rozdział 2. 50. Prawdopodobieństwo jest określone dobrze znanym wzorem Boltz-manna, odpowiednio znormalizowanym. Im większa energia – większy błąd – tym mniejsze prawdopodobieństwo trafienia do tego stanu, przy czym prawdopodobieństwo maleje wykładniczo. 51. Obecnie są znane szybsze algorytmy wyżarzania. Zob., na przykład, H. Szu, w: Neural Networks for Computing, J. S. Denker (red.). American Institute of Physics, Nowy Jork 1986, s. 420. 52. G. Carpenter, S. Grossberg, w: Computer Vision, Graphics and Image Processing, nr 37. Academic Press, Nowy Jork 1987, s. 54-115. 53. ART ma postać zbioru nieliniowych równań różniczkowych, a zatem dostarcza przykładu samoorganizacji, którą omawiamy w rozdziale 6. 54. G. A. Carpenter, S. Grossberg, "Computer" 21, 77 (1988). ART stanowi w istocie rozwinięcie konkurencyjnych algorytmów, uczących się bez nadzoru, których pionierami byli Kohonen i inni uczeni, dążący do większego realizmu biologicznego. Samoorganizujące się sieci Kohonena omawiamy w rozdziale 9. 55. T. Caudell, Genetic Algorithms as a Tool for the Analysis of Adaptive Resonance Theory Network Training Sets, w: COGANN-92. IEEE Computer Society Press, LosAlamltos 1992, s. 184-200. 56. P. Fletcher, P. Coveney,. Advanced Cement Based Materials" 2, 21 (1995); P. Coveney, P. Fletcher, w: Information Technology Awareness in Engineering, J. A. Powell (red.). EPSRC/DRAL 1994. Zob. również: P. Fletcher, P. Coveney, T. Hughes, C. Methven, "Journal of Petroleum Technology" 47, 129 (luty 1995). 57. Często zakłada się "sigmoidalny" profil pobudzania. 58. Liczby zmieniają się, zależnie od szczegółów treningu i użytego komputera. Podane liczby dotyczą szybkich stacji roboczych i wstępnie przetworzonych surowych danych spektralnych. Zob.: P. Fletcher, P. Coveney, op. cit, i następne publikacje. 59. W rzeczywistości z podczerwonego widma cementu można otrzymać znacznie więcej informacji, w tym również o składzie chemicznym i rozkładzie wielkości cząsteczek. Zob. prace: P. Fletcher i in., op. cit; T. Hughes, C. Methven, T. Jones, P. Fletcher, S. Pelham, C. Hall, "Advanced Cement Based Materials" 2, 91 (1995). 60. J. Moody, C. Darken, Learning with Localized Receptive Fields, w: Proceedings of the 1988 connectionist models summer school, s. 133-145; "Neural Computation" 1, 281 (1989); D. Broomhead, D. Lowe, HMSO, RSRE Report, kwiecień 1988. Sieci neuronowe do rutynowego przewidywania czasu zastygania cementu wykorzystują radialne funkcje bazowe. To powoduje transformację danych, których sieć musi się nauczyć, do przestrzeni o większej liczbie wymiarów, gdzie problem staje się liniowo separowalny i trening sprowadza się do liniowej optymalizacji, co gwarantuje znalezienie globalnego optymalnego rozwiązania. Metoda ta ma jednak pewne wady. Jedną z nich jest tendencja do przeuczenia, a wtedy uogólnianie okazuje się znacznie słabsze. 61. Można to zrobić standardowymi metodami statystycznego uśredniania. 62. I. Aleksander, P. Burnett, Thinking Machines. The Search for Artificial Intelligence, s. 158. Szczegóły procedury wspomaganych komputerowo testów raka szyjki macicy można znaleźć w: L. Mango, "Cancer Letters" 77, 155 (1994). 63. H. Thodberg, w wywiadzie udzielonym R. Highfieldowi, styczeń 1994. 64. Obliczenia zostały wykonane za pomocą algorytmu wykorzystującego samoorganizującą się mapę cech Kohonena i koncepcje zaczerpnięte z ewolucji darwinowskiej. S. Amin i J.-L. Fernandez, w wywiadzie udzielonym R. Highfieldowi, maj 1994. Zob. również: S. Amin, "Neural Computing and Applications" 2, 129 (1994); F. Favata, R. Walker, "Biological Cybernetics" 64, 516 (1991); S. Lin, B. Kernigham, "Operations Research" 21, 516 (1971); E. L. Lawler i in., The Travelling Salesman Problem: A Guided Tour of Combinatorial Optimization. John Wiley and Sons, Nowy Jork 1985. Rozdział 6: ARTYZM NATURY 1. J. Milton, Raj utracony. Przełożył M. Słomczyński. Wydawnictwo Literackie, Kraków 1986, ks. I, 836-837, s. 27. 2. P. Dirac, "Proc. R. Soc." A 123, 714 (1929). 3. Dirac dobrze zdawał sobie z tego sprawę. Jego tryumfalne stwierdzenie dotyczące mechaniki kwantowej jest często cytowane, ale z reguły w postaci wyrwanej z kontekstu. Dirac równocześnie ostrzegł, że "ścisłe zastosowanie tych praw prowadzi do równań, które są zbyt skomplikowane, by dało się je rozwiązać". 4. Tak zwana kwantowa metoda Monte Carlo daje w zasadzie "ścisłe" wyniki. Przypomina ona konwencjonalną metodę Monte Carlo, o której wspominaliśmy w rozdziale 4., ale teraz rozwiązania równania Schrodingera poszukujemy, próbkując statystycznie samą funkcję. Metodę tę zastosowano do obliczenia energii stanu podstawowego dimeru helu za pomocą superkomputera CM-5. Z obliczeń wynika, że istnieje stabilny dimer, co potwierdzają obserwacje. Warto zwrócić uwagę, że stochastyczna metoda obliczeniowa znowu okazała się najskuteczniejszym sposobem rozwiązania na pozór bardzo prostego problemu. Zob.: J. B. Anderson, C. A. Trainor, B. Boghosian, "J. Chem. Phys." 95, 7418 (1991); J. B. Anderson, C. A. Trainor, B. Boghosian, "J. Chem. Phys." 95, 345 (1993). Jednak, jak już wielokrotnie powtarzaliśmy, podstawowy problem polega na tym, że makroskopowe, złożone procesy są asymetryczne w czasie, natomiast równania mikroskopowe – symetryczne. 5. W rozdziale 4. wspomnieliśmy, że zadaniem fizyki statystycznej jest powiązanie makroskopowych własności ciał z zachowaniem pojedynczych cząsteczek, rozważanych en masse. 6. Chodzi tu o twierdzenie o minimalnej produkcji entropii. Bardziej szczegółowe rozważania na temat nierównowagowej termodynamiki można znaleźć w rozdziale 5. Strzałki czasu. 7. Zakładamy tutaj, że czas jest ciągły, a nie dyskretny. Gdyby czas był dyskretny, mielibyśmy do czynienia z równaniami różnicowymi. Modelując dynamikę populacji, uczeni często zakładają, że czas zmienia się skokowo, z roku na rok. Równanie logistyczne (rozważane pokrótce w rozdziale 1.) jest równaniem różnicowym, określającym zmiany populacji. 8. Przyczyną jest złożoność rozwiązań tych równań. Powszechnie występują rozwiązania oscylujące z dużą częstością, które wymagają ogromnej precyzji, a tym samym również ogromnej pamięci do przechowywania danych, generowanych przez program całkujący równania ruchu. 9. J. K. Flatten, J. C. Legros, Convection in Liquids. Springer-Verlag, Berlin, Heidelberg 1984, s. 318; M. Velarde, C. Normande, "Sci. Amer." 243, 92 (1980). 10. G. Nicolis, w: The New Physics, P. C. W. Davies (red.). Cambridge University Press 1989, s. 319. 11. E. Bodenschatz, J. de Bruyn, G. Ahlers, D. Cannel, "Phys. Rev. Lett." 67, 3078 (1991). 12. M. Assenheimer, V. Steinberg, "Phys. Rev. Lett." 70, 3888 (1993). Zob. również: M. Assenheimer, V. Steinberg, "Nature" 367, 345 (1994). 13. H. Xi, J. Gunton, J. Vinals, "Physical Review" E 47, 2987 (1993). 14. Na pierwszy rzut oka może się wydać dziwne, że twórca nowoczesnych komputerów nagle objawił się w roli jednego z pierwszych biologów teoretyków. Jednak zainteresowanie Turinga procesem morfogenezy stanowiło element jego trwającej całe życie fascynacji związkami między logicznymi i fizycznymi strukturami mózgu. W liście do neurofizjologa J. Z. Younga z 8 lutego 1951 roku Turing rozważa pojemność pamięci ludzkiego mózgu jako sieci 1010 neuronów, wyprzedzając w ten sposób sieciowe modele procesu uczenia się, podobnie jak zrobił to już wcześniej w pracy Intelligent Machinery z 1947 roku (zob. rozdział 3.). Turing stwierdził w liście, że daleko mu jeszcze do "sformułowania jakichś anatomicznych pytań dotyczących mózgu", ale wyjawił, że pracuje nad matematyczną teorią rozwoju embrionu, która "zadowalająco wyjaśnia (i) gastrulację; (ii) wieloboczną symetrię struktur, na przykład rozgwiazd, kwiatów; (iii) budowę liści, a zwłaszcza, dlaczego często rządzi nimi ciąg Fibonacciego (0,1, l, 2, 3, 5, 8, 13...); (iv) umaszczenie zwierząt, na przykład powstawanie pasków, cętek i łat; (v) wzorów na niemal sferycznych powierzchniach, takich jak niektóre radiolarie, ale ten problem jest trudniejszy i wynik bardziej wątpliwy". Turing napisał, że zajmuje się tym, ponieważ jest to łatwiejsze zadanie niż bezpośrednia próba odpowiedzenia na podobne pytania w odniesieniu do mózgu. Jednak, jak powiedział Youngowi: "Struktura mózgu musi być określona przez mechanizmy genetyczne i embriologiczne i mam nadzieję, że teoria, nad którą obecnie pracuję, częściowo wyjaśni, jakie wynikają z tego ograniczenia". Cytat za: A. Hodges, Alan Turing: The Enigma, s. 436-37. 15. A. Turing, "Phil. Trans. R. Soc. London" B237, 37 (1952). 16. Zob. na przykład: J. Murray, Mathematical Biology. Springer-Ver-lag, Berlin 1989. 17. B. Chance, A. K. Ghosh, E. K. Pye, B. Hess, Biological and Biochemical Oscillators. Academic Press, Nowy Jork 1973; C. Vidal, P. Hanusse, "Int. Rev. Phys. Chem." 5, 1 (1986). 18. I. Prigogine, B. Lefever, "J. Chem. Phys." 48, 1695 (1968). 19. A. Hodges, Alan Turing: The Enigma, s. 466. 20. W literaturze naukowej termin "zegar chemiczny" stosuje się w odniesieniu do reakcji, w których jedna lub więcej substancji mają początkowo bardzo małe, niemal znikające stężenie, ale w dobrze określonym momencie ich stężenie bardzo szybko wzrasta – tak jak to się dzieje podczas wybuchów. Zob. na przykład: J. Billingham, P. Coveney, "J. Chem. Soc. Faraday Trans." 89, 3021 (1993). 21. Termin "crosskatalator" został wprowadzony w pracy: A. Chaudry, P. Coveney, J. Billingham, "J. Chem. Phys." 100, 1921 (1994). Crosskatalator nie jest bezpośrednim rozwinięciem koncepcji brusselatora, lecz raczej prostszego układu, zwanego autokatalatorem. Podstawowy schemat crosskatalatora pojawił się w wielu przebraniach w pracach Petera Graya, Stephena Scotta i ich współpracowników; zob. na przykład: P. Gray, S. K. Kay, "J. Phys. Chem." 94, 3005 (1990); S. K. Scott, A. S. Tomlin, "Phil. Trans. R. Soc. London A" 332, 51 (1990); S. K. Scott, B. Peng, A.S. Tomlin, K. Showalter, "J. Phys. Chem." 94, 1134 (1990). V. Petrov i in. przedstawili związane z tym modelem badania w: "J. Chem. Phys." 97, 1921 (1992). Obecnie w literaturze naukowej można znaleźć bardzo liczne modele nieliniowych reakcji chemicznych. 22. W szczególności, jeśli dopuścimy, by substancja będąca prekursorem została bardzo szybko zużyta w crosskatalatorze, tym samym stłumimy nadzwyczaj subtelne detale złożonej dynamiki tej reakcji. 23. Realistyczne biologicznie sieci neuronowe omawiamy w rozdziale 9. Zob. również: T. R. Chay, J. R. Rinzel, "J. Biophys." 47, 357 (1985). Mieszanie modów występuje także w reakcji Błełousowa-Żabotyńskiego, o której wspomnieliśmy w poprzednim rozdziale; J. Masełko, H. L. Swinney, "J. Chem. Phys." 85, 6430 (1986). 24. E. Lorenz, The Essence of Chaos. UCL Press, Londyn 1993, s. ix. 25. D. Ruelle, F. Takens, "Comm. in Math. Phys." 20, 167 (1971). W książce Chance and Chaos Ruelle wspomina, że ich praca została odrzucona przez dwa pisma naukowe; ostatecznie skorzystał on ze swoich uprawnień redaktora pisma i zapewnił publikację artykułu. 26. Mówiąc ściśle, wydaje się, że dziwne atraktory opisują początek turbulencji, ale nie w pełni rozwiniętą turbulencję, która pozostaje tajemnicą. (To samo rozróżnienie dotyczy migotania i tachykardii w kardiologii; zaburzenia te są powodowane przez krążące fale). Ruelle i Takens wykazali w zasadzie, że dowolny układ przechodzący przez trzy lub więcej bifurkacje Hopfa (typu cyklu granicznego) – niezależnie od warunków początkowych – kończy w stanie chaotycznym. 27. J. Swift, On Poetry (1733). 28. M. Markus, J. Tamames, Fat Fractals in Lyapunov Space; ukaże się w: Fractak in the Future, C.A. Pickover (red.). St. Martin's Press, Nowy Jork. Grube fraktale mają wymiar całkowity, ale gruboziarnista miara takiego fraktala zmienia się wykładniczo ze zmianą skali, co pozwala na ilościowy opis uia "wykładnik grubości". 29. B. Mandelbrot, "Science" 156, 656 (1967). Pomiar odległości w linii prostej między miastami na wybrzeżu dałby bardzo przybliżony wynik. Gdyby wykonywać pomiary podczas spaceru wzdłuż brzegu, okazałoby się, że wynik jest znacznie większy, gdyż w ten sposób uwzględniamy wszystkie cyple i zatoki. Dla mrówki nawet drobne kamyki znacząco wydłużyłyby drogę, a dla wijącej się bakterii długość wybrzeża Wielkiej Brytanii wzrosłaby niepomiernie. Jest jasne, że wynik pomiaru zależy od wyboru skali, ponieważ istnieją struktury we wszystkich skalach długości. Gdybyśmy wybrali infinitezymalnie małą skalę pomiarów, długość całkowita wzrosłaby do nieskończoności. Paradoks kryje się w tym, że wybrzeże jest "linią" o nieskończonej długości, bez trudu mieszczącą się wewnątrz figury o skończonym polu (np. w kole obejmującym całą Wielką Brytanię). 30. X. Shi, M. Brenner, S. Nagel, "Science" 265, 219 (1994). 31. Termin "chaologia" wprowadził Mike Berry z Uniwersytetu w Bristolu. 32. D. Ruelle, "Trans. N. Y. Acad. Sci. Ser. II" 35, 66 (1973). Krótka praca Ruelle została początkowo odrzucona, ale później zaakceptowała ją redakcja innego pisma. Chaotyczne oscylacje w reakcjach chemicznych zostały zaobserwowane dopiero później. 33. William Bray z Uniwersytetu Kalifornijskiego w Berkeley odkrył oscylacje w reakcji przemiany nadtlenku wodoru w wodę w 1921 roku; jego praca spotkała się z podobnym przyjęciem. Zdaniem recenzenta, oscylacje były zapewne artefaktem spowodowanym przez kiepskie metody doświadczalne. 34. R. Field, R. Noyes, "J. Chem. Phys." 60, 1877 (1974). 35. J. Roux, R. Simoyi, H. Swinney, "Physica D" 8, 257 (1983). Pierwszą eksperymentalną rekonstrukcję dziwnego atraktora przeprowadzili J. C. Roux, A. Rossi, S. Bachelart, C. Vidal, "Phys. Lett." 77A, 391 (1980). 36. L. Gyorgyi, R. Field, "Nature" 355, 808 (1992). 37. V. Petrov, V. Gaspar, J. Masere, K. Showalter, "Nature" 361, 240 (1993). 38. Inne przykłady to rozprzestrzenianie się procesów hamujących na siatkówce, fale w zapłodnionym jajku, rozchodzenie się choroby w populacji i powstawanie gwiazd pod wpływem fal uderzeniowych w galaktykach spiralnych. Ważnym wspólnym elementem tych wszystkich przykładów jest brak tłumienia fal. 39. Zob. na przykład: A. Winfree, When Time Breaks Down. Princeton University Press 1987, oraz M. Markus, G. Kloss, "An Analogue to Cardiac Fibrillation in a Chemical System", preprint (1994). 40. V. Casters, E. Dułoś, J. Boissonade, P. De Kepper, "Phys. Rev. Lett." 64, 2953 (1990). 41. J. Boissonade, "J. Phys. (Paris)" 49, 541 (1988). 42. Q. Quyang, H. Swinney, "Nature" 352, 610 (1991). 43. S. Turing, AlanM. Taring. Heffer, Cambridge 1959, s. 105. 44. K.-J. Lee, W. McCormick, J. Pearson, H. Swinney, "Nature" 369, 215(1994). 45. J. Boisssonade, "Nature" 369, 188 (1994). 46. O. Steinbock, A. Tóth, K. Showalter, "Science" 267, 868 (1995). 47. Pomysł wyznaczenia optymalnej drogi tą metodą został przedstawiony po raz pierwszy w 1991 roku na konferencji o sieciach neuronowych. Zob.: J. Sepulchre, A. Babloyantz, L. Steels, "Proceedings of the International Conference on Artificial Neural Networks", T. Kohonen, K. Makisara, O. Simula, J. Kangas (red.). Elsevier, Amsterdam 1991, s. 1265. 48. A. Hjelmfelt, J. Ross, J-P. Laplante, M. Payer z Military College of Canada w Ontario zbudowali układ składający się z ośmiu zbiorników, połączonych rurami, zaworami i pompami. Wykorzystuje on powolną, bi-stabilną reakcję jodanowo-arsenawą, która oscyluje między stanem z dużym stężeniem jodu (niebieski) i małym (bezbarwny). Układ może zapamiętać trzy wzorce, zakodowane w postaci odpowiedniego układu rur (wagi Hebba). Wzór początkowy jest określany za pomocą różnych stężeń jodu w poszczególnych zbiornikach. Jeśli wzór ten nie zawiera zbyt wielu błędów, to po upływie godziny układ stężeń w zbiornikach stabilizuje się i przybiera wartości odpowiadające zapamiętanej konfiguracji. Chemiczną sieć neuronową można również uczyć. J. Ross, American Association for the Advancement of Science, luty 1995. Zob. również: A. Hjelmfelt, J. Ross, "Proc. Nat. Acad. Sci." 91, 63 (1993); A. Hjelmfelt, E. Winberger, J. Ross, "Proc. Nat. Acad. Sci." 88, 10983 (1991) i 89, 383 (1992). 49. B. Madore, W. Freedman, "Science" 222, 615 (1983). 50. M. Markus, B. Hess, "Nature" 347, 56 (1990). 51. Randomizacja sieci obyła się bez zmiany jej geometrii. W każdym kwadracie był umieszczony jeden punkt w przypadkowo wybranym miejscu. Następnie zdefiniowano otoczenie kwadratu jako zbiór wszystkich kwadratów, których punkty leżą w kole o ustalonym promieniu i środku w punkcie znajdującym się w danym kwadracie. 52. F. Mertens, R. Imbihl, "Nature" 370, 124 (1994). 53. M. Markus, H. Schepers, Turing Structures in a Semi-random Cellular Automaton, w: Mathematcs Applied to Biology and Medicine. Wuerz Publishing Ltd, Winnipeg 1993, s. 473. Markus i Stavridis badali eksperymentalnie deformacje frontu fali chemicznej w czułej na światło reakcji Biełousowa-Żabotyńskiego i z powodzeniem symulowali obserwowane zjawiska za pomocą półprzypadkowego automatu komórkowego; "Phil. Trans. R. Soc. Lond. A" 347, 601 (1994). W innej pracy na temat tego samego układu autorzy opisują chemiczną "turbulencję" – aperiodyczne zmiany przestrzenne, przypominające turbulencję hydrodynamiczną; "Journal of Bifurcations and Chaos" 4, 1233 (1994) i M. Markus, G. Kloss, I. Kusch, "Nature" 371, 402 (1994). Jesteśmy wdzięczni Mario Markusowi za poinformowanie nas o tych pracach. 54. M. Markus, I. Kusch, "Proceedings of the 2nd European Conference on Mathematics Applied to Biology and Medicine". Lyon 1995. Zob. również: Y. Gunji, "Bio-Systems" 23, 317 (1990); G.B. Ermentrout, L. Edelstein-Keshet, "J. Theor. Biol." 160, 97 (1993). W jesiennym numerze "Los Alamos Science" z 1983 roku można znaleźć zdjęcie Stephena Wolframa z jedną z takich muszli, a na s. 6 powiększone zdjęcie samej muszli. M. Markus twierdzi, że podobieństwo między muszlami i automatami Wolframa jest przypadkowe. Jednak automaty komórkowe mają wiele zalet w porównaniu z ciągłymi modelami reakcyjno-dyfuzyjnym Turinga w zastosowaniach do opisu złożonych układów biologicznych, o których wiadomo tak mało, że metoda Turinga nie daje odpowiednich wyników. 55. William Blake, Wróżby niewinności, w: W. Blake, Poezje wybrane. Przełożył Zygmunt Kubiak. LSW, Warszawa 1991, s. 131. 56. W. Press, "Communications in Modern Physics" C7, 103 (1978). 57. P. Bak, K. Chen, "Sci. Amer." 264, 26 (1991). 58. P. Bak, C. Tang, K. Wiesenfeld, "Phys. Rev. Lett." 59, 381 (1987). Model, który wywarł duży wpływ na dalsze badania, skonstruowali M. Kardar, G. Parisi, Y. Zhang, "Phys. Rev. Lett." 56, 889 (1986). 59. W przypadku suchego piasku kąt krytyczny wynosi około 34 stopni względem linii poziomej. 60. Konieczność uwzględnienia oddziaływań we wszystkich skalach odległości w opisie zjawisk krytycznych pierwszy zrozumiał Kenneth Wilson, który w tym celu opracował tak zwaną metodę grupy renormalizacyjnej. K. Wilson, "Phys. Rev. Lett." 28, 548 (1972) i K. Wilson, J. Kogut, "Physics Reports" 12C, 77 (1974). W 1982 roku Wilson otrzymał Nagrodę Nobla za swe prace z dziedziny przejść fazowych. 61. Taki stan można również opisać w mniej elegancki sposób, jako typowy, niezmienniczy ze względu na skalowanie stan stacjonarny. 62. G. Held, D. Solina, D. Keane, W. Haag, P. Horn, G. Grinstein, "Phys. Rev. Lett." 65, 1120 (1990). Ich badania zostały powtórzone i rozwinięte w pracy, która rzekomo wykazuje, że choć można otrzymać krytyczne fluktuacje rozmiarów lawin dla dostatecznie małych pryzm, Jednak ze wzrostem wielkości następuje przejście do klasycznych fluktuacji; patrz P. Evesque, D. Fargeix, P. Habib, M. Luong, P. Porion, "Physical Review E" 47, 2326 (1993). Inne doświadczenia nie potwierdziły jednak takiego odejścia od samoorganizującego się stanu krytycznego: M. Bertz i in., "Phys. Rev. Lett." 69, 2431 (1992) i S. Grumbacher i in., "Amer. J. Phys." 61, 329 (1993). 63. P. Bak, K. Chen, "Sci. Amer." 264, 28 (1989). 64. P. Bak, K. Chen, M. Creutz, "Nature" 342, 780 (1989). 65. P. Bak, C. Tang, "J. Geophys. Res." 95, 15635 (1989) i Z. Olami, H. Feder, K. Christensen, "Phys. Rev. Lett." 68, 1244 (1992). 66. K. Chen, P. Bak, M. Jensen, "Phys. Lett." A 149, 207 (1990); H. Feder, J. Feder, "Phys. Rev. Lett." 66, 2669 (1991); H. Rosu, H. Canes-sa, "Physical Review E" 47, 3818 (1993); B. Suki, A. Barbaras!, Z. Han-tos, F. Pętak, H. Stanley, "Nature" 368, 615 (1994); J. Machta, D. Cande-la, R. Halloc, "Physical Review E" 47, 4581 (1993). 67. K. Chen, P. Bak, "Physics Letters" A140, 299 (1989). 68. P. Anderson, "Bulletin of the Santa Fe Institute" 4, 13 (1989). 69. P. Bak, K. Chen, "Sci. Amer." 264, 32 (1991). 70. H. Jaeger, C. Liu, S. Nagel, "Phys. Rev. Lett." 62, 40 (1989), i S. Nagel, "Reviews of Modem Physics" 64, 321 (1992). "Nie znaleźliśmy żadnych dowodów występowania krytycznego zachowania. Obserwowane procesy przypominają raczej przejście fazowe pierwszego rzędu, gdyż występuje albo duża lawina, albo brak jest lawin – stwierdza Nagel w liście do Rogera Highfielda z listopada 1994. – Jeśli ma pan wątpliwości, może pan łatwo przeprowadzić doświadczenie, posługując się cukiernicą. Proszę bardzo powoli przechylić cukiernicę, aż nastąpi pierwsza lawina. Po zakończeniu się lawiny proszę dalej przechylać cukiernicę. Przekona się pan, że konieczne jest zwiększenie kąta o skończoną wielkość (kilka stopni), nim nastąpi druga duża lawina. Nie ma żadnych małych lawin, o wielkości l, 2, 3 i 4, a tylko duże lawiny, obejmujące cały układ". Również automat komórkowy modelujący pryzmę piachu nie potwierdził istnienia takich zjawisk: A. Mehta, G. Barker, "Europhysics Letters" 27, 501 (1994). Takie same uwagi krytyczne dotyczą równania KPZ. Model teoretyczny poprawnie przedstawiający takie zachowanie znajduje się w: J.-P. Bouchard i in., "J. Physique (France)" I 4, 1383 (1994). 71. A. Mehta, G. Barker, "Rep. Próg. Phys." 383 (1994). 72. M. Cross, P. Hohenberg, "Review of Modern Physics" 65, 1078 (1993). 73. A. Winfree, When Time Breaks Down. Princeton University Press, Princeton 1987, s. 216. Rozdział 7: ŻYCIE ZNANE 1. J. Hudson, The History of Chemistry. Macmillan, Londyn 1992, s. 104. Już w czasach arabskich alchemików materiały pochodzenia zwierzęcego i roślinnego klasyfikowano i badano oddzielnie od pozostałych. W 1790 roku Bergman pierwszy pisał o ciałach "organicznych i nieorganicznych", a w 1806 Berzelius pierwszy użył określenia "chemia organiczna". 2. Jeden z trwałych mitów chemii mówi, że witalizm został obalony w 1828 roku, gdy Fridrich Wóhler przeprowadził syntezę mocznika (doświadczenie to miało duże znaczenie, ponieważ dostarczyło jednego z pierwszych dowodów istnienia izomerów). Witalizm otrzymał poważny cios, gdy w 1844 roku Hermann Kolbe uzyskał kwas octowy z materiałów nieorganicznych. 3. Jak się przekonaliśmy w rozdziale 6., druga zasada termodynamiki stwierdza, że dowolne zmiany w izolowanym układzie powodują wzrost nie-uporządkowania. Żywe organizmy nie są układami izolowanymi: pobierają energię z otoczenia i wykorzystują ją do podtrzymania wewnętrznego porządku. Zwierzęta używają do tego celu tlenu i pożywienia, rośliny wykorzystują dwutlenek węgla, tlen, wodę i światło słoneczne. Na znaczenie, jakie ma fakt, że układy biologiczne są otwarte, zwrócił fizykom uwagę Erwin Schrodinger w książce What Is Life? (Cambridge University Press 1944). 4. H. Dietz i in., "Nature" 352, 337 (1991). 5. V. McKusick, "Nature" 352, 279 (1991). 6. R. Achara, E. Fry, D. Stuart, G. Fox, D. Rowlands, F. Brown, "Nature" 337, 709 (1989). 7. G. Binnig, W. Haeberle, F. Ohnesorge, D. Smith, H. Hórber, C. Czerny, Scanning Tunnelling Microscopy, "STM 91". Interlaken, Szwajcaria, sierpień 1991, oraz W. Haeberle, J. Hórber, F. Ohnesorge, D. Smith, G. Binnig, "Ultramicroscopy" 42-44, 1161 (1992). 8. R. C. Lewontin, The Doctrine of DNA. Penguin, Londyn 1993, s. 13. Richard Lewontin wypowiada się bardzo jadowicie na temat praktycznych korzyści, jakie przynosi nauka medycynie: "Większość terapii stosowanych w leczeniu nowotworów polega na usuwaniu guzów lub niszczeniu ich potężnymi dawkami promieniowania albo środków chemicznych. Postępu w leczeniu raka nie zawdzięczamy głębokiemu zrozumieniu elementarnych procesów rozwoju komórki, choć niemal wszystkie badania nad rakiem, wychodzące poza poziom czysto kliniczny, są poświęcone właśnie wyjaśnieniu wszystkich szczegółów biologii komórki. Medycyna pozostaje, mimo opowiadań o naukowości, empiryczną sztuką, w której robi się to, co przynosi skutki". 9. R. Dawkins, Samolubny gen. Przełożył M. Skoneczny. Prószyński i S-ka, Warszawa 1996. 10. E. Schrodinger, What Is Life? The Physical Aspect of the Living Cell. Mind and Matter. Cambridge University Press, Cambrige 1967. 11. Ibid., s. 79. 12. M. Eigen, Steps Towards Life. Oxford University Press 1992, s. 39. Patrz również: J. M. Smith, The Problems of Biology. Oxford University Press 1986, s. 7. 13. H. Hartman, J. Lawless, P. Morrison (red.), Search for the Universal Ancestors. NASA, Waszyngton, SP-477 1985, s. 1. 14. R. Dawkins, Ślepy zegarmistrz. Przełożył A. Hoffman. PIW, Warszawa 1994, s. 188. 15. Optymalizacja molekularna, jaka powstała poprzez ewolucję DNA, musiała osiągnąć swoje naturalne granice, odpowiadające sekwencji powtarzalnych jednostek o długości od 100 do 1000 elementów. 16. To podejście wykorzystano do oszacowania, że wiek kodu genetycznego nie może przekraczać 3,8 miliarda lat. M. Eigen, B. Lindemann, M. Tietze, R. Winkler-Oswatitsch, A. Dress, A. von Haeseler, "Science" 244, 673 (1989). Jednak wynik zależy od oceny wieku ostatniego wspólnego przodka – w cytowanej pracy przyjęto 2,5 miliarda lat – podczas gdy inne szacunki dają wyniki od l miliarda do niemal 3,8 miliarda lat (co wydaje się najbardziej prawdopodobne). Ta niepewność powoduje powstanie dużego błędu w ocenach daty powstania kodu. 17. Darwin do J. D. Hookera; cytat za: Origin of Life. Wolman (red.). D. Reidel, Dordrecht 1981, s. 1. 18. Rozmowa między Jamesem Lakiem i Rogerem Highfleldem, styczeń 1988. Patrz także: J. Lake, "Nature" 331, 184 (1988). Lakę przeprowadził szczegółową analizę materiału genetycznego w "fabrykach" białek w komórkach. Fabryki te, tak zwane rybosomy, występują we wszystkich typach komórek – eubakteriach, halobakteriach, metanogenach, eocytach, eukarłon-tach. Komórki tradycyjnie dzieli się na dwie klasy. Pierwsza składa się z prokariontów, które nie mają jądra komórkowego. Należą do niej zwykłe bakterie, czyli eubakterie, oraz archebakterie, zdolne do przetrwania w skrajnych warunkach – słonych zbiornikach (halofllne), gorących źródłach (termo-fllne), beztlenowych osadach, gdzie redukują dwutlenek węgla do metanu (metanogenne). Druga grupa składa się z bardziej złożonych komórek z jądrem – eukariontów. Należą do niej między innymi komórki roślin i człowieka. Na podstawie analizy genetycznej Lakę postanowił wydzielić jedną grupę archebakterii, tak zwanych eocytów, i umieścić je bliżej eukariontów. Według niego eocyty i komórki organizmu człowieka należy połączyć w grupę "kariontów", natomiast eubakterie, halobakterie i metanogeny tworzyłyby grupę "parkariontów". 19. James Lakę – razem z Marią Rivera – porównał także sekwencje aminokwasów występujące w naturze w różnych formach, w cząsteczce białka, zwanej EF-tu, wykorzystywanej przez komórki w syntezie białek. W eukarion-tach i eocytach badacze znaleźli charakterystyczny fragment struktury EF-tu. W eubakteriach i innych archebakteriach fragment ten został wymieniony. To zgadza się z teorią Lake'a, że eukarionty i eocyty są szczególnie związane. James Lakę, w wywiadzie udzielonym R. Highfleldowi, wrzesień 1994. 20. L. Orgel, "Sci. Amer." 271, 53 (1994). 21. A. Oparin, Proisschożdienije żyzni. Moskowskij Raboczij 1924; przekład na angielski w: J. D. Bernal, The Origin of Life. Weidenfield and Nicolson, Londyn 1967, s. 199-234. Zasadnicze prace z tej dziedziny można znaleźć w: D. Deamer, G. Fleischaker, Origins of Life: The Central Concepts. Jones and Barrtlett, Boston 1994. 22. Niektórzy uczeni twierdzili później, że skoro wodór jest rozpowszechniony w Układzie Słonecznym, to pierwotna atmosfera musiała mieć właściwości redukcyjne, a nie utleniające; to znaczy, że najbardziej rozpowszechnione pierwiastki biogeniczne – węgiel, tlen i azot – musiały istnieć w postaci uwodorowanej lub zredukowanej. 23. S. Miller, "Science" 117, 528 (1953); patrz również: S. Miller. L. Orgel, The Origins of Life on Earth. Prentice Hall, New Jersey, Englewood Cliffs 1974, s. 55. 24. Wiele lat później okazało się, że meteoryt, który spadł w pobliżu Murchison w Australii, zawierał pewną liczbę aminokwasów mniej więcej w takich samych proporcjach, co wspiera idee, iż doświadczenie Millera było właściwym przybliżeniem warunków panujących w prebiotycznej mieszaninie na Ziemi. Późniejsze prace dowodzą, że prebiotyczna atmosfera nie miała tak silnych właściwości redukujących, jak sądzili Miller i Urey. Doświadczenia z wyładowaniem elektrycznym w początkowej mieszaninie gazów – z tlenkiem lub dwutlenkiem węgla zamiast metanu oraz azotem w postaci cząsteczkowej zamiast amoniaku – doprowadziły do powstania podobnych aminokwasów, pod warunkiem, że mieszanina miała właściwości redukujące. 25. W. Groth, H. Suess, "Naturwissenschaften" 26, 77 (1938); F. Ferris, C.-H. Huang, W. Hagan, "Origins of Life and Evolution of the Biosphere" 18, 121 (1988). 26. J. D. Bernal, Origin of Life. Weidenfield and Nicolson, Londyn 1967, s. 8. Patrz również: K. Krenevolden, J. Lawless, K. Pering, E. Peterson, J. Flores, C. Ponnamperuma, I. Kaplan, C. Moore, "Nature" 228, 923 (1970) oraz C. Chyba, P. Thomas, L. Brookshaw, C. Sagan Science" 249, 366 (1990). 27. Choć są jeszcze inne możliwości, takie jak sprzężenie zwrotne wskutek katalizy w bardziej złożonym łańcuchu reakcji. 28. R. Driscoll, Y. Youngquist, J. Baldeschwieler, "Nature" 346 294 (1990). 29. L. Orgel, Evolution of the Genetic Apparatus: A Review, "Cold Springs Harbor Symposium Quant. Biol." 52, 9 (1987). 30. Główny dogmat biologii molekularnej, sformułowany przez Fran-cisa Cricka w 1958 roku, wyraża jednokierunkowość i nieodwracalność przepływu chemicznych instrukcji od DNA do RNA i z RNA do białka: "Przekaz informacji od kwasu nukleinowego do kwasu nukleinowego lub od kwasu nukleinowego do białka jest możliwy, natomiast przekaz informacji od białka do białka lub od białka do kwasu nukleinowego jest niemożliwy". F. Crick, "Symp. Soc. Expl. Biol." 12, 138 (1958). 31. H. Temin, S. Mizutani, "Nature" 226, 1211 (1970). 32. Termin ukuty przez W. Gilberta, "Nature" 319, 618 (1986). 33. C. Guerrier-Takada, K. Gardiner, T. Marsh, N. Pace, S. Altman, "Celi" 35, 849 (1983) i F. Westheimer, "Nature" 319, 534 (1986). 34. L. Orgel, w wywiadzie udzielonym R. Highfleldowi, październik 1994. 35. Uzasadnienie Nagrody Nobla, Szwedzka Królewska Akademia Nauk, Wydział Informacji, 12 października 1989. Patrz również: J. Rajagopal, J. Doudna, J. Szostak, "Science" 244, 692 (1989); J. McSwiggen, T. Cech, "Science" 244, 679 (1989). 36. L. Orgel, w wywiadzie udzielonym R. Highfleldowi, październik 1994. 37. J. Nowick, Q. Feng, T.Tjivikuna, P. Ballestar, J. Rebek, "J. Am. Chem. Soc." 113, 8831 (1991). 38. G. von Kiedrowski, "Angew Chem." 98, 932 (1986) i G. Von Kle-drowskl, "Angew Chem. Int. Engl." 25, 932 (1986). 39. J. Rebek, "Chemistry in Britain" 30, 286 (1994). 40. T. Tjivikua, P. Ballester, J. Rebek, "J. Am. Chem. Soc." 112, 1249 (1990). 41. V. Rotello, w wywiadzie udzielonym R. Hłghfleldowi, lipiec 1992. 42. J. Hong, Q. Feng, V. Rotello, J. Rebek, "Science" 255, 848 (1992). 43. R. Wyler, J. de Mendoza i J. Rebek, "Angew Chem. Int. Ed. Engl." 32, 1699 (1993). J. Rebek, w wywiadzie udzielonym R. Highfieldowł, kwiecień 1994. 44. Wynika to z właściwości wiązania wodorowego w parach zasad Watsona-Cricka, występujących w DNA i RNA. Oznacza to, że proces ten ma charakter crosskatalityczny, a nie autokatalityczny. 45. D. Sievers, G. von Kiedrowski, "Nature" 369, 221 (1994). Do podobnych wniosków doszli T. Li, K. C. Nicolau, "Nature" 369, 218 (1994), stosując znacznie dłuższe łańcuchy oligonukleotydów. 46. D. R. Mills, R. L. Peterson, S. Spiegelman, "Proc. Natl. Acad. Sci." USA 58, 217 (1967) i D. R. Mills, R. R. Kramer, S. Spiegelman, "Science" 180, 916 (1973). W swych doświadczeniach wykorzystali oni Q-beta re-plikazę, enzym katalizujący syntezę sekwencji nukleotydów w fagu Q-beta, działającym w oparciu o RNA (gospodarzem takich wirusów jest bakteria Escherichia coli]. W tych doświadczeniach pobrany z wirusa genom, zbudowany z RNA, był łączony z monomerycznymi trifosforanami. Powstawały nowe nici RNA, równie zaraźliwe jak oryginalne. Natomiast wielokrotna inkubacja niewielkich fragmentów powstałych w ten sposób nici z monomerycznymi trifosforanami powodowała, że RNA przestawały być zaraźliwe. W niektórych doświadczeniach stosowano ciśnienie selekcyjne, na przykład dodając inhibitor w fazie inkubacji. Wtedy matryca RNA generowała mutanta, który był odporny na inhibicję. 47. C. K. Biebricher, "Cold Springs Harbor Symp. Quant. Biol." 52, 299 (1987). 48. A. Beaudry, G. Joyce, "Science" 257, 635 (1992). 49. N. Lehman, G. Joyce, "Current Biology" 3, 11 (193). 50. Louis Bock i jego współpracownicy z Głlead Sciences w Foster City w Kalifornii donieśli, że wyselekcjonowali cząsteczki DNA, zdolne do połączenia się z trombiną i inhibicji jej działania. Trombina to glikoprote-ina, wspomagająca krzepnięcie krwi. L. Bock, L. Griffin, J. Latham, E. Vermaas i J. Toole, "Nature" 355, 564 (1992) nazwali te cząsteczki "aptamerami" i mają nadzieję, że dalsze badania doprowadzą do znalezienia związku powodującego rozpuszczanie skrzepów krwi u ludzi cierpiących na choroby naczyniowe. Zgodnie z protokołem doświadczenia Joyce'a, Bock i jego współpracownicy przygotowali początkową populację 10 bilionów mutantów oraz zastosowali reakcję łańcuchową polimerazy do wzmocnienia aptamerów z pokolenia na pokolenie. Jak podają, w pierwszym cyklu selekcyjnym tylko jedna setna procenta cząsteczek DNA przyłączała się do trombiny, natomiast w piątym cyklu z glikoproteiną łączyło się już 40 procent cząsteczek. "Wydaje się, że powinowactwo między aptamerem i ligandem jest porównywalne z powinowactwem między genem i antygenem". 51. S. Brenner, R. Lerner, "Proc. Natl. Acad. Sci. USA" 89, 5381 (1992). 52. G. Joyce, "The New Biologist" 3, 399 (1991). 53. S. Kaufmann, The Origins of Order. Oxford University Press 1993, s. 340. 54. Jak można się było spodziewać, Stuart Kaufmann się z tym nie zgadza. S. Kaufmann, w wywiadzie udzielonym R. Highfieldowi, luty 1995. 55. L. Orgel, w wywiadzie udzielonym R. Highfieldowi, październik 1994. 56. L. Orgel, "Sci. Amer." 271, 55 (1994). 57. J. Maynard Smith, "Nature" 280, 445 (1979). 58. M. Eigen, "Naturwissenschaften" 58, 465 (1971) i M. Eigen, P. Schuster, The Hypercycle – A Principle of Natural Self-Organization. Springer, Heidelberg 1979. 59. M. Boerlijst. P. Hogeweg, Self-structuring and Selection: Spiral Waves as a Substrate for Prebiotic Evolution, w: Artificial Life II. C. Langton i in. (red.), s. 225-276 (1992); również "Physica D" 48, 17 (1991). 60. M. Eigen, "Sci. Amer." 269, 36 (1993). ["Świat Nauki" 9 (1993), s. 26]. 61. Ibid., s. 32. 62. M. Eigen, w wywiadzie udzielonym R. Highfieldowi podczas sympozjum Our Place in Nature, z okazji 125 rocznicy "Nature", Royal Institution, listopad, 1994. 63. M. Ho, P. Saunders, S. Fox, "New Scientist" 27 (luty 1986). Patrz również: S. Fox, K. Harada, "Science" 128, 1214 (1958). Przeprowadzili oni syntezę polimerów przypominających białko (protenoidy), podgrzewając suche mieszaniny aminokwasów. Fox twierdzi, że polimery składają się z innych aminokwasów niż oryginalna mieszanina, stąd wnioskuje, że zawierają one informacje. 64. C. Avers, Molecular Cell Biology. Addison-Wesley, Massachusetts, Reading 1986. Patrz także: W. Hargreaves, S. Mulvihill, D. Deamer, "Nature" 266, 78 (1977). 65. F. J. Varela, H. R. Maturana, R. Uribe, "Bio Systems" 5, 187 (1974) oraz F. J. Varela, Autopoiesis: A Theory of Living Organization. North-Holland, Nowy Jork 1981. Przedstawiona przez autorów definicja pojęcia autopoiesis ma znacznie szerszy zakres niż tylko w odniesieniu do układów prebiotycznych. Pojecie to znalazło zastosowania w filozofii, socjologii i ekonomii. 66. P. A. Bachmann, P. Walde, P. L. Luisi, J. Lang, "Journal of the American Chemical Society" 112, 8200 (1990); P. A. Bachmann, P. L. Luisi, J. Lang, "Nature" 357, 57 (1992). 67. J. Billingham, P. V. Coveney, "J. Chem. Soc.: Faraday Transactions" 90, 1953 (1994); P. V. Coveney, J. A. D. Wattis, "Analysis of a Generalized Becker-Dóring Model of Self-reproducing Micelles", preprint (1995). 68. P. Walde, A. Goto, P.-A. Monnard, M. Wessicken, P. L. Luisi, "J. Amer. Chem. Soc." 116, 2541 (1994); P. L. Luisi, P. Walde, T. Ober-holzer, "Her. Bunsenges Phys. Chem." 98, 1160 (1994). 69. M. Markus, B. Hess, "Proc. Natl. Acad. Sci. USA" 81, 4394 (1984); B. Hess, M. Markus, "Trends in Biochemical Sciences" 12, 45 (1987). 70. B. Hess, "Trends in Biochemical Sciences" 2, 37 (1985). 71. J. Lechleiter, S. Girard, E. Peralta, D. Clapham, "Science" 252, 123 (1993). 72. B. Hess, A. Mikhailov, "Science" 264, 223 (1994). W rzeczywistości w temperaturze normalnej przypadkowe ruchy cieplne cząsteczek powodują, że w obszarze o średnicy jednego mikrometra dowolne dwie cząsteczki zderzają się ze sobą mniej więcej raz na sekundę. Z tego powodu cząsteczki w komórce należy uważać za sieć czynników pozostających w nieustannym kontakcie. 73. J. Tabony, "Science" 264, 245 (1994). 74. J. L. Martiel, A. Goldbeter, "Biophys. J." 52, 807 (1987); J. J. Tyson, J. D. Murray, "Development" 106, 421 (1989). 75. A. Hodges, Alan Turing: The Enigma. Vintage, Londyn 1992, s. 435. 76. Wydaje się godne zastanowienia, jak często w układach złożonych występują takie antagonistyczne elementy. W rozdziale 4. poznaliśmy równoważnik aktywacji i hamowania w sfrustrowanych układach spinowych, w których jednocześnie występują oddziaływania ferromagnetyczne i antyferromagnetyczne. Złożoność sieci neuronowych (zob. rozdziały 5. i 9.) wynika z obecności zarówno pobudzających, jak i hamujących połączeń synaptycznych. 77. J. Murray, American Association for the Advancement of Science, 1995, J. Murray, "Sci. Amer." 256, 80 (1988). 78. Tylko w Stanach Zjednoczonych co roku umiera 400 tysięcy ludzi z powodu nieoczekiwanej arytmii serca. Warto zwrócić uwagę, że tylko ludzkie serce jest podatne na takie śmiertelne zagrożenia. 79. Denis Noble, w rozmowie z autorami, czerwiec 1994. Patrz również: D. Noble, G. Bett, "Cardiovascular Research" 27, 1701 (1993). 80. Taka wrażliwość na uszkodzenia tkanki sprawia, że serce wydaje się bardzo delikatnym organem, podczas gdy wiadomo, że potrafi działać przez kilkadziesiąt lat i zawiera mniej więcej dziesięć razy więcej tkanki, niż potrzeba na co dzień. Ataki serca występują częściej u ludzi w wieku postreprodukcyjnym, co świadczy o tym, że zjawisko to przetrwało z uwagi na brak ciśnienia ewolucyjnego, które mogłoby je zlikwidować. Zob. R. Winslow, A. Varghese, D. Noble, C. Adlakha, A. Hoythya, "Proc. R. Soc. Lond. B" 254, 55 (1993). 81. Nieliniowy model demograficzny został wykorzystany również do przewidywania zmian populacji chrząszczy, od równowagi, przez cykle, do zmian nieokresowych, a nawet chaotycznych fluktuacji. Praca ta ma szczególne znaczenie, ponieważ sformułowane przewidywania zostały potwierdzone w eleganckich doświadczeniach, co było kamieniem milowym w badaniach nieliniowych modeli demograficznych. R. Cosantino, J. Cushing, B. Dennis, R. Desharnais, "Nature" 375, 227 (1995). 82. Jasne omówienie współpracy między krewniakami można znaleźć w: R. Dawkins, Samolubny gen; H. Cronin, The Ant and the Peacock. Cambridge University Press 1991. Wzajemna współpraca często występuje między różnymi gatunkami, na przykład między glonem i grzybem, tworzącymi razem porost, osą i figowcem – osy pasożytują na kwiatach figowca, ale jednocześnie stanowią jedyny czynnik powodujący ich zapylenie – czy też między krabem pustelnikiem i ukwiałem. Czasami w takich układach symbiotycznych partnerzy okazują sobie wrogość. Teoria wzajemności stanowi najnowszy dodatek do biologicznej teorii zachowań grupowych. 83. R. Axelrod, The Evolution of Cooperation. Penguin Books, Londyn 1990, tylna strona okładki. 84. Jeden z nas (P.V. C.) wysłuchał już wielu wykładów, w których metody Axelroda i in. podawano jako model pozwalający zrozumieć stosunki międzyludzkie w przedsiębiorstwach. Jest godne uwagi, jak niewielu pracowników przedsiębiorstw uświadamia sobie znaczenie współpracy w codziennych sprawach. 85. R. Axelrod, The Evolution of Cooperation. 86. Ibid., s. xi. Wyniki zostały opublikowane w: R. Axelrod, "Journal of Conflict Resolution" 24, 379 (1980). 87. R. Axelrod, W. Hamilton, "Science" 211, 1390 (1981). 88. R. Trivers, "Quarterly Review of Biology" 46, 35 (1971). 89. Ibid., s. 54. 90. M. Lombardo, "Science" 277, 1363 (1985). 91. Badania przeprowadzili Eric Fischer i Egbert Leigh ze Smithsonian Institution. 92. T. Hobbes, Lewiatan. Przełożył Cz. Znamierowski. PWN, Warszawa 1954. 93. W tym przypadku liczba ta wynosi 270. Wykładnik jest równy liczbie genów koniecznych do przedstawienia wszystkich możliwych kombinacji trzech ostatnich ruchów, gdy zawsze są możliwe cztery różne posunięcia (4x4x4=64) plus 3! dla hipotetycznych trzech rund przed startem. Czynnik 2 pojawia się, ponieważ dla każdej z siedemdziesięciu możliwych sekwencji mamy wybór dwóch ruchów. 94. R. Axelrod, w: Genetic Algorithms and Simulated Annealing, L. Davis (red.). Pitnam, Londyn 1987, s. 32-41. 95. Ibid., s. 37-38. 96. Pejzaż dostosowań pierwszy wprowadził Sewall Wright wiele lat temu; patrz: S. Wright, "Evolution" 36, 427 (1982). 97. W. Hamilton, "Oikos" 35, 282 (1980); "Science" 218, 384 (1982). 98. R. May, "Nature" 327, 15 (1987). 99. M. Nowak, K. Sigmund, "Nature" 355, 250 (1992). 100. M. Nowak, w wywiadzie udzielonym R. Highfleldowi, wrzesień 1994. 101. A. Rapoport, A. Chammah, Prisoner's Dilemma. University of Michigan Press, Ann Arbor 1965. 102. M. Nowak, K. Sigmund, "Nature" 364, 56 (1993). 103. To brzmi okrutnie, ale jest konieczne. 104. M. Milinski, "Nature" 325, 433 (1987). 105. M. Nowak, R. May, K. Sigmund, "Sci. Amer." 272, 76 (1995). ["Świat Nauki" 8 (1995), s. 42). 106. Kolor niebieski oznacza współpracującą komórkę, która współpracowała w poprzednim pokoleniu; czerwony – komórkę, która była i jest egoistką, żółty – komórkę, która współpracowała i zmieniła się w egoistkę, a zielony – egoistkę, która się poprawiła. Kolory żółty i zielony ukazują skalę zmian międzypokoleniowych. 107. M. Nowak, R. May, "International Journal of Bifurcation and Chaos" 3, 35 (1993). 108. M. Nowak, R. May, "Nature" 359, 826 (1992). Patrz również: M. Nowak, S. Bonhoffer, R. May, "International Journal of Bifurcation and Chaos" 4, 33 (1994). 109. Koncepcja naruszanej równowagi jest dość kontrowersyjna, głównie wskutek "przesadnej retoryki" jej zwolenników, którzy często mówią, że jest ona nie do pogodzenia z konwencjonalnym darwinizmem. Zob. na przykład: R. Dawkins, Stepy zegarmistrz i J. Maynard Smith, Did Darwin Get It Right? Penguin, Londyn 1993, część 3. 110. Teorię katastrof stworzył Rene Thorn, francuski laureat Medalu Fieldsa. Opisuje ona sytuacje, w której ciągłe zmiany parametrów – w tym przypadku zmiany pejzażu dostosowań – powodują nieciągle skutki. 111. E. C. Zeeman, Colloque des systemes dynamiques. Fondation Louis de Broglie, wrzesień 1984. 112. P. Bak, H. Flyvsbjerg, K. Sneppen, "New Scientist" 141, 1916 (1994). 113. J. Lovelock, Gaia: A New Look at Life on Earth. Oxford University Press, Oksford 1979. Teolog William Paley opublikował książkę Natural Theology w 1802 roku; zawarł w niej gorącą obronę tezy, że ogromna złożoność maszynerii życia dowodzi, iż musiała ona mieć projektanta – Boga. 114. G. Ayers, J. Ivey, R. Gillett, "Nature" 349, 404 (1991). 115. R. Charlson, J. Lovelock, M. Andrea, S. Warren, "Nature" 326, 655 (1987). 116. Zob. na przykład: J. Lovelock, L. Kump, "Nature" 369, 732 (1994). Autorzy analizują wpływ zmian temperatury na sprzężenia zwrotne, spowodowane zmianami w rozkładzie powierzchniowym glonów i roślin lądowych. Zakładają oni, że glony wpływają na klimat głównie za pośrednictwem DMS. 117. J. Lovelock, "Phil. Trans. R. Soc. Lond. B" 338, 383 (1992). 118. J. Lovelock, list do R. Highfielda, styczeń 1995. 119. H. Cronin, The Ant and the Peacock, s. 279. 120. Omówienie ewolucji, informacji i złożoności można znaleźć w: E. Szathamary, J. Maynard Smith, "Nature" 374, 227 (1995). Niektórzy uczeni, na przykład Stuart Kaufmann, twierdzą, iż darwinowska koncepcja, że przetrwanie najlepiej dostosowanego jest jedynym mechanizmem ewolucyjnym, nie wyjaśnia złożoności świata ożywionego. "Darwin nie wiedział o samoorganizacji. My dopiero zaczynamy ją poznawać" -stwierdza Kaufmann (w wywiadzie udzielonym R. Highfleldowi, luty 1994). Podobnie argumentuje Brian Goodwin z Open University: "Darwi-nizm dostrzega w procesach życiowych przede wszystkim konkurencję, dziedziczenie, egoizm i przetrwanie, jako główne siły kierujące ewolucją. Są to z pewnością ważne aspekty dramatu, obejmującego historię naszego gatunku. To jednak bardzo niepełne i jednostronne ujęcie tej historii". B. Goodwin, How the Leopard Changed Its Spots. Weidenfield & Nicol-son, Londyn 1994, s. xiv. Rozdział 8: ŻYCIE MOŻLIWE 1. J. Milton, Raj utracony. Przełożył M. Słomczyński. Wydawnictwo Literackie, Kraków 1986, ks. II, 764-767, s. 48. 2. J. Bernal, The World, The Flesh, The Devil. E. P. Dutton, Nowy Jork 1927. 3. Wykład z Sympozjum Hixona: "The General and Logical Theory of Automata", Uniwersytet w Princeton, 2-5 marca 1953. 4. S. Levy, Artificial Life. Jonathan Cape, Londyn 1992, s. 28. 5. E. Moore, "Sci. Amer." październik 1956, s. 118. 6. F. Dyson, "The Twenty-first Century", Wykłady im. Vanuxema, luty 1970. 7. Por. gra Życie (rozdział 4.); patrz również: C. Langton, Artificial Life, w: Artificial Life: Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems. C. Langton (red.). Addison-Wesley, Kalifornia, Redwood City 1989, s. 1-47. Proszę jednak pamiętać (por. rozdział 2.), że komputery analogowe są zdolne do wykonania obliczeń przekraczających możliwości maszyn Turinga. 8. E. Sober, Artificial Life II. "Santa Fe Institute Studies in the Sciences of Complexity", torn X, C. Langton, C. Taylor, J. Farmer, S. Rasmus-sen (red.). Addison-Wesley, Kalifornia, Redwood City 1991, s. 750. 9. Ibid., s. 749. 10. D. Farmer, A. Belin, ibid., s. 815. 11. Zob. na przykład: E. Sober, op. cit, s. 749. 12. A. K. Dewdney, "Sci. Amer." 250, 14 (1984); "Sci. Amer." 252, 14 (1985); "Sci. Amer." 256, 14 (1987); "Sci. Amer." 260, 110 (1989); E. H. Spafford, K. A. Heaphy, D. J. Ferbrache, "Computer Viruses, Dealing with Electronic Vandalism and Programmed Threats"; ADAPSO 1300 N. 17th Street, Suite 300, Arlington VA, 22209 (1989). 13. A. Solomon, PC Viruses. Springer Verlag, Berlin 1991, s. 19. 14. E. Spafford, Artificial Life II. "SFI Studies in the Sciences of Complexity", torn X, C. Langton, C. Taylor, J. Farmer, S. Rasmussen (red.). Addison-Wesley, Kalifornia, Redwood City 1991, s. 730. 15. B. Blumberg, "The Croonian Lecture of the Royal College of Physicians", maj 1994, oraz wywiad udzielony R. Highfieldowi, maj 1994. 16. A. Lindenmayer, "Journal of Theoretical Biology" 18, 280 (1968). 17. Artifical Life II. "SFI Studies in the Sciences of Complexity", torn X. 18. Od tego czasu metody Lindenmayera stosowano także do opisu powstawania spiralnego rozdziału komórek w rozwijających się skałocze-pach. Patrz: M. de Boer, F. Fracchia, P. Prusinkiewicz, Artificial Life //. "SFI Studies in the Sciences of Complexity", tom X, s. 465. 19. C. Langton, w: Artificial Life, s. xvi. 20. R. Dawkins, ibid., s. 201. 21. D. Nilsson, S. Pelger, "Proc. R. Soc. Lond. B." 256, 53 (1994). 22. R. Dawkins, Cheltenham Festival of Literature, 1994. Patrz również: R. Dawkins, Rzeka genów. Przełożył M. Jannasz. CIS, MOST, Warszawa 1995, s. 118. 23. S. Levy, Artificial Life. Jonathan Cape, Londyn 1995, s. 160. 24. J. Holland, "Sci. Amer." 267, 72 (1992) ["Świat Nauki" 9 (1992), s. 34]. 25. D. Jefferson, R. Collins, C. Cooper, M. Dyer, M. Flowers, R. Korf, C. Taylor, A. Wang, w: Artificial Life II. "SFI Studies in the Sciences of Complexity", tom X, s. 549. 26. Jefferson stosował rekurencyjne sieci neuronowe, które nie uczą się podczas symulacji. Nauka jest zadaniem algorytmu genetycznego, który koduje sieci w postaci łańcuchów bitów reprezentujących ich wagi, aby znaleźć sieć najlepiej dostosowaną do pokonywania szlaku. Jefferson otrzymał podobne wyniki, niezależnie od tego, czy posługiwał się automatami o skończonej liczbie stanów, czy też sieciami neuronowymi; nie jest jasne, które rozwiązanie należy uznać za lepsze, ale automaty o skończonej liczbie stanów nie dają się łatwo przeskalować wraz ze wzrostem rozmiarów problemu, wskutek czego są nieprzydatne do modelowania bardziej wyrafinowanych organów zmysłowych mrówek i innych organizmów. 27. R. Collins, D. Jefferson, w: Artificial Life U. "SFI Studies in the Sciences of Complexity", tom X, s. 579. Kolonie składają się z genetycznie identycznych mrówek, których zachowaniem rządzi sztuczna sieć neuronowa. Mrówki potrafią wykrywać i przenosić jedzenie; mogą również wydzielać i wyczuwać feromony w celu wymiany informacji. 28. S. Appleby, S. Steward, "British Telecom Technology Journal" 12, nr 2 (1994). 29. S. Appleby, wywiad udzielony R. Highfieldowi, maj 1994. 30. J. Holland, "Sci. Amer." 267, 72 (1992). 31. Łańcuchy symboli o zmiennej długości wprowadził Steven F. Smith (rozprawa doktorska, Uniwersytet w Pittsburgu 1980); cytowany w: J. Koza, Artificial Life II, s. 605. Klasyfikator Hollands jeszcze bardziej zwiększył ogólność struktur, które mogą ewoluować zgodnie z genetycznym algorytmem; zob. na przykład: J. H. Holland, w: Machine Learning: An Artificial Intelligence Approach. R. S. Michalski i in. (red.), tom II, Los Alamos, Morgan Kaufman 1986, s. 593. W rozdziale 5. opisaliśmy metodę programów genetycznych J. Kozy, w której cały program podlega mutacjom. 32. Dość powszechnie uważa się, że w toku ewolucji płeć powstała jako metoda przeciwdziałania pasożytom. Patrz: P. Coveney, R. Highfield, Strzatfca czasu; M. Ridley, The Red Queen. Viking, Londyn 1993. 33. C. Winter, P. Mcllroy, J. -L. Fernandez-Villacanas, "British Telecom Technology Journal" 12, nr 2 (1994). 34. Takie procesy są opisane w pracach: A. K. Dewdney, "Sci. Amer." 253, 21 (1985); R. Dawkins, The Evolution of Evolvability, w: Arti/iciaiLi-Je: Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, s. 201-220; N. Packard, op. cit, s. 141-155. Ewolucja bez celu – główny cel dążeń zwolenników sztucznego życia – nie może nastąpić, gdy funkcja dostosowania jest ustalona z góry. Jednak genom o ustalonej wielkości pozwala na ewolucję bez celu, o ile kieruje nią funkcja dostosowania zmieniająca się a posteriori. Jak to możliwe, gdy rozmiary genomu są ustalone? – dzięki stałej jednoczesnej ewolucji. Jeśli funkcja dostosowania gatunku X jest określona przede wszystkim przez ekologię innych gatunków Y i Z, ltd., czyli przez efektywne środowisko gatunku X, i to samo jest prawdą w odniesieniu do Y i Z, to ewolucja wyścigu zbrojeń, współpracy itd. oznacza, iż funkcja dostosowania wszystkich gatunków zmienia się nieustannie oraz nieprzewidywalnie. Choć przestrzeń genomu jest skończona, praktycznie można ją uznać za nieskończoną. Podsumowując: ewolucja bez celu, wymagająca aposterio-rycznych funkcji dostosowań, ma zasadnicze znaczenie dla życia; zmienne rozmiary genomów są jedną z możliwych przyczyn takiej ewolucji, ale nie jest to warunek konieczny. 35. T. Ray, wywiad udzielony R. Highfieldowi, czerwiec 1993. 36. T. Ray, "Artificial Life I" 179 (1994). 37. J. D. Farmer, A. Belin, w: Artificial Life II, loc. cit., s. 815-840. 38. T. Ray, wywiad udzielony R. Highfieldowi, czerwiec 1993. 39. Jedna ze szczególnych cech języka Tierry została wprowadzona przez analogię z układami biologicznymi. Jest to tak zwane "adresowanie danych przez wzorzec" – komputerowa analogia sposobu, w jaki rozpoznają się biocząsteczki (takie jak białka), których oddziaływania zależą od komplementarnych chemicznych cech strukturalnych. Takie adresowanie pozwala radykalnie zmniejszyć zbiór instrukcji. 40. T. Ray, wywiad udzielony R. Highfieldowi, czerwiec 1993. 41. C. Langton, Artificial Life, w: Artificial Life III. C. Langton (red.). Addison-Wesley, Kalifornia, Redwood City 1989. 42. Mówiąc ściśle, Tierra to komputer "wirtualny" – cały kompter jest emulowany za pomocą odpowiedniego oprogramowania, działającego na innym komputerze. Ray zdecydował się na takie rozwiązanie przede wszystkim ze względów bezpieczeństwa: ewoluująca populacja cyfrowa nie może się wymknąć i spowodować zakłócenia w systemie komputerowym lub nawet rozprzestrzenić się przez sieć na inne maszyny. 43. Proszę pamiętać, że system Tierra podlega starym ulepszeniom. Czytelnicy, którzy chcieliby zapoznać się z historią systemu i otrzymać program, mogą skorzystać z anonimowego ftp pod adresem: tierra.slhs.udel.edu (128.175.41.34). 44. Genetyczne algorytmy, wykorzystujące crossing-over, które omawialiśmy w rozdziale 5., reprodukują się "płciowo", podobnie jak Tierra. Z pewnością nie jest przypadkiem, jak zauważyliśmy w rozdziale piątym, że crossing-over ma znacznie większe znaczenie niż zwykle mutacje w konwencjonalnych algorytmach genetycznych. 45. T. Ray, wywiad udzielony R. Highfieldowi, czerwiec 1994. 46. S. M. Stanley, "Proc. Natl. Acad. Sci. USA" 70, 1486 (1973). 47. Artificial Life II. "SFI Studies in the Sciences of Complexity", tom X, s. 371. 48. T. Ray, w: Artificial Life II, s. 393. 49. R. May, wywiad udzielony R. Highfieldowi, czerwiec 1993. 50. T. Ray, wywiad udzielony R. Highfieldowi, czerwiec 1993. 51. J. Skipper, "Proceedings of the First European Conference on Artificial Life" (1992), s. 355. 52. P. R. Montague, P. Dayan, T. Sejnowski, w: Advances in Neural Information Processing Systems 6, J. Cowan, G. Tesauro, J. Alspector (red.). Morgan Kaufman Publishers, San Matero, Kalifornia (w druku). 53. T. Sejnowski, wywiad udzielony R. Highfieldowi, sierpień 1994. 54. D. Terzopoulos, X. Tu, R. Grzeszczuk, "Proceedings of the Artificial Life IV Workshop". MIT Press, Massachusetts, Cambridge (w druku). 55. D. Terzopoulos, wywiad udzielony R. Highfieldowi, sierpień 1994. 56. Jeśli na przykład unosi się lewa przednia noga, to prawa przednia pozostaje na miejscu. R. Brooks, wywiad udzielony autorom, sierpień 1994. Patrz także: R. Brooks, "A Robust Layered Contron System for a Mobil Robot", AI Memo 864 (MIT AI Lab, Massachusetts, Cambridge 1995). Genghis wykorzystuje automaty o skończonej liczbie stanów, połączonych w hierarchiczną strukturę sterującą, w której działanie jednego automatu może zablokować funkcjonowanie innego, zależnie od priorytetu. 57. Takshi Gomi, prezydent Applied AI Systems, wywiad udzielony R. Highfieldowi, sierpień 1994. 58. R. Brooks, wywiad udzielony autorom, sierpień 1994. 59. D. Cliff, I. Harvey, P. Husbands,. Adaptive Behaviour" 2, 1 (1993). 60. P. Husbands, I. Harvery, D. Cliff, Circle in the Round: State Space Attractors for Evolved Sight Robots – praca wysłana do "Robotics and Autonomous Systems". 61. Pracują oni nad robotem, który potrafi rozróżniać dwa rodzaje celów. I. Harvey, P. Husbands, D. Cliff, From Animals toAnimats 3. D. Cliff, P. Husbands, J.-A. Meyer, S. Wilson (red.). MIT Press, Massachusetts, Cambridge 1994, s. 392. 62. R. Brooks, wywiad udzielony autorom, sierpień 1994. 63. Ibid. 64. D. Hillis, w: Artificial Life II (1992), s. 313. 65. K. Thearling, T. Ray, w: Artificial Life IV. MIT Press, Massachusetts, Cambridge 1994. Autorzy prowadzą obecnie symulacje Tierra na superkomputerze wieloprocesorowym CM-5. 66. C. Adami, C. Titus Brown, w: Artificial Life IV. Proceedings of the Workshop on the Synthesis and Simulation of Living Systems, Massachusetts, Cambridge (6-8 lipca 1994). 67. Ostatnio udowodnili to K. Lingren i M.G. Nordahl, zob.: "Complex Systems" 4, 299 (1990). Należy jednak pamiętać, że istnieją uniwersalne automaty komórkowe daleko od "skraju chaosu", a zatem klasa IV nie jest jednoznacznie wyróżniona przez swe możliwości obliczeniowe. 68. Zagadnienie istnienia złożonego, doskonale dostosowanego zachowania w regionie przejściowym między skrajnym uporządowaniem i skrajnym nieuporządkowaniem w znacznej mierze wyjaśnili Eigen i Schuster w pracy o tak zwanym błędzie progowym; patrz: Schuster, "Artificial Life" 1 (1994). Do wyjaśnienia tego zagadnienia przyczynił się również amerykański filozof Mark Bedau, który wykazał, że istnieje ilościowa różnica między dwoma jakościowo różnymi typami układów ewoluujących – w przybliżeniu, między tymi, które są genetycznie zbliżone, a tymi, które są genetycznie zupełnie różne. Rozróżnienie to stosuje się do wszystkich złożonych układów adaptacyjnych, niezależnie od tego, czy dobór naturalny jest przyczyną rozbudowy strategii adaptacyjnych. Według Bedau, dobór naturalny osiąga maksymalną sprawność w budowie dobrze dostosowanych strategii w obszarze przejściowym – między "porządkiem" i "nieuporządkowaniem": ponadto ewolucja wyższego rzędu może tak dopasować parametry regulujące ewolucję niższego rzędu, by układ pozostawał w tym obszarze. Patrz: M. Bedau, A. Bahm, w: Artificial Life IV. R. Brooks, P. Maes (red.). MIT Press, Massachusetts, Cambridge 1994; oraz M. Bedau, R. Seymour, Complex Systems – Mechanisms of Adaptation. IOS Press, Amsterdam 1994. 69. R. Sole, O. Miramontes, B. Goodwin, "Journal of Theoretical Biology" 161, 343 (1993); oraz D. Gordon, B. Goodwin, L. Trainor, "Journal of Theoretical Biology" 156, 923 (1992). 70. B. Goodwin, How the Leopard Changed Its Spots. Weidenfield & Nicolson, Londyn 1994, s. 175. 71. C. Langton, w: Artificial Life II, s. 41. 72. C. Langton, "Computation at the Edge of Chaos: Phase Transitions and Emergent Computation" (rozprawa doktorska, Uniwersytet Stanu Michigan, 1991); patrz również rozdział 4. 73. C. G. Langton, "Physica" D, 12 (1990). 74. Langton twierdzi jednak, że układ musi być odpowiednio zorganizowany: "Zdolność do maksymalnego przetwarzania informacji to nie to sarno, co rzeczywiste wykorzystanie tej zdolności". Poczta elektroniczna do Petera Coveneya, luty 1995. 75. S. Kauffman, The Origins of Order. Oxford University Press, Oksford 1993, s. 261. 76. P. Bak, K. Chen, M. Creutz, "Nature" 342, 780 (1989). 77. P. Bak, C. Tang, K. Wiesenfield, "Phys. Rev. A" 38, 364 (1988). 78. Mitchell Feigenbaum udowodnił, że początek chaosu ma charakter przejścia fazowego – M. Feigenbaum, "J. Stat. Phys." 21, 669 (1979). 79. W swojej rozprawie doktorskiej Chris Langton zbadał możliwości obliczeniowe automatów, regulując ich zachowanie za pomocą tak zwanego parametru lambda. Jednak, jak sam stwierdza, parametr ten nie określa jednoznacznie wszystkich potencjalnych reguł krytycznych. C. Langton, poczta elektroniczna do Petera Coveneya, luty 1995. 80. J. Crutchfield, K. Young, "Phys. Rev. Lett." 63, 105 (1989); J. Crutchfield, K. Young, Entropy, Complexity and the Physics of Information. W. Żurek (red.), "SFI Studies in the Sciences of Complexity YIH", Addison-Wesley 1990, s. 223. 81. N. H. Packard, Complexity in Biological Modelling, J. A. S. Kelso, A. J. Mandell, M. F. Schlesinger (red.), World Scientific, Singapur 1988. 82. J. Crutchfield, poczta elektroniczna do Rogera Highfielda, luty 1995. 83. J. Crutchfield, list do Rogera Highfielda, luty 1994. 84. J. Crutchfield, list do R. Highfielda z 7 marca 1994. Langton do dziś twierdzi, że jego miara jest dostatecznie dobra, by wykryć i zbadać związki między złożoną dynamiką oraz skrajem chaosu, choć przyznaje, że nie pozwala ona znaleźć wszystkich złożonych reguł. 85. M. Mitchell, P. T. Hraber, J. P. Crutchfield, "Complex Systems" 7, 89 (1993). C. Langton twierdzi, że te badania zostały "spartaczone". C. Langton, poczta elektroniczna do P. Coveneya, luty 1995. 86. M. Mitchell, wywiad udzielony R. Highfieldowi, luty 1994. 87. M. Mitchell, P. T. Hraber, J. P. Crutchfield, op. cit. 88. Langton wciąż broni swej tezy o głębokim związku między złożonością, przemianami fazowymi, przejściem od porządku do chaosu i możliwościami obliczeniowymi. Jego krytycy również kontynuują krytykę niejasności podstawowych pojęć, używanych w jego pracach na temat automatów komórkowych. Langton zgadza się, że zaproponowany podział automatów komórkowych na cztery klasy, "choć stanowi użyteczne przybliżenie, Jest zbyt prymitywny". Przyznaje także, iż jego miara złożoności "jest zbyt prymitywna, by można ją było użyć do automatów komórkowych, którymi się zajmujemy". Rozdział 9: MAGICZNY WARSZTAT 1. P. Vergilius Maro, Eneida. Przełożył Z. Kubiak. PIW, Warszawa 1987, ks. VI, 1018-1020 [725-727], s. 206. 2. J. Searle, list do Rogera Highfielda, grudzień 1993. 3. T. Sorell, Descartes. Oxford University Press, Oksford 1987, s. 8. 4. Praca ta powstała w 1632 roku, ale nie została opublikowana, ponieważ wspierała heretycki pogląd, iż Ziemia krąży wokół Słońca. 5. J. Ree, Descartes. Allen Lane, Londyn 1974, s. 62. 6. C. Sherrington, Man on His Nature. Cambridge University Press, Cambridge 1951. 7. S. Rose, The Making of Memory. Bantam Press, Londyn 1992, s. 172. Nawet nasze ciała zawierają kilka ganglionów, czyli "ośrodków obliczeniowych", ale w porówaniu z osą mają one znacznie mniejszą autonomię: osa może jeść, nawet jeśli jej głowa jest odcięta od odwłoka. Nasz "ganglion w głowie", czyli mózg, jest wprawdzie zawarty w czaszce, ale nerwy przechodzące przez kręgosłup do całego ciała zapewniają łączność z innymi ganglionami i zmysłami. 8. Poniżej opisujemy jeden możliwy schemat. 9. C. Blakemore, wywiad udzielony autorom, czerwiec 1994. 10. Ibid. 11. S. Jones, R. Martin, D. Pilbeam, The Cambridge Encyclopaedia of Human Evolution. Cambridge University Press, Cambridge 1992, s. 115. Proszę zwrócić uwagę, że neandertalczycy z Europy i Środkowego Wschodu mieli mózg takiej wielkości, jak człowiek współczesny. 12. M. Nedergaard, "Science" 263, 1768 (1994); V. Parpura, T. Basarsky, F. Liu, K. Jefitnija, S. Jefitnija, P. Haydon, "Nature" 369, 744 (1994). 13. G. Fischbach, "Sci. Amer." 267, 25 (1992). ["Świat Nauki" 11 (1992), s. 20]. 14. C. von der Malsburg, Internal Report 93-06. Ruhr Universitat, Bo-chum 1993. 15. F. Crick, wywiad udzielony R. Highfieldowi, październik 1994. 16. J. Carey (red.), Brain Facts. Society for Neuroscience, Waszyngton, D.C. 1993, s. 8. 17. Neurony zmysłów słuchu, równowagi, węchu i smaku mają początek poza grzebieniem i cewką nerwową. 18. J. Carey (red.), Brain Facts, s. 8. 19. B. Alberts, D. Bray, J. Lewis, M. Raff, K. Roberts, J. Watson, The Molecular Biology of the Cell. Wyd. II, Garland, Nowy Jork 1989, s. 1123. 20. R. Campenot, "Proc. Natl. Acad. Sci. USA" 74, 4516 (1977). 21. C. Shatz, "Sci. Amer." 267, 60 (1992). ("Świat Nauki" 11 (1992), s. 33). 22. G. Tononi, wywiad udzielony R. Highfieldowi, październik 1994. 23. G. Tononi, O. Sporns, G. Edelman, "Proc. Natl. Acad. Sci. USA" 91, 5033 (1994). Pomijają oni jednak wiele czynników, takich jak niejed-norodność elementów składowych rzeczywistego układu nerwowego. Miarę złożoności CN można stosować tylko do sieci ze statycznymi połączeniami; miara ta nie uwzględnia dynamiki układu neuronów, będącej źródłem inteligentnego zachowania. 24. Różnice są często łączone z funkcjami – czuciowymi i ruchowymi -oraz odległością, na jaką przekazywane są sygnały. 25. S. Rose, The Making of Memory, s. 259. 26. S. Ramón y Cajal, Recollections of My Life. Garland, Nowy Jork – Londyn 1988. 27. P. S. Churchland, T. J. Sejnowski, The Computational Brain. MIT Press, Massachusetts, Cambridge 1992, s. 43. 28. Wewnątrz komórki jony potasowe mają duże stężenie, a sodowe -niskie. 29. W komputerach cyfrowych typowy czas poszczególnych operacji wynosi nanosekundę (10~9 sekundy), natomiast w neuronach biologicznych czas ten jest rzędu milisekundy (10~3 sekundy). 30. R. Douglas, K. Martin, "Trends in Neurosciences" 14, 286 (1991). 31. R. Douglas, wywiad udzielony R. Highfieldowi, czerwiec 1994. Rysunki 9.3 a i b pochodzą z prac: O. Bernander, R. Douglas, K. Martin, C. Koch, "Proc. Natl. Acad. Sci." USA 88, 11569 (1991) i J. Anderson, K. Martin, D. Whitteridge, "Cerebral Cortex" 412, 1047 (1993). 32. R. Lyon, C. Mead, "IEEE Trans. Acoustics Speech and Signal Processing" 36, 1119(1988). 33. M. Mahowald, C. Mead, "Neural Networks" 1, 91 (1988). 34. Sztuczna siatkówka składała się z matrycy 64 x 64 wrażliwych na światło komórek receptorowych – czyli garści tranzystorów – generującej na bieżąco podobny sygnał, jak prawdziwa siatkówka. Przyglądając się swojemu obrazowi pochodzącemu z tej siatkówki, można się przekonać, że gdy się stoi nieruchomo, obraz znika. Podobnie jak w prawdziwej siatkówce, receptory rejestrują tylko informację potrzebną do dalszego przetwarzania. Ogólnie mówiąc, podobieństwa między symulacją i rzeczywistą siatkówką były naprawdę uderzające; sukces ten nie tylko podkreślił znaczenie obliczeń w biologii, ale również zademonstrował, że zasady przetwarzania sygnałów przez neurony stwarzają nowe możliwości techniczne. 35. Wcześniej Mahowald opracował uproszczone sieci neuronowe, które miały wykazać, że samoorganizacja w układzie anologowym może sobie poradzić ze zdegradowaną informacją. M. Mahowald, Analog VLSI Chip That Computes Stereocorrespondence Using a Cooperative Multiscale Algorithm. American Association for the Advancement of Science, luty 1994. Czerpiąc informacje z dwóch siatkówek, sieć może obliczyć odległość od obiektu na podstawie różnic perspektywy. Ta sieć z powodzeniem rozwiązuje jeden z klasycznych problemów z budową widzących maszyn – stereokorespondencję, czyli utożsamienie tych samych punktów w parze obrazów uzyskanych z dwóch różnych punktów widzenia. 36. Przegląd neuromorficznych, analogowych VLSI można znaleźć w pracy: R. Douglas, M. Mahowald, C. Mead,. Annual Review of Neuro-science" 18 (1995). 37. M. Mahowald, wywiad udzielony R. Highfieldowi, czerwiec 1994. 38. M. Mahowald, R. Douglas, "Nature" 354, 515 (1991). 39. Problem zapamiętania wag synaptycznych jest jedną z głównych trudności w projektowaniu analogowych sieci neuronowych. 40. Podobną metodę zestawu konstrukcyjnego zastosowali uczeni z Naval Research Laboratory Center for Biomolecular Science and Engineering w Waszyngtonie, w nadzwyczajnym eksperymencie z hodowlą żywych sieci komórek mózgu. W tym doświadczeniu uczestniczyły grupy z Science Applications International Corporation z Wirginii, National Institutes of Health z Maryland i Uniwersytetu Kalifornijskiego w Irvine. Źródłem inspiracji był eksperyment – przeprowadzony w AT&T Bell Laboratories w New Jersey – w którym szczurze neurony hodowano za pomocą urządzeń zbudowanych przy użyciu standardowych metod produkcji obwodów scalonych. Patrz: C. Robinson, "Signal", luty 1994, s. 15. Niektóre z najważniejszych i najciekawszych doświadczeń w tej dziedzinie przeprowadził Peter Fromherz z Instytutu Biochemii Maxa Plancka w Martinsried, niedaleko Monachium. P. Fromherz, A. Offenhausser, T. Vetter, J. Weis, "Science" 252, 1290 (1991), oraz P. Fromherz, H. Scha-den, "Eur. J. Neurosci." 6, 1500 (1994). Fromherz wyhodował neurony na płytkach krzemowych, inicjując dialog między neuronami i obwodami: zdołał również pokierować rozwojem wypustek, tak by tworzyły zadaną geometrię. Gdy oddawaliśmy tę książkę do druku, tworzenie synaps między hodowanymi neuronami wciąż stanowiło problem. P. Fromherz, wywiad udzielony R. Highfieldowi, maj 1995. 41. Przebieg choroby można złagodzić za pomocą lekarstwa L-dopa, które w mózgu ulega przekształceniu w dopaminę. Środek ten jest stosowany do dziś, choć jego skuteczność maleje z biegiem czasu. Nowe metody polegają na wykorzystaniu neuronów embrionów, czynników wzrostu stymulujących odnowienie istoty szarej, a nawet inżynierii genetycznej, mającej "zaprogramować" komórki, by wytwarzały dopaminę. T.A. Larson, D. B. Calne, "Trends in Neurosciences" 5, 10 (1982). 42. P. Seeman, H.-C. Guan, H. Van Tol, "Nature" 365, 441 (1993). Na schizofrenię cierpi jedna osoba na sto; choroby tej nie można wprawdzie precyzyjnie zdefiniować, ale charakteryzują ją zaburzenia myślenia, reakcji emocjonalnych i zachowania. Złudzenia, halucynacje, niespójne myślenie i wypowiedzi zazwyczaj występują po okresie początkowym, w którym chory zamyka się w sobie i wykazuje skłonność do introspek-cji. Przez jakiś czas podejrzewano, że istnieje związek między schizofrenią i dopaminą. Lekarze stwierdzili, że amfetaminy powodują psychozy podobne do tych, jakie występują u schizofreników, a wiadomo, że amfetaminy stymulują produkcję dopaminy w mózgu. Dodatkowym wsparciem dla "hipotezy dopaminy" było stwierdzenie, że lekarstwa na schizofrenię, które blokują działanie psychostymulujące amfetamin, działają na receptory dopaminy. Wiadomo, że skuteczność takich lekarstw zależy od tego, jak dobrze łączą się z receptorami. L. Iversen, "Nature" 365, 393 (1993). 43. P. Seeman, H.-C. Guan, H. Van Tol, "Nature" 365, 441 (1993). 44. P. Seeman, wywiad udzielony R. Highfieldowi, wrzesień 1993. 45. E. Tanzi, A Text-Book of Mental Diseases. Rebman 1909. 46. D. Hebb, Organization of Behaviour. Wiley, Nowy Jork 1949, s. 62. 47. S. Rose, The Making of Memory, s. 91. 48. T. V. Bliss, T. Lomo, "Journal of Physiology" 232, 331 (1973). 49. T. Brown, E. Kairiss, C. Keenan,. Annual Review of Neuroscience" 13, 475 (1990). 50. R. Morris, E. Anderson, G. Lynch, M. Baudry, "Nature" 319, 774 (1986). 51. S. Rose, Time dependent biochemical and cellular processes in m-emory formation. Mexican Physiology Society Symposium, sierpień 1993. 52. A. R. Luria, The Mind of a Mnemonist: A Little Book About a Vast Memory. Basic Books, Nowy Jork 1968. 53. N. L. Desmond, W.B. Levy, "Brain Research" 265, 21 (1983); A. S. Artola, S. Brocher, W. Singer, "Nature" 347, 69 (1990). 54. Matthew Wilson i Bruce McNaughton z Uniwersytetu Stanu Arizona przeprowadzili rzetelne badania śpiących szczurów, wskazujące, że aktywność hipokampu w czasie snu przyczynia się do konsolidacji pamięci. Za pomocą ultracienkich elektrod Wilson i McNaughton śledzili elektryczną aktywność licznych komórek nerwowych w hipokampie, gdy szczury badały labirynt. Kiedy szczury zasnęły, uczeni obserwowali powtórzenie takiej samej aktywności elektrycznej. Świadczy to, że podczas snu szczury przeżywały ponownie te same doświadczenia, przenosząc je z pamięci chwilowej w hipokampie do trwałej pamięci w korze. M. Wilson, wywiad udzielony R. Highfieldowi, sierpień 1994; patrz również: M. Wilson, B. McNaughton, "Science" 265, 676 (1994). 55. D. Marr, "Phil. Trans. R. Soc. Lond. B" 262, 23 (1971). 56. R. Rolls, "Learning and Memory", s. 4 maszynopisu, rozdział 28 w: Physiology. C. Blakemore, C. Ellory, J. Morris, P. Nye (red.). Gower, Londyn 1995. 57. E. T. Rolls, w: Parallel Distributed Processing: Implications for Psychology and Neuroscience. R.G. Morris (red.). Oxford University Press 1989, s. 286. 58. E. Rolls, wywiad udzielonym R. Highfieldowi, czerwiec 1994. 59. E. Rolls, S. O'Mara, w: Brain Mechanisms of Perception: From Neuron to Behaviour. T. Ono, L. Squire, M. Raichle, D. Perrett, M. Fukuda (red.). Oxford University Press, Oksford 1993, s. 282. 60. A. Treves, E. Rolls, Hippocampus, 1995. 61. Na przykład do CA3 docierają sygnały kilkoma drogami:. Rolls i Trevers przewidują, że droga dziurkowana oraz włókna kojarzeniowe, spoidłowe i mszyste odgrywają ważną rolę w procesie uczenia się, ale nie przypominania. 62. Niektórzy uczeni, na przykład Gerald Edelman, uważają, że sieci neuronowe są "metaforą, a nie teorią", i nie są zdolne do kategoryzacji nieoznaczonych obiektów bez nadzoru lub odpowiedniego programu. Jego kolega Paul Verschure krytykuje takie modele jak NETtalk -jego zdaniem zastosowano w nich metody optymalizacyjne, mówiące nam więcej o zbiorach danych niż sztuczne sieci neuronowe używane do modelowania mózgu. Patrz: P. Verschure, G. Dorffner (red.), Neural Networks and a New AI Chapman Hall, Londyn, w druku. Inni, jak Francis Crick, sądzą, że metody sieciowe mogą okazać się wartościowe, o ile konstruowane sieci neuronowe są dostatecznie realistyczne; wywiad udzielony R. Highfieldowi, październik 1994. 63. S. Zeki, A Vision of the Brain. Blackwell Scientific Publications, Oksford 1993, s. 19. 64. B. Milner, w: The Neurosciences: Third Study Program, F. O. Schmitt, F. G. Worden (red.). MIT Press, Massachusetts, Cambridge 1973, s. 75. 65. R. Adolphs, D. Tranel, H. Damasio, A. Damasio, "Nature" 372, 669 (1994). 66. C. Von der Malsburg, "Kybernetik" 14, 85 (1973). 67. D. Willshaw, C. Von der Malsburg, "Proc. R. Soc. Lond. B" 194, 431 (1976). 68. M. Merzenich i in. "Neuroscience" 8, 33 (1983), M. Merzenich i in., "Neuroscience" 10, 639 (1983). 69. G. Hinton, wywiad udzielony R. Highfieldowi, listopad 1993. 70. C. Von der Malsburg, W. Singer, Neurobiology and Neocortex. John Wiley and Sons, Londyn 1988, s. 70. 71. T. Kohonen, Self-Organization and Associative Memory. Wyd. III. Springer, Berlin 1989, s. 122-23. 72. J. Maddox, "Nature" 369, 517 (1994). Maddox opisuje jedno wyjaśnienie i związaną z nim sieć neuronową, skonstruowaną przez L. Molge-deya, H. Schustera ("Phys. Rev. Lett." 72, 3634 (1994)). 73. Dla ścisłości należy wspomnieć, że chodzi o dokładność ortograficzną pisanego tekstu dla dowolnego słownika. "Maszyna do pisania" wykorzystuje również bazę reguł gramatycznych, głównie w celu uporania się ze koartykulacją, gdy wymowa fonemu zmienia się wskutek obecności otoczenia fonetycznego. 74. Ta metoda jest określana jako "kwantyzacja wektora uczenia". 75. C. Blakemore, wywiad udzielony autorom, czerwiec 1994. 76. G. Hinton, "Sci. Amer." 267, 145 (1992). ["Świat Nauki" 11 (1992), s. 117]. 77. W mózgu występują komórki, które pełnią w ograniczonym zakresie funkcję "nauczyciela". W ten sposób układ nerwowy unika kombina-torycznej eksplozji, która z konieczności nastąpiłaby, gdyby sieć musiała nauczyć się wszystkich możliwych funkcji, odwzorowujących dane wejściowe, gdy ilość danych wzrasta. 78. G. Hinton, wywiad udzielony R. Highfieldowi, listopad 1993; patrz: R. Linsker, "Proc. Natl. Acad. Sci. USA" 83, 7508 (1986), 83, 8390 (1986) i 83, 8779 (1986). Więcej wiadomości o mechanizmach snów można znaleźć w: G. Hinton, P. Dayan, B. Frey, R. Neal, "Science" 268, 1158 (1995). Jeśli sieć Helmholtza sprawnie przekształca obrazy w reprezentacje, to można ją wykorzystać do wytrenowania "generatywnej" sieci Helmholtza i vice versa. Wydaje się, że sny mają ważne znaczenie dla rozpoznawania obrazów i zrozumienia świata. G. Hinton, wywiad udzielony R. Highfieldowi, maj 1995. 79. Ostrość widzenia u dzieci ulega poprawie w ciągu kilku pierwszych miesięcy życia. Kora wzrokowa u dorosłych ma sześć warstw neuronów; w ciągu pierwszego roku życia dziecka kształtują się trzy warstwy, poczynając od wewnętrznych. W ostatnich latach dzięki badaniom ruchu oczu udało się ustalić związek między rozwojem neuronowym i zdolnościami wzrokowymi dziecka. U miesięcznego dziecka najniższa warstwa neuronów kory wzrokowej umożliwia flksację – to znaczy celowe zatrzymanie wzroku na wybranym obiekcie. Tak zwane patrzenie przymusowe – wgapianie się w różne obiekty przez dłuższy czas – występuje w wieku od jednego do czterech miesięcy. Później dzieci stopniowo coraz lepiej kontrolują kierunek patrzenia. 80. Rozwój receptora NMDA około dwunastu tygodni po urodzeniu. C. Blakemore, wywiad udzielony autorom, czerwiec 1994. 81. K. D. Miller i M. P. Stryker opracowali bardzo interesującą sieć neuronową symulującą rozwój kory wzrokowej kociaków; patrz: K. D. Miller, M. P. Stryker, Connectionist Modeling and Brain Function: The Developing Interface. S. J. Hanson, C. R. Olson (red.). MIT Press, Massachusetts, Cambridge 1990, s. 255. 82. C. Blakemore, wywiad udzielony autorom, czerwiec 1994. 83. C. Blakemore, wywiad udzielony R. Highfleldowi, marzec 1995. 84. T. Bonhoeffer, V. Staiger, A. Aertsen, "Proc. Natl. Acad. Sci. USA" 86, 8113 (1989). Aplysia zawiera również przykład synapsy nie będącej synapsą Hebba; patrz: E. R. Kandel i in., w: Synoptic Function. G. M. Edelman, W. E. Gali, W. M. Cowan (red.). Wiley, Nowy Jork 1987, s. 471. 85. Linsker stwierdził, że pierwsza warstwa komórek wzmacnia kontrast między sygnałami odebranymi między bliskimi komórkami "siatkówki". Kilka warstw głębiej powstały komórki innej kategorii, bardzo podobne do komórek kory mózgowej wrażliwych na orientację, które reagują na linie, takich jak obszar VI, odkryty przez Hubela i Wiesela. Układy komórek były bardziej złożone niż te obserwowane wcześniej w laboratorium, ale wykonane mniej więcej w tym samym czasie prace doświadczalne doprowadziły do jakościowo podobnych wyników. 86. M. Enquist, A. Arak, "Nature" 361, 446 (1993). 87. C. Darwin, The Descent of Man and Selection in Relation to Sex. Murray, Londyn 1871. 88. R. Johnstone, "Nature" 372, 172 (1994); R. Johnston, wywiad udzielony R. Highfleldowi, listopad 1994. 89. A. Arak, wywiad udzielony R. Highfleldowi, listopad 1994. M. Enquist, A. Arak, "Nature" 372, 169 (1994). 90. Według Karla Fristona z Instytutu Neurologii w Londynie u pacjentów chorych na schizofrenię występują zaburzenia łączności między przednią i tylną częścią mózgu. Wcześniejsze badania wskazywały na załamanie dialogu między prawą i lewą półkulą mózgu. Jednak "znacznie bardziej interesujące i podniecające" w wyjaśnianiu choroby jest odkrycie braku komunikacji między czołowym płatem mózgu, zajmującym się intencjami, a płatami potylicznymi, gdzie znajdują się ośrodki mowy. Tego odkrycia dokonał Chris Frith z Hammersmith Hospital w Londynie, używając metody PET (Positron Emission Tomography – zob. Dodatek) i następnie opracowując wyniki technikami analitycznymi Fristona. "Można powiedzieć, że to niemożność integracji tego, co robimy, z naszymi percepcjami konsekwencji podjętych działań prowadzi do wielu symptomów występujących u schizofreników" – uważa Friston. Niemożność zintegrowania zamiaru powiedzenia czegoś z późniejszym rozpoznaniem mowy tłumaczy, dlaczego schizofrenicy słyszą głosy. K. Friston, wywiad udzielony R. Highfleldowi, luty 1995. 91. W. Singer, w: "International Review of Neurobiology", O. Sporns, G. Tononi (red.), 37, 153 (1994), C. Gray, A. Engel, P. Kónig, W. Singer! "Visual Neuroscience" 8, 337 (1992). 92. L. Finkel, G. Edelman, "The Journal of Neuroscience" 9, 3188 (1989); G. Tononi, O. Sporns, G. Edelman, "Cerebral Cortex" 2, 310 (1992). 93. O. Sporns, G. Tononi, G. Edelman, "Proc. Natl. Acad. Sci. USA" 88, 129 (1991); G. Edelman, "Neuron" 10, 115 (1993); K. Friston, G. Tononi, G. Reeke, O. Sporns, G. Edelman, "Neuroscience" 59, 229 (1994). 94. J. Taylor, When Clock Struck Zero. Picador, Basingstoke 1993, s. 165; J. Taylor, F. Alavi (red.), Mathematical Approaches to Neural Networks. Elsevier Science Publishers 1993, s. 341; J. Taylor, F. Alavi, "Neural Network World" 5, 477 (1993); J. Taylor, S. Hameroff i in. (red.), Toward a Scientific Basis for Consciousness. MIT Press, Massachusetts, Cambridge 1995. 95. J. Taylor, wywiad udzielony R. Highfleldowi, lipiec 1993. 96. W. Calvin, "Sci. Amer." 271, 84 (1994). ("Świat Nauki" 12 (1993), s. 60]. 97. T. Shallice, wywiad udzielony R. Highfleldowi, British Association for the Advancement of Science, sierpień 1993; patrz także: G. Hinton, D. Plaut, T. Shallice, "Sci. Amer." październik 1993, s. 58. ["Świat Nauki" 12 (1993), s. 60]. 98. G. Hinton, D. Plaut, T. Shallice, "Sci. Amer." październik 1993, s. 58. 99. Mamy tu przykład "uzupełniania wektora" – dodawania informacji wizualnej, nawet gdy wektory danych mają charakter słuchowy; patrz: A. Damasio, D. Tranel, H. Damasio, "Annual Review of Neuroscience" 13, 89 (1990). 100. M. Virasoro, "Europhysics Letters" 7, 293 (1988); patrz również: D. Sherrington, "Speculations in Science and Technology" 14, 319 (1991). 101. Zabawnie ujmuje ten problem Christopher Longuet-Higgins z Uniwersytetu Sussex. Jego zdaniem z kwestią świadomości łączy się pięć pytań: "Pierwsze: Jaka jest biologiczna funkcja świadomości? Odpowiedź: Jest bezpieczniej być czasem przytomnym, niż cały czas spać. Drugie: Czy jakieś części mózgu są szczególnie aktywne, gdy ktoś jest świadomy? Odpowiedź: Niewątpliwie. Trzecie: Czy robaki, rośliny i roboty są świadome? Odpowiedź: Nie wiadomo, bo świadomość to sprawa prywatna. (Wolę myśleć, że moi przyjaciele są świadomi, ale nigdy nie wiadomo). Czwarte: Czy świadomość nie jest po prostu zjawiskiem naturalnym – takim jak ciążenie powszechne – które obecnie dojrzało do naukowego wyjaśnienia? Odpowiedź: Nie, kolejność jest odwrotna. Nauka, czyli historia, jaką opowiadamy o przyrodzie, nie mogłaby powstać w świecie pozbawionym istot świadomych. Piąte: Dlaczego zatem ostatnio tak wiele słyszy się o świadomości? Odpowiedź: Ponieważ neurolodzy i neurofilozofowie odkryli ostatnio, jak przyjemnie jest wchodzić sobie nawzajem w szkodę". C. Longuet-Higgins, list do R. Highfielda, grudzień 1993. 102. G. Fischbach, "Sci. Amer." 267, 21 (1992). 103. F. Crick, list do R. Highfielda, grudzień 1993. 104. F. Crick, wywiad udzielony R. Highfleldowi, październik 1994. 105. Oczywiście, "żóltość żółtego" jest również subiektywna! Nie wszystko, o czym mówi nauka, musi być obserwowalne. Na przykład funkcja falowa mechaniki kwantowej – o czym mówiliśmy w rozdziale 5. – nie jest obserwowalną cechą układu, a mimo to z niej możemy wyprowadzić wyniki wszystkich możliwych pomiarów. 106. Chambers 20th Century Dictionary (nowe wydanie – 1983). 107. G. Edelman, wywiad udzielony R. Highfleldowi, październik 1994. 108. Edelman zaczął testować swoje koncepcje na temat selekcji grup neuronów, posługując się automatami adaptacyjnymi. Jeden z nich, zwany NOMAD (Neurally Organized Mobile Adaptive Device), rozpoczyna od podstawowego zbioru odruchów i uczy się, jak sortować niebieskie i czerwone klocki na podstawie różnic koloru, kojarzonych z wyglądem i wbudowanym systemem reakcji na przewodnictwo klocków, czyli "smak". "Układem nerwowym" NOMAD-a był Darwin IV. Patrz: G. Edelman, "Neuron" 10, 115 (1993); G. Reeke, O. Sporns, G. Edelman, "Proceedings of the IEEE" 78, 1498 (1990). Celem tych prac było wykazanie w kontrolowanych warunkach, jak dany typ zachowania powstaje na bieżąco, gdy mapa wzrokowa i mapa smakowa są kojarzone z motorycz-ną, zgodnie z zasadami doboru Edelmana. Paul Verschure z Instytutu Nauk o Mózgu twierdzi, że mapa wizualno-motoryczna dostosowuje się do rozpoznawania klocków, bez jawnych instrukcji dotyczących ich koloru, gdy już NOMAD umie kojarzyć dany kolor z reakcją na smak. Choć brzmi to bardzo podobnie do wprowadzonej przez Kohonena samoorganizującej się mapy cech, Edelman twierdzi, że etykiety, takie jak "czarny klocek", są wpisane w struktury wszystkich sieci neuronowych przez programistów i wobec tego sieci wcale się nie uczą. Jeśli wziąć pod uwagę jego prace z wykorzystaniem automatów, wydaje się zaskakujące, że Edelman nie wierzy, by można było symulować działania mózgu za pomocą maszyny Turinga. Twierdzi on, że podana przez Turinga definicja obliczalności nie obejmuje ani mózgu, ani automatów, gdyż w ich działaniu istotną rolę odgrywa (nieobliczalna) przypadkowość. W świetle naszych rozważań z rozdziału 2. zostawia to otwartą możliwość, iż w mózgu zachodzą bądź procesy obliczalne w sensie kwantowym bądź nieobliczalne (wykraczające poza możliwości uniwersalnej maszyny Turinga). Ponieważ Edelman nie zgadza, się ze stanowiskiem Penrose'a w kwestii świadomości, wnioskujemy, że powinien on bronić koncepcji, iż w mózgu zachodzą kwantowe procesy obliczalne, jednak Edelman stanowczo nie zgadza się z tą konkluzją. Edelman – w wywiadzie udzielonym R. High-fieldowi i demonstracja działania NOMAD, październik 1994 i luty 1995. 109. G. Edelman, G. Reeke, E. Gali, G. Tononi, D. Williams, O. Sporns, "Proc. Natl. Acad. Sci. USA" 89, 7267 (1992). 110. G. Edelman, wywiad udzielony R. Highfleldowi, październik 1994. 111. D. Dennett, list do R. Highfielda, grudzień 1993. Patrz również: D. Dennett, Consciousness Explained. Penguin, Londyn 1991. 112. C. von der Malsburg, IIAS Symposium on Cognition, Computation and Consciousness, Kyoto, sierpień/wrzesień 1994. 113. Zob. na przykład: krytyczne eseje w: Minds and Machines. Alan Anderson (red.). Prentice Hall, New Jersey, Englewood Cliffs 1964, gdzie można również znaleźć artykuł Turinga z "Mind". 114. R. Penrose, Shadows of the Mind. Oxford University Press 1994. Część pierwsza służy wykazaniu, że świadomość jest ze swej natury nieobliczalna; w części drugiej Penrose przedstawia argumenty na rzecz tezy, że przyszła, jeszcze nie znana teoria fizyczna pozwoli na naukowy (lecz nieobliczalny) opis świadomości. Książka ta stanowi rozwinięcie argumentów przedstawionych w Nowym umyśle cesarza; stanowisko Penrose'a uległo zmianie tylko w paru (ważnych) szczegółach. Penrose odpowiada na krytykę poprzedniej książki i rozważa kwestię, czy mikrotubule mogą stanowić most od nieznanej kwantowej grawitacji do neuronów. 115. Roger Penrose, list do P. Coveneya z 22 lutego 1995. 116. Proszę jednak zwrócić uwagę, że argumenty Penrose'a, przedstawione w części pierwszej Shadows oj the Mind, nie wymagają przyjęcia platonłzmu. 117. Penrose twierdzi, że redukcja funkcji falowej musi być procesem nieobliczalnym. 118. R. Penrose, Shadows of the Mind, s. 358. Hameroff i jego współpracownicy twierdzą, że mikrotubule mogą odgrywać rolę automatów komórkowych, przekazujących i przetwarzających złożone sygnały. 119. Ibid., podrozdziały 7.6, 7.7 i 8.6; list do P. Coveneya z 22 lutego 1995. 120. R. Penrose, Shadows of the Mind, s. 376. 121. Patrz: R. Penrose, Precis of The Emperor's New Mind: Concerning Computers, Minds and the Laws of Physics – uwagi krytyków i repliki Penrose'a – w: "Behavioural and Brain Sciences" 13, 643 (1990). W przeciwieństwie do późniejszej książki Shadows..., Penrose nie wspomina tu o cytoszkielecie i pokrewnych koncepcjach. 122. F. Crick, w wywiadzie udzielonym R. Highfleldowi, październik 1994. 123. A. Klug, w wywiadzie udzielonym R. Highfieldowi, grudzień 1994. "Najwyraźniej otwór w środku mikrotubuli ma takie rozmiary, aby mogły tam zachodzić jakieś kwantowe procesy grawitacyjne. Istnieje jednak wiele obiektów biologicznych z otworem pośrodku. Absolutnie nie wierzę, by mikrotubule służyły kwantowym, grawitacyjnym procesom obliczeniowym. Są to raczej elementy strukturalne, zarówno w neuronach, jak i gdzie indziej. Otwór w mikrotubuli istnieje z bardzo prostego powodu: tak nakazuje projekt strukturalny. Dlaczego słomka do picia jest sztywna? Jest tak dlatego, że jej masa jest skoncentrowana w ścianach bocznych, co utrudnia jej wykrzywienie". Sir Roger nie w pełni rozumie, o czym mówi sir Aron, ale zauważa, że sam nigdy nie twierdził, iż otwór w mikrotubuli ma właściwe rozmiary dla kwantowych procesów grawitacyjnych. (List do P. Coveneya z 22 lutego 1995). 124. G. Edelman, w wywiadzie udzielonym R. Highfieldowi, październik 1994. Sir Roger stwierdza, że byłoby rzeczą bardzo dziwną, gdyby specyfik ten rzeczywiście rozpuszczał wszystkie mikrotubule w mózgu: "Powszechnie uznaje się, że mikrotubule odgrywają wiele ważnych ról w działaniu neuronów i byłoby rzeczą bardzo groźną zaburzać ich funkcjonowanie w istotny sposób". (List do P. Coveneya z 22 lutego 1995). W późniejszym liście sir Roger pisze: "Edelman najwyraźniej ma na myśli kolchicynę; gdy podaje sieją doustnie lub domięśniowo, nie trafia ona do mózgu. W doświadczeniach na zwierzętach, gdy kolchicyna jest wstrzykiwana bezpośrednio do płynu mózgowo-rdzeniowego, powoduje ona demencję. Można zatem dojść do wniosku, że rozpuszczenie młkrotubul w mózgu powoduje również rozpuszczenie duszy! Patrz: G. Bensimon, R. Chernat, "Pharmacol. Biochem. Behaviour" 38, 141 (1991). Objawy wydają się podobne do symptomów choroby Alzheimera". Listy do P. Coveneya z 8 i 17 marca 1995. 125. M. Arbib, w wywiadzie udzielonym autorom, sierpień 1994. Patrz również: M. Arbib, "The Daily Telegraph", 2 listopada 1994, s. 16. W książce Brains, Machines, and Mathematics (Springer-Verlag, Berlin, 1987), gdzie Arbib rozważa twierdzenie Godła, podany jest również wynik Johna Myhilla, iż można zaprojektować komputer, działający zgodnie z dowolnym systemem formalnym L, który potrafi zreprodukować się w postaci obejmującej system L z dodanym nowym aksjomatem, wyrażającym niesprzeczność tego systemu. Nie potrzeba do tego świadomości. Roger Penrose opiera swoje twierdzenie o nieobliczalności ludzkiej świadomości na jej zdolności do wykrywania "brakującej prawdy", którą jednak według Arbiba można obliczyć na nieświadomej maszynie. 126. M. Hesse i M. Arbib dowodzą w wykładach Gifforda (The Construction of Reality. Cambridge 1986), że wiedza ludzka jest w znacznej części zawodna i metaforyczna. Jednak ich zdaniem nie wynika z tego, że jest ona nieobliczalna. Arbib i Hesse proponują "teorię schematów" jako obliczalne wyjaśnienie zawodności wiedzy jednostki. Wiedza nie opiera się na ustalonym systemie logicznym, lecz ciągle się zmienia, w miarę jak podmiot popełnia błędy lub poznaje nowe aspekty świata i społeczeństwa. Roger Penrose obszernie rozważa takie zagadnienia w rozdziale 3. Shadows of the Mind (Oxford University Press 1994) i dochodzi do przeciwnego wniosku. 127. R. Penrose, Shadows of the Mind, s. 201. Jak twierdzi, "ludzkie poznanie matematyczne nie daje się zredukować do (poznawalnych) mechanizmów obliczeniowych, włączając w to procedury oddolne, odgórne i stochastyczne. Wydaje się, że jesteśmy zmuszeni przyjąć wniosek, iż istnieje pewien ważny element w ludzkim rozumieniu matematyki, którego nie można symulować w żaden obliczalny sposób". 128. A. Turing, Intelligent Machinery, w: Machine Intelligence 5, B. Meltzer, D. Michie (red.). Edinburgh University Press 1969. Proszę jednak zwrócić uwagę, że R. Penrose obszernie rozważa, uczące się układy w rozdziale 3. Shadows of the Mind i twierdzi, że również w tym przypadku ma zastosowanie twierdzenie Godła. 129. M. Arbib, wywiad udzielony autorom, sierpień 1994. 130. I. J. Good, "Brit. J. Phil. Sci." 18, 359 (1969). 131. Zob. na przykład: H. T. Siegelmann, "Science" 268, 545 (1995) i nasze rozważania z rozdziału 2., w okolicy przypisu 82. Nie trzeba odwoływać się do kwantowej grawitacji, aby osiągnąć nieobliczalność. 132. M. Arbib, wywiad udzielony autorom, sierpień 1994. 133. R. Traub, R. Miles, "Seminars in the Neurosciences" 4, 27 (1992). 134. T. Traub, R. Miles, J. Jefferys, "Journal of Physiology" 461, 525 (1993); R. Traub, J. Jefferys.R. Miles, "Journal of Physiology" 472, 267 (1993); R. Traub, J. Jefferys, M. Whittington, "Journal of Physiology" 478, 379 (1994). 135. M. Whittington, R. Traub, J. Jefferys, "Nature" 373, 612 (1995). 136. D. Nilsson, S. Pelger, "Proc. R. Soc. Lond." B 256, 53 (1994). Autorzy cytują uwagę Darwina, że pogląd, "jakoby oko (...) mogło powstać wskutek doboru naturalnego, wydaje się, dobrowolnie przyznaję, w najwyższym stopniu absurdalny". Rozdział 10: PANORAMA 1. S. Rose, "Nature" 373, 380 (1995). 2. D. Wahlsten, American Association for the Advancement of Science, luty 1995. Ciągle nie rozwiązanym problemem takich badań jest brak dobrze wyróżnionej cechy. Inteligencja, alkoholizm i skłonności kryminalne nie są jednorodnymi wielkościami i nikomu nie udało się ich precyzyjnie zdefiniować. 3. G. Allen, American Association for the Advancement of Science, luty 1995. 4. F. Dyson, w: Nature's Imagination, J. Cornwell (red.). Oxford University Press, Oksford 1995, s. 6. 5. /bid., s.8. 6. J. Barrow, ibid., s. 47. 7. Według Wallace Broeckera z Lament Doherty Eearth Observatory Uniwersytetu Columbia fakt, iż w ciągu ostatnich 10 tysięcy lat nie wystąpiły gwałtowne zmiany klimatu, sprawił, że ludzka cywilizacja rozkwitła, a ludzkość nabrała złudnego poczucia bezpieczeństwa. "Ziemski system klimatyczny wykazuje jedną niepokojącą cechę: czasami przeskakuje z jednego modu działania do innego – twierdzi Broecker. – osady z dna mórz i jezior, skamieniałe pyłki kwiatowe, koralowce, ruchy andyjskich lodowców i inne dowody jednoznacznie potwierdzają, że w ciągu ostatniego okresu lodowcowego, od 70 000 do 10 000 lat temu, ziemski klimat zmieniał się często, i to nawet w ciągu życia jednego pokolenia. Zmiany miały światowe konsekwencje: temperatura północnego Atlantyku zmieniała się o 6 stopni Celsjusza lub więcej, radykalnej odmianie ulegał system tropikalnych pór deszczowych, inaczej krążyły prądy oceaniczne, wzrastała liczba gór lodowych i zmieniał się skład atmosfery". American Association for the Advancement of Sciences, luty 1995. Patrz także: W. Broecker, "Nature" 372, 421 (1994). 8. D. Tilman, R. M. May, C. L. Lehman, M. Nowak, "Nature" 371, 65 (1994). 9. Alan Perelson, Gerard Weisbuch, Lee Segel, Rób De Boer, Avidan Neumann i in. z Sante Fe Institute usiłowali stworzyć komputerowy system immunologiczny. Gdy atakuje nas jakaś bakteria, komórki B w krwi zaczynają wytwarzać antyciała, czyli białka, które rozpoznają bakterie, przyczepiając się do nich. Jednak proces nie kończy się na tym: następnie powstają antyciała rozpoznające wcześniejsze antyciała i tak dalej. Modele komputerowe mogą pomóc w zrozumieniu, jak antyciała odróżniają tkankę organizmu od intruzów i nie szkodzą organizmowi, jak to się dzieje w przypadku artritis i stwardnienia rozsianego. 10. Inny model nieliniowy, podobny do zaproponowanego przez Tilma-na i in. modelu opisującego wymierania gatunków, pozwala wyjaśnić, dlaczego czas, jaki upływa od zarażenia się HIV do zachorowania na AIDS, wynosi od jednego roku do dziesięciu lat lub nawet więcej. Odmiany wirusa, które najlepiej konkurują z białymi krwinkami, na ogół kiepsko się rozprzestrzeniają. Wynika z tego między innymi, że jeden z rozpowszechnionych dogmatów medycznych – szybko rozprzestrzeniające się choroby z biegiem czasu stają się jakoby mniej groźne – jest błędny. Wirusy lepiej dostosowane na ogół produkują więcej odmian, ale niezbyt licznych. Podobnie, licznie występujące wirusy, które się źle rozprzestrzeniają, generują mniej odmian. Okazuje się, że groźniejsze są te wirusy, które podlegają częstym mutacjom. Z tego modelu wynika, że AIDS może wystąpić dopiero wtedy, gdy różnorodność odmian HIV w organizmie przekroczy pewną krytyczną wartość; w tym momencie układ odpornościowy nie może już dłużej panować nad infekcją. R.M. May, R.M. Anderson, "Sci. Amer." 266, 58 (1992) ("Świat Nauki" 7 (1992), s. 18]. British Association for the Advancement of Science, Keele 1993. 11. Zob. na przykład: J. L. McClelland, D. E. Rumelhart, Parallel Distributed Processing. MIT Press, Massachusetts, Cambridge 1986, tom 2; S. Pinker, The Language Instinct. Morrow, Nowy Jork 1994. 12. R. Dawkins, Samolubny gen. 13. R. Dawkins, Is Religion Just a Disease?, "The Daily Telegraph", 15 grudnia 1993. Ku swemu oburzeniu Dawkins otrzymał kopię listu łańcuszka św. Antoniego, który to list podobno krąży od 1903 roku i obiecuje wiele szczęścia w ciągu najbliższych czterech dni tym, którzy wyślą dwadzieścia kopii, i grozi nieszczęściem tym wszystkim, którzy tego nie zrobią. Dawkins twierdzi, że list ten może spowodować "niepokój psychiczny, równie realny, jak przeziębienie powodowane przez wirusa". "Wzbudzając poczucie winy i strach, rozbudza chciwość i bogobojność, list taki nakłania odbiorcę do dwudziestokrotnego rozmnożenia listu i wysłania kopii do potencjalnych gospodarzy" – pisał Dawkins w "Nature". Na szczęście, wielu ludzi jest "odpornych" na takie infekcje, gdyż w przeciwnym przypadku już po ośmiu pokoleniach "wirusa" każdy człowiek na kuli ziemskiej otrzymałby średnio 4,5 kopii. O. Goodenough, R. Dawkins, "Nature" 371, 23 (1994). 14. D. Dennett, Consciousness Explained. Allen Lane, Londyn 1991, s. 202. 15. P. Ormerod, The Death of Economics. Faber and Faber, Londyn 1994. 16. B. Grenfell, R. M. May, H. Tong (red.), "Phil. Trans. R. Soc." A348 (1994). 17. A.N. Refenes, M. Azema-Barac, L. Chen, S. A. Karoussos, "Neural Computing and Applications" 1, 46 (1993); R. G. Hoptroff, "Neural Computing and Applications" 1, 59 (1993). 18. Z oczywistych powodów ukazuje się bardzo niewiele publikacji z tej dziedziny. Dobry przegląd można znaleźć w: M. Ridley, The Mathematics of Markets, "The Economist", 9 października 1993. 19. "The Economist", 15 października 1993. 20. N. van Kampen, Procesy stochastyczne w fizyce i chemii. Przekład M. Dudyński, M. Ekiel-Jeżewska, D. Śledziewska-Błocka. PWN, Warszawa 1990. 21. J. L. Deneubourg, S. Aron, S. Goss, J. M. Pasteels, G. Duerinck, Random Behaviour, Amplification Processes and Number of Participants: How They Contribute to the Foraging Properties of Ants, w: Evolution, Games and Learning. D. Farmer, A. Lapedes, N. Packard, B. Wendroff (red.). North-Holland, Amsterdam 1986; J. Deneubourg, S. Goss, N. Franks, A. Sendova-Franks, C. Detrain, L. Chretien, w: From Animals to Animats: Proceedings of the First International Conference on Simulation of Adaptive Behaviour. MIT Press, Massachusetts, Cambridge 1992, rozdział 12. 22. P. Allen, Self-Organization and Dissipative Structures. Applications in the Physical and Social Sciences. W. Schieve, P. Allen (red.). University of Texas Press, Austin 1982, s. 142. 23. Gerard Weisbuch korzystał z modelu komputerowego Swarm, opracowanego w Santa Fe przez Christa Langtona. Komputer modeluje zachowanie "czynników", którymi mogą być białe krwinki, przedsiębiorstwa czy też pojedyncze jednostki. W tym przypadku czynnikami są osoby kontrolowane przez sieć neuronową. Dla większego realizmu działanie sieci jest w pewnym stopniu stochastyczne. Jednostki podejmują decyzje zgodnie ze swoimi interesami, na podstawie otrzymanej informacji. Weisbuch badał wybór między tanimi, zanieczyszczającymi środowisko rodzajami transportu a "zielonymi", lecz bardziej kosztownymi rodzajami. Jedna ze zmiennych był czas, przez jaki ludzie pamiętają poprzedni przypadek poważnego zanieczyszczenia środowiska. Inną zmienną stanowiła cena – wszyscy korzystaliby z metod ekologicznych, gdyby były dostatecznie tanie. Model pozwala oszacować, przy jakiej różnicy ceny ludzie zaczynają oszukiwać – to znaczy korzystać z tanich, zanieczyszczających środowisko samochodów w okolicy zdominowanej przez samochody "ekologiczne". "Ważne jest, by występowała duża różnica w powodowanych zanieczyszczeniach, aby wszyscy potrafili odróżnić dobro od zła". G. Weisbuch, wywiad udzielony R. Highfieldowi, luty 1995. 24. K. Mainzer, Thinking Complexity. Springer Verlag, Berlin 1994, s. 276. 25. J. Koza, Genetic Programming. MIT Press, Massachusetts, Cambridge 1992. 26. Dane z Internet Society, z sierpnia 1993 (cytowane w: K. Kelly, Out of Control. Fourth Estate, Londyn 1994). 27. W ciągu kilku godzin od otrzymania obrazów komety Shoemaker--Levy 9, wykonanych przez Kosmiczny Teleskop Hubble'a, NASA udostępniła je przez World Wide Web. Tysiące ludzi natychmiast chciało obejrzeć fotografie, co spowodowało niemal całkowite zablokowanie sieci. 28. M. Butler, wstęp do: M. Shelley, Frankenstein or The Modern Prometheus (The 1818 Text). Oxford University Press, Oksford 1994, s. xviii. Butler odwołuje się do tego, co Shelley wiedziała o dyskusji między dwoma chirurgami, Johnem Abernethym i Williamem Lawrence'em, na temat witalizmu, i przyznaje, iż sugestia, jakoby Victor Frankenstein był częściowo karykaturą poglądów Abernethy'ego, jest tylko domysłem. Jednak jej argumenty są bardzo przekonujące – jak wskazuje, zarówno Percy, jak i Mary Shelley znali obu polemistów, a Lawrence był ich bliskim przyjacielem. W trzecim wydaniu swej powieści z 1831 roku Mary Shelley zrobiła z Frankensteina postać bardziej religijną i sympatyczną, a jednocześnie przedstawiła jego naukowe wykształcenie jako coś groźnego. Dzisiejsi czytelnicy znają z reguły tę wersję; stąd wywodzi się mit szalonego uczonego i jego koszmarnego stworzenia. 29. "Współczesna literatura nie daje nam Unii, przeto zwróciłem się do nauki i usiłuję napisać powieść, której forma wynika z zasady względności". Patrz: A. Friedman, C. Donley, Einstein as Myth and Muse. Cambridge University Press, Cambridge 1990, s. 86. 30. Ibid., s. 107. 31. Zdaniem jednego z kolegów Turinga, Petera Hiltona, przedstawiony obraz pracy nad łamaniem szyfrów i oddziaływań między osobami jest fikcyjny. Również homoseksualizm Turinga nie był uważany za problem. "To nie był problem" – oświadczył Hilton na zebraniu American Association for the Advancement of Sciences w lutym 1995. 32. C. Jencks, The Architecture of the Jumping Universe. Academy Editions, Londyn 1995. 33. P. Muldoon, The Annals of Chile. Faber and Faber, Londyn 1994, s. 10. 34. R. Littell, The Visiting Professor. Faber and Faber, Londyn 1993, s. 8. 35. T. Stoppard, wywiad udzielony R. Highfieldowi, kwiecień 1994. 36. Ibid. 37. T. Stoppard, Arcadia. Faber and Faber, Londyn 1993, s. 47. 38. W. Latham, wywiad udzielony R. Highfieldowi, wrzesień 1994. Patrz także: S. Todd, W. Latham, P. Hughes, "The Journal of Visualisation and Computer Animation" 2, 198 (1991); W. Latham, S. Todd, IBM UKSC Report nr 248, "Mutator, a Subjective Interface for Evolution of Computer Sculptures"; S. Todd, W. Latham, Evolutionary Art and Computers. Academic Press, Londyn 1992. 39. K. Sims, wywiad udzielony autorom, sierpień 1994. Patrz także: K. Sims, "Computer Graphics" 25, 319 (1991), K. Sims, w: Artificial Life IV. R. Brooks, P. Maes (red.). MIT Press, Massachusetts, Cambridge 1994, s. 28, oraz Evolving Virtual Creatures, "Siggraph" (1994). 40. S. Thaler, praca przedstawiona na Światowym Kongresie Sieci Neuronowych, Portland, Oregon. 41. M. Markus, Hallucinations: Their Formation on the Cortex Can Be Simulated by a Computer, w: Caos & Meta-Psicologia. C. Dias, L. Ribeiro (red.). Fenda, Lizbona 1994, s. 65. Paski tworzące zebrę znaleziono w eksperymentalnych mapach mózgu; można je wyjaśnić, odwołując się do wymiaru samoorganizującej się mapy, generowanej przez sieć neuronową. Paski powstają, gdy wektory danych wejściowych mają większą liczbę wymiarów niż sama mapa (zob.: T. Kohonen, Self-Organization and Associative Memory. Springer, Berlin 1989, s. 156). 42. M. Bedau, Philosophical Aspects of Artificial Life, w: Towards a Practice of Autonomous Systems, F. Varela, P. Bourgine (red.). Bradford/MIT Press, Massachusetts, Cambridge 1991, s. 494. 43. L. Adleman, "Science" 266, 1021 (1994). 44. R. Feynman, w: Miniaturization. D. Gilbert (red.). Reinhold, Nowy Jork 1961, s. 282. 45. Thomas Meade z Caltech znalazł jeden ze sposobów na przyśpieszenie tego procesu. Polega on na wykorzystaniu pojedynczej nici kawałka DNA jako bardzo czułego organu zmysłowego. Takie nici łączą się wyłącznie z nićmi komplementarnymi, co zapewnia niezwykłą czułość na takie nici. Połączenie dwóch nici można łatwo zarejestrować, ponieważ -jak stwierdził Meade – elektrony przedostają się 10 tysięcy razy łatwiej przez podwójną helisę niż przez pojedynczą nić. Meade wyobraża sobie mikroukład składający się z tysięcy takich czujników; każdy rejestruje inny fragment DNA z informacjami genetycznymi. Układ emituje sygnał tylko wtedy, gdy dołączy się do niego odpowiednia nić DNA. T. Meade, wywiad udzielony R. Highfieldowi, luty 1995. 46. Pojawiła się myśl, by wykorzystać doświadczenia z DNA do rozwiązania problemu "SAT". R. Lipton, "Science" 268, 542 (1995). Adleman rozważa również skonstruowanie komputerów z DNA; jego zdaniem w tej sprawie można być optymistą. L. Adleman, "On Constructing a Molecular Computer" – preprint, 1995. DODATEK 1. N. Fox, American Association for the Advancement of Science, luty 1994. Nathan Fox z Uniwersytetu Stanu Maryland badał fale aktywności w mózgu małych dzieci, posługując się specjalnie zaprojektowaną czapką do elektroencefalografii. Interesował się rozchodzeniem się fal aktywności w obu półkulach mózgu i różnicami w osobowości małych dzieci. Fox stwierdził, że dzieci, u których występuje szczególny rodzaj aktywności w prawej półkuli i w prawej części płatu czołowego, w ciągu pierwszych dwóch lat życia są częściej lękliwe i zablokowane, a w późniejszych latach nieśmiałe. Płat czołowy odgrywa ważną rolę w regulowaniu emocji u dorosłych i dzieci. Fox uważa, że ośrodki działające w prawej półkuli są związane ze strachem, wycofaniem się, chęcią ucieczki. 2. Zespół uczonych z kilku dziedzin z Uniwersytetu w Chicago wykorzystał PET do zbadania wpływu alkoholu na mózg. Eksperymenty z niewielką dawką alkoholu świadczą o tym, że istnieją metaboliczne różnice między tymi, którzy lubią alkohol, i tymi, którzy nie lubią pić. "Ci, którzy wolą alkohol, mają aktywniejszą lewą półkulę mózgu, w szczególności płat skroniowy" -stwierdził Malcolm Cooper, dyrektor PET Center w Chicago. Skanowanie mózgu pozwoliło również wykryć wzrost metabolicznej aktywności w ośrodkach mowy, co wyjaśnia, dlaczego pijacy są gadatliwi; zmniejszenie aktywności metabolicznej w móżdżku tłumaczy ich problemy z chodzeniem. Podobne zjawisko obserwuje się w obszarach regulujących prymitywne zachowania, takie jak pobudzenie seksualne i skłonność do przemocy. M. Cooper, J. Metz, H. de Wit, J. Mukherjee, "The Journal of Nuclear Medicin" 34, 798 (1993); M. Cooper, wywiad udzielony R. Highfleldowi, luty 1995. 3. To powoduje, że detektor reaguje tylko wtedy, gdy rejestruje równocześnie parę fotonów. 4. S. Zeki, "Sci. Amer." 267, 43 (1992). ("Świat Nauki" 11 (1992), s. 43]. 5. S. Zeki, A Vision of the Brain. Blackwell Scientific Publications, Oksford 1993, s. 227. 6. S. Zeki, S. Shipp, R. Frackowiak, "Nature", 3 sierpnia 1989. 7. S. L. Ogawa, L. M. Lee, A. R. Kay, D. W. Tank, "Proc. Natl. Acad. Sci. USA" 87, 9868 (1990). 8. W razie nagłego zapotrzebowania na energię mózg wykorzystuje mechanizm metabolizmu beztlenowego, zamiast polegać na tlenie dostarczanym przez krew. Nie znamy przyczyn tego dziwnego i sprzecznego z intuicją zjawiska. 9. B. Shaywitz, S. Shaywitz, K. Pugh, R. Constable, P. Skudlarski, R. Fulbright, R. Bronen, J. Fletcher, D. Shankweller, L. Katz, J. Gore, "Nature" 373, 607 (1995). 10. X. Hu, American Association for the Advancement of Science, luty 1994. U.S. Zeki, wywiad udzielonym R. Highfleldowi, styczeń 1995. 12. R. Salmelin, R. Hart, O. Lounasmaa, M. Sams, "Nature" 368, 463 (1994). SŁOWNICZEK akson: długie włókno, wychodzące z ciała neuronu i przenoszące sygnały do innych neuronów. algorytm: procedura, czyli seria kroków, która pozwala rozwiązać obliczalny problem. W informatyce algorytm opisuje logiczną serię operacji, wykonywaną przez komputer realizujący określony program. Nie wszystkie matematyczne problemy mają obliczalne rozwiązania. algorytmiczna złożoność: miara złożoności problemu, określona jako długość najkrótszego programu, pozwalającego obliczyć rozwiązanie lub podać jego pełny opis. Prostsze obiekty wymagają krótszych programów. aminokwasy: molekularne cegiełki, z których zbudowane są białka. arytmetyka: dział matematyki zajmujący się badaniem liczb i ich własnościami. assembler: język najniższego poziomu; w najprostszej postaci ściśle odpowiada językowi maszynowemu, który bezpośrednio przekazuje instrukcje do mikroprocesora, ale ma dodatkowe elementy ułatwiające pracę. atraktor: sposób opisu długookresowego zachowania układu. Równowaga i stan stacjonarny odpowiadają punktom stałym, stany periodyczne cyklom granicznym, a chaos – dziwnym atraktorom. autokataliza: kataliza reakcji przez jeden z jej produktów. automat komórkowy: program komputerowy lub układ elektroniczny, składający się z regularnej sieci komórek. Algorytm przypisuje każdej komórce zbiór instrukcji, który określa jej zachowanie w zależności od stanu komórek sąsiednich, gdy automat wykonuje kolejny, dyskretny krok w czasie. Automaty komórkowe są, ze swej natury, urządzeniami obliczającymi, które składają się z wielu równolegle działających elementów przetwarzających. automatów teoria: matematyczna teoria zajmująca się działaniem maszyn i ich zdolnością do rozwiązywania problemów za pomocą algorytmów. bajt: grupa ośmiu bitów, tworząca podstawową jednostkę pamięci komputera. białka: klasa dużych cząsteczek występujących w żywym organizmie; białka składają się z łańcuchów aminokwasów, zwiniętych w złożoną, lecz ściśle określoną trójwymiarową strukturę. Biełousowa-Żabotyńskiego reakcja: reakcja chemiczna, nazwana tak od nazwisk dwóch rosyjskich uczonych – jej odkrywców. Reakcja Biełousowa-Źabotyńskiego (reakcja BZ) wykazuje wielkie bogactwo typów samoorganizacji. bifurkacja: punkt, w którym dalsza ewolucja układu może potoczyć się na dwa zupełnie różne sposoby. W przypadku zegarów chemicznych bifurkacja może następować w momencie, gdy stężenie substratów osiąga taką wartość, że pojawiają się okresowe zmiany koloru. binarna logika: system logiczny, w którym dowolna zmienna może przyjąć tylko dwie wartości, zazwyczaj zero lub jeden. binarny klasyfikator dla algorytmów genetycznych: klasyfikacja rozwiązania problemu w postaci łańcucha binarnego. Każdy bit odpowiada obecności lub brakowi pewnej cechy, podobnie jak obecność genu w chromosomie odpowiada obecności pewnego białka w organizmie. biologia molekularna: badanie cząsteczkowych podstaw działania żywych organizmów, w tym również własności takich cząsteczek, jak DNA i RNA. bit: skrót od binary digit Bit to najmniejsza porcja informacji w binarnym systemie numerycznym. Wartość bitu określa się zwykle jako jeden lub zero. bramka logiczna: jeden z podstawowych elementów logicznych używanych w urządzeniach elektronicznych. Na przykład, bramka I daje w wyniku "prawda" tylko wtedy, gdy wszystkie dane wejściowe są "prawdziwe", a bramka LUB – gdy prawdziwy jest choć jeden sygnał wejściowy. brusselator: uproszczony model teoretyczny reakcji chemicznej, wykazujący samoorganizację – okresowe zmiany koloru. centralny procesor (CPU): główna część komputera, która wykonuje instrukcje programu. chaos: termin używany na określenie nieprzewidywalnego i pozornie przypadkowego zachowania układu dynamicznego. chemia organiczna: dział chemii, obejmujący własności związków węgla. chromosom: długi łańcuch kwasu nukleinowego, zazwyczaj DNA, zawierający tysiące genów, otoczonych warstwą ochronną. Wszystkie ludzkie komórki (z wyjątkiem plemników i komórki jajowej) zawierają dwadzieścia trzy pary genów. cykl graniczny: atraktor opisujący regularne (okresowe lub quasi--okresowe) zachowanie w czasie, na przykład działanie zegara chemicznego. czas geologiczny: skala czasu charakterystyczna dla historii Ziemi – od jej powstania do czasów obecnych. detektor cechy: grupa neuronów, które mogą zostać pobudzone tylko wtedy, kiedy w danych zmysłowych pojawia się określona cecha. determinizm: doktryna, która głosi, że zdarzenia są jednoznacznie określone przez wcześniejsze przyczyny i nie następują wskutek działania wolnej woli lub czynników przypadkowych. DNA (kwas dezoksyrybonukleinowy): kwas nukleinowy, mający bardzo duże cząsteczki, zawierające genetyczne informacje sterujące syntezą białek, czyli podstawowych elementów, z których zbudowane są organizmy. dobór naturalny: zmiana częstości występowania genów w danej populacji, następująca, gdy niektóre osobniki mają więcej potomstwa niż inne, gdyż są lepiej dostosowane do przetrwania i reprodukcji w danym środowisku. Efektem doboru naturalnego jest dostosowanie (adaptacja). Dobór naturalny może wystąpić także w pewnych sztucznych układach. dopamina: neuroprzekaźnik przenoszący sygnały między neuronami w mózgu. dostosowanie (adaptacja): każda zmiana w strukturze lub działaniu organizmu, która ułatwia mu przeżycie i reprodukcję w jego środowisku. dynamiczne układy: ogólny termin określający układy, których własności zmieniają się w czasie. dysypacyjna struktura: zorganizowany stan materii, leżący poza pierwszym punktem bifurkacji, gdy układ znajduje się daleko od stanu równowagi termodynamicznej. dziwny atraktor: atraktor mający wymiar fraktalny; takie atrakto-ry opisują chaotyczną dynamikę układów dysypatywnych. ekscytowalny ośrodek: ośrodek – taki jak mieszanina związków chemicznych, w której zachodzi reakcja Bielousowa-Źabotyńskiego – przechodzący do nowego stanu pod wpływem bodźca przekraczającego pewną wartość progową. Po ekscytacji ośrodek staje się refrakcyjny, to znaczy przez pewien czas nie reaguje na kolejne bodźce. emergencyjna własność: globalna własność złożonego układu, składającego się z wielu oddziałujących podjednostek. Świadomość, na przykład, jest emergencyjna własnością układu wielu neuronów w mózgu. entropia: wielkość określająca zdolność układu do nieodwracalnej ewolucji w czasie; entropię można również uważać za miarę przypadkowości lub nieuporządkowania układu. enzym: biologiczny katalizator, zazwyczaj mający postać dużej cząsteczki białka, która przyspiesza ważne reakcje chemiczne w komórce. eugenika: (od grec. 'dobrze urodzony'). Badanie sposobów ulepszania fizycznego i umysłowego stanu ludzkości metodą selektywnej hodowli. ewolucja: ogólny termin oznaczający zmiany w czasie. W biologii -teoria Darwina, mówiąca, że z biegiem czasu z niższych form życia wykształciły się formy wyższe. fenotyp: ogólne cechy budowy organizmu, wynikające z oddziaływań między genotypem i środowiskiem. ferromagnetyk: materiał ulegający silnemu namagnesowaniu w zewnętrznym polu magnetycznym. Ferromagnetykami są na przykład żelazo, kobalt, nikiel i ich stopy. flop: operacja zmiennoprzecinkowa w komputerze, czyli operacja na liczbach, w których przecinek może się znajdować na dowolnej pozycji. Szybkość komputera w wykonywaniu obliczeń numerycznych mierzy się liczbą flopów na sekundę. formalizm: doktryna z zakresu filozofii matematyki, głoszona przez niemieckiego matematyka Davida Hilberta, zgodnie z którą symbole zawarte w matematycznych stwierdzeniach posiadają użyteczną strukturę. Formalizm przeciwstawia się intuicjonizmowi, logicyzmowi i platonizmowi. fraktalna geometria: geometria używana do opisu nieregularnych obiektów. Fraktale wykazują samopodobieństwo – ten sam motyw powtarza się we wszystkich skalach odległości (łac. fractus, czyli 'złamany'). frustracja: termin używany w fizyce szkła spinowego oraz niektórych typach sieci neuronowych; wskazuje na występowanie sprzecznych oczekiwań wobec ustawienia spinu lub połączenia między neuronami. W pierwszym przypadku przyczyną są jednoczesne oddziaływania ferromagnetyczne i antyferromagnetyczne między spinami, w drugim – działanie sygnałów pobudzających i hamujących neuron. funkcja dostosowania (kosztu): pejzaż dostosowań: w złożonych problemach optymalizacyjnych funkcja ta mierzy, jak dobre jest dane rozwiązanie. Im większa wartość funkcji, tym lepsze rozwiązanie. funkcja falowa: zasadnicza wielkość mechaniki kwantowej, używana do obliczania prawdopodobieństwa wystąpienia różnych zdarzeń – na przykład emisji fotonu przez atom – w momencie wykonywania pomiaru. Gai hipoteza: teza, iż ożywione i nieożywione elementy ziemskie tworzą nierozdzielną całość, którą utrzymują w stabilnym i zdatnym do życia stanie mechanizmy sprzężenia zwrotnego. gen: podstawowa jednostka przenosząca informacje potrzebne do dziedziczenia cech, złożona z cząsteczki DNA. genetyczny algorytm: adaptacyjna metoda obliczeniowa, szukająca dobrych rozwiązań złożonych problemów (najczęściej należących do klasy NP), wykorzystując idee zaczerpnięte z teorii ewolucji Dar-wina. genetyczny kod: sekwencja chemicznych elementów, z których zbudowana jest cząsteczka DNA (zasady), wyrażająca instrukcje wytwarzania aminokwasów. genotyp: zbiór wszystkich genów danego osobnika. geometria: dziedzina matematyki zajmująca się własnościami przestrzeni. giga: przedrostek oznaczający mnożenie przez miliard (lO9). glukoza: cukier obecny w krwi, będący źródłem energii dla komórek organizmu. Godła twierdzenie: jedno z najważniejszych twierdzeń logiki matematycznej, z którego wynika, że nie sposób zredukować matematyki do skończonego zbioru aksjomatów i reguł wnioskowania. GOFAI (Good Old Fashioned Artificial Intelligence): odgórna metoda konstruowania sztucznej inteligencji, polegająca na dzieleniu jej na oddzielne "moduły", które zajmują się określonymi dziedzinami wiedzy i poznania, takimi jak percepcja, planowanie i działanie. Każdy z takich modułów jest wyposażony w gotowy model zewnętrznego świata; moduły oddziałują zgodnie z regułami wnioskowymi w "maszynie do wnioskowania", dzięki czemu maszyna ma wykazywać inteligencję. Systemy eksperckie są produktem takiej koncepcji. gradient stężenia: zmiana stężenia substancji między dwoma punktami. Hardware: fizyczna baza komputera, zazwyczaj składająca się z układów elektronicznych, mechanicznych i optycznych. hipercykl: jeden ze scenariuszy powstania samoreplikujących się układów molekularnych. Replikujące się cykle przebiegają zgodnie z określonym wzorcem; występują w nich katalityczne pętle sprzężeń zwrotnych, w których cząsteczka A generuje B, B – C, C -A i tak dalej. homunkulus: "mały wewnętrzny człowiek", który – według dawnych myślicieli – miał się znajdować w głowie człowieka, by obserwować otoczenie poprzez ludzkie zmysły i odpowiednio reagować. Homunkulus był widzem w tak zwanym kartezjańskim teatrze umysłowym. hydrodynamika: nauka o makroskopowym przepływie cieczy; mechanika cieczy. intuicjonizm: filozoficzna doktryna, głosząca, że matematyka nie może zajmować się większością zbiorów nieskończonych; zdaniem intuicjonistów wolno uznać tylko takie twierdzenia, które można udowodnić w skończonej liczbie kroków. iteracja: metoda rozwiązywania pewnych problemów, polegająca na wielokrotnym powtarzaniu tych samych operacji, aż zostanie spełniony dany warunek. katalizator: substancja zdolna do przyśpieszania reakcji chemicznej, sama nie ulegająca zmianie w toku reakcji. kod maszynowy: sekwencja binarna, zawierająca instrukcje wykonywane przez komputer; zbiór instrukcji zrozumiałych dla centralnego procesora, nie wymagających przekładu. kojarzenie: zdolność do powiązania różnych informacji. Pamięć asocjacyjna (kojarzeniowa) po otrzymaniu częściowych danych może skojarzyć z nimi pełny zbiór zapamiętanych informacji. Taką własność mają sztuczne sieci neuronowe. komórka: dyskretny, wydzielony błoną element organizmu; najmniejszy obiekt biologiczny zdolny do niezależnego istnienia. kompilator: program komputerowy, tłumaczący zbiór instrukcji napisanych w języku wysokiego poziomu, takim jak Fortran, na instrukcje bezpośrednio zrozumiałe dla procesora. komputer: urządzenie – przekształcające dane zgodnie z określonymi instrukcjami (programem), zazwyczaj zawartymi w komputerze – które produkuje wyniki. W komputerze cyfrowym wszystkie zadania są realizowane w postaci operacji na liczbach binarnych -składających się z zer i jedynek – natomiast komputery analogowe wykorzystują ciągłe sygnały. kondensator: urządzenie do magazynowania ładunku elektrycznego. kora mózgowa: zewnętrzna warstwa (szara materia) półkul mózgowych, stanowiąca ewolucyjnie najmłodszą część mózgu. kwantowa mechanika: mechanika rządząca światem mikroskopowym, gdy zmiany energii następują w postaci nieciągłych, kwantowych przeskoków. kwantowy komputer: jak dotychczas wyłącznie teoretyczne urządzenie, będące w stanie wykonać różne obliczenia, nieobliczalne dla uniwersalnej maszyny Turinga. kwasy nukleinowe: złożone kwasy organiczne, mające postać długich łańcuchów jednostek, zwanych nukleotydami. Dwa z nich, DNA i RNA, odgrywają zasadniczą rolę w procesie dziedziczenia. liczba losowa: jedna z serii liczb nie wykazujących żadnego uporządkowania. Uniwersalna maszyna Turinga nie może wytworzyć prawdziwych liczb losowych, które są nieobliczalne, natomiast uniwersalny komputer kwantowy w zasadzie powinien to umieć. liczba nieobliczalna: liczba, której nie można obliczyć za pomocą uniwersalnej maszyny Turinga. liczba Reynoldsa: liczba używana w mechanice cieczy, która wskazuje, czy w danej sytuacji należy oczekiwać przepływu laminarnego, czy turbulentnego. liczba rzeczywista: dowolna liczba wymierna lub niewymierna. liczba wymierna: dowolna liczba, którą można wyrazić w postaci stosunku dwóch liczb całkowitych. Wszystkie liczby wymierne są obliczalne. liniowe równanie: relacja między dwiema wielkościami, której wykres w układzie kartezjańskim ma postać linii prostej. logicyzm: doktryna głosząca, że całą matematykę można wyprowadzić z logiki. Próbował tego dokonać Frege, ale jego program załamał się po odkryciu paradoksu Russełla, co doprowadziło do powstania formalizmu i intuicjonizmu. mainframe: obecnie przestarzały termin, oznaczający duży komputer do poważnych obliczeń. Ponieważ w ostatnich latach nastąpił wykładniczy wzrost mocy komputerów, większość takich komputerów ma mniejszą moc niż dzisiejsze komputery osobiste i stacje robocze. mechanika cieczy: analiza makroskopowego przepływu cieczy (płynów i gazów). mechanika statystyczna: dziedzina fizyki, która zajmuje się wyjaśnieniem własności układów makroskopowych na podstawie analizy ich elementów składowych – atomów i cząsteczek. mega: przedrostek oznaczający mnożenie przez milion (106). mikroskop tunelowy skaningowy: mikroskop generujący powiększony obraz w miarę przesuwania ostrza z tungstenu wzdłuż preparatu. Natężenie prądu przepływającego między ostrzem i preparatem pozwala wyznaczyć kontury powierzchni preparatu. mikroskopowy: ogólny termin, wskazujący, że obiekt ma bardzo małe rozmiary w porównaniu z przedmiotami, które możemy obserwować gołym okiem. Rozróżnienie to zyskuje duże znaczenie, gdy przeciwstawiamy opis świata jako zbioru atomów i cząsteczek opisowi sformułowanemu w kategoriach dotyczących wielkich zbiorów takich elementów. mikrotubule: rurki z tubuliny (rodzaj białka), które można znaleźć w niemal wszystkich komórkach z jądrem. Mikrotubule przyczyniają się do nadania komórce określonego kształtu, gdyż stanowią część cytoszkieletu. MIPS: skrót oznaczający milion instrukcji na sekundę; jedna z miar szybkości działania komputerów. morfogeneza: rozwój organizmu. mutacja: zmiana genu spowodowana przez przypadkową lub celową zmianę w strukturze DNA, zawierającego genetyczne informacje na temat budowy organizmu. nanotechnologia: dziedzina techniki zajmująca się budową urządzeń w skali pojedynczych cząsteczek. naruszana równowaga: teoria ewolucji mająca wyjaśnić nieciągłości w wykopaliskach. nauka o poznaniu: badanie inteligencji, obejmujące różne dyscypliny akademickie – lingwistykę, psychologię eksperymentalną, informatykę, filozofię i neurologię. nauka o złożoności: badanie zachowania makroskopowych zbiorów prostych elementów (np. atomów, cząsteczek, bitów, neuronów), zdolnych do ewolucji w czasie. neuron: komórka nerwowa, będąca podstawową jednostką układu nerwowego. neuronowa sieć: zbiór połączonych neuronów w mózgu. neuroprzekaźnik: cząsteczka dyfundująca przez synapsę i przekazująca sygnały między neuronami. nieliniowość: matematyczna własność bardziej skomplikowanych sposobów łączenia elementów niż proste dodawanie. Nieliniowe zachowanie występuje powszechnie w przyrodzie i – jakościowo -oznacza, że często otrzymujemy więcej, niż się spodziewaliśmy, w odróżnieniu od układów liniowych, które nie prowadzą do żadnych niespodzianek. Na przykład: dysypatywne układy nieliniowe wykazują często samoorganizację lub chaos. nieodwracalność: jednokierunkowość ewolucji układów rzeczywistych, pozwalająca określić strzałkę czasu. nierównowaga: stan makroskopowego układu, który nie osiągnął równowagi termodynamicznej, a zatem może podlegać zmianom. niewymierne liczby: liczby, których nie można przedstawić w postaci ilorazu dwóch liczb całkowitych. Liczbą niewymierną jest na przykład ji. Liczby niewymierne są na ogół także nieobliczalne. NP problemy: problemy, których rozwiązanie wymaga wykonania liczby operacji zależnej wykładniczo od rozmiaru problemu (pewna liczba do potęgi N, gdzie Scharakteryzuje rozmiar problemu). Takie problemy są praktycznie nierozwiązywalne, ponieważ czas potrzebny na znalezienie rozwiązania szybko staje się dowolnie duży. Nawet najszybsze komputery niewiele mogą tu pomóc. Problemy, których nie można rozwiązać w czasie wielomianowym, należą do klasy NP. NP-zupelne problemy: najtrudniejsze ze wszystkich problemów klasy NP. obliczalne liczby: liczby, które można obliczyć za pomocą pojedynczej maszyny Turinga. obliczalność: w matematyce oznacza możliwość obliczenia na podstawie algorytmu, co może wykonać komputer (uniwersalna maszyna Turinga). Wszystkie liczby dzielą się na dwie klasy: obliczalne i nieobliczalne; tych drugich jest nieskończenie więcej. obliczenie: rachunek, który można wykonać zgodnie z pewnym algorytmem. obwód scalony: "kostka krzemowa"; niewielki kawałek półprzewodnika – takiego jak krzem – który zawiera kompletny układ elektroniczny. optoelektronika: dział elektroniki, obejmujący budowę urządzeń reagujących nie tylko na elektrony, ale również fotony. optymalizacja: proces udoskonalania, zmierzający do znalezienia najlepszego rozwiązania problemu. Rozwiązanie obliczeniowe problemu optymalizacji polega na napisaniu programu poszukującego maksimum lub minimum funkcji kosztu. padaczka: zaburzenia w działaniu mózgu, przejawiające się sporadycznymi atakami, wywołanymi lawinowym pobudzeniem dużej liczby neuronów. pamięć adresowana zawartością: zdolność do przywoływania informacji z pamięci na podstawie niepełnego opisu poszukiwanego elementu, zamiast adresu, pod którym jest on umieszczony. pamięć: w informatyce część komputera, w której przekazywane są informacje podlegające przetwarzaniu. paralelizm: nowoczesna technika komputerowa, pozwalająca na jednoczesne wykonanie wielu obliczeń przez działające równolegle procesory. W skrajnych wersjach tysiące procesorów zajmują się rozwiązywaniem różnych części jednego wielkiego problemu. Maszyny j ednoprocesorowe mogą wykonywać kilka programów jednocześnie, ponieważ centralny procesor dzieli swój czas między wszystkie programy. pejzaż dostosowan: pejzaż reprezentujący funkcję kosztu lub dostosowania dla danego problemu, na przykład problemu komiwojażera, szkła spinowego, czyli reprodukcyjnego dostosowania rzeczywistego lub wirtualnego organizmu. perceptron: prosty model obliczeniowy biologicznego neuronu, składający się z kilku kanałów wejściowych, elementu przetwarzającego i jednego kanału wyjściowego. Wartość sygnałów wejściowych jest mnożona przez wagę kanału; następnie procesor sumuje wszystkie wartości wejściowe, przez nieliniowy filtr przepuszcza wynik i kieruje go do kanału wyjściowego. platonizm: doktryna filozoficzna, zgodnie z którą obiekty matematyczne istnieją niezależnie od naszej wiedzy i jakiejkolwiek fizycznej realizacji. Poznanie matematycznej prawdy polega na skonstruowaniu dowodu. Platonizm należy porównać z logicyzmem, intuicjo-nizmem i formalizmem. polimer: związek chemiczny mający postać długiego łańcucha prostych cząsteczek. półkula mózgowa: kora mózgowa ma postać dwóch półkul, prawej i lewej. problem pomiaru: w mechanice kwantowej problem wyjaśnienia wyniku pomiaru układu mikroskopowego. problem praktycznie nierozwiązywalny: problem, którego rozwiązanie wymaga zbyt długich obliczeń, aby dało się je wykonać. Takie problemy, których nie można rozwiązać w czasie wielomianowym, należą do klasy NP. problem zakończenia pracy: twierdzenie Turinga mówi, iż nie można skonstruować mechanicznej procedury, czyli algorytmu, który pozwoliłby rozstrzygnąć, czy dowolny program komputerowy zakończy pracę po wykonaniu skończonej liczby kroków. Jest to niemożliwe z uwagi na istnienie liczb nieobliczalnych. Twierdzenie Turinga wywodzi się z twierdzenia Godła. program: zbiór instrukcji zrozumiałych dla komputera, stanowiących implementację algorytmu. przemiana fazowa: zmiana stanu skupienia substancji – ze stałego na ciekły, z ciekłego na gazowy lub ze stałego na gazowy. przestrzeń poszukiwań: zmiany funkcji kosztu (dostosowania) można sobie wyobrazić jako pejzaż, którego każdy punkt odpowiada określonemu rozwiązaniu, a wysokość jest miarą kosztu. Ten pejzaż dostosowań nazywa się również przestrzenią poszukiwań. RAM (Random Access Memory): pamięć dynamiczna, używana w niemal wszystkich współczesnych komputerach. reakcja: w chemii oddziaływanie między atomami i cząsteczkami, w którego wyniku następuje chemiczna zmiana. redukcjonizm: doktryna głosząca, że zjawiska złożone można wyjaśnić, odwołując się do czegoś prostszego. W szczególności redukcjonizm atomowy twierdzi, że zjawiska makroskopowe można wyjaśnić na podstawie znajomości atomów i cząsteczek. reguła uczenia się Hebba: reguła, zgodnie z którą waga połączenia synaptycznego rośnie, gdy dwa neurony są pobudzane jednocześnie. Reguła Hebba jest stosowana w sztucznych i biologicznych sieciach neuronowych. RISC (Reduced Instruction Set Computer): mikroprocesor wyposażony w mniej instrukcji niż tradycyjne mikroprocesory, dzięki czemu może szybciej pracować. RNA (kwas rybonukleinowy): związek chemiczny, biorący udział w przekładzie instrukcji genetycznych, zawartych w DNA, na białka. W niektórych organizmach jest to podstawowy nośnik informacji genetycznej. ROM: (Read Only Memory): w przeciwieństwie do RAM, pamięć ROM można tylko odczytywać, a nie można w niej zapisywać informacji. rozmyta logika: sposób przedstawiania wiedzy w matematyce oraz informatyce, pasujący do pojęć nieprecyzyjnych ze swej natury – takich jak "gorąco" i "zimno", "dobro" i "zło" – które mogą zależeć od kontekstu. rozpoznawanie mowy: dowolna metoda pozwalająca komputerowi rozumieć zwykłą mowę. równania różniczkowe: równania, w których występują wartości chwilowe szybkości zmian pewnych wielkości, gdy zmieniają się inne. Na przykład: newtonowskie równania ruchu to równania różniczkowe, wiążące siłę działającą na ciało z chwilową wartością tempa zmian prędkości. równowaga: w termodynamice stan końcowy ewolucji, gdy układ wyczerpał wszystkie możliwości zmiany. Termodynamika równowagowa zajmuje się wyłącznie badaniem takich statycznych stanów. samoorganizacja: spontaniczne powstanie nierównowagowych struktur na poziomie makroskopowym, spowodowane oddziaływaniami między bardzo licznymi, prostymi obiektami, zazwyczaj mikroskopowymi. samoorganizujący się stan krytyczny: typowy rodzaj nierównowagowej samoorganizacji, charakteryzującej się długookresowymi i długozasięgowymi regularnościami. sieć jednokierunkowa: sieć składająca się z warstw neuronów, przy czym neurony z danej warstwy mogą wpłynąć tylko na działanie neuronów w warstwie następnej; zwana również wielowarstwowym perceptronem. skalar: zmienna mająca wielkość, bez określonego kierunku. Ska-larami są, na przykład, masa i temperatura. software (oprogramowanie): zbiór programów wykonywanych przez komputer; zwykle przeciwstawiane hardware'owi, czyli układom elektronicznym komputera. soma: ciało neuronu; z punktu widzenia obliczeń, soma działa w przybliżeniu jak liniowy filtr progowy. sprzężenie zwrotne: termin określający mechanizm, w którym konsekwencje pewnego procesu stają się czynnikami wpływającymi na jego dalszy przebieg. Gdy proces ulega wzmocnieniu, mówimy o dodatnim sprzężeniu zwrotnym, gdy osłabieniu – o ujemnym. stan podstawowy: stan o najniższej energii, w jakiej może istnieć dany układ. stan stacjonarny: stan nierównowagowy, który nie zmienia się w czasie. strategia stabilna ewolucyjnie: zbiór cech fizycznych i sposobów zachowań (strategia w sensie teorii gier) populacji, która jest odporna na wszelkie próby wyparcia jej przez formy wykazujące nowe cechy, gdyż osobniki mające takie cechy nie są zdolne do osiągnięcia sukcesu reprodukcyjnego. superkomputery: najszybsze i najpotężniejsze z istniejących komputerów. symulowane wyżarzanie: metoda badania przestrzeni poszukiwań w celu znalezienia najlepszego rozwiązania złożonego problemu, określonego przez najniższy (lub najwyższy) punkt pejzażu. Nazwa wywodzi się od procesu wyżarzania, w czasie którego metal najpierw się nagrzewa, a następnie powoli studzi, by zwiększyć jego ciągliwość i wytrzymałość. Podczas wyżarzania atomy metalu tworzą konfigurację o niższej energii, a tym samym bardziej stabilną. synapsa: połączenie między dwiema komórkami nerwowymi, przez które są przekazywane sygnały nerwowe. system ekspercki: program komputerowy wykorzystujący bezpośrednio zakodowaną wiedzę ludzką w celu ułatwienia rozwiązania pewnych problemów, takich jak diagnozowanie choroby lub interpretacja prawa. szkło spinowe: materiał magnetyczny (zwykle stop), w którym magnesy atomowe oddziałują ferromagnetycznie i antyferromagnetycznie, co powoduje frustrację: niemożliwe jest wówczas spełnienie wszystkich warunków minimalizacji całkowitej energii układu. Istnieje wtedy bardzo dużo stanów stabilnych i znalezienie globalnego stanu podstawowego staje się problemem optymalizacyjnym klasy NP. Szkła spinowe mają wiele takich własności, jak asocjacyjne sieci Hopfielda. sztuczna inteligencja: dział informatyki, którego celem jest zbudowanie maszyn wykazujących cechy kojarzone z ludzką inteligencją, takie jak zdolność do uczenia się, rozumowania, rozpoznawania obrazów, rozumienia mowy i świadomość. sztuczne sieci neuronowe (sieci neuropodobne): klasa modeli komputerowych, bardzo luźno przypominających sieci neuronowe w mózgu, składających się z połączonych jednostek, przetwarzających informacje i wymieniających między sobą sygnały; działanie każdej jednostki zależy od sumy odbieranych sygnałów. Sztuczne sieci neuronowe można realizować w postaci programu lub układu elektronicznego. sztuczne życie: dziedzina badań, których celem jest odkrycie istoty oraz uniwersalnych cech "życia": nie tylko takiego, jakie znamy, ale również takiego, jakie mogłoby być, czy to na Ziemi, w komputerach, czy gdziekolwiek we Wszechświecie, niezależnie od postaci, w jakiej ono istnieje. teleologia: badanie przyczyn celowych, zwłaszcza w związku z próbami wykrycia projektu i celu w przyrodzie. teoria gier: dziedzina matematyki, zajmująca się problemami strategicznymi, jakie powstają w działalności gospodarczej, w czasie ewolucji i wojny; zawsze zakłada się, że przeciwnicy starają się zmaksymalizować osobiste zyski. teoria liczb: dziedzina matematyki, zajmująca się badaniem struktury systemów liczbowych i własnościami liczb naturalnych (dodatnich liczb całkowitych). tera: przedrostek oznaczający mnożenie przez bilion (1012). termodynamika: nauka o cieple i pracy. tranzystor: urządzenie półprzewodnikowe z trzema lub więcej elektrodami, które może regulować natężenie przepływającego przez nie prądu. Używane jako wzmacniacz, oscylator lub przełącznik. Turinga maszyna: w nowoczesnej terminologii program komputerowy. uniwersalna maszyna Turinga: w nowoczesnej terminologii programowalny komputer ogólnego zastosowania, który może wykonać dowolną, obliczalną sekwencję instrukcji. wektor: dowolna zmienna, mająca wielkość i kierunek; wektorami są, na przykład, prędkość i przyspieszenie. wirtualna rzeczywistość: zaawansowany typ trójwymiarowej komputerowej symulacji graficznej, w której operator przebywa w sztucznym, multimedialnym środowisku. wirus: krótki kod komputerowy, który sam kopiuje się i przyłącza do większych programów po ich uruchomieniu. W biologii – niewielki fragment materiału genetycznego, zazwyczaj w białkowej otulinie, który ewoluuje i reprodukuje się w komórkach organizmu gospodarza. zasada nieoznaczoności: prawo mechaniki kwantowej, stwierdzające, że nie ma sensu mówić o położeniu, pędzie i innych własnościach cząstek, o ile własności te nie zostały zmierzone. Zasada nieoznaczoności podaje teoretyczną granicę dokładności równoczesnych pomiarów położenia i pędu: im dokładniej mierzymy jedną wielkość, tym większa nieoznaczoność drugiej. życie: własność układów podlegających darwinowskiej ewolucji wskutek doboru naturalnego. BIBLIOGRAFIA ROZDZIAŁ 1 Appleyard, B., Understanding the Present. Pan Books, Londyn 1992. Cohen, J., Stewart, I., The Collapse of Chaos. Viking, Londyn 1994. Coveney, P., Highfleld, R., Strzałka czasu. Zysk i S-ka (w przygotowaniu). Crick, F., Zdumiewająca hipoteza. Prószyński i S-ka, Warszawa 1997. Darwin, K., O powstawaniu gatunków drogą doboru naturalnego czyli o utrzymaniu się doskonalszych ras w walce o byt. Wyd. II, PWRiL, Warszawa 1959. Emmeche, C., The Garden in the Machine: The Emerging Science of Artificial Life. Princeton University Press, Princeton 1994. Langton, C., Taylor, C., Farmer, J. D., Rasmussen, S. (red.), Artificial Life II. Addison-Wesley, Kalifornia, Redwood City, 1992. Lewin, R., Complexity. Macmillan, Nowy Jork 1992. Lewontin, R. C., The Doctrine of DNA. Penguin, Londyn 1993. Peitgen, H.-O., Richter, P., The Beauty of Fractals. Springer-Verlag, Berlin 1986. Prigogine, I., From Being to Becoming: Time and Complexity in the Physical Sciences. Freeman, San Francisco 1980. Ridley, M., The Red Queen. Penguin, Londyn 1993. Vonneumann, N., John von Neumann as Seen By His Brother. © N. Vonneumann, 1396 Lindsay Lane, Meadowbrook, PA, 19046-1833, 1992. Waldrbp, M., Complexity. Simon & Schuster, Nowy Jork 1992. Weinberg, S., Pierwsze trzy minuty. Wyd. I, Iskry, Warszawa 1980; wyd. II uzupełnione, Prószyński i S-ka (w przygotowaniu). ROZDZIAŁ 2 Barrow, J. D., Teorie wszystkiego. Wydawnictwo ZNAK, Kraków 1995. ----------, 71 razy drzwi Prószyńskł i S-ka, Warszawa 1996. Borowski, E. J., Borwein, J. M., Dictionary of Mathematics. Collins, Londyn 1989. Casti, J. L., Searching for Certainty: What Science Can Know About the Future. Scribners, Londyn 1992. Chaitin, G. J., Algorithmic Information Theory. Cambridge University Press 1987. ----------, Information-theoretic Incompletness. World Scientific, Singapur 1992. ----------, Information, Randomness and Incompletness. Wyd. II, World Scientific, Singapur 1990. ----------, w: The New Scientist Guide to Chaos. N. Hall (red.). Penguin, Londyn 1991. Cornwall, J., (red.), Nature's Imagination. Oxford University Press 1995. Coveney, P., Highfield, R, Strzałka czasu. Zysk i S-ka (w przygotowaniu). Davies, P. C. W., The Cosmic Blueprint. Heinemann 1987. ----------, Pian Stwórcy. Wydawnictwo ZNAK, Kraków 1996. Davis, M., The Undecidable. Raven, Nowy Jork 1965. Garey, M., Johnson, D. S., Computers and Intractability. W. H. Freeman, Nowy Jork 1979. Herken, R., The Universal Turing Machine. Oxford University Press 1988. Hodges, A., Alan Turing: The Enigma. Vintage, Londyn 1983. Hofstadter, D., Gódel, Escher, Bach: An Eternal Golden Braid. Harper & Row, Nowy Jork 1979. Hughes, P., Brecht, G., Vicious Circles and Infinity: An Anthology of Paradoxes. Penguin, Londyn 1978. Kline, M., Mathematical Thought form Ancient to Modern Times. Oxford University Press 1972. Lakatos, I., Proofs and Refutations. Cambridge University Press 1976. Penrose, R., Nowy umysł cesarza. Wydawnictwo Naukowe PWN, Warszawa 1995. ----------, Shadows of the Mind. Oxford University Press 1994. Popper, K., Conjectures and Refutations. Routledge and Kegan Paul, Londyn 1963. ----------, Logika odkrycia naukowego. Warszawa 1977. ----------, Realism and the Aim of Science. Hutchinson, Londyn 1993. Reid, C., Hilbert. George Allen and Unwin, Londyn 1970. Rucker, R., Infinity and the Mind. Bantam Books, Londyn 1982. ----------, Mind Tools. Houghton Mifflin, Boston 1987. Webb, J., Mechanism, Mentalism, and Metamathematics. Reidel, Dordrecht 1980. Weinberg, S., Sen o teorii ostatecznej. Alkazar, Warszawa 1994. ROZDZIAŁ 3 Augarten, S., Bit by Bit: An Illustrated History of Computers. Ticknor and Fields, New York 1984. Babbage, C., Passages from The Life of a Philosopher. Longman, Green, Longman, Roberts & Green 1864. Barrow, J., TC razy drzwi. Prószyński i S-ka, Warszawa 1996. ----------, Teorie wszystkiego. Wydawnictwo ZNAK, Kraków 1995. Boole, G., The Claims of Science, Especially as Founded in Its Relations to Human Nature. Taylor and Walton, Londyn 1851. ----------, An Investigation of the Laws of Thought. Dover, Nowy Jork 1958. ----------, The Mathematical Analysis of Logic, Being an Essay Towards a Calculus of Deductive Reasoning. Macmillan, Barclay and Mac-millan, Cambridge 1847. Campbell-Kelly, M. (red.), The Works of Charles Babbage. Pickering & Chatto, Londyn 1989. Chandy, K. M., S. Taylor, An Introduction to Parallel Processing. Jones and Bartlett, Boston 1992. Coveney, P., Highfield, R., Strzałka czasu. Zysk i S-ka (w przygotowaniu). Donnelly, J., A Modern Difference Engine: Software Simulators for Charles Babbage's Difference Engine No. 2. Armstrong Publishing Co. 1992. Garey, M., Johnson D. S., Computers and Intractability. W. H. Freeman, Nowy Jork 1979. Goldstine, H., The Computer from Pascal to von Neumann. Princeton University Press, Princeton 1972. Helms, S., John uon Neumann and Norbert Wiener: From Mathematics to the Technologies of Life and Death. MIT Press, Cambridge 1989. Hillis, D., The Connection Machine. MIT Press, Cambridge 1989. Hillis, D., Boghosian, B., Parallel Scientific Computing, "Science" 261, 856, (1993). Hodges, A., Alan Turing: The Enigma. Viking, Londyn 1983. Hyman, A., Charles Babbage, Pioneer of the Computer. Princeton University Press, Princeton 1982. Kahn, D., The Codebreakers: The Story of Secret Writing. Macmillan, Londyn 1967. Kaufmann, W. J., Smarr, L. I., Supercomputing and the Transformation of Science. Scientific American Library, Nowy Jork 1993. Klir, G. J., Folger, T. A., Fuzzy Sets, Uncertainty and Information. Prentice Hall, New Jersey, Englewood Cliffs 1992. Kosko, B., Fuzzy Thinking: The New Science of Fuzzy Logic. Harper--Collins, Nowy Jork 1994. Lindgren, M., Glory and Failure: The Difference Engines ofJohann Mailer, Charles Babbage and Georg and Edward Scheutz. MIT Press, Cambridge 1990. MacHale, D., George Boole: His Life and Work. Boole Press, Dublin 1985. Macrae, N., John uon Neumann. Pantheon Books, Nowy Jork 1992. Moseley, M., Irascible Genius: A Life of Charles Babbage, Inventor. Hutchinson, Londyn 1964. Neumann, J., von, The Computer and the Brain. Yale University Press, New Haven 1958. Penrose, R., Nowy urnysł cesarza. Wydawnictwo Naukowe PWN, Warszawa 1995. Rheingold, H., Tools for Thought. Prentice Hall, Englewood Cliffs 1986. Swade, D., Charles Babbage and His Calculating Engines. Science Museum, Londyn 1991. Swade, D., Palfreman, J., The Dream Machine: Exploring the Computer Age. BBC Books 1991. Thinking Machines Corporation, Connecting Machine CM-200 Series Technical Summary. Thinking Machines Corporation, Massachusetts, Cambridge 1991. Trew, A., Wilson, G. (red.), Post, Present, Parallel: A Survey of Available Parallel Computing Systems. Springer-Verlag, Berlin 1991. Żurek, W. H., Complexity, Entropy and the Physics of Information. Santa Fe Institute Series, tom 8. Addison-Wesley, Redwood City 1991. ROZDZIAŁ 4 Baxter, R., Exactly Solved Models in Statistical Mechanics. Academic Press, Londyn 1982. Coveney, P., Highfleld, R., Strzalka czasu. Zysk i S-ka (w przygotowaniu). Doolen, G. (red.), Lattice Gas Methods for Partial Differential Equations. Tom IV, Santa Fe Institute Studies in the Science of Complexity. Addison-Wesley, Redwood City 1990. Fischer, K. H., Hertz, J. A., Spin Glasses. Cambridge University Press, 1991. Hillis, W. D., The Connection Machine: A Computer Architecture Based on Cellular Automata, "Physica" 10D, 213 (1984). Hofstadter, D., Godef, Escher, Bach: An Eternal Golden Braid. Harper & Row, Nowy Jork 1979. Mezard, M., Parisi, G., Virasoro, M., Spin Gloss Theory and Beyond. World Scientific, Singapur 1987. Minsky, M., Computation: Finite and Infinite Machines. Prentice-Hall, Englewood Cliffs 1967. Mydosh, J., Spin Gloss Physics: An Experimental Approach. Taylor and Francis, Londyn 1993. Neumann, J. von, The Computer and the Brain. Yale University Press, Cambridge 1987. Sherrington, D., Magnets, Microchips and Memories: From Spin Glasses to the Brain, "Speculations in Science and Technology" 14, 316 (1991). ----------, Complexity Due to Disorder and Frustration, w: 1989 Lectures on Complex Systems, E. Jen (red.). Addison-Wesley, Reading 1990. Toffoli, T., Margolus, N., Cellular Automata Machines. MIT Press, Cambridge 1987. Wolfram, S., Cellular Automata as Models of Complexity, "Nature" 311, 419(1984). Wolfram, S. (red.), Theory and Applications of Cellular Automata. World Scientific, Singapur 1986. Wuensche, A., Lesser, M. J., The Global Dynamics of Cellular Automata: An Atlas of Basin of Attraction Fields of One-Dimensional Cellular Automata. Addison-Wesley, Reading 1992. ROZDZIAŁ 5 Aleksander, I., Morton, H., An Introduction to Neural Computing. Chapman and Hall, Londyn 1990. Amari, S., Arbib, A., Computation and Cooperation in Neural Nets, Lecture Notes in Biomathematics, tom 45. Springer-Verlag, Berlin 1982. Amit, D., Modelling Brain Function. Cambridge University Press 1989. Beale, R., Jackson, T., Neural Computing. Adam Hilger, Bristol 1990. Broadbent, D. (red.), The Simulation of Human Intelligence. Blackwell, Oksford 1993. Davis, L., Genetic Algorithms and Simulated Annealing. Pitman, Londyn 1987. ----------, Handbook of Genetic Algorithms. Van Nostrand-Rheinhold, Nowy Jork 1991. Dreyfus, H. L., What Computers Still Can't Do: The Limits of Artificial Intelligence. MIT Press, Cambridge 1992. Freeman, J. A., Skapura, D. M., Neural Networks: Algorithms, Applications and Programming Techniques. Addison-Wesley, Reading 1991. Goldberg, D., Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading 1989. Grossberg, S., Neural Networks and Natural Intelligence. MIT Bradford Press, Cambridge 1988. Hebb, D. O., The Organization of Behaviour. Wiley, Nowy Jork 1949. Hertz, J. A., Krogh, A., Palmer, R. G., Introduction to the Theory of Neural Computation. Addison-Wesley, Reading 1991. Hofstadter, D., Godeł, Escher, Bach: An Eternal Golden Braid. Harper & Row, Nowy Jork 1979. Hofstadter, D., Dennett, D., The Mind's I. Basic Books, Nowy Jork 1981. Holland, J., Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Arbor 1975. Holland, J., Holyoak, K. J., Nisbett, R. E., Thagard, P. R., Induction: Processes of Inference, Learning and Discovery. MIT Press, Cambridge 1986. Kohonen, T., Self-Organisation and Associative Memory. Springer Verlag, Berlin 1989. Koza, J. R., Genetic Programming: On the Programming of Computers by Means of Natural Selection. MIT Press, Cambridge 1992. Koza, J. R., Rice, J. P., Genetic Programming: The Movie. MIT Press, Cambridge 1992. Minsky, M., Computation: Finite and Infinite Machines. Prentice-Hall, Englewood Cliffs 1967. ----------, The Society of Mind. Simon & Schuster, Nowy Jork 1986. Minsky, M., Papert, S., Perceptrons. MIT Press, Cambridge 1969. Penrose, R., Nowy umyśl cesarza. Wydawnictwo Naukowe PWN, Warszawa 1995. Rosenblatt, R., Principles of Neurodynamics. Spartan Books, Waszyngton, D.C. 1962. Rumelhart, D. E., McClelland, J. L. (red.), Parallel Distributed Processing: Explorations on the Microstructwe of Cognition, tom I i II. MIT Press, Cambridge 1986. Neumann, J. von, The Computer and the Brain. Yale University Press, Cambridge 1987. Whitley, L. D., Schaffer, J. D., ICOGANN-92 International Workshop on Combinations of Genetic Algorithms and Neural Networks. IEEE Computer Society Press, Los Alamitos 1992. ROZDZIAŁ 6 Babloyantz, A., Molecules, Dynamics and Life. Wiley-Interscience, Nowy Jork 1986. Brush, S., The Kind of Motion We Call Heat. North-Holland, Amsterdam 1976. Casti, J. L., Searching f or Certainty. Scribners, Londyn 1992. Coveney, P., The Second Law of Thermodynamics: Entropy, Irreversi-biliry and Dynamics, "Nature" 339, 409 (1989). Coveney, P., Highfleld, R, Strzałka czasu. Zysk i S-ka (w przygotowaniu). Doolen, G. (red.), Lattice Gas Methods for Partial Differential Equations. Addison-Wesley, Kalifornia, Redwood City 1990. Gaynord, R. J., Wellin, P. R., Computer Simulations with Mathematica: Explorations in Complex Physical and Biological Systems. Springer-Ver-lag, Berlin 1995. Glansdorff, P., Prigogine, I., Thermodynamic Theory of Structure, Stability and Fluctuations. Wiley, Nowy Jork 1971. Gleick, J., Chaos. Zysk i S-ka, Poznań 1995. Gray, P., Scott, S., Chemical Oscillations and Instabilities. Oxford University Press 1990. Groot, S. de, Mazur, P., Non-Equilibrium Thermodynamics. Dover, Nowy Jork 1984. Hall, N. (red.). The New Scientist Guide to Chaos. Penguin Books, Harmondsworth 1991. Lorenz, E., The Essence of Chaos. UCL Press, Londyn 1993. Mandelbrot, B., The Fractal Geometry of Nature. W. H. Freeman, Nowy Jork 1977. Nicolis, G., Prigogine, I., Exploring Complexity. W. H. Freeman, Nowy Jork 1989. ----------, Self-Organisation in Non-Equilibrium Systems. Wiley-Interscience, Nowy Jork 1977. Prigogine, I., From Being to Becoming. W.H. Freeman, Nowy Jork 1980. Ruelle, D., Chaotic Evolution and Strange Attractors. Cambridge University Press 1989. ----------, Chance and Chaos. Princeton University Press, Princeton 1991. Scott, S., Chemical Chaos. Oxford University Press 1992. Stewart, L, Golubitsky, M., Fearful Symmetry. Penguin, Londyn 1992. Wolfram, S. (red.), Theory and Applications of Cellular Automata. World Scientific, Singapur 1986. Żurek, W. H., Complexity, Entropy and the Physics of Information. Santa Fe Institute Series, torn 8. Addison-Wesley, Kalifornia, Redwood City 1991. ROZDZIAŁ 7 Alberts, B., Bray, D., Lewis, J., Raff, M., Roberts, K., Watson, J., The Molecular Biology of Cell. Wyd. II, Garland, Nowy Jork 1989. Axelrod, R., The Evolution of Co-operation. Penguin Books, Londyn 1990. Babloyantz, A., Molecules, Dynamics and Life. Wiley-Interscience, Nowy Jork 1986. Ball, P., Designing the Molecular World. Princeton University Press, Princeton 1994. Bendall, D. (red.), Evolution from Molecules to Men. Cambridge University Press 1982. Coveney, P., Highfleld, R., Strzałka czasu. Zysk i S-ka (w przygotowaniu). Cramer, F., Chaos und Ordnung. Die komplexe Struktur des Lebendin-gen. Deutsche Verlags-Anstalt, Stuttgart 1988. Crick, F., Istota i pochodzenie życia. PIW, Warszawa 1992. Cronin, H., The Ant and the Peacock. Cambridge University Press 1991. Dawkins, R., Rzeka genów. CIS, Most, Warszawa 1995. ----------, Samolubny gen. Prószyński i S-ka, Warszawa 1996. Deamer, D., Fleischaker, G., Origins of Life: The Central Concepts. Jones and Bartlett, Boston 1994. Eigen, M., Steps Towards Life. Oxford University Press 1992. Eigen, M., Schuster, P., The Hypercycle. A Principle of Natural Self--Organisation. Springer-Verlag, Nowy Jork 1979. Fleischaker, G., Colonna, S., Luisi, P.L. (red.), Self-Production of Supramolecular Structures. Proceedings of NATO Advanced Research Workshop, Maratea, Wiochy, wrzesień 1993. Kluwer, Dordrecht 1994. Goodwin, B., How Leopard Changed Its Spots. Weidenfield & Nicolson, Londyn 1994. Gould, S. J., Ever Since Darwin. Penguin, Harmondsworth 1980. ----------, The Panda's Thumb. Penguin, Harmondsworth 1980. ----------, Wonderful Life. Hutchinson Radius, Londyn 1980. Grene, M. (red.), Dimensions of Darwinism. Cambridge University Press 1983. Kauffman, S. A., The Origins of Order: Self-Organization and Selection in Evolution. Oxford University Press 1993. Langton, C. (red.), Artificial Life: Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulations of Living Systems. Addison--Wesley, Kalifornia, Redwood City 1989. Langton, C., Taylor, C., Farmer, J. D., Rasmussen, S. (red.), Artificial Life II: Proceedings of the Workshop on Artificial Life held February, 1990, in Santa Fe, New Mexico. Addison-Wesley, Kalifornia, Redwood City 1992. Lewontin, R. C., The Doctrine of DNA. Penguin, Londyn 1993. Lovelock, J. E., Gaia. Oxford University Press 1979. Maynard Smith, J., Did Darwin Get It Right? Penguin Books, Londyn 1993. Orgel, L., The Origins of Life. Wiley, Nowy Jork 1973. Peacocke, A., An Introduction to the Physical Chemistry of Biological Organisation. Oxford University Press 1983. Ridley, M., The Red Queen: Sex and the Evolution of Human Nature. Viking Penguin, Londyn 1993. Schrodinger, E., What Is Life? Cambridge University Press 1944. Sigmund, K., Games of Life. Oxford University Press 1993. Varela, F., Principles of Biological Autonomy. North-Holland, Amsterdam 1979. Varela, F., Stein, W. (red.), Thinking About Biology. Addison-Wesley, Kalifornia, Redwood City 1992. ROZDZIAŁ 8 Bendall, D. (red.), Evolution from Molecules to Men. Cambridge University Press 1982. Brooks, R, Maes, P. (red.), Artificial Life IV. MIT Press, Cambridge 1994. Dawkins, R., Samolubny gen. Prószyński i S-ka, Warszawa 1996. Eigen, M., Steps Towards Life. Oxford University Press 1992. Emmeche, C., The Garden in the Machine: The Emerging Science of Artificial Life. Princeton University Press, Princeton 1994. Goodwin, B., How Leopard Changed Its Spots. Weidenfield & Nicholson, Londyn 1994. Holland, J. H., Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. Wyd. zmlen., MIT Press, Cambridge 1992. ----------, Algorytmy genetyczne, "Świat Nauki" 9 (1992), s. 34. Koza, J. R., Genetic Programming: On the Programming of Computers by Means of Natural Selection. MIT Press, Cambridge 1992. Langton, C. (red.), Artificial Life: Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulations of Living Systems. Addison--Wesley, Redwood City 1989. Langton, C., Taylor, C., Farmer, J. D., Rasmussen, S. (red.), Artificial Life II: Proceedings of the Workshop on Artificial Life held February, 1990, in Santa Fe, New Mexico. Addison-Wesley, Redwood City 1992. Langton, C. (red.), Artificial Life III. Addison-Wesley, Redwood City 1989. Levy, S., Artificial Life. Pantheon, Nowy Jork 1992. Michalski, R. S., Carbonell, J. G., Mitchell, T. M., Machine Learning: An Artificial Intelligence Approach. Tom I i II, Morgan Kaufman, Los Altos 1986. Pagels, H.R., The Dreams of Reason: The Computer and the Rise of the Sciences of Complexity. Bantam, Nowy Jork 1988. Prusinkiewicz, P., Lindenmayer, A., The Algorithmic Beauty of Plants. Springer-Verlag, Berlin 1990. Ridley, M., The Red Queen: Sex and the Evolution of Human Nature. Viking Penguin, Londyn 1993. Sober, E., The Nature of Selection: Evolutionary Theory in Philosophical Focus. University of Chicago Press, Chicago 1984. Thompson, D., On Growth and Form. Cambridge University Press 1942. ROZDZIAŁ 9 Blakemore, C., The Mind Machine. BBC Books, Londyn 1991 i Penguin Books 1994. Blakemore, C., Greenfield, S. (red.), Mindujaues. Blackwell, Oksford 1987. Boden, M., The Creative Mind. Sphere Books, Londyn 1992. ----------, Artificial Intelligence and Natural Man. MIT Press, Londyn 1987. ----------, The Philosophy of Artificial Intelligence. Oxford University Press 1990. Boden, M., Bundy, A., Needham, R. M. (red.), From Artificial Intelligence to the Mind, "Philosophical Transactions of the Royal Society" 349, (15 października 1994). Changeux, J.-P., Neuronal Man. Pantheon, Nowy Jork 1985. Chomsky, N., Barriers. MIT Press, Cambridge 1986. ----------, Language and Mind. Harcourt Brace and World 1968. ----------, Reflections on Language. Pantheon, Nowy Jork 1975. Churchland, P., Neurophilosophy: Toward a Unified Science of the Mind/Brain. MIT Press, Cambridge 1986. Churchland, P., Sejnowski, T., The Computational Brain. MIT Press, Massachusetts, Cambridge 1992. Cotterill, R., No Ghost in the Machine. Heinemann, Londyn 1989. Crick, F., Zdumiewająca hipoteza. Prószyńskl i S-ka, Warszawa 1997. Damasio, H., Damasio, A., Lesion Analysis in Neuropsychology. Oxford University Press 1989. Dennett, D., Consciousness Explained. Penguin, Londyn 1991. Denton, D., The Pinnacle of Life. Cassels, Allen & Unwin, Londyn, i HarperCollins, San Francisco 1993. Dreyfus, H. L., What Computers Still Can't Do: A Critique of Artificial Reason. MIT Press, Cambridge 1993. Edelman, G., Neural Determinism: The Theory oJNeuronal Group Selection. Oxford University Press 1989. ----------, Bright Air, Brilliant Fire. Penguin Press, Londyn 1992. Goldberg, D., Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, Reading 1989. Grossberg, S., Neural Networks and Natural Intelligence. MIT Bradford Press, Massachusetts, Cambridge 1988. Hanson, S. J., Olson, C. R. (red.), Connectionist Modelling and Brain Function: The Developing Interface. MIT Press, Cambridge 1990. Hebb, D. O., The Organization of Behaviour. Wiley, Nowy Jork 1949. Heidegger, M., Basic Writings. Harper & Row, Nowy Jork 1977. Hofstadter, D., Gódel, Escher, Bach: An Eternal Golden Braid. Harper & Row, Nowy Jork 1979. Hofstadter, D., Dennett, D., The Mind's/. Basic Books, Nowy Jork 1981. Hubel, D. H., Eye, Brain and Vision. Scientific American Library, W. H. Freeman 1988. Kohonen, T., Self-Organisation and Associative Memory. Springer-Ver-lag, Berlin 1989. Lewontin, R. C., The Doctrine of DNA: Biology as Ideology. Penguin, Londyn 1993. Marcel, A. J., Bisiach, E. (red.), Consciousness in Contemporary Science. Oxford University Press 1992. Marr, D., Vision. Freeman, Nowy Jork 1982. Minsky, M., The Society of Mind. Simon & Schuster, Nowy Jork 1986. Moravec, H., Mind Children: The Future of Robot and Human Intelligence. Harvard University Press, Cambridge 1988. Morris, R. G. M. (red.), Parallel Distributed Processing: Implications f or Psychology and Neuroscience. Oxford University Press 1989. Penrose, R., Nowy umyśl cesarza. Wydawnictwo Naukowe PWN, Warszawa 1995. ----------, Shadows of the Mind. Oxford University Press 1994. Pinker, S., The Language Instinct. Morrow, Nowy Jork 1994. Posner, M. L, Raichle, M. E., Images of Mind. Scientific American Library, W.H. Freeman 1994. Rose, S., The Making of Memory. Bantam Press, Londyn 1992. Rumelhart, D. E., McClelland, J. L. (red.), Parallel Distributed Processing: Explorations on the Microstructure of Cognition. Tom I i II, MIT Press, Cambridge 1986. Skinner, B. F., About Behaviorism. Penguin, Londyn 1993. Traub, R. D., Miles, R., Neuronal Networks of the Hippocampus. Cambridge University Press 1991. Wills, C., The Runaway Brain. HarperCollins, Londyn 1994. Wolpert, L., The Triumph of the Embryo. Oxford University Press 1991. Zeki, S., A Vision of the Brain. Blackwell Scientific Publications, Oksford 1993. ROZDZIAŁ 10 Anderson, P. W., Arrow, K., Pines, D., The Economy as an Evolving Complex System. Santa Fe Institute Studies in the Sciences of Complexity, tom 5. Addison-Wesley, Kalifornia, Redwood City 1989. Arthur, B., "Sci. Amer." 92-99, luty 1990. Axelrod, R., The Evolution of Cooperation. Penguin, Londyn 1990. Coveney, P., Highfield, R., Strzałka czasu. Zysk i S-ka (w przygotowaniu). Dawkins, R., Samolubny gen. Prószynski i S-ka, Warszawa 1995. Dennett, D.C., Brainstorms. Bradford Books, Vermont, Montgomery 1978. Gell-Mann, M., Kwark ijaguar. CIS, Warszawa 1995. Hofstadter, D., Gódel, Escher, Bach: An Eternal Golden Braid. Harper & Row, Nowy Jork 1979. Hofstadter, D., Dennett, D., The Mind's I. Basic Books, Nowy Jork 1981. Jencks, C., The Architecture of the Jumping Universe. Academy Editions, Londyn 1995. Kelly, K., Out of Control Fourth Estate, Londyn 1994. Kelves, D. J., Hood, L. (red.), The Code of Codes: Scientific and Social Issues in the Human Genome Project. Harvard University Press, Massachusetts, Cambridge 1992. Lewontin, R. C., The Doctrine of DNA. Penguin, Londyn 1993. Mainzer, M., Thinking in Complexity. Springer-Verlag, Berlin 1994. Ormerod, P., The Death of Economics. Faber and Faber, Londyn 1994. Prigogine, L, Sanglier, M. (red.), The Laws of Nature and Human Conduct. Brussels Task Force of Research Information and Study on Science, Bruksela 1985. Todd, S., Latham, W., Evolutionary Art and Computers. Academic Press, Londyn 1992. DODATEK Posner, M., Raichle, M., Images of Mind. Scientific American Library, Nowy Jork 1994. Zeki, S., A Vision of the Brain. Blackwell Scientific Publications, Oksford 1993. INDEKS OSOBOWY Adamis, Chris Adleman, Leonard Altken, Howard Albert, David Al-Chwarizmi, Muhammad ibn Musa Aleksander, Igor Allen, Garland Almdahl, Gene Altman, Sidney Amin, Shara Anderson, John Appel, Kenneth Appleby, Steve Arak, Anthony Arbib, Michael Arkin, Adam Arystoteles Atanasoff, John Auerbach, Ditza Axelrod, Robert Ayers, Greg Babbage, Charles Bach Johann Sebastian Bacon, Roger Badi, Remo Bak, Per Barker, Gary Barrow, John Beaudry, Amber Belin, Alietta Bell, John Benioff, Paul Bernal John Biebricher, Christof Bielousow, Borys Pawłowicz Binning, Gerd Blake, William Blakemore, Colin Bliss, Tim Blumberg, Baruch Boerlijst, Martin Boghosian, Bruce Bohr, Niels Boltzmann, Ludwig Boole, George Brenner, Sydney Brewster, Edwin Tenney Broca, Pierre Paul Bromhead, Edward Brooks, Rodney Brouwer, Luitzen Brown, C. Titus Burks, Arthur Byron, Augusta Ada Byron, Noel Carpenter, Gail Cartwright, Nancy Cech, Thomas Chaitin, Gregory Chen, Kan Church, Alonzo Clement, Joseph Cliff, Dave Cocke, John Cohen, David Cole, Blaine Collins, Robert Conway, John Craft, Nicholas Cray, Seymour Creutz, Michael Crichton, Michael Crick, Francis Crosse, Andrew Crutchfield, Jim Darwin, Charles Robert Dawkins, Richard Davies, Thomas Dayan, Peter Dennet, Daniel Descartes, Rene Deutsch, David Diofantos Dirac, Paul Douglas, Rodney Dreyfus, Hubert Durrell, Lawrence Dyson, Freeman Edelman, Gerald Eigen, Manfred Einstein, Albert Eisenhower, Dwight David Ekert, Artur Eldredge, Niels Enquist, Magnus Farmer, Doyne Feigenbaum, Edward Fernandez, Jose-Luis Feynmann, Richard Finkel, Leif Fisher, Ronald Fox, Nathan Fox, Sidney Frackowiak, Richard Franks, Nigel Frisch, Uriel Galileusz Gardner, Martin Garis, Hugo de Gebinoga, Michael Gellatt, Charles Gell-Mann, Murray Godel, Kurt Goethe, Johann Wolfgang von Gogh, Vincent van Goldacre, Richard Goldberg, David Goldbeter, Albert Golding, William Goldstine, Herman Golgi, Camilio Goodwin, Brian Gould, Stephen Jay Grassberger, Peter Gray, Charles Grossberg, Stephen Grzeszczuk, Radek Gutenberg, Beno Guthrie, Francis Habgood, John Hadamard, Jacques Haendel, Georg Friedrich Haken, Wolfgang Haldane, John Burdon Sanderson Hameroff, Stuart Hamilton, William Harsanyi, John Harvey, Inman Hasslacher, Brosl Hebb, Donald Heisenberg, Werner Helmholtz, Hermann von Hesper, Ben Hess, Benno Hesse, Hermann Htghet, Gilbert Hilbert, David Hillis, Danny Hinton, Geoffrey Hjelmfelt, Allen Hobbes, Thomas Hodgkin, Alan Hoff, Marcian Hogeweg, Pauline Hokusai, Katsushiko Holland, John Hopf Heinz Hopfleld, John Hraber, Peter Hu, Xiaoping Hubel, David Huberman, Bernard Husbands, Phil Huxley, Andrew Isaka, Satoru Iwanickij, Genrik Jacquard, Joseph Marie Jakobi, Nick James, William Jeans, James Jefferson, David Jefferys, John Johnstone, Rufus Joyce, Gerald Joyce, James Kaloudis, Todd Kandler, Otto Kant, Immanuel Karniadakis Kauffman, Stuart Kayfmann, Stuart Keats, John Kiedrowskl, Gunter von Kilby, Jack St. Clair Kirkpatrick, Scott Klug, Aron Koch, Christof Kohonen, Teuvo Kosko, Bart Koza, John Krinski, Walentyn Izraelowicz Kusch, Ingo Laderberg, Joshua Lake, James Lam, Clement Landauer, Rolf Langton, Chris Lardner, Dionysus Lefever, Rene Leibniz, Gottfried Wilhelm von Lenin Lerner, Richard Lewontin, Richard Lindenmayer, Aristid Linsker, Ralph Littell, Robert Llinas, Rodolfo Lloyd, Alun Lloyd, Seth Lombardo, Michael Lomo, Terje Lorenz, Edward Lovelace, Ada Lovelock, James Luisi, Pier Luigi Łukasiewicz, Jan Mahowald, Misha Maley, Carlo Malsburg, Christoph von der Malthus, Thomas Robert Mandelbrot, Benoit Margolus, Norman Mark, van der Markus, Mario Marr, David Martin, Kevan Matijasewlcz, Jurij Maturana, Humberto Maxwell, James Clerk May, Robert McClelland, James McCulloch, Warren Mcllroy, Paul Mead, Carver Mehta, Anita Meinhardt, Hans Melhuish, Chris Menabrea, Luigi Menzel, Randolph Milinski, Manfred Miller, David Miller, Stanley Minsky, Marvin Miramontes, Octavio Mitchell, Melanie Molier 9 Montague, Read Morgan, Augustus de Morgenster, Oskar Morris, Desmond Moulton, John Muldoon, Paul Murray, James Nash, John Neumann, John von Newell, Allen Newman, Max Newton, Izaak Newton-Smith, Bill Nilsson, Dan Noble, Denis Nowak, Martin Nunn, Trevor Ogawa, Sejio Oparin, Aleksander Iwanowicz Orgel, Leslie Orszag Ortvay, Rudolf Oughtred, William Packard, Norman Papert, Seymour Pascal, Blaise Pauling, Linus Pawłów Iwan P. Peirce, Charles Pelger, Susanne Penrose, Roger Penzias, Arno Pitagoras Pitts, Walter Planck, Max Platon Plaut, David Poincare, Henri Pol, van der Pomeau, Yves Ponnamperuma, Cyril Pope, Alexander Post, Emil Pour-El, Marian Prigogine, Ilya Prise, Michael Ramón y Cajal, Santiago Rapoport, Anatol Raup, David Ray, Thomas Real, Leslie Rebek, Julius Richards, Ian Richter, Charles Riolo, Rick Rolls, Edmund Rose, Steven Rosenblatt, Frank Ross, John Ruelle, David Rumelhart, David Russell, Bertrand Rutherford, Ernest Sacks, Oliver   Salmelin, Riitta Sanchez, Eduardo Schickard, Wilhelm Schrandt, Robert Schrodinger, Erwin Schuster, Peter Searle, John Sejnowski, Terry Selten, Reinhard Sepfauluzy, Gyorgli Sepkoski, John Shallice, Tim Shannon, Claude Shaw, Robert Shelley, Mary Sherrrington, Charles Sherrington, David Shor, Peter Showalter, Kenneth Sigmund, Karl Simon, Herbert Sims, Karl Singer, Wolf Skipper, Jakob Slotnick, Dan Smith, Adam Smith, John Maynard Spiegelman, Sol Sporn, Olaf Sober, Elliot Sole, Richard Steinbock, Oliver Steward, Simon Stibitz, George Stoppard, Tom Swade, Doron Swiercz, Stanley Swift, Jonathan Swinney, Harry Szekspir, William Szostak, Jacek Tabony, Jim Takens, Florens Tamames, Javier Tank, David Tanziego, Eugenio Tarski, Alfred Taylor, John Tenney, Edwin Terzopoulos, Demetri Thearling, Kurt Thiel, Larry Thodberg, Hans Thompson, Adrian Thompson, D'Arcy Tilman, David Todd, Stephen Toffler, Alvin Toffoli, Tommaso Tolkien, John Ronald Reuel Tolley, Frank Tononi, Giulio Tóth, Agota Traub, Roger Treves, Alessandr Trivers, Robert Tu, Xiaoyuan Turing, Alan Mathlson Tyson, John Ułam, Stanisław Usher, James Varela, Franciso Vecchi, Mario Verhulst Virasoro, Miguel Wahlstein, Doug Watson, James Weinberg, Ed Weinberg, Steven Werbos, Paul Wheelis, Mark Whitemore, Hugho Whittington, Miles Wiener, Norbert Wiesel, Torsten Wigner, Eugene Wilkes, Maurice Williams, Fredd Willshaw, David Winfree, Art Winograd, Terry Winslow, Rai Winter, Chris Wittgenstein Ludwig Woese, Carl Wolfram, Stephen Womersley, J. R. Young Zadeh, Lotfi Zaikin, Albert Zeeman, Christopher Zeki, Semir Zuse, Konrad Żabotyński, Anatolij Wstecz / Spis Treści WKŁADKA 1. Rozwiązania prostego równania nieliniowego, zwanego równaniem logistycznym. Rysunek przedstawia zmiany liczebności populacji z pokolenia na pokolenie w zależności od pewnych parametrów modelu. "Figury" geometryczne na pierwszym planie przedstawiają regularne, okresowe zmiany, natomiast tło odpowiada nieregularnym fluktuacjom (znanym również jako chaos). 2. Obrazy cyfrowe, przedstawiające Warunki początkowe do symulacji procesu uwadniania cementu za pomocą automatu komórkowego. (a) Dwuwymiarowy obraz otrzymały przez połączenie obrazu rentgenowskiego i obrazu uzyskanego za pomocą mikroskopu skaningowego. (b) Trójwymiarowy obraz komputerowy losowego rozkładu ziaren, Różne kolory odpowiadają różnym związkom chemicznym. 3. Komputerowe obrazy procesu uwadniania cementu, uzyskane za pomocą automatu komórkowego, (a) Uwodnieniu uległo 30% początkowej ilości cementu, (b) Uwodnieniu uległo 76% początkowej ilości cementu. Kolor żółty oznacza obszary, gdzie cement został uwodniony. 4. Przykłady obszarów (basenów) przyciągania jednowymiarowego automatu komórkowego, które stanowią podsumowanie typów zachowania, zilustrowanych na ryć. 4.4. Obszar przyciągania z lewej strony odpowiada pewnej prostej regule, jaka może wystąpić w automatach należących do I i II klasy Wolframa. Obszar przyciągania z prawej strony odpowiada złożonemu zachowaniu automatu należącego do IV klasy. Atraktory, oznaczone różnymi kolorami, znajdują się w środku każdej spirali. Każdy krok w czasie, na ryć. 4.4 przedstawiony w postaci poziomego paska, tu odpowiada jednemu z kolorowych punktów. W miarę upływu czasu punkty przesuwają się w kierunku atraktora, zgodnie z ruchem wskazówek zegara. Kształt obszarów przyciągania, a zwłaszcza złożoność ramion spirali, zależy od klasy automatu. (Białe punkty to tak zwane stany z Edenu, gdyż nie mają one poprzedników). [Obrazy zostały wykonane za pomocą programu Discrete Dynamics Lab Andy'ego Wuenschego, który można uzyskać sprowadzając zbiór ddlab.zip albo za pomocą ftp z katalogu ftp://alife.santafe.edu/pub/SOFTWARE/ddlab, albo przez WWW z http://alife.santafe.edu/alife/soft-ware/ddlab.html. 5. DNA. Obraz komputerowy (z lewej) i obraz uzyskany za pomocą skaningowego mikroskopu tunelowego. 6. Eksperyment Joyce'a - nienaturalny dobór cząsteczek RNA. Kolejne zdjęcia przedstawiają mutacje (zaznaczone liniami pionowymi) w poszczególnych punktach cząsteczki enzymu Tetrahymena. Po dwunastu pokoleniach w całym zbiorze analizowanych cząsteczek wystąpiły mutacje w czterech punktach (linie zielone). Należy zwrócić uwagę na pojawienie się i zanik czerwonych mutacji. Mutacje czerwone i dwie mutacje zielone wykluczają się wzajemnie. 7. Fala pobudzenia zainicjowana przez węzeł zatokowo-przedsionkowy. Kolejne obrazy przedstawiają wyniki symulacji komputerowych przeprowadzonych przez Raia Winslowa i Denisa Noble'a. 8. (a) Układy powstające w symulacjach przestrzennego dylematu więźnia, gdy w stanie początkowym był jeden "zdrajca". 8. (b) W symulacjach przestrzennego dylematu więźnia powstają różne układy, zależnie od zysku, na jaki mogą liczyć zdrajcy (parametr b). Jeśli dwaj partnerzy współpracują, obaj zyskują jeden punkt. Jeśli zdrajca wykorzystuje naiwniaka, otrzymuje b punktów, a naiwniak zero. Gdy zdrajca trafi na zdrajcę, obaj nic nie zyskują. Obrazy przedstawiają stan po 100 pokoleniach, dla b od 1,15 do w przybliżeniu 2,0. Kolor niebieski przedstawia naiwniaka, który w poprzednim pokoleniu również był naiwniakiem; czerwony - zdrajcę, który pozostał zdrajcą; żółty - zdrajcę, który był naiwniakiem, a zielony - naiwniaka, który był zdrajcą. Kolory żółty i zielony wskazują zatem, ile komórek ulega zmianie z pokolenia na pokolenie. 9. Ewolucyjny wyścig zbrojeń między gospodarzami i pasożytami w symulatorze Tierra. Obrazy uzyskane za pomocą programu Artificial Life Monitor (Almond) Marca Cygnusa. Każdy pasek odpowiada jednemu stworzeniu, przy czym kolor oznacza długość genomu (np. czerwony = 80, żółty = 45, niebieski = 79). (1) Gospodarze (kolor czerwony) są bardzo rozpowszechnieni. Pojawiły się pierwsze pasożyty (kolor żółty), ale jest ich niewiele. (2) Liczba pasożytów jest bardzo duża. Pojawili się pierwsi gospodarze uodpornieni na pasożyty (kolor niebieski). (3) Teraz pamięć komputera zdominowali uodpornieni gospodarze, a liczba pasożytów i nie uodpornionych gospodarzy maleje. (4) Pasożyty wkrótce wyginą. 10. Sztuczne ryby. Komuterowe symulacje pozwalają stworzyć realistyczne obrazy zachowania różnych zwierząt. 11. Ewolucyjna sztuka Williama Lathama. 12. Komputerowe obrazy Karla Simsa, uzyskane za pomocą metod programowania genetycznego. 13. Ewoluujące stworzenia Karla Simsa. Sims nie określa z góry celu ewolucji, takiego jak opanowanie sztuki chodzenia, lecz organizuje rywalizację między sztucznymi stworzeniami. W jednym z eksperymentów dwa stworzenia walczyły o zielony sześcian. Stworzenie na pierwszym planie usiłuje przesunąć sześcian poza zasięg ramion konkurenta. Sims stwierdził, że stworzenia z niewielkimi, klockowa-tymi kończynami nie zawsze przegrywają w walce z większymi stworzeniami, mającymi większy zasięg. W miarę jak wskutek ewolucji zmienia się strategia działania poszczególnych stworzeń, pojawiają się różne "sprytne" taktyki - stworzenia "kopią" sześcian na bok lub atakują przeciwnika.