Stanisław Lem Tajemnica Chińskiego Pokoju Jerzy Jarzębski Rozum ewolucji i ewolucja rozumu Tytuł mego szkicu jest oczywiście ukłonem w stronę autora książki, który opublikował kiedyś pasjonujący esej Etyka technologii i technologia etyki. Jest widać coś w myśli Stanisława Lema, co prowokuje takie stające łatwo na głowie formuły. Jego najnowsze eseje, publikowane w „PC Magazine”, złożyły się niepostrzeżenie w tom ważki nie tylko z racji czysto fizycznej objętości. Zrazu zdawały się jedynie aneksem dopisywanym do powstałej przed z górą trzydziestu laty Summa Technologiae, aneksem, w którym autor rad prezentował się czytelnikowi jako fortunny prorok dalszego rozwoju ludzkiej wiedzy i technicznych sprawności. Tak też było: Summa zdaje się dziś dziełem, które — zamyślane jako proroctwo długodystansowe i śmiałe aż do obrazoburstwa — znalazło się po trzech dekadach w samym centrum najbardziej aktualnej naukowej i konstruktorskiej praktyki. Na starcie Lemowych rozważań dzisiejszych jest zatem (dość triumfalnie brzmiące) zestawienie dawnych pomysłów i rachub z dzisiejszym stanem zaawansowania wiedzy. Ale gdyby się na tym kończyło, Tajemnica chińskiego pokoju nie byłaby książką tak pasjonującą. Rzecz w tym, że wraz z upływem lat i ewolucją nauki sytuacja autora prognoz zdecydowanie się zmieniła. W roku 1964, kiedy ukazywało się pierwsze wydanie „Sumy”, Lem był przede wszystkim wziętym pisarzem science–fiction i autorem esejów popularyzujących wiedzę ścisłą, który, ni stąd, ni zowąd, dokonał niejako fuzji tych gatunków, zaglądając daleko w przewidywaną przyszłość technologii. Ten skok w przyszłość na tle ówczesnego stanu wiedzy wyglądał na rojenie jeśli nie zupełnie dowolne, to przynajmniej obarczone nadmiernym w oczach współczesnych gustem do fantazjowania i sztukowania rzeczywistości nieuleczalnym wishful thinking. Książki tamtej — choć czytano ją chyba z większą powagą i uwagą niż autor chce dziś pamiętać — nie przymierzano tak bezpośrednio do „stanu badań” i bieżących odkryć. Była pustą matrycą do wypełnienia, projektem w przeważającej mierze abstrakcyjnym, któremu wolno skrywać w sobie różne na pozór szalone pomysły. Dziś — gdy tak wiele przewidywań Lema się sprawdziło, a uczeni z Niemiec czy USA przyznają wręcz, że korzystają z jego inspiracji — autor „Sumy” czuje na sobie ciężar daleko większej niż wprzódy odpowiedzialności. Tym ona poważniejsza, że twierdzenia Lema weryfikuje życie i z dnia na dzień realizowane produkty takiej czy innej (genowej, informatycznej) inżynierii. Pierwsza i zasadnicza różnica pomiędzy „Sumą” a Tajemnicą chińskiego pokoju polega więc na tym, że sądy pierwszej formułowano we względnie pustej przestrzeni hipotez i modeli, podczas gdy sądy drugiej wygłaszane są wśród zgiełku powstającego nieuchronnie w centrum powszechnego zainteresowania, wobec sprawozdań z badań eksperymentalnych, a nawet sygnałów z rynku, na którym żyć poczynają ocierające się wcześniej o fantastykę pomysły. Jak to wpływa na dyskurs samego Lema? Powiedzmy najpierw, że coraz większą rolę odgrywa w nim wątek etyczny. W Summa Technologiae frapowało ujęcie technologii jako bytu w jakiejś mierze samoistnego, rozwijającego się niezależnie od człowieczej woli, choć w oparciu o substrat, jaki dlań tworzą ludzkie dążenia do poznania i opanowania świata. Technologia ewoluowała podług tej wizji na podobieństwo genetycznego kodu, a zatem nie poddając się łatwo moralnym osądom. W Tajemnicy chińskiego pokoju projekt technologii przyszłej, będący wcześniej abstrakcją, staje się nagle treścią codziennego życia jednostek i społeczeństw, a sama technologia wchodzi w skomplikowaną rzeczywistość końca wieku, pojawia się w domach przeciętnych ludzi w postaci Internetu, produktów inżynierii genetycznej, prymitywnych jeszcze urządzeń „fantomatyzujących” itd. A zatem to, co w ujęciu generalnym stanowi zjawisko „obiektywne” i nieuchronne niczym prawo przyrody — w kontekście praktyczno– życiowym wzbudzać może silne negatywne emocje. Trudno i darmo: ludzie ze swoich wynalazków robią zazwyczaj zły użytek; zamiast dążyć do realizacji najwyższych ideałów, narzędziami wysoce zaawansowanej techniki posługują się w celu zaspokojenia prymitywnych popędów. Można nad tym biadać, piętnować etc, ale nic zapewne z tego nie wyniknie. Człowiek jest bowiem istotą ufundowaną na dziwacznej antynomii — i ten aspekt jego natury stanie się dla Lema odskocznią do bardzo skomplikowanych i rozbudowanych roztrząsań. Punkt wyjścia tych rozważań to próba porównania intelektu ludzkiego i maszynowej „sztucznej inteligencji”. Tytuł pierwszego rozdziału książki sygnalizuje, że natchnieniem dla autora był osiemnastowieczny traktat La Mettrie’go Człowiek maszyna. Ale w wersji Lema zamiast równoważności mamy koniunkcję: człowiek nie jest maszyną; istnieje obok niej i na zupełnie innych zasadach. Człowiek nie jest też spójną całością: rozdziera go nieuleczalny dualizm, swoista nieuzgadnialność materialnego substratu i rodzącego się w nim myślenia, wciąż nie w pełni znanego ciała i może jeszcze bardziej niepochwytnej świadomości. Mamy więc co najmniej trzy niezbyt dobrze przystające do siebie elementy: człowieka jako niezmiernie złożony produkt biologicznej ewolucji, człowieka jako myślącą, uwikłaną w kulturę świadomość, która w sposób nie do końca zrozumiały i poznany rodzi się z procesów zachodzących w biologicznym ciele — i wreszcie produkt technologii: maszynę, która może wykonywać operacje natury intelektualnej w sposób przez konstruktorów zaprojektowany i w zgodzie ze swym mechanicznym, funkcjonalnym schematem. Rozważania Lema poświęcone są przede wszystkim poznawczym kłopotom, które pojawiają się w momencie, gdy zechcemy owe trzy elementy do siebie wzajem sprowadzić, tłumaczyć jeden poprzez drugi, względnie imitować w jednym procesy, które w drugim zachodzą. Te kłopoty są natury trojakiej: filozoficznej, naukowej i praktyczno–inżynierskiej. Filozof pyta, co to znaczy, że w mózgu powstaje ludzka, jednostkowa świadomość, i czy istnieje ona w ten sam sposób, w jaki istnieje jej materialne podłoże, czy jakoś zupełnie inaczej. To jest zresztą dylemat, jaki zadał filozofii nowożytnej jeszcze Kartezjusz i choć Lem światopoglądowo bliższy jest zapewne materialiście i moniście La Mettrie’mu, to przecie wywiedzenie bezpośrednie procesów psychicznych z przebiegu prądów elektrycznych w korze mózgowej przekracza zarówno jego, jak i czyjekolwiek dzisiaj możliwości. Monizm materialistyczny — owszem, ale pozbawiony właściwego encyklopedystom i tylu ich następcom optymizmu poznawczego ponad stan posiadanej wiedzy. I ze świadomością, iż materia może porządkować się w nieprzenikliwe wzajem ontologiczne poziomy lub całe ich hierarchie. Ta ostatnia hipoteza silniej zresztą dała o sobie znać w Lema beletrystyce. Nie koniec tu zdziwień filozofa: silnie zakorzeniony w myśli europejskiej schemat neoplatoński, podług którego duch ludzki stoi nieporównanie wyżej na drabinie bytów od prymitywnego ciała, ulega tu znamiennemu odwróceniu: to właśnie ciało — produkt doskonalącego się genetycznego kodu — objawia zawrotną komplikację i „mądrość”, do której daleko jeszcze raczkującemu umysłowi jednostki ludzkiej. Jeśli coś tu zdumiewa, to raczej masywna dysproporcja pomiędzy wyrafinowaniem biologicznych urządzeń, które sterują każdym życiem, a niezmierzonym mozołem, jakiego trzeba, by na tym podłożu zrodziła się jakoś tam, kulawo, rozumiejąca świat i siebie samą świadomość. Przychodzi tu wciąż odruchowo na myśl Lemowy Elektrybałt z Cyberiady, który — przyjąwszy postać góry elektronicznych urządzeń nafaszerowanych całą mądrością wieków — umiał zrazu tylko wykrztusić, że „życie jest straszne”. Czy rozum jest zatem koroną Stworzenia, czy ubocznym, niedoskonałym produktem ewolucji genetycznego kodu — oto pytanie raczej dla filozofa niż dla uczonego. I — choć Lem pośrednio wciąż je zadaje — nie widzę na nie definitywnej odpowiedzi. Do sfery zmartwień uczonego należy z kolei rozstrzygnięcie problemu, czy maszyna „myśli” — tyle że nieco prościej i bardziej prymitywnie od człowieka — czy na odwrót: jej czynności są zupełnie innej natury i nawet wielokrotnie spotęgowane przez rozwój techniki komputerowej pozostaną czymś całkowicie do myśli ludzkiej niepodobnym. To bodaj centralny problem książki, stawiany wciąż od nowa w rozmaitych kontekstach. Odpowiedź brzmi ostrożniej niż przed laty: to prawda, że maszyny są już coraz bliżej sytuacji, w której człowiekowi z najwyższym trudem przyjdzie złamanie sławetnego „testu Turinga”, tzn. ustalenie, że nie z innym człowiekiem rozmawia, lecz z mechanizmem. Nie wygląda jednak, aby dało się w przewidywalnej przyszłości skonstruować sztuczną inteligencję dysponującą świadomością, poczuciem ,ja” i aktami podmiotowej woli. Komputer — choć w niektórych zakresach „myśli” nieporównanie od człowieka sprawniej, w innych wciąż mu ustępuje i zwiększanie mocy obliczeniowej tego rozziewu nie zlikwiduje, chodzi bowiem o różnicę natury jakościowej, ufundowaną w dodatku na daleko posuniętej odmienności materialnego podłoża myślowych operacji. Autor Cyberiady przyzwyczaił nas do żartobliwych wydziwiań nad czysto materialną niedoskonałością istot „rozlewnych, miękkich, ciastowatych i wodnistych” w zestawieniu z perfekcją metalowo–krystalicznych robotów, które samo tworzywo zda się predestynować do przyjmowania w siebie elektrycznej inteligencji. Włóżmy to między bajki: to właśnie w środowiskach wodnych roztworów czy zawiesin — powiada dziś Lem — procesy przetwarzania informacji zachodzą najbardziej efektywnie. A zatem biologiczne ciało człowieka nie jest wcale — jako siedziba myśli — „gorsze” od mikroprocesorów: działa po prostu inaczej, a konstruktorzy nadal powinni uczyć się od natury. Możemy tu spytać, po co właściwie człowiekowi te zapasy z oporem tworzywa, po co namiętne pragnienie skonstruowania inteligencji antropomorficznej, czemu nie poprzestanie na komputerze jako maszynie wspomagającej tylko uczonych swą mocą obliczeniową? Można rzec, iż uzasadnienie tych starań jest co najmniej dwojakiego typu: pierwsze jest natury filozoficznej — to po prostu badanie granic ludzkich możliwości, próba wydarcia Bogu kolejnych prerogatyw i ustanowienie w oparciu o to jakiegoś nowego obrazu świata. Starania konstruktorów sztucznej inteligencji stoją więc całkiem blisko wysiłków, jakie genetycy poświęcają ostatecznemu rozłamaniu kodu dziedziczności i uzyskaniu nieograniczonego wpływu na kształtowanie nowych biologicznych istot. Jedni i drudzy majstrują przy czymś, co w dotychczasowej kulturze zwykło się uważać za domenę Demiurga, a zatem wyniki ich działań wpływać mogą bezpośrednio na ludzkie wierzenia i światopoglądy. Wiedza tutaj zdobywana nie jest zbyt radosna, ciąży bowiem na niej nieuchronnie lęk przed konsekwencjami nowych odkryć, przed podważeniem etycznego porządku ludzkiej cywilizacji. Uczniowie czarnoksiężnika posuwają się jednak dalej — bo już nie można się cofnąć! Ale pomyliłby się ktoś sądzący, że mamy tu do czynienia wyłącznie z zabójczym automatyzmem odkrywania „wszystkiego, co jest do odkrycia”. W gruncie rzeczy sztuczna inteligencja staje się czymś upragnionym tam, gdzie w tempie wykładniczym rośnie góra głupiej, nieważnej, nieistotnej informacji — niczym Himalaje zalewających nas odpadków. Jednym z leitmotivów eseistyki Lema w ostatnich latach jest dezaprobata dla informacji nie selekcjonowanej, atakującej nas poprzez komputerowe sieci i anektującej umysły. Ludzkość widziana z tej perspektywy przypomina zbójcę Gębona z Cyberiady, osiodłanego przez „demona drugiego rodzaju”, produkującego bez wytchnienia sterty komunikatów sensownych tylko językowo, choć doskonale bezużytecznych. Byłażby więc komputerowa inteligencja antidotum na rozplenioną po całym świecie komputerową głupotę? Odpowiedź musi być sceptyczna, nie wiemy bowiem ani — czy uda się maszynie nadać cechy intelektu ludzkiego (co oznaczałoby w terminach potocznych „mądrość” zamiast obliczeniowej sprawności), ani — czy ów maszynowy intelekt zechce człowiekowi służyć tak, jak on to przewidział. Można jedynie sądzić, że dalsze prace w tym obszarze nauki odbywać się będą — bo akurat wszystkie poznawcze zdobycze, jakie na tym przyczółku są do osiągnięcia, zasadniczo wpływają na nasz obraz świata i rozumienie sensu ludzkiej egzystencji. W Tajemnicy chińskiego pokoju ani trochę mniej mamy więc tajemnic niż we wcześniejszej Summa Technologiae. Rozwiązanie jednej zagadki rodzi bowiem natychmiast nowe — taki już los każdego prawdziwego dociekania w świecie nauki. Książka, którą trzymamy w ręku, potwierdza jednak w całej rozciągłości te intuicje Lema, które podpowiadały mu przed laty zajęcie się z jednej strony cybernetyką, informatyką, konstruowaniem „sztucznego myślenia”, a z drugiej — genetyką i teorią ewolucji. Rzeczywiście w tych dziedzinach dokonał się bodaj największy, najbardziej spektakularny skok ludzkiej wiedzy — i one też przyniosły nam zagadki najbardziej pasjonujące i najbliżej związane z pytaniem podstawowym — o kondycję człowieka i Wszechświata, ich naturę i wzajemne relacje. Cóż się zmieniło w podejściu Lema do tych problemów na przestrzeni ostatnich trzech dekad? Dostrzegam przede wszystkim jedno: autor „Sumy”, który uprzednio kreślił niemal nieograniczone wizje rozwoju ludzkiej technologii — dziś mówi o tym z nieporównanie większą ostrożnością. Na to miejsce pojawiła się u niego fascynacja mechanizmami ewolucji naturalnej, podziw dla perfekcji jej rozwiązań, dla finezji biochemicznych reakcji stojących u podstaw życia. Nie jest to zapewne rewolucja światopoglądowa: Lem pozostaje wciąż w gruncie rzeczy pisarzem zapatrzonym w historię, w jej przebieg i prawidłowości. W każdej niemal spośród napisanych przezeń książek znajdziemy dowody na jego głębokie zainteresowanie dla rozmaitego rodzaju procesów ewolucyjnych, które nakładają się na siebie, interferują, odbijają się w sobie wzajem. Oto w samej rzeczy teren, na którym nie może spełnić się nigdy proklamowany przez Fukuyamę „koniec historii”, tzn. kres myślenia o czasie w kategoriach „postępu”, „ewolucji”, „zmierzania do celu”. Taką koncepcję czasu organizuje wpierw wizja ewolucji naturalnej, jako sfery postępu obiektywnego i mierzalnego, choć zapewne nie nakierowanego na żadne — poza reprodukcją genetycznego kodu — zwierzchnie cele. Teleologię wprowadza tu myślenie ludzkie — zawsze skierowane naprzód, ku abstrakcji jakichś stanów przyszłych, upragnionych lub budzących lęk. W Lema wizji historycznego czasu dostrzegam obydwa te bieguny, tzn. widzenie przemian zachodzących w świecie raz pesymistycznie — jako bezkierunkowego dryfu wiodącego ku nieznanym katastrofom, innym razem bardziej optymistycznie — jako procesu w pewnej mierze przewidywalnego, nad którym człowiek w coraz większej mierze panuje. W ostatnich latach wszelako pierwsza z tych dwu wizji zdaje się u Lema przeważać. W Summa Technologiae, książce z zasady optymistycznej, choć niełatwej miejscami do zaakceptowania z punktu widzenia tradycyjnych wartości humanizmu, ewolucja biologiczna znajdowała stosunkowo prędko przedłużenie w ewolucji cywilizacji technicznej, czy wręcz na koniec — w samodzielnym rozwoju wyzwolonego z uwikłania w biologię rozumu. Dziś Lem przerzuca w dalszą przyszłość datę „prześcignięcia natury” przez sztuczne twory techniki, może też coraz silniej wątpi, czy ewolucja na tych polach da się przedstawić w postaci jednoliniowego wykresu, tzn. po prostu — czy maszynowa inteligencja będzie kiedykolwiek i w jakimkolwiek sensie „kontynuacją” rozumu ludzkiego. Podobnie ostrożne wypowiedzi formułuje na temat szans wspomagania biologicznych mózgów przez tzw. brain chips, co stanowi dość chytry sposób na ominięcie dualizmu myślenia „maszynowego” i biologicznego. Czy oznacza to całkowite wycofanie się z optymistycznych idei ożywiających Summa Technologiae? Niekoniecznie. Po prostu od nieco abstrakcyjnych, wybiegających w przyszłość projektów nowej technologii Lem przeszedł do praktycznych roztrząsań nad możliwościami zastosowań swoich własnych idei. Cóż dziwnego, że pierwsze, z czym się spotkał, to opór tworzywa? Obok tego normalnego oporu stawianego przez materię świata jest jednak jeszcze inny opór, który pokonać niełatwo: to opór stawiany przez ludzi. Nowe technologie nie tyle zresztą odrzucane są przez konserwatywne jednostki, co właśnie akceptowane — wątpliwości budzi dopiero użytek, jaki z nich robi współczesna nam cywilizacja. Można więc przeprowadzać krytykę działającej ślepo ewolucji naturalnej — ale ona wybroni się zawsze zawrotnym mistrzostwem swych rozwiązań, można krytykować niedoskonałość technologii — ta jednak rozwija się szybciej niż kiedykolwiek w dziejach, nadrabiając szybko opóźnienia i ucząc się na błędach. Najgorzej w tym zestawieniu wypada ludzki intelekt, a szczególnie ten (nie)rozum zbiorowy, którym kierują się społeczeństwa, narody, środowiska konsumentów itd. O ile więc milczącym założeniem Summa Technologiae zdawało się być przeświadczenie, iż kultura ludzka rozwijać się będzie w przyszłości w miarę harmonijnie, tzn. że społeczeństwa będą umiały wchłonąć nowe odkrycia technologii z pożytkiem dla siebie, o tyle Tajemnica chińskiego pokoju to sprawozdanie ze świata rzeczywistego, takiego, w którym technologiczne innowacje pojawiają się wśród ludzi nie przygotowanych na ich przyjęcie, powodując okaleczenie psychiki jednostek i trudne do przewidzenia zmiany w organizacji życia zbiorowego. Czy ludzkość sobie z tym poradzi? Załóżmy ostrożnie, że tak. Jeśli coś budzi w książce Lema nadzieję, to niesłychane możliwości tkwiące w biologicznej naturze człowieka, a także godna podziwu dalekowzroczność ewolucyjnych rozwiązań, które radziły sobie dotychczas tylekroć z radykalnymi zmianami środowiska i trybu życia istot projektowanych przez genetyczny kod. Może więc raz jeszcze cierpliwa biologia zniesie to, co jej gotuje skłonny do aberracji intelekt i jego wykwit — technologia? Może też kultura — działająca na dłuższą metę na podobieństwo biologicznych homeostatów — zdoła wchłonąć innowacje i odzyskać na powrót równowagę? Z punktu widzenia uwikłanego w aktualność dyskursu Lema jeszcze tego nie widać. Autor książki daje nam w zamian wgląd w takie konsekwencje ludzkiego poznania i technologii, które powodują rozjątrzenie do białości najbardziej zasadniczych kwestii naukowych, ontologicznych i etycznych. Myślenie wraz z Lemem i na jego warunkach nie obiecuje zatem ukojenia egzystencjalnych i poznawczych niepokojów, jest jednak myśleniem „dla dorosłych”, tzn. nie ukrywającym kłopotów, nie tuszującym antynomii i nie obiecującym żadnej świetlanej przyszłości. Zapewne tylko tak godzi się dzisiaj mówić o perspektywach technologicznych piekieł i rajów. Człowiek i maszyna 1 Człowiek–maszyna to było dzieło francuskiego filozofa–materialisty La Mettrie, napisane w połowie XVIII wieku. Nie ulega wątpliwości, że zarówno zwolenników, jak przeciwników podobnie skrajnego rozpoznania ludzkiej natury znaleźlibyśmy i dziś. Innymi słowy, mówiąc bardziej współcześnie, spór zostałby dopiero wtedy rozstrzygnięty, gdybyśmy potrafili zbudować maszynę równoważną człowiekowi. Ale co to znaczy „równoważną” człowiekowi? Nasze podobieństwo do innych żywych stworzeń właśnie w sferze cielesnej jest niewątpliwe: człowiek to przecież żyworodny ssak, opatrzony narządami, które się w bardzo skromnym stopniu różnią od narządów i od całościowej fizjologii innych ssaków: różni nas od nich wszystkich umysł, a więc mózg. 2 Jak łatwo może się domyślić Czytelnik, tymi nieco zamglonymi słowami zbliżam się do całkowicie już współczesnego pytania, które postawił około pół wieku temu angielski matematyk Alan Turing: czy możliwe jest skonstruowanie takiego „automatu skończonego” (komputery są takimi automatami jako jedna z gałęzi informatycznego drzewa, wyrosłego z ziarna cybernetyki), którego nie dałoby się w rozmowie odróżnić od człowieka? Niezliczone razy uczestniczyłem, głównie w byłym Związku Sowieckim, w latach sześćdziesiątych, właśnie w takich dyskusjach i zażartych sporach, w których problem ów usiłowano rozgryźć. Jak wiadomo, programy (software) zdolne prowadzić pewne typy rozmów z człowiekiem już istnieją. Jednakowoż każdy taki program, który symuluje rozumnego rozmówcę, można prędzej czy później „zdemaskować”. Sposobem najprostszym, na który (nie wiem czemu) jakoś nikt albo omal nikt nie wpadł, byłoby opowiedzenie niewiadomemu dyskutantowi dowolnej historyjki, np. anegdoty, dowcipu i żądanie, ażeby opowiedziane po chwili własnymi słowami powtórzył. Maszyna najłatwiej jeszcze powtórzy wszystko literalnie: normalny człowiek dlatego nie jest w odtwarzaniu narracji precyzyjny, ponieważ nie tyle TEKST złożony ze słów zapamiętuje, ile SENSY, a to znaczy, że opowiedziane rozumie. I oto stajemy przed rzeczywistym dylematem: czy i w jaki sposób moglibyśmy przekonać się o tym, że maszyna „komputer” rozumie cokolwiek — podobnie jak człowiek? Należy zważyć wstępnie, że „rozumienie czegokolwiek” posiada swoje liczne poziomy i rodzaje. Pies w pewnym sensie „rozumie”, do czego bierze się jego pan, gdy widzi, jak ów pakuje walizki: ponieważ już to widział i „wie”, że szykuje się jakaś podróż. Ale nawet mucha „wie”, co grozi jej od klapki, którą wymachuje zniecierpliwiony jej natręctwem ten, komu ona przeszkadza. Sposobu, w jaki różne rodzaje „wiedzy” różnią się od siebie w równie odmiennych sytuacjach, nie da się prościej wyjaśnić, aniżeli odwołując się do „instynktów”, których ekstremalnym reprezentantem będzie instynkt samozachowawczy i tutaj od razu trafiamy w sedno rzeczy. Mianowicie żaden najdoskonalej grający w szachy albo tłumaczący teksty naukowe, albo informujący o chorobach, ba, stawiający ich rozpoznania wedle wyników badań komputer nie będzie próbował uniknięcia ciosu młotkiem czy kilofem, żaden bowiem nie wykaże „instynktu samozachowawczego”, dookoła którego są „obudowane” wszystkie typy wszelkich żywych stworzeń (z wyjątkiem roślin). To bowiem, co nie próbowało ani pożreć, ani uniknąć pożarcia, w toku miliardoletnich ewolucyjnych procesów zginęło; i tylko skutecznie zjadający albo skutecznie umykający ostali się przy życiu. 3 Co prawda, jakąś postać „instynktu samozachowawczego” dałoby się komputerowi wprawić: jednakowoż podobny zabieg nie przybliża nas do rozstrzygnięcia dylematu. Douglas Hofstadter w swojej grubej, zabawnej i ciekawej książce Metamagical Themes opisuje przygodę, kiedy to miał odróżnić człowieka od maszyny, przy czym na końcu okazało się, że rozmawiał z kilkoma studentami, TAK odpowiadającymi na jego indagację, ażeby zbić go z pantałyku. Jakoż kiedy już myślał, że z komputerem rozmawia, rzeczywistość mu objawiono. Więc jakże? W postaci najbardziej prymitywnej sprawa tak się przedstawia, jak ją opisałem w Summa Technologiae ponad trzydzieści lat temu. Napisałem, że można dokonywać kolejnych a zarazem doskonalonych robót konstruktorskich (dziś bym rzekł „programowań”), zastępując komputery „zdemaskowane” odmianami doskonalszymi w symulacji, a może doszłoby się do takiego modelu, którego już od człowieka w rozhoworach odróżnić nie sposób. 4 Między innymi nawet na powtarzanie opowiedzianego znalazłby się wytrych. Mianowicie maszyny segregujące (np.) artykuły naukowe są tak programowane, ażeby rozdzielać teksty wedle „słów–kluczy”. Jeżeli częstość występowania słów takich jak „osocze krwi”, albo „hemofilia”, albo „błona komórkowa” pewien próg przekroczy, tekst najpewniej należy do stref medycyny, a może (szerzej) biologii. Jeżeli w nim się „kwarki” czy „nuklidy” pojawiają — wiadomo, dokąd go przytroczyć. Więc postępując tym zrazu bardzo prymitywnym i nic „nie rozumiejącym” sposobem, można poduczać maszynę, ażeby odpowiedziała i żeby repetycja podanego jej tekstu była „szkieletowo” — gramatycznie, leksykograficznie i stylistycznie nawet bliska opowiedzianemu, ale żeby jednak nie pokrywała się z opowiedzianym co do słowa. Więc i tu można uczynić maszynę zręcznym „oszustem”, udającym żywego dyskutanta i na tym etapie zjawia się problem następny. 5 Mianowicie nie musimy zajmować się wyłącznie zagadkowym interlokutorem: możemy pytać o to, JAKI CZŁOWIEK maszynę testuje. Albowiem największy pijak i tuman nie będzie równie sprawnym ekspertem dyferencjacyjnym, co człowiek z dyplomem wyższej uczelni — czy literat albo jakiś nadzwyczajny geniusz. 6 Zresztą zadanie postawione przez Turinga mocno się odmieniło wskutek tego, że właściwie dzisiaj o możliwościach fakultatywnych komputera wiemy więcej aniżeli o tym, w jaki sposób nasz mózg działa. Moim zdaniem, opartym nie tyle na lekturach z zakresu neurofizjologii, ile na własnym doświadczeniu introspekcyjnym, mózg jest złożony z dużej liczby podzespołów, połączonych między sobą dla współpracy w sposób, który zarówno ma służyć optymalizowaniu wyników informacjoprzetwórczych, jak zarazem odzwierciedla niebywale długą historyczną (ewolucyjną) drogę, jaką mózg przeszedł w tysięcznych generacjach zwierząt, a na ostatku hominidów, zaś już u mety u nas. Niejaką zależność świadomości (boję się tego terminu) od stanu mózgu poznaje człowiek starzejący się bardziej wyraziście aniżeli człowiek młody, o umyśle w pełni sprawnym. Zdarza się mianowicie takiemu starzejącemu się, jak ja, że np. zapomni imię dobrze mu znanego uczonego, powiedzmy Prigogine’a albo Plancka. Wysiłek przypomnienia sobie (czegokolwiek) jest prawie nie do zrelacjonowania. Na ogół zresztą okazuje się daremny, ale widocznie jałowo pracująca „świadomość” uruchamia jednak jakieś mechanizmy z wydziału information retrieval, bo prawie zawsze, prędzej czy później, czasem po parunastu sekundach, czasem nazajutrz, poszukiwany termin (tu: imię) „wypływa” z odmętu niepamięci. Jak został odszukany — nie mam pojęcia i na razie nikt mi tego wyjaśnić nie będzie w stanie. W każdym razie widać stąd jedną stronę zawodności władania zasobem informacji zmagazynowanej w umyśle, a z drugiej strony człowiek zajęty mocno umysłową pracą (albo sklerotyk) dużo czasu trawi i marnuje na poszukiwanie okularów, gazety, książki, listu — ponieważ odkładanie, chowanie, pozostawianie „gdziesik” zachodzi POZA obrębem zapamiętywanych czynności, które świadomość POWINNA włożyć przynajmniej do przegródki „pamięci krótkotrwałej”. A te nieświadomie i bezpamiętnie dokonywane czynności bywają nieraz „sensowne” i koherentne, tj. nie musi iść zaraz o chowanie skarpetek w lodówce czy lodów w szufladzie. Bywa to jednak dość — jak powiadamy — „bezmyślne”, podobnie jak behawior epileptyka, zapadającego na tak zwane petit mai, co oznacza momentalne, krótkie „wyłączenie” świadomości, przy czym ono MOŻE zostać przez obecnych obserwatorów dostrzeżone albo i nie, gdyż czasem „lukę świadomości” zapełnia czynność przez chwilę automatycznie kontynuowana. Tak zatem zamiast się do rozszyfrowania „istoty świadomości” przybliżyć, ażeby (między innymi) podejść do kwestii jej symulowania, znajdujemy na tej drodze nowe przeszkody. Wykrycie zaś podzielności mózgu dzięki przecinaniu Corpus callosum, wielkiego spoidła, łączącego dwustu milionami włókien neuronowych obie półkule mózgu, oraz spowodowane tym zabiegiem niejakie „rozszczepienie” umysłu na prawie niezależną parę „umysłów”, rzecz w ostatnich latach dziwnie skomplikowało. Nie wiadomo (znów) czy i dlaczego mózg mamy dwudzielny, czy wynikło to na skutek powstałej przed wieloma milionami lat dwudzielnej symetrii ciał wszystkich tych zwierząt, co nas poprzedziły (czyli mamy do czynienia ze schedą bardzo starych „ewolucyjnych rozwiązań”, wleczonych przez wieki wieków), czy też raczej ze współpracą układów neuronowych, mózg tworzących, która to współpraca i dziś jest optymalna. Ja bym się jednak opowiadał za wersją pierwszego wytłumaczenia, ale nijakiego dowodu na jej prawdziwość przytoczyć nie potrafię. 7 Zdaje mi się, że krętą ścieżyną wywodu doprowadziłem problem do zwiększonego zmętnienia. Wydaje mi się mianowicie, iż test Turinga, w tak znacznej mierze zależny od akceleracji i sprawności hardware i software staje się coraz mniej pewnym dyferencjatorem Człowieka i Maszyny. Przy tym zachodzi pytanie, bardziej może zajmujące filozofów aniżeli ekspertów–informatyków: na jakie licho jest nam właściwie potrzebna maszyna, tak znakomicie symulująca człowieka, że w jej zachowaniu językowym od człowieka nieodróżnialna? Przecież jest oczywiste, że ewolucja komputerów wraz z ewolucją programów od umysłowości naszej nie tylko i nie po prostu się ODDALA, ale jednocześnie wkracza, i to na rosnącą skalę, w obszary umysłowi człowieka w ogóle niedostępne. To, czego ani digitalnie, ani intuicyjnie, rozumiejąco w przestrzeni konstruktorstwa imaginacyjnego sami nie potrafimy symulować, komputery potrafią. Mózg nasz, dzięki historii swojego powstania, odziedziczył i rozwinął życie afektywne, te wszystkie rodzaje ujemnych i dodatnich emocji, stresów, uczuć, uciech, cierpień, smutków, radości, rozkoszy, boleści, które „bezświadomemu bytowaniu” komputerów pozostają totalnie obce, bez których komputer obejść się MUSI, bez których — jak twierdzi neurofizjolog — nigdy komputer naśladować człowieka w jego bytowaniu świadomym nie będzie w stanie. 8 Co do tego, że teraz tak jest, oczywiście, zgoda. Czy tak będzie zawsze — nie wiem, i to z kilku powodów, z których nie wszystkie zapewne uda mi się tutaj wyłuszczyć. Strefa oddziaływania psychiki naszej na procesy toczące się w naszym organizmie jest bez wątpienia ogromna i nie wiadomo, gdzie przebiegają nasze granice. Wiemy już na przykład, że nawet tkanka, nad którą ciało ludzkie władzy nie ma, „tkanka zbuntowana”, anarchistyczna, więc nowotworowa wprawdzie SAMA nie podlega wpływowi mózgu, ale obrona przed nią organizmu od stanu, w jakim znajduje się umysł chorego, wyraźnie zależy. Zdeprymowani stawiają ciałem opór słabszy aniżeli ci, co żyć chcą, potrafią chcieć i tym samym opór stawiają znaczny zagrożeniu śmiertelnemu. W depresji umysłu natomiast wszystkie funkcje ciała więdną i słabną, a w pobudzeniu się potęgują: stąd pochodzi krąg schorzeń cyklofrenicznych (więc typowa dla tego kręgu naprzemienność depresji i pobudzania maniakalnego). I to o tyle nie jest ze wszystkim od rzeczy, że program, pozwalający komputerowi symulować inną chorobę umysłową — paranoję mianowicie — został stworzony już dość dawno temu. Poza życiem uczuciowym, którego „potrzeba” jest dla nas w jakiś trudno wytłumaczalny sposób oczywista, jesteśmy poddanymi władzy Morfeusza: trzecią część życia przebywamy, czy jak ktoś by chciał, „marnujemy”, we śnie. Na pytanie: PO CO jest nam sen, a w szczególności „czemu służy” senne marzenie, nie ma jedynej wyraźnej odpowiedzi do dzisiaj i dlatego właśnie (ponieważ pada odpowiedzi różnych wiele) NIC pewnego w kwestii owej nie wiadomo. Bez snu człowiek obejść się przez czas nieco dłuższy od tygodnia właściwie nie może. Natomiast komputery nie śnią i „potrzeby” takiej nie zdają się okazywać. Cóż i to znaczy? 9 Zdaje mi się — chcę się wypowiadać z przezorną ostrożnością — że zdany pozytywnie test Turinga — rozumiem przezeń nierozróżnialność człowieka od maszyny w najdłuższym nawet „egzaminie” — nie wyjaśni wcale, czy maszyna ma świadomość, czy nie. Kwestię tę zresztą (rzekło się) roztrząsałem jak umiałem przed trzydziestu laty w nazwanej wstępnie książce i uznałem wtedy, że do symulacji zachowania językowego, czyli do naśladowania rozumnego interlokutora, można by zbliżać się stopniowo, kolejnymi aproksymacjami, po każdej przegranej „partii” dokonując usprawnień i programu, i maszyny, aż w ten sposób (może i bardzo niepraktyczny) doszłoby się do skonstruowania jakiegoś molocha elektronicznego, który nie tylko osoby z kręgu służby domowej, ale i maturzystów, a nawet profesorów uniwersytetu omami udawanym człowieczeństwem. Czy jednak z tej doskonałej sztuki wynikłoby jakieś poniżenie dla naszej, ludzkiej istoty? To jest już kwestia wybiegająca poza ostatnią granicę ocen konstruktorstwa. 10 Niedawno czytało się i w codziennej prasie o pierwszym „romansie” jakoby stworzonym przez komputer. Było to bardzo kulawe i niezbyt sensowne przedsięwzięcie, ponieważ na pewno komputer „nic nie rozumiał”, rzeczywisty autor dawał mu po prostu możliwość wyszukiwania „właściwej deskrypcji” pewnych stanów bohaterki — było to na dobrą sprawę przedsięwzięcie, mające na celu profit, ponieważ wielu ludzi zechce nabyć powieść, której autorem „jest komputer”. Ale też rzec trzeba, że komputery wprzęga się do sfery „porno”, gdyż są po temu odpowiednie programy, pokazujące to, na czym znawcy zależy. Lecz owo wprzęganie wysokich umiejętności technologicznych, świetnych owoców nauki, do prac niskich, głupich, prymitywnych, brutalnych i wstrętnych stanowi jedno z większych rozczarowań, typowych dla schyłku dwudziestego wieku, które szczególnie wstrętnym sposobem wykoleiły moje dawne prognozy: jak gdyby światłe moce zostały zmuszone do wleczenia ciemnych chętek i żądz, których mieszkaniem jest także człowiek. 11 Nie wszcząłem rzeczy od testu Turinga, ażeby go tak czy owak po swojemu rozstrzygnąć. Bawiąc się w prognozowanie, rzec można, że w przyszłości łatwiej będzie komputerowi naśladować człowieka aniżeli człowiekowi — komputer. Kosmologiczna symulacja, w swoim czasie opublikowana przez „Scientific American”, pokazująca, jak będzie „wyglądał” Wszechświat za sto miliardów lat, JEŻELI jego łączna masa nie wystarczy, aby go „zamknąć”, więc będzie się rozszerzał, a.: wszystkie ognie gwiazdowe wypalą ze szczętem swoje atomowe zasoby, była imponującą demonstracją tego dalekosiężnego rygoru komputacyjnego i zarazem symulacyjnego, którego nam albo nie dostaje, albo który wymagałby pracy setek matematyków przez setki lat. Ale już na naszym horyzoncie pojawia się szansa, moim zdaniem, oryginalniejsza od odpowiedzi na test Turinga. Mianowicie symulacje komputerowe procesów ewolucyjnych odbywają się na razie wyłącznie „we wnętrzu” maszyn i olbrzymi rozziew przepaścisty między światem realnym a światem cyfrowym (między „ciałem i duchem”, „materią i informacją”) pozostaje nadal otwarty, lecz mogą rozpocząć jego zapełnianie nowe twory, które są konstrukcyjnie i informacyjnie zarazem „wyhodowanymi” prototypami małych, pseudożywych (chociaż martwych, chociaż nafaszerowanych tylko elektroniką) „stworzonek”, służących na razie zabawie rozmaitych „nanologów”, inżynieryjskich dziwaków, ale które mogą dać w przyszłości początek takiej ewolucji, która by samoistnie wystartować do biegu nie mogła. Byłaby to „ewolucja quasi–mechaniczna”, czy może informatyczno–elektroniczna raczej, a nawet molekularno–kwantowa, jak powiadam, przez ludzi wszczęta i przez ludzi kierowana i sterowana, ale zdolna na którymś etapie do „przejęcia pałeczki”, czyli do okazania „inicjatywy samorodnej”, danej wzmagającą się suwerennością i powstającymi trendami specjalizacyjnymi. DO CZEGO by taka ewolucja służyć miała? To pytanie trochę za wcześnie postawione; ponieważ i pytanie, postawione braciom Montgolfierom, „do czego służyć może” papierowy balon, unoszony przez ogień nagrzanym powietrzem, nie doprowadziłoby podówczas do odpowiedzi, że do lotów z kontynentu na kontynent. Inny, nie istniejący kontynent MOŻE zostać dzięki bardzo ludzkim pasjom konstruktorskim w przyszłości odkryty — i nie wiadomo, wiele nam przyniesie jego zawłaszczenie korzyści… ale i klęski. W powieści Fiasko dałem o nich co nieco do zrozumienia… ale tym jednostronnym, bo militarnym sposobem, który, niestety, dowodzi agresywnej, skażonej natury naszego gatunku… 12 Historia informatyki, rozszerzonej na najpierwsze początki „przetwarzania danych” aż po współczesność antropocentryczną i wyprowadzona z tej współczesności aż po horyzont przyszłych możliwych dokonań czy samoziszczeń, ta historia, obejmująca biogenezę, która trzy miliardy lat trwała i zrodziła świat wielokomórkowców, z którego przez gałąź hominidów wyszedł Człowiek, otóż owa olbrzymia, bo już mierzalna w geologicznej skali całość, jeżeli byśmy stłoczyli ją gwałtownie do orzeczenia o kształcie aforyzmu, tak oto by się przedstawiała. Data processing poczęło się w najprostszych pierwocinach samoorganizacji, czyli życia, a zatem w skali molekularnych autoreplikatorów; z nich powstał kod genetyczny, który przeinaczał się przez miliardy lat, aż zdobył tę potencję prospektywnych wzmocnień rozrostowych, co zrodziła i ameby, i dinozaury, i nas, a my z kolei, już w makroskali, najpierw WPROWADZAMY data processing do komputerowych wnętrzności, gdzie oczyszczona z brzemienia cielesnego informacja z informacją krzyżuje się i informacją żywi w przyspieszeniu, jakiego nigdy by życie „samo” nie doścignęło. A gdy ten etap „autonomii informatycznego ewoluowania” opuści komputery, bo wcieli się w wytworzone w ich rozwojowym projektowaniu technobionty, czyli jednostki wprawdzie podług metryki martwo zrodzone, ale podług aktywności funkcjonalnej ,jak gdyby żywe”, i to „żywe w akceleracji”, ta olbrzymia panorama przeszłości, teraźniejszości i przyszłości okaże się spójnym logicznie systemem, w którym mikrożycie poczęło makrożycie, które poczęło „zuniwersalizowane pożycie” — od molekuł przez organizmy do nieznanych nam jeszcze, i nawet własnej nazwy dziś nie noszących „technobiontów”. Jeżeli tak myśleć i tak patrzeć, można uznać, że ten ciąg rozwojowy, z człowiekiem nie jako metą ale jako cezurą panewolucji, zdoła wyjść w Kosmos, do którego — jak już pouczyły nas zaczątki astronautyki — cieleśnie, ale i zmysłowo, i psychicznie bardzo marnie jesteśmy zdatni, ponieważ zbyt trwale odcisnęły się w człowieku oznaki, atrybuty i ograniczenia spowodowane jego tylko ziemskim, tylko hominidalnym, tylko lokalnym, podsłonecznym powstaniem. Wizja ta nie jest prognozą, lecz niczym więcej, jak prognozy obecnie jeszcze fantastyczną możliwością. Prawdopodobieństwo ziszczenia musi być skromne, lecz każde zaranie późniejszych, dojrzałych szczytowań takie musi być zawsze. Można jednak na powyższy obraz spojrzeć również jako na tragifarsę, co się zdarzyła albo raczej może zdarzyć Rozumowi człowieka, który uznał siebie za najświetniejszą Stałą Kosmiczną, chociaż okaże się tylko preludium do następnej, transantropicznej fazy „informacyjnego zdobywania Wszechświata”. W takim ujęciu zdobywa owa projektowana całość posmak szydliwy, jeżeli byśmy mieli uznać za porażkę akt deuniwersalizacji, czyli zdetronizowania naszego, śmiertelnego Rozumu… „Bariera informacyjna?’ 1 W książce Summa Technologiae, liczącej sobie dobrych trzydzieści lat, wprowadziłem metaforyczne pojęcie „bomby megabitowej” oraz „bariery informacyjnej”. Kluczem do zasobów poznania jest, pisałem, informacja. Gwałtowny wzrost liczby uczonych od Rewolucji Przemysłowej wywołało znane zjawisko: ilość informacji, jaką może przesłać określonym jej kanałem, jest ograniczona. Nauka jest takim kanałem, łączącym cywilizację ze światem pozaludzkim i ludzkim. Wzrost liczby uczonych oznacza zwiększenie przepustowości tego kanału. Lecz proces ten, jak każdy wzrost wykładniczy, nie może biec przez czas dowolnie długi: kiedy zabraknie kandydatów na uczonych, eksplozja „bomby megabitowej” uderzy w „barierę informacyjną”. 2 Czy w tym obrazie zmieniło się coś po trzydziestu latach? Najpierw chcę zauważyć, że próby ustalenia granicznej mocy obliczeniowej „ostatecznej generacji” komputerów, czyli wykrycia — w dziedzinie informatyki — odpowiednika znanej w fizyce granicznej szybkości, jaką się przypisuje światłu, były podejmowane kilkakrotnie, lecz wyniki oszacowań poważnie się od siebie różniły. Biorąc pod uwagę wielkości właściwe fizyce, więc właśnie szybkość światła i relację nieoznaczoności ze stałą Plancka, obliczono, że najsprawniejszy komputer, który zdoła przetwarzać dane z najwyższą osiągalną szybkością, będzie kostką (sześcianem) o krawędzi mierzącej trzy centymetry. Wszelako niedopowiedzianą w założeniach przesłanką był wyłącznie szeregowo–krokowy, iteracyjny sposób wykonywania działań, taki, jakim się w najprostszej postaci odznacza automat Turinga, który może zajmować tylko jeden z dwu stanów: zero lub jedynkę. Jakoż każde działanie każdego komputera tego krokowego (szeregowego) typu można wykonać owym najprostszym automatem Turinga, tyle, że to, co jakiś Cray wykona w ułamku sekundy, automatowi Turinga zajmie eony czasu. Lecz rychło spostrzeżono, ze można również konstruować komputery z równoległymi programami, aczkolwiek ich programowanie i funkcjonowanie stanowi serie bardzo trudnych do rozwiązania problemów. Dowód na to, ze takie komputery są konstruowalne, nosimy w czaszce: mózg bowiem głównie, chociaż nie tylko dzięki swej budowie — jest swoistym rodzajem odpowiednika komputera paralelnego, złożonego z dwu wielkich podzespołów (półkul), a w nich z kolei też panuje bardzo dziwna dla człowieka jako konstruktora „strategia alokacji” podzespołów niższych rzędów. Dla neurofizjologów był to prawdziwy chaos, złożony z samych zagadek, a objawy wypadania poszczególnych funkcji, np. przy afazji, amnezji, aleksji itd., potrafili ci badacze wykrywać, ale nie umieli ich przyczynowo i czynnościowo wyjaśnić. Zresztą bardzo wielu tych i podobnych zjawisk nadal w naszym mózgu nie pojmujemy jak należy. Mózg może pobierać informację z szybkością od 0,1 do 1 bita na sekundę, natomiast dzisiaj potok nowej informacji dociera doń z szybkością leżącą między trzema a dwudziestoma bitami na sekundę. Całość ludzkiej wiedzy ulega podwojeniu z grubsza co pięć lat, przy czym ów czas podwojenia stale się zmniejsza. Na przełomie XIX i XX wieku okres ów wynosił około 50 lat. Codziennie publikuje się na świecie 7000 artykułów, drukuje się ponad 300 milionów gazet, a książek 250 000, aparatów zaś radiowych i telewizorów już jest ponad 640 milionów. Ponieważ dane te pochodzą sprzed czterech lat, niechybnie są już zaniżone, zwłaszcza wskutek gwałtownego przyboru wiedzy w dziedzinie telewizji satelitarnej. Ilość już zgromadzonej przez ludzkość informacji ma wynosić 1014 bitów i do roku dwutysięcznego ulegnie podwojeniu. Niewątpliwie informacyjna chłonność mózgu już uległa wyczerpaniu: poza nauką objawy tej „informacyjnej astenii” można dostrzec znacznie łatwiej aniżeli w samej nauce, zwłaszcza jeżeli jej obszar ograniczymy do nauk ścisłych. Otacza je „halo” w postaci pseudo– i auasinauk, cieszących się wszędzie znaczną popularnością, ponieważ z reguły chodzi o „wiedzę” wprawdzie bezwartościową i fałszywą (astrologię, znachorstwo, sekciarskie dziwactwa typu „Christian Science” i wszystkie „psychotroniki”, jak telepatia, telekineza, „wiedze tajemne”, wiadomości o „talerzach latających” lub „tajemnicach piramid” etc), ale mile prostą, kuszącą obietnicami wyjaśnienia ludzkiego losu, sensu istnienia itd., itp. Ja tu jednak ograniczam się do terenu nauk ścisłych, w który także zresztą wtargnęła już dawno powódź mętnych fałszerstw, nie tylko szkodliwych, ale podważających status społeczny nauki; oszustwo w nauce zdarza się bowiem coraz częściej, a sprzyja mu aktualna wciąż reguła publish or perish. Wiele czynników współpracuje więc na rzecz wzmagania powodzi informacyjnej. Natomiast wspomniana wyżej sfera pozanaukowa ulega informacyjnym samoograniczeniom, które z porównawczego zamierzenia łatwo może spostrzec widz dysponujący satelitarnym odbiornikiem: pod względem odmienności fabularnej, prawie wszystkie nadajniki światowe niezwykle skromnie się od siebie różnią, co znaczy po prostu, że programy odległych od siebie państw, krajów i językowych obszarów nieomal pokrywają się treściowo. Nie jest to ani świadome zapewne „odchudzanie telewizyjnej diety”, ani plagiatowość: po prostu publiczność, ulegająca przesytowi, woli oglądać warianty fabuł znanych już, i stąd wciąż kolejne wersje jakichś Tarzanów, Trzech Muszkieterów, a w USA — walk z Indianami, wojny secesyjnej, w Europie zaś — ostatniej wojny światowej. Informacyjna alergia w zakresie wizualnym jest szczególnie natarczywa, innowacji obawiają się w stacjach nadających gorzej niż ognia, natomiast cenią innowacyjne pozory. Oczywiście nie bawię się tu w krytyka, ponieważ nie wartościuję i tym samym nie deprecjonuję programów, co skądinąd byłoby łatwizną, lecz staram się tylko obniżyć głębszą, czysto percepcyjną przyczynę faktu znanego telewidzowi z doświadczenia, którego istota w dziwacznym podobieństwie mnóstwa rzekomo całkiem odmiennych, osobno tworzonych programów: mianowicie trudno zazwyczaj zorientować się, jeśli wyłączyć fonię, czy oglądamy obraz emitowany w Turcji, Wielkiej Brytanii, Holandii, Szwecji, Danii, Hiszpanii itd., bo zewsząd płynie do naszej anteny omalże ta sama kaszka manna z pieprzem. 3 Przed informacyjną powodzią ratuje się więc przeciętny człowiek zarówno redukcją ulewy bitów, jak i eliminacją tych, co nie są jakoś „konieczne” dla umysłowej absorpcji. W życiu codziennym polega to na wzmożonym etnocentryzmie mediów, na „narastającej gruboskórności” względem treści, które mogą szokować lub ranić uczuciowo, lecz w nauce tego rodzaju wstrzemięźliwości nie są dopuszczalne. Stąd narastająca waga posiłków, jakie przynosi tam informatyka dywizjami komputerów. Jak każde zjawisko nowe, chociaż właściwie już nie nowe literalnie, komputeryzacja stała się niezbędną i jednocześnie nowe kłopoty przynoszącą strefą życia: w krajach, w których komputeryzacja stawia dopiero pierwsze kroczki (do których de facto należy i Polska) kłopotów i dylematów jeszcze nie posmakowano. Pierwszy z brzegu przykład wyjaśni, w czym może tkwić sęk. W powieści SF Powrót z gwiazd, w roku 1960, wprowadziłem do akcji „kalstery” jako małe urządzenia, zastępujące obrót i obieg pieniężny. Oczywiście nie ma miejsca w powieści dla opisywania infrastruktury tego „wynalazku”! Ale obecnie już pisze się w periodykach (np. amerykańskich) o smart cards, opartych na tejże zasadzie. Pieniędzy może nie być w obrocie w ogóle, płacenie czekami też może się stać przeszłością, każdy bowiem ma w banku konto, a w portfelu smart card, płacąc zaś podaje się tę kartę kasjerowi, który wkładają do kasy, połączonej z bankiem; komputer przekazuje zaś bankowemu komputerowi, wiele należy odjąć jednostek monetarnych z konta; to też odbywa się drogą płatnik (czyli jego komputer) — bank — opłacany (czyli jego „kalster”). Otóż to bardzo dobre — pod warunkiem, że się do naszego konta nikt nie dobierze jakimś „wytrychem elektronicznym”; a jak wiadomo, dawno powstała już i computer crime, i „hackerzy”, którzy potrafili dobrać się nawet do najbardziej chronionych komputerów różnych Sztabów Generalnych. Gotówkę można zakopać, schować w skarbcu, ale bankowe komputery będą na pewno wystawione na liczne ataki przewodowe lub bezprzewodowe. Zjawisko „wirusów” z kolei jest już nam tak znane, że nie warto się tą „ciemną” stroną żywota informatycznego zajmować. 4 Do przebicia „bariery informacyjnej” w nauce mogą posłużyć, z jednej strony, sieci komputerowe, które by miały się mniej więcej do siebie tak, jak neurony w mózgu (a każdy neuron, jak wiemy, jest połączony pośrednio lub wprost z dziesiątkami tysięcy innych, toteż skrótowo powiadać, że mózg liczy sobie 12 albo 14 miliardów neuronów jest właściwie czymś na kształt nieporozumienia, ponieważ idzie o liczbę połączeń, a nie jednostek pracujących na zasadzie flip—flop tylko), a z drugiej komputery giganty, które na razie reprezentować może mój „Golem XIV” z opowieści pod tymże tytułem. Tutaj winienem być może wyjaśnić, skąd mi się tam wzięła i na czym może polegać koncepcja ponadgolemowych wzrostów „terabajtowej potęgi”, poprzedzielanych wzdłuż biegu tego wzrostu „strefami milczenia”. Otóż nie jest to w tym sensie „czysta fantazja”, ponieważ z dawien dawna obrałem sobie za gwiazdę przewodnią, czy raczej za przewodnią konstelację — naturalną ewolucję życia na Ziemi. Zjawiskiem może najcharakterystyczniejszym był w niej taki typ powstawania pokolejnego gatunku roślin i zwierząt, który odznaczał się nieciągłym (dyskretnym) wzrostem złożoności. Jakoż najpierw powstały pierwociny życia, o których nam nic nie wiadomo poza tym, że w przeciągu trzech miliardów lat (co najmniej, nie najwyżej) utworzyły kod genetyczny z jego zdumiewającą uniwersalnością kreacyjną; z niego powstały algi zdolne do fotosyntezy, potem bakterie, pierwotniaki, flora morska, potem ryby, płazy, gady, a wreszcie ssaki, które zwieńczyło powstanie hominidów z człowiekiem na czele. Między gatunkami zaś zieją bardzo istotne rozziewy: jakkolwiek istniały formy przejściowe między, powiedzmy, gadem a ptakiem, albo rybą a płazem, nie zostało z nich nic: te odosobnienia gatunków, jako „strefy specjacyjnego milczenia” uznałem za dostatecznie ważkie, ażeby je „przenieść” w obszar kolejnych kulminacji rozumów, wyzwalających się z pierwotnych, fizjologią i anatomią danych zadań, które spełniać musi centralny system nerwowy każdej żywej istoty (o ile jest to istota zwierzęca). 5 Oczywiście koncept najpotężniejszego konstruowalnego komputera jako „kostki” o krawędzi trzycentymetrowej należy odrzucić. Czy jednak budowanie coraz to większych komputerów będzie drogą lepszą od tworzenia sieci na podobieństwo mózgowych — neuronowych — tylko przyszłość może ukazać. Aktualnie porównanie mózgu z komputerem ostatniej generacji wygląda następująco. Mózg jest dobitnie równoległym, wieloprocesorowym systemem, złożonym z jakichś 14 miliardów neuronów, tworzących trójwymiarową strukturę, w której każdy neuron ma do 30000 połączeń z innymi neuronami. Jeśli każde łącze wykonuje tylko jedną operację w czasie sekundy, to mózg byłby teoretycznie w stanie wykonać w tym samym czasie dziesięć bilionów operacji. Flip–flop neurona trwa milisekundy. Złożone zadania w rodzaju rozpoznania i rozumienia języka wykonuje mózg w czasie rzędu sekundy, gdyż wymagają kilku obliczeniowych operacji, natomiast komputerowi trzeba na analogiczne wykonanie zadania miliona elementarnych kroków. Ponieważ neuron nie może przekazać drugiemu neuronowi jakichkolwiek złożonych symboli, będąc „prostym” urządzeniem typu flip–flop, sprawność mózgu zależy od wielkiej liczby wzajemnych między–neuronowych łączy. Dzięki temu łatwo posługujemy się językiem lub językami, natomiast w umyśle przemnożyć dwie wielocyfrowe liczby to już problem, z którym nie każdy się sprawi. Fenomen niesłychanie biegłych rachmistrzów, którzy poza tym mogą być nawet debilami, jest mi tu osobną zagadką, ponieważ świadczy o istnieniu rozmaitych podzespołów, zdolnych nawet — czy właśnie wtedy — do sprawniejszego działania, kiedy przeciętnie normalne inne zespoły są uszkodzone! (Mózg, ogólnie już mówiąc, znacznie łatwiej znosi uszkodzenia aniżeli komputer). Dzisiejsze superkomputery działają (jak twierdzi ekspert) na poziomie rozwoju pięcioletniego dziecka (chodzi jednak o sprawność pozaafektywną). Wydaje się raczej paradoksalną sytuacja, w której dla symulowania (modelowania) mózgu w czasie realnym potrzebne byłyby tysiące komputerów najwyższej mocy obliczeniowej, natomiast dla modelowania obliczeń arytmetycznych byłyby niezbędne miliardy ludzi… Elementarna operacja neuronu trwa (jak się rzekło) około 1 milisekundy, natomiast komputer może wykonać ją w czasie nanosekundy, czyli pracuje o sześć rzędów wielkości szybciej. Niemniej człowiek wchodząc do kawiarni rozpoznaje twarz szukanego znajomego w ułamku sekundy, a komputer potrzebowałby na to samo kilku minut… 6 Sprawą bodajże kluczową dla naszej (czyli ludzkiej) przyszłości wydaje się odpowiedź na pytanie, czy i jak może powstać kreacyjna potencja informacyjna komputerów, w rozumieniu kreacji autentycznej: rozwiązanie dowolnie trudnego zadania matematycznego nie ma z twórczością, o jakiej myślę, wiele wspólnego, ponieważ odpowiedź w postaci rozwiązania „potajemnie tkwi” już w matematycznej strukturze postawionego zadania. Pozwolę sobie wrócić do książki, którą zacytowałem na wstępie. Pisałem w niej, że przejście od wyczerpujących się źródeł energii do nowych — od sił mięśni, zwierząt, wiatru, wody do węgla, ropy naftowej, a od nich z kolei do atomowych — wymaga uprzedniego zdobywania informacji. Dopiero kiedy (dzięki metodzie trial and error) ilość tej informacji przekroczy pewien „punkt krytyczny”, oparta na niej nowa technologia odmyka nam nowe obszary energii i działania. Gdyby (pisałem) zasoby paliw (węgla, ropy, gazu) uległy wyczerpaniu np. u schyłku XIX wieku, wątpliwe jest, czy uruchomilibyśmy w połowie XX wieku energię atomową, ponieważ jej wyzwolenie wymagało ogromnych mocy, instalowanych najpierw laboratoryjnie, a potem w skali przemysłowej. I tak jednak (pisałem wtedy) ludzkość (dziś nawet) wcale nie jest gotowa przejść na wyłączne eksploatowanie energii atomów… Ogłoszona zaś przez Fleischmana i Ponsa cold fusion, zimna fuzja deuteru w hel, została szybko zdyskredytowana jako pomyłka, aczkolwiek ostatnio Japończycy (głównie) wzięli się do eksperymentów tej sfery od nowa, tak że właściwie „nic pewnego nie wiadomo”. Mówię o tym w kontekście informatyki dlatego, ponieważ możemy już wprawdzie wymodelować, tj. symulować na komputerze wygląd Kosmosu za sto miliardów lat (to już robiono), przy ustaleniu oczywiście takich startowych parametrów, które odpowiadają współczesnej wiedzy kosmologicznej, natomiast nie możemy wykrzesać z symulacji nowin niespodziewanych — dlatego niespodziewanych, ponieważ brak ich śladu w danych wejściowych (startowych). Oto przykład, który być może niejednego Czytelnika zaskoczy. 7 Bolesław Prus ustami jednej z postaci Lalki, profesora Geista, powiedział: Mamy trzy sześciany tej samej wielkości i z tego samego materiału, które jednak są nierównej wagi. A dlaczego? Gdyż w pełnym sześcianie jest najwięcej cząstek stali, w pustym mniej, a w drucianym najmniej. Wyobraź więc sobie, że udało mi się zamiast pełnych cząstek budować klatkowate cząstki ciał, a zrozumiesz tajemnicę wynalazku… A teraz z artykułu w naukowej kolumnie tygodnika „Der Spiegel” (nie cytuję prasy naukowej, ponieważ zależy mi na zwięzłości): Uczeni oczekują ‘zupełnie nowej chemii’, spodziewając się jej po klatkowatych kulkach węgla, zwanych fullerenami. Po raz pierwszy powstały w laboratoriach niemieckich, a liczba ich możliwych zastosowań — to legion. I dalej: Fullereny, nazwane tak wedle kopułowych struktur samonośnych Richarda Fullera w architekturze, to puste kuleczki, utworzone z sześćdziesięciu atomów węgla, połączonych wzajem tak, jak spojone są ze sobą pięciokąty, tworzące piłkę futbolową. Można ich użyć jako konstrukcyjnych elementów w statkach kosmicznych, ponieważ nienaruszone odskakują od stalowej płyty, gdy je wystrzelić w nią z prędkością 27 000 km/h… Japończycy syntetyzują już fullereny cylindryczne, wypełniane atomami ołowiu, i wyciągali z nich druty o grubości kilku atomów zaledwie… W prasie amerykańskiej piszą o buckminsterfullerens, do których udało się wtłoczyć atomy neonu albo helu… itd. To tylko początek. I cóż tu rzec o fantazji Bolesława Prusa? Urzeczywistniła się po stuletnim interwale… Sprawą banalną jest to, że nikt owej zbieżności nie dostrzegł, ponieważ — sądzę — sam Prus nie bardzo wierzył w jej ziszczenie (ale nie mam pewności w tej mierze; nie wiem, czemu zamierzał wokół swego — Geista — wynalazku napisać powieść „Sława” i pomysłu zaniechał). W zasadzie budowle klatkowe (z atomów węgla np.) były do teoretycznego zaprezentowania, nie wiadomo było tylko, jak dokonać syntezy (niezbędne są wysokie temperatury i ciśnienia). Ale to już są informacje, które koniecznie muszą współistnieć z parametrami atomów w założeniu wyjściowym… Jak dotąd, komputer potencji kreacyjnej wykazać nie może: myślę jednak, że nie czyniąc jeszcze wynalazców i uczonych bezrobotnymi, na polu innym — produkcji przemysłowej — już rozpoczął inwazję, która obradza groźbą masowego bezrobocia. 8 Norbert Wiener, odkrywca cybernetyki, w książce Kumam Use of Human Beings pół wieku temu przepowiadał właśnie bezrobocie wywołane rozszerzającą się, masową automatyzacją coraz większej liczby procesów wytwórczych. Któż nie widział w TV jednej z wielu japońskich wytwórni samochodów, jako trasy, po której bokach kotłują się jak szalone emaliowane (zwykle na żółto) wielkie roboty, pod nieobecność człowieka składające, spawające, ześrubowujące elementy karoserii, motorów, sprzęgieł — te bezludne fabryki już powstają i przez to bezrobocie staje się (twierdzą niektórzy ekonomiści czy inżynierowie) zjawiskiem nieodwracalnie postępującym i niebezpiecznym społecznie, ponieważ praca automatów–robotów jest tańsza od ludzkiej i bywa dokładniejsza, ponieważ roboty te, których światowa armia przekroczyła już trzysta tysięcy, nie potrzebują ani jadła, ani zapłaty, ani odpoczynku, ani urlopów, ani zasiłków, ani ubezpieczenia socjalnego na starość („na starość” idą roboty jako wraki do złomowisk). Nie zagraża nam „bunt robotów”, ich kuratela, którą tylekroć nas straszono. Zagraża nam po prostu bezkrwawy konflikt, cały w tym, że płody naszego rozumu i naszej cywilizacji uczynią ludzi pracy po prostu zbędnymi: jeżeli nie dzisiaj jeszcze, nie jest to dostateczną pociechą, ponieważ koszt takich inwestycji będzie malał, i do nich, sądzić można, będzie należał wiek dwudziesty pierwszy. Wygląda więc na to, że na początku życia było istotnie słowo — KODU GENETYCZNEGO, a na dalekim odcinku przyszłości słowo to zrodzi informację, która zrodzi bezmyślnie doskonałych pracowników z martwej materii… …Ale co się wtedy stanie z nami — oto pytanie, na które odpowiedzieć dzisiaj nie potrafię. Fantomatyka 1 W „Wiedzy i Życiu” z czerwca 1991 r. po raz pierwszy opublikowałem artykuł, zestawiający przepowiadaną przeze mnie przed trzydziestu laty „fantomatykę” z realizowaną obecnie techniką iluzji, nazwaną Virtual Reality. Przyznaję jednak, że dopuściłem się w „Wiedzy i Życiu” pewnego uproszczenia, bądź raczej pominięcia sprawy centralnej: albowiem to, co teraz w wielu państwach staje się już częścią przemysłu rozrywkowego jako „wirtualna rzeczywistość”, zrównałem z tym, com był prognozował w 1963 roku. Popełniłem więc grzech tryumfalizmu, ponieważ moja „fantomatyka” ma się tak do technik Virtual Reality jak może się mieć najnowszy model Mercedesa do parowego trójkołowca, skonstruowanego w 1769 roku przez inżyniera N. J. Cugnota: pojazd ów miał wprawdzie uciągnąć armatę, ale wsławił się maksymalną chyżością 9 km/h. Tyle podobieństwa między nowoczesnym autem a starocia Cugnota, że jedno i drugie porusza się bez koni, siłą motoru tłokowego, i właściwie to wszystko. Virtual Reality obecnie jest jeszcze w powijakach, ale największą może słabością teraźniejszego jej, wstępnego wcielenia, jest prawie zupełna niedostateczność czynnika, który miałem i mam za główny w skutecznym utworzeniu ułudy iluzyjnej rzeczywistości: chodzi o kiepskie sprzężenie zwrotne pomiędzy poddawanym sfantomatyzowaniu człowiekiem a dostarczającym jego zmysłom wrażeń komputerem. Zresztą — proszę mi tu pozwolić na używanie nazwy „fantomatyka”, „fantomatyczna maszyna” lub krócej „fantomat”, przymiotnika „fantomatyczny”, czasownika „sfantomatyzować” (kogoś — czymś jako informacją dla jego zmysłów), a wszystko nie przez ambicje futurologiczne, miłość własną etc, ale dla wygody po prostu, ponieważ z tą Virtual Reality powstaje przy każdej deskrypcji kłopot. Ponadto wymyśliłem wtedy „fantomatologię” jako teorię fantomatyzacji, co nie jest bodaj wyzbyte sensu, ponieważ mamy do czynienia — obecnie — z pewną techniką w stanie embrionalnym, w fazie wczesnej (jaką w porównaniu moim był parowy traktor Cugnota), ja natomiast w książce Summa Technologiae starałem się sobie wyobrazić sytuację technologicznie osiągniętej PERFEKCJI z takim funkcjonowaniem sprzężenia zwrotnego (między człowiekiem a fantomatem), że prawie już żadną miarą nie podobna by odróżnić „rzeczywistości realnej” od „fikcyjnej”, powstałej dzięki dwu nie nazbyt odległym od siebie ziszczeniom filozoficznych tez, mianowicie berkeleyowskiego ESSE EST PERCIPI (być, to być postrzeganym), oraz (angielskiego również i filozoficznego) nihil est in intellectu quod non prius fuerit in sensu (nic nie ma takiego w umyśle, czego uprzednio w zmysłach nie było). 2 Otóż, ażeby w główną różnicę wejść od razu sztychem, nie ma jeszcze tak dobrze, ponieważ komputer winien być dla optymizacji złudnej tak sprzężony z człowiekiem, żeby właściwie reagował na każdą reakcję człowieka. Już mniejsza nawet o to, żem projektował bezpośrednie wprowadzenie informacji w organy zmysłów (np. elektrodami), że wszystkie nasze zmysły miałyby zostać „oszukiwane systematycznie” jako „przełączane” ze świata realnego na świat, utkany z deszczu sygnałów idących od fantomatu. Mniejsza o to, powiadam, czy można by stosować „hełmy”, data gloues, itp.: najważniejsza jest MOC OBLICZENIOWA fantomatu, pozwalająca w czasie realnym z najwyższą synchroniczną precyzją reagować na każdy ruch człowieka. Powiedzmy, pisałem ongiś, że otacza go iluzyjna komnata czy wnętrze jakiejś świątyni: przy każdym ruchu głowy i oczu postrzegać winien oczywiście to właśnie, co by postrzegał, znajdując się w otoczeniu autentycznym: tym samym komputer musi odpowiadać błyskawicznie na każdą zmianę zachowania ludzkiego, ponieważ jeśli nie potrafi, to powstaje sytuacja tak zwanej „Circaramy”, bez zwrotnych adekwatnych zmian potoku bodźców dozmysłowych, i iluzja ukazuje swoje niedostatki. Ponieważ zaś w ogóle jako quasi–futurolog nie uwzględniłem sprawy kosztów, największą mocą obliczeniową dysponujące obecnie komputery (Cray np., ale są już nowsze) kosztują jak diabli, przemysł rozrywkowy, inwestujący już wielomilionowe kwoty w „fantomatyczne igraszki” stara się stwarzać dla klientów takie sytuacje, w których człowiek ma możliwie niewielką swobodę zmiany w swej sytuacji percepcyjnej. Gdy jedziemy pociągiem i patrzymy przez okno, na zachodzące w polu widzenia zmiany mamy wpływ tym mniejszy, im bliżej wagonu zjawiska obserwujemy natomiast dalsze plany aż po horyzont nie zmieniają się od naszych reakcji, ale zależą prawie że wyłącznie od ruchu (szybkości) pociągu. To samo np. w czasie nocnej jazdy, jeżeli będziemy patrzeć nie na drogę i jej pobocza, ale na księżyc: zdaje się nieruchomo tkwić na niebie, jakby wisząc stale nad pojazdem, i żadne poruszenia ciała, głowy, oczu jego lokalizacji nie zmieniają. A kiedy człowiek szybuje w powietrzu, przytroczony do lotni, także nie jego ruchy, ale widziane z góry dalekie rozpościerające się krajobrazy decydująco wpływają na to, co postrzega. Toteż właśnie „sytuacja lotni” została już wykorzystana. Klient–pacjent zostaje ułożony na swego rodzaju płachcie i zawieszonego na niej krępują uprzężą (wiele lotni ma w samej rzeczy rodzaj worka, do którego pakuje się „zbędne” w szybowaniu, unieruchomione nogi), po czym na głowę nakłada się hełm, aby widział, co by widział lecąc, wentylator puszczony owiewa go, powiększając złudzenie lotu, i to właściwie wszystko. Jednak przyznać należy, że uproszczenie sytuacji i prawie całkowite wyrugowanie wpływów aktywności ludzkiej na to, co postrzegane (czyli maksymalna redukcja oddziaływań sprzężenia zwrotnego) burzy doskonałość iluzji. Jeżeli „lecący” spojrzy szybko w górę, odwracając głowę, może nie ujrzy w porę ani nieba ani chmur ani płatów nośnych lotni, ponieważ komputer nie nadąży z reakcjami: oszukano MU wszystkie zmysły, ale sprawność „oszustwa” nie jest już technicznie–informacyjnie taka, że umie sobie poradzić. Jak wiadomo tym, co się interesowali technicznym uzbrojeniem informatycznym zaplecza filmu „Jurassic Park”, sześć minut pędu długonogich gadów (jakby struthiomimów, gatunku środkowo–mezozoicznego) kosztowało chyba ponad miesiąc pracy programistów, a przecież nie było tam ani śladu sprzężenia zwrotnego, toż bohaterowie filmu żadnych gadów wszak nie widzą i uciekają „przed nikim” — a wrażenie, że gady mkną obok nich, to efekt trików montażowych, a nie „ogólnej fantomatyzacji”. Wszelako zestawienie czasów — miesiąc pracy dla złudy parominutowej — wyjaśnia (używano dla filmu najpotężniejszych komputerów dzisiejszych) i uświadamia, na jak wczesnym początku drogi musi się również cała technika fantomatyzacji znajdować obecnie. 3 Ponieważ książkę, zawierającą prognozy technik iluzji (jest ich więcej — odsyłam do książki Summa Technologiae, nieosiągalnej zresztą na rynku księgarskim) pisałem w epoce sprzed lotów kosmicznych ludzi, nie tknąłem kwestii najbardziej może karkołomnej. To, żeby człowiekowi roić, jakoby zerwał z gałęzi jabłko, można, lecz już zjeść jabłka rojonego mu się nie uda, chyba że tu coś nowego dla zębów, dla jamy ustnej i dla kubków smakowych języka wymyślimy. Natomiast brak ciążenia właściwie nie może być z jako–taką sprawnością symulowany i dlatego bardzo łatwo rozpoznać, oglądając film o locie kosmicznym, czy to autentyk, czy blaga. Ludziom się całkowicie zmienia motoryka ciał, a wszystkie przedmioty nie umocowane zachowują się bez grawitacji w sposób szokująco odmienny od ziemskiego sposobu. Na symulację tego ani wizualnie, ani percepcyjnie sposobu nie znamy. (Na razie zresztą cierpią od tego ludzie filmu). A już tak zwanego proprioceptywnego (głębokiego) czucia mięśniowego oszukać się nie da: albo trzeba wprowadzić człowieka na orbitę rzeczywiście, albo spasować. Podobnych utrudnień na drodze ku ideałom fantomatyzacyjnym jest zresztą wiele i na razie w pełni sprawna może tu stać się jedynie fantastyka zwana „naukową”, bo słowem opisać da się wszystko. 4 Szczególnie atrakcyjna może wszakże stać się fantomatyka dla i ludzi upośledzonych (jak chorzy, zmuszeni przebywać w łóżku, jak ci, których porażenia rdzeniowe przywiązały do wózków czy foteli na kołach, a w przyszłości nawet dla niewidomych, kiedy będzie można drażnić specyficznie i wprost ośrodek mózgowy wzroku w „szczelinie ostrogi” — fissura calcarina), umożliwiając im nawet iluzoryczną aktywność cielesną, w postaci pływania, jazdy na nartach, i innych rodzajów sportu. Można sobie wyobrazić przemianę (naturalnie iluzoryczną) każdego amatora tenisa w Borysa Beckera czy Lendla, a niewiasty w Martinę Navratilową. Jednak w tym celu nie wystarczy już wpływanie na zmysły wzroku i na dotyk dłoni — staje się potrzebny kostium z wszytymi elektrodami, przypominający elastyczną odzież płetwonurków i dopiero tak otulony wraz z głową może podlegać doskonalącej się iluzji pobytu tam, gdzie naprawdę go nie ma, dotykania obiektów, które w istocie nie istnieją poza potokami informatycznymi rodem z fantomatu, obserwowania scen, zjawisk, istot, jakie sobie zamarzy, włącznie z aniołami, demonami, dinozaurami (gdyby ktoś na to miał ochotę), wszelako kwestia dotyku prowadzi nas do tematu uznawanego za szczególnie drażliwy. W prognozie sprzed lat trzydziestu ograniczyłem się do przeżyć erotycznych zarazem wyszukanych i dość skromnych (klient rodzaju męskiego łaknąłby chociaż pocałunku słynnej gwiazdy filmowej czy jakiejś królowej, co by się zrobić dało niechybnie). Obecnie obyczajowość cywilizacji permisyjnej doprowadza do skrajności, którą jest domaganie się odpowiedzi na pytanie, „czy możliwy jest seks z komputerem”, a jakiś autor, wysiliwszy imaginację, powiada, że można być homarem nawet w kopulacji z homarzycą! Przed laty ograniczyłem się do skromniejszego wcielenia, mianowicie krokodyla, i to poza sferą jego ciągot miłosnych. Lecz bardziej serio, poza wszelką pruderią zresztą, wypada odpowiedzieć, że nawet seks słonia ze słonicą, czy z boginią Wenus, byłby w zasadzie możliwy po wdzianiu odpowiednio skrojonego kostiumu i zarazem po utworzeniu właściwego programu dla dostatecznie mocą obliczeniową dysponującego komputera. Jeżeli kogoś wizja taka razi, może starczy rzec, że układanie takich programów będzie niechybnie kosztowne aż do czasu, też leżącego w sferze potencjalnych ziszczeń, kiedy programy będą powstawały „same” pod władzą programów–rodzicieli, człowiek natomiast zdoła się ograniczyć wtedy do wydawania programom–rodzicom odpowiednich rozkazów z odpowiednimi ograniczeniami (tj. podając warunki treściowe, brzegowe i graniczne w dostosowaniu do ludzkiej fizjologii i anatomii). Szczególne problemy powstać bowiem mogą gdyby ktoś chciał (dziwaków nie brak na tym świecie) zostać np. ogoniastą małpą, bo CZYM właściwie miałby się posłużyć, ażeby poruszać fantomatycznym ogonem…? Jeżeli już dotarliśmy do fantomatycznego seksu, dodać wypada, iż w gruncie rzeczy chodzi o nieustającą dotychczas technologię osobliwej onanii i na tego, kto by TAKI fantomat przezwał onanizatorem ze sprzężeniem zwrotnym i z fikcją „kochanka” albo „kochanki” gniewać się nie należy, ponieważ sęk będzie w tym, że taka nazwa nie jest przezwiskiem, ale pochodzącym spoza obrębu fantomatyzacji zwyczajnym NAZWANIEM realnego stanu rzeczy. Bardziej cenne pozaseksualnie i pozarozrywkowo czynności, które mogą podlegać fantomatologii, to różne rodzaje treningu, od bokserskiego, a szerzej sportowego po umiejętności lekarza, a zwłaszcza chirurgów, dzięki szansie dokonywania fikcyjnych operacji na fikcyjnych pacjentach, ale też trening kierowców od bobslejowych do samochodowych i do lotników. Zresztą i pływackie zawody można będzie symulować odpowiednimi programami, przy czym same bodźce adresowane do zmysłów i do proprioceptorów okażą się zapewne niedostateczne, ponieważ rozmaite siły (pozorne, jak wyniki bezwładności w stylu sił Coriolisa, oraz opory, jakie stawia np. woda pływakowi lub powietrze przy swobodnym spadaniu) trzeba będzie pewno wzmacniać dodatkowo sterowaniem mikroszkieletów, wszytych w kostiumy z elektrodami. W jakiej mierze takie „doprawienie” informatycznej ułudy okaże się wskazane, rzec na razie trudno. Mianowicie człowiek jest przede wszystkim WZROKOWCEM, a doświadczył tego każdy, kto zaznał wizualnych obrazów ruchomych Circaramy. Nie wiem, czy jakaś jest w Polsce: doświadczyłem jej we Wiedniu. Ekran stanowi niejako ściany studni, otaczające widza ze wszystkich stron; zalecają oglądanie wyświetlonego wokół filmu na stojąco, gdyż powiększa to efekt ułudy i kiedy obraz ukazuje np. koszący lot nad wąwozami czy nad miastem, może nabawić autentycznego zawrotu głowy, chociaż umieszczone w naszym błędniku otolity żadnych przecież wpływów sił odśrodkowych ani przyspieszeń nie doświadczają: złudzenie, wywołane czysto wizualnie, dominuje nad innymi sygnałami zmysłów. Przez to właśnie sprawa proporcji lub dysproporcji pomiędzy tym, co jako część naszego sensorium impulsom fantomatu podlega, a tym, co pozostaje poza ich zasięgiem, może być przede wszystkim w eksperymentach ustalona. Bardzo zresztą możliwe, że odemkną się i takie sfery iluzji, których nie nazwałem, ani nawet o nich nie wspomniałem, ponieważ świat przeżywany zmysłami jest zbudowany z bodźców, jak się już rzekło w obu cytowanych tezach filozofów, i to, co można imitować, stanie się przeżyciem w granicy już nie odróżnialnym od autentyczności. Czy to będzie schodziło na złe, nie tak znów trudno orzec, ponieważ NIE MA chyba takiej dziedziny żywota, której dzięki środkom techniki (a szerzej — wiedzy naukowej, technicznej, chemicznej) nie dałoby się wywichnąć w nadużycie. Człowiek stwarza narzędzia niekoniecznie z zabójczymi intencjami, ale do takich zamierzeń narzędzia zazwyczaj łatwo dają się dostosować. Warto sobie (już całkowicie poza sferą fantomatologii) uzmysłowić, jak obojnacze, janusowe, ambiwalentne oblicze ma „postęp”. Gdyby nie było udoskonalanych w medycynie przetaczań krwi, to by ludzie operowani oraz ludzie cierpiący na hemofilię umierali beznadziejnie dość często, lecz obecnie wielkie skandale wstrząsają ochroną zdrowia w najświetniej rozwiniętych (jak Niemcy czy Francja) krajach dlatego, ponieważ przetaczana z konserw krew okazuje się nieraz zakażona wirusem AIDS i tym samym akt ratunku przed wykrwawieniem obraca się w wyrok na parę lat odroczonej śmierci. Przynajmniej dopóki nie zostanie wykryty sposób skutecznej terapii antywirusowej. Lecz gotówem założyć się, że powstawać będą, a nawet już powstają nowe formy „progresu” i z nimi nierozerwalnie zrośnięte nowe formy zagrożeń: taki bowiem jest świat, w jakim żyjemy, i przecież ryzykuje ten, kto spada z samolotem. 5 Czy trzeba dopowiedzieć, że postęp i jego przekleństwa pozostają zarezerwowane przede wszystkim dla mieszkańców państw, stanowiących cywilizacyjną czołówkę świata? Że ubodzy i głodujący nie mogą zaznać mąk przesytu, znudzenia, zobojętnienia, rozpasania wreszcie, że nawet to, co dla mnóstwa ludzi na Ziemi łatwo jest dostępne, jak telewizja, także satelitarna, uczy agresji nawet małe dzieci, zaś o zdziczeniu maluchów powiadamia nas prasa bogatych krajów? I bieda ma zatem swoje plusy! Nie zamierzam wszakże tutaj moralizować: uwagi moje są raczej refleksją, poświęconą przede wszystkim nowym obszarom przeżyć, jakimi potrafi obdarzyć nas cywilizacja, w której wszystko ulega jednocześnie ułatwieniu i potencjalnemu zagrożeniu ludzkich wartości, wraz z życiem. Takiej obojnaczości żadna już innowacja techniczna z żywotów ziemskich na pewno nie wypleni. W powieści Wizja lokalna zarysowałem cywilizację innoplanetarną, której mieszkańcy są doskonale zabezpieczeni tak zwaną tam „etykosferą” przed każdą formą agresji, przed każdą trucizną, kulą, gwałtem, ażeby dojść do konkluzji, że stają się więźniami technicznie przyrządzonego i nieznośnego przez to raju, który ostatecznie okazuje się najbardziej komfortowym z możliwych piekieł… 6 Zza grzbietu XXI wieku wychyla się tymczasem ni to fatamorgana, ni to widmo biotechnik molekularnych. Human Genome Project, już w pełnym biegu, ma nam dać w ręce dzięki pozyskaniu CAŁEJ informacji o genomie człowieka (niezbyt) rozumnego szansę sterowania ewolucją naszego własnego gatunku. Tym samym informacyjna wszechmoc zjawia się jako nieznana w dziejach naszych zupełnie nieprzewidywalna ze sto lat temu groźba: poświęciłem jej ongiś jedną z „podróży” Ijona Tichego, przybrawszy rzecz, czyli temat autoewolucyjny, w szaty błazeńskiej groteski, ponieważ serio pisząc, zostałbym choćby i wbrew woli zmuszony być piewcą Nowej Apokalipsy. A to dlatego, ponieważ przekonałem się w ciągu czterdziestu lat uprawiania zawodu pisarza z predykcyjnymi pretensjami o tym, że cokolwiek przyprawiałem jednostronnym optymizmem, rzeczywistość biegu dziejów doprawiła okrucieństwem bez miary; tak że postęp stawał się niejako w zarodku — nadzieją lepszego bytu, a w istocie — dzięki rozwojowi, żywionemu wiedzą — nowym nieszczęściem. Okropna rzecz, pisać o tym, ale przecież radioaktywnie zatruty Ocean Lodowaty, całe dziedzictwo nuklearne posowieckich „tajnych miast”, całe mnóstwo ginących gatunków fauny i flory oznacza stopniowe przeciążenie biosfery, powodowane przez człowieka, powoduje biedy, na które już nam żadna ułuda informacyjnie wywołana ratunku nie przyniesie: albowiem jak byt nasz był osadzony na jawie i w jawę wkorzeniony, tak musi być też i w przyszłości. Nigdy nie byłem przeciwnikiem naukowego postępu, ani tak zwanym „technokratą”: ale starałem się zachować najpierw umiar, a potem i odnaleźć właściwy szlak dla myśli wzdłuż owej wąskiej grani, po której ziemska cywilizacja porusza się w niewiadomą przyszłość, łudzona mirażami nie tylko informacyjnie zaklinanej nadziei, że nie runiemy w otchłanie, ziejące po obu stronach tej przepaściście zawieszonej nad Kosmosem drogi… Eksformacja 1 Eksformacja — nie ma takiego terminu. Jest mi jednak potrzebny dla skrótowego ukazania różnicy pomiędzy dotychczasowym zakresem znaczenia EKSPLOZJI INFORMACJI. „Eksplozja” pochodzi od łacińskiego EXPLODO, oznaczającego (mniej więcej) odrzucenie. W samej rzeczy chodzi o wybuch, który rozpręża i tym samym od– czy też rozrzuca materiał (wybuchowy, ale tutaj to omal masło maślane), tak że substancja, zdolna do takiej przemiany chemicznej, w ułamkach sekund rozprzestrzenia się (gwałtownie), ażeby zająć przestrzeń wiele tysięcy razy większą od jej pierwotnej, niewybuchłej postaci. „Informacja”: słowo to również jest pochodzenia łacińskiego i oznacza „formowanie”, „tworzenie” (np. jakiegoś wizerunku, obrazu). Pojęcie informacji zrobiło w XX wieku znaczną karierę i stało się substratem i kierunkowskazem powstających i rosnących w potęgę technologii. Informacja jednak, można by sądzić, nie wybucha, a zarazem eksplozja nie tworzy niczego, lecz przecież raczej niszczy. Otóż tak wcale nie jest w naturze: panuje w niej, powiedziałbym, właśnie przeciwieństwo destrukcji, tyle, żeśmy przywykli nazywać ów proces zgoła inaczej i umieściliśmy go poza rozdziałami wiedzy, traktującym— o ludzkich technologiach, mianowicie tam, gdzie technologie jeszcze (a może tylko prawie jeszcze) nie dotarły: w biologii mianowicie. o Eksplozje najbardziej typowe, konieczne i najbardziej podtrzymujące, jako umożliwiające życie, zachodzą wokół nas wszędzie i — co niby dziwniejsze — w nas samych, a gdyby ktoś chciał uściślić rzecz, w żeńskiej odmianie gatunku homo. Jajeczko kobiece ma około 0,1 mm średnicy, tyle mniej więcej co przeciętna, najmniejsza komórka dorosłego organizmu, i w ciągu kilku miesięcy „wybucha” w organizm, który już po przyjściu na świat w tempie coraz wolniejszym sterowany i regulowany wewnętrznie „wybuch” kontynuuje, ażeby osiągnąć objętość mniej więcej dziewięć bilionów razy większą od startowej (jajeczka zapłodnionego). Jak już wiemy najpewniej, cały plan organizmu, czyli efekt tej konstrukcyjno–wybuchowej ekspansji, mieści się gotowy w jądrze jajeczka i dla powodów, o jakich tutaj mówić nie mogę (bo by nam wywód rozsadziły), podobny, choć nie całkiem taki sam „budowlany projekt” mieści się w główce męskiego plemnika, która poza tym, że ów plan zawiera, jest „zapalnikiem” bioeksplozji (którą byłbym gotów zwać „eksformacją”, ponieważ chodzi o skomputeryzowane biochemicznie INSTRUKCJE pewnej budowy). Ponadto należy zwrócić uwagę na osobliwy fakt, stanowiący największą różnicę między naszymi technologiami wszelkiej konstrukcji (np. aut, komputerów) i wszelkiej budowy (np. mostów, domów) a technologią, jakiej używa życie, dopracowawszy się jej w czasie ostatnich trzech (prawie że czterech) miliardów istnienia planety Ziemi. 3 Eksformacją biotechnologiczna, zwana w biologii ontogenezą, a prościej rozwojem płodowym, zachodzi niby to znacznie wolniej aniżeli zwyczajna detonacja naszych materiałów wybuchowych, ale jeśli już pominąć nawet przeciwstawny niszczeniu efekt embriogenezy, boć ona stwarza, a nie niszczy, przecież w porównaniu czysto pomiarowym zjawiska rozplemu żywych organizmów wedle proporcjonalności nie ustępują błyskawicznym eksplozjom różnych dynamitów, ponieważ objętość końcowa od początkowej jest dla materiałów wybuchowych najwyżej miliony razy większa, lecz dla nas i innych rozmnażających się od jajeczka żywych stworzeń większa jest BILIONY razy. Ta stanowi wszak milionkrotną różnicę na korzyść życia: jeżeliby zatem uwzględnić odmienność stanu początkowego od końcowego, w procesach życia konstruowanie zachodzi nie mniej „wybuchowo” niż w technice rozmaitych typów „wysadzania w powietrze”. Jest to dla nas może jeszcze nie całkiem doniosłe i powyższe zestawienia mogą patrzeć na z lekka naciągane: byłoby to istotnie błahą odmiennością używanego tu i tam języka opisów, rzecz jednak w tym, że my ową eksformacyjną technologię życia będziemy umieli w przyszłości przejąć i zastosować dla nie tylko biologicznych celów. 4 Mianowicie różnica między konstruowaniem technika–inżyniera i budowaniem organizmu nie ogranicza się do powyższej dyferencji. Najbardziej istotna różnica nie spoczywa tam, gdzie obserwujemy raz wybuch chaotyczny, entropię gwałtownie powiększający, a raz „wybuch” rodzicielski, sterowany z niedościgłą dla nas precyzją, który entropię, zawartą w płodzie, kosztem jej wzrostów gdzie indziej pomniejsza. Najważniejsza dla inżynierii różnica spoczywa w tym, że w naszych technologiach zawsze do czynienia mamy z materiałem i narzędziem, z tym, co jest obrabiane, i tym, co obrabia, z budulcem i budowniczym, z operowanym i operatorem, z pojazdem i kierowcą, z tworzywem i instrumentem, ale tej zasadniczej dwoistości zjawiska życia nie znają. Żywe „samo siebie buduje”, samo kształtuje, samo steruje, samo reguluje, samo stwarza, stąd też moja dla skrótowości (a nie ze słowotwórczej pasji) wzięta i zaproponowana „eksformacja” jako zdumiewające zjawisko „projektowania potomków”, „konstruowania dzieci”, których projektanci–konstruktorzy może nawet nie chcą, i nie wiedzą nigdy, jaka z permutacji i z kombinatoryki ich genów wyniknie składanka jako niemowlę… To jest najdziwniejsze i to będzie pewno dla przejęcia inżynieryjnego najbardziej trudne… 5 Prawie na pewno nie było aż tak, jak wyobrażał sobie Marks, że to praca stworzyła człowieka, jego powstanie z hominidów, ale na pewno prototypem dowolnego narzędzia naszej ery była ręka. Bez uwolnienia wyprostnej ręki od funkcji wspierających, czyli bez naszej dwunożności i wyprostnej postawy, byłoby z powstaniem manufaktury (czyli rękodzieła) i automatyki współczesnej bardzo niedobrze. Eolit, czyli posługiwanie się kamieniem nieobrobionym, paleolit, czyli długie wieki technologii łupania i ociosywania minerałów, początek neolitu i tak dalej byłyby niemożliwe bez pozostającego w mocy do dzisiejszych dni podziału na to, co obrabia, i na to, co jest obrabiane. Oczywiście — tam gdzie wkracza w obszar naszych potrzeb mniej albo bardziej „zdomestykowane” życie, podział traci (ale tylko częściowo) zasadność. Rolnik wszak nie obmyśla budowy ziaren, z jakich mu zboże wyrośnie, ale narzędzi do uprawy roli też potrzebuje; i to samo mamy w każdej hodowli, żywca na przykład (w hodowli zwierząt domowych, np. psów, to samo). Jednakowoż to jest alfabet, o którym nie warto mówić, kiedy patrzymy w przyszłość. W moich opowiadaniach SF z ziaren zasadzonych powstają (bo wyrastają) magnetowidy czy meble, ale tak dobrze być jednak nie może: nie wiemy w jakich postaciach nastąpi zjednoczenie narzędzia–obrabiarki i materiału obrabianego, ale skoro życie ziemskie potrafiło tej sztuki dopiąć, nie widzę żadnych niepokonywalnych przeszkód na drodze, wzdłuż której i my, może już w XXI wieku, podobne technologie nauczymy się szybko wdrażać w życie. Nie trzeba od razu myśleć zbyt fantastycznie: o worku siemienia, który polany czymkolwiek wrasta w glebę, ażeby z niej wyrosło lśniące auto. Idzie jednak o rzecz zasadniczo poważną, o tę mianowicie, że koszty produkcji będą może nie aż tak zerowe prawie, jak koszty wzrostu chwastów czy trawy, ale jednak okażą się niesamowicie skromne w zestawieniu ze współczesnymi. A ponieważ nie wiemy ani jaką drogą, ani jakimi metodami ta największa z rewolucji naukowo–technicznych się ziści, podobnie jak do dziś nie wiemy, jak się przed miliardami lat na Ziemi urzeczywistniła (czyli jak życie powstało, mówiąc po prostu), nie należy zbyt pochopnie wybiegać w przyszłość nieznaną, ale brzemienną tym, co jest do odkrycia i/albo wynalezienia, ponieważ nie będzie to ani rzetelne odkrycie, ani niesłychany nigdzie wynalazek. Przecież życie ziemskie „wymyśliło” ową technologię tak dawno i tak powszechnie i z takim sukcesem ją realizuje (przy okazji nas samych wykonawszy), więc nie należy umieszczać tej metody inżynieryjnej pomiędzy bajkami. (Dlatego takie gwiazdy przewodnie przyświecały mi w latach 1962–3–4, kiedy pisałem książkę pt. Summa Technologiae). Dopisałem się w niej nawet „czystej hodowli informacji”, czyli takiej hodowli, która by już w życiu wcale służyć nie miała, lecz która by nam jako plon dostarczała teorii naukowych: ale to temat trudny, szeroki i całkiem osobny. 6 Trzynaście lat temu ówczesna Polska Akademia Nauk zwróciła się do mnie o prognozę rozwoju biologii i napisałem ją, wziąwszy za granicę okolę roku 2060, ponieważ było to (z grubsza) podwojenie okresu, odkąd Crick z Watsonem wykryli kod dziedziczności DNA, uniwersalny klucz–projekt wszystkiego, co żywe na Ziemi. Prognoza nie ujrzała światła w Polsce, przyszły bowiem burzliwe czasy (pierwszej) Solidarności wraz z ich wojennym efektem. Opublikowałem ową prognozę (może i głupio, na pewno nawet) w Niemczech, w pewnej antologii SF i przekonałem się o tym, co później i gdzie indziej tamże ogłosiłem, że mianowicie jeżeli ktoś pragnie ukryć przed całym światem jakąś informację (tu: prognozę) tak, żeby zginęła w sposób doskonały ze wszystkich oczu, to nie do kas pancernych, nie do lochów, nie pod szyfry, nie przez zakopanie o północy na cmentarzu trzeba ją ukryć: wystarczy opublikować ją w milionowym choćby nakładzie jako Science Fiction, to i diabeł nie pozna się na niej i w ten sposób najznakomitszy zostanie ukryta. Tam więc właśnie napisałem mniej więcej to, co tu powyżej streściłem (było to bardziej fachowo wyrażone, bo pisałem z myślą o fachowych adresatach), a ponadto dodałem, że wywodzić się pocznie z przeciętnej inżynieryjnie czy i biotechnicznie biologii zarówno domena cisbiologiczna jak trans–biologiczna. Miało to zaś oznaczać tyle: najpierw posiądziemy elementarze wiedzy, przeciętnej, czy ściągniętej po prostu z obszaru życia, i dopiero później, jak sądziłem, zapewne po roku 2060, przejdziemy w obszar „transbiologiczny”. Różnice widziałem zaś, aby to najprościej wysłowić, tak oto: cis–biologia inżynieryjna jest tym, co po swojemu na użytek prokreacji czyni po prostu życie (stąd się np. wywodzić może mikrochemiczne konstruktorstwo wszelkich leków tak skierowanych w przyczyny schorzeń, jak pocisk w cel: dzisiaj na taką drogę wkroczyły wielkie koncerny, zwłaszcza w USA, jak GEN–TECH np., i jest ich już wiele, choć efekty na razie skromne). Trans–biologią natomiast pozwoliłem sobie nazwać techniki produkcyjne, już nic a nic z procesami życia nie mające wspólnego wprost poza tym, że wywodliwe będą z metod, jakimi pracuje życie, tj. jakich używa dla tworzenia genomów, dla ustalania określonych gatunków roślin i zwierząt (czemu by dziś odpowiadało ustalenie projektowo–montażowe gatunków aparatów telewizyjnych i samochodów), dla obdarzania tych gatunków zdolnościami samonaprawczymi w razie uszkodzeń (tj. potencją samoleczniczą, jak bliznowacenie ran na przykład), i tak dalej. Jednym słowem sugerowałem, że się najpierw wewnątrz domeny biologicznej konstrukcyjnie rozgościmy, a potem i poza nią, douczeni należycie, jako najwyższej klasy „plagiatorzy”, wkroczymy (stąd właśnie mi się wzięły owe „cis” i „trans” jako dodatki określające). Taka kolejność prac kreacyjnych wyglądała na prawdopodobną z powodu do zaprezentowania. 7 Sądzę, że bystry Czytelnik orientuje się, czemu w piśmie, poświęconym szeroko rozumianej praktyce informatycznej wspominam o powyższym temacie: przecież idzie o zawłaszczanie najcenniejszej i najbardziej wyrafinowanej INFORMACJI (eksformacją na użytek tego tekstu nazwanej), jaką można sobie w ogóle wystawić, a można, ponieważ ona w ziemskiej biosferze powszechnie istnieje i od miliardoleci funkcjonuje. Wszelako dodałem podział następujący. Jak się dzisiaj w nauce powszechnie uważa, co najmniej dwuzakresową sprawność wykazuje proces życia. Po pierwsze tę, że sam powstał, na ogół bowiem nie sądzi się, że jakowiś życzliwi praastronauci przywieźli na Ziemię zarodki życia i na niej zasadzili. A zatem (to po wtóre) okazało się, że życie, samoistnie na Ziemi, w jej oceanach zrazu pieniące się, wylazło po milionoleciach na kontynenty, przekształciło atmosferę, tlenem ją dla przyszłych zwierząt uzdatniając, i olbrzymim drzewem ewolucyjnym gatunkotwórczości zapełniło otulinę planety tak, że jest do dziś na jakieś 10 kilometrów (albo więcej nieco) gruba (gdy mierzyć od dna oceanów pod spodnią część stratosfery, do której czasem ptaki mogą podlatywać). Otóż ta dwuskładnikowa potencja, właściwa życiu, NIE musi wcale być przez inżynierię człowieka skopiowana czy przejęta, ponieważ wprawdzie „życie inaczej konstruować nie mogło” (przecież jakby SAMO nie zdołało powstać, to by także niczego „w dalszym ciągu” stworzyć nie potrafiło, boż nie byłoby KOMU cokolwiek organizować w ustroje), natomiast my, ludzie, możemy porzucić założenie, iż zaczekamy „aż samo coś powstanie, a potem dzięki samopowstaniu nauczy się, „co dalej z tym robić”. Otóż my naszemu tworzywu biotechnicznemu nie będziemy musieli aż takiej dubeltowej umiejętności wprawić, albowiem tworzywo nie musi „samo” powstać: MY możemy je po swojemu syntetyzować i obdarzyć zdolnością rozwijania się w kierunku DLA NAS KORZYSTNYM. Mchy, porosty, dinozaury nie DLA NAS wszak powstały, natomiast jako władcy bioinżynierii będziemy zainteresowani w produkcji tego, co NAM tak posłuży, jak np. dziś nabiał. A zatem, już bardziej abstrakcyjnie: zbiór wszystkich możliwych budowlanych „elementów”, które mogą zostać zaopatrzone uzdolnieniem dalszego rozwoju i swoistego projektowo (jak w jajku) zaprogramowanego budowania jest najprawdopodobniej większy od zbioru takich „elementów”, które mogą zarówno (po pierwsze) bez wszelkiej z zewnątrz skierowanej inżynieryjnej pomocy, jakową zaródź utworzyć, a następnie, po wtóre, z tej zarodzi wywieść ewolucję tworów w rodzaju flory i fauny. Drugie zadanie samo ma powstać i samo to powstałe obdarzyć uniwersalną potencją sprawczą, rozprężną prospektywnie w obszarach mórz i lądów planety. Jest ono niechybnie TRUDNIEJSZE aniżeli tamto pierwsze, ażeby tylko to syntetyzować, co by (wprawdzie samo do powstania niezdolne) posiadło sprawcze moce rozmaite. Na prostym przykładzie można rzecz unaocznić. Koni nie produkujemy i produkować z pierwiastków nie umiemy. Natomiast jakieś „prakonie” były przodkami koni w ich obecnej rozmaitości. Zegary, w przeciwieństwie do koni, same narodzić się oczywiście nie mogły (mam na myśli zegary „sztuczne”, które umieszczamy na wieżach ratuszowych bądź też na przegubach rąk, a nie „naturalne” w rodzaju drgań atomowych czy obrotów planet). Myśmy więc zegar wymyślili, skonstruowali, a od najpierwszych poszły „radiacje ewolucyjne”, a nawet „specjacje” czyli gatunkotwórczość zegarowa, albowiem zadanie (pomiar czasu) jest wspólne dla klepsydry z piaskiem i dla kwarcowego zegarka, ale budową, każdy to wszak przyzna, różnią się nie mniej, niż komar od konia. Tak zatem: na Ziemi powstało tylko to oczywiście, co powstać mogło SAMO: bez interwencji zewnętrznej, jako produkty startowe ewolucji naturalnej, i zapewne mnogość rozmaitych a niezbędnych dla narodzin życia warunków, które spełnione być muszą (inaczej życie się nie narodzi) jest daleko większa aniżeli liczba warunków, jakie spełniać musi to, co samo by nie powstało, ale co my zdołamy pchnąć na drogi dalszej specjalizacji nam potrzebnej. Zresztą cały zbiór naszych technologii od wytopu metali po konstrukcję wahadłowców to nic innego przecież, jak „popychanie” i „nadawanie rozpędu” pewnym technikom, w powiciu bardzo elementarnym, zawodnym, wysoce awaryjnym, a postęp techniczny (między innymi) zmniejsza zawodność, a zwiększa pęki parametrów sprawności NAM potrzebnych. Chodzi więc o olbrzymią rzekę procesów nie ze wszystkim nowych, ale takich, które umożliwi przejęcie talentów życia po to, ażeby budować podobnie jak życie, ale już jakieś „pozażywe” twory. Pierwszym „pozażywym”, jaki mi na myśl przychodzi tutaj, może być KOMPUTER i potrafilibyśmy już wyrysować — poczynając od liczydeł — całe ogromne ewolucyjne drzewo coraz sprawniejszych komputerów, które — wszystkie — pracują informacjoprzetwórczo, mniej więcej tak, jak informacjoprzetwórczo pracowała i pracuje naturalna ewolucja. Ona robiła swoje „dla siebie”, a komputery robią coś podobnego ale wyłącznie „dla nas”. Jednym słowem, postulowałem potencjalne istnienie dwóch zbiorów „urządzeń”, co by można też jak w logice narysować: większy krąg obejmuje to, co nie powstaje samo, ale co raz powstałe potrafi się „rozmnażać” i coś zadanego „konstruować”; a mniejszy krąg wewnątrz tamtego większego „potrafi” zarówno sam powstać (przy sprzyjających warunkach naturalnych, oczywiście), a ponadto zdoła uruchomić jakąś ewolucję: na Ziemi biologiczną z DNA, z białkami, ale gdzie indziej może odmienną… Ot i wszystko, co można wymyślić na temat sprawstwa konstrukcyjnego, NIE odwołując się (to warunek konieczny i nieprzekraczalny) do żadnych sił witalnych, do żadnych praastronautów, do żadnych czarodziejskich mocy, albo do zielonych ludzików… 8 W zakończeniu powrócę do dnia dzisiejszego. Ostatnimi czasy pisało się wiele o zagrożeniach pochodzących z inżynierii genetycznej, z Human Genome Project, z klonacji. Ta ostatnia zwłaszcza dorobiła się gromów padających też z Watykanu. Otóż żadnej klonacji dwaj uczeni amerykańscy nie wykonali. Klonacja byłoby to wzięcie z organizmu żywego komórki i wyhodowanie z niej (jak z zapłodnionego jajeczka) bliźniaczego organizmu. Oni natomiast uczynili tylko to, co teraz możliwe. Brali ludzkie jajeczko, omyłkowo zapłodnione niejednym plemnikiem lecz dwoma (co takie jajeczka zawsze skazuje na krótki wstępny „rozruch” podziałowy i zgon, bo nic dalej powstać na skutek dubeltowej inseminacji nie może — na pewno). Następnie zaś (co już robi się np. u bydła z jego jajeczkami) rozpuścili odpowiednim enzymem tak zwaną ŻONA PELLUCIDA, która otulała już na dwoje podzielone jajeczko. Kiedy tych dwu komórek, w jakie pierwsze jajeczko się podzieliło, już nic nie spaja, każda z nich zaczyna osobną drogę rozwojową (ale tak czy owak rychło ginie — przypominam o zgubnym błędzie „pseudopoczęcia”, co był na początku). To i wszystko. W moich oczach było to nie żadne klonowanie, lecz tylko sprawdzenie wiedzy nie doświadczonej jeszcze, że niczym się rozwój jajka ludzkiego po zapłodnieniu nie różni od rozwoju jajeczek wszelkich innych zwierząt. To się może podobać komuś albo nie, lecz na temat niezbitych faktów nie można się sensownie spierać. Oczywiście, informacyjna zawartość, a tym samym prospektywna potencja (tak by rzekł stary Driesch) inna jest u ludzkiego, inna zaś u krowiego jajeczka, ale tego — dlaboga — nikt nie neguje. Czy było konieczne takie eksperymentowanie — tu można być zdań rozmaitych! Lilienthal, latając na swoim szybowcu, sto lat temu kark skręcił. Czy to było potrzebne? Blanchard wcześniej miał z balonami niemiłe przygody. Czy to było potrzebne? Widzę pierwsze kroki — a raczej pełzanie — w stronę, w której kryje się to, co wyżej usiłowałem opisać z trudem, typowym dla długoterminowej prognozy, ponieważ zjawisk przewidywanych a nieznanych NIE MA na razie, to i terminów, czyli języka ich deskrypcji brak. Były i będą małe kroczki w tę stronę, i jeśli cokolwiek wiem o poznaniu ludzkim, wiem, że nic go na tej drodze — czy ku dobru, czy ku złu — żadnymi admonicjami, żadnymi kondemnacjami, żadnymi ustawami nie powstrzyma. Taki jest już nasz los „faustowski”, ale w ocenę człowieka nieubłaganie zmierzającego w przyszłość tutaj się wdać nie zamierzam, ponieważ nie wartościuję, pochwał ani potępień nie ciskam, lecz wyłącznie referuję to, co w łonie przyszłości skryte. Oczywiście, różne rządy mogą wydawać ustawy z mocą zakazów, jak 160 lat temu miał przed poruszającym się z prędkością piechura pociągiem iść strażnik, machający czerwoną flagą, a jakby pociąg zdołał mknąć 40 km/h, to by (jak głoszono) pasażerowie co do jednego zwariowali. Jakoś zakaz ustawowy padł, i jeżeli ludzie i dziś (jak w Kijowie wobec końca świata”) wariują, jest to całkiem osobną historią… Fantomatyka (II) 1 O przyszłości fantomatyki, o jej istotnych odmianach można by napisać jeszcze wiele poza tym, com już w poprzedniej edycji „PC Magazine” omawiał. Ostatnim czasem (piszę w grudniu 93) ukazało się w Niemczech kilka prac, poświęconych wykazaniu mego antycypującego prekursorstwa w powyższej problematyce (nie mają te prace nic wspólnego z SF, por. np. „Zukunftsstudien herausgegeben vom Institut zur Technologiebewertung”, Berlin 1993, autor Bernd Flessner, artykuł pt. „Archaologie in Cyberspace, Anmerkungen zu Stanisław Lems Phantomatik”). Autor cytuje przy tym pierwsze, najstarsze wydanie mej „Sumy Technologicznej” z roku 64, książki zatem, którą pisałem w latach 62–63 — ukazała się z rocznym opóźnieniem, skromnym nakładem Wydawnictwa Literackiego i żadnego echa ani u nas, ani poza naszymi granicami nie wzbudziła. Jedynym recenzentem stał się wtedy w „Twórczości” Leszek Kołakowski, który moją (i inne też antycypacje lemowskie) „fantomatykę” uznał za niemożliwą raczej w ziszczeniu, a znów, gdym po trzydziestu latach w artykule, umieszczonym we „Wiedzy i Życiu”, powołał się na tamtą publikację i moją, i jego, dość gniewnie odparł w liście do „Wiedzy i Życia”, że przecież tak zwana „fantomatyka” czy też „Wirtualna Rzeczywistość” to nic więcej nad iluzją, a z tego, że się człowiek poddaje iluzji nie wynika, jakoby pomiędzy jawą a iluzyjną fikcją nie był w stanie dokonać rozróżnienia! Iluzja zatem — można by dodać — żadnej innowacji w ontologię nie wnosi, gdyż ostateczność autentycznej rzeczywistości w niczym przez technologie „cyberspace” nie może zostać naruszona: wszak ten, kto uda się do „fantomatu”, wie, że będzie w nim przeżywał zamówione fikcje, i ta świadomość nie może go opuścić. Czy będzie miał fantomatyczny romans z królową angielską (w jej iluzyjnej młodości), czy otrzyma z rąk króla szwedzkiego Nagrodę Nobla za dokonania, jakich na jawie nie dokonał, on o tym, że nie dokonał, będzie wiedział doskonale. 2 Jakoż teza biskupa Berkeleya (esse est percipi) mogłaby się wbrew antyiluzjonistycznej diatrybie Kołakowskiego ziścić dopiero na bardzo zaawansowanym etapie dalszego rozwoju „fantomatyki”. Co do również przywoływanej przeze mnie hipotezy: nihil est in intellectu, quod non prius fuerit in sensu, tj. niczego nie ma w umyśle takiego, czego uprzednio w zmysłach nie było, jest to hipoteza wysoce kontrowersyjna. Pozwolę sobie niżej przedstawić to na konkretnym materiale. Otóż trzeba przyznać, com zresztą był już zrobił, że „fantomatyka w pieluszkach”, tj. dzisiejsza, choć niejako na wyrost prostytuowana (wg zamierzeń osiągnięcia „zaraz” tzw. „seksu z komputerem”), wskutek niedoskonałości swojej, aż prymitywnej, czysto technicznej nawet, nie może rywalizować z pełnią intensywnego odczuwania jawy jako przeżywanej rzeczywistości ostatecznej. Toż nakładają ci, kliencie fantomatu, istne „uprzęże” elektroniczne, Eyephones, Datagloves itp., i jak koń w szorach, ściśnięty popręgiem, z pętlicą na podogoniu, z wędzidłem w pysku, powodowanym cuglami (jak ty — impulsami komputera) nie możesz nie wiedzieć, że jesteś pod władzą (uprzęży — koń, a fantomatu — człowiek). 3 Otóż na 225 stronie prawydania „Sumy Technologicznej”, w podrozdziale tam otwartym, dokonałem podziału, dziś jakby nie istniejącego, fantomatyki na obwodową i centralną. Zacytuję: „Fantomatyka obwodowa — to wprowadzenie człowieka w świat przeżyć, których nieautentyczności wykryć nie można”. Można jednak wykryć drugą odmianę, nie obwodową (czyli nie na okolę zmysłów ludzkich działającą wirtualną rzeczywistość), lecz taką, którą trzeba nazwać „centralną”: albowiem oddziałuje nie za pośrednictwem przesyłowym sensorium, lecz wprost: na mózg. Jak dotychczas, nie wiadomo, jak można by to czynić bez naruszenia kostnej i oponowej osłony mózgu. Tylko podczas dokonanej dla celów zabiegu chirurgicznego trepanacji czaszki powtarzano drażnienie określonych miejsc obnażonej wtedy kory mózgowej, co u operowanego wywoływało przeżycia, zakodowane w jego pamięci. (Np. przy drażnieniu kory skroniowej słyszał — bez cudzysłowu, boż był pewien że „naprawdę słyszy” — jakąś arię operową, jeszcze na dodatek „czuł”, że jej w operze słucha). To jednak, co mogło zostać wywołane drażnieniem mózgu podczas operacji, tak samo było nieprzewidywalne, jak nieprzewidywalna jest treść tego, co będziemy śnili w czasie nadchodzącej nocy — przed zaśnięciem. Otóż do fantomatyki „centralnej”, czyli tak doskonałej, aby dorównała poczuciem „ostatecznego przeżywania nieusuwalnej rzeczywistości”, można przecież podchodzić i dochodzić stopniowo, a zatem, skoro wstępne etapy fantomatyki obwodowej o tyle mamy z głowy, że już odpowiednie aparatury skomputeryzowane na świecie istnieją i działają, wypada uczynić krok czy skok naprzód w głąb przyszłości, jako następny. Pisałem co prawda w gumie” roku 64, że rozmaite rytuały, hipnozy, sugestie, misteria, potrafiły z dawien dawna wprowadzać grupy ludzi w stan przyćmionego (lub nie) zwężenia świadomości, co mogło się kojarzyć z orgiastycznym nawet rozpasaniem. Ponadto jako „prefantomatyczne” nazwałem przed 30 łaty skutki użycia narkotyków jak meskalina, psylocybina, haszysz, LSD, i podobnych. Sam, w jednym z tekstów, które zapisały moje zwierzenia, przedstawiłem przeżycia doznane przeze mnie po (eksperymentalnym, pod kontrolą psychiatryczną) zażyciu 1 miligrama oczyszczonej psylocybiny (wyciągu z halogenicznego grzybka Psilocybe). Otóż ja bym tu — na użytek wywodu — podzielił tak na dwoje narkotyki, że z jednej strony mamy substancje jak alkohol, psylocybina, a z drugiej takie, jak derywat lyserginowy, albowiem stany halucynacji po zażyciu pierwszych zasadniczo nie odmieniają świadomości człowieka, iż on zażył coś, co wprowadziło go w świat iluzji widziadłowych, natomiast zażycie preparatów, jak LSD, może taką świadomość unicestwić, tj. zatrzeć całkowicie. W tym tkwi niebezpieczeństwo, bo bywało, że po zażyciu LSD człowiek pewien, iż jest „przenikliwy” dla wszystkiego, po prostu wchodził pod nadjeżdżające auto i na miejscu mógł ponieść śmierć, gdyż brakło mu wtedy poczucia zagrożenia, nieobecnego w jego (przytrutym) umyśle. Ale powiedziane jest mi tylko wstępem do krótkiego rozważenia dwu problemów: po pierwsze, czy i jakie mogą się okazać w przyszłości szansę „instrumentalnego pogrążenia człowieka w przestworze fantomatyki centralnej” — czyli poprzez oddziaływanie na jego mózg bez użycia jakichkolwiek środków chemicznych — narkotyków (oraz działań typu hipnozy, narzuconej przez „osoby trzecie”). Po wtóre, czy już teraz w normalnym stanie ciała i ducha przebywający człowiek może przeżywać jakieś — chociażby zaczątkowe — odpowiedniki „pogrążenia się w centralnie sfantomatyzowanej — iluzorycznej, lecz nie odróżnialnej od jawy — więc w fikcyjnej realności”. 4 Obecnie żadnych zasadniczo metod oddziaływania na mózg zamknięty w czaszce nie znamy, tj. nie znamy takich, które powodują procesami świadomościowymi sterująco. Co prawda, istnieją już całe grupy stosowanych (nie tylko dla celów terapeutycznych, dlaboga) leków, które tak wpływają na przetwarzanie informacji we śnie, ze na dołączanych do opakowania lekarstw kartkach wyjaśniających powiedziane jest, iż dany lek działa np. tak, że po zażyciu „występują u leczonego sny koszmarne”, albo że sny są charakteryzowane osobliwą intensyfikacją barw, kolorów i że są „bogate w żywą fabułę”. Niemniej, ani nie może nikt mieć a priori pewności, że mu się koszmary przyśnią, ani że, po zażyciu tych drugich preparatów, będzie doznawał śnienia żywo kolorowego. Nawiasem wolno dodać, iż człowiek, który by wynalazł (syntetyzował) preparaty nie będące narkotykami, lecz umożliwiające „sterowanie chemicznie pobudzoną treścią wybranego snu”, w krótkim czasie dorobiłby się miliardów. W gruncie bowiem, jeżeli trzeźwo patrzeć na „bilans życia” każdego człowieka, jedną trzecią czasu tego życia „marnujemy” śniąc i śpiąc, a na treść tego, co śnimy, właściwie prawie żadnego wpływu nie mając (stąd moje określenie czasu snu jako „marnowanego”, w sposób konieczny zresztą, choć powody, dla jakich jesteśmy zmuszeni spać, są nam, tj. psychologii, wiedzy medycznej, tak nieznane, że tu niczego prócz bezliku niesprawdzalnych hipotez „po co śpimy” nie ma). Wykorzystanie nienarkotyczne, czyli nie wywołujące zależności (jak np. środki grupy heroinowej, morfinowej, opium, itp.), nie prowadzące w przyspieszeniu do śmierci, lub w inny sposób nie powodujące zniewolenia charakteropatycznego umysłowości, nie istnieje. Zawsze idzie zresztą o chemikalia, do organizmu jakoś (zastrzykami, jak heroinę, albo doustnie — tak zażywałem psylocybinę) wprowadzone. Sprawa w tym, aby niczego nie łykać i nie zatruwać się, lecz tylko stwarzać ułudę, doskonale zrównywaną zjawą. 5 Ależ oczywiście: ułudy takie są udziałem wszystkich właściwie ludzi na tym świecie i tak było od zawsze. Mam na myśli sen, w którym nie jesteśmy pogrążeni w „nicości” (tzw. „sen kamienny”), lecz w którym przeżywamy to, co po polsku zwie się „marzeniem sennym”, a po niemiecku zróżnicowanie jest tak samo bardziej dobitne, jak w angielskim czy w francuskim języku (Traum, dream, reve, to jest „marzenie senne”, a Schlaf, sleep, sommeil, to sen). Jakkolwiek pojawiają się psychologicznemu treningowi jakoby podległe metody, mające śpiącemu umożliwić „kierowanie tym, co śni”, chociaż w jakimś stopniu niewielki wpływ na śnioną fabułę może przeżywać sporo ludzi — indywidualne różnice są — przecież wszystko to jest skromne w zestawieniu z „rzeczywistością śnienia”. Pozwolę sobie zademonstrować to na własnym przykładzie: na tym po prostu, co mi się ostatnio śniło. 6 Należy jednak rzec pierwej, po co w ogóle takimi kwestiami mamy się zajmować. Otóż, primo, my nie wiemy, po co musimy spać i śnić, ale wiemy, że komputerom naszej generacji nic a nic się nie śni, i że jest im sen nie tylko zbyteczny, ale, gdyby ktoś taką pseudośnioną software zaprogramował, też zupełnie by nie było wiadome, po co komputer ma to w ramie przetwarzania danych (data processing) czynić. Zupełnie inaczej wyglądałaby sytuacja, gdyby komputer, który „spędził dłuższy czas w stanie bezsenności” pracował „gorzej” od takiego, co się „był wyspał” — właśnie całkiem, jak człowiek. Różnica i tu, między naszym mózgiem a „mózgiem elektronowym” (jak zwano komputery pierwszej generacji Eniaków, tj. gdy raczkowały), może okaże się jednym z kluczy (czy wytrychów) pokazujących, dlaczego ewolucja naturalnego mózgu coraz bardziej odmienna okazuje się od inźynieryjno–informatycznej, bo konstrukcyjnej i programotwórczej ewolucji kolejnych generacji komputerów. Dodam tylko (może tylko i nie od rzeczy), iż Marvin Minsky, jeden z ojców AI czyli „sztucznej inteligencji”, uznawanej przez jednych za nieosiągalną mrzonkę, a przez zwolenników Minsky’ego za cel, prawie rychło osiągalny, głosił, iż tzw. „zagadka świadomości człowieka” żadną zagadką w istocie nie jest. Uważał mianowicie, że świadomość to jest kontrolna instancja wyższego (najwyższego) rzędu, która nie zajmuje się poszczególnymi częściami bodźczych strumieni zmysłowych, lecz która baczy na to, jaka całość ze spływania się wszystkich sygnałów dosyłowych (do mózgu) powstaje. Niby wynikałoby stąd, że jak już taką instancję najwyższej kontroli i integracji wprowadzimy jako „metaprogram” do programów, to komputer owładnie świadomością (ale jakoś nie ma tak dobrze). Dlaczego to jest uliczka konstrukcyjna i dla hardware i dla software — dla obecnych dróg powstania kolejnych generacji komputerów — powiem może kiedy indziej, aby nie rozsadziło mi to roztrząsanie przewodniej linii w wywodzie. Więc jako curiosum zacytowałem powtarzaną przez Minsky’ego hipotezę. 7 Po dłuższym mozole docieram wreszcie do demonstracji dwu moich snów wypełnionych treścią śnioną. W jednym śniło mi się, że jestem młodym, dopiero co wyświęconym księdzem i że podczas mszy mam wygłosić (w kościele oczywiście) kazanie, i odczuwałem potworną tremę, czy będę mówił do rzeczy i jak należy. W zestawieniu z moją rzeczywistością i życiorysem było to zaiste dziwne, bo i nie wierzący jestem i nigdy „nie śniło mi się” wstąpienie do seminarium duchownego i nigdy żadnych kazań rzecz jasna nie wygłaszałem ani wygłaszać nie zamierzałem. Tak tedy treść snu jest wprost na antypodach mojej drogi życiowej, toteż przyczyn które by tę treść spowodowały, domyślić się nie potrafię. Potrafię natomiast wspomnieć różne, całkiem jakoby realistyczne elementy tego snu (jak wyglądało wnętrze kościoła, którego w tej postaci nigdy nie widziałem, jacy ludzie znajdowali się w pierwszych szeregach owego wnętrza — nikt tam nie był spośród osób mi znanych itd.). Otóż poza tym, co powiedziałem, najzupełniej „oczywiste” i „nieodmienne” było w tamtym śnie odczucie, że jestem księdzem, że jestem dopiero na początku tej życiowej drogi, że czynności, które mam wykonać, są naturalną i konieczną moją obligacją, itd. Jednym słowem, „czułem” „za sobą” taką przeszłość, jakiej nigdy na jawie ani w sposób szczątkowy nie przeżywałem. Drugi sen zdaje się bardziej „realistyczny”. Oto jestem studentem wyższej uczelni i pędzę do niej po jakichś wakacjach, w obawie, że się spóźnię na wykład, pierwszy w tym roku. Przybiegam prosto do uczelnianego gmachu, nie mając nawet czasu, żeby pierwej udać się do bursy, w której dzielę pokój z jakimś „Jurkiem”, którego we śnie od dawna znam, wiem we śnie, że mam w kieszeni klucz do wspólnego pokoju, nie pozostawiony przez pomyłkę u janitora, lecz jakoś w „innym” pośpiechu włożony do kieszeni (mogę go wyczuć przez materiał ubrania), wpadam do wielkiego audytorium, witam się z dobrze mi znanymi kolegami (na jawie żaden z nich mi się po przebudzeniu nie skojarzy), proszą bym usiadł w pierwszym rzędzie, ale wolę usiąść obok znajomego w drugim na skraju i — naraz — widzę „Jurka”, zrywam się ażeby go przeprosić za ów nieszczęsny klucz, on jednak nie ma mi tego za złe, tu wszakże rozlega się szmer głosów znamionujący, że już zbliża się wykładowca — profesor, więc dostrzegając, iż nie zdjąłem płaszcza, rzucam się ku szaragom w takiej konfuzji, że budzę się gwałtownie, jakby mnie ktoś wykatapultował ze snu na jawę, a pierwszym moim odczuciem jest zdumienie: jak mogłem brać ów sen, tak różny od realności, za najpewniejszą jawę moją… Znowu mamy, poza akcją oraz bardzo realistycznym uszczegółowieniem snu, powstałą w nim, całkowicie w życiu obcą mi przeszłość osobistą. Istotnie przed wielu laty studiowałem, ale takich kolegów nie miałem, nigdy podobnej uczelni nie widziałem, w żadnej bursie nigdym nie mieszkał, itd., itp. Co więc wspólne jest obu opisanym skrótowo snom, to przeszłość śniącego, fikcyjnie dorobiona i dopasowana. Nie to, co miało dopiero nastąpić, boż to z już wyśnionej sytuacji wynikało (jako ksiądz — winienem był oczywiście wygłosić w należytej chwili kazanie, a jako student — zjawić się w audytorium i czekać na profesora). Natomiast poczucie tego, co było mojego wyśnionego życiorysu przeszłością, powstało i niejako towarzyszyło mi wewnątrz snu za każdym razem z taką samą pewnością i zwykłością, z jaką na jawie potrafiłbym wspominać moją przeszłość rzeczywistą. Otóż fantomatyka centralna dopiero wtedy może się okazać niejako „ostateczną instancją” przeżywania świadomości bytu, kiedy zdoła zaopatrzyć fantomatyzowanego człowieka nie tylko w aktualną, powiedzmy wybraną przezeń „z katalogu” iluzyjną realność, ale ponadto doklei do tej iluzji przeszłość, w nieodróżnialny sposób udającą, iż była to przeszłość jedyna w życiorysie, tak prawdziwa, że bardziej autentycznej być w niej nie może. 8 Tak zatem sen zdaje się sugerować, treściami śnionymi, iż nawet sam mózg bez „zewnętrznego udziału jakiegokolwiek” potrafi generować fabuły „zmyślone”, zaś ich iluzoryczność można dopiero rozpoznać po przebudzeniu. Tak zatem w zaczątku każdy z nas, jak „wirtualną buławę” nosi w tornistrze żołnierz, nosi w sobie prospektywną potencję przeżywania, iż jest, iż był tym, kim nie jest i nie był, i już to sugeruje pryncypialną (na razie) możliwość powstania nienarkotycznej „fantomatyki centralnej”. Może warto na marginesie tego szkicu dodać, że są środki nasenne (gromady barbituratów), które udaremniają mózgowi pracę typu „sennego marzenia”, a to zachodzi nie bez szkody dla mózgu, zwłaszcza przy dłuższym zażywaniu takich hypnotików, a także są środki innej grupy, które nie naruszają zdolności przeżywania marzeń sennych, lecz niekiedy nawet ją nasilają (w kierunku już wspomnianych snów barwnych i/albo koszmarnych). 9 O tym, po co jest sen, jak wspomniałem, pojęcia nie mamy, a hipotezy sugerujące, jakoby sam fakt dobowej zmiany dnia i nocy, światła i mroku, miał być generatorem przystosowawczym snu (jak okres zimy mógł być czynnikiem istotnie zniewalającym pewne zwierzęta do zapadania w sen zimowy), takie hipotezy nie dają się ani porządnie umotywować, ani poddać zabiegowi falsyfikacyjnemu. Nie wiemy zwłaszcza, czemu ten, kto przez wiele dni i nocy nie może spać (to było stosowane nawet jako tortura np. w więzieniach KGB), podlega halucynacjom i stanom pomrocznym. Tak, to jest kauzalnie wciąż niezrozumiałe. O patologicznych stanach i ich pograniczu, utrudniającym odróżnienie snu od jawy, zamilczę, boż by i to mi rozsadziło ten wywód szkicowy. W każdym razie można uskromniająco rzec tyle: fantomatyka obwodowa, działająca na mózg w „doraźnej teraźniejszości”, nie jest już wymysłem dziwacznym Lema, lecz rzeczywistością, w którą wielkie koncerny (SEGA na przykład) inwestują całkiem realne, wielomilionowe kwoty dolarowe. Natomiast możliwość fantomatyki centralnej na razie wciąż jest tylko szansą na przyszłość, ponieważ — o paradoksie — o budowie czynnościowej mózgu w ludzkiej czaszce wiemy nieporównanie mniej, aniżeli o budowie czynnościowej komputera każdej, skoro przez nas wyprodukowanej i programowanej generacji. Dodam na koniec, że różnicy pomiędzy językami zasadniczo „bezkontekstowymi” programowania komputerów i językami kontekstowo uwikłanymi w znaczenia (w semantykę) potrafimy się doszukać, ale chyba dopiero zaopatrzenie komputerów (pracujących nie iteracyjnie, nie krokowo zatem i nie szeregowo, ale poliparalelnie, równolegle) w ogrom pamięci uaktywnianej kontekstowo pozwoli rozziewy, otwarte między „mózgiem żywym” a „protezą cyfrową” — jaką jest komputer — zredukować: może aż dozerowo… 10 Powyższy tekst, w którym dane z psychologii snu „pomieszane” są z wtrętami „komputerologicznymi” napisałem rozmyślnie dlatego, ponieważ osoby typu „hackerów” popadają łatwo w nowy typ monomanii, więc już, przez swoje nadmierne zafascynowanie architekturą hardware i software, zamiast pogłębiać pojmowanie procesów psychiki, a tym samym i kreacyjnych, i językowo „rozumiejących”, powierzają poruszanie się budownictwa programów mocom obliczeniowym brute force. Gdyby istotnie wystarczyło miliony razy przyspieszyć data processing w układach, jakich prarodzicem była maszyna Turinga, to byśmy już posiadali komputery albo dorównujące, albo przewyższające ilorazami inteligencji ludzi, ale nie ma tak dobrze ani tak łatwo. Komputer, który będzie mógł, a nawet musiał spać i śnić, a potem nam treść tego, co wyśnił, opowiedzieć bez blagi i sztukmistrzostwa programistów, stanie na drodze rywalizacji z człowiekiem. Wypowiedzianym przez pewnego francuskiego dominikanina słowom (w roku 1948), że po powstaniu cybernetyki Wienera zjawiło się widmo maszyny, zdolnej pokonać zadania, jakie stawia rządzenie całym państwem, a nawet całym światem — może dla dobra, a nie dla zła ludzi — tym słowom wtedy nikt poważniejszej uwagi nie poświęcił. Lecz chaos postkomunistyczny czasu teraźniejszego pokazuje, że maszyna taka, którą negatywnie oceniałem przed trzydziestu laty, w nazwanej już SUMIE, dziś by się w tym skotłowanym świecie zapewne przydała… Może okazałoby się to nawet łatwiejsze od skonstruowania maszyny „zaopatrzonej w świadomość”, ale to raczej już temat dla osobnej rozprawki. PS. Kto by chciał sprawdzić to, com tu powiedział, na materiale znacznie rozleglejszym, może sięgnąć do I wydania Summa Technologiae, WL Kraków 1964, ale to niełatwe, bo miało tylko 3000 nakładu i ja sam już nigdzie go dopaść nie mogę (poza jedynym egzemplarzem w moim wzorniku). Tertium comparationis 1 Tytuł powyższy w obu wydaniach książeczki p. Jędraszki Łacina na co dzień znaczy „trzecia rzecz, służąca za miarę porównania dwu innym”. Ja też właśnie tak sądziłem — aż przeczytałem w Kopalińskiego „Słowniku wyrazów obcych i zwrotów obcojęzycznych”, że te same słowa łacińskie znaczą: „podstawa porównania, przedmiot (stan rzeczy), posiadający cechy wspólne dwóch porównywanych ze sobą przedmiotów (stanów rzeczy)”. To jednak nie jest to samo. Optuję za definicją Kopalińskiego, ponieważ jest mi potrzebna do szkicu, mającego wskazać propozycję tyleż ważną, co jakoś nie urzeczywistnioną: mianowicie nurt filozofii, zogniskowany na (postulowanych) podobieństwach i (faktycznych) różnicach komputera (jako „automatu skończonego”) i mózgu człowieka. Te automaty z kolei zahaczają o teorię funkcji rekurencyjnych oraz algorytmów i już przez to są uwikłane w sławny dowód Goedla, ale rozwinięcie takiej genealogii komputerów w obrębie prostego jak niniejszy szkicu po prostu się nie da wykonać. Zarazem brak nazwanej dopiero co filozoficznej perspektywy zamyka cały rozwój komputerów i teorii takiej informacji, która im jest podległa, w swego rodzaju — nie waham się użyć może nazbyt silnego sformułowania — getcie techniczno–obliczeniowym. Można by przypuścić atak na moją kategoryczność, powołując się na obfitą literaturę, od książek znawcy computer science, jakim jest Joseph Weizenbaum, po jeszcze bardziej znane diatryby Dreyfusów (być może ukazały się też po polsku). Rzecz jednak cała w tym, że książki tego rodzaju są albo, jak wymienione, mniej lub bardziej umocnioną argumentami „ogólną teorią niemożliwości dorównania przez komputer mózgowi”, albo też są, jak nie wymienione przeze mnie książki, pochodzące z obozu „fideistów komputerowych”, próbami dowodzenia, iż, owszem, Artificial Intelligence (powiedzmy, jednego z „ojców”, Marvina Minsky’ego) jest osiągalna i tym samym wnet się nam objawi w realizacjach technicznych. Są wreszcie autorzy jak Douglas Hofstadter, którzy znajdują się — dziełami — w niejakim rozkroku: znajdują zarówno olbrzymie trudności do pokonania na drodze wiodącej ku AI, jak i zarazem wierzą w zasadniczą pokonywalność tych wszystkich przeszkód (tylko nie wiadomo, jak i kiedy). 2 Mnie tu jednak ani nie chodzi o rozstrzyganie kwestii urzeczywistnienia „sztucznej inteligencji” w maszynie, ani o zajmowanie się tą kwestią w pierwszej kolejności. Chodzi mi o to, co tytuł zapowiada. Potrzebna jest taka „filozofia stosowania komputerów”, która wykracza poza spór o różnice i podobieństwa do mózgu ludzkiego, albowiem w tym odniesieniu mózg figuruje jako ultymatywne wcielenie rozumu, jako urządzenie najbardziej złożone w całym Kosmosie i tym samym jakoby tak uniwersalne, że ma zostać uznane za wzorzec wręcz znakomity i nieprześcigalny, coś jak dla przedwojennych młodych ludzi prezentował ów „metr wzorcowy” umieszczony jako palladowo–platynowa sztaba (o przekroju X) w Sevres pod Paryżem. To już nie jest dziś ultymatywny wzorzec pomiarowy długości, a choć żadnego poza– czy ponadludzkiego mózgu nie znamy, ci właśnie, co się posługują komputerami i obsługują je jako programiści, powinni wykroczyć poza konstruktorskie etalony dla bardziej oderwanej i przez to mającej bardziej „meta–” charakter refleksji: ażeby poprzez widomy, choć nie rozgryziony naukowo model biologicznego mózgu dostrzec przyszłe, a co najmniej możliwe fazy rozwojowe komputerystyki. Prawie wszyscy znani mi eksperci tak intensywnie wdali się w rozstrząsanie „być albo nie być” Artificial Intelligence, że wprost oślepli na sprawę chyba najbardziej zasadniczą, mianowicie na pytanie o to, czy mózg człowieka w ogóle zasługuje na miano wzorca „rozumu”, inteligencji, i tym samym czy może być „całkiem inaczej” z tym mózgiem. Ja, pozwalając sobie jeszcze (ostatni raz) w tym szkicu na łacinę, powiem, że moim zdaniem sed tamen potest esse totaliter aliter. Mianowicie co najmniej dwa rodzaje cech dają się w żywym i działającym po swojemu mózgu człowieka rozdzielić: te, co są śladami i dziedzictwem jego bardzo długiej drogi rozwojowo–ewolucyjnej (nie tylko, dlaboga, w toku antropogenezy: mózg bowiem, jak powiem, jest znacznie starszą paleontologicznie „składanką”) oraz te cechy, które stanowią jego osobliwą wyłączność aktualnie, jako już typowo człowieczy nabytek, ten, który nas wyprowadził poza drzewo rozgałęzionych obficie wariacji hominidów i tym samym zrodził homo sapiens sapiens. Zrazu tu dodam, co kiedyś napisałem pewnemu filozofowi niemieckiemu w związku z M. Heideggerem, a mianowicie uznałem za największy błąd Heideggera nie jego po wojnie światowej ostro krytykowaną przynależność (także powinowactwo jego filozofii) do partii hitlerowskiej, lecz to, iż był filozofem nienawidzącym technologicznego rozwoju naszej cywilizacji i wyobrażał sobie, że jakikolwiek nawrót do przedtechnologicznej kultury jest kierunkiem realnie możliwym. Napisałem wtedy memu korespondentowi, że z chwilą, kiedy powstawał wiele milionów lat temu Australopithecus, Homo robustus, a zaraz potem Homo habilis na południu Afryki, już wówczas był na powolne, lecz podległe historycznej akceleracji wynajdywanie technologii (poczynając od eolitu i paleolitu) skazany całą biologią swoją, ponieważ razem z uwolnieniem kończyn górnych od wspierania chodu, a mózgu od typowo animalnej i tym samym wyłącznie przeżyciowej sprawności w czasie dlań teraźniejszym, innej drogi (poza wymarciem gatunku) już nie było. Tym samym uznałem, że technologia stała się jakieś trzy — lub dwa i pół miliona lat temu taką samą niepozbywalną własnością człowieka, jaką stało się cztery miliardy lat temu stałą kosmiczno–planetarną krzepnięcie powłok ogniowej kuli, jaką wtedy stanowiła planeta Ziemia. Tym samym na technologię można się z takim samym kiepskim sensem gniewać i technologii zapierać oraz jej rozwojowi wyrzuty robić, w jakim można prawa termodynamiki nienawidzieć albo mieć cokolwiek za złe grawitacji. Zjawiska podobne do praw Natury można w jakiejś mierze oswajać, domestykować, zaprzęgać do naszych prac i spraw. Natomiast wypisywanie przeciwko nim diatryby, czyli branie ich za złe, niesie za sobą tyleż sensu, co karne biczowanie morza za to, że jakiemuś tyranowi pochłonęło okręty. To nie jest ani racjonalne, ani godne miana filozofii, nieoderwanej w dowolny sposób od fundamentu, jaki nasz byt stanowi. 3 Powiedzmy, że tak jest, ale co to może mieć wspólnego z postulowaną przeze mnie filozofią, jako dyskursem poza strefą sporów „pro–AI” i „kontra–AI”? Otóż należy powiedzieć wstępnie, co następuje. Po pierwsze, do częściowego wysforowania się komputera przed mózg już doszło, i nie należy tego mieszać z jakąkolwiek „antropologizacją” komputerów, niby że jeszcze parę kroków technicznie dalszych, a poczną się zachowywać po ludzku. Pozwolę sobie przytoczyć to, co pisałem dobrze ponad ćwierć wieku temu w „Sumie Technologicznej”. Powstaną i będą się rozrastać ośrodki maszynowe, zarządzające produkcją, obrotem towarowym, dystrybucją, a również badaniami (koordynacja wysiłków uczonych, wsparta w fazie wczesnej przez maszyny — tj. komputery — pomocnicze). Czy możliwe będą między nimi sytuacje konfliktowe? Jak najbardziej możliwe. Zachodzić będą konflikty w płaszczyźnie decyzji inwestycyjnych, badawczych, energetycznych, bo wszak trzeba będzie określać prymat rozmaitych działań (…) Trzeba będzie konflikty takie rozstrzygać. Oczywiście, powiadamy szybko, to będą robili ludzie. Bardzo dobrze. Otóż decyzje będą dotyczyły problemów ogromnej złożoności i ludzie — kontrolerzy Koordynatora (komputerowego, S.L.) będą musieli, aby rozeznać się w przedstawionym im morzu matematycznym, uciec się do pomocy innych maszyn, mianowicie optymalizujących decyzje. (…) Czy możliwe jest, że maszyny kontrolerów, dublujące pracę maszyn kontynentalnych, dadzą odmienne wyniki? I to jest zupełnie możliwe, ponieważ maszyna (w toku pracy, S.L.) staje się jakoś „stronnicza”. Wiadomo, że człowiek nie może nie być jakoś stronniczy: dlaczego jednak ma być stronniczą maszyna (komputer)? Stronniczość nie musi wynikać z predylekcji (co do wartości), wynika z nadawania rozmaitej wagi kolidującym z sobą członom alternatyw. (Ponieważ maszyny takie, będąc układami probabilistycznymi, nie działają tożsamościowo). Sytuacja staje się bardziej przejrzysta, jeśli wyrazimy ją w języku gier. Maszyna jest jakby graczem, prowadzącym rozgrywkę przeciwko pewnej „koalicji”, na którą składa się olbrzymia ilość rozmaitych zgrupowań produkcyjnych, rynkowych a także transportowych, usługowych itp. Dłuższy ten wywód zamyka następujące twierdzenie. Wygląda rzecz tak: albo komputery nie umieją uwzględnić większej ilości zmiennych od człowieka, a wtedy nie warto w ogóle ich budować, albo umieją, a wtedy człowiek nie może się sam rozeznać w rezultatach, czyli podjąć niezależnej od komputera decyzji… Człowiek nie może już zrobić nic innego, niż stać się gońcem, który przenosi taśmę informacyjną od komputera decydenta do komputera kontrolnego. Jeśli rezultaty komputerów nie są jednakowe, człowiek nie może uczynić nic innego, niż wybrać, rzucając monetą: Z „najwyższego nadzorcy” staje się mechanizmem losowym wyboru! A więc znów, i to tylko przy komputerach zarządzających, mamy sytuację, kiedy stają się one „bystrzejsze” od człowieka. Dalej zaś napisałem, że „dziś” (tj. w roku 65) obchodzimy się w ogóle bez takich komputerów w gospodarce i menedżerskim zarządzaniu. Lecz obecnie (1994) już sieci komputerowe wsuwają swoje „macki” w takie dziedziny. A ponadto obecnie już okazało się, że są dziedziny matematyki i matematycznej fizyki, w których wynikom pracy komputerów, dysponujących znacznymi mocami obliczeniowymi, każdy matematyk czy fizyk zawierzyć musi, ponieważ pracy tej żaden człowiek nawet w ciągu całego życia nie jest w stanie skontrolować. A jeżeli w tych dziedzinach, logicznie jakby całkiem ścisłych, zespół aksjomatów wyjściowych nie pokrywa się idealnie z innym zespołem, kiedy prace toczą się w rozmaitych ośrodkach badawczych, to nic prócz „superkomputerów” sprawdzających nie da się wymyślić a takie „superkomputery” nie są przecież Bożym sądem, lecz kolejnym krokiem rozwoju komputerystyki, więc otwiera się nam otchłań jako regressus ad infinitum… 4 Ale to wszystko, com rzekł, dotyczyło wyłącznie stosunku komputerów do ludzi i ich prac. Po wtóre, założeniem i tematem jednocześnie owej postulowanej tu zaczątkowo „filozofii tertium comparationis” musi stać się ludzki mózg, który, wbrew niejakim pozorom, jest w swej budowie i funkcjach bez porównania gorzej rozpoznany od komputerów, bo je wszak sami budujemy i użytkujemy. Natomiast mózgi użytkujemy, rzecz jasna, aleśmy ich bynajmniej nie zbudowali. Pozwolę więc sobie w sposób wręcz stenograficzny wyliczyć niektóre, „pozakomputerowe” własności naszego mózgu. Mózg składa się z jeszcze nie przeliczonej, ale wielkiej liczby podzespołów, przy czym podzespoły te zasadniczo „winny” współdziałać, ale bywa, że są antagonistami i nawzajem sobie przeszkadzają. To dość łatwo można rozpoznać w wielu zjawiskach. Np. można uszkodzić sobie proces przypominania jakiejś, dajmy na to, deklamacji, jeżeli skupimy na nim zbyt mocno świadomą uwagę — natomiast jeżeli z takiego ogniskowania uwagi zrezygnujemy, automatyzm deklamacji jako (to przykład) nienagannego wyrecytowania tekstu przebiegnie gładko. (To zresztą stanowi lejtmotyw żartu o postawionym stonodze pytaniu, jak ona organizuje ruchy tylu nóg, a stonogę — od zamyślenia nad tym pytaniem — poraża bezruch). Albo też łatwo dostrzec inne antagonizmy „wewnątrzmózgowe”: kiedy rachujemy biegle i zaczynamy wątpić w sprawność tej biegłości, powtórzenia często okazują się obarczone znaczniejszymi błędami: nie należy więc, zdawałoby się, koncentrować się za mocno… A także z badań (z lat pięćdziesiątych jeszcze) wynikało, iż człowiek poddany hipnozie może przypomnieć sobie wydarzenia sprzed wielu lat, których przy pełnej świadomości przywołać reminiscencją nie jest w stanie. Są więc jak gdyby rozmaitej „głębokości” czynnościowe pokłady funkcji mózgu, a ich penetracja bywa świadomości, jako nasilonej uwadze, wprost niedostępna. Również język nasz, każda jego odmiana, właśnie dzięki temu, że swoją składnią, leksykografią i frazeologią oraz idiomatyką wymija zapadnie i zdradzieckie pułapki, których obecność w każdym równoważnym arytmetyce systemie wykrył wielki Goedel, bywa zawodny, gdy prowadzimy dyskursy oparte na argumentach różnej sprawdzalności i mocy. Język jest bowiem i naszą siłą, i zawodną słabością: dlatego nauki ścisłe „wycofują się” w obszary matematyzacji, gdzie jednak czyha na nie Goedlowska pułapka… Zaś lokalizacja mózgowa ośrodków, zawiadujących mową rozumianą, mową od kołyski wyuczoną, mową (językiem) drugiego, tj. po dzieciństwie wyuczonego rzędu, mową pisaną, czytaniem itp., wszystkie te czynnościowe zarodki językowe mózgu u nowo narodzonego wprawdzie są biologicznie prawie że tożsame (niezależnie od tego, czy jest to dziecko chińskie, czy polskie), ale stanowią nie rozpoznaną zagadkę. Nie jest bowiem ani tak, że języka się nie dziedziczy, ani tak, że się go dziedziczy: człowiek dziedziczy tylko „pogotowie funkcjonalne”, zdolne do rychłego przystosowania do środowiska językowego, w jakim się urodził. (To by się komputerom niechybnie przydało: ich bezkontekstowa sztywność musi kiedyś ulec zasadniczej „przeróbce” w stronę antropologiczną…). 5 Szczególnym dowodem na wielkość podzespołów, z jakich się mózg składa, mogą być zarówno pewne zjawiska jawy, jak i marzenia senne. Świadomość śniącego może postrzegać zjawiska snu jako najdziwniejsze zaskoczenia, których antycypować nie jest w stanie, jakby naprawdę pochodziły spoza obrębu jego umysłu. Sen „śni się sobie” w sposób jakże często nieprzewidywalny i zaskakujący, zwłaszcza jako koszmar: oznacza to, że w zawężone pole świadomości śniącego wątki, które się rozwijają, zostają wprowadzone z takich pod–agregatów mózgu (ukoncentrowane takimi podzespołami mózgowymi), o których treści (zawartości fabularyzacyjnej) nic śpiącemu nie wiadomo. To znów jeszcze jeden dowód na rzecz tezy o przyczynach, sprawiających, że podzielność naszej świadomości uwagi jest nikła. Bardzo trudno mianowicie mieć w polu świadomości więcej niż kilka (ponoć najwyżej sześć) problemów. Jeżeli zaś zaprezentować by najsłabszą z licznych potencji mózgu, będzie nią mformation retrieual, nieszczęście, zdarzające się nawet osobom pilnym, a właśnie egzaminowanym, sprowadza się do tego, że afekty towarzyszące (jako „nerwowe emocje” pytanego) wyhamowują umiejętność szybkiego „wydobycia” z magazynów pamięci tego, czego egzaminator żąda (nie mam tu na myśli tych, którzy udają się na egzamin po prostu nie przygotowani). Także zjawiska lęku, paniki, a szerzej emocje, mogą porażać intelektualne sprawności. Największym zaś problemem człowieka są nie rozpoznawane „wsobnie” rozmiary indywidualnego ilorazu inteligencji oraz sprawności kreacyjnych (które bez wątpienia są co najmniej w dużej części genotypowo, dziedzicznie zatem, zaprogramowane, czyli uwarunkowane). Wariancja wewnątrzgatunkowa jest u człowieka największa: boż im gatunek zwierząt na drabinie postępów ewolucyjnych niższy, tym mniej różnic „umysłowych”. Wszystkie muchy mają tyle samo zadanych instynktem umiejętności przetwarzania informacji (muchy nigdy nie nauczą się tego, że przez szyby przelecieć nie można), a także „genialny szympans” (a są takie, zdolne do uczenia się pierwocin języka graficznego) różni się daleko mniej od szympansa głupiego, aniżeli różnił się Newton od durnia. Zarazem tu natykamy się na odmienną zagadkę: oto nie wiemy, dlaczego ewolucja ludzkiego mózgu, jako wzrostu jego potencjałów umysłowych, rozpocząwszy się ponad milion lat temu i osiągnąwszy wyjątkowe w naturalnej ewolucji przyspieszenie, przecież zatrzymała się jakieś sto do dwustu tysięcy lat przed naszą erą! Tym samym wszystkie rasy mają mózgi praktycznie biorąc takie same i różnice najwyżej mogą dotyczyć dystrybucji genów w genomach, tych mianowicie, które łącznie decydują o potencjalnie osiągalnej inteligencji (min. idzie o prastary spór nature or nurture, tj. czy dziedziczność, czy raczej środowisko głównie warunkuje poziom umysłowy: wahadło tego sporu dziś wskazuje na oba czynniki, z pewną przewagą dziedziczności, ale różnice, wykrywalne tylko statystycznie, są między rasami małe. Gdyby okazały się większe, powstałby jeszcze jeden zbiór przyczyn dla niewolnictwa, szowinizmów, nacjonalizmów, rasizmów itp.). Ale dlaczego „rozpędzony we wzroście ewolucyjnym” mózg „stanął”, nie wiemy. Trudno za przyczynę uznać względną ciasnotę żeńskiego kanału porodowego, choć obwód główki noworodka jest w jego organizmie największy. Tu skrywa się zatem nierozwikłana zagadka mózgu, prawdopodobnie raczej biologicznej aniżeli informatycznej natury. 6 Nie zamierzam wkroczyć w dziedzinę psychopatologii z jej psychozami dziedzicznymi i nabywanymi, ani w strefę fobii, psychopatii, wystarczy chyba w tym miejscu rzec, że stabilność czynnościowa ludzkich mózgów jest dość chwiejna i to też może okazało się hamulcem dalszych wzrostów. Dzwonowa krzywa Gaussa, pokazująca dystrybucję normalną ilorazów inteligencji (najwięcej uśrednionych — 120IQ — najmniej „jeszcze nie anormalnego” minimum fizjologicznego, a na schodzącym prawym ramieniu — najmniej ilorazów powyżej 130–150IQ) nie zdaje w ogóle sprawy z wpływu na „oddestylowany” testami IQ, jaki wywierają: charakter, momenty wolicjonalne („napęd” i „popędy”), życie afektywne, główny kierunek uzdolnień (jeśli istnieje) itd. Życie emocjonalne dziedziczymy po najstarszych kręgowcach (zapewne ponad pół miliarda lat trwał rozwój tego żywota), więc jest od życia umysłowego nieporównanie starsze. Nic do tego komputerom, a zarazem nie wiemy, czy to „dla nich” raczej wada, czy raczej zaleta. To samo i z dość zagadkową wciąż intuicją. 7 Trzeba jednak naruszyć granicę, oddzielającą w jednym miejscu / normę od patologii: mam na myśli miejsce, w którym sadowi się odmiana tak zwanych genialnych idiotów. Są to wysoce niepełnosprawni umysłowo, niesamowicie biegli rachmistrze, zdolni konkurować z kalkulatorami elektronicznymi, są to też niesamowici „zapamiętywacze” raz przejrzanego długiego tekstu (chociaż nie mogą konkurować z megabajtową pamięcią komputerową), są to głupkowaci, odznaczający się bardzo obszernym poliglotyzmem (z nadzwyczajną łatwością przyswajają sobie mnóstwo obcych języków, tyle, że nic rozsądnego w żadnym nie wymyślą), itd. Przypuszczam, że u tych wszystkich „odmieńców” zachodzi jednoczesna atrofia zbioru normalnych podzespołów mózgu oraz „uwolnienie” pewnej grupy takich podzespołów (językowych, obliczeniowych, wzrokowych pamięci) od działania innych (normalnych), które, jak się już rzekło, poziom zwątpień mogą uszkadzająco wzmocnić. 8 Są psychologowie, uważający funkcje mózgu człowieka za swego rodzaju „graniówkę”, za poruszanie się wzdłuż dość wąskiej ścieżki normalności przeciętnej, przy czym po obu stronach zieją przepaście: z jednej strony nadmiernej sztywności, a z drugiej nadmiernego uchaotycznienia zamierzeń i myśli, więc zagrażać może człowiekowi albo raczej zastyganie w stereotypach, albo raczej zamęt prawie bezkierunkowej anarchii. Oczywiście schemat to gruby i przez to już uproszczony. Lecz warto mieć wszystkie te cechy na uwadze, gdy się poszukuje tertium comparationis, bo wtedy łatwiej pojąć, jak mało sensu zawiera chęć „powtórzenia mózgu” w maszynie. Co biologiczne, należy się biologii ewolucyjnej, a co obliczeniowe — mocom obliczeniowym komputerów. Lecz ponadto należy wspomnieć, że mózg po lobotomii (z odciętymi płatami czołowymi, warunkującymi „strategie życiowe”) może przecież działać prawie że (z pozoru) normalnie. Spróbujcie za to działania komputera, któremu odpiłowano sporą część hardware… Wynika ta fundamentalna różnica i stąd, że mózg nasz zawiera pokłady pradawnej przeszłości: że jest w nim „coś” z płaza sprzed milionów lat i gada, i hominidów. Rozum zaś powstaje wtedy, gdy staje się tak przystosowawczo potrzebny, że odmiennym wyjściem z alternatywy jest już zagłada gatunkowa: a gatunków, które uległy zagładzie, były miliony na Ziemi… „Wyścig” mózgów z komputerami odbywa się na razie jako potęgowanie pojemności „martwych” pamięci oraz przyspieszanie obliczeń: to stwarza rosnące moce obliczeniowe. Czy innowacyjne posiłki przybędą, zapożyczane u mózgów biologicznych (i tym samym ewolucja komputerów zbliży się do naturalnej), czy też na odwrót, nożyce rozewrą się jeszcze bardziej niż dziś, i „posiłki” okażą się „całkiem nie biologicznie dane”, nieludzkie — na razie zawyrokować trudno. 9 Od ludzi, a nie od komputerów, będzie zależało, kiedy nazwane posiłki dokonają inwazji w strefę strategii decyzyjnej w gospodarce i może w polityce nawet. Tendencje takie nasilają się pewno w świecie coraz bardziej przeludnionym, „rozregulowanym”, w którym bezsilnie patrzymy na szaleństwa ludobójcze i na głosicieli ludobójczych programów jako panaceum na chaos. Gdym pisał Summa Technologiae, największy błąd popełniłem, zakładając jako postać umownego bohatera tej książki racjonalnego człowieka — Konstruktora, a nie agresora, zaślepionego szowinizmem i rozkoszującego się topieniem każdej innowacji technologicznej w umysłowym ubóstwie wszechdeprawacji. Nie przewidziałem tego, czego przewidzieć nie chciałem. Czy jednak wolno było mieć prawo do takiej stronności — oto jest pytanie. Herezje 1 Do mojej książki, napisanej przed 32 laty, nazwanej Summa Technologiae, włożyłem rozdział, zatytułowany „Szaleństwo z metodą”, w którym powiedziałem: Wyobraźmy sobie szalonego krawca, który szyje wszelkie możliwe ubrania. Nie wie on nic o ludziach, ptakach czy roślinach. Nie ciekawi go świat; nie bada go. Szyje ubrania. Nie wie, dla kogo. Nie myśli o tym. Niektóre są kuliste, bez żadnych otworów; innym wszywa rury, które nazywa „rękawami” lub „nogawkami”. Liczba ich jest dowolna. Ubrania składają się z rozmaitej liczby części, krawiec dba tylko o jedno: pragnie być konsekwentny. Jego ubrania są symetryczne lub asymetryczne, wielkie i małe, rozciągliwe i raz na zawsze unieruchomione. Gdy przystępuje do sporządzenia nowego, przyjmuje określone założenia. Nie zawsze są takie same. Ale postępuje dokładnie w myśl raz powziętych założeń i pragnie, aby nie wynikła z nich sprzeczność. Jeśli przyszyje raz „nogawki”, nie odcina ich potem; nie rozpruwa tego, co zszyte; zawsze to muszą być „ubrania” a nie pęki na oślep pozszywanych szmat. Gotowe „ubrania” odnosi do ogromnego składu. Gdybyśmy tam mogli wejść, przekonalibyśmy się, że niektóre pasują na ośmiornicę, a inne na drzewa, albo na motyle, albo na ludzi. Odkrylibyśmy „ubrania” dla centaura i dla jednorożca oraz dla istot, jakich NIKT dotychczas nie wymyślił. Olbrzymia większość ubrań nie znalazłaby żadnego zastosowania. Każdy przyzna, że syzyfowe prace owego krawca są czystym szaleństwem. Tak jak on, działa matematyka. Buduje ona struktury, ale nie wiadomo, czyje. Modele doskonałe (to jest doskonale ścisłe), lecz matematyk nie wie, czego to są modele. Nie interesuje go to. Robi to, co robi, ponieważ taka działalność okazała się możliwa. Zapewne, matematyk używa, zwłaszcza przy ustalaniu wstępnych założeń, słów, które znamy z języka potocznego. Mówi on np. o kulach albo liniach prostych, albo o punktach. Ale nie rozumie przez owe terminy znajomych nam rzeczy. Powłoka jego kuli może nie mieć grubości, a punkt rozmiarów. Przestrzeń jego konstrukcji nie jest naszą przestrzenią, ponieważ może mieć dowolną ilość wymiarów. Matematyk zna nie tylko nieskończoności i pozaskończoności, ale także ujemne prawdopodobieństwa. Jeżeli coś może się stać na pewno, prawdopodobieństwo równa się jedności. Jeżeli wcale nie może się stać, równa się zeru. Okazuje się, ze coś może się mniej aniżeli nie–stać. (…) Matematyka ma zastosowania praktyczne. Istnieje punkt widzenia, który tę jej przydatność tłumaczy dość prosto. Otóż sama natura ma być w swej istocie „matematyczna”. Sądzili tak James Jeans i Artur Eddington, a myślę, że i Einsteinowi nie był ten pogląd zupełnie obcy. Wynika to z jego powiedzenia: Raffiniert ist der Herrgott, aber boshaft ist er nicht. Zawiłość natury — tak rozumiem to zdanie — można odgadnąć dzięki pochwyceniu jej w sidła prawidłowości matematycznych. (…) Fizycy od XVI wieku przetrząsają „składy pustych struktur”, które tworzy matematyka. Rachunek macierzy był „strukturą pustą”, dopóki Heisenberg nie znalazł „kawałka świata”, do którego ta pusta konstrukcja pasowała. Fizyka roi się od takich przykładów. Procedura fizyki matematycznej i zarazem matematyki stosowanej jest taka: twierdzenie empiryczne zastępuje się matematycznym (to jest pewnym symbolom matematycznym przyporządkowuje się liczne znaczenia, w rodzaju „masy”, „energii” itp.), uzyskane wyrażenie przekształca się zgodnie z regułami matematyki (to jest owa formalna, czysto dedukcyjna część postępowania), a końcowy rezultat przez ponowne podstawienie znaczeń materialnych zmienia się w twierdzenie empiryczne. To nowe twierdzenie może być przepowiednią przyszłego stanu zjawiska lub może też wyrażać pewne ogólne równości, czyli prawa fizyki.(…) Matematyka mówi (tj. stara się mówić) o świecie więcej, niż wolno o nim powiedzieć. Co aktualnie sprawia nauce sporo kłopotów. (…) Może kiedyś zostaną przezwyciężone. Ale wtedy tylko współczesna mechanika kwantowa zostanie uznana za przestarzałą. Rachunek macierzy nie zestarzeje się nigdy. Systemy empiryczne tracą bowiem aktualność, matematyczne nie tracą jej nigdy. Ich pustka jest ich nieśmiertelnością”. 2 Koniec cytatu. Przepraszam za dłużyznę, lecz okazała się nieuchronna. Już wtedy, pisząc ów rozdział, myślałem, że to nie sama Natura jest matematyczna, czyli Stwórca, jak tego chcieli Jeans czy Eddington, BYŁ matematykiem. Przypuszczałem, że matematyka nie tkwi w Naturze, i nie dlatego ją w niej wykrywamy. Myślałem, że tkwi raczej w oku uczonego, ale tak wyraźnie nie ważyłem się tego powiedzieć, ponieważ była to myśl całkowicie sprzeczna z powszechnym przekonaniem lepszych ode mnie naukowców. Zresztą i za to, co zacytowałem, dostało mi się od nich upomnienie, ponieważ przeczuwali w tym cień herezji. Otóż teraz, po tylu latach, koncepcja, która „odmatematyzowuje” Naturę i „matematyzuje” myślowe procesy człowieka, narobiła szumu i już wolno ją głosić. Podczas kiedy, jak piszą nowożytni kacerze w nauce, matematyczność Natury, podlegająca naszym procedurom formalnym, stanowi jak gdyby „głęboką Tajemnicę”, zadziwiająca zbieżność „tego, jaki Kosmos jest” i tego, Jak dokładnym odbiciem Kosmosu może być matematyka”, okazuje się naszym ludzkim błędem. Najpierw Bruno Augenstein (z Rand Institute w Kalifornii) „postawił ów problem na głowie”. Fizycy, orzekł, potrafią znaleźć odpowiednik każdej matematycznej koncepcji w realnym świecie. Sieci, odpowiedziałbym, nie stwarzają ryb. W zależności od tego, jak wielkie są oka sieci, złowieniu ulegają określone ryby — a więc sieć, jak matematyka, znajduje się po naszej stronie, nie po „stronie Natury”. Powiedzmy, że tak jest. Czy to znowu takie ważne? Ależ byłoby to odkrycie, wstrząsające w fundamentach uchwytywaniem przez Człowieka wszelkich zjawisk, komprymowanych w prawa Natury. Augenstein nie tylko zwraca uwagę na to, że przecież równania Bernarda Riemanna, pochodzące z XIX wieku, utworzyły (jako alternatywa „płaskiej geometrii Euklidesa”) szkielet teorii Einsteina. Może bardziej dziwne jest to, że w roku 1924 dwaj polscy matematycy, Stefan Banach i Alfred Tarski, ogłosili w piśmie „Fundamenta Mathematica” tak zwany Teoremat Banacha–Tarskiego, który stanowi osobliwe odgałęzienie teorii mnogości, zwane „dekompozycją”. Udowodnili matematycznie, że możliwe jest takie porozcinanie przedmiotu A o dowolnym rozmiarze skończonym i dowolnym kształcie na M części, które bez żadnej zmiany mogą być złożone w obiekt B, również dowolnego kształtu i skończonych rozmiarów. Niby banalne, ale jakby nazbyt uogólnione Lecz jeśli zastosować teoremat do pełnych kul okazuje się, że można kulę pociąć na pięć części tak, że dwie z nich dadzą się złożyć w nową kulę, a pozostałe trzy części w drugą kulę; to zaczyna się znawcom kojarzyć ze współczesną fizyką cząstek elementarnych! 3 Mianowicie znów Augenstein pokazał, iż prawidłowości rządzące zachowaniem takich zbiorów i podzbiorów (bo to wszystko jest swoistą odnogą teorii mnogości) są formalnie tożsame z prawami opisującymi zachowanie kwarków i gluonów w tym modelu chromodynamiki kwantowej, który został przez fizyków rozwinięty w latach siedemdziesiątych… Więc jakże — czyżby Banach i Tarski, nie wiedząc sami, co robią (coś jak mój „szalony krawiec”) niechcący, z wyprzedzeniem półwiekowym, wykryli prawa chromodynamiki kwantowej — kiedy jej śladów nie było? To już by stanowiło dość niesamowitą zagadkę, której rozwiązanie, niestety, okazać się może poznawczym rozczarowaniem myśli ludzkiej na największą wyobrażalną skalę… Z jednej strony jest tak: „magiczny sposób”, w jaki proton, wstrzelony w metalowy cel, wytwarza rój nowych protonów wylatujących z tego metalu, identycznych z „oryginałem”, precyzyjnie odpowiada opisanemu przez teoremat Banacha–Tarskiego cięciu kul i składaniu kawałków w pary następnych kul. Lecz tu przychodzi wątpliwość. O ile w ogóle „realne” są nasze modele — te wszystkie kwarki, gluony — czy to są tylko modele naszych wyobrażeń o mikroświecie, zrodzone matematycznie, czy „sama prawda świata”? Andrew Pickering w Anglii twierdzi, że — mając do dyspozycji dowolny, byle spójny, zbiór danych eksperymentalnych — fizycy potrafią zawsze wytworzyć modele pokazujące, jak świat funkcjonuje, ale te modele są zawsze odzwierciedleniem kultury (stanu nauki) ich czasu. Nie jest problemem — powiada w jednej z prac — że uczony tworzy obrazy czy opisy świata, uznawane za zrozumiale, ponieważ wspomagają go zasoby kulturowe jego epoki; ponieważ zaś został wytrenowany w produkowaniu abstrakcji matematycznych, abstrakcje te są mu tworzywem obrazów świata i nie jest to wcale bardziej dziwne od zamiłowania etnicznych społeczności do ich ojczystego języka. Tak więc powstaje tutaj wyraźny sprzeciw względem postulowanego od dawna obiektywizmu poznania: wedle tej herezji poznajemy świat przez szkła, które wkłada nam na nos i przed oczy chwila historyczna, już nagromadzony na przykład — w fizyce — arsenał struktur matematycznych, natomiast świat „sam w sobie” pozostaje nadal poza bezpośrednim dostępem naszej domyślności jako intuicji hipotezotwórczej i wcielonej w doświadczenie empirii. 4 Bardzo nieśmiało o takim stanie rzeczy napomykając, mówiłem kilkakrotnie o tym, że matematyka nie jest dla nas, poza tą „szczeliną bytu”, do której zaadaptowały się wszystkie nasze zmysły, niczym więcej aniżeli biała laska dla niewidomego. Więc jak on, laską postukując przed sobą, tworzy w swoim umyśle na poły widmowe, niewyraźne uformowanie otoczenia podług echa, tak i my, jako fizycy, poprzez zasłonę matematyki tylko staramy się dostrzec to, co „tam”, w świecie, jest „ostatecznie prawdziwe”. Tym samym szykuje się w powyższej herezji kolejne trzęsienie epistemologii w filozofii, ja zaś, ponieważ dostałem po palcach już za mojego „szalonego krawca”, „wychylić się” bardziej nie śmiałem. Jednym słowem, znajdujemy się jak gdyby w sytuacji czytelników bajek, które co prawda do świata się odnoszą i natchnienie kształtujące ze świata czerpią, lecz fotografiami świata bezpośrednimi nie są, gdyż poza strefą doświadczeń zmysłowych ludzkiego sensorium być podobne nie mogą. Sądzimy już, że wiemy, co zachodzi wewnątrz atomu, lecz docieramy jeno do analogii, które są jakąś wypadkową naszego treningu kulturowego (tj. historycznego momentu) oraz przeświadczenia, że jak jakiś sonar odbieramy echo od realnie i jednoznacznie istniejących zjawisk czy „rzeczy”. To też miałoby nam pośrednio tłumaczyć, czemu nasza logika zostaje narażona na okropny szwank już wobec klasycznych zachowań interferencji elektronów, które urągają „zdrowemu rozsądkowi”, ponieważ nasze „albo tak” (albo tą drogą) — „albo owak” (tamtą drogą) elektron, który jest sobie raz cząstką, a raz falą, to nasze albo–albo unieważnia. 5 Ale jednak nie jest, moim już zdaniem, aż tak źle, jak by to mogło wynikać z powyższego wywodu, przetkanego dość gęsto cytatami. Zdawałoby się, że kwestia poruszona wyżej, jako należąca do epistemologii — czyli teorii poznania — i dająca niejako wsparcie „idealizmowi”, do strefy zainteresowań tych, którzy się zajmują przetwarzaniem danych, a więc „robią w informacji”, w ogóle nie należy, ale tak wcale nie jest. Mianowicie od pół wieku mniej więcej toczy się w obrębie problematyki „innych niż ziemski Rozumów” spór nie tylko o to, czy te inne Rozumy w ogóle istnieją: lecz o to, czy my bylibyśmy w stanie posłany przez Nie sygnał, wieść, jak szyfr rozłamać, jako informację na „ludzkie” przetłumaczyć i tym samym zrozumieć. Kiedy w roku 1971 w Biurakanie odbyło się sympozjum amerykańsko–sowieckie, poświęcone problematyce Komunikacji z Pozaziemskimi Cywilizacjami (CETI), do książki, zawierającej protokoły dyskusji, dołączyli Rosjanie i mój referat. Postulowałem w nim, samotnie, utworzenie „autofuturologicznej” komórki w organizacji CETI, która miałaby za zadanie rozważać, jak się będzie cała problematyka CETI zmieniała, jeżeli nie zostaną dostrzeżone i tym samym odebrane żadne, nawet śladowe rodzaje sygnalizacji bądź przekazów z Kosmosu na przestrzeni 20, 30, 40 itd. lat? Obecnie, kiedy minęło od biurakańskiej konferencji prawie ćwierćwiecze, zwiększyła się liczba opinii, że „nikogo nie ma nigdzie”, to i nasłuchiwać za wielkie pieniądze (drogą radioteleskopową np.) nie warto. Mniej nieco pesymistycznie (jakoby) nastrojeni naukowcy z kolei głoszą, że i gdzieś ktoś sobie jest, a nawet może być, że jest inteligentny, co więcej, być może ma w głowie więcej oleju od ludzi (to nie wydaje mi się w najmniejszym stopniu fikcyjne, zwłaszcza gdy popatrzeć na tok zajść u progu XX wieku na całej Ziemi); niemniej jednak, nieuchronne musi być dość gwałtowne rozchodzenie się pęków cywilizacyjnych trajektorii w czasie i przestrzeni: mówiąc po prostu, „nauka” może w każdej cywilizacji rozwijać się inaczej niż u nas, może mieć charakter tak bardzo odmienny od nauki ziemskiej, może być tym samym w takiej mierze nieprzekładalna na żaden typ artykulacji sygnalizacyjno– przesyłowej, że jeśliby nawet na nasze głowy spadał deszcz sygnałów, nie będziemy w stanie w ogóle odróżnić go od chaotycznego szumu Wszechświata. Tego rodzaju stanowiska są obecnie w modzie, np. mam na biurku pochodzący sprzed kilku lat sążnisty elaborat E. Regisa Jra z Cambridge University, który ową dyskoherencję, nieprzekładalność wzajemną nauk głosi i powierzchownemu czytelnikowi może się nawet wydać, że pierwsza część mego eseju „Herezje” zdaje się nieść wersji „nieprzekładalnej różnorodności innocywilizacyjnych nauk” dość silne poparcie. 6 Mnie się to wydaje zupełnym nieporozumieniem. Może nie wyobrażamy sobie chwytanych w sieci i sidła matematyczne gluonów, kwarków czy jakowychś grawitonów Jak należy”: z tym zgoda. Niemniej żadnym złudzeniem naszym nie jest ani łańcuchowa reakcja nuklidów ciężkich, jak uran, pluton czy tor, ani tym bardziej reakcje typu reakcji Bethego, zachodzące w gwiazdach i bombach wodorowych (tj. termonuklearne). Tylko zupełnie zwyczajny wariat, a nie mój „szalony krawiec”, utrzymywać by śmiał, że Czarnobyl, że energia atomowa, że komputery, że ewolucja naturalna są to jakieś nasze niewyraźne złudzenia! Jednym słowem, naukę poznaje się i nauka sprawdza się w zastosowaniach, tj. w rzeczywistości, a nie tylko, jak np. filozofia z jej mnóstwem rozgałęzień, na papierze, na który spływa z łysiejących głów. A skoro przynajmniej ta różnica między myślą i realnością istnieje, uczony Mr Regis, który tej skutecznie (choć nieraz z koszmarnymi efektami) stosowanej nauce uwagi nie poświęcił, jest w grubym błędzie. Może nie ma żadnych kwarków, może gluony są wymysłem matematyczno–fizycznym, może fizyka XXI czy XXII wieku będzie już odmienna od współczesnej, może nazwy jak „chromodynamika” ulegną zatarciu, zresztą wiemy, że nazwy tego typu są czystą umownością, skoro żadnej „barwy” żadne kwarki mieć „naprawdę” nie mogą. Niemniej nauka sprawdza się w tym dobru i w tym złu, które bez względu na interpretację sposobu dochodzenia jej skuteczności poznajemy, jak medycyna sprawdza się w skuteczności terapeutycznej, a to już nie mogą być przecież żadne podległe momentowi historycznemu iluzje i fatamorgany. Jakąś cząstkę, jakąś odrobinę, jakąś aproksymację „tego, jaki jest świat” poznajemy. Co się natomiast tyczy epistemicznej detronizacji, która zagraża matematycznemu podejściu fizyki, czyli rezygnacji z pewności, że każde ostatnie słowo teoretyczne fizyki równa się już finalnemu dotarciu do Prawdy, nie tylko można, ale koniecznie należy w to wątpić. Uczeni na całkowite oddanie, na pielęgnowanie takiego relatywizmu jako nadawania przejściowego charakteru ich odkryciom i Noblami nagradzanym teoriom nie mogą sobie pozwolić. Zresztą w tym są podobni do każdego twórcy, który, myląc się, mniema, bo chce wierzyć, że to, co stworzył, jest wieczne, a przynajmniej wśród ludzi dotrwa do końca świata. Tak dobrze nigdzie nie jest: zaiste, jak powiedział starożytny filozof, godzi się, ażeby to, co śmiertelni tworzą, było samo również śmiertelne. Rozum ludzki, taki wyciągam wniosek z destylatu historii nauk, jest na planecie pierwszy, ale czy w Kosmosie też pierwszy być może, bardzo wątpię. To już by nie tyle o nas, ile o Wszechświecie bardzo źle świadczyło! Zresztą obecnie, w okresie niewątpliwej dekadencji kultury masowej, w czasie, kiedy coraz wyższe, coraz świetniejsze technologie informacyjnego przesyłu okrążają glob lub zawisłszy stacjonarnymi transponderami satelitów nad jego powierzchnią, służą powielaniu i emitowaniu coraz niższych, coraz brutalniej szych, coraz krwawszych, morderczych obrazów ludobójstwa, obecnie, powtórzę, lepiej byłoby, ażeby żadna wysoka obca cywilizacja się nam nie mogła przypatrywać. Nie mamy się czym chwalić: powstaliśmy jako kanibale i swego rodzaju wypaczony, bo nie zajęty samojedztwem kanibal się w człowieku ostał. Ale to już jest zupełnie inna, znacznie bardziej ponura sprawa, która nie jest w najmniejszej mierze herezją, ponieważ stanowi zadanie, które nam pozostawił Joseph Conrad, orzekłszy, iż piszący „winien wymierzać sprawiedliwość widzialnemu światu”. To znaczy światu ludzkiemu: a reszta jest spowitym w matematykę i przez to dla profanów niedostępnym milczeniem nauki. Postscriptum. Zjawiskiem historycznym, w które nie mogłem się tu zagłębić, jest postępująca, na przestrzeni wieku coraz jawniejsza porażka tych ujęć teoretycznych rodem z matematyki, które, cechując się maksymalną prostotą — także estetyczną, wykwintem (elegancją) kategorycznego „jest tak a tak”, nie tylko satysfakcjonowały fizyków XIX stulecia, ale upewniły ich w (błędnym) mniemaniu, że skoro się już w jednorodne sieci determinizmu matematycznego „schwytało cały świat”, fizykom wieku XX zagrozi bezrobocie… Tym samym dalszy rozwój wiedzy równał się rozchwiewaniu zeszłowiecznej pewności, nie tylko i nie po prostu poprzez odkrycia indeterminizmów: „wszystko” okazało się bardziej złożone, bardziej podległe „przypadkowi”, bardziej warunkowane wielościami przyczyn, niż się w zaraniu nauk zdawało. Jak się w roku 1963 spodziewałem, komputery przyszły z walną pomocą nauce, umożliwiając dokonywanie — prócz obliczeń algorytmicznych — również symulacji procesów nie podległych matematycznym rozstrzygnięciom „frontalnie” (jak np. problem trzech grawitujących ciał, a z niego poszły nowe koncepcje astrofizyczne, które strzaskały nam model słonecznego systemu jako doskonale w milionoleciach, równomiernie funkcjonującego „planetarnego zegara”: takiego prostego ładu nie ma w astronomii). Teoria, a raczej teorie chaosu i katastrof, wspierane pracą komputerów, rozsadziły nam łatwiej podległe rozumowi i wyobraźni, jednoznacznie zarysowane obrazy makro— i mikroświata. W głąb zagęszczających się dżungli formalnych, w których powstają dziwaczne krajobrazy fraktalne i pokrewne im twory, szukające swoich „obiektów–celów” w świecie, wejść tu nie mogę. Mogę tylko zauważyć, że nie należy z jednej skrajności — prostoty — wyjść, ażeby popaść w przeciwstawną skrajność — niedocieczonych złożoności! To znaczy, że musimy wprawdzie posługiwać się komputerami, lecz nie powinniśmy bezkrytycznie akceptować wyników ich działania, ponieważ łatwo stają się one wytwórcami chaosów, złożonych tylko z komponentów zdeterminowanych (skąd myśl, że „naprawdę chaotyczny chaos nie istnieje w ogóle”), takie zaś np. fraktale Mandelbrota są produkowane przez wyjściowo proste równania, lecz nie należy bezapelacyjnie podlegać ich urzeczeniom. One powstają wedle warunków początkowych, zadawanych programami, a to, ze zadany program rozwija się bardziej zaskakująco, bujniej, niżby sądził autor–programista, nie musi oznaczać, że te fraktale i te chaosy „są w Naturze wszędzie”, że one już „schwytały świat” w najgęstszą z konstruowalnych sieci formalizmów. Stanowisko sceptyka opłacić może się lepiej: matematyka bowiem (i pokrewne jej symulacje) rzeczywiście może jak zbyt osobliwie upleciona sieć łowić nie tylko wieloryby czy płotki światowego oceanu, ale także głupstwa — i tym samym wodzić na manowce. Pisali już o tym uczeni, jak J. Weizenbaum, zadomowiony w computer science. Są to przestrogi przed fascynacją „komputeryzmem” — już na czasie… Hodowla informacji 1 Pomysł, zawarty w powyższym tytule, nawiedził mnie pod koniec lat pięćdziesiątych, a po raz pierwszy został tak nazwany i zaprezentowany w książce Summa Technologiae, wydanej w roku 1964. Był wtedy i długo jeszcze pozostał mieszkańcem mojej wyobraźni, toteż pisać o nim śmiałem raczej w mojej Science Fiction; i tak fragment rozważań opublikowanych już w roku 1971 w Dziennikach gwiazdowych Ijona Tichego opiewa: Koszmarne wizje, jakie roztaczają nieraz futurologowie o świecie przyszłości, zatrutym spalinami, zadymionym, ugrzęzłym w barierze energetycznej, termicznej itp., są bowiem nonsensem: w postindustrialnej fazie rozwoju powstaje INŻYNIERIA BIOTYCZNA, likwidująca problemy tego typu. Opanowanie zjawisk życia pozwala produkować syntetyczne plemniki, które zasadzasz w byle czym, skrapiasz garścią wody i wnet wyrasta z nich potrzebny obiekt. O to, skąd taki plemnik bierze wiadomości i energię dla radio— czy szafogenezy, nie trzeba się troszczyć — tak samo, jak nie interesujemy się tym, skąd ziarno chwastu czerpie siłę i wiedzę dla wzejścia. Koniec cytatu. Był to czas, w którym moja „hodowla informacji” wciąż przebywała w krainie czystej fantazji, toteż inaczej niż w maskownicy groteski, w śmieszącym przebraniu, nie mogłem jej ukazać. W całej dziedzinie przetwarzania danych, czyli we wszystkich gałęziach rozwoju komputerów i ich kolejnych generacji panowała niepodzielnie żelazna zasada top– down, czyli z „góry na dół”: na płatkach silikonowych ryto coraz mniejsze obwody i w głównej mierze chyżość logicznych przełączeń, a tym samym moc obliczeniowa, była uzależniona od stopnia mikrominiaturyzacyjnego procederu. Tak jest do dziś. Mnie natomiast od początku już, sprzed wielu lat, świtała koncepcja odwrotna: bottom–up, czyli „z dołu w górę” — dlatego, ponieważ w taki właśnie sposób działa technologia życia. Nic nie może być wszak mniejsze i bardziej „kompaktowo” zmagazynowane aniżeli informacja drzemiąca biernie w genach, zredukowana do z cząsteczek złożonej, bliskiej atomowej skali, „konstrukcji” nukleotydowej, która zawiera w sobie „czujniki”, gotowe tę informację rozprężnie obrócić w procedury budowlane, choćby w byle zarodniku, w plemniku, w jajeczku. 2 Ogólnie zaś można rzec, że technologie nasze są sprawne zasadniczo w skali makro. Tłumaczę z mego eseju napisanego po niemiecku w książce Vergangenheit der Zukunft, ogłoszonej w wydawnictwie Insel w roku 1992, a prezentującej takie moje prognozy, które już nasz czas począł realizować. Już R. Feynman w roku 1959 — pisałem — wyobrażał sobie serię maszyn, które byłyby w stanie produkować coraz mniejsze „potomstwo”. Granicę takiego ciągu musiałyby tworzyć maszyny zbudowane z samych molekuł. Istotnie, nie wiedząc nic o idei Feynmana, wpadłem na nią, zajmując się po prostu teoretyczną biologią. Zasada bioewolucji nie polega jednak na budowaniu „coraz mniejszych maszyn” (Feynman), lecz odwrotnie, na budowaniu coraz większego z małego, albowiem proces życiowy wykształca z pojedynczych łańcuchów atomowych za pośrednictwem ich samoorganizacji molekularne replikatory, które z kolei w toku embriogenezy wyrastają w dojrzałe organizmy, a wszak początkiem ich była zawsze jednokomórkowa substancja dziedziczna! Moja „hodowla informacji” miałaby przebiegać nie pomiędzy „mikro” i „makromaszynami”, lecz pomiędzy molekularnymi nośnikami informacji o rozmaitym ładzie i różnej wielkości (ale zawsze zrazu na poziomie porównywalnym z poziomem atomowym). Ewolucja w całości może być rozpatrywana jako gigantyczny proces „uczenia się”, samoorganizacja zaś nie jest „samouczeniem się”, lecz selektywnym zbieraniem i łączeniem informacyjnych fragmentów. Podczas jednak, kiedy (wciąż cytuję siebie, tłumacząc z mego niemieckiego eseju) budowlany plan organizmu dojrzewa z genów, czyli „rozkazodawców zdolnych do uaktywnienia”, aż zakończy się budowa organizmu, moja „hodowla informacji” miała doprowadzić do tworzenia „zautomatyzowanego samotwórcy naukowych teorii” dzięki temu, żeby niezmienniki środowiskowe (w ich wybiórczo wykrytej informacji) winny się niejako wykrystalizować w „teorię” jak gdyby z pseudogenów złożoną. Tak zatem drzewo ewolucji widziałem jako rozgałęziony wzrost „ksobny”, „egoistyczny”, ponieważ w nim tylko to może przetrwać i to się rozrasta, co dzięki adaptacji do środowiska przeżywa, w mojej „hodowli informacji” natomiast miało być „na odwrót” — bo środowisko winno by informacyjnie skoncentrować swoje niezmienniki w coraz ściślej upakowanej wiedzy — więc w modelu teoretycznym pomysł ten nie wydawał mi się tak szalony, na jaki zdawał się wyglądać. Przecież informacyjna zawartość jednej ludzkiej komórki rozrodczej odpowiada zawartości encyklopedii! Ponieważ jednak dojrzały organizm zawiera jeszcze więcej informacji, powstaje pytanie, skądże on tę dodatkową informację może pobrać? Otóż pobierają w trakcie wzrostu „z samego siebie” (z wzajemnej interakcji organów ciała) i ze środowiska, co przypomina „efekt Münchausena”, który sam siebie wyciągnął za włosy z bagna. Jest tak, ponieważ embrion nie pobiera byle informacji, lecz absorbuje taką, która przydatna mu jest do dalszego dojrzewania. Więc można by wyobrazić sobie odwrotność takiego przebiegu: jako molekuły, które „odżywiają się” istotną informacją, pobieraną z otoczenia i w ten sposób „bez profesorów uniwersytetu” projektują teorie… Nieco zbliżone, jakkolwiek o wiele skromniejsze koncepcje były omawiane ostatnimi laty w fachowej literaturze jako tak zwana „nanotechnologia”. Nie ma ona jednak nic wspólnego z teorią czy praktyką poznania, a zatem z budowaniem teorii. Szło o to, aby nanokomputery (w skrócie zwane Nands) sterowały mikromaszynkami, które wnikałyby w celach leczniczych do ludzkiego organizmu. Było to raczej bliskie „bystrom” jako „wirusom ratunkowym”, które opisałem w powieści Wizja Lokalna. A. K. Dewdney w roku 1988 pisał w „Scientific American”: „oczywiście, teraz jest to wszystko marzeniem sennym — teraz. Znajdujemy się obecnie na progu wniknięcia w obszar «nano»„. Koniec tłumaczenia z niemieckiego. 3 Ja sam w jakiś czas po ukazaniu się pierwszego wydania Summa Technologiae uległem zwątpieniu, czy moja „hodowla informacji” nie jest zwidem, którego urzeczywistnienie będzie po wieki wieków niemożliwością. Jakoś nigdy nie wzbudził ten pomysł żadnego echa, ani krytycznego, ani prześmiewczego, ani pochwalnego: jakbym, zamiast książkę opublikować, wyrzucił jej maszynopis do studni. Zjawisko przemilczania pomysłów nazbyt przedwczesnych, zbyt odległych od wiedzy zastanej, funkcjonującej w przystosowaniu już przemysłowym, jak cały — olbrzymi wszak — przemysł komputerowy z jego niewzruszoną regułą „od większego do mniejszego”, czyli TOP– DOWN, to zjawisko jest właściwe wszystkim epokom i wszystkim nazbyt zuchwałym, zrodzonym samotnie ideom. Pewnie z tego powodu w następnym wydaniu Summa Technologiae „hodowlę informacji” sam poddałem surowej krytyce, choćby dlatego, ponieważ było tak, jakby jej nikt ani w kraju, ani za granicą w ogóle nie dostrzegł. Trzeba powiedzieć, że zarówno od „nanotechnologii”, jak i od odwrócenia zasady TOP– DOWN w BOTTOM–UP jesteśmy wciąż jeszcze daleko, niemniej już się takim odwróceniem — chociażby zaczątkowo — uczeni zajęli. Świadczy o tym obszerny artykuł w „New Scientist” z 19 lutego 1994 r., zatytułowany „Molekuły, które same siebie budują” (Molecules that build themselves). Jakoż w podtytule jest powiedziane: „Natura wspiera się na takich złożonych molekułach jak DNA, aby mogły się zmontować”. Chemicy pobierają dziś od biologii lekcje, które mogą doprowadzić nas do nowej generacji microchips. Tyle jako zapowiedź. Zaś w artykule, którego ani przytoczyć, ani szeroko streszczać tutaj nie zamierzam, ukazana jest przynajmniej zasada, jawnie spokrewniająca się ze wstępem do mojej „hodowli informacji”. Przyznam, że się tak rychłego ziszczenia zaczątków pomysłu sprzed trzydziestu kilku lat nie spodziewałem: wypada zasługę przypisać najpierw niesamowitemu wręcz przyspieszeniu poznawczej działalności nauki, która (nie na ostatku) uległa akceleracji, ponieważ, jak już obliczono, dzisiaj żyje i pracuje więcej uczonych aniżeli w całym czasie minionym do teraźniejszości. 4 Cóż więc takiego wykryli chemicy, co może zapowiedzieć „pseudobiologiczne przetwarzanie danych”, i tym samym sprowadzić je do poziomu bodaj w Naturze najniższego, bo wszak poniżej atomów i ich związków panuje już domena kwantowa, w której, jak się nam obecnie wydaje, nie będzie można poszukiwać podłoża jeszcze dalszej mikrominiaturyzacji: tam bowiem panuje zasada nieoznaczoności Heisenberga, nie dające się z nukleonów wyosobnić — bez użycia kosmogonicznej energii — zagadkowe kwarki, fale są cząsteczkami, a cząsteczki falami… ale znów głowy nie dałbym obciąć sobie za to, że się tam data processing czyli przetwarzanie danych nie zdoła przedostać w nadchodzącym wieku. 5 Pierwsze elementy, pierwsze wykryte cegiełki molekularnego budownictwa „z dołu w górę” są, jak to zazwyczaj bywa w początkach, raczej dosyć proste. Prawie jak klocki budowlane LEGO… ale nie ze wszystkim. Na razie poznano dwie klasy molekuł: tak zwane „katenany” i „rotaksany”. Catena to po łacinie łańcuch, a po angielsku concatenation to łańcuchowe połączenie ogniw. Tak też wyglądają związki pierwszej grupy: one są jakby kółkami wzajemnie sprzężonymi. Natomiast „rotaksany” wirują, rotują wokół osi połączenia (nie mechanicznego naturalnie, lecz fizykochemicznego) dwu grup molekularnych: jakby ktoś naciągnął obrączkę na ciężarek zakończony dwiema kulami. Należy tutaj sobie generalnie uprzytomnić, że niesamowicie precyzyjne budownictwo biologiczne zachodzi właściwie zawsze w fazie ciekłej. To już nie jest faza stała znanej solid state electronics. Faza ciekła, faza roztworów, koloidów, stwarza zupełnie nowe warunki, nie tylko mechanice ciał stałych i elektrodynamice „makro”, ale również silikonowej technice nie znane: mówiąc w grubym uproszczeniu, chips są jak tabliczki, a my jak dzieci — rysikami grawerujemy obwody i „bramki” na silikonie; tutaj — w fazie ciekłej — wszystko to już staje się przeszłością, niby żaglowce i balony w erze odrzutowców. W USA syntezowano już trójwymiarowe struktury, przypominające pęcherzyki zawarte w komórkach biologicznych. A u Harvarda tworzą molekularne pokrycia powierzchniowe, co daje odpowiedniki dwuwymiarowych kryształów organicznych. Z kolei dopiero dalsze rozbudowywanie rotaksanów pozwala zrozumieć, dlaczego właściwie „matryca dziedziczności”, jaką jest spirala nukleotydowa, ma kształt spiralnych „schodów”. Jak twierdzą zagorzali entuzjaści fizykochemii, katenany i rotaksany są niejako prekursorami molekularnych przekaźników. Nietrudno już tworzyć takie molekularne „aparaty”, które potrafią wyrażać dwójkową, czyli „binarną” logikę, fundament całej digitalnej rewolucji kresu naszego stulecia. Proszę zwrócić szczególną uwagę na słowo „wyrażać”. Wprawdzie jeszcze logika ta, sama, jako izolat, żadnej treści nie zawiera, lecz można z takich elementów — a raczej będzie można — budować układy większe. Co się szybkości przełączeń tyczy, też nie należy ulegać zmartwieniom. Rotaksany wirują około 300 000 razy na sekundę, a ważą około 3000 daltonów. Jako molekularne systemy pamięci, czyli informacyjne „składy”, są też odpowiednio znikome, 5 nanometrów przy maksymalnym rozciągnięciu… 6 A więc z jednej strony zarysowały się szansę budowy biokomputerów, opartych na molekularnej zasadzie bottom–up, z drugiej zaś jeszcze może więcej nawet obiecujące budownictwo molekularne, które zdoła wreszcie zapełnić ów tyleż ogromny, co zagadkowy rozziew pomiędzy wszystkimi możliwymi tworami materii martwej a materią ożywioną. W samej rzeczy bowiem do dziś żadnego ciągłego przejścia między nimi nie ma i dlatego w niedawnej jeszcze przeszłości filozofowie postulowali istnienie jakowejś vis vitalis, entelechii, zagadkowych bytów ponadmaterialnych, nie redukowalnych ani do fizyki ani do chemii, owych „embriogenetycznych promieni” Gurwitcha, owych „pól organizacji wzrostów”, które miały na poły niedostrzegalnie być czymś, co może tchnąć aktywność nie porównaną z niczym w żywe organizmy i tkanki. Ten rozziew będzie oczywiście zapełniany stopniowo i powoli, jego zaś ekstrapolacyjnym towarzyszem stanie się „filozofia przyszłości”. Ukuć ten termin pomógł mi niemiecki filozof z Essen B. Grafrath, który wykłada pierwiastki jakiejś „lemologii” w oparciu o dyskursywne tytuły moje, takie jak Golem XIV, na tamtejszym uniwersytecie, ponieważ wyjawił przekonywająco, że właściwie nie uprawiam „futurologii” takiej, jaka stała się modna ze dwadzieścia parę lat temu, albowiem żadnych konkretnych „wynalazków” nie próbuję przewidywać, a jeśli to, co pisałem, patrzyło na „prognozę”, to jedynie w takim sensie, w jakim Bacon przed 400 laty wyraził przeświadczenie, że samojezdne machiny człowieka zejdą w głębiny mórz, będą się poruszały po lądach i opanują powietrze. Ta „filozofia przyszłości” miałaby stanowić jakby roztrząsania poznawcze, perspektywy ontologiczne oraz osądy etyczno–moralne takich prac Człowieka, jakich nie ma, lecz ku jakim wiedzie już z końcem XX wieku tak zwana niezmożona „składowa faustyczna” ludzkiej natury. Rzecz mianowicie w tym, że tworzymy to, co Naturę naśladuje, chociaż często inaczej niż Natura działa (auto nie jest wszak plagiatem czworonoga ani samolot — orła) oraz to, co kiedyś Naturę prześcignie, z fenomenów Natury wyszedłszy, jak wykatapultowane z procy, i tym samym jeszcze drastyczniej aniżeli dziś objawi się obosieczność ludzkiego „postępu”, który jest w awersach Dobrem, a w Rewersach — jednocześnie — zagrażającym nam i sobie Złem. (Dziwnie to przypomina słowa Pisma o „Pożywaniu owoców z Drzewa Wiadomości”, słowa szatana eritis sicut Deus scientes bonum et malum…). Jak dotąd, projekcje mojej wyobraźni unosiły się jak gdyby w próżni fantazmatów zamknięte w poszczególne rozdziały książek (jak Summa T.). Teraz poczynają z mgły informacji wyłaniać się pierwsze stopnie schodów, wiodących ku owym zuchwale i przedwcześnie pomyślanym szansom, w których może nawet więcej kryje się zagrożenia naszego gatunku aniżeli tryumfu: ale skoro już wiemy, że „postęp” jest autokataliczny, że technologia także jako biotechnika stanowi „zmienną niezależną” dziejów cywilizacji — wszystkie próby jej zatrzymania, wyhamowania, będą wniwecz obrócone. Czas nasz, przejściowy, po upadku imperium sowieckiego, jest bez wątpienia chaosem, w którym czai się niejedno niebezpieczeństwo. Możliwe, że czas ten spowoduje spowolnienie prac poznawczych nauki: wiemy przecież, że uległa ona nieomal strzaskaniu w byłym ZSRR, a mniej wiadomo o głosach przerażenia, dobiegających z naukowych środowisk w USA. Mianowicie, w obliczu zniknięcia największego przeciwnika, Kongres i zwolennicy stanowisk „konserwatywnych” domagają się znacznego okrojenia budżetu federalnego i budżetów stanowych, które w czasie wyścigu zbrojeń (zimnej wojny) maksymalnie finansowały także badania podstawowe. Byłoby to zjawiskiem o posmaku wielkiego zagrożenia. Ani Japonia, ani niektóre z „tygrysów azjatyckich”, czyli obszary, w których zimna kalkulacja trwa nadal, nie zdecydują się na podobne redukcje (w sferze „R and D”, Research and Deuelopment) i wtedy może dojść do przemieszczenia centrów „naukonośnych” z jednych połaci globu na inne kontynenty. Nauka jednak nie postrada, ponieważ tak czy owak będzie się rozwijała nadal, a z jej historii dowiedzieliśmy się już, że okres pojawiania się zdatnych do szerokofrontowego wdrażania nowych technologii, nowych źródeł energii, nowych narzędzi i programów działania, poprzedzać musi zawsze okres przygotowawczy, właśnie badań podstawowych, które zdolne są do zaowocowania, sposobem z góry nie dającym się ani dokładnie zaprojektować, ani nawet przewidzieć, w rezultatach korzystnych bądź fatalnych dla ludzkości. Bezrobocie jako skutek wszechautomatyzacji może być plagą XXI wieku, a myśleć o tym należy już teraz. (Norbert Wiener przed półwieczem pisał o nim w Human Use of Human Beings). Molekuły pseudobiologiczne (ponieważ przy uszkodzeniach samonaprawcze), molekuły zdolne do pomnożeń (replikacji) staną się czymś więcej niż prostym małpowaniem oddzielnych organicznych funkcji, plagiatem ze zjawisk życia. Są zwiastunami przewrotów, być może przewartościowaniami, znacznie przewyższających wpływ rozszczepienia nukleonów na ludzkie bytowanie. Zresztą żaden patos przy rozmyślaniu nad „filozofią przyszłości” nie jest potrzebny. Najwyżej mógłbym wyrazić żal, że nie w kraju, nie w Polsce przewidywania moje, ubrane po części w kostiumy i pokazane w scenerii Science Fiction, zrozumiane zostały, ocenione i uznane za brzemienne w prawdę — w prawdę przyszłości po prostu. Ale to, co powiada porzekadło Nemo propheta in patria sua nie zostało wczoraj wymyślone i w gruncie rzeczy powtarza tylko pewien bardzo stary stereotyp, przeciw któremu brak lekarstwa. Wszak musiałem tutaj tłumaczyć moje teksty z niemieckiego! Nauka w Polsce znajduje się w fatalnym stanie i nic nie rokuje terapii, która by ten stan zapaści uleczyła. Ale to już jest tematem do następnych roztrząsań: aura polityczna sprzyja na razie naszemu cofaniu się i prawdziwie niebezpiecznym wybuchom sarmatyzacyjnego sobkostwa… 7 Ażeby nie zakończyć pesymistyczną uwagą, pozwolę sobie przytoczyć ostatnie słowa, jakimi zamknąłem przed laty Summa Technologiae: Z dwudziestu liter aminokwasowych zbudowała Natura język „w stanie czystym”, który wyraża — za nieznacznym przestawieniem sylab nukleotydowych — fagi, wirusy, bakterie, tyranozaury, termity, kolibry, lasy i narody — jeśli ma tylko do dyspozycji czas dostateczny. Język ten akceptuje nie tylko warunki dna oceanów i szczytów górskich, ale kwantowość światła, termodynamikę, elektrochemię, echolokację, hydrostatykę i Bóg wie, co jeszcze, a czego my na razie nie wiemy. Czyni to tylko „praktycznie”, ponieważ sprawiając wszystko, niczego nie rozumie, lecz o ile sprawniejsza jest ta bezrozumność od naszej mądrości. Doprawdy, warto się nauczyć takiego języka, który stwarza filozofów — gdy nasz — filozofie. A w 1980 roku na zaproszenie Polskiej Akademii Nauk napisałem prognozę rozwoju biotechnologii do roku 2060, która utonęła w rzece historii — ponieważ rozpędził ją wybuch naszej „Solidarności”, przez co nigdy nie została ta prognoza opublikowana. Pisałem w niej o przejęciu „języka Natury — języka genów — od bioewolucji” i o tym, jak rozumiem hasło „doścignąć i prześcignąć Naturę”. Ale to już jest rzecz na inną rozprawę i okazję… Wirusy maszyn, zwierząt i ludzi 1 „Wirus” oznacza dosłownie jad”. Poprzednikiem plagi wirusowej, zagrażającej komputerom, była zaprogramowana przez A. K. Dewndeya w roku 1984 gra „Core Wars”. Jej fatalne potomstwo jako możliwość dostrzegli dopiero czytelnicy Dewndeya. Pamiętam jak po raz pierwszy w piśmie „New Yorker” czytałem o Computer Crime: w tym czasie o wirusach komputerowych nie było jeszcze mowy. Wirusy można od siekiery podzielić na trzy klasy: I. Programy, które „zakażają” inne programy, modyfikując je tak, aby „zarażone” zawierały kopię wirusa. Jednak właściwie wirus programem w ścisłym znaczeniu nie jest, gdyż samodzielnie jako soft—ware niczego nie może zdziałać. Może być raczej „doczepką” albo „parazytem” programu. Taki wirus może być uznany za coś w rodzaju dodanej do programu sekwencji. II. „Robaki”. Są to rzeczywiste programy, które mogą się samodzielnie przenosić od komputera do komputera, więc się „rozmnażają” mając „cykle życiowe” przypominające „robaki” w rodzaju ludzkiego albo zwierzęcego tasiemca. Programów, które obsiadły, nie zmieniają w podobnym sensie, jak tasiemiec nie zmienia człowieka. III. „Konie trojańskie”. To również są samodzielne programy, które co prawda nie muszą się rozmnażać. Udają rzetelne programy, służące właścicielowi komputera, lecz w toku aktywności, kiedy funkcjonują pozornie wedle zamiaru obsługi, „w zapleczu” zachodzą całkiem skrycie inne procesy. Sięgają one do wykrywania, magazynowania, przekazywania haseł kodowych aż po likwidowanie danych lub całego dysku. Można je też uznać za „trojańskie konie”, zawsze połączone z udawanym programem. Generalnie biorąc, problem wirusów komputerowych jest jedną z niezliczonych odmianą „wynalazczości destrukcyjnej”, która jest interesowna (i w tym niejako przedustawnie dana biologii, ponieważ wszystkie organizmy, czy złożone, czy proste, są „ksobne” i niczego poza tym nie robią, co ich przeżywaniu na jakiś koszt cudzy lub własny nie służy), albo bezinteresowna. Trawa nie jest na ogół destrukcyjna, wirus mozaiki tytoniowej jest niszczycielem, podobnie naturalnie, jak groźny wirus zapaści odpornościowej, powodujący AIDS. O tym, jak on powstał i skąd w toku „informacyjnej ewolucji” powstały wirusy dla nas zabójcze, chcę mówić nieco dalej: już teraz wszakże wolno rzec, że im w ich genezie żadnej „okrutnej intencji” nie można przypisać. Gdzie człowieka nie ma, nie ma też żadnej intencji, rozumianej jako taka chęć, z której można by zrezygnować: intencja bez świadomego jej zaakceptowania w przyrodzie nie istnieje. Działania instynktów (pająka, skorpiona) są bezintencyjne, ponieważ instynkty sprawiają, że tak a nie inaczej organizmy zachowywać się muszą. Piszę o tym dlatego, że z grubsza wirusy maszyn (komputery są maszynami przetwarzającymi informacje, tak jak silniki maszynami przetwarzającymi energię) można rozdzielić na takie, które komuś do czegoś służą, pozwalają wkraść się do atakowanego systemu informacyjnego, ukraść dane którymi można jakoś po zawładnięciu sobie wygodzie, itd.), i na takie (Michał Anioł), które oprócz tego, ze w oznaczonym dniu czy godzinie zniszczą informację zakodowaną w maszynach, niczemu nie posłużą i niczego nie zrobią. Wirusy, które mają zadania niszczycielskie wyłącznie, są, rzecz jasna, efektem takiej pomysłowości człowieka, która zamiast tworzyć, przedostaje się (stara się przedostać) przez każdą obronę i ma za cel tylko destrukcję. Jest to bardzo niemiłe, że ten abstrakcyjnie poczęty ablegier naszej wynalazczości ma (mniej wyrafinowane lecz bardziej brutalne) korzenie w atrakcyjności dla nas ZŁA po prostu. O czym się nie mówi, albo zapomina. Marzeniem „hackera” może być i atomowa wojna światowa, wywołana dzięki jego umiejętności wtargnięcia do najlepiej zastrzeżonego systemu jakichś sztabów generalnych. 2 Wirusy żywych organizmów powstają zawsze w toku ewolucji naturalnej, podobnie zresztą jak wszystkie żywe ustroje, zarówno pasożytujące, jak żyjące nie takjawnie „na cudzy koszt”. Nie mają one własnej przemiany materii. Zmuszają komórki gospodarza do wytwarzania niezbędnych wirusowi związków molekularnych, powodując śmierć lub uszkodzenie całych tkankowych zespołów, z kolei rozprzestrzeniają się w organizmie, a zwykle przenoszą się różnymi drogami na organizmy podobne. (Wynika z tego wirusowa choroba, epidemia, a w przypadku AIDS — pandemia obecna). Wirusy uważa się za ogniwo pośrednie między materią martwą i żywą, gdyż z jednej strony potrafią się — dzięki „zniewoleniu” gospodarzy — rozmnażać, a wyosobnione można z drugiej strony krystalizować (nie wszystkie tak prosto, jak wirus mozaiki tytoniowej). (Istnieją też wirusy bakterii, tak zwane fagi beta na przykład). 3 Dochodzę do kwestii, na której mi zależało. Dwa są istotne podobieństwa pomiędzy wirusami organizmów i komputerów. Dwudzielność wirusa oraz tak zwany „okres latencji”. Wirus składa się z otoczki proteinowej i wewnątrz umieszczonej „substancji dziedzicznej”. Jego molekularne „czujniki” zewnętrzne stwierdzają należyty kontakt z obiektem do zainfekowania. Nić kwasów nukleinowych zostaje przy udanym „zakotwieniu” wstrzyknięta do komórki gospodarza i następnie wirus traci swoją identyczność jako mały system samodzielny. Wnika bowiem w procesy komórkowe, najczęściej jądrowe (DNA) gospodarza, by je dla siebie wykorzystywać. Latencja to okres utajnienia infekcji. Wirus musi najpierw uruchomić etap aktywnej inwazji wewnętrznej, z grubsza sprowadzalny do tego, że przerzuca on tak i tyle zwrotnic molekularnych aparatu komórki atakowanej, aż podległszy mu, będzie ona już producentem elementów budowy wirusa, który wtargnął: kończy się to w granicy rozpadem i śmiercią komórki gospodarza, a rzut potomnych wirusów atakuje dalsze tkanki ustroju. Natomiast etapy ewolucji wirusów komputerowych może cechować albo specjalizacja, albo na odwrót, swego rodzaju uniwersalizacja, czyli albo się one coraz skuteczniej mogą zmagać z obroną (ponieważ istnieją wszak specjalne antywirusowe programy), albo mogą być „zaraźliwe” dla szerszej gamy różnych programów. Zasadniczo jednak idzie zawsze o te wszystkie dziś na rynku obecne komputery, które potrafią imitować najprostszy system, jakim jest maszyna Turinga, a to znaczy, że wszystko zasadza się na pracy krokowej. Od słowa łacińskiego ITERATIO, powtórzenie, powstanie kolejnego kroku, bierze się pojęcie pracy ITERACYJNEJ. Otóż wirusy dzisiaj jeszcze skutecznie do programów projektowanych dla paralelnie pracujących komputerów brać się nie mogą z tej trywialnej przyczyny, że te komputery w większej mierze są marzeniem aniżeli rzeczywistością. Mózg (każdy, nie tylko człowieka) działa wedle reguły wypowiedzianej przez Johna von Neumanna: układ PEWNY (oporny na awarie) zbudowany z elementów NIEPEWNYCH (awariom podległych). W równoległym komputerze POWINNA właśnie obficie rozdrzewiona sieć połączeń pomiędzy poszczególnymi „bramkami” umożliwiać likwidowanie lokalnych awarii, gdyż jeśli jedna droga zostanie zamknięta, zwykle jakąś inną, okólną, sygnał pobiegnie. Natomiast dziś tak sprawna antyawaryjność antywirusowa jeszcze nie została szerokim frontem osiągnięta. Przepraszam jednak za dygresję, by powrócić do zagadek wirusów pasożytujących na życiu, zwłaszcza zaś do wirusa AIDS. (Nawiasem mówiąc, uważam za skandal, że w USA, we Francji, w Rosji ukuto w miejscowych językach terminy dla tego wirusa: SIDA, SPID, a u nas albo posługujemy się angielskim HIV, albo mówi się o AIDS, co sensu stricto jest głupstwem, gdyż AIDS oznacza Acąuired Immunodeficiency Syndrome, czyli agonalną, ostatnią fazę przegranej walki ustroju z wirusem, a nie samego wirusa). 4 Nasuwające się zewnętrznemu obserwatorowi podobieństwo „wyścigu zbrojeń” pomiędzy wirusami i organizmami jest po części złudzeniem, wywołanym naturalną naszą skłonnością do antropomorfizacji zachowań wszystkiego, co żywe. Chodzi i o to, że specjalizacja programów wirusowych oraz antywirusowych w informatyce oznacza wzrosty sprawności, wywołane doskonaleniami (więc mamy „ochronne szczepienie”, instalowane w systemie, które ma zastępować każde odchylenie od pożądanej funkcji, mamy desinfectantia, które usuwają czy likwidują rozpoznanego wirusa, mamy „kwarantannę”, czyli czas odczekany dla wykrycia, czy wirus się nie zaktywizuje — co prawda wirus może mieć wbudowany czujnik kalendarzowo– zegarowy o długoterminowym zasięgu). Stąd „kwarantanna” nie jest zabezpieczeniem pewnym. 5 A jak to jest właściwie z tą problematyką, przeniesioną w obszar żywych organizmów? Tu trzeba rozdzielić przynajmniej dwie dziedziny. I. W latach pięćdziesiątych do walki z królikami, które, rozmnożywszy się, niszczyły w Australii pastwiska owiec, wprowadzono myksowirusy wywołujące śmiertelne schorzenie królików. W rezultacie 90% królików wymarło, ale sukces okazał się krótkotrwały, ponieważ już w latach sześćdziesiątych populacja królików całkowicie się odtworzyła. Mianowicie króliki, co przeżyły, stały się na myksomatozę niewrażliwe. Jest wysoce prawdopodobne, że podobny przebieg miałaby pandemia ludzkości, atakowanej przez HIV. Lecz trudno, abyśmy się pogodzili z widmem śmierci 90% populacji Ziemi, po czym pozostałe 10% nie umierałoby już na AIDS… Ogólna zaś zasada jest taka: młode tj. ewolucyjnie wcześnie powstałe pasożyty są wysoce zjadliwe. Ich zjadliwość (wirulencja) niesie zgubę atakowanym ofiarom, lecz im zagraża także, bo gdyby wszystkie ofiary zginęły, to pasożyty wraz z nimi również znikłyby całkowicie. Toteż z biegiem czasu ustanawia się dynamiczna równowaga między pasożytami i gospodarzami w ewolucji, i „stare” pasożyty „dają żyć” swoim gospodarzom we własnym „interesie”. Rzecz jasna, taki wynik „gry o przeżywanie” nie wynika z „rachuby”, do której nie są ani bakterie czy wirusy, ani owce czy małpy zdolne: wynika ta równowaga z faktu, że przeżywa ten, kto się zachowuje z POMIARKOWANIEM, chociaż nie ma „głowy do rozmyślania nad zachowawczą strategią”. Kamyki żwiru najbardziej zbliżone do kształtu kulistego podążają w rzece najdalej nie dlatego, że są najbystrzejsze, ale dlatego, że zasięg żwiru zależy od oporu stawianego przez podłoże. Zjawiska takie zdają się naiwnemu sugerować, że jakiś „Ktoś” jednak taktykę obmyślił. Z wirusem HIV jest tak: jest to jeden z bardzo wielu przedstawicieli klasy retro uirinae (bez własnego DNA), a tą klasą do odkrycia genów nowotworowych (onkogenów) i wirusa HIV nie interesowali się wirusologowie, mając „ważniejsze tematy” do badań. Na nauce dziś mści się bowiem lawinowy wzrost „tematów”, o którym jako o grożącej „bombie megabitowej” pisałem w „Sumie T.” przed 33 laty. II. Gdzie drwa rąbią, tam wióry lecą. Wszystkie wirusy są odpryskami genomów roślin i zwierząt, odpryskami, „wiórami”, które dzięki doborowi naturalnemu i selekcji uzyskały względną suwerenność, umożliwiającą im przeżywanie dzięki temu, że albo przeżywają jako „niewinni pasażerowie na gapę” zwierzęcych gatunków (lub roślinnych), albo stają się tak czy inaczej chorobotwórcze. Więc podobnie było i z groźnym dzisiaj wirusem HIV. Wspólny przodek wirusa HIV powstał zapewne u końca KREDY, czyli około 70 milionów lat temu, gdy podział klasy ssaków na żyjące dziś rzędy jeszcze nie nastąpił. Linia, wiodąca wprost do HIV, oddzieliła się, kiedy przodkowie małp szerokonosych przemieścili się na kontynent południowoamerykański (z końcem eocenu). Wirusy tak długo z małpami współistniały, że obecnie już nie powodują im żadnych przypadłości. Takim to sposobem koewolucja, trwająca wiele milionów lat, powoduje „pokojowe współżycie” prapasożyta i pragospodarza. Lecz dopiero gdzieś w naszym lub poprzednim stuleciu doszło do zarażeń wirusami małp — człowieka w Afryce: prawdopodobnie w związku z polowaniem na małpy. To spowodowało skomplikowane pasaże typu „małpy–człowiek–małpy”, aż doszło do czysto miejscowych schorzeń, ale ponieważ wczesna śmiertelność była w Afryce wysoka i bez udziału HIV, nie zostały te wirusy dawniej dostrzeżone. Dopiero połowa XX wieku spowodowała nagłe i masowe zwiększenie migracji na kuli ziemskiej: wirusy dostały się do Haiti i do USA oraz na resztę planety. Otóż to, czym najbardziej zaskoczyły medycynę, był okres ich latencji, który, jak wiemy już, może przekraczać i 10 lat utajnienia. Dlaczego? Przypisywanie tym wirusom jakiejś diabolicznej strategii, która udaremnia wczesne rozpoznania i powoduje niemal 97–99 procentową śmiertelność, jest naszym złudzeniem. Po prostu przypisujemy wirusom umiejętności, warunkowane wręcz teorią gier i jej taktykami, podczas kiedy rozwiązanie zagadki jest banalnie proste. Wręcz trywialne. HIV jako retrowirus dysponuje tylko rybonukleidami (RNA) i podług tej matrycy odtwarza typowe nukleotydy DNA, które dopiero umożliwiają mu dalsze rozmnażanie, i w tym sęk, ponieważ precyzja RETRO, tj. przekładu „odwrotnego” z RNA na DNA nie jest dobra, a nawet odznacza się wysoką błędnością. Jeden błąd przypada na 1700 nukleotydów, a to jest naprawdę dużo. Przez to w szczepach łatwo powstają bardzo wirulentne odmiany, które powodują śmierć nosicieli i dzięki latencji ułatwiają zarażenie nowych ofiar. Cóż takiego powoduje z kolei wysoką wirulencję? I tu działa po prostu duża zawodność regulacji genowej zachowania wirusa… Ten wirus ma trzy geny — tat, rev i nef; dwa pierwsze regulują jego ekspresję, tj. po prostu sterują kolejnymi krokami jego rozwoju (w komórce zarażonej). Natomiast nef jest to hamulec tamtych dwu genów: negative expression factor. To on powoduje „represję ekspresji”, czyli to, co my jesteśmy skłonni nazwać „trwaniem w długim przyczajeniu”. Gen nef znajduje się na końcu (terminale) nici RNA. Dopóki ów „hamulec” działa normalnie, przedwirusów (wirionów) jest mało, wykryć ciał odpornościowych we krwi już zarażonego nie można, infekcja bywa nazywana „milczącą” lub „skrytą”. „Normalne” szczepy wirusa, zaopatrzone w nef jako „hamulec”, nie powodują zapaści odpornościowej, nie prowadzą do AIDS. Ponieważ jednak, jak się rzekło, zbyt „prymitywna” jest precyzja replikacyjna wirusa, po pewnym czasie powstające losowo błędy prowadzą wreszcie do uszkodzenia (mutacyjnego) „hamulca”. Pozbawione „hamulca” wirusy zaczynają się gwałtownie mnożyć, powstaje pozytywna serokonwersja (tj. we krwi łatwo można wykryć wirusy), i ofiara „jedzie” już prosto w AIDS, czyli w stronę agonii. Okres skrytej infekcji można wyznaczyć dość podobnie, jak czas oczekiwania na serię „czerwone wygrywa” w Monte Carlo, czy na realizację określonego stanu (szlem w brydżu, trzy szóstki w rzutach trzema kośćmi itp.). Okres „milczącej infekcji” wynosi dla HIV1 4–14 lat, dla HIV2 do 24 lat… Innymi słowy, zamiast „przebiegłej techniki zaczajenia” mamy po prostu przed sobą efekt regulatywnej ułomności, spowodowanej dość skomplikowaną, niejako okrężną drogą, którą przebył w ewolucji naturalnej praprzodek wirusa HIV. Nie jest on „zbyt wyrafinowany”, lecz niejako na odwrót — nazbyt „prosty”: „gubiąc” hamulce ekspresji, na łeb na szyję się rozmnaża, ginie z ofiarami, ale pozostają szczepy jeszcze „nie zdefektowane”. Biorąc rzeczy czysto teoretycznie, „należałoby czekać”, aż dojdzie do takiej dynamicznej równowagi między ludźmi i wirusami, do jakiej w Australii doszło między królikami i wirusami myksomatozy… co oznaczałoby jednak spustoszenie planety daleko gorsze od powodowanego przez wszystkie epidemie średniowiecza z „czarną śmiercią” na czele. Cóż należy więc uczynić, aby powstrzymać ów pochód śmierci? To jest wciąż nie rozwiązane zadanie, kwestia, która wymagałaby osobnego rozstrząsania. Mnie szło zaś tutaj jedynie o demonstrację (nie bez uproszczeń) różnicy (przy faktycznych podobieństwach) pomiędzy zachowaniem wirusów komputerowych człowieka (złośliwego, dodajmy) i wirusów Natury… Czy przejmiemy technologię życia? 1 Powtórzę to, co napisałem przed trzydziestu laty w zakończeniu „Sumy Technologicznej”: „Z dwudziestu liter aminokwasowych zbudowała Natura język w stanie czystym, który wyraża — za nieznacznym przestawieniem sylab nukleotydowych — fagi, wirusy, bakterie, tyranozaury, termity, kolibry, lasy i narody — jeśli ma tylko do dyspozycji czas dostateczny. Język ten, doskonale ateoretyczny, antycypuje nie tylko warunki dna oceanów i szczytów górskich, ale kwantowość światła, termodynamikę, elektrochemię, echolokację, hydrostatykę i Bóg wie, co jeszcze, a czego my na razie nie wiemy. Czyni to tylko «praktycznie», ponieważ sprawiając wszystko, niczego nie rozumie; lecz o ile sprawniejsza jest jego bezrozumność od naszej mądrości. Czyni to zawodnie, jest rozrzutnym szafarzem twierdzeń syntetycznych o własnościach światła, bo zna jego statystyczną naturę i zgodnie z nią właśnie działa: nie przywiązuje wagi do «twierdzeń pojedynczych» — liczy się dlań całość miliardoletniej wypowiedzi. Doprawdy, warto nauczyć się takiego języka, który stwarza filozofów, gdy nasz — tylko «filozofie»„. 2 Namolnie utwierdzałem w nazwanej książce — a potem i w innych — zachętę, nakaz przejęcia przez człowieka tej biotechnologii, która i jego samego stworzyła. Ukazywałem wyższość „sprawczego języka Przyrody” nad wszelkimi odmianami technologii, jakieśmy sami wynaleźli i po kolei w dziejach cywilizacji uruchomili i wdrożyli. (Z coraz jawniej fatalnymi skutkami, albowiem nasze technologie dają „rykoszetowe” efekty uboczne, które podgryzają tę biosferyczną gałąź, na której życie prowadzimy). Różnic między biotechnologią i naszą technologią (we wszystkich odmianach) jest sporo. Najważniejsza może sprowadzać się do tego, iż my działamy z reguły metodą TOP–DOWN, a biotechnologia metodą BOTTOM–UP. My mianowicie — to najwyraźniej widać przy produkcji hardware i software komputerów — budujemy z pewnych „calizn” materiałowych, a ponieważ większa jest kompresja logicznych jednostek na „chipie”, sprzyjająca zwiększeniu chyżości operacyjnej (i tym samym całościowej mocy obliczeniowej), tym lepiej więc miniatury żujemy i mikro–miniaturyzujemy „chipy”. Zawsze jednak działamy „z góry” (makroskopowej) w „dół” (mikroskopowy), coraz mniejsze rysując obwody i układy scalone. Nie dochodzimy wciąż do ostatecznego celu, jakim byłoby chwytanie jakowąś „pincetą” (może chemiczną) poszczególnych molekuł, ażeby z nich „chipy” czy obwody najmniejsze skonstruować, natomiast ewolucja naturalna działa „odwrotną drogą”, konstruuje bowiem BOTTOM–UP. Najpierw „uczyła się”, czyli trenowała prymitywne jeszcze pierwociny kodu genetycznego poprzez trzy miliardy lat od zakrzepnięcia ostatniej wówczas powierzchni protoplanetarnej Ziemi. I dopiero nadawszy dzięki trylionom „prób i błędów” wzmożoną uniwersalność kodowi dziedziczności, wywiodła z niego proste jeszcze zespoły komórkowe, potem zaś większe, zdolne do bytowania replikacyjnego w wodach, na lądzie i na koniec w powietrzu. 3 Jeżeliście już sto razy słyszeli, pozwólcie mi cofnąć się jeszcze raz dla umożliwienia rozbiegu. Otóż chodzi o to, że druga równoległa odmienność biotechniki od naszej techniki w tym, że my działamy, używając narzędzi (które mogą być albo kierowane przez człowieka, albo — dziś — przez automaty, jak komputery), czyli zawsze mamy do czynienia z jakimś rodzajem obrabiarki i jakimś obrabianym materiałem (we wszelkiej produkcji, z wyjątkiem prostych zapożyczeń pradawnych od biologii: to np. produkcja, stosująca procesy fermentacji sera, win, piwa albo po prostu długotrwałe zabiegi hodowlane, co nam z jakichś potomków szakali wywiodły ogromną gamę różnych psów). Natomiast w biologicznej ewolucji zawsze życie poczyna się od jednej komórki i z niej wyrastają rozmaitymi szlakami płodowymi dojrzałe organizmy. I tutaj dopiero pragnę wszcząć rozważanie na temat zacytowany we wstępie. Czy przejęcie technologii życia jest możliwe? To, po pierwsze. Po drugie: czy można, kiedy przejęłoby się tę technologię, wykroczyć z niej dalej: to znaczy z „cisbiologicznej” fazy („cis” — „tutaj”) przejść do fazy „transbiologicznej”, to znaczy już tam, gdzie tylko metoda pozostanie plagiatem, odbitką, inspiracją taktyczną, wyuczoną na procedurach biologicznych, a zastosowana będzie do jakichś dziś nawet nazwy nie mających stworów, obiektów, układów, systemów, które niejako dzięki „życiu poza życiem” uruchomimy? Byłyby to już takie „technobionty”, o jakich poprzednio w „PC Magazine” (ale tylko ogólnikowo całkiem) wspominałem. 4 Odpowiedzi na oba pytania powyższe udzielić nie jest łatwo. Ponieważ jednak od czasu, kiedy ten postulat wyartykułowałem, minęło trzydzieści lat, zakumulowane w nich obszary wiedzy napawają optymizmem. Nie spodziewałem się mianowicie, pisząc Summa Technologiae, że dożyję choć okrucha zniszczeń wyrażonych w niej zapowiedzi — nadziei. Zarazem okazało się jednak, że już to, co ma stanowić dla nas wzorzec, w pierwszej fazie jest daleko bardziej skomplikowane aniżeli się podówczas sądziło w nauce. Im większe postępy robi biologia molekularna, a szczególnie genetyka (z narodzonymi w niej niemowlęcymi zaczątkami inżynierii genetycznej), tym lepiej orientujemy się, jak niesamowicie, dziwacznie i chciałoby się rzec — nieludzko (tj. nie w zgodzie z jakimkolwiek typem inżynieryjnego i budowlanego myślenia ludzi) skonstruowany jest i działa kod dziedziczności. Po części wynika to stąd, że on musiał „sam siebie skonstruować”, ponieważ żadnego Budowniczego–Inżyniera nad oceanami Praziemi rysującego plany nie było przecież. W efekcie powstało to, co jest nie tylko i nie po prostu „piekielnie skomplikowane”, ale to, co jest po części przynajmniej „obciążone zbędnymi komplikacjami”. Zbędnymi w tym co najmniej sensie, że kod „wlecze z sobą” pradawne pierwociny własne, niejako szczątki tego, co stanowiło odpady „prób i błędów”, a co by można było wyobrazić sobie (w straszliwej, naiwnej symplifikacji) jako, powiedzmy, nowożytny aerodynamiczny elektrowóz pociągu, zdolnego rozwijać 400 km/h wyposażony w komin całkiem nieużyteczny, a pochodzący z epoki parowozów. Albo samonawodzącą się na cel rakietę z zupełnie zbędnym jakimś „celownikiem” na grzbiecie, też pamiętającym czas, kiedy człowiek musiał celować „osobiście”. Tym „balastem wleczonym przez kod” jest najpierw rodzaj „nukleotydowego śmiecia”. Jest to też coś takiego, czym byłyby — powiedzmy — w książce niezbyt starannej korekcie poddawanej i mimo to najzupełniej czytelnej — marginalne kleksy, albo trafiające się w poszczególnych wersach znaki jak A, /, +, * itd. Czytać to by można przeskakując owe niepotrzebne „naddatki”, i w ten sposób właśnie zachowują się komórkowe systemy „czytnikowe”, jak RNA, jak rybosomy itp. Balast jest wleczony nie wiedzieć od jak dawna, w różnych gałęziach specjalnych drzewa ewolucji, tj. w różnych gatunkach zwierząt jest „powklejana” bardzo niejednakowa ilość takich „śmieci — pasażerów na gapę”. To (ale nie tylko to) dało mi asumpt do uznania kodu za taki wehikuł przekazu miliardoletniego w bioewolucji, o który tej ewolucji idzie, ponieważ kolejne organizmy w takim ujęciu są „tylko” kolejnymi przekaźnikami, jakby podstacjami, jakby „listonoszami” wiecznie (mimo zmienności) przesyłanego z generacji do generacji nukleotydowego kodu. Ale to jest nawias. W dwa lata po tym moim pomyśle opracował go (niezależnie ode mnie) biolog angielski Dawkins (The Selfish Gene, „Gen–samolub”, to była książka, w której się owemu problemowi — „co ważniejsze w bioewolucji” — poświęcił). 5 Kod jest to taki: „podręcznik budownictwa”, który sam siebie odczytuje i według odczytywanego stopniowo planu sam siebie buduje. Powstały różne zawiłe „wyboczenia” tej samosprawczej lektury, np. jako metamorfozy owadów w cyklach ,jajeczko — larwa — poczwarka — owad dorosły” i podobne: te „labiryntowo–slalomowe” ruchy powodowane kodem insektów wynikły z potrzeby zastosowania wielu manewrów dla przeżywania gatunków po prostu, a kiedy się jakiś cykl manewrów sprawdził, utrwalony został na wiele milionoleci, por. np. mrówki, pszczoły, osy, żuki itd. — owadów jest około miliona gatunków). „Podręcznik”, zwany genomem, spisany jest nukloetydami, „zaledwie czterema literami”; stanowiącymi cały alfabet biologicznej techniki. Są to zasady kwasów nukleinowych, ale w niniejszym szkicu nawet nie zamierzam wejść w ich chemię, jak nie trzeba wchodzić w chemię atramentów używanych w komputerowych drukarkach. Ważne jest to, że genom zbudowany z tych czterech „liter” tak się składa, iż mamy w nim dwa kody: jest to kod złożony z genów strukturalnych, sprawiających dzięki „tłumaczeniu” powstawanie określonych białek, oraz kod typograficzny, który działa po to, ażeby geny strukturalne były od siebie pooddzielane jakby „znakami przystankowymi” (jak w druku). 6 Na pytanie, po kiego licha w magazynie poświęconym komputerom pisze się o kodzie genetycznym, odpowiedź brzmi: ponieważ w informatyce mamy urządzenia służące przetwarzaniu danych, czyli urządzenia przekształcające i przerabiające informację wprowadzaną w informację wyprowadzaną, przetwornikami zaś mogą być zupełnie inne obiekty, od lamp katodowych przez półprzewodniki do agregatów molekularnych. Zawsze jednak wprowadzamy informację i uzyskujemy informację (czyli ona „wchodzi” przez jakiś input i „wychodzi” przez jakiś output). Natomiast informacja jest w biologii umieszczana na takich nośnikach, które tę informację przerabiają w coś, co jest organizmem, np. palmy, słonia albo cioci Frani. Samosprawczość, w której już jest zawarta przyszła samoreproduktywność (palma dzięki kokosom, słoń dzięki słonicy i słoniątkom, ciocia dzięki wujkowi w dziatkach będą się „replikować”) wymaga, ze względu na warunki własnego powstania i trwania w miliardach lat, tak bardzo zawiłej budowy, jaką pomału możemy rozpoznawać, oraz systemów tłumaczących genom na pochodne białka, enzymy, aż powstanie z tego — dzięki niedawno wykrytym morfogenom — cały organizm. Niby jest to podobne trochę do języka, ale bardziej pod niejakimi względami do partytury symfonii, w której współgra moc instrumentów jednocześnie. Pomyłki są możliwe jak fałsz w odgrywaniu symfonii i jako potknięcia, wyboczenia rozwojów embrionalnych, co powoduje zwykle powstawanie rozmaitych monstrositates. Zajmuje się nimi teratologia, którą tutaj się zajmować nie będziemy. 7 Gdyby litery–nukleotydy wypisywać tak, aby na stronie znalazło się ich 1000, to cały genom wymagałby tysiąca tomów, przy czym każdy liczyłby sobie tysiąc stronic. (Ten przykład z grubsza odpowiada przeliterowaniu genomu myszy). Jak widać, genom jest to rodzaj samosprawczej fizykochemicznie encyklopedii, działa zaś w fazie ciekłej, ponieważ takie warunki panują w komórkach. To jest dla inżynierii, która by pragnęła przejąć ową technologię, dosyć radykalna nowość. Bodaj że pierwszy krok na drodze wiodącej ku spełnieniu wstępnego postulatu mojego, czyli przejęcia biotechnologii życia przez nas, uczynił Douglas Hofstadter w grubej księdze pt. Metamagical Themes, gdzie miedzy innymi zajął się roztrząsaniem ciekawej kwestii, czy kod dziedziczności, a jest on jedyny, czyli zawsze z tych samych liter wedle tej samej „składni” chemicznej i „gramatyki” zbudowany dla wszelkiego Życia na Ziemi, jest jedynym kodem możliwym, czy raczej jest on arbitralny. To znaczy, czy inny kod, z innych „liter” zbudowany, mógłby podobnie funkcjonować, a to znów znaczyłoby, iż powstał po prostu dzięki temu, że taki, jaki i nas stwarza, mógł na Ziemi powstać „najprawdopodobniej”, ale gdzie indziej mogłoby go zastąpić „coś” składniowo i chemicznie innego. A także, dodaję od siebie, jeżeli okazałby się arbitralny, „poniekąd przypadkowy”, to inżynier genomowiec mógłby zacząć przejęcie metod kodu od innych „liter”. Powinienem tu dodać, iż Hofstadterowi nie przyświecała ani idea budownictwa cis–biologicznego (sens terminu podałem wyżej) ani a fortiori trans — czyli poza biologicznego — wedle metody kodu. Inaczej mówiąc, jego pozycja badawcza była bardziej akademicka, teoretyczna (bo chciał się dowiedzieć, czy kod, który tutaj życie stworzył, dałoby się zastąpić innym kodem, np. już nie pobudowanym z nukleotydów jako zasad kwasów nukleinowych, albo może tylko takich samych zasad, ale wziętych z innych nukleinowych kwasów, których jest moc, lecz ich Ewolucja Jakoś” nie użyła). Natomiast moja pozycja jest bardziej zuchwałą transgresją kodu: chciałbym wiedzieć, czy można tego kodu używać jako podręcznika i jako nauczyciela, by skonstruować (nie wiadomo na razie jak) inny kod biologiczny, zdolny do produkcji innego życia niż nasze, a dalej jeszcze, czy można wreszcie dojść do takiej „biotycznej technocywilizacji”, którą w Science Fiction opisałem z nalotem żartobliwym jako sytuację, w której sadzimy „ziarna techniczne”, polewamy garścią wody i „wyrasta magnetowid”. Należy wprawdzie zastrzec się, że żadne auta ani żadne magnetowidy do współczesnych podobne nigdy z żadnego technonasienia nie wyrosną, zarazem jednak warto mieć na uwadze i to, iż nawet mysz, nie mówiąc o przemądrym człowieku, jest parę milionów razy bardziej złożonym „urządzeniem” od każdego auta czy niechby i komputera, niechby i Craya, ponieważ informacyjna zawartość zarówno genotypu, jak i fenotypu myszy jest znacznie bardziej skomplikowana i bogatsza niż każdy twór ludzkiej techniki (dowolnej). Niestety: nawet zwyczajna mucha jest pod wieloma względami sprawniejsza od superkomputera, aczkolwiek nie umie ani w szachy grać, ani się niczego dla jej genomu nowego nie nauczy. Tu zauważmy nawiasowo przed zwięzłym wejściem w temat główny, jak to mogło być, iż cała współczesna medycyna, cała farmaceutyczna chemia, cała domena syntezy antybiotyków ostatnim czasem pokonana została przez tyle bakteryjnych szczepów, które dzięki masowemu stosowaniu najnowszych leków uzyskały pełną odporność. I oto wracają w czarnej krasie zagrożeń choroby, o których sądziliśmy, żeśmy się z nimi (dzięki antybiotykom) uporali: dyfteryt, gruźlica, nie mówiąc już o wirusowych, jak straszliwy AIDS. Odpowiedź brzmi może i zbyt ogólnikowo: bakterie, bytujące na Ziemi od kilku miliardów lat, uzyskały dzięki takiemu treningowi w bardzo „ciężkich planetarnie” czasach taką uniwersalność mutacyjną, że dają radę każdym nowym bakteriobójczym preparatom, płacąc cenę, jaką jest masowe wymieranie nieprzystosowanych: gdy 98% bakterii ginie, pozostaje na „placu boju” 2% opornych i te w mig rozmnażają się od nowa. Czy się zaradzić temu nie da dzięki stereochemii syntez, to osobne, trudne zagadnienie, nie na dzień dzisiejszy, toteż po drodze trzeba je pozostawić bez klarownej repliki. 8 Porządnie streścić całego wywodu Hofstadtera tutaj się nie da: jest zbyt obszerny, zbyt „techniczny”, a co więcej, aczkolwiek autor ten dotarł do pożądanego QED (Quod erat demonstrandum, że niby kod zmienić można by, czyli istniejący jest arbitralny), przychodzi jednak dodać, co mu korespondenci z USA i z Europy donieśli jako fachowcy, że oczywiście kod DNA nie jest „czysto arbitralny”, czyli tak przypadkowy, jak dajmy na to główna wygrana w totolotka, ponieważ na początku niechybnie powstały „chemiczne pierwociny — projekty kodów” i dzięki doborowi naturalnemu „wygrał” najsprawniejszy — a zatem właśnie nasz: natomiast to, co wygrywa na loterii, żadnej wyższości w toku rozgrywki jako rywalizacji nie wykazuje przecież. 9 Cóż więc należy rzec? Tyle: kod DNA składa się z genów, każdy zaś gen jest to „kawałek DNA” (dezoksynukleotydowej nici), który koduje „coś bardzo konkretnego”. Może to być swoiste białko, może to być białko–katalizator, może to być regulator wzrostu, „projekt organu” i tak dalej. Zasadniczo kod DNA jest matrycą, która zostaje przez generację przekazana następnej generacji, matrycą mniej więcej tak zastygłą, jak wydrukowana książka (albo może lepiej: jak skład drukarski w drukarni). Natomiast ażeby z tej matrycy wynikło to, co będzie organizmem, konieczne są systemy „gońców” (mRNA — niech tajemniczy skrót tu nam wystarczy), systemy bardziej lokalnych „drukarek” (coś jak „New York Herald Tribune”, który jest wprawdzie roden ze swej jedynej redakcji — „genomu”, ale który drukuje się symultanicznie w Paryżu, w Hadze, itd. na świecie), oraz systemy z tego zespołu „translacji” na koniec powstające. Żeby wszystko było bardziej zawiłe, informacji zawiera dorastający płód więcej niż zapłodniona komórka (jajowa), ponieważ embriogeneza jest tak chytrze poskładana i urządzona, że to, co jako części organizmu powstaje w toku płodowego rozwoju, oddziałując wzajemnie na siebie, „dopasowując się”, sterowane sąsiedztwami, hormonami, represorami genowymi, uzyskuje lokalne porcje dalszej informacji. Coś jakby się po drodze trafiało na kolejne drogowskazy. A jest w tym taka dziwna rzecz, iż w komórce pływają sobie molekuły, które instruują aminokwasy. Czy te molekuły–instruktorzy znają kod DNA? Nie, one tylko kierują do rybosomów. Aha! A kto instruuje rybosomy? Syntetazy. A czy syntetazy znają kod DNA? Nie, one tylko przystawiają pewne molekuły do aminokwasów. Zdaje się, że w komórce „nikt nie zna kodu DNA”: żadna „przekaźnikowa stacja translacyjna z osobna”. Ale to dlatego, ponieważ dopiero wszystko razem zebrane jak należy „zna kod DNA”, tj. „wie, co z genomu wyniknie”. Nie jest inaczej z partyturą przecież: żaden kawałek partytury „nie zna symfonii”. Różnica w tym, że genomowa symfonia „gra siebie sama” — bez dyrygenta i orkiestry, albowiem jest i partyturą (kod) i wykonawcami („translatorzy i syntetazy w komórce”). 10 Nie do mety dochodzimy nareszcie w pocie czoła, ale do tego stanu niechybnie przejściowego, jaki dziś osiągnąć jeszcze można. Otóż poszczególny gen składa się zazwyczaj z wielu, wielu tysięcy par nukleotydowych; na razie w światowej akcji Human Genome Project dało się odczytać dopiero fragmenty ludzkiego genomu z rozdzielczością niezbyt dużą: prace trwają długo, bo są żmudne i dotąd szły prowadzone ręcznie, ale włącza się już komputery… Przyspieszenie dekodowania będzie na początek mniej więcej dziesięciokrotne. Oczywiście odczytać Księgi spisane przez Naturę to jedna, mimo wszystko łatwiejsza część zadania, które postawiłem i uparcie stawiam dalej („dogonić i przegonić Przyrodę”). Nieporównanie trudniejsze zadanie leży przed nami, jako „pisanie nowych Ksiąg–Kodów” metodą od Przyrody przejętą, ponieważ z niej wyczytaną i dzięki niej wyuczoną. Dodam tylko jeden szczegół bardzo zasadniczy i osobliwy na pierwszy rzut oka. Oto całość przekazu dziedzicznego małpy, słonia, krowy, żyrafy, wieloryba, człowieka znajduje się w każdej poszczególnej komórce ich ciał. Aby zaś ten całościowy przekaz nie został uruchomiony naraz (co byłoby katastrofą życia), wszystkie geny kodu z wyjątkiem tego, co lokalnie niezbędne, są za pomocą rozmaitego rodzaju depresorów wyhamowane do zera. (A jeżeli część hamulców „puści”, powstaje nowotworzenie lub hiperplazja, albo inne typy dewiacji od normy). A dlaczego jest tak, jakby ktoś budował dom lub kościół z takich niezwykłych cegieł, że w każdej poszczególnej cegle budulca zawarty jest projekt całej przyszłej budowli? Myślę, że jest to po prostu efekt faktycznego przebiegu ewolucji, której trudno było — albo się nie „opłacało” — wyrzucać „zbędny balast całościowego projektu”. Wyhamowanie niepotrzebnych planów i projektów architektonicznych okazało się w miliardoletniej praktyce dziejów życia po prostu łatwiejsze Tak myślę, dowodu na to nie mając. A na pytanie, czy przyszły budowniczy „płodowlany” będzie grzeszył równą nadmiarowością w swoich konstrukcjach, odpowiedzi udzielić nie mogę, ponieważ jej nie znam. Komputeryzacja mózgu 1 Pierwszą moją niebeletrystyczną książkę, Dialogi, napisałem w latach 1954–55, nie widząc wtedy — wciąż za czasów stalinizmu — możliwości jej opublikowania. Udało się to w okresie „odwilży”, w roku 1957, i wtedy ta pozycja, wydana przez Wydawnictwo Literackie w Krakowie nakładem 3000, ukazała się na rynku książki, a tak była dziwacznie odstrzelona od wszystkiego, co się na świecie wtedy w ogóle w druku pojawiało — wszak nie istniał podówczas nawet ślad jakiejś futurologii, a słowo „komputer” jeszcze się w językach nie zadomowiło — że Kazimierz Mikulski, mając za zadanie wykonać projekt okładki, namalował na obwolucie drabinę i dwa pantofle. Książka, dzieło młodzieńca, jakim ongiś byłem, oprócz zaszyfrowanej dzięki „przełożeniu na terminologię cybernetyczną” prawidłowości i nieprawidłowości funkcjonowania „realnego socjalizmu” jako systemu totalitarnego, zawierała, jak donosi karta wstępna, wiele osobliwych, poruszonych w niej tematów. Są tam wymienione między innymi rozważania „o zmartwychwstaniu atomowym”, o teorii niemożności, o filozoficznych korzyściach ludożerstwa, o psychoanalizie cybernetycznej, o osobowości sieci elektrycznych, o konstruowaniu geniuszów, o maszynach do rządzenia, jako też „o życiu wiecznym w skrzyni”. Nawet mi do głowy nie przychodziło, że którykolwiek z tak fantazmatycznie brzmiących tematów z domeny skrajnie aż niesamowitych pomysłów przejdzie na agendę uczonych seminariów w Europie i poza nią. Tak się wszakże po części już stało i dlatego ośmieliłem się otworzyć nie rozcięte dotąd kartki Dialogów tam, gdzie mówi się, ale językiem sprzed lat czterdziestu, o pierwszych krokach wiodących do komputeryzacji mózgu. Od razu dodam, że impulsem skłaniającym mnie do napisania niniejszego tekstu stało się zaproszenie, jakie otrzymałem od „Akademie zum dritten Jahrtausend” z siedzibą w Monachium, na sesję naukową, poświęconą problematyce zatytułowanej tak oto: BRAIN–CHIPS. Unsaubere Schnittstellen Mensch–Maschine, czyli Chipy mózgowe. Nieczyste styki cięć Człowiek–Maszyna. W dalszej części listu wyjaśnia się, że chodzi o „podłączanie” „chipów” do mózgu tak na peryferii (zmysłów), jak w samym mózgu, czyli wówczas o utworzenie interface pomiędzy mózgiem (albo też jego częścią) a czymś w rodzaju podelementu w postaci „chipu” komputerowego. Wśród zaproszonych naukowców, także spoza Niemiec, zarówno neurologów, jak i cybernetyków, i ja się znalazłem. Ponieważ nie zamierzam w tych obradach uczestniczyć, pewna pani doktor, przybywszy do mnie z Niemiec, wyjawiła mi, że przyczyną zaproszenia mnie do udziału w owej imprezie stały się właśnie Dialogi, które mój frankfurcki wydawca też wydał był w serii moich „Dzieł” dobrych kilka lat temu. Odkurzywszy więc pierwszy egzemplarz krajowego wydania, ośmielam się tu zacytować fragmenty dawnych zuchwałych koncepcji, skoro sam fakt ich poważnego omawiania w gronie fachowców zdaje się tę jakże dawno napisaną książkę przywoływać do życia i tym samym po trosze chronić od zapomnienia. 2 Na stronie 162 nazwanego wydania pierwszego pisałem w związku z projektem utworzenia protezy mózgowej z materiału cybernetycznego, co następuje: Doświadczenie pierwsze — to zespolenia (chirurgiczne na przykład) nerwów obwodowych dwu osobników. Można je przeprowadzić na niższych zwierzętach już dziś. W ten sposób otwiera się możliwość, by jeden człowiek mógł uzyskiwać informację, to jest odczuwać to, czego doznają narządy zmysłowe drugiego człowieka. Byłoby więc możliwe, żeby jeden człowiek patrzył oczami drugiego, mianowicie po zespoleniu obwodowej części jego nerwów wzrokowych z dośrodkową częścią nerwów drugiego. Doświadczenie drugie, daleko trudniejsze w realizacji, to zabieg, mający na celu zespolenie dróg nerwowych obu mózgów, a to za pośrednictwem pewnych przewodników bądź to natury „biologicznej” (mostki żywych włókien nerwowych), bądź też innych urządzeń, które, połączone z drogą nerwową jednego mózgu, odbierają płynące nią bodźce i przekazują je analogicznej drodze nerwowej drugiego mózgu. W tym miejscu fikcyjny współrozmówca (bo Dialogi są właśnie rozmowami pewnego „Filonousa” z niejakim „Hylasem”) wyraża zasadnicze zastrzeżenie co do szans owej operacji. Utrzymuje, że efektem połączenia neuronowych szlaków dwu mózgów byłoby powstanie całkowitego zamętu, pomieszania, chaosu i nic więcej, a Filonous przyznaje mu w tym rację. Powiada że: określone bodźce mają konkretne znaczenie tylko w obrębie danej sieci (neuronowej) i do tego tylko dla ich „adresatów”, tj. innych części tej sieci, do których są skierowane. Proste wprowadzenie serii bodźców z jednego mózgu do drugiego da więc zapewne tylko jakiś chaos, „psychiczną kakofonię”. To jedna z największych trudności na drodze czynnościowego zespalania mózgów. Jednakże mózg potrafi znieść zabieg daleko cięższy od wprowadzania weń obcej mu funkcjonalnie grupy bodźców. Można na nim dokonywać bardzo ciężkich i brutalnych zabiegów aż do wycinania całych płatów kory, a nawet jednej półkuli mózgowej włącznie, a mimo to operacje takie nie pociągają za sobą nieodwracalnego rozpadu funkcji psychicznych, gdyż ich zdolność do restytucji nawet w częściowo tylko zachowanej sieci jest ogromna. Dlatego eksperymenty wspomnianego przeze mnie rodzaju będą niechybnie przez długi czas ostrożne i nieśmiałe — będzie się ich dokonywać na zwierzętach. Nie widzę zbyt wiele sensu w cytowaniu dalszych rzeczy całymi stronicami, skoro tyle miejsca jej w Dialogach poświęciłem. Jakoż i dziś nie ma innej poza czysto spekulatywną (na takiej jak nazwana konferencji) szansą „łączenia dwu mózgów w nieznaną wypadkową jedność”. Zresztą dziś jestem od propagowania takiej „unifikacji” nawet znacznie jeszcze dalej, niż kiedym o niej za młodu pisał. Niemniej, uprzedzając dalsze fragmenty tegoż tekstu, które chciałbym zacytować, muszę dodać, że jednak sporo dokonań w omawianej dziedzinie, zwanej dziś neurobioniką i eksperymentalną neurologią, zaszło. Po pierwsze, już doszło do konkretnych, chociaż w wynikach niepewnych sukcesów w strefach obwodowych naszych zmysłów. Już można dokonywać implantowania elektrod w „ślimaku” (cochlea) u ludzi głuchych dlatego, ponieważ ich ucho wewnętrzne oraz środkowe (przynajmniej po części) uległo (chorobowemu) uszkodzeniu bądź nawet radykalnemu zniszczeniu. Trzeba tylko warunku zachowania czynnego jeszcze nerwu słuchowego (VIII mózgowy, N. acusticus). Pierwsze implantaty bywały przed kilkunastu laty po krótkim okresie skutecznej aktywności przez ustrój odrzucane. Obecnie jest z tym o wiele lepiej, ale w uszczegółowienia operacyjnych metod wejść tu nie zamierzam. Drugim, daleko bardziej ambitnym projektem jest uczynienie niewidomych widzącymi, a więc coś, co nie tak znów dawno musiało patrzeć na cud. Wypróbowywanych technik jest kilka, także w zależności od tego, na jakim odcinku informacyjnej drogi siatkówka — ciałka czworacze (thalamus) — kora mózgowa w potylicznej „szczelinie ostrogi” (fissura calcarina) — doszło do rozerwania łączności. Przez bezpośrednie drażnienie tej kory od strony potylicy, także poprzez czaszkę, uzyskiwać można efekt pojawiania się w polu świadomego odczuwania wizualnego świetlnych punkcików („fosfenów”), a nawet udało się grupować te świetlne punkty (odpowiednia część kory na każdy impuls reaguje percypowaniem „światła”), stąd wrażenie, że temu, kto dostał w zęby lub po głowie, „świeczki stanęły w oczach”, i to prawie we wszystkich językach jest w nietożsamej postaci powtarzane (u Francuzów nie wiedzieć czemu mówi się, że zobaczył poturbowany „trzydzieści sześć” świec płonących), te świetlne punkty fosfenowe udało się dzięki drażnieniu kory odpowiednimi konfiguracjami igłowych elektrod układać w kształty liter. Oczywiście, od czegoś takiego do umożliwienia ślepcowi lektury zwykłego druku jest bardzo daleko jeszcze. Stąd próby, aby przy zachowanym przebiegu nerwów wzrokowych wewnątrz mózgu oraz poprzez ich skrzyżowanie (chiasma opticum) jakoś wesprzeć, a nawet zastąpić wyścielającą dno oka siatkówką. Idzie to jednak bardzo nieskoro, ze względu na biomolekularną subtelność jej budowy. Nie wejdę tedy w fizjoanatomię wzroku już głębiej, ponieważ chciałem tylko zauważyć, że to, co było niejako najskromniejszym ruchem w kierunku wyznaczonym przez Dialogi przed czterdziestu laty, przynajmniej w obszarze kilku ważnych zmysłów, znajduje już efektywne ziszczenie i pokrycie w dokonaniach protetycznej medycyny. Natomiast o złączeniu nie nerwów, ale np. całego ukrytego w kanale kręgosłupa rdzenia kręgowego, jeżeli ulegnie (a ulega niestety) rozerwaniu, mowy jeszcze do dziś nie ma. Są tylko próby, bardzo nieskuteczne, ponieważ ilość nerwowych, i to różnopochodnych włókien w rdzeniu jest olbrzymia. Jak wiadomo, przerwanie ciągłości tego rdzenia powoduje paraliż całkowity i skazuje na życie na fotelu z kółkami, ponieważ poniżej miejsca przerwania łączności taktylnej, motorycznej i proprioceptycznej powstaje zupełna niemoc. Czyli paraliż. A zatem nawet rdzenia rozerwanego na razie żadnym sposobem złączyć czy „skleić” nie potrafimy. Niemniej i na tym etapie myśl moja się ongiś nie zatrzymała. 3 Wypada ustalić, iż mózg jest systemem zarówno zamkniętym, jak zwartym, ale nie tak, jak dowolny typ istniejącego dzisiaj komputera. Mianowicie z powodów oczywistych dla każdego, kto chociażby po łebkach zapoznał się z „metodyką” działania naturalnej ewolucji darwinowskiej, wszystkie jej żywe twory Jako rośliny w małej mierze, ale jako zwierzęta w pełni, są właściwie od narodzin do śmierci „skazane wyłącznie na siebie”, tj. na siły życiowo– regeneracyjne jedynie własnego ustroju. Wprawdzie pewnym jaszczurkom chwytanym za ogon — ogon ów odpada, umożliwiając ucieczkę i odrośnięcie (czyli regenerację) ogona, ale ani noga konia, ani małpy, ani człowieka odrosnąć nie może. Czy nigdy nie będzie można regeneracji w tak wielkim zakresie uruchomić — nie wiemy na pewno, ponieważ każda komórka każdego organizmu zawiera pełną informację o całkowitej budowie, także w zakresie czynnościowym danego ustroju, a jedynie geny, które lokalnie nie wytwarzają ani narządu (oka, nerki, nogi), ani dowolnej innej tkanki, są trwale zablokowane i odblokować ich nie umiemy. (Nie mogę wdać się tu w rozważanie sytuacji, w której zachodzi jednak odblokowanie potencji nielokalne, bo w ten sposób każda komórka traci zarazem swoją miejscową funkcję ustrojową i zyskując „nieśmiertelność” — poprzez zniszczenie hamulca, zwanego telomerazą — staje się nowotworem niepodległym zarządowi całoustrojowemu; gdy uzyskana „nieśmiertelność” jest „pełna”, to powstaje malignizacja złośliwa, czyli rak, komórki jego z krwią i limfą dostają się gdzie popadnie i rozmnażają się — to efekt ich „nieśmiertelności” bez ograniczeń — na koniec zabijają organizm). Dlatego i od strony neoplazmatycznych „odhamowań czynnościowych” jest każda regeneracja przez plazmę dziedziczną nie przygotowana (z góry, jak u jaszczurki) bardzo niebezpiecznym eksperymentem. 4 Z kolei tu wszakże trzeba sobie uświadomić, że jeżeli odetniemy piłą albo młotem roztrzaskamy porządną część najlepszego dziś komputera, o żadnej restytucji jego czynności, o żadnej „regeneracji” mowy nawet nie będzie. Nawet i „rany komputerów” nie chcą się „goić” i tu widzimy w zasadzie wyższość budownictwa biologicznego nad inżynierią komputerową. Ale czas wrócić do fantazji z dawnych lat, skoro uczone gremia już chcą temat taki na serio omawiać. Dodam jeszcze, że określone rodzaje drażnienia (obnażonej, najlepiej dzięki trepanacji czaszki) kory mózgowej dają całkowicie koherentne efekty percepcyjne: drażniony mózg reaguje np. taką ewokacją konkretnego wspomnienia, że operowany „czuje się” np. w teatrze, że „widzi” jakąś scenę i że „słyszy” jakieś na niej toczone rozmowy. Inna rzecz, iż doadresowo dobrać się do określonych pamięcią zafiksowanych w mózgu zdarzeń nie umiemy. Wymyślono dla długotrwałej pamięci uczone nazwy, ale w sprawie lokalizacji takich pamięciowych śladów wciąż się jeszcze toczą między specjalistami spory. Ta zatem, aby najkrócej ująć rzecz, także z czysto rzeczowej przyczyny: naszej ignorancji w kwestii funkcjonowania mózgu, świadomości, potrzeby snu, marzeń sennych itd., wszelkie „podłączanie chipów” w mózgową substancję dzisiaj uważałbym za całkowicie przedwczesne. Nie mówiąc już nawet o zasadniczych zastrzeżeniach natury moralnej, ponieważ efekt takich eksperymentów na człowieku miałby, jak uważam, słusznie penalizacyjną, kryminalną konsekwencję. Zaś zwierzę, także szympans np., nic nam o przeżyciach po implantacji „chipów” wyjawić nie będzie w stanie. Owszem obwodowe implantaty już zwierzęta otrzymują, ale to dla badania ich zachowania i życiowych funkcji na swobodzie. To osobna strefa, której tu nie tknę. 5 Aby zakończyć, sięgnę raz jeszcze do Dialogów i po cytaty z zamieszczonego w nich największego mojego zuchwalstwa, które nosiło nazwę „Przeszczepienia procesów psychicznych człowieka na protezę mózgową”. W zakresie pamięci komputerów jest to procedura całkiem banalna, wręcz trywialna, skoro cały ładunek czy to dysku „twardego” czy dyskietki dowolnie można przenosić, powielać w dowolnej liczbie egzemplarzy, a ponadto mały komputer potrafi imitować, tyle że z określonym spowolnieniem, czynności większego (jak wiadomo, maszyna Turinga potrafi na taśmie papierowej przetworzyć jako data processor każdy algorytm obliczalny, każdą rekurencyjną funkcję). O takich „przenosinach pełnej informacji” wprost z mózgu do mózgu mowy nie ma. (Nie myślę naturalnie o sposobach, używanych przez ludzi, toż rozmawiając, pisząc, drukując, fotografując i pokazując fotografie, a także dotykając się itd., nic innego nie robimy, jak tylko zajęci jesteśmy przekazywaniem właściwej informacji kanałem lingwistycznym, wizualnym, a nawet zapachowym i, jak kto już chce koniecznie, erotycznym). 6 Cóż jednak z „przeszczepem mózgowym”? Filonous powiadał, że w zasadzie ów proces polega na podłączeniu do żywego mózgu — tj. do sieci neuronowej — sieci innego typu, sieci elektrycznej (bądź elektrochemicznej). Oczywiście pierwej ludzie muszą nauczyć się konstruować takie sieci o złożoności rzędu 10 miliardów elementów czynnościowych, tj. rzędu złożoności mózgu, a to dzięki „ogólnej teorii sieci z wewnętrznym sprzężeniem zwrotnym”, która będzie do tego nieodzowna. Samo przeszczepienie zaś musiałoby składać się ze znacznej liczby następujących po sobie etapów… Już przed czterdziestu laty przez powściągliwość pisałem: Nie będę przedstawiał rezultatów takiego zabiegu dokładnie, ponieważ trudno go sobie wyobrazić. Gdy idzie o problem tak doniosły, nadmierna ostrożność nie może stanowić wady. Chodzi o to, aby „osobowość” sieci nie została naruszona. Dlatego właściwe będzie stopniowe, kolejne podłączanie do sieci neuronowej coraz to nowych sekcji protezy po to, ażeby sieć elektroniczna nie została niejako przez żywy mózg „funkcjonalnie wchłonięta”, zasymilowana czynnościowo. Z czasem doprowadzimy do tego, a to jest właśnie naszym celem, że dołączana sieć przejmie znaczną część ogółu procesów psychicznych. Gdy to nastąpi, przejdziemy do dalszej części zabiegu, to jest do równie powolnej i stopniowej redukcji sieci neuronowej. Nie będziemy jej likwidowali, lecz tylko będziemy ją odłączali podobnie, jak się to robi np. przy lobotomii, przez odcięcie włókien, łączących płat czołowy z resztą mózgu. (…) Nasza jednostka funkcjonalna, jaką stanowi kombinowana sieć neuronowo–elektryczna, będzie działać bez większych zakłóceń, przy czym strona elektryczna będzie przejmowała wciąż z wolna niknące funkcje strony neuronowej. Gdy w końcu zostanie wyrugowana sieć neuronowa, a pełne obciążenie procesami psychicznymi przypadnie sieci protezy, będziemy mieli osobowość człowieka całkowicie przemieszczoną w głąb protezy. Sieć jej zawrze wszystkie procesy psychiczne, a więc pełny ładunek pamięci, swoiste systemy preferencji, prawidła obiegu bodźców itp. (…) Zajdzie „elektroniczny przeszczep” żywej świadomości na „martwą” protezę. Ten przeszczep może istnieć dowolnie długo (…) Oto perspektywa „żywota wiecznego” w obrębie „protezy mózgowej” (…). Koniec cytatów. Potem dopiero biegnie długa dyskusja, pełna zastrzeżeń etycznych, neurochirurgicznych itp. Tu musiałbym zainteresowanych skierować do Dialogów moich oraz do Pokoju na ziemi. W tej drugiej książce nikt pewno nie rozpozna obficie wymienianej literatury naukowej (z zakresu kaliotomii, tj. rozcięcia wielkiego spoidła, 200 milionami włókien łączącego obie nasze mózgowe półkule) jako bibliografii autentycznej (korzystałem z niej w Institute for Advanced Study). A mianowicie wiele lat po napisaniu Dialogów doszło do wykrycia efektów takiego rozcięcia mózgu „na dwoje”, przez co w jednej czaszce pojawiają się dwie „osobowości” (ta półkula, w której brak ośrodka mowy, pozostaje niema, lecz można jej obecność wykryć). A zatem na drodze do powstania nowego interface mózgu z „kompatybilną” siecią niby–neuronową postawiono pierwsze kroki. O sieciach neuronowych w 1954 roku mówiło się abstrakcyjnie niemal jak o „obcowaniu świętych”, a dziś są książki o takim tytule (por. np. u nas wydane Sieci neuronowe Ryszarda Tadeusiewicza, Warszawa 1993). Jest tam też bibliografia światowa przedmiotu Jednym słowem, to, com wymyślał naiwnie, o tyle wynurzyło się z nicości, że naukowcy urządzają na ten temat sympozja i konferencje, i to mnie skłoniło do powyższego szkicu. Pułapka technologiczna 1 Proponuję następującą definicję pułapki technologicznej: jest to socjalno–bytowy rezultat upowszechnionego wdrożenia takich operacji technogennych, który w fazie zarodkowej był niedostrzegalny, społecznie źle lub w ogóle nieprzewidywalny, w fazie rozpędu już nieodwracalny, obracający domniemywane korzyści swego upowszechnienia w jedno— albo wielopostaciową katastrofę, coraz jawniej rozpoznawaną i coraz trudniej powstrzymywaną przez tych również możnych decydentów, którym swe proliferacyjne rozmiary i swoje przemożne szkodnictwo „zawdzięcza”. 2 Za prototyp modelowy „pułapki technologicznej” mogą tu zostać jedynie przykładowo jako „szkolne pomoce” nazwane: A) Wyzwolenie energii nuklearnej: wprawdzie dokonane w toku drugiej wojny światowej jako broni masowej zagłady (skutkiem mylnego przypuszczenia, że strona amerykańska znajduje się w sytuacji przymusowego wyścigu nuklearnego dozbrojenia ze stroną nazistowską), lecz po wojnie, kiedy została ludobójcza wydajność bomb nuklidowych wykazana, powstały liczne ośrodki uprzemysłowienia tej energii „pokojowe”, jako źródła jej niemal wiekuistego, bezpiecznego i nieszkodliwego środowiskowo użycia. Wprawdzie energetyka atomowa wciąż się (choć w pewnym spowolnieniu) globalnie rozwija (i poszerza), zagrożenia w biosferze jako skutki jej narastają, zamiast maleć (czego spodziewano się po kollapsie Sowietów i mającym dzięki niemu nastąpić powstaniu „nowego pokojowego” Porządku Świata). Niebezpieczeństwo zjawia się u końca XX wieku co najmniej dwojako: w postaci przynajmniej częściowego „zastąpienia” wymiany ciosów nadoceanicznych (za pomocą Intercontinental Ballistic Missiles kolejnych doskonalonych generacji, ukrytych w silosach opancerzonych) na wymianę możliwych (choć jeszcze nie dokonanych) transferów za pomocą International Luggage Missiles, w skrócie ILM, jako „walizkowo–bagażowych” bomb nuklidowych, których zdatne do użycia i do przemytu okazy bywały już demonstrowane w światowych sieciach telewizyjnych. „Rozdrapywanie” arsenału nuklidowego — głównie plutonowego — jako schedy posowieckiej, przemyt odłamków, wysiłki państw mniejszych uruchomienia własnej produkcji plutonu itp., mnożąc się, powiększają w sposób praktycznie bardzo trudno obliczalny ale potęgujący prawdopodobieństwo eskalacji „rozproszonej” — w przeciwieństwie do „eskalacji scentralizowanej” czasu „zimnej wojny” obu supermocarstw, które liczyły się głównie, bo strategicznie na tym polu konkurowały o przewagę w overkill strategy. Jak wynika z powiedzianego, redaktorzy „Bulletin of Atomie Scientist” pospieszyli się raczej pochopnie, kiedy wskazówki zegara nuklearnej Apokalipsy na okładkach swego czasopisma cofnęli znacznie od „godziny dwunastej” po kollapsie ZSRR. Prawdopodobieństwo, narastające nieodwracalnie, tym samym zbliża się, bez względu na wartość zaczątkową, do jedności. Mówiąc prosto, pierwsze ciosy, jako być może zamachy albo inspirowane przez pewne państwa, albo jako zamachy jakichkolwiek grup terrorystycznych, nastąpią w przyszłości: mogą je oczywiście poprzedzić rozmaite formy gróźb, szantażów, wymuszeń, o celach politycznych lub jedynie materialnych. W każdym razie zasadniczy schemat pojęcia „pułapki technologicznej” daje się w powyższym przebiegu etapów dobrze rozpoznać: po etapie wczesnego rozpoznania teoretycznego, po fazie krótkotrwałej wojennej euforii zwycięskiej (dzięki klęsce Japonii w II wojnie światowej), po etapie wyścigu nuklidowego dwu supermocarstw, przychodzi etap „dyspersji zagrożenia”, który może z dowolnie lokalnego konfliktu uczynić lont dla III wojny światowej. Wycofać się z niebezpieczeństwa, poprzez I) radykalny odwrót poszczególnych państw od energetyki jądrowej, II) „radykalne” zawarcia antyproliferacyjnych umów antynuklearnych, III) „radykalną kontrolę” dzięki działalności odpowiednich służb ONZ (Energii Atomowej) — NIE MOŻNA. Przykładów dostarcza lektura bezliku codziennych gazet. „Klub atomowych państw” ulega poszerzeniu w sposób dość ciągły. Nie wchodzę tu w samo sedno sprawy (w zagrożenie biosfery, ludzkości, masy dziedzicznej zwierząt, roślin z człowiekiem na czele etc), ponieważ powyższe miało mi jedynie zilustrować na konkretnym przypadku możliwe rozmiary, jako moc destrukcyjną, możliwe efekty i niewątpliwą już nieodwracalność wstępnie wymienionego pojęcia „pułapki technologicznej”. Z uwagi na to, że tylko o przykład chodzi, w samą problematykę (jak i czy można pokojowe użycie energii jądrowej minimalizować itd.) wejść tutaj nie zamierzam. B) W bardziej jednoznaczny, ponieważ „antymilitarny” i „nie–polemologiczny”; to jest nie tykający konfliktów powstających między ludźmi i ludźmi sposób pokazuje „pułapkę technologiczną” na zupełnie odmiennym obszarze front starcia między mikroorganizmami i człowiekiem, to jest aktualny u progu III tysiąclecia stan w medycynie. Po pierwszym, jakoby definitywnie zwycięskim, etapie stosowania antybiotyków przeciw chorobotwórczym mikroorganizmom, powstał rozpoznawany jako fatalny — stan przewagi tych właśnie pasożytów, ponieważ ich szczepy (tak liczne, że nie do wyliczenia tutaj) zdobyły dzięki swym metabolicznym mechanizmom mutacyjnym odporność na ponad sto obecnie znanych farmakopei antybiotyków. Zarazem dzięki „podwyższaniu poprzeczki” jako zabiegów, stosowanych przy użyciu całej gamy antybiotyków, wirulencja (zjadliwość) zarazków wzrosła. Ponadto grupa ich życiowo niesamodzielna, mianowicie wirusów, a już osobliwie retrowirusów (Human Immunodeficiency Acąuired Virus) zwanych też częściowo „powolnymi wirusami” (ze względu na wyjątkowo długotrwałą latencję, okres „uśpienia” w zarażonym już organizmie, po angielsku slow viruses, dormant viruses, etc.) wyszła niejako na czoło frontu submikroorganizmów zagrażających ludzkiemu zdrowiu i życiu. Szczególnie HIV oraz HIV 2 wykazują stuprocentową śmiertelność: trzeba jednak dodać, że bezpośredniej demonstracji modelowej pojęcia „pułapki technologicznej” źle służą wirusy, albowiem antybiotyki ich praktycznie z areny starć nie rugowały. Tak zatem zaproponowałem powyżej jedynie dwa o tyle podobne do siebie modele „technologicznej pułapki”, że triumfalizm budzące odkrycia po ich masowym wdrożeniu ukazują już, zamiast fenomenalny podziw budzącego awersu, ponury i zagrażający nam wszystkim rewers. Cechą zarazem szczególnie doniosłą, wyjątkowo ważną i istotną jest przy tym dla każdej pułapki technologicznej to, że ma ona charakter procesu NIEODWRACALNEGO. Nie można przecież ani „wycofać się” z efektu stosowania antybiotyków, przez niemożliwe w praktyce „zapędzanie” chorobotwórczych zarazków w stronę „zmniejszonej przedantybiotykowo wirulencji”, ani też nie można „zamknąć w butelce”, czyli zawrócić do nikąd, raz wyzwolonej energii nuklearnej. 3 To, co było, co zaszło, co się stało, stanowi określone rozdziały rozwoju technologii (czy też biotechnologii), nas zaś będzie tu szczególnie zajmował problem bez wątpienia dyskusyjny, czy mianowicie MOŻNA rozpoznawać „otwarte” już, bądź też „otwierające się” przed nami, albo wreszcie „czyhające w przyszłości” takie pułapki technologiczne, których postrzeżenie dopomogłoby albo do ich uniknięcia, albo pewnego poskromienia, albo co najmniej do upowszechnionego uświadomienia niebezpieczeństw, zanim się dostaniemy pod ich władztwo. Oczywiście o jakiejś „generalnej teorii antycypowania wszechmożliwych pułapek technologicznych” nie może być rozsądnie mowy. Mówiąc zrazu dosyć ogólnikowo, cząstką definicji takiej „pułapki” jest ta właśnie jej cecha, że, podobnie jak prymitywne wszak łapki na myszy czy jakieś owady–szkodniki, zagrożenia w nich obecnego i zatajonego nie pokazują tym, co przed nimi stają. Inaczej i zwięźlej: te pułapki albo zrazu przed wkroczeniem w ich działanie wyglądają obiecująco, albo co najmniej „niewinnie”. Byłoby, dodajmy nawiasowo, pewną przesadą jako zbytnim rozciąganiem opisywanego tu w działaniu pojęcia uznanie np. motoryzacji (samochodowej) za taką pułapkę, jaką stała się technologia jądrowa: z motoryzacji bowiem — chociaż z wielką biedą — wycofać się jako–tako (znacznymi kosztami i niewiadomymi technikami), w zasadzie MOŻNA. 4 Pułapkę można zademonstrować przykładowo na modelu fikcyjnym, w rzeczywistości nie istniejącym, którym może być (dajmy na to) tak zwana „etykosfera”, to jest efekt „przedłużenia” nieelastycznej bariery praw Natury (takich jak grawitacja) na domenę zachowań istot rozumnych, przez „przymusową i nieperswazyjną” etyfikację całego ich życiowego środowiska. Nikt tam, jak w Wizji lokalnej mego autorstwa, nikomu nic złego wyrządzić nie jest w stanie, lecz tak korzystny awers tylko instrumentalnie przez „wirusy DOBRA” realizowany, ma fatalny rewers „niewidzialnego uwięzienia” wszystkich i wszystkiego w „kokonach wirusowych”. Po dokładniejsze opisy obu stron rzeczy muszę tu odesłać do książki. Z uwagi zaś na bezustannie i nieodwracalnie narastające poczucie ubezwłasnowolnienia, wywołanej tym frustracji, bezskutecznie nasilającej się tendencji agresji — nie do wyładowania w jakichkolwiek aktach pozamentalnych — powrót do „Natury” (czyli do ery przedetyfikacyjnej) zagrażałby jakąś szaloną, może ludobójczą, wszechgwałtownością. Należy jednak dodać prędko, że i bez „ładowania akumulatorów mózgowych agresywnością” dzięki jakimś „wirusom zniewalającym do nie czynienia bliźnim co samemu niemiłe”, postrzegamy obecnie zwłaszcza w czołówce ludzkości bogatej, owej „permisyjnej”, sekularyzującej się, opitej swobodą, wzrosty przestępczości, komercjalizację seksu, narkotyków, rozpad rodziny, wprzęganie wszelkich nowin technicznych w sferę udogodnień życiowych o posmaku łatwizny, także w życiu politycznym (jużeśmy bliscy wychwalania, a nie tylko negowania uciech praktykowanego ludobójstwa, kazirodztwa, gwałtów masowych, „torturystyki” i podobnych fenomenów zwyrodnieniowych, najfałszywiej w świecie kwalifikowanych kalumniatorsko jako „objawy zezwierzęcenia”). Człowiek to brzmi już jak obelga, nic w tym „dumnego” u schyłku stulecia. Ale wracam do rzeczy. 5 W szeroko reklamowanej, awizowanej z entuzjazmem, w zaczątkach już realizowanej AUTOSTRADZIE INFORMATYCZNEJ (rodem z USA, czyli Information Highway, Information Autobahn itp.) upatruję kolejny obszar zawłaszczeń wieku informatycznego, który stanie się terenem inwazji przestępczości źle lub wcale nie prognozowanej w XXI wieku. Będzie to tym samym kolejny teren zaminowany „technologicznymi pułapkami”, a czy możliwe okaże się jakieś wymanewrowanie z jego zagrożeń, jakiś odwrót, ratujący przed informatycznie amplifikowaną zbrodnią, występkiem, wymuszeniem, „kradzieżą cennych wiadomości”, złośliwym natręctwem wszechobecnym, nieznanymi nam postaciami pornomanii, pornoklazji, przemiany biosfery w socjosferę z pornosferą itd., itp., — tego się przepowiedzieć nie da, ponieważ wszystkie szansę Zła są silnie uzależnione od parametrów faktycznego funkcjonowania owego pierścienia satelitów–komputerów, biorących glob nasz w swój niewidzialny uchwyt. Sprawy tego, jak bardzo liczne, jak bardzo nowymi możliwościami akcji obdarzone zostaną całe sfory neowirusów w tej „autostradzie”, jeszcze nie można określić. Zresztą kurczowe trzymanie się — niemowlęcej w gruncie rzeczy — fazy computer crime, lokalizowanej w grupach mniej lub bardziej przestępczo działających „hackerów”, świadczy przede wszystkim o inercji naszego myślenia. Ekstrapolacja liniowa prowadzi do naiwnej w gruncie rzeczy wizji „superhackerów”, ślących całe watahy „superwirusów” w sieć, ażeby z jej pomocą wkradać się do sztabów generalnych, do skarbców państwowych, do banków i diabli wiedzą do jakich jeszcze ośrodków, zaś samorośli „futurologowie” upajać nas chcą wizjami zdalnie opiekującej się chorymi (lub choćby tylko samotnymi) medycyny, na koniec rozpowszechniającej się już FANTOMATYKI (ma ona rozmaitymi wariantami wirtualnego wszędobylstwa, tj. turystyki, elektronicznej onanii, zapośredniczanej przez fantomy zmarłych a słynnych ongiś kobiet, które nie będą nawet musiały być urodziwe jak jakaś Marylin Monroe, ponieważ inaczej ale także pociągająca wydaje się może kohabitacja z królową brytyjską, informatycznie na dodatek odmłodzoną, a choćby z żoną sąsiada — ewentualnie ,jemu na złość” — o takich ewentualnościach pisałem przed trzydziestu laty czy to serio tj. dyskursywnie, czy to w groteskach). Lecz, powtarzam, to jest mimo wszystko ekstrapolacja po liniach najmniejszego oporu i najsłabszej wyobraźni. Jeżeli komputery, odpowiednio wyposażone na orbitach niskich dla uzyskania lepszej rozdzielczości wprost wizualnej, będą mogły obserwować (więc i śledzić) każdy pojazd jakby jedną krwinkę w rzece krwi, każdego człowieka, każdą transakcję, każde włamanie, a zatem też likwidować każdą formę prywatności i coraz cenniejszego samotnictwa, pojawi się w życiu zbiorowości nowa jakość, której skutków psycho– i socjologicznych nie można łatwo przewidywać. Niezależnie zaś od poszczególnych grup kontroli, osłon (filtrowania przeciwwirusowego, powiedzmy), nacisku, grup osiadłych oczywiście na ziemi, ale działających już poprzez sieć czy ten pierścień „ponadziemskiej autostrady”, mogą powstawać w samym owym pierścieniu, niejako w gigantycznie opasującej nasz glob dżdżownicy–gąsienicy o tysiącu węzłów nerwowych, nie tylko zakłócenia raczej niepożądane, nie tylko awarie rodzące chaos (nie ma technologii bezawaryjnej poza Naturą, i nawet eksplozje Supernowych są „awariami gwiazd” jedynie z naszego subiektywnego punktu widzenia), ale także możliwy jest jako całkowicie nieprzewidywalny rykoszet czy efekt swoisty DRYF, który by miał za odpowiednik służący unaocznieniu tego, co mam na myśli, kolosalne skutki przyrostów masy, powodujące takie katastrofy we wszelkim transporcie, jakich człowiek urobiony antropogenezą dla chodzenia na dwu nogach nie potrafiłby sobie w ogóle wyobrazić jeszcze ze sto lat temu. Masa zwykłego auta może już przy niezbyt wielkiej szybkości powodować skutki kataklizmatyczne przy zderzeniach masowych, w warunkach zwykłej mgły na autostradzie, zaś masa statku daje już rezultaty przeraźliwie wykraczające poza ramy imaginacji. A z kolei powstawanie „masy informacyjnej” może wprawić ją w „dryf’, czyli nieoczekiwane schodzenie z pasma zaprogramowanych zadań czysto biernych, czyli podległych wyłącznie woli ziemskich i ludzkich rozkazodawców. Zresztą ci rozkazodawcy już obecnie np. w USA na łamach tamtejszej prasy coraz doniosłej brzmiącą irytację wyrażają dlatego, ponieważ pragnąc skorzystać z łączności dla komunikowania się z innymi ludźmi albo prywatnie albo instytucjonalnie, z reguły trafiają na czysto martwą, od elektronicznego Annasza do cybernetycznego Kajfasza odtrącającą ich automatykę grzeczności programowanej komputerowo i dotarcie do człowieka autentycznego JUŻ w tych wyłącznie ziemskich warunkach staje się takim problemem, który niejednego przyprawia o nerwicę, zasadniczo odmienną i w przyczynie i w objawie od nerwicy dysponenta zwyczajnego telefonu na polskiej niezautomatyzowanej ziemi. Cóż dopiero, kiedy w terabajtową sieć dostaną się podłączeni do niej milionami — ludzie, poprzez ich przyszłe supermikrolaptopy. Kiedy komputery będą z komputerami gaworzyły, ciałem stanie się niewinna fantastyka, jaką szkicowałem w „Literaturze bitycznej” mojej Wielkości urojonej. Tak zatem nadciągający pono wiek informatyczny niesie w swoich świetlnie zorganizowanych wnętrznościach, w odwłokach komputerowych, zupełnie nieznane nam plagi, na które warto w przezornym oczekiwaniu dlatego zwrócić uwagę, ponieważ z reguły (najzupełniej bezwzględnej, wprost żelaznej) oczekiwania wizjonerskich progresistów technokratyki, rozmaitych Blanchardów, Edisonów, Ciołkowskich, rzeczywistość wprawdzie ziszcza, ale postawiwszy je dokładnie z jakąś niepojętą złośliwością na głowie. Do góry nogami. Nie wiem dobrze czemu ci, co pierwsi marzyli po Dedalu z Ikarem o locie w przestworzu powietrznym wierzyli w łączność takiego lotu z doskonaleniem ludzkości, dlaczego tacy Ciołkowscy myśleli całkiem podobnie o zjednoczeniu pokojowym ludzkości dzięki zwycięstwu Człowieka nad ziemskim ciążeniem (jako rozerwaniu grawitacyjnych okowów), czemu zatem ci, co nam szykują pierścienny obieg informacji z szybkością światła również wszelkich perfekcji oczekują po realizacji tego (raczej kosztownego) projektu. Inaczej mówiąc, bliżej prawdy być może domyślam się, że tacy udoskonalacze naszego losu w wymiarach technicznych (techne) oddają się tyleż lubej, co fałszywej nadziei na istnienie czynnika INSTRUMENTALNEGO, który Naturę ludzką poprawi i okaże się wprost Błogosławieństwem jakiegoś niewymownie miłego stanu. Rzeczywistość tym rojeniom każdorazowo i kategorycznie przeczy, czyniąc z lotnictwa narzędzie masowej zagłady, z astronautyki interkontynentalne samosterowne pociski wszechmordu i wszechdestrukcji, z zawłaszczonych terenów przetwarzania informacji obszar masowych kradzieży, włamań, nadużyć oraz namiastkę narkotyków odurzających bezgranicznie i bezkarnie. Naturam expellas furca, tamen usąue recurret: tak trzeba widzieć również ową polepszoną przesyłowo superłączność XXI wieku, i myśleć o niejako rozwierającej swoją niewidzialną otchłań kolejnej, może sprawniejszej od dawnych, PUŁAPCE TECHNOLOGICZNEJ. PS. Rzecz jasna, pułapka biotechnologiczna, zapowiadana jako „inżynieria genetyczna” rodem z „biotechnik molekularnych”, wywodliwych z Ewolucji Naturalnej czyli „technogenezy Życia”, jest bodajże jeszcze bardziej nieprzewidywalna, niewymierna, niedocieczona w niesamowitości efektów, w ich groźnej dla wszystkiego co żywe, więc i dla nas, wypadkowej, ale ta pułapka „biotechniczna” wymaga osobnego omówienia, jeszcze bardziej niepewnego i mgliście zarysowanego, aniżeli otwarte przez nas informatyczne wnyki jakowejś samoorganizacji, której kamienie brukowe być może nadadzą się do wymoszczenia także i ziemskiego piekła. Języki i kody 1 Mówić o języku trzeba posługując się oczywiście językiem, który z tego powodu staje się metajęzykiem („metajęzyk” w odniesieniu do języka „elementarnego poziomu” to tyle, co „metamatematyka” w odniesieniu do matematyki: znajduje się o jeden stopień w hierarchii wyżej, lecz ponieważ kwestia jest złożona, zajmę się nią potem). Jednakowoż żadnej innej metody operacyjnej nie znamy i mieć nie możemy. Z tego powodu, a zarazem przez to, że całość naszego umysłowego życia osadzona jest na ludzkiej umiejętności językowej, nie dającej się jednoznacznie ani sformalizować, ani definicyjnie „rozgryźć”, poniższe uwagi muszą z konieczności stanowić uproszczenia. Dodam jeszcze, że podstawę mojego podejścia do fenomenów nazwanych w tytule stanowią prace rosyjskiego matematyka–probabilisty W. Nalimowa, z jego książką Probabilistyczny model języka (Warszawa 1974) na czele. Zarazem za niedostateczność moich refleksji tylko ja ponoszę odpowiedzialność — tym bardziej, że się z zespołem koncepcji Nalimowa nie ze wszystkim zgadzam. 2 Można by tak powiedzieć: każdy język jest TEŻ kodem, ale nie każdy kod jest językiem. W tym ujęciu różnica sprowadza się do zjawiska następującego: kod stanowi poziom sygnalizacji informacyjnej najniższy, czyli taki, w którym zbiorowi znaków (alfabetowi) przyporządkowany jest jedno–jednoznacznie inny alfabet (np. alfabet znakowy Morse’a jest kodem przyporządkowanym alfabetowi naszego pisma). „Najdziwniejszym” kodem jest kod biologiczny; czyli kod, jakim przekazywana jest znieruchomiała w danym okresie całość genetycznej informacji z pokolenia (gatunku) na pokolenie następne. O kodzie genetycznym powiem kilka słów nieco niżej: pierwej należy bowiem sprezentować skalę albo lepiej „widmo” (spektrum) wszystkich języków, jakie potrafimy rozróżnić. 3 Jeden kres owej skali zajmują języki „twarde”, a na przeciwnym krańcu znajdują się języki „miękkie”. „Twardy” jest język zasadniczo bezkontekstowy, czyli taki, który jak typowe języki programowania automatów skończonych (potocznie: komputerów), stanowi zespół komend (zwany software), powodujący przekształcenie danych (data processing) dzięki wykonywaniu komend — „rozkazów” przez hardware komputera. Chociaż to dygresja, warto zauważyć już tutaj, że w mózgu, w przeciwieństwie do komputera, nie jest łatwo odróżnić hardware od software. Można najwyżej rzec, iż mózg noworodka jest wprawdzie przedprogramowany (w sensie software) dziedzicznie, ale bardzo „słabo”, wysoce ogólnikowo, tak że określone jego części (podzespoły) różnią się dzięki specjalizacji neuronowej efektami, czyli reakcjami na bodźce dosyłowe: noworodek „widzi”, ponieważ jego kora wzrokowa w płacie potylicznym („szczeliny ostrogi” mózgu) JUŻ jest tak właśnie zaprogramowana; słyszy, ponieważ skroniowe ośrodki jego mózgu są JUŻ nastrojone na słyszenie (ale nie znaczy to bynajmniej, iżby noworodek postrzegał widzenie jak człowiek dorosły albo słyszał jak on). Albowiem programowanie mózgu zachodzi z upływem dorastania i życia, które jest pobieraniem nauk, czyli „doprogramowywaniem” neuronowej hardware. Lecz, powtórzę, mózg nowo narodzonego NIE jest „białą kartą”, ani mózg największego mędrca NIE jest „do końca definitywnie zaprogramowany”. Różnica, zachodząca tu między mózgami żywymi i maszynami typu automatów skończonych, stanowi bodaj największą przeszkodę do pokonania dla wszystkich usiłujących stworzyć AI, tj. sztuczną inteligencję. Lecz… była to dygresja. 4 Prawdopodobnie największym we współczesności nieporozumie niem, które zrodziło zarówno angielską filozofię lingwistyczną, jak odmienną od niej jawnie filozofię fenomenologiczną, wraz z późnymi naroślami owej filozofii (Heidegger, Derrida, le Man, Lyotard et alii) była przyczyna ukryta przed rozumiejącym spojrzeniem tych myślicieli: mam na uwadze, mianowicie, słynny dowód Goedla, który dla NASZYCH potrzeb tutaj wystarczy przywołać tylko na poły metaforycznie, a w pełni skrótowo. Żaden system dostatecznie bogaty, razem ze swoim alfabetem i swoją gramatyką (czyli ze swymi zbiorami skończonymi znaków i reguł ich przekształcania) NIE JEST PEŁNY. Znaczy to, że dla każdego takiego systemu (należy do niego matematyka, a w swej słynnej pierwszej pracy powołał się Goedel na russellowskie Principia Mathematica jako również podległe nieusuwalnej zasadzie niepełności) można wykrywać zdania (twierdzenia) prawdziwe, których prawdziwości nie da się dowieść wewnątrz owego systemu JEGO sposobami (wywodliwymi zeń regułami transformacyjnymi). Języki przeciwnego kodom krańca skali, „miękkie”, odznaczają się silnym polimorfizmem semantycznym (semantyka jest nauką o znaczeniu, semiotyka zaś nauką o znakach). Oznacza to poliinterpretacyjność, czyli wielo–, a zarazem różnowykładalność znaczeń językowych, już to dawanych poszczególnymi słowami (układanymi z elementów alfabetu), już to idiomami. Chodzi o to, że języki „miękkie” potrafią wymijać otchłań wykrytą przez Goedla. Mianowicie jest tak, że aby udowodnić prawdziwość twierdzenia zawartego w pewnym (nazwijmy go „zerowym”) systemie znakowym — twierdzenia, którego NIE da się zgodnie z dowodem Goedla wewnątrz tego systemu zweryfikować — MUSIMY wzbić się na następny poziom systemu i tam dopiero zdołamy rozwiązać zadanie. Takie przenosiny z jednego poziomu, ustanawiające logikosemantyczne hierarchie języków, można w uproszczeniu pokazać w ten sposób: mówiąc „widzę krzesło”, powiadam wprawdzie w odniesieniu do poziomu generalizacji, że widzę mebel, ale nie można rzec „widzę krzesło i widzę mebel”. Brzmiałoby to dziwacznie. Jednakowoż język jest nam dany tak, że tysięcy owych „przenosin” różnopoziomowych nie uświadamiamy sobie (poza logikami, skłopotanymi paradoksami np. typu samozwrotności — selfreflexivity). „Najmiększe” języki są albo pełne wewnętrznych sprzeczności (jak język Zen), albo stanowią twory abstrakcyjnego malarstwa, ponieważ można w nich wprawdzie wykryć elementy znakowe, ale samo wykrycie i „odczytywanie” zachodzi subiektywnie, a nie, jak w wypadku mowy — INTERSUBIEKTYWNIE. 5 „Normalny” język etniczny, którym się posługujemy, radzi więc sobie z goedlowskim szkopułem, nie dbając o „huśtawki” poziomów logikosemantycznych. Wynika to z miejsca, jakie zajmuje na naszej skali; jest to pasmo pośrodkowe: język właśnie tam się sadowi, jako dostatecznie twardy „kodowo”, ażeby porozumiewanie się było możliwe, i zarazem jest dostatecznie „miękki”, żeby można było pojmować jego teksty z rozmaitymi odchyleniami. To ratuje przed upadkiem w „otchłań Goedla”. Powiedziałem „otchłań”, ponieważ w języku, wyzbytym bogactwa wielowykładalności, różnoznaczności, uzależnień sensów od kontekstów, czyli w języku „monomorficznym” (w którym każde słowo oznaczałoby jedną jedyną rzecz) panowałby straszliwy nadmiar liczbowy, istna babilońska encyklopedia: takim językiem nie można by się posługiwać. Każda bowiem próba definitywnego „domknięcia” systemów znakowo niepełnych prowadzi — do regressus ad infinitum. Język nasz zatem właśnie przez to, że jest w odbiorach co nieco „rozmyty”, że im teksty dłuższe, tym więcej powstaje wokół nich zróżnicowanej odbiorczo „aureoli”, nie wkracza w pułapki Goedla, albowiem przeciwstawia im swoją giętkość, elastyczność, czyli jednym słowem, ponieważ jest metaforyczny i potrafi ad hoc metafory tworzyć. Jak język to robi? Gdy powiem: „mężczyzna patrzy na kobietę poprzez hormon androsteronowy”, każdy, kto wie, że to jest męski hormon, warunkujący u samców orientację seksualną, pojmie mnie, choć literalnie to nonsens, gdyż hormon nie ma oprawki ani szkieł. Metafory o rozmaitej amplitudzie znaczenia znajdziemy wszędzie: także w języku fizyki teoretycznej, kosmologii, biologii ewolucyjnej, wreszcie i matematyki. Matematyzacyjny trend nauk ścisłych to skutek ciągłego wysiłku REDUKOWANIA nadmiarów językowej metaforyczności. Gdy jej zbyt wiele, język zatrąca o poezję, a wreszcie staje się tak samo nieprzydatny jako narzędzie komunikacji, jak właśnie obrazy malarzy abstrakcjonistów. Ponieważ „odczytać” takie obrazy można bardzo rozmaicie, a każdy widz może je po swojemu pojmować (nie wiedząc zresztą, że w jego doznaniu estetycznym współzachodzi też obecność prób dostrzeżenia w nim pewnego „komunikatu”), nie ma zgody nawet wśród znawców co się tyczy znaczenia obrazu, natomiast obrazy naturalistów w istocie znakowymi systemami „miękkimi” nie są. Są one raczej swego rodzaju całościowymi symbolami (ale w tę dość sporną kwestię głębiej tu wejść nie mogę). Ten, kto posługuje się normalnym językiem etnicznym, otrzymuje niejako „za darmo”, dopóty, dopóki uczy się posługiwania owym językiem, strategię wymijania goedlowskich zapaści. Rozmaitość, ilość, jakość metafor w języku potocznym bywa na ogół mniejsza aniżeli w literaturze; najwięcej metafor, oznaczających „prawie dowolną rozciągliwość”, rozszerzalność subiektywną, podatność wielowykładalną znaczeń spotykamy w poezji. I tak, jeżeli utwór zaczyna się słowami (u Leśmiana, w Panu Błyszczyńskim) „Ogród śnił się”, to JUŻ mamy do czynienia z poliinterpretacyjną metaforą, a kto zgody na przeciwdosłowność tak elementarnego predykatu nie da, ten się na czytelnika poezji (Leśmianowskiej) nie nadaje. Miałby zaś na „zerowym” poziomie języka słuszność, ponieważ „ogrody się SOBIE nie śnią”, jako iż śnić nie mogą. „Barwność” elokwencji jest w istotnym stopniu uzależniona od oryginalnego produkowania ad hoc pojmowanych przez odbiorcę metafor, i to takich, które są „świeże”. (Wychwalani dziś autorzy, jak Buczkowski i Parnicki, „dosalali” swe teksty takimi nadmiarami metaforyczności, że powstawały przez to teksty bardzo silnie przeciwstawiające się rozumieniom ujednoznacznionym: przeciętny czytelnik nie życzy sobie, ażeby go tekstem autor wodził na wertepy, manowce, w labirynty, które skądinąd w oku wytrawnego „metaforofila” mogą stać się właśnie klejnotami prozy). Ale powróćmy do naszej skali i wywodliwych z niej wniosków. 6 Zupełnie osobne, niezwykłe miejsce zajmuje na tej skali kod biologiczny, który wytworzyła ewolucja naturalnie. Tutaj warto mu się chociażby z grubsza przypatrzyć. Kod genetyczny nie jest jeszcze PRZEKAZEM: jest tylko alfabetem i gramatyką (podobnie jak język programowania, jeden z wielu powstałych). Komórka używa czteroliterowego języka (kodu) kwasów nukleinowych, aby przełożyć tekst–genom — na dwudziestoliterowy język białek. (Przypominam, że KOD poznajemy wtedy, gdy jeden znakowy system sztywno zostaje przyporządkowany innemu, jak np. gdy — poza Morsem — mamy do czynienia z sygnalizacją stosowaną w służbach morskich flagami, albo kiedy kodem jest szyfr; szyfr mianowicie jest kodem, który przełożyć na język etniczny potrafi tylko ten, kto dysponuje KLUCZEM służącym do dekodowania). Molekuła białkowa jest tekstem zbudowanym z dwudziestu liter wtórnego alfabetu — aminokwasów, tożsamych w całej przyrodzie żywej. („Wynalazek” okazał się TAK trudny, że kod genetyczny jest JEDYNY dla wszystkich roślin i zwierząt — byłych, istniejących i przyszłych — w toku czteromiliardoletniej ewolucji życia na Ziemi). Genom jest zasadniczo „zastygły” i „znieruchomiały”, toteż stanowi podstawową matrycę dziedzicznego przekazu. Nukleinowy kod, zbudowany z zasad kwasów nukleinowych (nukleotydów) jest troisty (tryplet). Cztery nukleotydy, brane osobno, mogą kodować tylko cztery aminokwasy. Brane po dwa, też nie wystarczą: określają tylko 16 aminokwasów. Natomiast tryplety dają już 64 kombinacje, i to jest już nadmiarowe. Tym samym powiadamy, że redundantna (nadmiarowa) jest struktura tego kodu. Większość aminokwasów może być kodowana nie jednym tylko trypletem, niektóre zaś nawet sześcioma. Ponadto trzy tryplety nie kodują żadnych kwasów aminowych, są to bowiem znaki przestankowe kodu. Odkąd wykryto tak zwaną junk DNA, czyli po polsku „nukleotydowe śmiecie”, w każdym genomie, zapanowało zrazu przeświadczenie, iż kod, w samej rzeczy, stanowi od wieków wehikuł, jakim posługują się te „śmieci” kodowe niby pasażerowie na gapę. Tak drastyczna odmowa tym „pasażerom” wszelkiej wagi, wszelkiego znaczenia w procesie dziedziczności wydawała mi się od dawna dość podejrzana, tym bardziej iż zaledwie KILKA procent genów (jest ich około 100 000 u człowieka) uznano za kodony strukturalnie wyznaczające powstawanie (budowę) aminokwasowych białek, tych cegiełek każdego organizmu. Jednak ostatnio już słychać o ewolucyjnej ROLI junk DNA, chociaż jeszcze z pewnością funkcji tych „śmieci” nie udało się ustalić. Zdaje się, że tożsamość, wielopowtarzalność określonych sekwencji, takich Jakoby nic w dziedziczności nie wyznaczających” fragmentów kodu, ich nieustępliwa obecność, świadczy o tym, że podlegają selekcyjnemu ciśnieniu i że tym samym służą jakimś funkcjom. Zdaje się, że te rzekomo „bezsensowne” nukleotydy wpływają na geny strukturalne, warunkując natężenie ich ekspresji, że mają funkcje podtrzymujące ład genomu itd. Nie wchodzę w tę dygresję dalej. Jest o tyle fascynująca, iż dotąd uważało się, że trzy miliardy nukleotydów genomu zasługują na uwagę TYLKO w obrębie „strukturalnej mniejszości, kodującej konkretne białka”. (A przecież są serie tych „głuchych i niemych” nukleotydów liczące niezmiennie uporządkowane szeregi po 280 elementów). 7 Wróćmy wszakże do języka etnicznego. Już w latach pięćdziesiątych usiłował Noam Chomsky matematyzować formalnie podstawy języka i poszukiwał tak zwanej generującej gramatyki, właściwej WSZYSTKIM językom ludzi (a jest ich około 4000 na Ziemi; niektóre praktycznie już martwe). Rozróżniał przy tym powierzchowną i głęboką strukturę języka, jednakowoż aczkolwiek jego gramatyki potrafią generować systemy tekstów i wzbudziły nadzieję, że przejście od nich do algorytmicznych języków tłumaczenia maszynowego okaże się w zasięgu urzeczywistnienia, prace te utknęły na mieliznach: maszynowe przekłady są wciąż wysoce niedoskonałe. Jeżeli zaś przyjrzeć się problematyce dokładniej i bliżej, można dowieść, że literalnie przekłady jedno–jednoznaczne z języka (etnicznego) na inny język są przy zakładanej w pełni pojemności sensowej niemożliwe. Raczej mówić wypada o tym, że ten, kto tłumaczy, zajmuje się INTERPRETACJĄ tekstu jednego języka za pomocą języka drugiego. W matematyce, której metaforyczność, zwłaszcza w matematyce czystej, jest silnie zredukowana, dwaj niezależni matematycy, mający rozwiązać to samo zadanie, łatwo i nieraz uzyskują tożsamy trop dowodowy, natomiast praktycznie jest niemożliwością powstanie dwu niezależnie przetłumaczonych (np. na polski) tekstów HAMLETA w taki sposób, ażeby pokrywały się co do joty. Obrazowo (METAFORYCZNIE) mówiąc, oryginał stanowi centralny PUNKT pewnej tarczy strzeleckiej, poszczególne zaś przekłady są trafieniami tylko asymptotycznie zdolnymi zbliżać się do owego centrum: pokryć się z nim w 100% nie mogą. Pozwolę tu sobie wskazać przykład całkowitej nieprzekładalności z polskiego na francuski, wielce współczesny. W utworze S. Mrożka pewien „Zygmuś” powiada: „Ślimak jest to stworzonko, utrzymujące się przy pomocy wystawiania rogów, w zamian za co otrzymuje pewną ilość sera, z której wyrabia pierogi”. Otóż można przełożyć to zdanie na francuski literalnie, ale nie będzie ono w ogóle miało typowego dla Polaka aspektu humorystycznego, po prostu dlatego, że Francuzom obcy jest dziecinny wierszyk („ślimak, ślimak, wystaw rogi, dam ci sera na pierogi”). TO zdanie jest jakby „głęboką warstwą” semantycznego odniesienia Mrożkowego żartu, tej głębszej wartości semantycznej (napięcie, wywołujące uśmiech, zachodzi międzywarstwowo) nawet genialny tłumacz na obcy język nie przełoży. Poezję zaś można od siekiery (to metafora) rozdzielić na przekładalną i nieprzekładalną. Jakkolwiek zjawisko przekładu lepszego od walorów oryginału zachodzi czasem, jest jednak nad wyraz rzadkie. Tak zatem, rozszerzając pole naszych dociekań i roztrząsań na znaczny zbiór konkretnych translacyjnych dylematów i przykładów, doszlibyśmy na koniec do zrozumienia, dlaczego takie ubóstwo i taka ułomność panują wciąż w dziedzinie komputerowego przekładania językowych tekstów. W nauce jest ona mniejsza aniżeli w obszarze beletrystyki, przekłady zaś poezji są orzechem jeszcze trudniejszym dla maszyn do rozgryzienia. 8 Dystrybucja znaczeń poszczególnych słów, idiomów, zwrotów, O fraz konkretnego języka znajduje bardzo rozmaitą reprezentację u różnych ludzi należących do tożsamego kręgu językowego. (Jeżeli TEMU zdaniu przyjrzeć się pod kątem srogiego polowania na metafory, dostrzeżemy, że „krąg” może mieć wiele różnych znaczeń, podobnie jak „dystrybucja”). Ogólnie wolno rzec, iż synonimy właściwie nie oznaczają TEGO SAMEGO denotatu, ponieważ są uwarunkowane w granicach znaczeń swoich KONTEKSTAMI, w jakich występują. Ale to była jedynie „uwaga po drodze”. Otóż główną w dziele Nalimowa sprawą „probabilistycznego modelu języka” nie zajmowałem się tutaj, ponieważ będąc wprawdzie godna uwagi, kwestia ta wymaga dłuższego potraktowania, z naczelnym wprowadzaniem tak zwanej formuły (statystycznej) Bayesa. Uwagi moje miały ograniczyć się do pokazania, że metaforyczność etnicznego języka może być zarówno Z POŻYTKIEM używana, jak i ZE SZKODĄ dla komunikacji nadużywana. Poezja jest dziedziną pokrywającą się częściowo z filozofią pewnego typu, z filozofią (na przykład) egzystencjalnej rozpaczy, z właściwościami języka, ojczystego dla filozofa (Heidegger, ale i Hegel godni są tu wymienienia). Powstają zarazem pewne sofizmatyczne pretensjonalności autorów, jak Heidegger, który uważał swoją filozofię za prostą (niemal) kontynuację starogreckiej. Język jego jest tak „przemetaforyzowany”, że niedostatek dyspozycyjnej przenośni w germanizmach skłaniał Heideggera do tworzenia neologizmów, najlepiej pojmowalnych przez osoby niemieckojęzyczne; z tłumaczeniem Heideggera mieli przez to kłopoty np. Francuzi, a nie lepszy Derrida też ponaciągał niektóre leksykograficzne ścięgna i stawy francuszczyźnie. Nad nim więc z kolei polscy tłumacze musieli się biedzić. Ponieważ w niniejszych uwagach powstrzymałem się do tej pory od wypowiedzeń sądów wartościowych i jawnie deprecjacyjnych, dodam, iż zdaniem moim, każdy tekst w sytuacji rozpowszechniającej się dziś tendencji GLOBALIZACYJNEJ jest tym bardziej wart „eksportowania”, czyli akceptowania rozumiejącego poza granicami danego językowego obszaru, im bardziej skutecznie można go przełożyć. Tak w nowej poezji, jak w skrajnie fenomenologicznej filozofii o przekłady bardzo trudno. Ale czy to oryginał tekstu zwartego, a zarazem głębokiego semantycznie, czy jego trafny przekład stawiają podobne wymagania czytelnikowi: bywa, iż musi on dysponować zaiste encyklopedycznymi informacjami ORAZ rozwiniętą maksymalnie strefą emocjonalnego odbioru po to, ażeby czytając dany tekst „z głębią”, zrozumieć „optymalnie”. Najłatwiej (niestety) ową metaforyczną „głębię” można falsyfikująco imitować zwyczajną mętnością, hipostatyczną frazeologią, od jakiej się — zwłaszcza u wiernych naśladowców i uczniów Derridy — wprost roi. To samo dotyczy też zarówno szałów współczesnej plastyki, jak współczesnej poezji, której trudne zarozumialstwa służą nieraz po prostu epatowaniu (nielicznych już) odbiorców. Należy zarazem uświadomić sobie, że zarówno muzyczne utwory, jak nawet tańce opatrzone określoną kolejnością figur mogą być rozpatrywane jako szczególnie „miękkie” języki. Dotyczy to nawet mody, jej zmian (są to zmiany semiotyczne) oraz JEJ BRAKU, który też może się przecież stać modą. Np. zmiany polegające na zdejmowaniu odzieży znaczą W SEKWENCJI STRIPTIZU to, co przypomina aluzyjnie pewną introdukcję (jak uwertura w muzyce). Na koniec można dodać, że nazbyt „twardy” język, „obrąbany” z metaforycznej giętkości, jest odchyleniem od normy lingwistycznej, zbytnia zaś „miękkość” prowadzić może nawet do schizofrenii: wkracza ona bowiem w świat takich „metafor”, których prócz samego schizofrenika już nikt nie zrozumie. 9 Co wynika z powyższych, aż nadto lapidarnych spostrzeżeń? Wynika z nich uniwersalność języka dla wszystkich umysłowych czynności ludzkich. Bez języka nie byłoby samoświadomości ani mnóstwa typowych dla nas poczynań i zajęć, wraz z dziedziną sztuki. Najsłabiej podlega lingwistycznym wpływom aktywność czysto mięśniowa, niejako „nasza scheda zwierzęca”, ponieważ zwierzętom jest obcy język: mogą się posługiwać wyłącznie prostą sygnalizacją (jak pszczoły lub ptaki). Pod koniec wieku doszedł do głosu atawizm, paradoksalnie amplifikowany przez media wizualne (telewizję zwłaszcza). W niej bowiem lwią część programowego czasu zajmują na całym świecie te czynności człowieka, które podlegają nie tyle mózgowi, ile móżdżkowi (Cerebellum). Czy będzie to sport we wszystkich odmianach — zawody jeździeckie czy atletyczne, czy boks, czy tenis, czy piłka nożna, czy konkursy tańca, czy pokazy muskulatury kulturystów, czy gimnastyka, czy akrobacja — czy sztuki prestidigitatorskie, czy karate, wszystkie one tworzą zbiór podległy mocno regulacji, synchronizacji i kontroli móżdżkowej, ze względu na olbrzymią ilość stopni swobody, jaką jest obdarzone ciało człowieka. Tylko w TEJ sferze funkcjonalnej zwierzęta dorównują nam, albowiem wszystkie wyższe (jak ssaki) mają móżdżek. Koordynacją dynamiki i kinematyki ciała foka ani małpa człowiekowi nie ustępują. Można by poważyć się tedy na konstatację, iż nasilona „bezjęzykowość” widowiskowa w mediach stanowi swego rodzaju odwrót od najwyższych czynności ośrodkowego układu nerwowego, od „nowej kory mózgowej” — neocortex. Czy jest to wypadkowa nasilonej już obecnie demograficznej eksplozji oraz krzyżowania się rosnącej permisyjności z technologiami „ułatwionych maksymalnie spełnień i pożądań”, twierdzić nie śmiem. W każdym razie ów trend, w którym mimo woli maszynom przekazujemy nawet rosnący cywilizacyjnie trud MYŚLENIA, daje do myślenia… oto ostatni, podobny do przestrogi, na poły metaforyczny wniosek z tych fragmentarycznych uwag. Labirynty informacji 1 Dopiero niedawno dowiedziałem się, że zaczątek Internetu, jako sieci komputerowej bezośrodkowej, czyli takim sposobem rozgałęzionej, że nie posiada ona żadnego „centrum”, wymyślili fachowcy Pentagonu jakieś dwadzieścia lat temu. Chodziło im podówczas o utworzenie takiej informacyjnej łączności globalnej, której nie zdoła zniszczyć atomowymi ciosami przeciwnik. Przeciwnikiem były oczywiście Sowiety. Zresztą gdyby nie doszło do militarnie oraz strategicznie inicjatywnego poczęcia, Internet niechybnie i tak by powstał i zaczął się niezmożenie rozrastać, ponieważ od dawna już stawało się oczywiste, że żaden komputer z osobna, chociażby największy, nie zdoła w swojej pamięci zawrzeć tego, co gromadzi ludzkość jako informację we wszystkich jej odmianach. Zaczęło się zatem od łączności telefonicznej, od modemów, od więzi łączących uniwersytety czy inne ośrodki badawcze, obecnie zaś niezbędnie intratne wydają się wielkim korporacjom zarysy mającej dopiero powstać „światowej autostrady informacyjnej”, Information Highway. Zarazem nadchodzący wiek poczyna się jawić jako „Stulecie Informacji”: a jednocześnie stają się coraz jawniej dostrzegalne zarówno ogromne korzyści, jak występne zagrożenia, powstające dzięki czy też wokół tego globalnego „krótkiego spięcia” wszechporozumień wszystkich ze wszystkimi. Można już przecież czytać o „wirtualnych bibliotekach”, o „wirtualnych ośrodkach leczniczych”, o Cyberspace służącym rozrywkom tak samo sprawnie, jak naukowcom, studentom, wreszcie takim nowszym „podróżnikom”, którzy radzi by, nie ruszając się z domu, zwiedzać amerykański rezerwat Yellowstone, pustynię Gobi czy piramidy egipskie. Jednym słowem, kluczowym w każdej gałęzi globalnych łączy komputerowych jest INFORMATION RETRIEVAL. Ma on — jako wykrycie możliwie pewnej, sprawnej i rychłej drogi do informacji, której Ktoś poszukuje, dwa oblicza co najmniej: albowiem poszukuje potrzebnej mu — z powodów ekonomicznych, poznawczych czy jakichkolwiek innych — informacji zarówno ten, komu ona legalnie i zacnie posłuży, jak i ten, co chce się do jej sedna wkraść, ażeby podsłuchać, podpatrzyć, zawłaszczyć, jednym słowem, stając się nowożytną odmianą złoczyńcy, ocierającego się o computer crime. Internetowi, który już istnieje i rozrasta się z roku na rok z eksponencjalną szybkością (powiadają, że obecnie dostępna w sieci informacja przekroczyła już pojemność 2300 kompletów Wielkiej Encyklopedii Brytyjskiej), poświęcona została prawie tak chyżo jak on powiększająca się literatura (którą również można, rzecz oczywista, poznać, poczytać, dzięki Sieci). Tu nawiasem dodam, że najbardziej brak nam obecnie porządnych odpowiedników polskich terminów, w Stanach Zjednoczonych ukutych już dla roju innowacji, jako czynności prawnych i bezprawnych, jako metod „ataku” mającego przedzierać się do zawarowanych komputerowymi kodami, hasłami, odzewami „informacyjnych skarbów” na przykład banków czy konsorcjów — i jako metod obrony, które stają się filtrami informacji. Jedno i drugie wikła się silnie w tę oczywistą i elementarną sprawę, że ani „węzły” sieci, to jest komputery (są ich już nie setki tysięcy, lecz miliony) i nie „oka sieci”, a zatem ich połączenia, nic nie rozumieją, chociaż potencjalnie „wszystko wiedzą”. Nie można więc traktować sieci (czy tej istniejącej, Internetu, czy też tej mającej dopiero powstać z Internetu jak z zarodka) jako Globalnego Mędrca, Czarodzieja i Spełniającego życzenia Dżinna. Ten nibydżinn wszystko wprawdzie „wie”, ale, skoro nic nie rozumie z tego, co w sobie zawiera, należy przemyślnymi sposobami ułatwiać użytkownikom sieci docieranie do takich połaci wiedzy lub rozrywki (na przykład), jakich poszukują. Jest chyba dość jasne, że wraz z przyborem użytkowników, ośrodków typu „interakcyjnych wideotechnik”, bibliotek wirtualnych, wreszcie właściwych „generatorów informacji innowacyjnej”, to znaczy po prostu ludzi– twórców (w każdej dowolnej sferze i dziedzinie — sztuki czy nauki, czy rozrywki), zarazem rośnie przybór dróg, jakimi informacja poszukująca mknie, ażeby dopaść poszukiwanej. 2 W latach 1972–1979 napisałem powieść Wizja Lokalna i w niej nie bez rozbawienia znajduję taki oto, przydługi fragment, który w związku z powiedzianym pozwolę sobie zacytować. Dowiedziałem się, że w XXII wieku popadła Luzania w okropny kryzys, wywołany samozaćmieniem nauki. Najpierw coraz częściej było wiadomo, ze badane zjawisko na pewno już ktoś kiedyś dokładnie przebadał, nie wiadomo było tylko, gdzie tych badań szukać. Specjalizacja naukowa rozdrabniała się w postępie geometrycznym i główną przypadłością komputerów, a budowano już megatonowe, stało się tak zwane chroniczne zaparcie informacyjne. Obliczono, że za jakieś pięćdziesiąt lat nie będzie już żadnych innych komputerów uniwersyteckich jak tylko tropicielskie, czyli poszukujące w mikrozespołach i przemyślnicach całej planety, GDZIE, w jakim zaułku, w której pamięci maszynowej tkwi wiadomość o tym, co jest kluczowe dla prowadzonych badań. Nadrabiając wiekowe zaległości, w szalonym tempie rozwijała się IGNORANTYKA, czyli wiedza o aktualnej niewiedzy, dyscyplina do niedawna pogardzana aż do zupełnego zignorowania (ignorowaniem niewiedzy zajmowała się gałąź pokrewna, mianowicie IGNORANTYSTYKA). A przecież porządnie wiedzieć, czego się nie wie, to już dowiedzieć się niejednego o wiedzy przyszłej, i od tej strony zrastała się ta gałąź z futurologią. Drogiści mierzyli długość drogi, jaką poszukiwawczy impuls musiał przemierzyć, ażeby dopaść szukanej informacji, a była już taka, że przeciętnie wypadało czekać na cenne znalezisko pół roku, aczkolwiek ten impuls poruszał się z chyżością światła. Jeśliby szlak labiryntowych tropień wewnątrz zawłaszczonych dóbr wiedzy miał się przedłużać nadal w obecnym tempie, to następnemu pokoleniu fachowców przyszłoby czekać po 15 do 16 lat, nim świetlnie gnająca sfora sygnałów–odnajdywaczy zdoła im zgromadzić pełną bibliografię do zamierzonego przedsięwzięcia. Ale, jak mówił u nas Einstein, nikt nie drapie, jeśli go nie swędzi, powstała więc domena najpierw ekspertów szukanistyki, a potem tak zwanych inspertów, bo potrzeba powołała do bytu teorię odkryć zakrytych, czyli zaćmionych innymi odkryciami. Tak powstała Ariadnologia Ogólna (General Ariadnology) i rozpoczęła się Era Wypraw w Głąb Nauki. Tych właśnie, co je planowali, zwą inspertami. Pomogło to trochę, ale na krótko, bo insperci, też przecie uczeni, chwycili się teorii inspertyzy z działami labiryntyki, labiryntystyki (a one są tak różne jak statyka i statystyka), labiryntografii okólnej i krótkozwartej, jako też labiryntolabiryntyki Ta ostatnia to ariadnistyka pozakosmiczna, podobno dziedzina wielce ciekawa, traktuje bowiem istniejący Wszechświat jako rodzaj małego regału czy półeczki w olbrzymiej bibliotece, która nie może wprawdzie istnieć realnie, lecz nie ma to poważnego znaczenia, teoretyków nie mogą bowiem interesować banalne, bo fizyczne granice, które świat nakłada na insplorację, czyli Pierwsze Wgłobienie Samożercze Poznania. A to, ponieważ ta straszliwa ariadnistyka przewidywała nieskończoną ilość następnych takich wgłobień (poszukiwanie danych, poszukiwanie danych o poszukiwaniu danych i tak dalej aż do zbiorów mocy pozaskończonej Continuum). Koniec przydługiego cytatu… Należy, jak myślę, wykroczyć poza tę z literackofantastycznego zamysłu potęgowaną, więc karykaturalną po trosze bufonadę, ażeby zastanowić się nad problemem, który jak niewidzialny duch (na razie) unosi się nad całą kwestią globalnej sieci informacyjnej, która pozwolić by miała użytkownikom, czy to osobom fizycznym, czy prawnym, czy rządom, czy Interpolom, czy badaczom, czy politykom, dzieciom, matkom, podróżnikom, duchownym i tak dalej, i tak dalej — docierać do informacji przez nich szukanej. Tym „duchem”, o jakim wspomniałem właśnie, jest pytanie może krytyczne, mianowicie o to, czy gdyby Sieć, jakiś Super– Internet, posiadała zdolność ROZUMIENIA Wszechinformacji, ułatwiłoby to dostępy do wiadomości poszukiwanych? Teraz bowiem — jak się rzekło — żadna komputerowa zespólnia, chociażby miała być i milion razy rozleglejsza od dotąd powstałej, nic a nic nie rozumie, akurat jak jakaś biblioteka, która przecież, jako księgozbiór, też sama z siebie niczego nie może pojmować. Skoro się jednak postawiło takie pytanie, trzeba sobie uświadomić, że tym samym wkroczyło się już nie tylko w obszar komputerom (dowolnej mocy obliczeniowej) wciąż niedostępny, mianowicie semantyki, tj. ZNACZENIA, które wprowadza w swoje precyzujące każdy sens obszary (desygnacji, denotacji i konotacji), ale, i to już staje się dramatem, wkracza się w kwestię taką oto: czy istnieją „informacyjne śmiecie”, które z Internetów dowolnej struktury trzeba by wymiatać, czy też nie istnieją? Odpowiedź, niestety, musi być obciążona relatywizmem. Co dla jednego użytkownika będzie śmieciem, to dla innego stanowi informację ze wszech miar pożywną, strawną i nawet może niezbędną. Dajmy na to, że chodzi o naukowca, który zajmuje się zbieraniem danych o falsyfikatach prac naukowych, falsyfikatach, dodajmy, jakich dziś pełno i o jakich rzeczywiście piszą już książki (mam u siebie trzy właśnie takie tytuły). Czy podręcznik zawierający spis metod, którymi można się „włamywać” do sieci, korzystać ze szkodą osób lub instytucji trzecich z „cudzej” informacji, jest „śmieciem”? Jeszcze inaczej: czy w ogóle dopuszczalna może być myśl o utworzeniu „cenzorów” w samej sieci? Ależ to już jest, dlaboga, pytanie o zeszłoroczny śnieg. Przecież „cenzorujące filtry” już od dawna istnieją i funkcjonują, tylko ich nikt „cenzorami” ani „wartownikami” nie zwie. Mianowicie okradane informacyjnie instytucje (a pewno i osoby) instalują tak zwane firewalls, więc niby „przeciwpożarowe ściany”, które filtrują informację wchodzącą, natomiast swobodnie przepuszczają wychodzącą z lokalnego źródła. Więc zarodniki cenzury sieć już zawiera. A co się „śmiecia” tyczy, od dawna, bo od samego zarania cybernetyki było wiadomo, że to, co jest dla jednego człowieka „szumem” (głuszącym informację), dla innego, np. inżyniera–informatyka, badającego noise leuel w kanale przekazującym informację, JEST właśnie przezeń poszukiwaną i mierzoną informacją. Jednym słowem: potrzebne stają się zwrotnice albo może jakowiś zawiadowcy zwrotnic, zdolni do kierowania informacyjnych strumieni podług ich nadrzędnie ustalić się dającej treści do odpowiednich adresów, tak ażeby fachowiec zajmujący się anatomią nie musiał oglądać obrazów pornograficznych, a matematyk–statystyk nie był skazany na wymiatanie ze swego komputera ciągów liczbowych stanowiących spisy milionowych rezultatów ciągnień jakiegoś totalizatora. Tego rodzaju zwrotnice będą się stawały coraz bardziej potrzebne w miarę rozszerzania się i samej sieci, i liczby jej użytkowników. 3 Muszę przyznać, że w publikacjach amerykańskich, które jak dotąd czytałem, poświęconych globalnej sieci informacyjnej, zdziwiła mnie swego rodzaju żywiołowość zarówno rozwoju owej sieci, jak i podejścia do niej informatyków. Przede wszystkim zdają się wszyscy zakładać jako samozrozumiałą oczywistość, że język angielski jest językiem globalnym i problem dostępności „wirtualnych bibliotek” (powiedzmy) dla jakichś Japończyków czy innojęzycznych mieszkańców Ziemi w ogólnie nie istnieje (tymczasem wiadomo dobrze, że komputerowa sprawność w zakresie tłumaczeń z języka na język była i pozostaje niska). Ponadto zmartwienia Amerykanów mają bardzo partykularny, niejako doraźny charakter: biznesmeni np. kłopoczą się tym, iż transakcje przeprowadzać za pośrednictwem sieci jest wprawdzie bardzo łatwo, lecz brak im płatniczej pewności, czyli po prostu mówiąc, można na tych szlakach bardzo łatwo zostać oszukanym, a ochronić przed nadużyciami potrafią jedynie firewalls oraz inne umowne, szyfropodobne bariery, które notabene w końcu można przebić, albowiem nadzwyczaj trudno jest zawsze uzyskać bezpieczeństwo stuprocentowe: co jeden człowiek jako doskonały zamek czy szyfr wykoncypuje, to inny tak lub inaczej przechytrzy. Natomiast (już po trzecie) nie wiadomo, w jaki sposób należałoby ustawiać na drogach sieci „tamy” dla naukowców, łaknących informacji w zakresie tematów opracowywanych przez tysięczne rzesze innych ludzi na całym świecie. W obszarze tematów tak popularnych jak, powiedzmy, problematyka wirusa AIDS albo aspektów energetycznych, ekologicznych i last but not least medycznych energii atomowej powstała już istna powódź, prawdziwy informacyjny potop. To, że kłopoty konkretnego badacza — autora prac wynikają nie z braku dostatecznego rozeznania w światowej literaturze, ale, na odwrót, z nadmiaru, którym gotów zasypać go należycie skierowany w sieć Internetu komputer, problemu przecież nie likwiduje. Wiedzieć za mało jest tak samo źle, jak wiedzieć „za wiele”. Przede wszystkim dlatego po prostu, ponieważ można — chociaż nie aż w sposób nieograniczony — powiększać przepustowość kanałów sieci dzięki światłowodom (np.), natomiast nasza, ludzka przepustowość informacyjna jest akurat taka sama, jak mniej więcej 100 000 lat temu, kiedy powstał nasz gatunek w toku milionoletniej antropogenezy. Jednym słowem, na drodze rozwojowej sieci spotykamy się już i potykamy się o tylko częściowo przewidywalne przeszkody, natomiast takie, co może wynikną w niedalekiej przyszłości, są niełatwe do prognozowania. Nie powiem już nic w kwestii właściwie trywialnej: oto bynajmniej nie wszystkie istotne, doniosłe publikacje są szybko wprowadzane do pamięci komputerów, obsługujących sieć, i przez to wyniki badań skądinąd żywotnie ważnych dla danego zadania (AIDS np.), pozostając poza dostępnością, dzięki sieci niejako przestają dla ogółu określonych specjalistów istnieć. 4 W całym powyższym ledwie dotkniętym kompleksie zagadnień, rozpościerających się w sieci i wokół sieci, pominąłem rozdział osobny, niestety, pokaźnie już rozwinięty, rozdział, o którym nic nigdy w przeszłości nie pisałem, kiedy bywałem zajęty próbami prognostycznego rozpoznawania przyszłych osiągnięć ludzkich. Niechybnie moją ślepotę w zakresie, o którym chcę rzec kilka słów, spowodował mój nadmierny, sprzeczny z naturą ludzką, racjonalizm. Mam na myśli osobliwą satysfakcję, zaangażowaną w działania, których celem jest destrukcja bezinteresowna, czyli takie zło, które złoczyńcy nie przynosi najmniejszego nawet materialnego pożytku. Być może, jest tak po prostu, że dla tych, co niczego pozytywnego tworzyć nie umieją, niszczenie stanowi namiastkę twórczości. Zjawisko to w dziejach nawet starożytnych było obecne zawsze, ale w elektronicznej epoce objawiło się w nowych postaciach i z nową skutecznością. Powiedzmy, jako wirusy komputerowe, które niczemu prócz psucia programów nie służą (nie mam na myśli takich wytrychów — wirusów, dzięki którym hacker może uzyskać jakąkolwiek, np. finansową korzyść). Należy sądzić, wedle tego, co JUŻ zachodzi, że Cyberspace staje się właśnie domeną niszczycielskich zabaw nie tylko niewinnego typu „hulaj dusza”. Widocznie miło jest obsypywać ludzi (nie tylko kobiety) nachalnymi, obraźliwymi informacjami bezinteresownie („interes” ma widać elektroniczny sadysta). Trudności zidentyfikowania sprawców zwiększają ilość tego obrzydliwego procederu. Znane nam już fałszywe alarmy, powiadamiające o rzekomym podłożeniu bomb w miejscach publicznych, uzyskują teraz nową amplifikację. Podobne też przykrości najrozmaitszego rodzaju czekają już w powiciu, każdy zaś rozgłos, nadany masowymi mediami (drogą radia czy telewizji), również przyczyni się do quasi–epidemicznego rozszerzania się tej „zarazy informacyjnego szkodnictwa”. Czy sam źle postępuję, poświęcając tej kwestii uwagę? Nie myślę, żeby tak było. Powtarzające się już w naszym stuleciu ludobójstwa wskazują na, niestety, dodatnią korelację wiążącą postęp cywilizacyjny z postępem zagrożeń. Liczby faktów są tak wielkie, że wykluczają więź jednego trendu z drugim tylko przypadkową. Tak zatem wszedłszy w nasze życie społeczne i prywatne, komputery, zanim jeszcze jęły tworzyć w połączeniach kształtu sieci globalne krótkie zwarcia komunikacyjne, ukazały swoją typową dla wszystkich tworów technologii obusieczność. Ich korzystnemu awersowi towarzyszy ich może niekiedy aż fatalny rewers. Czas, w którym chłopcy o zręcznych palcach potrafili, przechytrzywszy wszystkie obronne „mury”, wślizgiwać się do centrali sztabów generalnych, więc do central końca świata w mroku nuklearnej zimy, ten czas jeszcze ze wszystkim nie minął. Może tak ponurymi akcentami nie godzi się kończyć uwag pisanych na marginesie Internetu, który jest przecież tylko dziecięciem w powijakach. Lecz problem ma inny jeszcze aspekt, o którym warto pamiętać. 5 Przez rzeczników globalnej sieci komputerowej jest często zachwalana sytuacja niedalekiej przyszłości, w której człowiek, siedząc w domu, może mieć dostęp do wszystkich bibliotek świata, także wideobibliotek, może oddawać się intensywnej wymianie myśli z bezlikiem ludzi dzięki udoskonalonej E–mail, elektronicznej poczcie, może oglądać dzieła sztuki, obrazy mistrzów i może przez siebie na ekranie swego komputera koncypowane rysunki czy obrazy słać na wszystkie strony świata, może uprawiać intensywną działalność gospodarczą, kupując i sprzedając jakieś papiery wartościowe, akcje, może uwodzić urocze osoby przeciwnej płci lub też być przez nie uwodzonym i może czasem nie być nawet pewny, czy ma do czynienia z erotycznymi fantomami, czy też z osobami z krwi i kości, może oglądać dalekie kraje, ich pejzaże… i tak dalej, może wszystko bez najmniejszego ryzyka (ewentualnie wyjąwszy finansowe)… lecz przecież wciąż pozostaje w samotności i to, co przeżywa, jest wynikiem ogromnego rozpostarcia i planetarnego aż przedłużenia i rozprzestrzenienia jego sensorium, tj. całości jego zmysłów. A jeżeli tak jest, to mogę tylko powiedzieć, iż za żadne skarby świata z tak doszczęśliwionym człowiekiem, mającym tak wspaniałe i tak iluzoryczne zarazem szansę spełniania wszelkich życzeń, nigdy bym nie był gotów się zamienić. Zapewne, więź elektroniczną „ze wszystkimi i wszystkim” trudno przyjdzie nazwać po prostu oszustwem technicznie udoskonalonym… ale tam, gdzie w przyszłości doszłoby do zamiany prawdziwej natury na doskonałą jej namiastkę, gdzie zacznie już znikać różnica pomiędzy tym, co naturalne, i tym, co sztuczne, w wypchanej elektroniką, pełną czarów, samotności może będzie się, kto wie, czaił już jako łaknienie autentyczności, jako głód prawdziwego ryzyka i rzeczywistych zmagań z przeciwnościami życia — depresyjny obłęd. Tak fatalnie ten kierunek rozwojowy pewno się nie zakończy, ale o jego fakultatywnej mecie warto już i dzisiaj pomyśleć chociaż przez chwilę. Brain chips Pod naciskiem perswazji i próśb organizatorów pierwszego sympozjum Akademii Trzeciego Tysiąclecia” zgodziłem się wziąć udział w krytycznym roztrząsaniu problematyki tzw. BRAIN CHIPS. Mam nadzieję, ze ta praca może zainteresować tych, którzy, zajęci zagadnieniami komputerowego kręgu, wejdą dzięki poniższemu tekstowi w problematykę kiełkującej już bezpośredniej współpracy elementów mózgu z elementami komputerowymi. SL Wprowadzenie 1 Powyższy temat dyskusyjny ma zgrupować osoby, zaproszone do udziału w konferencji, organizowanej przez usadowioną w Monachium „Akademię Trzeciego Tysiąclecia”. Po pokonaniu oporów zdecydowałem się napisać dla tej konferencji przyczynek. Najpierw pragnę wyjaśnić, że prawdopodobnym powodem zainteresowania organizatorów konferencji moją wypowiedzią było to, iż w dwu książkach nie beletrystycznych, a mianowicie w Dialogach, pisanych we wczesnych latach pięćdziesiątych oraz w Summa Technologiae, powstałej we wczesnych latach sześćdziesiątych, opublikowałem zuchwałe, bardzo daleko wysforowane w możliwą (według ówczesnego mniemania) przyszłość opisy nawet brutalnych interwencji w normalne funkcje ludzkiego mózgu. Granic tych interwencji dotykałem w Dialogach, pisząc o dającej się wyobrazić szansie przemieszczania (stopniowego) całościowych funkcji mózgu w obręb „protezy” zamyślanej jako sui generis sieć cybernetyczna, czyli informacjoprzetwórcza. Tym samym miałoby iść o jakąś postać „przesadzenia” pełnej czynnościowo– morfologicznej struktury mózgu w obręb artefaktu. To zaś miało umożliwić kontynuację nawet pośmiertną osobowego, świadomego i tym samym człowieczego trwania (w jednym z podtytułów Dialogów nazywałem tę możliwość „życiem wiecznym w skrzyni”). Stroną techniczną problemu się praktycznie podówczas nie zajmowałem, podobnie jak, a fortiori, przemilczałem aspekty etyczno–prawne takiego przedsięwzięcia, które zawsze przecież zawiera w sobie niemałe zagrożenie awariami i uszkodzeniami nieodwracalnymi. Gdybym te ostatnie próbował uwzględnić, lapidarnie przyszłoby uznać, że zarówno „instygatorzy”, jak „perpetratorzy” takich operacji po ich ogłoszeniu zostaliby objęci penalizacją i osadzeni w więzieniach za najcięższe uszkodzenia ciała. To samo mniej więcej dotyczy też fragmentów zawartych w Summa Technologiae, gdzie między innymi mówi się o rełatywizacji pojęcia osobowości człowieka, i gdzie sprawą tą, poszerzoną o dalsze roztrząsania, zajęty jest rozdział pt. „Cerebromatyka”. Mogę tu bez frywolnej intencji zauważyć, że ewentualne, powiedzmy, dokonane „przesadzenie” świadomości osoby X w obręb elektro— (lub chemoelektro–, albo biochemoelektro–) protezy mogłoby też być uznane za MORD (wzgl. zabójstwo) z następowym „zastąpieniem” ofiary jej „symulatem” (nawet, dajmy na to, doskonałym). Z kolei, kiedy już się na trakcie takiego rozumowania znajdujemy, w jego przedłużeniu o charakterze prawno– fikcjonalnym, można uznać, że argumentem obrony oskarżonego o nazwany czyn byłoby twierdzenie, ustalające TOŻSAMOŚĆ „osoby sprotezowanej” (jako jej normalnie czynnego umysłu) z osobą, która (może) po tej operacji albo życie utraciła, albo co najmniej na skutek tejże operacji objawia znaczne objawy wypadowe funkcji mózgu. Ponieważ zarazem w pierwszym rozdziale Dialogów usiłowałem udowodnić, że „powtórzenie” człowieka poprzez jego idealnie dokładne skopiowanie (złożenie molekularne) z atomów rodzi paradoksy, wskazujące na daremność próby „rezurekcji” (tj. że symulowany i zmartwychwstający z atomów — recreatio ex atomis modo nonalgorythmico — jest kopią, a nie oryginałem), i tym samym jeżeli kopiowany ginie, to „nic nie może mieć” z tego, iż kopia go doskonale zastępuje; ponieważ, powtarzam, logiki tego mojego twierdzenia nikomu zbić się nie udało, oskarżenie operatora mogłoby na tym moim dowodzie się opierać. W tym mianowicie sensie, iż jeżeli żyje dwóch jednojajowych bliźniaków, wychowanych tak, że są bliscy tożsamości, a dalej, jeden z nich zostanie zabity, to nie można zgodnie z logiką i zdrowym rozsądkiem utrzymywać, iż ten drugi pozostały przy życiu tamtego w pełni zastępuje, czyli że w ogóle o żadnym przestępstwie nie ma mowy, a zatem morderca za swój szkaradny czyn nie może być osądzony… 2 Rozwodzę się nad tymi dawnymi pismami moimi, ponieważ mogły wprawdzie dać asumpt do aktualnej propozycji uczestnictwa w wymienionej sesji „Akademii Trzeciego Tysiąclecia”, zarazem jednak muszę złożyć tu dodatkowe wyjaśnienie. Mianowicie przed czterdziestu laty, kiedy pisałem nazwane książki, sama cybernetyka wraz z teorią informacji tkwiła w pieluszkach, i tak oddalone w przyszłość ekstrapolacjami, procesami sądowymi ani zastrzeżeniami etycznymi nie pachniały: stanowiły dla czytelników fantazję, która, podobnie jak marzenia senne, na zgodność z uznawanym porządkiem moralnym i regułami prawa badana być sensownie nie może. Toteż ani za sny, ani za moje (skrótowo tu przytoczone) hipotezy, nikt kryminalnie nie może być ścigany. Sytuacja jednak po niespełna półwieczu bardzo poważnie się zmieniła w zakresie frontów biologii jako biotechnik „w fazie wstępnego rozpoznania DLA natarcia” TAKŻE na ludzki organizm. Zuchwałe i czcze rojenia poczynają tworzyć dotąd niedotknięty przez człowieka przyczółek DZIAŁAŃ możliwych realnie, a nie tylko pomyśleć się in abstracto dających. Przez to sytuacja, uwikłana w moje stare teksty, ulega odmiennemu rozważeniu i ewentualnym korektom. Im to zamierzam właśnie poświęcić nieco uwagi. Wstęp 1 Choć publikując oba nazwane tytuły byłem ignorowany, nie byłem osamotniony w tym sensie, że podzielałem optymizm poznawczy, inwestowany w cybernetykę, gdy computer science znajdowała się w powijakach, a rozróżnienie dziś fundamentalne między hardware i software ledwie się rodziło. Nadzieje rychłego wykrycia „królewskiej drogi” do sztucznej inteligencji nie sprawdziły się. Różnice między ewolucją mózgów istot żywych i „mózgów elektronowych” nie tylko są wyraźne, ale ich drogi wyraźnie się rozchodzą. Czy jednak nie zejdą się na powrót: i tak można rozumieć nazwę konferencji monachijskiej. Rzecz w tym, że jesteśmy ostatnimi reliktami Natury w coraz bardziej „usztucznianym” środowisku i tworzone przez nas techniczne narzędzia obracają się przeciw nam nie tylko jako bronie, lecz jako pomocnicy: istnieją już np. gałęzie matematyki, które bez wsparcia komputerowego nie mogłyby powstać. Współpracy jednak wdrożonych w obszar cywilizacji komputerów oraz ich sieci, włącznie z projektowaną „autostradą informacyjną” (o której w innym miejscu pisałem ze sporym sceptycyzmem), a ponadto eksponencjalny rozrost cyberspace, o którym jako o „fantomologii” i „fantomatyce” miałem możliwość pisać w Summa Technologiae — wszystko to jeszcze NIE jest właściwym przedprożem inwazji martwych procesorów informatycznych w nasz mózg. 2 Zaznaczę, że dostrzegam dwie rozmaite drogi wniknięcia owoców technologii w mózg: mogą się, jak dwa zbieżne nurty, połączyć w przyszłości, na razie jednak powstaje realnie ten, który jako pierwszy wymienię: I. Droga działań chemicznych resp. biochemicznych. Pierwociny takich substancji są bardzo „szerokoadresowe”, to znaczy aktywują i/albo odmieniają czynność zarówno tych ośrodków mózgu, których przesterowania CHCEMY, jak i tych, które ulegają trafieniom dzięki efektom ubocznym. Na tym polega ich „szerokoadresowość”. Zaczyna się dopiero „zwężanie”, czyli fokalizacja adresów: tę już rozrosłą dziedzinę muszę tu pominąć, skoro mam mówić o „chipach” dla mózgu, a nie np. o aminach i hormonach, celnie wymierzanych (niektóre mają zdobyć umiejętność PRZEKSZTAŁCANIA osobowości i charakteru człowieka, więc tym samym przypominają elementy mej „PSYWILIZACJI” psychemicznej z fantastycznego Kongresu futurologicznego). Droga chemiczna góruje o tyle, że winna być odwracalna w efektach: związki molekularne na ogół mają niezbyt długi okres aktywnego działania i ulegają w organizmie metabolicznemu rozkładowi. (Rzadko mogą jednak, jak LSD, wywoływać psychozy). II. Zająć nas ma wszakże droga łączy „mózg — artefakt niechemiczny”, jako procesor lub przetwornik informacji, włączony w obwody neuronowe mózgu. (Możliwe są też biochipy, o których już piszą, choć ich nie ma). Chemiczne związki działają raczej analogowo, chipy winny być raczej cyfrowe (digitalne). Już von Neumann uważał, że zarzucić należy informacyjną metodę czysto kombinatoryczną, logiczną, rekurencyjną, algorytmicznie nieposzlakowaną, której generalizacją abstrakcyjną jest ogólna teoria skończonych automatów (finite automata), zaś jej „pierwotniakiem”, „komórką wyjściową”, jej zarodkiem staje się najprostsza maszyna Turinga. Natomiast już wtedy (McKay np.) sugerowana droga sieci neuronowych — o niej TEŻ w Dialogach pisałem — zdawała się rokować poważniejsze nadzieje, nie utykające w praktycznie źle drożnej głębi logicznej (operacji iteracyjnych — nawet przy dowolnym ich przyspieszaniu aż do granic wyznaczonych prawami fizyki — kwantowej — i szybkością światła). Niestety, to jest droga bardzo „niewygodna” matematycznie i tym samym „wyboista” dla ewentualnych programistów (i konstruktorów hardware). 3 Szczęściem w nieszczęściu — powyższym — zdaje się to, że na razie nie mamy żadnych czekających wdrożenia „chipów” domózgowych, więc tym samym znajdujemy się z grubsza w sytuacji Leonarda da Vinci, który nam w swoim dziele pozostawił rysunki „helikopterów” z pionowo „wkręcającymi się” w atmosferę śrubami, lecz od tego konceptu do realnego śmigłowca droga okazała się bardzo długa! Co prawda COŚ z pomysłu Leonarda pozostało dla instruktorów i montażystów… ale nawet TEGO w odniesieniu do BRAINCHIPS nie potrafimy być teraz pewni. I tu mogę tylko na zakończenie wstępu rzec: na moim biurku leży popularny tom Rona White z 1993 roku How Computer Works (polska edycja: Jak pracuje komputer, PWN 1994 — przyp. red.) i cała rzecz w tym, że wiadomo nam dobrze JAK komputer działa, bośmy go sami zbudowali, więc przy odpowiednim treningu zdołamy go złożyć i rozłożyć, a ponadto, znalazłszy inny komputer albo „pośrednik” kompatybilności, zdołamy część lub nawet całość informacji hardware i software przemieścić bez uszczerbku — ewentualnie nawet razem z wirusami wyjściowego komputera — do drugiego egzemplarza. W tym sensie komputery są „nieśmiertelne”, „kopiowalne”; jedyności „personalnej”, „osobowościowej” NIE mają, a jak kto chce, niech orzeka, że tym samym tylko „wszystko wiedzą” (tj. zawierają na podorędziu ładunki informacji użytkowalnej), ale „nic nie rozumieją” z tego, co zawierają, (aczkolwiek są programy, poczynając jeszcze od „Elizy” Josepha Weizenbauma, udające nieźle rozmówcę ludzkiego). Tym samym wieu już, że w zasadzie test Turinga może zostać przez komputer o dostatecznej obliczeniowej mocy „złamany”, a ludzki rozmówca oszukany (gdy uzna, że rozmawia z człowiekiem), a przy tym jest to relatywizm DWUZAKRESOWY: zależy zarówno od sprawności komputera–programu — jak od inteligencji człowieka–rozmówcy. I jak w wyścigu programów szachowych w końcu brute force zwycięży i Kasparowa „nic nie rozumiejąc”, tak test Turinga będzie złamany. Z czego na dobre czy na złe dla interwencji chipów w mózg NIC niestety — na szczęście? — nie wynika. Wejście w mózg 1 Z jednej strony wiemy już o czynnościowej postaci naszego mózgu bardzo dużo, ale z drugiej bardzo mało. Naprawdę dość wiedzy posiądzie ten, kto — rozłożywszy komputer — w oparciu o znajomość teorii informacji oraz inżynierii informatycznej będzie umiał taki, albo podobny czynnościowo komputer, zbudować. Przynajmniej jako model, zdolny do funkcjonowania. Natomiast nie ma mowy o tym, aby najtęższy zespół neuroekspertów mógł pouczyć jakichkolwiek konstruktorów, żeby sporządzili model mózgu, np. tak że jeden podzespół skonstruuje z elementów przewodnikowych pień mózgu, inny podwzgórze (hypothalamus), następny thalamus (wzgórze), z kolei system limbiczny, aż na koniec dwa równoległe zespoły wybudują dwa zdolne do komunikacji w poziomie (przez pseudo–corpus callosum, wielkie spoidło) nadrzędne agregaty, jako dwie półkule wierzchnie mózgu, z ich wielowarstwową substancją szarą (korą starą i nową, paleo– et neocortex) oraz olbrzymią masą krótkich i długich połączeń międzyneuronowych. Co prawda, jeśliby się taki niewykonalny dzisiaj projekt dało nawet zrealizować, niechybnie powstałaby potrzeba dołączenia do tej budowli modelu ciała, ponieważ bez stałego dopływu i odpływu impulsów — do mózgu z cielesnego sensorium oraz z ciała do mózgu — otrzymalibyśmy twór kaleki. Ale to i tak dziś utopia: w tym sensie właśnie o mózgu wiemy niewiele. To mało, że dzięki mnóstwu zabiegów poznaliśmy jego podstawowe czynności, ulokowane na rozmaitych „piętrach”. To zresztą jest wynikiem składankowej pracy ewolucji, która potrafi przysposabiać i dopasowywać w danym ciągu filogenetycznym nawpółpowstające struktury do nawpółpozostałych z epok minionych: ta wiedza jest dla informatycznej inżynierii inwazyjnej „cerebromatyków” wciąż niedostateczna. Rozrzut lokalizacyjny na różnych „piętrach” mózgowia stanowi, nie tylko w moich oczach, wynik tej typowo ewolucyjnej pracy milionoletniej, która robi co może przede wszystkim drobnymi krokami, a kiedy rozpędzi się jak w eksponencjalnym rzucie antropogenezy, zwieńczonym świadomością, staromózgowie, a raczej jego rozmaite podkłady, tworzą system przeciwstawnych regulatorów, system wielokonfliktowy, utrzymywany w zawiłym balansie, równoważny z taką (daną mu antagonizmami międzyśrodkowymi) chwiejnością, że żaden inny gatunek poza człowiekiem nie jest na patologiczne odchylenia pracy układu nerwowego narażony w równym stopniu! Napraszałoby się więc z tego już powodu wdrażanie interwencji równoważących, lecz nawet jeśli poniechamy sprzeciwy rodem z etyki, ryzyko efektów musi pozostać ogromne. Mamy nadmiar sprzecznych wzajem hipotez o tym, jak mózg działa, co to jest świadomość, czemu służy sen, czemu selekcja naturalna na rozumność zdaje się tak słabo działać (pewien wielki polski artysta mówił, że intelektualnie bliżej od chłopa do krowy, niż od chłopa do niego: jest to złośliwa przesada, ale problem rozrzutu dystrybucji inteligencji pozostaje, tak jak wszystkie problemy, z jakimi borykają się psychiatrzy, psychologowie i neurologowie: a to profesjonalne rozbicie ODZWIERCIEDLA ignorancję w sprawach mózgu TAKŻE). 2 Ja wiem, że mówię to, co każdy specjalista — od wiejskiego lekarza poczynając — uzna za alfabet ze szkoły powszechnej, ale warto uprzytomnić sobie, ile może wskórać genialny buszmen, kiedy weźmie się ALBO do naprawy auta zdefektowanego, ALBO do „perfekcjonowania” auta całkowicie sprawnego. Jak zaznaczyłem, etycznymi aspektami dylematu nie chcę się zajmować, to byłaby sprawa dla prawników. Chodzi tylko o to, ażeby odpowiedzieć na kilka prostych pytań, jakie wymienię: 1. PO CO mamy nacinać mózg (wszak mają powstać Schnittstellen i to na dobitkę unsaubere, „nieczyste”), mam nadzieję, że nie w sensie użycia zamiast skalpeli i elektrod — skrobaczki kuchennej do ziemniaków? 2. JAK — GDZIE — mamy dokonać tej inwazji w obręb żywego mózgu? O to, KTO operatorów do tego upoważni, nie pytam; sprawy na żadne wokandy nie wnoszę; lobo — resp. lobektomię praktykowano lata temu, niemniej brutalne było wszak i dziś praktykowanie u epileptyków (jacksonowskich, ale nie wyłącznie) kallotomii, tj. rozcinanie wielkiego spoidła (Corpus callosum), łączącego obie półkule. 3. CZEGO możemy się spodziewać (jaką nadzieję żywić potrafimy) przy ewentualnym podłączeniu nie wiadomo JAK skonstruowanych chips do mózgu? 4. Czy powstawać może coś na kształt NAPRAWY, tj. zastępstwa „maszynowego” funkcji (syndromów) podległych awariom (na skutek tumorów, ran, ubytków, niedomogi spowodowanej dziedzicznie jak zespół Wilsona albo Downa powiedzmy, jak kretynizm itp.). 5. Czy wydaje się możliwe odtworzenie przewodnictwa w obszarze rdzenia kręgowego (post ąuadriplegiam dajmy na to)? 6. Czy — choć to już TU nie należy do rzeczy — możliwe byłoby jakoweś odbudowanie potencji REGENERACYJNEJ? (myślę, powiem od razu, że jeżeli TAK, to albo na drodze technik genowych, albo — wobec ustroju urodzonego, a nawet dojrzałego — biochemiczną interwencją). 7. Czy nanotechnologia może mieć TU swój udział PO STRONIE „maszynowej”? (Chirurgia mózgu już ma podobny udział w postaci „robotów”). 8. Podsumowując: CZEGO MY POD AUSPICJAMI NAZWY SYMPOZJUM W OGÓLE CHCEMY? (Aby nie znaleźć się w koleinie, wyżłobionej przez dra Mengele). 3 Ponieważ dygresja MOŻE zostać uznana w tak labiryntowym temacie za dopuszczalną: Uważam dowód Goedla (o niezupełności bogatych systemów formalnych) za stałą kosmiczną, mniej więcej tak, jak ładunek elektronu. Dlatego wszelkie „bogate” przekazy informacji – językowej — są wsparte na „mętnej logice semantycznej”, (tj. żaden język nie może być sformalizowany bezkontekstowo tak ostro, jak każdy język programowania komputerów). Ta fuzzy logic powoduje powstanie fuzzy sets znaczeń, uwarunkowanych kontekstowo i konsytuacyjnie, oraz konotacyjnie uwikłanych. Dokładniej o tym w: N. Nalimow, Probabilistyczny model języka, przeł. I. Kustrzeba, PWN, Warszawa 1976. Pierwociny języka, jak przypuszczam, dopracowując się semantycznej składni i różnowarstwowych zakresów desygnacyjnych, były „ciągnikami” rozwoju mózgu w jego rozwoju, gdy w ewolucji dotarł do poziomu mózgu wielkich antropoidów (dowód na to mógłby powstać dzięki (n–tej) generacji komputerów, zdolnej już symulować ewolucyjny przebieg gatunku, w którym dochodzi do ONTOGENETYCZNIE kształtowanych neuronowych nośników czynnościowych języka. Rzecz w tym, że język etniczny jest tylko „powierzchniowym” przekaźnikiem wielowykładalnej (w sensach) informacji, ponieważ pod jego „powierzchnią” zachodzą przebiegi języka „wewnętrznego” (myślanego w milczeniu), jeszcze „uświadamianego”, a „głębiej” zachodzą procesy już pozaświadome, ale też językowi służące, jak np. zespoły pogotowia werbalnego, zespoły motywacyjne, zespoły teleologii, tj. celowania mową w sensy upatrzone jako nadrzędne itp. Jednym słowem język, jakim posługujemy się, to ledwie wierzchołek góry lodowej służących mu procesów, a ponieważ powstawał sukcesywnie, dzięki takim mutacjom, które dalsze postępy UDROŻNIAŁY, czyli umożliwiały w życiu płodowym, w toku dorastania i dojrzewania, tą drogą wzwyż dochodzi do rozbłysku świadomości. Ona nie może być „tylko językowa” — jest zawsze bogatsza od mowy, ale wokół nie narosła — przynajmniej u człowieka. Otóż do budowy mózgu ma się to tak, że postępy w sprawności wewnątrz– i zewnątrzjęzykowej były decydująco uzależnione: A) od typowej — krokowej — taktyki ewolucyjnej B) od tej głębi logicznej przekształceń embrionalnych w produkt finalny (ciało z mózgiem), która to taktyka JESZCZE potrafi wykorzystać (udźwignąć od poczęcia do porodu) cały potencjał genomowego planu budowlanego organizmu. Ta droga antropogenezy NIE była optymalnie prosta, lecz raczej „slalomowa” i dlatego mózg jest siedzibą niedostatecznie koordynowanych napędów i hamowań; tylko nam, ignorantom, mózg wydaje się urządzeniem znakomitym! Zastój (a nawet regres masy mózgowej w ostatnim okresie holocenu) upatruję w tym, że doszło do ugrzęźnięcia ciągów kolejnych przekształceń — (od jajowej komórki, jedności, po 10 bilionów komórek organizmu) — w nieuchronnie narastającym zbiorze błędów. Ilość kolejnych sterujących budową płodową przekształceń NIE może być dowolnie wielka, bo orzeczenie von Neumanna („układ pewny z niepewnych elementów”) jest jedynie idealizującą aproksymacją stanu realnego. Układ nie jest do końca pewny; ilość kroków nie może być dowolnie wielka także przez to, że mózg nasz powstawał poprzez rozrosty nowszych neurotworów na pokładach neurotworów gatunków pradawnych. TYM SAMYM JUŻ nie prezentuje ani konstrukcyjnego OPTIMUM, ani konstrukcyjnej OSZCZĘDNOŚCI: jest redundantny także samozagrażalnie! 4 Mózg tak jest przystosowany, byśmy mogli przeżywać w niszach t ekologicznych sprzed miliona lat — toteż nie ma co się gniewać na to, że zbudowana przez takie mózgi cywilizacja ich nosicielom JUŻ ZAGRAŻA. Raczej dziwne jest, że mógł tak długo wytrzymać konkurencję z własnymi technotworami i fantazmatami — mity, wiary, przesądy etc. — i jest dziwne, żeśmy akurat przyszli na świat, gdy ten maraton zmierza ku niewiadomemu finiszowi. W ewolucji antropogenetycznej widać też nieźle składową statystyczną. Części organizmu są raczej źle wymienne (por. kłopoty przy transplantacji organów), a o kłopotach przy ewentualnej transplantacji fragmentów mózgu na razie (poza parkinsonizmem) ani myśleć. Natomiast w ludzkich technologiach króluje wymienność prawie doskonała części wszystkich technoagregatów. Ewolucja operuje po prostu bardziej rozrzutną strategią, hamowaną przez nieuchronną powolność zmian adaptacyjnych, I TO MUSI stać się jednym z kłopotów przy wdrażaniu BRAIN CHIPS. Mianowicie: co by „pasowało” do jednego mózgu, może zawieść przy każdym innym (medycyna z farmakologią o indywidualnych odmianach działania tożsamych leków i zabiegów już dobrze wiedzą). Tak zatem mózg jest i zbudowany z nietożsamych u różnych ludzi zespołów (funkcjonalny schemat Mercedesa jest tożsamy ze schematem Fiata, ale „to nie to samo”), i zespoły takie, częściowo współpracując, częściowo natomiast ze sobą kolidując, dają moc efektów: od patologicznych do „genializujących” (notabene tak zwani geniusze często wykazują „poboczne” objawy patologii: np. dysleksję). Zmiany działania mózgu może człowiek SAM dostrzegać, może też ich nie zauważać (nie tylko w psychiatrii i w toku starzenia się). A więc instrumentalne ingerencje w mózg mogą zachodzić poza uświadamialną wiedzą tak operowanych, jak operujących. Tereny dyskoordynacji umysłu są różne i liczne — np. używkami i narkotykami oprócz skaz dziedzicznych i urazów. Ubytki masy mózgowej są dzięki „plastyczności mózgu” częściowo podległe restytucji i/albo rehabilitacyjnemu pokonaniu. Lecz są ubytki nieogniskowe, których skutki trudno rozpoznawać. (Odcinanie płatów czołowych, już zarzucone, uchodziło jednak za rodzaj „terapii”). Bywa i tak, że wypadanie jednych zespołów mózgowych „uwalnia”, podwyższa sprawność, innych (por. genialnych rachmistrzów–debilów, objawy patologiczne fenomenalnej pamięci ejdetycznej, objawy rozszczepienne, uznawane ongiś za „dowody na rzecz spirytyzmu” i demonologii). Mózg JEST terenem prac wielokolizyjnych, nadmiar koncentracji na zadaniu może utrudniać rozwiązanie podobnie jak niedostatek. To wszystko wskazuje, że uniwersalnej technologii dla BRAIN CHIPS raczej NIE będzie. A przecież hasłem naczelnym w doktrynie Hipokratesa wciąż winno być primum non nocere… Brain chips II 1 Polem działania ma być zatem mózg. Należy więc rozpatrzyć pierwej to pole, nie pod kątem jego własnych tylko (autonomicznych, danych ewolucją) funkcji, lecz z perspektywy wtargnięć w mózg pozaorganicznych. Potrzebne będą wprowadzające w rzecz precyzacje. A mianowicie: dopóki nie powstaną bio–chips, zdolne się czynnościowo zrównać z zespołami żywych neuronów, a zatem mogące zastępować neurony (wraz z ich łącznościowym okolem) uszkodzone lub zniszczone, będą istniały takie obszary mózgu, których naruszyć nie można i nie wolno. Na przykład kora wzrokowa (w szczelinie ostrogi, fissura calcarina). Co prawda już tutaj natykamy się na kłopot, z którym musimy zderzać się niemalże w każdej okolicy mózgu. Oto człowiek ze zniszczoną korą wzrokową w jednym, ważniejszym sensie jest ślepy całkowicie, tj. nic nie widzi, a w innym jednak ,jakoś” widzi: skoro potrafi wymijać przeszkody lub chwycić rzuconą w jego stronę piłkę. Wynika to po prostu z wielowarstwowej budowy mózgu: bodźce do najwyższych ośrodków projekcyjnych nie docierające, docierają do najniższych, uczestniczących wprawdzie w uświadamianym widzeniu, ale samoistnie „widzącej świadomości” nie tworzących. Z tego kłopotu wpadamy od razu w następny, ponieważ normalne widzenie nie jest na najwyższym korowym poziomie funkcją samej szczeliny ostrogi: musi w nim uczestniczyć okolica brzeżna obu półkul mózgu, w przeciwnym razie człowiek „widzi” tylko chaos barwnych plam i nierozróżnialnych kształtów. A zatem całość obu stref żadną technogenną protezą („chipem”) nie może być zastąpiona. Mogłaby bowiem powstać przy najdoskonalszej próbie paradoksalna sytuacja: sztuczne neurony zdołają wprawdzie naśladować wyładowania elektryczne autentycznych (po ich podłączeniu do neuronowych przewodników, „aksonów”, po — założonym w eksperymencie — odtworzeniu całej aferentacji), ale ten, kogo tak oporządzimy, nic nie będzie widział. (Takie jest przynajmniej moje zdanie). 2 Podobnych regionów jest w mózgu więcej. Żyjemy w czasach, w których instrumentalne postępy z reguły wyprzedzają prawo stanowione (legislację). Powstaje vacuum iuris, a zarazem — nullum crimen sine legę. Niemniej legislacja musi nadążać za postępem, i tak np. było z prawem kosmicznym. Co do mózgu, reguła noli tangere będzie niechybnie obowiązywała w odniesieniu do tych jego części, których naruszenie (niekoniecznie aż poprzez podłączenie do „chipów”) będzie powodowało istotne zmiany osobowości. O paradoksach, powstających, niestety, STOPNIOWO w tej dziedzinie, pisałem min. w Summa Technologiae, gdzie pokazałem, jak zmiany osobowości przechodzić mogą w mord — gdy jedna osobowość „znika”, zastąpiona (choć w tym samym mózgu i w nienaruszonej nawet czaszce) przez inną, nowo utworzoną. 3 Naturalnie, w czasach, w których ludobójstwo staje się zjawiskiem i masowym, i banalnym, w których „telekracje” przyzwyczają nas i do niego, i do bezsilności wszelkich prób ratunku, powyższe zasady, reguły prawa — wcale przestrzegane być NIE muszą… W jakimś totalitarnym państwie „przyrządzanie” obywateli do standaryzowanego typu osobowości może nawet być przez władzę zezwolone i zarządzone. Jednakowoż kontynuacja takiej „socjologii makabrycznej” nie leży w moich dalszych zamiarach: powiedziane ma jedynie wskazywać, na jak zaminowane tereny wkraczamy nawet z najzacniejszymi intencjami, gdy wkraczamy instrumentalnie w mózg. Istnieje co prawda osłabiające nasz impet aktywności uboczne wyjście: najprawdopodobniej ono zostanie wykorzystane. Brain chips będzie wszak można użyć dla badania ich efektów i sprawności na wyższych ssakach, najpierw na małpach. Tu przychodzą na myśl rezus i szympans. (O badaczach, których przeciwnicy takiej wiwisekcyjnej drogi pozabijają, przemilczę). — O tym, czy „cyborgizowany częściowo” szympans widzi — można się przekonać wedle jego zachowania, o tym jednak, co on przeżywa, co czuje, niewiele się od niego dowiemy. Aby zaś operacje z użyciem bio–chips lepiej się powiodły, tj. aby do odrzucenia biotransplantów nie doszło, można użyć jako zwierząt podległych operacjom egzemplarzy transgenicznych. Prawdopodobnie już rychło powstaną tak podchowane transgenicznie świnie, które dzięki wszczepieniu im genów człowieka nie tylko na kiełbasy się nadadzą, ale i na dostarczycielki serc dla ludzi. Więc koncept transgeniczności dla operacji mózgowych ma już wstępnie podległy precedens. 4 Wszystkich regionów mózgu, w jakich obręb wstęp zostanie zakazany przez ustawodawców w jako tako cywilizowanych krajach, nie wymienię, choć jest ich wiele, zapewne więcej nawet może, niż umiałbym wyliczyć. Post factum, po pojawieniu się uszkodzeń nienaprawialnych, prawo będzie się musiało uporać z ich konsekwencjami; ten tor prognostyki do mego zadania jednak nie należy. Trzeba lojalnie dodać, że kiedy zadaje się masowo śmierć i wykonuje „operacje na mózgu” kulami, granatami i mnóstwem innych środków bojowych na wojnie albo przy „niewojennym ludobójstwie”, nikt się z prawodawców efektywnie nie troszczy o wprowadzanie spraw takich na wokandę, a więc nie wiadomo, czy drogą jakiejś komputero– kratycznej tyranii nie wejdzie w końcu ludzkość na drogi opatrzone przeze mnie zakazem wkraczania. Oczywiście, intencje aktywistów interwencji technogennych w mózg mogą też wynikać ze złotej zacności. 5 Powiedziane było jednak tylko wprowadzeniem w sam temat z innej niż uprzednio strony. Sporządźmy z kolei schemat, który ma uwidocznić z grubsza całość zadań. Do mózgu prowadzą drogi aferentne i wybiegają zeń eferentne. Są to drogi zmysłów (nerwów mózgowych — jak optyczny, słuchowy itd.), drogi wiodące rdzeniem kręgowym do całego ciała — ale nie ma żadnych naturalnie utworzonych „wejść bocznych”, wiodących do mózgu wprost. Zapewne dlatego widnieją w nazwie sympozjum słowa „nieczyste cięcia”, unsaubere Schnittstellen. Tak mi się przynajmniej wydaje. Ja bym je nazwał raczej włamaniami (Einbrüche). Wtargnięcia, niezbędne dla utworzenia pozanaturalnej interface wprost w mózgu, zdają się zakładać jako konieczność trepanację czaszki. Może uda się zabiegi chirurgiczne o podobnej brutalności obejść, jeżeli będzie można (dzięki nanotechnologii) używać radykalnie zminiaturyzowanych, cieńszych od włosa, powiedzmy, lecz odpowiednio gibkich i sprężystych niby–sond i wprowadzać je od strony podpotylicznej w okolicy foramen occipitale magnum, czyli po prostu owego wielkiego otworu czaszki, przez który wydostaje się z niej rdzeń kręgowy (anatomiczną precyzację pomijam). Tak więc, w sumie mamy dwa rodzaje dróg domózgowych w stanie naturalnym — zmysłową, łączącą informacyjnie z otoczeniem, oraz rdzeniową, łączącą ze światem zarówno informacyjnie jak motorycznie (efektorycznie). Drogę trzecią, sztuczną, torować ma technologia informacyjnie natchniona w postaci BRAIN CHIPS. 6 O protetyzacji peryferii zmysłów nie będę nic mówił, bo to nie należy do rzeczy, chociaż są zmysły (wzroku np.), które anatomicznie można traktować jako części mózgu (siatkówka). Wszak implanty słuchowe zastępujące zniszczone ucho środkowe, a nawet wewnętrzne, już istnieją, to zaś, co już istnieje, zajmować nas nie powinno. Natomiast czas najwyższy zająć się stroną pozamózgową protez informatycznych: pierwsze pytanie, jakie należy postawić, brzmi tak oto: czy lepiej posłużą nam chipy cyfrowe (digitalne) czy raczej analogowe? Czy sprawniejsze będą typowe procesory istniejącej (w rozwoju) generacji komputerów już wdrożonych milionami w cywilizację, czy raczej procesory o architektonice SIECI NEURONOWYCH? Sieci neuronowe, pomyślane jeszcze przez badaczy lat pięćdziesiątych, jak McCulloch i wielu innych, zostały poniechane, ponieważ prototypy (Perceptron Rosenblatta, powiedzmy) rozczarowały jako potencjalna zaródź doskonalszych sieci, lecz okazuje się, co sobie zresztą myślałem i o czym pisałem przed czterdziestu laty: ich prospektywny potencjał jeszcze pokaże swoją prawdziwie świetną wydajność. To nie tylko z typowej dla niej „ciasnoty” warunków brzegowych działania ewolucja naturalna tą, sieci, drogą właśnie ruszyła. 7 Powiadają, ze intelektualna praca mózgu odbywa się przede wszystkim w korze. Nie jestem tego pewny, ale dajmy na to, że tak jest. Kora zawiera co najmniej 1010 komórek nerwowych i l012 glejowych. Do czego służą glejowe, dotychczas — poza hipotezami — nie wiadomo na pewno. Prawdopodobnie nie ograniczają się do pełnienia czysto podporowych funkcji typu tkanki łącznej. Trudno by raczej przyszło zgodzić się z ewentualnością, że są po to, aby i w mózgu powstawać mogły nowotwory, a to ponieważ komórki glejowe mogą się rozmnażać, co stanowi predyspozycję powstawania tumorów, natomiast komórki nerwowe nie rozmnażają się (nie dzielą się) w toku życia osobniczego. Mózg ludzki statystycznie nie zawiera więcej niż 1,4 razy więcej komórek od mózgu szympansa: a jedynie ilość białych włókien (czyli sieć połączeń) jest daleko silniej u człowieka rozwinięta i przez to głównie mózg nasz jest znacznie od małpiego większy. Szybkość pracy mózgu można uważać za 10 operacji razy 1010 synaps na sekundę, ponieważ każdy neuron może mieć setki i setki połączeń z innymi. Najszybszy w roku 1993 komputer wykonywał 1010 operacji na sekundę. A zatem jednak mimo wszystko konstrukcje sieciowe czeka znakomita przyszłość, ponieważ są paralelne. Niełatwo wyliczyć wszystkie już doświadczone zastosowania sieci neuronowych. Spektrum zastosowań sięga od giełdowych prognoz i medycznych badań po zastosowania w biologii i one zdają się najbardziej kompatybilne z pracą mózgu. 8 Tu jednak przychodzi (niestety) wygłosić kolejne ostrzeżenie. Mianowicie dla „myślenia inżynieryjnego” ludzi mózg człowieka zbudowany jest „antyinżynieryjnie”. Nie budujemy domów, w których każda z osobna wzięta cegła zawiera plan CAŁEJ BUDOWLI, a tak jest właśnie zbudowany KAŻDY wielokomórkowy organizm. Zabezpieczenia udźwigu i wytrzymałości konstrukcji poddanych naciskom i zjawiskom rezonansowym są wprawdzie stosowane — redundancja jest w całej inżynieryjnej sferze niezbędna, jako rezerwy mocy, sprawności itd. — ale nie tak, jak w mózgu. Zdumiewające są wyniki badań nad lateralizacją działania obu wielkich półkul. Już nawet nie poświęcę uwagi hipotezom, wedle których lewa półkula pracuje „raczej szeregowo”, a prawa „raczej równolegle”, bo to są raczej ogólnikową mętnością swoją uwodzące w błąd pomysły. Na myśli mam zaskakującą ZNIKOMOŚĆ skutków, wywieranych na normalne zachowanie operowanego, któremu przecięto (mniejsza o to, dla jakich chorobowych powodów) wielkie spoidło, tj. ok. dwustu milionów białych przewodników neuronowych. Tylko specjalne badania mogą wykryć powstałe objawy wypadowe! To zdaje się skrzepiać aktywność neurochirurgów, mających leczyć operacjami takiej skali, ale to też winno dać sporo do myślenia projektantom brain chips. Może się stać mianowicie tak, że mózg zoperowany, z podłączoną doń protezą digitalną albo analogową, po jakimś czasie zacznie pełnić typowy normalny nadzór i typowe sterowanie procesami behawioru, a jak przy tym wykluczyć, że on by sobie dał tak samo dobrze radę i bez wetknięcia weń komputerowej protezy? Może ta proteza akurat tyle potrafiła wskórać, albo i mniej, aniżeli ów drąg żelazny, który w wypadku znanej w literaturze osoby (z ubiegłego wieku) przebił orbitę oka, przebił czaszkę, zniszczył zwoje sub— i supraorbitalne, a ten człowiek, choć ofiara równie przeraźliwego urazu, prawda, że ze zmienionym usposobieniem, okazał się właściwie dość normalny. Jeżeli wbite weń żelazne drągi mózg może „wytrzymać”, to czego mamy oczekiwać po mikroskopijnych artefaktach, podłączonych jakoby do sieci neuronowych mózgu? W strefach projekcyjnych wzroku, więc pewno też słuchu, węchu itp., nie należy raczej nic robić, jak się już orzekło. A więc dlatego GDZIE można by chipy wprowadzać, ażeby cokolwiek zyskać, lecz ani utracić, ani nie zdobyć efektów POZORNYCH? Przecież EEG nie powie nam wiele! Przecież wiadomo, że można się sporo rzeczy dowiedzieć z elektroencefalogramu epileptyka, ale EEG nie da nam wskazówek w diagnozie umysłowo chorego schizofrenika lub paranoika. Przecież, co jeszcze gorsze, EEG normalnych ludzi „ociężałych fizjologicznie”, tj. z IQ około 80–90, nie różni się zasadniczo od EEG mózgu najlepszych matematyków. Ogólnie mówiąc, zawodowo kreacyjnej wydajności człowieka ani z EEG, ani z PET, ani z badań tomograficznych magnetycznych spinów nie wyczytamy. Różnice są, naturalnie, ale dla nas wciąż jeszcze nieczytelne! W takiej sytuacji nadzieja, że chip dla mózgu to nie będzie PLACEBO, może okazać się fatamorganą. 9 W tym już miejscu przychodzi czas na moje usprawiedliwienia. Kiedy Bacon starszy mówił, że pojawią się machiny chodzące po dnie mórz, po ziemi, latające — 400 lat temu — o tym, JAK one będą w sensie technicznym budowane, nie rzekł ni słowa i miał rozsądną słuszność, że się na ogólniku w przepowiedni zatrzymał, a przepowiednia się nam ziściła. Więc siparva licet componere magnis, kiedy pisałem w latach pięćdziesiątych i sześćdziesiątych o paradoksach duplikacji człowieka, o relatywizacji pojęcia osobowości itp., także nie zajmowałem się techniczną i medyczną stroną rzeczy, lecz frapowały mnie konsekwencje natury ontologicznej raczej: coś w rodzaju filozofii stosowanej przyszłości, a nie prognozy czysto techniczne. Dlatego nie widzę jawnej sprzeczności między starymi moimi roztrząsaniami a sytuacją obecną, ponieważ o locie na Księżyc można było mówić jeszcze w epoce balonów, chociaż żadnym balonem na Księżyc nikt nie doleci, a myśmy jednak się tam pojawili… A poza tym, na drodze w mózg trzeciej, wtargnięć, włamań, dostrzegam kolej na alternatywę. Można mianowicie kształtować częściowo, a nawet całościowo mózg, pod żadne paragrafy jakichkolwiek kodeksów prawa stanowionego ani na włos nie podpadając, i można to uczynić z kolosalnym ryzykiem w indywidualnych przypadkach: A) Bez żadnego ryzyka robi się to, kopulując i poczynając dziecko. Mikser genowy, uruchomiony przy każdym poczęciu, daje efekt w postaci płodu, a potem noworodka, dość silnie zdeterminowanego rezultatami „gry łączących się w jedność genów”. Te „rzuty” kolejne dają prawie nieprzewidywalne rezultaty jako ludzi, ponieważ okazuje się, że geny jakiegoś krewnego linii bocznej, pradziadka, babki, i tak dalej znienacka „wyrzucają” na świat jakiegoś Beethovena albo Einsteina. Mamy do czynienia z Monte Carlo, z genową ruletą, i najłatwiej jest dziś jeszcze wykrywać geny szkodliwe aż po letalne, natomiast „genów genialności” nikt nie wykryje, albowiem potencję tak prospektywną prawdopodobnie przynosi cały genom, a przynajmniej bezlik nukleotydów z ich stu miliardów pracujących w toku embriogenezy, a potem pod wpływem środowiska (bo z Einsteina urodzonego w paleolicie ludzkość nie zyskałaby wiele pożytku). My jednak, powoli tworząc w ramach Human Genome Project mapę naszego genomu, znajdziemy się na bardzo niebezpiecznym progu selekcjonowania genów i tym samym, tu muszę posłużyć się bardzo krótkim zwarciem dalszych kroków, dojdziemy szansy PROJEKTOWANIA mózgu bez potrzeby inwazji operacyjnej jakichkolwiek chipów. Osobiście optuję na rzecz tej drogi, jako mimo wszystko mniej groźnej od „włamań w mózg”, albowiem dla inwazyjnych zabiegów przesłanką nieodzowną wydaje mi się budowa modelu mózgu. B) Budowa modelu mózgu jako układu ukształtowanego z elementów zasadniczo martwych, więc z pseudoneuronów, pseudoglejowych komórek jest dzisiaj niemożliwa, ale dzisiaj nie jest też możliwe wyhamowanie natahstycznej prężności mas ludzkich wziewnymi związkami chemicznymi. Myślę, że tak jedno, jak drugie, stanie się możliwe w przyszłości, oraz że te wielkie sukcesy przyniosą nam, jak to zawsze bywało w historii, bodajże tyle samo zysków tryumfalnych, ile nie znanych jeszcze, nader kłopotliwych, a nawet groźnych dylematów. O czym trzeba rzec słów kilka, ponieważ „wypróbowanie” efektywności brain chips na MODELU mózgu nie jest tak samo bezproblemowe, jak wypróbowanie ratowniczej konstrukcji samochodu przez zdruzgotanie go w pędzie o twardą przeszkodę. Dlaczego to nie jest ani to samo, ani problem nie ma posmaku pozaetycznego i pozaprawnego przy założonej technogenności „pseudomózgu”, wyjawić może nieuługi namysł. C) Technologia brain–chips będzie miała niechybnie zarówno zwolenników, jak przeciwników. Środki, jakich ci ostatni będą się imali, by W zarodku tę technologię zastopować, okażą się nie tyle zależne od sprawności „bojowej” albo „perswazyjnej” (ataku i obrony), ile po prostu od powstałych w toku doświadczeń szkód i sukcesów. Przenoszenie (oparte na nadziei homologii) efektów uzyskanych ze zwierząt na człowieka będzie znacznym ryzykiem i wstępne powstanie uszkodzeń może programy w trakcie ich wdrażania zastopować. Ponieważ zaś takie modele niebiologiczne mózgu, jakie zapewne da się skonstruować w ciągu najbliższych dekad, będą siłą rzeczy dość znacznymi (albo i bardzo znacznymi) uproszczeniami budowy realnego mózgu, otworzy się pole sporów i utarczek nie tylko słownych. Okoliczności, jakie można by przywołać na rzecz brain chips, te np., które towarzyszyły i umożliwiały pierwsze transplantacje SERCA u ludzi, były wyjątkowe, ponieważ przeszczepiano serce człowiekowi niemal in articulo mortis: rokowanie było przecież praktycznie beznadziejne quoad vitam — TYLKO transplantacja mogła uratować, a wiadomo też, JAK skończyły się wszystkie próby zastąpienia serca biologicznego artefaktem mechanicznym! NA TAKIE fakty będą się powoływali przeciwnicy zabiegu, tworzący m.in. lobbies (grupy nacisku) w rządach i parlamentach, a tego nie można zlekceważyć. Prace, kontynuowane pod zawisłym mieczem Damoklesowym penalizacji, nie mogą się toczyć w korzystnych dla sukcesu warunkach. Uważałbym za rzecz niepoważną wymyślanie na papierze możliwych brain chips, możliwych interfaces, możliwych aproksymacji kompatybilności artefaktów procesorowych z określonymi podzespołami mózgu, dopóki nie będzie można pozyskać choćby części opinii publicznej, polityków, ustawodawców dla tego przełomowego w dziejach homo sapiens procederu! To nie jest przecież domena fantazji czy fantastyki! Można by replikować, że przecież podczas medycznie wskazanych operacji na otwartym mózgu ludzkim były dokonywane eksperymenty (drażnienia np.), ale wykroczenie poza te względnie skromne próby w kierunku brain chips to przejście od operacji ratujących życie do operacji wyzbytych rzetelnego usprawiedliwienia. Jeżeliby zaś miało się porównywać stosowanie protezopodobnych brain chips u poszkodowanych z wypadowymi funkcjami i nie podległych rehabilitacji klinicznie stosowanej (mam na myśli prace neurologów w rodzaju Lurii), to sukces z góry nie może być ani gwarantowany, ani jako prawdopodobny nazwany. Nie sprawność techniczna, lecz sytuacja w OKOLU takich zabiegów zadecyduje o ich wdrożeniu w życie i ich rozmiarach funkcjonalnych. Brain chips III 1 Wedle moich przekonań, sprawa BRAIN CHIPS stanowi jedną, i do tego podrzędną odnogę działań, które ogarnia następujący schemat: Podług powyższego schematu, oddziaływania możliwe na mózg ludzki albo go „łudzą”, albo nim współsterują, albo go rzeczywiście przekształcają. BRAIN CHIPS mogą wedle takiej taksonomii podlegać nietożsamym sferom oddziaływań, w zależności od ich umiejscowienia oraz charakterystyk działania. Mózg ponadto można w jego WŁASNEJ strukturze przekształcać albo A) operacjami dokonywanymi na genomie post conceptionem, B) na embrionie w toku rozwoju płodowego (wewnątrzmacicznie) C) na mózgu noworodka i/albo organizmu dorastającego. Oddziaływania typu fantomatyki obwodowej są zasadniczo ODWRACALNE (dość odłączyć „fantomatyzator” od zmysłów). Oddziaływania fantomatyki centralnej (instrumentalne lub chemiczne na mózg) mogą być także nieodwracalne w skutkach. Oddziaływania cyborgizacyjne (cerebromatyka) muszą być zasadniczo nieodwracalne, albowiem tak samo jak naturalna ewolucja odwracane być nie mogą. Zmianom w rosnącym stopniu ulega nie tylko mózg, ale i genom, sterujący TAKŻE jego ukształtowaniem. Im wcześniej zachodzi w ontogenezie interwencja, tym większa możliwość reorganizacji dogłębnej mózgu. Dziecko po zniszczeniu lewej półkuli może dojść wysokiego stopnia rehabilitacji: mową posteruje pozostała prawa półkula. U dorosłego przejście, także za pomocą BRAIN CHIPS, ku analogicznej rekompensacji wydaje się bardziej nieprawdopodobne. Rzecz biorąc czysto teoretycznie, nie widać żadnego „zakazu czynnościowego”, który by uniemożliwiał mnogą implantację większej ilości CHIPÓW niż jeden. Wstąpienie na tę drogę oznaczałoby już stopniowe zastępowanie mózgu naturalnego elektroniczną (resp. biotechniczną) protezą. Jakkolwiek bodaj o wieki jesteśmy od tej możliwości oddaleni, trudno uznać ją za analog podróżowania z dowolną szybkością nadświetlną lub wyprawy w przeszłość dla uśmiercenia krewnych linii wstępującej (ulubione tematy SF). Pozostaje jeszcze parę interesujących zagadnień, jakim poświęcę nieco uwagi. 2 W 1990 roku Rowman and Littlefield Publishers Inc. opublikowali pracę Nicholasa Reschera (przełożoną też na niemiecki) pt. Useful Inheritance. Euolutionary Aspects of the Theory of Knowledge. (Tytuł w niemieckiej wersji zdradza z treści więcej Warum sind wir nicht klüger?, tj. Czemu ewolucja nie ukształtowała nas mądrzejszymi?) Autor twierdzi, że przymieszka głupoty jest korzyścią ewolucyjną, ponieważ zbytnia mądrość nie potrzebuje tak bardzo socjalnych uwarunkowań i powiązań, jak mądrość ograniczona. Uważam stanowisko autora za jednocześnie słuszne i niesłuszne, ponieważ samo pojęcie mądrości, czy też (jak w oryginale) naszego poznawczego potencjału jest bardzo silnie rozmyte i może być nader rozmaicie wykładane. (Inteligencja to nie rozsądek, chytrość to nie rozum, mądrość to nie tylko sprawność w przeżywaniu oraz w aktywnym oddziaływaniu na środowisko życiowe). Więź socjalna była dla powstania języka artykułowanego, z jego semantyką, składnią, idiomatyką KONIECZNA. Lecz jednocześnie szeroki rozrzut ilorazów inteligencji sprzyja przy „dodatnim rezonansie socjalnym” postępom sprawności cywilizacyjnych (aż po samozagrażalność zbiorową wedle francuskiego porzekadła les extremes se touchent). Osobnej wykładni zatrzymania się ewolucji mózgu u człowieka na etapie (w holocenie) homo sapiens sapiens dostarczyć może ponadto narastające statystycznie, w korelacji z wzrostami mózgu, zagrożenie rozpadowe („nadmiar komplikacji” może powodować określone odchylenia od przeciętnej normy ZARÓWNO DODATNIE (aż po genialność i wynalazczość), jak UJEMNE (podległe psychiatrii i psychopatologii). Tak więc optimum selekcyjne zachodzi wtedy, gdy grupowo iloraz inteligencji (IQ) jest istotnie umiarkowanie wysoki, lecz jednostki z prawego schodzącego ramienia dzwonowej krzywej IQ Gaussa są TAKŻE zbiorowości potrzebne. (Osobniki z lewej gałęzi, schodzącej na podnormalność, zdają się być KOSZTEM STATYSTYCZNEJ DYSTRYBUCJI GENOMOWEJ i stanowić mogą BALAST ewolucyjnie „do zniesienia” — wedle powstałych grupowo NORM ponad– i pozabiologicznych: znaczy to, że albo się „skały tarpejskiej” używa albo — wedle obyczajowości lokalnie — NIE). Cała ta sprawa, której oczywiście szerzej tu ani referować, ani dyskutować nie mogę, jest o tyle do rzeczy, że warto zadać pytanie, czy drogą instrumentalną — operacyjnego implantowania w mózg BRAIN CHIPS — można się w ogóle spodziewać podwyższenia IQ, a bodajże nawet osobniczej „mądrości”. (Na ogół inteligencję uważa się za zbiór sprawności TRANSFERU tak uzdolnień nabytych, jak wyuczonych, BEZ nadzoru moralno–etycznego, natomiast „mądrość” może i powinna łączyć inteligencję z altruizmem normy nie tylko nawet gatunkowej, ale ponadto sprzyjającej życiu pozaczłowieczemu). 3 Skłonny jestem odpowiedzieć na postawione pytanie negatywnie, z pewnym zastrzeżeniem. Mianowicie wewnątrz nadzwyczajnej mnogości osobniczych (ludzkich) zróżnicowań umysłowych można wykrywać frakcję takich osobników, którzy jednocześnie dysponują określonymi uzdolnieniami nadprzeciętnymi ORAZ zahamowaniami natury lękowo– nerwicowej albo ponadto ujawniać typowe syndromy „równoczesnej, a nie współwykonywalnej liczby uzdolnień” (miał to wykrywać w USA Multiple Aptitude Test, ale nie jestem pewny, czy stanowił dobre sito dla należytego odsiewu takich ludzi). Tu też hamulcami mogą być niedostatki napędu, umiejscowione neurologicznie w płatach czołowych. Jest to naturalnie uproszczenie, ponieważ „napęd” mają też aktywni durnie. Na ogół spotyka się ich tam, gdzie mądrość wkroczyć NIE chce (np. w polityce). Trudno sobie jednak wyobrazić łatwe sprotezowanie mózgu zdolnego „indolenta” nerwicowego lub zbyt nieśmiałego albo depresyjnie hamowanego, likwidując te czynniki przeszkadzające — za pomocą nawet serii brain chips ponieważ już teza o tylko frontalno–czołowej lokalizacji napędów jest wysoce wątpliwa, wręcz nieprawdziwa: napędy, spokrewnione z popędami, mają charakter parametrów wypadkowych działania NIE TYLKO korowych ośrodków. (Oczywiście, banałem i to złośliwym byłoby przypisanie niedostatecznej mądrości i samemu autorowi nazwanej pracy). 4 Filogenetyczna genealogia człowieka, czyli antropogeneza, zaskakuje niezwykłą długością w czasie „periodu inkubacyjnego” rozumności: w całym przebiegu swoim krzywa antropogenetyczna przypomina krzywą logistyczną Verhulsta–Pearla z bardzo długim początkiem i bardzo gwałtowną eksponencjalnością wzrostów w czasie, zakończoną w holocenie „saturacją”, jako ustanowionym już badawczo tożsamym prawie ustatecznieniem średniej sprawności mózgowej dla WSZYSTKICH RAS ziemskich (możliwe są drobne odchylenia dystrybucji inteligencji, zwłaszcza u wyjątkowo długo w izolacji bytujących grup, ale o znacznym osłabieniu przeciętnych IQ nie ma mowy). 5 Początek człowiekowatych (hominoidea) odlicza się rozmaicie, można np. od przedmałpy, jako wspólnego przodka małp i człowieka (były dwie odmiany: homo sapiens neanderthalensis i my, homo sapiens sapiens): tym przodkiem wspólnym byłby np. prokonsul. (Są i inne hipotezy, lecz monofiletyczność bodaj już zwyciężyła — ale jak powiada się, prawda rzeczowa zwycięża wtedy, kiedy wymrą jej przeciwnicy). Otóż zastanawiało, że homo erectus, a zwłaszcza homo habilis, rozwijał się w sposób typowo ewolucyjny, czyli z etapu na etap przechodził w czasie dla ewolucji umiarkowanie biegnącej typowym. Natomiast potem człowiek, już biologicznie z nami tożsamy, nadzwyczaj długo ograniczał się do statycznego trwania w protokulturze oryniackiej czy aszelskiej: za czym nastąpił „skok” w człowieka biologicznie już całkiem współczesnego dopiero 40 000 lat temu, a świadectwem „skoku” być mają pierwsze odkryte artefakty, służące pierwocinom Sztuki Zdobniczej i Odtwarzającej, ale można przecież uznawać, że nie każda grupa praludzi zajmowała się (bytując w jaskiniach) malowaniem scen łowieckich i innych na ich skalnych ścianach. Protokulturowe twory mogły być nie w kamieniu i nie w trwałych kostnych elementach ryte czy rzeźbione. Tu w ogóle przejawia się typowa dla nas tendencja do MONOKAUZALIZMU, który działając redukcyjnie, ma nam za jednym zamachem jakieś „wszystko” wyjaśnić. Jak to z człowiekiem bywało i jak to pozostało, antytezą monokauzalizmu staje się rozkład przyczyn na empirycznie doświadczane lub ponadempirycznie powymyślane „stada przyczyn”. Widać to tak w historii wiar religijnych (od animizmu, czyli politeizmu „uziemianego” po monoteizm, który znów, jak niektórzy głoszą, wykazuje — w katolicyzmie np. — tendencję ąuasipoliteistyczną, ale w strukturach hierarchicznych z aniołami, archaniołami, szatanami, ze świętymi itd.) jak w historii nauki, w której powstawały jako mieszańce empirii i inwencji hipotezotwórczej różne flogistony, pola biogenetyczne, vis vitalis, promieniowania mitogenetyczne (Gurwitch) itp., usuwane na ogół na rzecz zjawisk wieloczynnikowych. Trudno właściwie uznać za całkowicie racjonalne modne dziś w fizyce poszukiwanie GUT, Wielkiej Unifikującej Teorii „wszystkiego”. W każdym razie pod względem czysto biologicznym już kilkaset tysięcy lat temu człowiek zdawał się posiadać mózg „gotowy” do wyuczenia się języka, toteż „drzewo lingwogenezy”, mające ponad 4000 gałęzi, powstawało zapewne w tym samym mniej więcej czasie. Dlaczego jednak instrumentalizacja kulturopochodna nie dokonała wraz z biologicznym rozwojem skoku, nie wiadomo. Tu zapewne kryją się przyczyny, dla których stanęliśmy w postępach neuralizacji. Nie jest mianowicie możliwe znacznie przewyższające typową średnią ewolucyjną powstawanie gatunkowych a zatem genotypowych RADIACJI. Powstawanie nowej odmiany gatunku, nowej w tym rozumieniu, że już niezdolnej do płodnego krzyżowania się z poprzednią, wymaga nawet przy maksymalizacji ewolucyjnego tempa zmian okresu dłuższego aniżeli 60, 80, a bodaj i 100 000 lat. To, zwłaszcza kiedy zachodzić mają zmiany o rozmiarach, powstałych pomiędzy skrajnymi reprezentantami naczelnych (Primates), więc też Hominidae a homo sapiens sapiens. Pozorna rozbieżność mych uwag z głównym tematem sympozjum „Akademii III Tysiąclecia” bierze się stąd, że pytanie o szansę włączania procesorów w mózg z grubsza przypominają pytanie o „najlepszy plaster na uraz cielesny”. W zależności bowiem od postaci urazu nie można lapidarnie nazwać Jedynego panaceum w postaci plasterka”. Mózg, będąc systemem zarazem zwartym jako w sobie zamkniętym i stratyfikacyjnie hierarchicznym, jako zespoleniem ewolucyjnych decyzji sprzed setek milionów lat (może i dawniej trzeba sięgać aniżeli aż po theropoda), bywał dotąd u człowieka poddawany zarówno lokalnemu drażnieniu słabym prądem elektrycznym, jak głębokim okaleczeniem przy operacji tumorów oraz przy epilepsji — bodaj najcięższemu zabiegowi kallotomii i okazywał poza uszkodzeniami ośrodków fokalizowanych mocno (centra Broca, Wernicke, kora w fissura calcarina i podobne) nad wyraz wielką plastyczność, która notabene jest jednym z dobitnych wyróżników nawet względnie prymitywnych (jak perceptron) sieci neuronowych! Niemniej, względy, o których się rozpisałem, wymagają w kolejności chronologicznej postępowania prowadzącego od doświadczeń na wyższych ssakach (małpach, szczególnie transgenicznych) poprzez próby wprowadzania w mózg w określonych miejscach takich sekwencji impulsów, jakie z tychże miejsc uprzednio przy innych stanach mózgowych zostały pobrane, czyli utrwalane zapisem co najmniej elektrycznym, a dalej przez rozwój sieci neuronowych, umożliwiających już niejakie porównania z poszczególnymi sprawnościami mózgowia, aż po pierwsze próbne podłączenia procesorów, zabezpieczających jakoś (sprzężeniami zwrotnymi?) mózg od nieodwracalnych uszkodzeń. Notabene uszkodzenia mogą mieć najrozmaitszy charakter, np. mogą stwarzać „fałszywą pamięć zajść, co nie zaszły”, a nawet mogą przyczyniać się do występujących (też bezingerencyjnie) osobowościowych, rozszczepiennych syndromów (którym i spirytyści zawdzięczali wiele „tajemniczych” objawów, np. z zakresu tak zwanego Zungenreden, zespołu Wilsona, równoczesnego prowadzenia rozmowy i pisania nie związanego z nią tekstu przez tę samą osobę–”medium” eta). Nie są to urazy bezistotne, tym bardziej więc należy się pracom nad brain chips powściągliwość, że na pytanie, jakie digitalne procesory lub ich wiązki nadają się już na brain chips”, odpowiedź brzmi, „ŻADNE z istniejących”. Podobnie brzmi też odpowiedź na pytanie, „czy wielowarstwowe autoasocjacyjne, zdolne do uczenia się neuronowe sieci na brain chips się nadają”. Żadne aktualnie — i do godnych prób droga wiedzie daleka. Ta droga stoi jednak otworem. Na zakończenie kilka spostrzeżeń, które dla eksperta będą raczej banałami: I. Pamięć jest holograficznie „rozsiana” po mózgu i próby jej ostrzejszego lokalizowania poza węchomózgowiem zawiodły, podobnie jak swego czasu burzliwie modne nadzieje na „ładowanie mózgu wiedzą” dzięki spożywaniu określonych substancji („zjedz profesora, to zostaniesz profesorem”). II. Prospektywna potencja rozumowa mózgu jest w zamkniętym, ale dość szerokim zakresie predeterminowana dziedzicznie; ulega od urodzenia poszerzaniu przez kontakty z innymi ludźmi, których nieobecność powoduje zamieranie potencjalnych tylko (jak językowa np.) sprawności. Podobnie jak selekcją hodowlaną można dotrzeć do wywiedzionych z danego gatunku homozygotów, tak i z mózgów danej grupy osobników o silnie zbliżonej budowie mózgu można wywieść optymalnie wykształconych i rozumnych; frakcja graniczna jednak ruszyć się z miejsca żadnymi BRAIN CHIPS — w moim mniemaniu — nie da; III. Rozmaitym odmianom pamięci, także, a może zwłaszcza asocjacyjnej, jako „przechowywacze” i jako systemy bodźcotwórcze mogą się one okazać przydatne. Czy mogłyby udrożnić „zatarte szlaki” wspominania, jako selektory i amplifikatory — Information retrieval — powiedzieć nie potrafię; IV. W lecznictwie neurologicznym mogą brain chips odegrać poważną rolę, w psychiatrycznym raczej mniejszą; trudno uznać, by ludzie z frakcji normalnych uśrednień gotowi byli poddawać się wszczepianiu procesorowych implantatów. V. Co się tyczy zaś samych procesorów jako brain chips, myślę, że powstanie bardzo wiele ich odmian, podzielonych na dwa zasadniczo różne zbiory: na taki, który będzie zasilany przez mózg, jakiemu „służy”, oraz przez opatrzone zasilającym źródłem zewnętrznym. Możliwe też jest powstanie interfaces, jako przekaźnikowo–przetwornikowych ogniw, które będą dostarczały pobranej z mózgu mniej lub bardziej nielokalnie informacji proceduralnej osobnym zespołom maszynowym (także komputerom). Stąd wiedzie już droga do POMIJANIA ciała jako zespołu efektorów wprost do urządzeń sterujących maszynami, innymi komputerami, innymi mózgami, wreszcie innymi ciałami i „pseudociałami”: dzięki tej rewolucyjnej ewolucji znajdziemy się wreszcie tam, gdzie i głupstwo, i występek mogą królować: w Science Fiction. BRAIN CHIPS IV ADDENDUM Niejako margines zagadnienia stanowić może zastosowanie sensorów i/albo procesorów lub neuroczytników jako narzędzi MONITOROWANIA już to funkcji tylko samego mózgu, już to całego organizmu (ALE POPRZEZ MÓZG). Monitorowanie organizmu, w jego podstawowych funkcjach, może zostać tak ograniczone legislacyjnie, by orientacja pobierana z monitora NIE mogła naruszać sfery intymnej prywatności monitorowanego. To znaczy, że nie tylko z kory, ale z pnia mózgu, ze śródmózgowia, systemu limbicznego, z wzgórza (thalamus) i podwzgórza sensory pobierałyby, np. igłowo albo metodą (nie istniejącą na razie) doglejowego podłączenia, informację o potokach neuroimpulsów, z kolei przekładanych (w sensie translacji) na aferentne i eferentne bodźce, jakimi mózgowie steruje ustrojem bezpośrednio lub w upośrednieniu przez system autonomiczny (można też naturalnie odbierać informację wprost od plexus solaris, od pewnych części rdzenia eta). Kody, jakimi mózgowie się posługuje, są jednak nie tylko umieszczane na nośnikach jonowo–elektrycznych, ale zarazem pracują analogowo przez wpływy hormonowe. Ogólniej mówiąc, znaczne ilości parametrów oraz zmiennych zależnych od stanów podukładów (organów) ciała (np. samo tylko monitorowanie składu, pH, KRWI) wymagałoby zapewne prowadzenia w sposób ciągły (jak na klinice) dzięki aparaturze także nadawczej, aby monitorowany nie był przykuty żadnymi przewodami do monitora, prezentującego wyniki już przełożone na kod, ekspertowym programom nadzoru niezbędny dla czuwania nad stanem organizmu czy tylko mózgu. (Można wtedy np. prognozować zbliżający się atak epileptyczny). O tym wszystkim jedynie wspominam, ponieważ szersze potraktowanie rzeczy obecną strategię medycyny, interwencyjno–losową, zamieniłoby na kontynuowaną bezustannie i zdalnie. Byłby to więc już nie przełom, dotyczący brain chips, ale metoda komputerowego– medycznego zastosowania zdalnej OPIEKI LEKARSKIEJ nad populacją (czy bardziej prawdopodobnie nad jej cząstką nie hospitalizowaną). Można by w razie potrzeby hospitalizować przy odbiorze diagnostycznie ważkich sygnałów. To wykracza mi jednak za temat. Nie chciałbym też zajmować się komparatystyką naszego tematu, brain chips, z wizją, widoczną w Brave New World A. Huxleya (czy innych literatów). Moc obliczeniowa życia 1 Wstępnie muszę powiedzieć, że nie jestem dostatecznie kompetentny dla choćby szkicowego ukazania „horyzontu ewolucji komputerów molekularnych”, które zdają się dziś stanowić niedobrze jeszcze rozpoznaną, ale fundamentalną bazę procesów ŻYCIA. Bieda tej mojej niekompetencji w pewnym stopniu ulega wszakże pomniejszeniu przez fakt, że na razie NIKT tak daleko nie jest w stanie ekstrapolować, czyli sięgnąć po owe majaczące nam tylko w oddali czasu molekuły, utworzone z typowych dla kodu dziedziczności nukleotydów, molekuły, powtórzę dla zwiększenia wyrazistości, stanowiące „naturalnie powstałe mikromaszyny Turinga”. 2 Pierwsze informacje o tym, że były sensowne moje mgławicowe intuicje, wskazujące na KOD genetyczny, jako na przyszłego uniwersalnego projektanta, a zarazem rachmistrza sterującego życiowymi procesami, znaleźć można w amerykańskim periodyku fachowym „Science” (tom 266 z 11 listopada 94 roku). Ksera artykułów, demonstrujących zawartą potencjalnie w łańcuszkach nukleotydowych moc obliczeniową, moc, która o bodajże dziesięć porządków przewyższa moc obliczeniową najnowocześniejszych komputerów (jakich używamy i jakie budujemy), pracujących szeregowo, przysłano mi z USA. Uczynił to życzliwy czytelnik, ponieważ dostrzegł, jak mi napisał, niejakie pokrewieństwo moich intuicji, zawartych w książeczce Wielkość urojona, a dotyczących właśnie potencjałów sprawczych kodu dziedzicznego, z pierwszymi wynikami prac, w których fragmenty kodu — oligonukleotydowe sekwencje, złożone z ok. 20 polimerów — okazały się zdolne praktycznie pokonać, tj. rozwiązać takie zadanie z zakresu teorii grafów Hamiltonowych, które dla „normalnego” komputera okazuje się bardzo czasochłonne. W TEN problem, który rozwiązały w fazie płynnej oligonukleotydy, wejść tutaj dokładnie z dwu powodów nie zamierzam: po pierwsze, ponieważ na teorii grafów znam się bardzo kiepsko, a po wtóre, ponieważ zadanie, nukleotydowym szturmem rozwiązane, nie ma praktycznie nic wspólnego z przebiegiem procesów ewolucyjnych (biologicznych): rozwiązanie to ukazuje tylko, że w owym środowisku półpłynnym, jakie stanowić mogą kropelki protoplazmy z kodem dziedzicznym, nimi sterującym, ukryte są takie moce obliczeniowe, o jakich dotychczas nie mieliśmy bladego pojęcia. 3 W dwu słowach warto może jednak wyjaśnić przynajmniej, o jakie zadania szło. Autorem pracy Molecular Computation of Solutions to Combinatorial Problem jest Leonard M. Adelman. W zasadzie chodzi o problem odnalezienia takiej drogi, która przechodzi przez każdy wierzchołek określonego grafu tylko jeden raz, a w praktyce bywał ten z dawien dawna znany problem rozpatrywany jako zadanie komiwojażera, który ma odwiedzać po kolei cały szereg miejscowości i chodzi o to, ażeby żadnej nie pominął na swojej drodze i żeby zarazem droga ta okazała się jak najkrótsza (oszczędna). Problem, który dla małej liczby „miejscowości” nie przedstawia specjalnego kłopotu także dla normalnego komputera, przy wzroście liczby tych miejscowości–punktów (wierzchołków grafów) zaczyna rosnąć wykładniczo. Jeżeli mikrosekunda jest potrzebna dla rozwiązania zadania o dziesięciu punktach, to 3,9 x 1011 wieków trzeba czekać na rozwiązanie dla STU punktów. (Nie liczyłem — zastrzegam się — lecz polegam w całości na artykule On the Path to Computation with DNA Davida K. Gifforda, umieszczonym w nazwanym już numerze „Science”). Otóż ten przeraźliwy problem oligonukleotydowe sekwencje potrafią rozwiązać dzięki temu w czasie ani trochę nie tak „nieludzkim”, ponieważ działają „szerokim frontem”. Inaczej to samo mówiąc, tych łańcuszków molekularnych jest (musi być) bardzo wiele, a i w przyrodzie ich nie brak: przecież np. najprostsze bakterie, więc już organizmy, działają w ilościach rzędu miliardów i bilionów. Inaczej mówiąc, problem zostaje pokonany metodą brute force i zarazem metodą paralelną, ponieważ zadanie zostaje zaatakowane przez wszystkie oligonukleotydowe łańcuszki, a rozwiązaniem może się okazać tylko jedna ich sekwencja. Jednak ten problem, w którym matematyka rzuca w bój hamiltoniany, NIE jest główną osią mojej tu wyrażonej nadziei, że TAKIE metody obliczeniowe leżą u podstawy życia. Chodzi tylko o to, że została niejako „zerwana zasłona” z pozornie „chaotycznej gry” nukleotydowej, za którą czai się potęga obliczeniowa, i odkrycie to rzuca jeszcze niezbyt jasne, ale dające już do myślenia światło na te trzy miliardy lat Ziemi, podczas których życie na niej było wyłącznie życiem organizmów najprostszych, a potem bakterii. 4 W pierwszej połowie naszego stulecia modne bywało obliczanie „całkowitego nieprawdopodobieństwa”, jakim miałoby być powstanie życia (biogeneza) w toku procesów chaotyczno–losowych. W połowie wieku zaś modne były ponadto dysputy darwinistów– ewolucjonistów z kreacjonistami–sceptykami, którzy domagali się od pierwszych, aby wytłumaczyli ewolucyjne powstawanie gatunków, organów, zachowań zwierzęcych itp. Oczywiście, ewolucjoniści, także biologowie pierwszej wody, jakim np. był J. B. S. Haldane, chętny do drobnych utarczek, na ogół przegrywali. Rzecz w tym, że umysł ludzki, choćby to był umysł supermądrego darwinisty, nie jest w stanie wyobrazić sobie i wysłowić w sposób podległy naocznej weryfikacji takich procesów, które przebiegały przez tysiące milionów lat, a choćby „tylko” lat miliony. 5 Mając szczególną słabość do dywagacji, wspomnę tutaj, że kiedy osiem lat temu uzyskałem możliwość rozmawiania z noblistą Manfredem Eigenem, kiedy zapoznałem się też z jego teorią „hypercyklów” mających stanowić osnowę powstawania zjawisk życia, przez pewien czas chodziłem mile uspokojony myślą, że biogeneza znalazła wreszcie swe naukowe wytłumaczenie. Potem dopiero naszły mnie takie oto wątpliwości: hypercykle, jako też cały piękny schemat pracy ewolucyjnej opartych na ich replikacji procesów elementarnej ewolucji (tej, o której powiada prawy darwinista survival of the fittest), są bardzo ładnym urządzeniem, ale to przecież nie jest coś, co mogło postać „spadłszy z nieba”. Inaczej mówiąc: pytanie o początek życia zostało hipotezą hypercykli niejako przesunięte w nadal ciemną przeszłość, w której coś te hypercykliczne reakcje, kręcące się dzięki stałemu dopływowi energii w kółko, powołało do istnienia… i tutaj nadal nic nie wiemy. 6 Także praca, o jakiej pisałem wyżej, Adelmana, nie wyjaśnia bezpośrednio niczego co do biogenezy. Natomiast zaczyna świtać rozumowanie, które pozwolę sobie bardzo skrótowo przedstawić. Typowy komputer klasy desktop wykonuje co najmniej 106 operacji na sekundę. Najszybsze komputery potrafią wykonać 1012 operacji na sekundę. Jeżeli powiązanie (Anglicy piszą concatenation) dwu molekuł DNA uznamy za jedną operację (elementarną) i jeżeli około połowy oligonukleotydów liczy ich 4 x 1014, to właśnie 1014 operacji zostaje wykonanych, gdyż każdy nukleotyd „działa na własną odpowiedzialność”. To właśnie jest frontalny atak brute force, który łatwo można powiększyć do 1020 operacji: nie mówię wcale, że TAK właśnie pracuje aparatura kodu dziedzicznego, która jest niezrównanie bardziej skomplikowana (i w której pracy uczestniczą rozmaite dodatkowe pomoce enzymatyczne, a wszak mój stary słownik genetyki liczy sobie 600 stron, choć w nim brak jednego słowa o mocach obliczeniowych, potencjalnie obecnych w kodzie). Prezentuję jedynie rząd przeraźliwych zgoła wielkości tych mocy, które powstają z chwilą, kiedy się nukleotydy już pojawiają i pracują zorientowane dla rozwiązania określonego problemu. 7 Rzecz jasna, kluczem do następnych wrót, czyli sposobem na postawienie kolejnego, kto wie czy nie decydującego kroku, będzie pytanie o to, skąd biorą się zadania, jakie zostają nukleotydom postawione w Naturze? Hamiltoniany i grafy nie mają przecież bezpośrednio z procesami życiowymi NIC wspólnego. Jest mniej więcej tak, jakbyśmy pokazali potęgę drzemiącą w pewnym urządzeniu obliczeniowym, i to w takim „urządzeniu”, które w niczym komputera naszej produkcji nie przypomina. Biochemik powiada: hydroliza jednej molekuły trójfosforanu adenozyny daje tyle energii, że jeden dżul starczy na 2 x 1019 operacji. Jest to wydajność zdumiewająca, jeżeli zważyć, że drugie prawo termodynamiki pozwala na teoretyczne maksimum 34x 1019 operacji na 1 dżula (przy 300° Kelvina). Najlepsze nasze komputery natomiast potrafią wykonać najwyżej 109 operacji na 1 dżula. Jak widać, procesy, jakimi żywią się energetycznie „urządzenia” nukleotydowe, są niezrównanie bardziej wydajne od naszych technicznych wytworów. Na daleką metę można by zatem uznać, że moje próby zawarte w Summa Technologiae, przekonywania i zapewniania, iż przejmiemy potęgę Natury NIE przez imitację ośrodkowych układów nerwowych, NIE przez budowę „sztucznych mózgów”, ale poprzez owładnięcie mocami ukrytymi w genomach, były wcale sensowne. Być może, iż, jak pisze Adelman, jedna molekuła DNA może równać się „momentalnej” (instantaneous) deskrypcji maszyny Turinga i że stojące do naszej dyspozycji enzymy i protokody mogą zostać zastosowane do uruchomienia TAKICH „MASZYN”. Badania zmierzające w tym kierunku mogą doprowadzić do rozwoju enzymów, zdolnych do wykonywania prac syntezy projektowej; będzie to era manipulowania makromolekularni, o której pisałem w 1980 roku w „Prognozie rozwoju biologii do roku 2060” — dla Polskiej Akademii Nauk. Ostatecznie — pisze Adelman — „można sobie wyobrazić powstanie uniwersalnego czynnościowo komputera, utworzonego z niczego więcej ponad jedną makromolekułę, podłączoną do zespołu enzymów (podobnych do rybosomów), które będą na tę makromolekułę ‘należycie’ oddziaływały”. 8 Wyznaję, że kiedy czytam takie rzeczy w piśmie nie roszczącym sobie, dalipan, najmniejszej pretensji do Science Fiction, i kiedy patrzę w przeszłość na to, co wypisywałem i co bywało uznane za utopijne bajeczki, odczuwam nie tyle nawet satysfakcję, ile zdumienie pełne niepokoju. Jedną rzeczą jest bowiem powiadać, że hen tam, kiedyś, „za grzbietami stuleci” coś zostanie stworzone, że jakieś Moce ulegną wyzwoleniu i zawłaszczeniu przez ludzi, a zarazem uspokajać się wiarą w polepszalność ludzkiej natury (w toku „postępów cywilizacyjnych), a inną rzeczą całkiem jest dożyć takich, jak cytowane, publikacji, i widzieć, że już za progiem nadciągającego XXI wieku rozpoczną się inwazje ogromnych kapitałów, masywnych inwestycji, rynkowych walk i szaleństw w bitwach o te „biokomputery”, o jakich ja tak niefrasobliwie ku mizernemu zainteresowaniu odbiorczemu pisywałem, nie słysząc przy tym najmniejszego odzewu (poza śmiechem). 9 Ażeby mnie jeszcze lepiej dobić (czy uwieńczyć?), grudniowy numer „Scientific American” zawiera artykuł o powstającej projektowej inżynierii genetycznej, która miałaby stworzyć nowy front walki z drobnoustrojami chorobotwórczymi. O tym jednak już nie chcę tu i teraz pisać. Myślą raczej wrócę w najbardziej zamierzchłą przeszłość, w której najprostsze, jeszcze nie komórkowe, raczej bakteryjne życie wegetowało i kotłowało się na powierzchni naszej planety. Czy możemy kiedykolwiek zrekonstruować symulacyjnie procesy tej miary i takiej skali? W zasadzie wydaje mi się to do pewnego stopnia możliwe. Pytanie, na które nie próbowałem dotąd znaleźć choćby i niepewnej odpowiedzi: CO stawia mocom obliczeniowym, powstającym w toku genezy kodu nukleotydowego, ZADANIA? — to pytanie jest zarazem pozornie proste i niezwykle zawiłe. Oczywiście, musiało być tak, że zadanie „narodziło się samo”, w tym sensie elementarnym, iż „molekularne komputery” tylko wówczas mogły po prostu przetrwać, jeżeli były tak zorientowane procesualnie, że potrafiły same siebie kontynuować. A to dlatego, ponieważ tam, gdzie powstał ten moloch, te armie molekularne, utworzone z trylionów uporządkowanych nukleinowych kwasów, równocześnie w temperaturze Praziemi działał chaos ruchów Browna: tam wciąż trwały ataki atomowego bezładu, dyktowane przez II zasadę termodynamiki, tam się musiały toczyć bitwy ze wzrostem entropii. A to, co przegrywało te starcia, przestawało istnieć. I tym samym zaczynamy już rozumieć, jak to może być, że bakterie po czasie stosunkowo krótkich tryumfów medycyny, bombardującej je antybiotykami, uzyskują odporność. Zadanie jest dla tych drobnoustrojów wciąż takie samo, jak przed czterema miliardami lat: należy przeżyć! „Należy” już w tym sensie, w jakim „należy” się spodziewać trafiania Ziemi upadkiem meteorów czy też czekać na zmiany klimatu, ponieważ zarówno biogeneza była zjawiskiem uwarunkowanym PROBABILISTYCZNIE, jak probabilizmy wyznaczają też częstość kosmicznych zajść w rodzaju zderzenia z meteorem czy wejścia w epokę lodowcową. Był czas, w którym teoria prawdopodobieństwa uchodziła za ubogiego krewnego, wręcz za podrzutka, który przez badaczy hazardowych gier został matematyce niecnie podłożony. Otóż dziś jest już probabilistyka w pełni honorów i dowiadujemy się po trosze, jaką rolę jej właściwa dzielność odegrała przy stworzeniu życia na Ziemi… i nadała temu życiu w jego najprostszych formach bakteryjnych taką sprawność, która z każdej wynalezionej medycznie opresji wyjdzie cało… co zmusi nas do toczenia z chorobami następnych bitew. 10 Przy tym wszystkim, kiedy już roztacza się przed nami niepospolicie zaskakująca panorama przyszłych prac, tych, które niemal maniakalnie opatrzyłem hasłem „dogonić i przegonić Naturę w jej sprawnościach”, trzeba też zważyć, że prosta rzetelność i rzeczowość nadal musi nas obowiązywać, a to znaczy, iż obawy, jakie w „Sumie Technologicznej” (w przypisach do niej) wyraziłem, pozostają w mocy. Mianowicie zastanawiałem się tam nad tym, czy i w jaki sposób ludzie będą w stanie znaleźć drogę na niesamowite wręcz, pierwsze w ich dziejach, niesłychane SKRÓTY ku realizacji wymienionego hasła. Jeżeli bowiem sprawa miałaby się tak, że przed trzema miliardami lat powstało życie, a potem przez trzy miliardy samo powtarzało się w permutacjach i rekombinacjach, nie zmieniając własnej postaci, to jak właściwie mogło potem — znienacka bodajże — dojść do „kambryjskiego skoku”, który rozplenił życie, powiększając je wielokomórkowo, który zasiedlił oceany, a potem lądy, skąd „molekularnie rozczłonkowany moloch nukleotydowego kodu” wynalazł, w jaki sposób on stworzył sobie dalsze zadania, polegające na samokomplikacji życia, na jego rozszerzaniu się na gatunki, skąd wziął się zarazem ów trend akceleracji, przyspieszenia, dzięki któremu raz powstałe organizmy zajęły się gorączkową produkcją nowych gatunków? A jednocześnie wiemy, że z tych gatunków roślin i zwierząt, które powstały w przeszłości, 99% wyginęło, i tylko nadzwyczajna prężność… znów trzeba rzec po prostu: OBLICZENIOWA, rekombinująca, rekombinacyjna, z nukleotydowych cegiełek umiała wykrzesać dalsze miriady następnych gatunków, całe fontanny specjacji… Czy to wszystko było też „po prostu efektywnością największej okołosłonecznie loterii trafów” — czy może być, że nic, oprócz Przypadku, chytrze skomplikowanego w kształt łańcuchów Markowskich i pół– Markowskich, nie działało jako ta siła, która na schyłku holocenu wyrzuciła na powierzchnię południowej Afryki przedmałpy razem z przedludźmi… i wchodząc w okrutnie dziesiątkujące sita doboru naturalnego, tamte gatunki ulegały jeden po drugim zagładzie, aż pozostały tylko dwa konary: na jednym usadowiły się małpy, a na drugim — my: ludzie, Homo sapiens. Najbezwzględniejszy — niestety — pasożyt biosfery. To nie podlega już dziś zakwestionowaniu: być może zdołamy opanować moce obliczeniowe molekularnego komputera ŻYCIA i on dopomoże nam w przeżyciu cywilizacji… albo też sami zrujnujemy tę szansę, ponieważ okaże się, że i tę skradzioną prometejską moc Natury sami przeciw sobie obrócimy… w walce, którą tylko bakterie na koniec zdołają przeżyć. Ewolucja jako paralelny komputer 1 W poprzednim artykule (Moc obliczeniowa życia) przedstawiłem w skrótowym uproszczeniu metodę polegającą na zastosowaniu łańcuchów nukleotydowych (krótkich, tj. oligonukleotydowych) do rozwiązywania takich matematycznych zadań (w pokazanym przypadku: z zakresu teorii grafów i wyszukiwania najkrótszej drogi prowadzącej przez ich wierzchołki), które od zwykłego komputera wymagać mogą (dla dużej liczby wierzchołków– punktów) olbrzymiego czasu obliczeniowego. Ta niespodziewanie (przez Adelmana) wykryta moc obliczeniowa powstaje dzięki temu, że do „ataku” na postawione zadanie zostaje rzucona znaczna liczba oligonukleotydowych odcinków, rozmnażanych przez polimerazy: w efekcie powstaje ogromna liczba równocześnie parających się zadaniem jednostek, a na końcu uzyskujemy taką, która rozwiązanie zadania zawiera (której struktura JEST rozwiązaniem zadania). Ze względu na to, że zadania, jakie Adelman stawiał nukleotydom, bezpośrednio do obszaru biologii NIE należą, że stanowią raczej odgałęzienie dość trudnej matematycznej teorii funkcji rekurencyjnych (nie wprost, ale nie mogę tutaj wejść w uszczegółowienia), uznałem owo zjawisko użycia bruteforce w faz!e roztworu (niejako w postaci „płynnego komputera równoległego”) za MODEL, który się nam wprost do przystawiania czy do przeniesienia w głąb procesów biogenezy NIE nadaje. Niemniej jednak, JUŻ obecnie można, aczkolwiek nie bez ryzyka, spróbować wstępnie przybliżonego rozumowania, które przynajmniej w postaci na razie jeszcze dość mglistej, ale za to zdającej się kryć w sobie „rozwiązanie zagadki ewolucyjnej”, pokaże, co, jak i dlaczego zaszło na Ziemi, zanim eksplodowała kambryjska radiacja wielokomórkowców, po wielomiliardoletnim zastoju życia. Albowiem istotnie najwcześniejsze pierwociny życia lokalizuje się dziś przed trzema i pół — czterema miliardami lat, po czym owo życie, ograniczone do protobakterii przez czas tak potwornej, geologicznej miary, ledwie osiemset milionów lat temu „wybuchło” kambryjską ewolucją, oznaczającą wstępne zawłaszczenie oceanów, a potem i kontynentów, życiem na dwoje rozdzielonym: na rośliny i na zwierzęta. 2 Wyglądałoby na to, że sam początek życia jest nam nadal nie znany. Nieodzownym „minimum” były na pewno jakoś powstałe replikatory, czyli takie zespolenia molekuł organicznych w fazach roztworów, które zdobyły umiejętność samopowielania się. Replikacja bowiem w biologii to właśnie tyle, co powstawanie żywych ustrojów potomnych z ustrojów rodzicielskich. Więc ten warunek, replikacji, czyli rozmnażania, musiał zostać wstępnie spełniony i na pytanie, jak to nastąpiło, nie mamy żadnej podległej empirycznym doświadczeniom (symulacyjnym choćby) odpowiedzi. Musimy zatem przyjąć tę najwcześniejszą postać życia jako daną, niekwestionowalnie, moje zaś dalsze wywody ograniczą się do zasugerowania, dlaczego życie w swej ledwie powstałej postaci „niczego prócz siebie samego” nie potrafiło stworzyć. 3 Tutaj pozwolę sobie na dywagację, która nas wprawdzie do biologicznej problematyki bezpośrednio nie zbliży, ale przynajmniej o tyle da do myślenia, że pokaże, jak wiele tworów uważanych przez nas za wyłączne wynalazki, czy też za wyłącznie przez ludzi wysnute konsekwencje odkryć naukowych, powstawało miliony lat przed pojawieniem się człowieka na Ziemi. Mianowicie kiedy powstały pierwsze generacje reaktorów atomowych pracujących na bazie rozszczepienia (pod wpływem neutronów) uranu (U 235), panowało przeświadczenie, że na naszej planecie PRZED uruchomieniem pierwszej reakcji łańcuchowej rozpadu jąder takich „naturalnych reaktorów” być nie mogło. Dopiero nieco później wykryto właśnie taki siłami Natury utworzony w Afryce „reaktor”, który bez wątpienia pracował, nagrzewając radioaktywnie środowisko przez setki tysięcy lat (obecnie jest już radioaktywnie „martwy”). Przywołany ten przykład pokazuje, jak ostrożni winniśmy być, biorąc się do twierdzenia, iżeśmy cokolwiek, czy to „stosy atomowe”, czy „komputery”, wymyślili i skonstruowali sami jako pierwsi na świecie. 4 Z grubsza, ale niestety jedynie z grubsza, wiadomo, że pierwotna atmosfera Ziemi była beztlenowa, że było w niej dużo dwutlenku węgla, metanu, i że życie narodziło się najprawdopodobniej (tak się DZISIAJ sądzi) w gorących źródłach, ponieważ byłoby rzeczą w najwyższym stopniu — aż do niemożliwości — nieprawdopodobną, ażeby ledwie powstałe życie jako powiązane w rodzaj „hypercykli” (model pochodzi od Manfreda Eigena) molekuły było zdolne już w zaraniu przyswajać sobie energię słoneczną. Jak wiadomo, dzięki chlorofilowi potrafią to rośliny, potrafiły to zrazu przed roślinami sine algi, lecz ten proces, wychwytywania kwantów słonecznej radiacji, jest tak subtelnie skonstruowany, że — jak myślę — już bardziej prawdopodobne okazałoby się odkrycie na powierzchni jakiegoś martwego globu, np. Marsa, samochodu, który Jakoś sam się wykrystalizował ze złoży rudy żelaznej”. Inaczej mówiąc to samo, fotosynteza na początku biogenezy wynaleziona być nie mogła. Przecież życie wedle naszej ułomnej i pełnej ślepych plam wiedzy „wykonstruowało się samo”, toteż wstępne jego etapy musiały być pozbawione tego wyrafinowania, jakim w fotosyntezie posługują się rośliny. Ale i ta uwaga jest tylko częściowo poboczna, o tyle zaś do rzeczy mi posłuży, że wskazuje pośrednio, iż powstanie biogenetycznego preludium nie mogło nastąpić „za jednym zamachem” i to od razu w formach procesualnych, które równają się życiu, jakie nas otacza i jakie w nas samych ujawnia swoją ekspresję. 5 Słońce miało na początku — czy raczej u progu biogenezy — moc promienistą około 10 do 20% mniejszą niż obecnie, a tym samym Ziemia musiała być Jakoś” dogrzewana, w przeciwnym bowiem razie skułyby ją potężne lodowcowe pancerze. Co tę Ziemię sprzed czterech miliardów lat podgrzewało poza światłem słonecznym, na pewno nie wiadomo, gdyż i tutaj wrą obecnie spory, w których hipotezy ścierają się z alternatywnymi hipotezami, ja wszelako zmuszony jestem przyjąć po prostu, że Jakoś” jednak powierzchnia już oskorupiałej planety, już tak ostygłej, że powstawały na niej wielkie zbiorniki wód (oceany), była utrzymywana w temperaturze umożliwiającej prolog biogenetyczny. To znaczy wtedy musiały powstać pierwsze replikatory: czy one repetowały swe generacje kolejne dzięki jakiemuś ówczesnemu poprzednikowi KODU NUKLEOTYDOWEGO, czy też tylko dzięki jakiejś na tyle uproszczonej jego samorodnej postaci, że replikacje w ogóle się okazały możliwe — nadal nie wiadomo. Uważam za wskazane podkreślać rozmiary naszej uczonej ignorancji, ażeby nie wyglądało na to, że ja tu od jednego zamachu zamierzam wyjaśnić „wszystko”. Jest jedna rzecz, do której mamy już dostęp dzięki odkryciu obliczeniowych mocy, potencjalnie drzemiących w nukleotydach: mianowicie w tym, że oligonukleotydy Adelmana działają NICZYM równoległy komputer, czy też może RACZEJ jako olbrzymia liczba (zbiór może i trylionowej mocy) poszczególnych molekularnych „nanokomputerów”, z których KAŻDY pracuje „na własną rękę”, i w tym, że one skierowane zostają na tor PODOBNEGO zadania, kryje się rozwiązanie zagadki ich późnego ewolucyjnego sukcesu. 6 Należy też koniecznie dodać, jaka była główna i pierwsza różnica między tymi molekularnymi autoreplikatorami a naszymi komputerami, albowiem różnica ta nie dotyczy ani materiału, ani nawet programów–algorytmów: cała rzecz w tym, że naszym komputerom MY narzucamy zadania, programując je w taki sposób, ażeby uzyskać wynik NAM potrzebny. Natomiast te „prakomputery”, ich biliony porozmnażane na powierzchni Ziemi, a może najpierw tylko w głębinie gorących term, gejzerów, wód ocieplanych wulkanicznie, ŻADNEGO PROGRAMU nie miały. Toż im nikt żadnego programu nie mógł narzucić i jedynym „programem” dla nich był po prostu fakt oczywisty: przetrwać mogły jedynie takie protoustroje, które potrafiły — przez podział — dać początek generacjom następnym, a te potomne generacje mało co różniły się od swych bakteryjnych protoplastów (proszę zważyć, że ja nie wiem, czy tamte formy „prażycia” wolno z dobrym sensem zwać „bakteriami” czy protokariontami, czy jak jeszcze, ale po prostu jakiejś nazwy muszę dla nich używać). 7 Tak zatem „na początku były mikromołekularne samopowiełające się komputery– replikatory”. Ani chybi olbrzymia ich większość musiała sczeznąć, ponieważ sztuka replikacji znajdowała się dopiero w zarodku. Ponadto nie mamy też najbledszego pojęcia, czy to prażycie powstało mono— czy raczej polifiletycznie, tj. czy „udało się” Naturze zrodzić tylko jeden „standardowy” typ przedbakterii, czy też może było tych typów więcej i może one nawzajem ze sobą o przeżycie musiały konkurować. Fakt, iż obecnie wszystkie związki biochemiczne życia są wyłącznie łewoskrętne, zdaje się sugerować, że zrazu (ale też nie na pewno) powstało „życie prawoskrętne” i „łewoskrętne”, i że zwyciężyło w owej konkurencji z przyczyn nie całkiem losowych (ale tu w tę odnogę problemu nie mogę dalej wejść) życie łewoskrętne. W każdym razie można „wedle zdrowego rozsądku” mniemać, iż replikatory biogenetyczne działały zrazu dość kiepsko w tym sensie, że lwia część ich potomnego produktu „była na nic”, czyli nie przeżywała. I tym samym już w owym najwcześniejszym okresie gilotyną oddzielającą sprawność przeżywania od niesprawności była po prostu zagłada, bo co nie potrafiło się rozmnażać tak, aby spełnić minimum warunków adaptacji do środowiska i do innych praustrojów, musiało zginąć. To wydaje się raczej samozrozumiałe. 8 Tutaj napotykamy, jak mi się zdaje, dość tajemniczy szkopuł, powodujący, że życia „w retorcie” sami wciąż stworzyć (syntetyzować) nie potrafimy. Szkopuł widzę w owych MILIARDACH LAT bezustannych replikacji, jako nieustającego bytowania form wyłącznie najbardziej elementarnych, najprostszych i zarazem takich, że one nie dysponowały wtedy JESZCZE najsłabszą nawet potencją kreacyjną taką, która wykraczała poza ich „rozplemowe egzystencjalne minimum”. Jest to — zdaje się — dość fatalne, jako potwierdzenie moich obaw, wypowiedzianych w Summa Technologiae przed trzydziestu kilku laty, że mianowicie gigantyczny czas latencji życia, potworny po prostu, nie dający się żadną miarą ogarnąć wyobraźnią ludzką, MUSIAŁ upłynąć, zanim z prażycia przedbakteryjnego zdołało wyrosnąć całe linneuszowe drzewo gatunków. Już z ustalonych dzięki sfossyfilizowanym szczątkom protokodów paleontologicznych wiemy, że TEMPO kolejnych kreacji kolejnych typów, rzędów, gatunków stawało się coraz szybsze, ponieważ najdłużej trwał okres „przygotowawczy”: terminatorka miliardoletnia życia na Ziemi, ale jak raz „silnik kreacyjny zaskoczył”, tempo powstawania coraz to innych gatunków rosło, aż maksimum chyżości zdobyło ledwie koło miliona lat temu: gdy wydało człowieka rozumnego. 9 Pozostaje jednak nadal sporo niewiadomych w powyższym obrazie. Wolno w nim już dostrzec straszliwe ciężkie roboty tej brute force, która przez lysiące milionów lat na ślepo nie mogła uruchomić własnych potencjałów poza minimalnym zadaniem PRZEZYWANIA. Samo przeżycie było wtedy dziełem tak trudnym i tak ryzykownym, że jak wiemy, ze wszystkich odmian życia, jakie pojawiły się na Ziemi kiedykolwiek, 99% uległo zagładzie. O zagładzie gadów, które panowały przez 120 milionów lat na naszej planecie wiemy szczególnie wiele; po pierwsze, ponieważ były to często kolosy, mające olbrzymie rozmiary, więc ogromne szkielety, i jako pierwsze ich właśnie resztki uległy przed wiekiem odkryciu w pracach wykopaliskowych. Po wtóre, ponieważ ich zagłada nastąpiła w sposób dość spektakularny, najprawdopodobniej wskutek interwencji kosmicznej, lecz coraz wyraźniej dowiadujemy się, że podobnych katastrof życie na Ziemi doznało więcej, zarówno wskutek „interwencji geologiczno– wulkanicznych”, jak klimatyczno–lodowcowych, itd. 10 Winniśmy jednak wrócić do owej prastarej przeszłości, w której trwało miliardoletnie „milczenie kreacyjne”. Co miało, co mogło zakończyć je i przerwać, doprowadziwszy do erupcji kambryjskiej, owego powstałego „naraz” (tj. „ledwie” w ciągu milionów lat) wybuchu życia postępującego, czyli do startu „progresji ewolucyjnej”? Należy sobie dobrze zdać sprawę z tego, że właściwie jest pewien fakt dla nas współczesnych tak oczywisty, iż na dobrą sprawę w ogólnie go nie dostrzegamy. Mianowicie uważam całe gadanie, typowe wśród biologów, o formach „prymitywnych” całych ustrojów czy ich poszczególnych narządów za efekt dziwacznej pomyłki. Jak można w ogóle uznać np., że owady, istniejące na Ziemi od trzystu milionów lat i nieporównanie mniej wrażliwe na wielkie dozy radioaktywności od ssaków, z człowiekiem na czele, są „bardziej prymitywne” od naczelnych właśnie, razem z człowiekiem liczących sobie jakieś 10— 12 milionów lat bytowania ziemskiego? A jeżeli przypatrzymy się tym drobnoustrojom, które są wszędzie, i wokół nas, i w nas samych, czyż nie powinno nas zastanowić to ich przetrwanie wszystkich epok, wszystkich miliardoleci; nie powiem, że w postaci nie zmienionej. Niestety, właśnie drobnoustroje, właśnie najczęściej dla nas chorobotwórcze, dysponują taką „mocą obliczeniową” typu biochemiczno– molekularnego, że potrafimy naszymi najdoskonalszymi lekami syntetycznymi i antybiotykami tworzyć tylko szczerby we frontach atakujących nas bakterii… które po niedługim (bardzo niedługim) czasie uzyskują oporność na wszystkie nasze medykamenty, na całą tę farmakologicznie i medycznie kierowaną w nie artylerię. Cóż to zjawisko oznacza? Oznacza ono tyle, że właśnie bakterie, te „formy prymitywne”, dysponują, nie jako jednostki, nie jako gromady, ale jako gatunki, taką potencją kreacyjną, która, jak już można domyślić się, osadzona jest w mocy obliczeniowej potencjalnie gotowej zaktywizować się przy zagrożeniu. Pojawiają się takie permutacje i takie rekombinacje ich genowego przekazu, które nadają im oporność. Gdzieżby można sobie wyobrazić, żeby tak zwane „wyższe” zwierzęta i człowiek potrafiły wytworzyć sobie oporność na jakieś gazy trujące, albo na radioaktywność… Wolno sądzić, że przyjdzie nauce z wielką ostrożnością stosować pojęcia „postępu” i „prymitywizmu” rozwiązań w dziedzinie życia… 11 Pisząc przed szesnastu laty pierwszy wykład fikcyjnego superkomputera mojego, GOLEMA, włożyłem w jego metalowe usta takie oświadczenie: 1. W ewolucji „BUDOWANE JEST MNIEJ DOSKONAŁE OD BUDUJĄCEGO”. Nie miałem wtedy poza intuicją żadnych podstaw dla umotywowania tej tezy; jak dalej mówił Golem, w tych słowach „tkwi (…) odwrócenie wszystkich waszych wyobrażeń o nieprześcignionym mistrzostwie sprawczyni rodzajów. Wiara w postęp, idący epokami wzwyż, ku perfekcji, ściganej z rosnącą wprawą, w postęp życia, utrwalony w całym drzewie Ewolucji, jest od jej teorii starsza. (…) Oświadczyłem: Budowane jest mniej doskonałe od budującego. Dosyć aforystyczne powiedzenie. Nadajmy mu postać bardziej rzeczową: W EWOLUCJI DZIAŁA UJEMNY GRADIENT PERFEKCJI USTROJOWYCH ROZWIĄZAŃ. To wszystko”. Dalej cytować Golema nie będę. Powiem tylko, że intuicja moja wydaje się dziś, po tylu latach, bardziej zasadna niż wówczas, gdy wyraziłem ją w postaci fikcyjnego mędrca komputerowego. Chodzi o to — tak to można teraz przedstawić — że ponad półtora wieku trwała walka lamarkizmu z darwinizmem, czyli tezy, jakoby ewolucja wynikała z dziedziczenia cech nabywanych przez organizmy — z tezą, że wynika ona wyłącznie z mutacji genów, które obciosuje (sprawdza przeżywalnościowo) dobór naturalny. Otóż teraz już nie ja i nie Golem, lecz autorzy prac o „obliczeniowej mocy życia” mówią, że możliwe jest współzachodzenie procesu losowego (czyli zmian genetycznych, powodowanych mutacjami poszczególnych genów), z określonym nakierowaniem strumienia takich zmian: nie ma ani miejsca na jakoweś nabywanie cech, co się dziedziczą, ani na całkowicie ślepy rozrzut najzupełniej przypadkowych mutacji. NA RAZIE ową „trzecią” drogę wolno nazwać jedynie tak: losowość nie wyklucza nakierowania strumieni potomnych ustrojów. Rozwiązania GENOTYPOWO „dobre” ujawniają niejako tendencję własnych kontynuacji na poziomie elementarnym–genowym. Nie zachodzi ani „czysta losowość”, ani „czyste kierowanie”. ORTOEWOLUCJA (np. konia) nie jest ani wynikiem dziedziczenia cech nabytych, ani ślepych mutacji: są struktury genotypowego przekazu, które ulegają niejako uprzywilejowaniu, tak jak głaz puszczony z pochyłości zaczyna wskutek inercji toczyć się dalej i dalej. Ze znaczną emfazą można by rzec zatem, że sama „perfekcja rozwiązań” określonego gatunkotwórczego zadania nadaje dalszym aproksymacjom „coraz precyzyjniejszego” rozwiązywania KIERUNEK. Dla różnych gatunków wygląda to bardzo rozmaicie: inaczej dla słoniowatych, inaczej dla naczelnych, ponieważ „po drodze” powstają formy „aproksymujące” rozwiązanie finalne; a gdy do niego proces ewolucyjny dotrze, staje: dlatego Homo sapiens sapiens praktycznie już ewoluować przestał. Zaznaczam lojalnie, że to nie jest ani pewnik, ani udokumentowana porządnie hipoteza. Ale w każdym razie tkwi w tym wszystkim, co dotąd powiedziałem, szansa nowego spojrzenia na proces ewolucji naturalnej roślin i zwierząt jako na ogromną CAŁOŚĆ. „Brutalna siła” życia na elementarnym poziomie replikatorów potrzebowała straszliwych eonów czasu, ażeby dotrzeć do fazy, w której wykroczenie poza prostą replikację stało się w ogóle możliwe. Proces, który nastąpił, był oczywiście błądzeniem (i o tym mówił mój Golem, nazwawszy Ewolucję „błądzeniem błędu”). Jednakowoż — gdy z nowszej strony patrzeć na ten sam proces — widzimy, że razem z „elementarnością” najpierwszych ustrojów (drobnoustrojów) w toku postępującej specjalizacji zatracie ulega pierwotna UNIWERSALNOŚĆ. Jak z niemowlęcia może powstać scholastyk, kominiarz, lekarz, robotnik, profesor, kierowca, mnich, dyktator, krawiec, tak z bakterii — GDYBY katastrofa, spowodowana interwencją Kosmosu albo naszą wojną jądrową zgładziła całość wyższych form życia — mogłoby powstać, mogłoby odrodzić się w następnej ewolucji następne bogactwo żywych form organicznych. Oczywiście, na pewno nie byłoby ani tożsame, ani podobne do tego ich zbioru, który ułożyła ewolucja dotąd w drzewo linneuszowe! Ale szansa ta potencjalnie znajduje się skryta w uniwersalizmie życia, właśnie w jego biochemicznej „nukleotydowej mocy obliczeniowej”. I to świadczy o stratach, jakie życiu przynosi każdy kierunek specjalizacji gatunkowej, to powoduje, że utraciliśmy zdolności regeneracyjne (jaszczurce ogon odrośnie, człowiekowi nie odrośnie utracona noga czy ręka). Zresztą kto by się bliżej zainteresował pierwotną postacią całej tej diatryby skierowanej przeciwko „postępowi ewolucyjnemu” życia, kto by chciał dojrzeć rewers „postępu” — nie aż jeremiadę — niechaj poszuka (ale to niełatwe) książki pt. Golem XIV: wydanej w 1981 roku przez krakowskie Wydawnictwo Literackie. Skąd mi się wzięła taka zuchwałość, która pierwsze oznaki weryfikacji znajduje już dziś, to znaczy PRZED końcem stulecia — nie wiem. Ale myślę, że jeżeli nawet myliłem się, to — jak świadczą listy, które otrzymuję z USA — nie ze wszystkim. PODSUMOWANIE Należy sobie uświadomić, że przywołanie równolegle pracującego komputera jako modelu ewolucji naturalnej jest tylko aktualnie napraszającym się obrazem. Można uznać, że powstaje komputer „bardzo dziwny”, jako taki, który nie ma żadnego programu poza takim programem, iżby jego optymalną szansą stało się po prostu PRZETRWANIE. Dlaczego jednak replikacje (bez których nie wyszłaby ewolucja poza swój protobakteryjny prolog) są konieczne? Dlatego, ponieważ „mikrożycie” powstaje tam, gdzie podlega atakom chaosu molekularnego (np. ruchów Browna), więc MUSI powstać jakaś postać TRWALE opierająca się tym chaosom, strącającym w martwotę, i to jest możliwe tylko, gdy pojawia się właśnie replikacja: co się bowiem nie będzie sprawnie replikowało, aby przeciwstawiać się atakom bezładu (gradientowi wzrostów entropii), to ginie, tj. wypada z „gry o przeżycie”. Jednak samopowstanie replikatorów jest tylko koniecznym, ale nie dostatecznym dla dalszych postępów życia warunkiem ewolucji. Toczy się — tak można też modelować proces — GRA przeciwko „bankowi”, którym jest po prostu całość ziemskiej martwej Natury. Ona „pochłania” niedobrze rozmnażające się życie. (Gra o sumie niezerowej, bo Natura „wygrywając”, czyli unicestwiając życie, „nic z tego nie ma” — wygraną jest przeżywanie, przegraną — zguba). Replikować się, by przetrwać — ten program–minimum powstaje gdzieś we frontach „trylionowych prac komputera molekularnego w fazie roztworu” — w tych frontach toczą się „bitwy” bez wsparć, oddzielnie, dlatego mówimy o PARALELIZMIE ich przebiegów. A skąd się biorą „nadwyżki” kreacyjnej potencji, z których powstawać zaczynają eukarionty, algi, rośliny, zwierzęta, aż ulegają „utrwaleniu” w poszczególnych gałęziach „krzaczasto pnącego się” drzewa ewolucyjnego, przy czym każda gałąź to jest pewien utrwalający się paradygmat (wzorzec — pattern) określonego TYPU, a z raz powstałego paradygmatu dalsza gra „wyciąga” wszystkie możliwe transformacyjnie i rekombinacyjnie konsekwencje USTROJOWO–GATUNKOWE? Otóż ten potencjał musiał najwidoczniej powstać losowo, czyli tak, że to, co NIE „wygrało prospektywnej potencji” ewolucyjnego postępu, pozostawało JAK bakterie — nadal bakteriami, i tylko to, co „wpadło na konstrukcyjny koncept” wyższych samoorganizacyjnych kroków, rozwinęło się w te „pędy”, jakimi są bezkręgowce, kręgowce itp. Regresy odbywały się wtedy również, bo bakterie albo przeżywają, albo giną, natomiast ssak lądowy przez „regresję” może np. wrócić do oceanu jako (powiedzmy) foka czy delfin. Generalnie jednak specjalizacja prowadzi wzwyż, lecz zarazem likwiduje szansę maksymalnej odmiany paradygmatu. Jak życie „gra w ryby”, to już nie może „zagrać zarazem’” w owady, a jak gra w owady, to nie może „grać w ssaki”. To znaczy, że „komputer życia” sam sobie wynajduje kolejne programy (w radiacjach specjacyjnych), a jeżeli w pewnych rozgałęzieniach przegrywa (gady przegrały wszak 65 min lat temu), inna gałąź paradygmatyczna podejmuje kontynuację GRY O PRZEZYWANIE. Wszelako programy — rzędy, typy, gatunki — powstają ślepo. Ale pozyskują rosnącą orientację dzięki specjalizacjom: — więcej dziś nie wiemy. Model ewolucji 1 W poprzednim artykule (Ewolucja jako paralelny komputer) sugerowałem próbę przyrównania ewolucji życia do powstania takich najprostszych replikatorów, które można by uznać za „minimalne komputery równoległe”, zdolne wyłącznie do zrazu błędnego, a z upływem czasu, dzięki doborowi naturalnemu, do coraz mniej podległego błędom procesu reprodukcji samych siebie. O tym, czy takie podejście może w ogóle mieć jakiś sens, a jeszcze — dobry sens, pragnę porozmawiać obecnie. 2 W trzydziestych latach naszego kończącego się stulecia dość modne bywały dysputy ewolucjonistów spod znaku Darwina z kreacjonistami, którzy niewyobrażalność powstania życia, organizmów, roślin, zwierząt z ich nad wszelki wyraz złożoną i precyzyjną dynamicznie budową uznawali za kryterium w pełni dostateczne, ażeby naturalną ewolucję, wyzbytą zewnętrznych sił sprawczych, więc „pomocników”, a nawet „kreatorów”, czy to naturalnych czy transcendentnych, uważali za niemożliwość. Znajdowali jednak przeciwników w takich dyskursach i nie brakło wśród owych dzielnych darwinistów albo neodarwinistów uczonych najwyższej — wedle ówczesnego „rankingu” — klasy (np. J. B. S. Haldane). Z reguły żadnej ze stron nie udawało się w najmniejszej nawet mierze nadszczerbić poglądów strony przeciwnej — i uważałem wtedy, czytając takie książki (bo owe dyskusje zamykano w książkach), że trud, jaki brali na siebie ewolucjoniści, był nieposilny, aczkolwiek zasadniczo zawsze stałem po ich stronie. Moje mniemanie o daremności diatryb, wymierzanych przeciw ewolucjonizmowi, dałoby się wyrazić całkiem prosto. Jak teraz wiemy, życie powstało około 4 miliardów lat temu, z tym że powstawanie KODU genetycznego, jedynej matrycy uniwersalnej dla wszystkiego, co żyjąc rozmnażać się umie, trwało dobry (pierwszy) miliard lat. W samej zaś rzeczy jest dziś, tj. w 1995 roku, w którym te słowa piszę, tak że najlepsze naukowe hipotezy potrafią rozświetlić przebieg wczesnych faz ewolucji (jako dobry przykład wymienić mogę np. Manfreda Eigena Stufen zum Leben, Piper, 1987), wszelako zagadka, w moim przeświadczeniu najciemniejsza, rozświetlona nie została. Rzecz w tym, że M. Eigen (jak inni ewolucjoniści) potrafi dość dokładnie ukazać bieg procesualny ewolucji najprostszych organizmów (a w uproszczeniach, warunkowanych niedostateczną mocą obliczeniową i pamięcią dziś najsprawniejszych komputerów ten bieg można też symulować) — lecz założeniem wyjściowym dla nikogo z nich nie jest „ZERO ŻYCIA”, lecz stan, w którym co najmniej jakiś „protokod” typu DNA JUŻ działa, choć nader omylnie (czyli replikuje kiepsko, przez co wydajność jego jest zrazu niska, ALE już POTRAFI REPLIKOWAĆ). Tymczasem najbardziej zagadkowe pozostaje to, co się działo w PIERWSZYM MILIARDZIE LAT EWOLUCJI NATURALNEJ: kiedy ten protokod dopiero zaczynał powstawać dzięki jakimś miliardowym czy bilionowym próbom i błędom, chociaż zarazem wiemy, że gdyby to miało zajść drogą CZYSTO losową, to czekalibyśmy na skrzesanie DNA, więc i życia, całą wieczność… 3 Innymi słowy, chcę powiedzieć, że to, co jest dla umysłu ludzkiego niewyobrażalne przez ogrom złożoności, rozłożonej w czasie rzędu wieluset tysięcy wieków, JEST niewyobrażalne i dlatego ewolucjoniści i ich przeciwnicy niejako z góry byli zdani — pierwsi, na porażkę, drudzy, na odwołania do sił czy przyczyn na pewno nie należących do korpusu empirycznie rozumianej nauki. Nie potrafię przesądzić kwestii, czy jakieś symulacje w jakichś przyszłych superkomputerach, 103 albo 109 razy przewyższające generacje obecnie najlepsze, problemowi podołają symulacyjnie. Osobiście w to wątpię — dlatego, że jak zostało wykazane, ewolucja należy do zbioru procesów stochastycznych, czyli uwarunkowanych probabilistycznie, a nieco dokładniej do tak zwanych procesów Markowa, a raczej pół–markowskich: w typowym procesie Markowa każdy osiągnięty stan z pewnym prawdopodobieństwem warunkuje stan (krok) następny: ale łańcuch tych kroków żadnej wstecz sięgającej pamięci nie ma, natomiast półmarkowski łańcuch ma pamięć, ale dość „słabą”, dość „rozmytą”, nie sięgającą głęboko w przeszłość. Sam KOD jest przy tym jakby rodzajem alfabetu i w TYM sensie już ma nieco półmarkowską „pamięć”, że przecież z żadnego naboru liter poskładanych w zdanie nie można, opierając się na statystyce ich dystrybucji (ALE NIE NA ZNACZENIU ZDANIA), zrekonstruować takiego zdania, któreto bieżące poprzedziło, a jednak wiemy, że poprzednie zdanie było napisane tym samym literowym alfabetem, że nie stanowiło zbioru haczyków, kresek byle jakich itp. i w tym dopatrujemy się owej słabej pamięci (tożsamości liter, tak jak tożsamości nukleotydów, możemy dopatrywać się w każdej generacji organizmów, która teraźniejszą poprzedziła). Niemniej o tym, jak powstał „alfabet kodu” i jak on sobie „przyporządkował” rozmaite „aparatury pomocnicze” (mRNA, itd. — nie chcę wchodzić tu w dżunglę nomenklatury biologiczno–genetycznej, ażeby obrazu nie zaciemnić) — nie wiemy właściwie nadal nic. Mętne i rozbieżne domysły nie są wiedzą i zastąpić wiedzy nie mogą. Toteż i tego zarazem nie wiemy, czy kod się poskładał z takim a priori nikłym prawdopodobieństwem sukcesu, jakie równałoby się kolejnym stu wygranym pierwszej nagrody przez grającego w loterii liczbowej, czy na odwrót, jakieś nam nie znane „musy” wywodliwe z Praw Natury „pchały” proces ku organizacji kodu. Sądząc wedle rozmiarów czasu, w jakim kod się wylągł, prawdopodobieństwo jego powstania znaczne być NIE mogło, ale to, czego nie wiemy, nie powinno być z lekkiej ręki i zbytniej naiwności przesądzane. 4 Zanim powrócę do pytania o przydatność modelową komputera równoległego jako bazy wyjściowej ewolucji najprostszych organizmów, zaczerpnę z innej beczki, ale zapewniam, że do kwestii patronującej tym słowom wrócimy. Z dawien dawna człowiek, konstytuując krok po kroku swoją wiedzę o wszystkim, co nie jest mu dane wprost i łatwo naocznie, w elementarnym jak krzesanie ognia doświadczeniu codziennym, poszukiwał MODELI dla zjawisk, które też chciał opanować, to znaczy zrozumieć ich strukturę i ich budowę. I od tych modeli zwykle zaczynał precyzacje uzyskiwanej wiedzy. A więc jak już wiedział, że istnieją atomy, przyrównał je do niepodzielnych kulek niczym piłeczki jakieś, potem zaś, wkraczając eksperymentami głębiej w atom, widział się zmuszony nieco skomplikować wyjściowy model i sięgnął po układ słoneczny, tak że na tym następnym etapie atom przypominał już jądro–słońce, wokół którego krążyły jak planety elektrony. Potem samo centralne „ciało słoneczne” okazało się złożone z cząstek naładowanych elektrycznie i neutralnych, potem przyszło przywołać jako dodatkowy model FALE, aż powstały z tego fale eteru; potem się pokazało, że nie ma żadnego „eteru” i fale stały się konstruktami bardziej, by tak rzec, matematycznego pochodzenia: stały się wszak fałami prawdopodobieństwa, potem Einstein usiłował jeszcze ratować determinizm i bronić go, ale nie zwyciężył, zjawiła się porządnie nienaoczna, zrodzona w szkole kopenhaskiej KOMPLEMENTARNOŚĆ, a potem cząstki „elementarne” przestawały być po trosze elementarne — i obecnie koncept, że cząstek różnych może być nieskończenie wiele w zależności od warunków energetycznych okolą, już żadną herezją nie jest. Ja tu naturalnie nie fizykę chcę upraszczająco wykładać, a tylko ukazać, jak zawsze poszukujemy modeli, co są najpierw „możliwie naoczne”, możliwie pojmowalne dla naszych zmysłów, a potem rzeczywistość krokami nieubłaganych doświadczeń zmusza nas do rezygnacji z tych modeli i u końca (na razie, boż fizyka nie wypowiedziała ostatniego słowa, którego mym zdaniem nie ma w ogóle) mamy eksperyment Einsteina–Podolskiego–Rosena, którego sprowadzić do jakiejkolwiek na modelach naocznościowych demonstrowalnej zrozumiałości bezmatematycznej już się nie da na pewno. Droga jest ta sama zawsze, od prostoty, której szukamy w Naturze: Einstein zawarł to poszukiwanie w słowach Raffiniert ist der Herrgott, aber boshaft ist Er nicht, czyli God is sophisticated but he is not malicious razem z jego Der Herrgott würfelt nicht aż do Hawkinga, który replikował, że owszem, Bóg gra w kości i nie daje nam zajrzeć do zawierającego je kubka. Należy się obawiać, że Hawking ma przeciw Einsteinowi słuszność. Niemniej jest na ogół tak, że ZMIANY MODELI z prostszych na mniej proste — jakoś nas do „istoty rzeczy” po trochu przybliżają. I właściwie myśmy poza koncepcją upodobnienia kodu DNA do literowego alfabetu pism naszych niczego porządniejszego nie wymyślili i nie znaleźli, odkąd Watson i Crick odkryli spiralę DNA. 5 Teraz mogę już powrócić do rzeczy, na jakiej mi zależało. Nie twierdzę oczywiście, jakoby powstałe przed trzema miliardami lat praorganizmy zdolne do jakiej–takiej autoreplikacji BYŁY po prostu równoległym komputerem. Różnice były już w tym zaraniu olbrzymie. Nasze komputery są digitalne (te zwyciężyły analogowe), szeregowe, albo równoległe, lecz z tymi ostatnimi największy kłopot mają ci, co chcą układać dla nich programy. Bodajże w USA w Denver zbudowano superport lotniczy, z podziemnymi tunelami do przesyłania, sortowania i adresowania bagaży pasażerów, a jeden superprogram miał to wszystko razem bezbłędnie robić, po czym okazało się, że szwankuje, bo gdzieś tkwią w programie przez omylnych programistów pochowane złe szlaki i szamotali się z tym programem, zmuszeni do prastarej metody ręcznego działania przy sortowaniu bagaży itd. (tam szło i o rezerwacje biletów i moc innych usług). Programy szeregowo (iteracyjnie) pracujące nie mają łatwo dającej się wkomponować sprawności autokorekcyjnej. Natomiast naturalna ewolucja działa inaczej. Po pierwsze, kontrolnych instancji jest w niej wiele (zwykła jest redundancja kontroli). Po wtóre, nie są jej programy ani digitalne, ani analogowe, lecz „mieszane” jako współwspierające się i nazwać by można je „CHEMODIGITALNYMI”, bo „chemo” oznacza właśnie analogowość (hormonową, seretoninową, acetylocholinową i tam dalej aż po kres najnowszej edycji Abderhaldena), a „digitalna” dotyczy przede wszystkim elektrycznej (elektrochemicznej właściwie) transmisji sygnałów w ustroju. Tak samo zresztą hardware nie jest do porządnego oddzielenia od software w ustroju i nie należy sądzić, Boże uchowaj, że się ewolucja wpakowała tu w jakiś bałagan mieszanych porządków, ale wolno mniemać, że prawdą jest to, co przed 33 laty w „Sumie Technologicznej” w głuche wszędy uszy kładłem: ewolucja jest INŻYNIERYJNIE od nas nieporównanie sprawniejsza i MY OD NIEJ uczyć się powinniśmy. Nauki te już się obecnie zresztą wszczęły. 6 Ale i te najprostsze organizmy sprzed trzech miliardów lat, powielające same siebie z niską jeszcze wydajnością wskutek kiepskiej sprawności PRAKODU, nie były dosłownie „równoległym komputerem”. Podobieństwo w najlepszym razie może jest takie, jak między atomem — malutkim systemem słoneczno–planetarnym a atomem dnia dzisiejszej fizyki z kwarkami, barionami i leptonami. Każdy praustrój był jakby nanokomputerem szykującym się do samopowielenia dzięki energii przepływu w jego środowisku życiowym i tym samym stanowił jakby malutki prototyp „maszyny Turinga”, pracującej powoli (żadna maszyna Turinga inaczej, tj. szybciej, iterować nie może), a dopiero ich planetarne zbiory, o mocy może i trylionów, pozwoliły niektórym uzyskać („dobór naturalny”, „selekcja”) dość losowo sprawność lepszą, no i TE zaczynały się lepiej rozmnażać i przeżywały, i to „minimum sprawności przeżywalnościowej” stanowiło właśnie (może i lichy) model równoległe pracującego komputera: odbywały się jakby wyścigi na przeżycie… i to już stanowi cały, główny sens mego przyrównania praustrój owej bazy życia na planecie do równoległego komputera chemodigitalnego. W poszczególnych niciach nukleotydowych dochodziło do przeróżnych rekombinacji i znów nie należy, a raczej nie wolno, pomyśleć sobie, że w niedługi czas z tego nieustającego tasowania elementów, z których poskładały się replikatory, powstała ekspansywna potencja kreacyjna. Trzeba było tasowania „praprogramów replikacyjnych” przez dalsze dwa, dwa i pół miliarda lat aż do kambru: ten nasz „paralelny komputer”, który tak dziwnie różnił się od budowanych przez nas, że nikt dlań programu nie ułożył, tylko on sam go sobie sprawił DLATEGO, ZE WSZYSTKO, CO NIE WYGRAŁO W TEN SPOSÓB, ZGINĘŁO I ŚLADU PO TAMTYCH, WYRZUCONYCH Z GRY PRZEGRANYCH nie pozostało. A nie pozostało tym bardziej, że te praustroje, co przeżyły, mogły się szczątkami „nieudaczników–konkurentów” pożywić jako materią organiczną, i to strawną. 7 Bardzo byłoby ciekawe i warte wyśledzenia dowiedzieć się, w jakiż to sposób, z jakim prawdopodobieństwem, ta już okrzepła na elementarnym poziomie wegetacji „autoreplikatornia” wezbrała kreacyjnym potencjałem, dzięki któremu doszło do kambryjskiej eksplozji życia — przypominam, że około 800 000 000 lat temu. Tak głoszą znawcy, aleja, dyletant, sądzę, że nie było nagłego skoku (skok, który TRWA pół miliarda lat, za „nagły” uznany być raczej nie może) — a tylko najpierw, tj. przez milionolecia, powstawały takie lokalne „ekspansje” ku wielokomórkowości, które sczezły, ponieważ wkraczały w ślepe rozwojowe uliczki, wyzbyte wszelkiego przedłużenia jako dalszej prospektywnej potencji stawiania dalszych kroków ewolucyjnych „w górę”, aż w holocenie pojawił się Człowiek… TEGO, JAK tam było, moim zdaniem, nigdy się nie dowiemy. To jest mniej więcej takie zadanie, które obrazowo postaram się unaocznić. Miliony ludzi grają w ruletę. Pół promila wygrywa (reszta traci i kończy w biedzie). Z tego pół promila tworzy się następny szereg graczy: z nich wygrywa powiedzmy 90 000. Z tych wygrywa TRZECI raz z kolei 14, a po raz czwarty jeden i pan ów zwie się Homo sapiens sapiens. Przegranych nie widać i nie słychać, widać tylko tego, co wygrał, chociażby był on nawet pełen zakusów na własne życie i usiłował wysadzić w powietrze to Monte Carlo, w którym zdobył fortunę (a przy okazji wykończyć samego siebie). Taki obraz ludzkości POZWALA naszkicować dzisiaj paleobiologia ewolucyjna… A ponieważ procesu działającego — jak markowski — wstecz nie można zrekonstruować (on nie dysponuje bowiem pamięcią o własnych stanach wcześniejszych), to nawet mając komputery obliczeniowej mocy tryliony razy większej od Supercraya, możemy najwyżej wytyczyć wstecz wiele różnych szlaków, które BY mogły do końcowej wygranej doprowadzić, ale ustalić, KTÓRYM ewolucja poruszała się, aby wejść w finisz antropogenezy, ustalić jednoznacznie nie da się nigdy. Takie jest moje zdanie, skrzepione matematyką współczesnej teorii prawdopodobieństwa, w jej wielu ramionach kombinatorycznych, stochastycznych i last but not least w domenie gier, spokrewnionej z teoriami szlaków skanowania ergodycznego. Zapewne: mogę się mylić, ale wtedy okazałoby się, że nie ja jeden popełniłem błąd, lecz że całą potężnie rozgałęzioną probabilistykę razem z teoriami chaosu, fraktali itd. trzeba będzie zastąpić czymś takim, o czym nikt nie ma dzisiaj zielonego pojęcia. 8 Pozostaje mi odpowiedź na pytanie właściwie nader elementarne: po kiego licha wyskoczyłem z tym równoległym komputerem jako bazą protokodu i prażycia? Oczywiście nie tylko dlatego, a nawet bynajmniej nie dlatego, że piszę do magazynu poświęconego „twardym i miękkim” rzeczom komputerowym. Myślałem po prostu, że zmiana modelu wyjściowego, zmiana, która zdaje się przynajmniej NIE zakazana, zmiana, na którą wprowadziły mnie prace uczonych, jak Adelman, dowodzące jak wielkie są skryte nawet w oligonukleotydowych niciach moce obliczeniowe, pozwala spojrzeć — albo raczej: POZWOLI spojrzeć — na zagadkę biogenezy ziemskiej z nowej, innej strony. Nawiasem mówiąc, myślę sobie, że ze względu na okropny tłok ludzki, więc naukowy, więc konceptualny, jaki nam dziś Ziemię obrasta, pomysł mój przestanie być wyłącznie moim pomysłem, a ci, którzy się do niego na dobre wezmą, tak samo nie będą mieli najbledszego pojęcia, ze ich jakiś podkrakowski prekursor troszkę wyprzedził, jak ci, co dziś, fiksując na punkcie CYBERSPACE, pojęcia nie mają, żem o niej właśnie książkę pisał we wczesnych latach sześćdziesiątych. Zresztą już wiem, że doganiany jestem w predykcjach także na innych polach: mam nawet na to dowody i nie sądzę, aby coś niewłaściwego było w ukazaniu ich jako papierów uwierzytelniających niejaką sensowność mych antycypacyjnych, dawnych wysiłków. Więc chyba następnym razem napiszę o „sztucznych Uniwersach” zaludnionych przez symulaty „ludzi”; bo już nie ja i nie tylko w SF tą kwestią się zająłem… dość dawno temu. Zagadki 1 Miesięcznik „Znak” poprosił mnie o wzięcie udziału w ankiecie, poświęconej AI, sztucznej inteligencji, tak, abym udzielił odpowiedzi na trzy pytania: 1. Co jeszcze będą potrafiły „inteligentne maszyny” w przyszłości? 2. Czy rozwój techniczny, np. zwiększenie zakresu prac, powoduje konsekwencje natury egzystencjalnej, etycznej, emocjonalnej? Jeśli tak, to jakie? 3. Co przeszkadza maszynom myśleć i działać jak ludzie? W pierwszej chwili pomyślałem, że odpowiedzi, jakich mam udzielić, w objętości 2–3 strony, to mniej więcej tyle, co replika na pytanie, postawione na progu naszego stulecia, „co będzie można zrobić jeszcze z atomami”, „czy rozwój techniczny prac nad atomami spowoduje konsekwencje natury egzystencjalnej, etycznej, emocjonalnej, a jeśli tak, to jakie?” oraz „co przeszkadza atomom objawić potencje prospektywne, które uznajemy za przeszkody?” Nie wydaje mi się wcale, żeby zestawienie obu tych triad było zupełnym głupstwem. Nie mówiąc już o tym, że problematykę AI ogarnia dzisiaj literatura, której nie pomieści byle uniwersytecka biblioteka, a zarazem jest na pewno niemożliwością, żeby jakiś człowiek studiujący zagadnienia AI zdołał całość prac, jakie ten temat wywołał, w ciągu życia przeczytać. Już prędzej przeczytałby od pierwszej do ostatniej strony Wielką Encyklopedię Brytyjską. Zdecydowałem się jednak odpowiedzieć bardzo zwięźle, czyli apodyktycznie, ponieważ nie ze wszystkim jest prawdziwe porzekadło Rzymian Si tacuisses, philosophus mansisses. Czyli, że ten, kto nie otworzy ust, godny będzie miana filozofa (bo milcząc nim pozostaje). W naszych zwłaszcza czasach powszechnego zgiełku, wrzawy, potopu informacyjnego ten, kto rozsądnie zachowuje milczenie, nie filozofem się staje, lecz po prostu nikim. Odpowiedziałem więc, że maszyny będą mogły „wszystko”, czego nie zakazują Prawa Natury — prawa podstawowe, stanowiące zrąb naszej współczesnej i przyszłej wiedzy, że KAŻDA technologia, czy mająca, czy też nie mająca nic wspólnego z konstruowaniem AI, powoduje konsekwencje natury egzystencjalnej, etycznej, emocjonalnej, i że dopóki technologia nowa nie okrzepnie i nie zostanie wszechcywilizacyjnie wdrożona, skuteczna predykcja jej efektów (mniej więcej odpowiadająca terminowi TECHNOLOGY ASSESSMENT Amerykanów) możliwa nie jest. I wreszcie, po trzecie, że maszynom przeszkadza myśleć i działać jak ludzie to, że ani budową, ani funkcjonowaniem nie są z ludźmi (z ludzkimi mózgami) homologiczne. Jest całkiem inaczej, albowiem ewolucja maszyn (komputerów), o których potocznie mówią, że zmechanizowały przynajmniej część naszych myślowych procedur, oddala się od trendu, którym antropogeneza naturalnej ewolucji doprowadziła do tego, że stanowimy wszyscy bardzo do siebie podobne egzemplarze gatunku homo sapiens sapiens. 2 Rzecz oczywista, zdawałem sobie, odpowiadając w powyższy sposób, sprawę z tego, że moje odpowiedzi w istocie rzeczy są UNIKAMI, jako że stanowią dość banalne, aby nie rzec aż trywialne skróty pewnych oczywistości. Potem jednak uznałem, że odpowiedzieć na 2–3 stronach bardziej kompetentnie i rzeczowo jest rzeczą, podobnie jak we wzmiankowanym temacie „atomów”, zupełnie niemożliwą. Jak dotąd, obóz myślicieli i ekspertów, zajętych zagadnieniem AI, dzieli się na dwa wielkie odłamy przeciwstawne.” jedni sądzą, że AI „da się osiągnąć”, inni natomiast, że to jest niemożliwe. Przytem w powszechnym poważaniu znajduje się sławny test Turinga, który w postaci zredukowanej do najważniejszego sedna domaga się, żeby człowiek jako Egzaminator, prowadząc na dowolne tematy rozmowę z nieznanym mu interlokutorem, definitywnie określił, czy wymianę informacji prowadzi z drugim człowiekiem, czy z maszyną. Tutaj od razu wpadamy w swego rodzaju fuzzy set, „zbiór rozmyty” (ja takiego polskiego tłumaczenia terminu fuzzy set nie lubię, ale już się w narzeczu fachowców krajowych przyjęło), ponieważ wynik egzaminu niewątpliwie zależy od kompetencji OBU stron. Już są teraz programy, które znaczną ilość potencjalnych rozmówców ludzkich potrafią skutecznie omamić (nawet taki w istocie prymitywny program jak ELIZA profesora Josepha Weizenbauma oszukał jego sekretarkę). Umiejętności nie tylko w zakresie inteligencji ogólnej (mierzone powiedzmy, testami Bineta dla ustalenia rozmiarów IQ, ilorazu inteligencji na gaussowskiej krzywej normalnego rozkładu inteligencji w populacji LUDZI), ale jeszcze ponadto w obszarze, jakim się eksperci od komputerów, programów i last but not least AI zajmują, potrzebne są tu jako WIEDZA SPECJALISTYCZNA. Można to dość grubo przyrównać do sytuacji, w jakiej osoba, wybrana na „egzaminatora”, ma rozstrzygnąć, czy pewien inny człowiek (inni ludzie) rozmawiając ze sobą i zachowując się tak jak się ludzie zachowują w konkretnych sytuacjach życiowych, to jest AKTOR grający rolę nie swej osoby, ale jakiejś fikcyjnej, czy też jest to człowiek, który nikogo nie udaje, ale po prostu jest samym sobą. Niewątpliwie można w znacznej mierze przesądzić wynik takiego testu, jeżeli „rozjemcą–sędzią” będzie osobnik bardzo dobrze wprowadzony w schematy i fabuły utworów scenicznych, filmowych i teatralnych. Ja nie myślę tu naturalnie o filmach, w których Gajusz Juliusz Cezar rozmawia z Brutusem po angielsku. 3 Cała powyższa gadanina była mi potrzebna dla wprowadzenia w sprawę najbardziej istotną. Mianowicie milczące (prawie zawsze) założenie przeprowadzania testu Turinga brzmi tak mniej więcej: ludzie nie są wszyscy jednakowo inteligentni, ale jeśli z nie wymagających wyjaśnienia powodów wyłączymy z grona Egzaminatorów debilów czy innych głupców, to właściwie KAŻDY normalny człowiek dysponuje takim zasobem wiedzy i tak zwanej „performatywności językowej”, żeby mógł z programem maszynowym typu AI prowadzić rozmowę, zwieńczoną „zdemaskowaniem” maszyny, czyli ustaleniem jej „nieludzkiego charakteru”. To już teraz zaczyna być co nieco wątpliwe. Przytem wyścig na polu przemysłu komputerowego, który doprowadził ostatnio do tego, że mamy już procesory typu P 6, które potrafią prześcignąć Pentium, dokonując dwu miliardów operacji elementarnych na sekundę, wcale nie musi prowadzić nas do przybliżenia momentu, w którym program oparty na takiej hardware pokona symulacją KAŻDEGO człowieka. To jest jeszcze z kilku powodów dość daleko przed nami, a fakt, że nawet Kasparow dostał od maszyny mata, niczego w naszym temacie (AI) nie przesądza, ponieważ brute force NIE może być skutecznie zastosowana do naśladowania językowego zachowania normalnej ludzkiej jednostki. Maszyny niewątpliwie JUŻ nas prześcignęły na wielu polach. Dobry program diagnostyczno–terapeutyczny, który dysponuje pełnym dziś zbiorem wyników badań „dodatkowych”, potrafi prześcignąć w celności rozpoznawania przypadłości chorobowych ORAZ ustalenia ich terapii większość lekarzy. To nie jest teza gołosłownie postawiona: Amerykanie, kochający się w badaniach statystycznych na dużych liczebnie grupach relewantnych (czyli reprezentatywnych dla ogółu ludzi chorych i zdrowych) wykazali, że maszyny wykonują ekspertyzy typu medycznego nie gorzej niż dobrzy klinicyści. Powstały też już próby wprowadzenia maszyn na wokandy jako sędziów itp. Pole tych działań bezustannie się rozszerza, i ogólnie wolno rzec tylko tyle: cokolwiek z naszej wiedzy (dziś wynosi ona globalnie około 1015 bitów i ulegnie podwojeniu do roku 2000) da się zalgorytmizować, zbudować na kształt wielodendrytowego drzewa decyzyjnych alternatyw, cokolwiek nie zawiera sporej ilości antynomii (sprzeczności logikosemantycznych) — W ZASADZIE może zostać przetworzone w program dla maszyny, która nie tylko należy do kategorii automatów skończonych, ale ponadto dysponuje taką mocą obliczeniową, żeby na wynik jej procedury (lekarskiej, geologicznej, sądowej, astrofizycznej) nie trzeba było czekać 200 lat (co by nastąpiło, gdyby użyć najprostszej maszyny Turinga…). Jednym słowem jest tak, że choćbyśmy moc obliczeniową potęgowali w systemach iteracyjnych, jednokrokowych, jakie dominują dziś na światowym rynku komputerowym, możemy w najlepszym razie stworzyć rudymenty, makiety „inteligentnego rozmówcy”, ale dorównać mu się tą drogą nie da. (Byleby miał być, powtarzam, naprawdę inteligentny i rozumny, a jedno nie jest tym samym, co drugie). Nawiasowo warto dodać, że programy i takich maszyn można aproksymacyjnie przybliżać do prototypu, który by wygrywał w licznych pojedynkach Turingowego typu z przeciętnymi rozmówcami, JEŻELI program będzie uwzględniał kilka własności każdego języka ludzi. Naczelną własnością jest A) polimorfizm semantyczny, czyli to, że znaczenia słów są oparte na pojęciach, które się układają w całe gamy różnych sensów, ustalonych kontekstowo, konsytuacyjnie, konotacyjnie i denotacyjnie — nawet jeżeli nie desygnacyjnie; B) probabilizm w obrębie logiki wypowiedzi, który udaremnia odwoływanie się do tertium non datur, czyli że niby zawsze jest ALBO TAK — ALBO NIE. Probabilizm ten wprowadza nas w nowe logiki nie tylko dwuwartościowe (typu prawda–fałsz), ale i fuzzy sets i nawet zezwala na używanie oksymoronicznych antynomii. Jeżeli bowiem — najlepiej użyć przykładu trywialnego, ale prostego — ktoś powie: „Ładna dziewczyna, ale wciąż się puszcza”, a ktoś odpowie „ładna, ale absolutnie nieprzystępna”, a to ponieważ po orzeczeniu przyszła negacja, niby to „nic nie wiadomo”, lecz na ogół większość ludzi poczuje jakieś ślady zwątpienia w doskonałą niewinność dziewczęcia. Po prostu „tak jesteśmy umysłowo urządzeni” i maszyna, która miałaby człowieka naśladować, TEŻ musiałaby analogicznie szwankować pod względem logiki wypowiedzi, musiałaby mieć trudności z „pamięciowym” wykonywaniem dłuższych obliczeń (choćby prostych arytmetycznie), musiałaby też popełniać błędy, ponieważ my się właśnie w taki sposób zachowujemy w normie. 4 Każdy, kto przeczytał Probabilistyczny model języka znanego matematyka– probabilisty Nalimowa, zostanie przez autora przekonany, że maszynie ŁATWIEJ wygrać test Turinga (w rozmowie z człowiekiem), aniżeli dokonać pełnowartościowego tłumaczenia tekstu niebanalnego i nienaukowego (np. filozoficznego, literackiego, a jeszcze może wiersza) z języka na język. A to, ponieważ gdy patrzeć na tłumaczenia DOBRE przez szkła logicznej semantyki, widać, że o dosłowności jedno–jednoznacznej nigdy nie ma mowy. Nalimow twierdzi, a ja za nim, że tłumaczenie jest zawsze interpretacją sensów pojęciowych, stojących ZA poszczególnymi zdaniami tego, co zostało wysłowione w jednym języku, na to, co ma stanowić odpowiednik w języku innym. To jest właściwie oczywiste, ponieważ wiemy, że w tym samym języku każdy może się jako tako porozumieć z innym, tak samo władającym tym językiem (oczywiście nie w tym rzecz, żeby szło o topologię czy algebrę), natomiast biegła znajomość dwu języków jest wprawdzie warunkiem dla sprawnego tłumaczenia KONIECZNYM, ale nie jest warunkiem wystarczającym, nie każdy taki człek zdoła ujawnić sprawność jako tłumacz — nawet prozy (od źle przełożonych dzieł literatura światowa wprost się roi). 5 Ale i to nie wszystko: to zaledwie prolegomena AL Chodzi o to, że moim przynajmniej zdaniem osobowość i inteligencja to są sprawności potencjalnie ROZŁĄCZNE. Możliwy jest rozum bezosobowy i taki próbowałem pokazać w książce Golem XIV. Sęk mianowicie w tym, że Jaźń” czyli mniej więcej to, co kryje się za zaimkiem JA, wcale nie jest przecież jakąś jednością (powiadają dla unaocznienia: nie jest tak, żeby w mózgu naszym mieszkał maleńki człowieczek, dzierżący cugle naszych wolicjonalnych sprawności, i żeby on się NAZYWAŁ „JA”). Małe dzieci mówią zwykle o sobie w trzeciej osobie (mały Jaś nie mówi „Ja chcę banana”, ale raczej „Jaś chce banana”). Świadomość konstruuje osobowość samonazywającą się JA nie bez mozołu, a w licznych schorzeniach umysłowych typu psychiatrycznego ORAZ neurologicznego przy uszkodzeniach ośrodkowego układu nerwowego owo „JA” ulega dziwnym przemianom. Może się powielać (rozszczepienia osobowości: multipersonality syndrome), co dawniej wykładano w kręgach spirytystycznych bardzo tajemniczo. Profesor Max Dessoir w latach trzydziestych opisywał osoby, które, prowadząc z kimś rozmowę zupełnie normalnie, JEDNOCZEŚNIE potrafiły wypisywać teksty z tą rozmową nic a nic nie mające wspólnego: osoba taka mniemała, ze jej ręką włada jakiś „spiryt”, powiedzmy — duch. Możliwe jest też poczucie, że „jaźń” nie znajduje się wewnątrz ciała (głowy), ale gdzieś „obok”. Możliwe są stany hiponoiczne, hipobuliczne (o nich pisał m.in. twórca typologii antropologicznej E. Kretschmer) a wniosek z tego w sumie taki: jeżeli maszyna jakiejś przyszłej generacji będzie dysponowała programem symulującym inteligencję, to ona powinna też ewentualnie okazać się PODATNA na dewiacje powyższego typu. Zresztą już znany jest od dość dawna jako PARRY w USA program tak dobrze imitujący paranoika, że psychiatrzy czystej wody kwalifikowali go jako „zwykłego chorego na zespół paranoidalny”. Z tego znów wniosek, że nienormalność ludzką można łatwiej symulować, aniżeli normalność i, obawiam się, ludzką głupotę (nie jest znów bardzo rzadkim zjawiskiem) łatwiej od wysokiej inteligencji. DLATEGO w Cyberspace tak trudno dziś spotkać się z ukształtowanym przez komputer inteligentnym rozmówcą. Zresztą i o tym pisałem w rozdziale „Fantomologia” „Sumy” w 63 roku. 6 Prace nad AI trwają już około pół wieku i rezultaty pozostają nad wyraz skromne. Jak wykazują badania amerykańskie, nasz mózg jest układem wielomodułowym, czyli tworzą go stosunkowo niezależne podzespoły, i tak na przykład mogą one zarówno dobrze współpracować, jak kolidować czynnościowo. Dlatego powstają pozorne paradoksy: debil może być rachmistrzem konkurującym z elektronicznym liczydłem, przynajmniej w zakresie arytmetyki, może też ktoś fenomenalnie zapamiętywać w sposób „fotograficzny” całe stronice tekstu. Zresztą wiadomo, że funkcje, wdrożone pod kontrolą świadomości, opuszczając ją i obracając się w automatyzmy, bywają sprawniejsze czynnościowo (co najkrócej wykłada anegdota o stonodze, zapytanej, jak to jest, że WIE jak poruszać tyloma nogami w ordynku, a ona, zastanowiwszy się, już kroku zrobić nie może). Tak jest naprawdę, kontrola świadomości skierowana na pewne automatyzmy, np. recytację poematu, może ją zakłócić, a nawet zastopować. A z kolei mowy dziecko uczy się bez wprowadzania w gramatykę języka otoczenia, i wtedy, między drugim i czwartym rokiem może doskonale wyuczyć się dwu, także i trzech języków „bez nauki”, od zanurzenia we wielojęzykowym środowisku. Natomiast lokalizacja języków, jakich uczymy się później, jest całkiem odmienna („inne moduły” muszą przejść trening i wprowadzenie w składnię, leksykę itp). Dlatego ktoś, kto podległ uszkodzeniu ośrodków mowy ojczystej, może czasem porozumiewać się wyłącznie językiem późno wyuczonym, i to takim, którym dość słabo władał. Z dziećmi, odizolowanymi od środowiska językowego, po jakimś 5–8 roku jest bieda, bo nauczyć się wprawnie „automatyzmów mowy” już nie są zdolne. Znaczy to, ze mózg jest w znacznej mierze po narodzinach preformowany na tyle, że dysponuje gotowością zyskania językowej wprawy, a potem mechanizmy neuralne „czekające” na to ulegają jak gdyby atrofii. Jednym słowem, im lepiej, choć wciąż mizernie poznajemy mózg, tym jawniejsze stają się różnice względem takich automatów skończonych, jakimi są komputery WSZYSTKICH generacji. Zagadka mózgu tkwi w tym, że jego modularność może być zarówno siłą inteligencji ogólnej, jak jej słabością. W mózgu może trwać potencja, niejako ziarno, i geniuszu i talentu, zaś dewiacje współpracy modułów mogą być podłożem obłędu. Tunele „ku AI” bić więc trzeba i od strony technik naszej komputerowej wiedzy, i od strony neurofizjologii mózgu. Na pisanie o tym, jak mogłyby działać komputery „mieszane” budulcowo, czyli biotechniczne, w przyszłości, już miejsca mi teraz nie staje. Prawdopodobniejsze wydaje mi się uruchomienie bezosobowego rozumu niż inteligencji, zdającej test Turinga na celująco poprzez imitację językowej sprawności ludzkiej. Zostaliśmy urobieni przez ewolucję, która „wymusza” sprawności przeżywaniu służące, a nie rozpoznawaniu czy to wewnętrznej dynamiki mózgu, czy funkcjonowania naszego ciała w jego wnętrzu. Dlatego o galaktykach możemy dziś więcej się dowiedzieć niż o tym, co „mamy w głowie”, i stąd też tyle zamętu w filozofiach, wspartych na introspekcji filozofów, bo o błąd tu bardzo łatwo. Nie wiemy nic o tych „Atlasach” podkorowych, które nie tylko świadomość wspierają, ale wręcz ją współtworzą i tym samym są agregatami, łącznie pracującymi „na rzecz” inteligencji, zaś jakość ich współpracy jest kształtowana i przez kanał dziedziczenia (genami) i przez kanał kultury życiowego środowiska. Komputery mogą być łączone (jak teraz) w sieciach różnych Internetów, ale choćby połączyć ich miliardy, z tego mrowia łączy inteligencji wykrzesać się nie da. Inaczej mówiąc: różnice między mózgiem a komputerami mającymi go dzięki programom naśladować jak były olbrzymie w epoce Eniaka, takie zostały po dziś. Ale dla przyszłych generacji maszyn przetwarzających informację wynika z tego akurat tyle, co wynika z niepodobieństwa ptaka do odrzutowca, albo nawet odrzutowca do „ornitopterów”. Jak wiadomo, i na Księżyc dolecieliśmy, ale ornitopterów konkurujących z orłem czy samolotem nie ma w naszym technologicznym rynsztunku. Nie należy więc ani zarzekać się, że AI jest Już, tuż” przed nami, ani, że jej nie będzie nigdy. Zresztą środowisko cywilizacyjne samo wciąż „doładowuje się” informacyjnie, tak że człowiek coraz gorzej orientuje się w tych informacją żywionych i poruszanych urządzeniach, które mu służą, które eksperci dlań skonstruowali… i tym samym wydali na pastwę także destrukcyjnych, złoczynnych aktów ludzkiej woli. Tajemnica chińskiego pokoju 1 John Searle wzniecił książką Minds, Brains and Programs zawartą zrazu w The Behauioral and Brain Science, tom III, Cambridge University Press, wydaną w 1980 roku (a więc 15 lat temu), istny popłoch, czy jeśli ktoś woli łagodniejsze określenie, pełną kontrowersji burzę w środowiskach amerykańskich badaczy Artificial Intelligence. Ja, zamierzając tu wziąć na stół operacyjny clous jego tekstu — nazwa odpowiada tytułowi tego eseju — nie przytoczę ok. 28 replik i diatryb, jakimi środowisko AI w USA usiłowało „unicestwić” wnioski, które wg Searle’a wypływają z jego książki. Nie chciałbym też szczególnie zrobić wrażenia, jakobym był mądrzejszy od wszystkich badaczy tego grona na wszystkich (bez mała) uniwersyteckich ośrodkach, lecz amicus Ploto, sed magis amica veritas. Jeśli ktokolwiek ujrzy możliwość obalenia mego sekcyjnego wywodu na rzecz Searle’a, będę zarazem mocno zdziwiony i dosyć zadowolony, ponieważ nie jest wcale rzeczą wygodną górować nad masą mędrców. Przechodzę ad rem. Searle chciał dowieść, że możliwe jest doskonałe naśladowanie ROZUMIENIA tekstu, którego w samej rzeczy człowiek, mający ów tekst złożyć, w ogóle ani trochę nie rozumie. Uczynił to w pomyślanym doświadczeniu, które dla większej pewności pojęcia sprawy PRZEZE MNIE dwa razy czytałem: raz w oryginalnym dziele D. R. Hofstadtera i D. Dennetta The Minds I, a drugi w dobrym przekładzie niemieckim Einsicht ins Ich (Klett–Cotta Verlag 1981). 2 Rzecz wygląda tak oto. Searle, znający angielski, ale chińskiego za nic, jest zamknięty w pokoju i dostaje kolejno TRZY paczki kartek, zapisanych znakami chińskiego pisma. Znaki te w jego oczach NICZYM nie różnią się od steku najzupełniej dowolnych gryzmołów. Dostawszy paczkę pierwszą, otrzymuje po angielsku napisane instrukcje, jak ma drugie znaki z drugiej paczki przyporządkować do znaków paczki pierwszej. Dostaje nareszcie trzecią paczkę stronic, z symbolami również chińskimi i z angielską instrukcją, która mu umożliwia określone przyporządkowanie znaków trzeciej kartki do dwu pierwszych. Searle nie wie wcale, że ten, kto mu dał wszystko, zwie pierwszą paczkę „pismem” (Script, Schrift), drugą — „Opowieścią”, a trzecią „pytaniami” dotyczącymi tej opowieści. Postępując czysto formalnie, czyli przypasowując jedne znaki do drugich i do trzecich, uzyskuje już sam zapis, którego TAKŻE w ogóle nie rozumie. Jednakowoż dla osób chiński język i pismo znających do pokoju dostała się opowieść, a z pokoju wydostały się sensowne odpowiedzi na pytania dotyczące treści tejże opowieści, wszystko sensowne i składne; CHOCIAŻ manipulujący znakami–kartkami człek NIC z chińskiego pisma nie rozumie i nic nie zna. Z czego ma wynikać, że manipulator w pokoju działa jak komputerowa hardware, instrukcje zaś angielskie stanowią PROGRAM (software) i już z tego widać, że można sensownie odpowiadać na chińskie pytania odniesione do chińskiej opowieści, w ogóle chińskiego nie rozumiejąc, i to ma być model działania komputera. Hofstadter, który w ślad za Searlem w swej książce dokładnie „eksperyment” z chińskim pokojem rekapituluje, opatrzył go zarówno własnymi zastrzeżeniami, jak i streszczeniem najistotniejszych kontrargumentów (przeciw zrównaniu układu „pokój plus człek plus instrukcje” z komputerową hardware, instrukcji angielskiej z programem, tj. software), jakie przysłały najwybitniejsze zespoły pracowników badających szansę AI m. in. z uniwersytetów: Berkeley („systemowa” odpowiedź: człek sam nic nie rozumie, ale on plus instrukcje plus pokój „rozumie chiński”), z Yale (odpowiedź obrazuje zajście w stylu „robota”), Massachusetts Institute of Technology z pomocą Berkeley (replika oparta na symulacji mózgu), Stanford (kombinowana replika), Yale (próba redukcji ad absurdum: skąd wiadomo, że są jacyś INNI, co chiński rozumieją? — Z ich zachowania, bo do mózgu nikt im zajrzeć nie może, więc behawioralnie „pokój” jest równoważny „Chińczykowi”), znów Berkeley itd. Mnożenie replik byłoby nużące. Hofstadter usiłuje obalić „dowód” Searle’a ukazany jego „myślowym eksperymentem”, podkreślając, że jak zręczny prestydigitator kamufluje Searle rzeczywiste trudności, raz, gdyż samo zestawienie setek i setek symboli chińskich trwałoby może miesiące (po mojemu to nie jest kontrargument, tylko unik), a raz, podkreślając stronę „sinologiczną”. To jest bardziej sensowne, ponieważ TYLKO ten, kto NIC o chińszczyźnie nie wie, mimo woli zakłada, że ona jest językiem budowanym z odrębnych „znaków–klocków”, które ani deklinacji, ani koniugacji, ani idiomatyki nie posiadają. Ponieważ ja z „pokojem chińskim” w żaden spór, w żadną dyskusję wejść nie zamierzam, pozwolę sobie przełożyć cały ten myślowy eksperyment na inny, daleko prostszy, który „tajemnicę” nieźle zdemaskuje. 3 Bierzemy tak zwany puzzle, który jako składna całość ukazuje jakiś naturalistyczny obraz albo jakąś fotografię. To może być kopia Rycerza Rembrandta, albo fotografia wieży Eiffla, wszystko jedno, CO tam widać, byle naturalistyczna oczywistość obrazu była DANA. Następnie ten obraz rozcina się na takie małe, pokrętne fintifluszki–kawałki, z jakich zazwyczaj takie igraszki (puzzle) się składają, bacząc wyłącznie na to, żeby się formą każdy kawałek różnił od każdego na tyle, ażeby ich nie dało się dopasować w składną całość, zamieniając elementy błędnie miejscami. Na koniec odwracamy obraz i potrząsamy pudłem, w którym leżą te kawałeczki, aby porządnieje wymieszać. Potem przychodzi nasz eksperymentator, widzi same „lewe strony” tych kartonowych kawałeczków i ma z nich złożyć całość taką, ażeby każdy znalazł się tam, gdzie pasuje. Będzie to nieco pracochłonne, ale możliwe, skoro zamiany miejsc zostały udaremnione kształtem indywidualnie nadanym tym kawałkom. Jeżeli teraz odwrócimy całość obrazem do góry, to oczywiście zobaczymy obraz Rembrandta, Ledę z łabędziem czy też wieżę Eiffla, mimo że ten, kto składał kawałki, nie miał najbledszego pojęcia o tym, że składa nie bezsensowne kształty w całość obrazu, ale że odtwarza pewien bardzo wyrazisty, jednoznaczny OBRAZ. Przecież to jest całkowicie oczywiste i żadnej dodatkowej informacji w ogóle nie wymaga. Zamiast obrazu może tam się równie dobrze znajdować napis w polskim, w albańskim, chińskim czy jakimkolwiek innym z istniejących na tej planecie 5000 języków: może tam pojawić się napis „Kto rano wstaje, temu Pan Bóg daje”, albo „Chłop żywemu nie przepuści”, albo Ich weiss nicht, was soli es bedeuten, dass ich so traurig bin (Heine, Lorelei) itd. Wszystko jedno, co się pokaże po odwróceniu lewej strony poskładanych należycie kawałków na stronę właściwą, tj. „prawą”, ale przecież ewidentne jest, że ten, kto składał, jak „program komputera”, NIC nie wiedział, czyli nie miał pojęcia, czyli ani na włos nie rozumiał, CO ukaże się na odwrocie, a nawet nie miał wyobrażenia o tym, ŻE tam się jakakolwiek koherentna całość znacząca pojawi. Czy to jest argument przeciw mniemaniu, iż komputer mógłby jednak rozumieć podobnie jak człowiek, co on robi, wykonując kolejne kroki nadane instrukcją? Moim zdaniem, ma to tyle wspólnego z „obaleniem” tezy o AI, co teza, iż z kremowych ciastek można ułożyć napis, negujący szansę wybuchu Etny. Jedno za grosz nie ma nic wspólnego z drugim. 4 Do ataku na Searle’owy eksperyment z chińskim pokojem można by się oczywiście wziąć inaczej, tj. zamiast przenosić rzecz na ten puzzle, np. postulować, żeby język i pismo chińskie porzucić na rzecz greki albo hebrajskiego czy arabskiego, albo łaciny itd. bez końca. Wtedy dopiero im bardziej ten język okaże się chociaż odrobinę podobny do naszego (powiedzmy rumuński, bo ma alfabet łaciński, albo cyrylica, bo jest derywatem greki), tym jawniej będzie widać, że PYTANIA odniesione do OPOWIEŚCI w dość silny sposób te odpowiedzi determinują i gdyby ktoś (Searle) jednak nadal upierał się przy chińszczyźnie, również mam na niego sposób. Przy pomocy sinologa, biegle znającego chiński, do pakietu „pytań” dołączę specyficzne: np. opowieść dotyczy znanej bajki z 1001 nocy o Sezamie i skarbach Sezamu. Pytanie brzmi: jak to może być, że na głos wypowiedzianych słów „Sezamie, otwórz się” skała się otwiera? Odpowiedzi mogą być różnie dorzeczne. A) Skała się otwiera, ponieważ opowieść jest BAJKĄ, w której mogą zachodzić zdarzenia, jakie w zwyczajnej realności już nie mogą zajść. B) Skała się otwiera, ponieważ jest makietą, zbudowaną w Hollywood w celu nakręcenia odcinka serialu pt. „Opowieści z tysiąca i jednej nocy”. C) albo: skała jest tworzywem plastikowym, poruszanym ukrytym motorem elektrycznym, głos zaś aktywizuje specjalne akustyczne czujniki”. I tak dalej do końca świata. Moim zdaniem odpowiedź PIERWSZA, udzielona w porządku genologicznym, czyli odwołująca się do naczelnego dla gatunku bajek paradygmatu (dopuszczalnych „czarów i cudów”), jako NIE–techniczna, jest najbardziej sensowna, ale skąd wiedzieć, czy ona znajdzie się wśród możliwych do ułożenia „chińskich replik” w „pokoju”? 5 Możliwe jest też zresztą, żeby wśród pytań znalazły się takie, które „zdemaskują zasadnicze NIEROZUMIENIE” wszystkich tekstów przez „chiński pokój”, co o tyle widzę jako dozwolone, ponieważ Johnowi Searle i jego respondentom dziwacznie (w mych oczach) wydawało się, że tak zwana strong AI, czyli hipoteza możliwości pokonania testu Turinga przez maszynę, zostaje w ramach „tajemnicy chińskiego pokoju” załatwiona negatywnie: maszyna, jaką udaje pokój, nic nie rozumie, a mimo to odpowiada na pytania tak, jakby je rozumiała. Klucz do TEJ sprawy tkwi w „pakiecie pytań”. Powiedzmy, że bajka do opowiedzenia po chińsku jest bajką o Lampie Aladyna. Pytania brzmią: „Czy lampa była elektryczna, na baterie?”, „Czy lampa była naftowa i napełniona naftą, tj. zdolna dzięki knotowi i zapałkom do zapalenia i dania światła?” Jeżeli są takie pytania, które A PRIORI wykluczamy jako kierujące na manowce, to o żadnej analogii z testem Turinga mowy nawet nie ma. Obecnie jako skrótowy, autentyczny i oczywisty przykład zastosuję argumentum ad hominem, przy czym ten człowiek, to ja. Jestem już bardzo przygłuchy, bez aparatów wetkniętych w oboje uszu prawie nic nie rozumiem (skoro nie słyszę) z tego, co się do mnie mówi. Jeżeli w piekarni, w której kupuję pieczywo, obcy człek, rozpoznawszy mnie, bo mnie w telewizji widział, zwróci się do mnie, ja nie mogę przez wzgląd na całokształt sytuacji sięgać do guzików płaszcza, potem do kieszeni po pudełko z protezami słuchowymi, lecz usiłuję z tego, co on mówi do mnie, uchwycić chociaż jedno–dwa słowa. To zwykle się udaje, a jak nie, to on powtórzy albo powie coś głośniej i nakieruje mnie na rozmyty, ale może i generalny sens swojej wypowiedzi. Nieporozumienia w rozmowach z głuchymi często się naturalnie zdarzają, ale nikt wtedy, nawet gdy nieporozumienie jest 100%, nie sądzi, że mówi do manekina albo do robota z takim komputerem w czaszce, który „tylko czysto formalnie działa”. Czysto formalnie działał ten, kto składał tablicę w obraz (puzzle), ten, kto składa niepojęte symbole chińskie, ale gdy on omyli się, to Chińczyk uzna raczej, że to tylko omyłka, a nie 100–procentowy brak wszelkiego rozumienia. Zresztą na ogół jest tak, że sens dla rozumienia współwyznacza konsytuacja i nie myślę, żeby pytający w piekarni pytał mnie o liczbę gwiazd w mgławicy Andromedy albo o najlepszy przepis na sporządzenie piernika z migdałami. A ponieważ pytania są „ściskane kierunkowo” przez tekst opowieści, są zarazem dawane przedustawnie, czyli są probabilistycznie predeterminowane w obrębie takiego fuzzy set, takiego rozmytego zbioru, który posiada strzałkę kierunkową orientującą go już a priori w Jakie takie rozumienie”. Natomiast mąk i zawiłości, wysypanych przed Searlem przez wszystkich mędrców z uniwersytetów nie jestem w stanie pojąć w ogóle. Niechże Searle, zamiast opisywać myślowe eksperymenty, miażdżące rzekomy mit o rozumnych komputerach, da się zamknąć w pokoju, niech mu tam wsuną ten „skrypt” i tę opowieść, ograniczoną nader skromnie do wersów „Wlazł kotek na płotek i mruga, krótka to piosenka nie długa” i niech spytają (po chińsku, na kartkach) o rodzaj plota, o rasę kota, o to, czy jak kot mruga, to ma jakieś specjalne znaczenie, czy raczej mruga ot tak sobie, a po polsku tylko dla rymu. I niech Searle odpowie jako tako dorzecznie. Ogólnikowe testy tego rodzaju, nie chwalący się, mogę produkować furami i absolutnie nic z nich nie wynika. Jak wiadomo, w późnej swej książce o przyszłości opisał Wells przyszłe wojny powietrzne, w których sterowne balony miałyby rozpruwać sterówce wroga ostrogami, nie przymierzając jak wojenne fregaty czyniły to ongiś wrażym statkom. Czy dochodzi teraz do wrogich starć sił powietrznych w czasie wojny? Oczywiście tak. Czy PO Wellsie powstały wielkie, lżejsze od powietrza machiny latające? Naturalnie, to były (głównie niemieckie) Zeppeliny. Czy wrogie rozpruwały sobie ostrogami powłoki? Nigdy, a na pytanie „czemu nie” już się w podobnie lakoniczny sposób odpowiedzieć nie da. Ludzie parający się AI na razie dowiedzieli się, że trzeba dla gry w pytania i odpowiedzi stwarzać porządne RAMY (frames) sytuacyjne, ale wiadomo też z doświadczeń dnia powszedniego, że można pytać kucharkę o to, jak zasmażkę robi, ale się raczej nie należy spodziewać jej sensownej odpowiedzi na pytanie, dlaczego w tłokowych silnikach spalinowych nowszych modeli aut nie ma dwu zaworów (ssania i wydechu), tylko cztery albo chociażby trzy. Nie powie nic, bo pojęcia nie ma, co z „rozumieniem” albo i „nierozumieniem” gramatyki, idiomatyki, składni języka nie ma nic wspólnego. Żeby rozumieć wypowiedź, należy uchwycić jej sens i jej zakres znaczeniowy i last but not least jej desygnatywną orientacją specyficzną. Chiński pokój Searle’a, podobnie jak mój puzzle, niczego nie przesądza, niczego nie klaruje, niczego nie predeterminuje, niczego nie „załatwia” raz na zawsze. Dodam, co po trosze należy do rzeczy, że w wyróżnionym miejscu mej biblioteki znajduje się pochodząca z roku 1924 książka niemieckiego DOKTORA (ale nie medycyny), który matematycznie, chemicznie i fizycznie udowodnił w niej zupełną niemożliwość lotów kosmicznych, a nawet uzyskania przez rakietę napędu zdolnego pokonać grawitację, żeby mogła wejść na orbitę okołoziemską. Jest to bardzo ładny dowód „przeprowadzony ściśle formalnymi środkami”. Warto o nim pamiętać adwersarzom Sztucznej Inteligencji. Głównym zarzutem przeciw memu sprowadzeniu „tajemnicy chińskiego pokoju” do składanki typu puzzle byłoby nadmierne uproszczenie sprawy. Teraz ją więc skomplikuję. Nie obraz znajduje się na awersie puzzle’a, lecz te wersy Otella, które mówią, jak zadusił on Desdemonę. Składający kawałeczki nic o tym nie wie. Dostaje dwie paczki innych kawałków jako „pytania” i jako „odpowiedzi na pytania”. Wszystkie widzi tylko jako porozsypywane bezładnie fragmenciki tektury i ma złożyć z nich całości dzięki temu, że ich ząbki, wcięcia i wycięcia pasują do siebie w sposób jedno–jednoznaczny. Po odwróceniu owych trzech składanek widać, ze pytania brzmiały „Dlaczego Otello dusi Desdemonę?” oraz „Czy miał po temu jakąkolwiek rację?”, odpowiedzi zaś, odpowiednio „Dusi ją z zazdrości” oraz „Został wprowadzony w błąd przez Jagona”. Całość tekstu, pytań i odpowiedzi, ma być złożona z wyrazów ANGIELSKICH, zaś składający jest Chińczykiem, który ani słowa po angielsku nie zna, a jednak, dzięki czysto formalnemu postępowaniu (układaniu łamigłówki) uzyskuje zborny tekst, zborne pytania i adekwatne na nie odpowiedzi. Uprzednio Searle zamącił co nieco w głowach tym, którym swój eksperyment opisał, bo to „chińszczyzna” itp. Teraz widać, że istotnie możliwe jest przy postępowaniu czysto formalnym (też składa się kawałki wedle ich FORMY, a nie ich sensu) dokonanie eksperymentu. Wszelako jednocześnie widać, tym razem już bardzo wyraźnie, że Chińczyk w „angielskim pokoju” istotnie NIC nie rozumie. Więc KTO rozumie teksty w OBU wypadkach, Searle’a i moim? Oczywiście ten, kto cały eksperyment — tak pierwszy, jak drugi — wymyślił, ułożył i zaprogramował. „Rozumienie” nie znajduje się w żadnym pokoju, ani w tym „chińskim” z Anglikiem, ani w tym „angielskim” z Chińczykiem, programy zaś w obu wypadkach tym się od siebie różnią, że jeden raz przypasowuje się znaki jednego chińskiego pisma FORMALNIE do znaków innego chińskiego pisma, w moim zaś dopasowuje się FORMALNIE kształty wycinków tektury. Różnica jest bezistotna, bo istotne jest wyłącznie postępowanie układającego, który tu i tam nic nie rozumie z tekstu i nie jest ważne, czy widzi tekst, ale nie rozumie go, nie znając chińskiego, czy raczej tekstu nie widzi (Chińczyk), ponieważ jakby go widział, TOBY TEŻ NIE ZROZUMIAŁ, skoro ma zespalać formy, a nie symbole. Eksperyment, mówiąc krótko, wyprowadza nas w pole, przy czym Hofstadter w swej książce TEŻ tak uważa, ale niepotrzebnie wyjaśnienia skomplikował. Nie w tym sęk, że chińskie pismo do chińskiego pisma byłoby nieporównanie trudniej dopasować (litery PISANE mogą się dla ignoranta różnić jak graficznie bardzo odmienne litery łacińskie — czy „f jest tożsame formalnie z „F”?), ale w tym sęk, że robota jest zawsze asemantycznie formalna. Tak zatem „rozumienie” w samych testach nie uczestniczy w ogóle i a fortiori nie ma mowy o obecnej „świadomości”. Czy inteligencja sztuczna jest możliwa, pokaże przyszłość. Z omawianą reductio ad absurdum ta przyszłość NIE MA NIC WSPÓLNEGO. Hodowla informacji? 1 Koncept widoczny w tytule naszedł mnie we wczesnych latach sześćdziesiątych, kiedy zabierałem się do pisania „Sumy Technologicznej” i w związku z tym zagłębiałem się w literaturze poświęconej Darwinowskiej ewolucji naturalnej. To, że sama ewolucja stanowiła osobliwy rodzaj „hodowli informacji”, usytuowanej w genach jako matrycach– projektach rozwoju drzewa Linneuszowego, nieraz jako orzeczenie, sprowadzające ewolucję do jej „sedna” czy „siły napędowej”, po jakimś czasie obróciło mi się w głowie właśnie w niejaką „odwrotność” znaczenia. Podczas kiedy, mianowicie, w ewolucji przetrwać może tylko to, co (jako organizmy określonego gatunku) PRZEZYWA (w „walce o byt”, która ani trochę krwawą walką być nie musi), pomyślałem, że gdyby udało się zamiast reguły „przeżywa najlepiej przystosowane do otoczenia” na jej miejsce wprowadzić regułę „przeżywa to, co najdokładniej WYRAŻA otoczenie”, znaleźlibyśmy się na progu takiej automatyzacji procesów poznania (epistemy), jakiej procesy, trwające cztery miliardy lat, powołały do istnienia całą biosferę z człowiekiem na czele. Koncept ów zafrapował mnie tak, żem ową „hodowlę informacji” wprowadził do podówczas pisanej Summa Technologiae na prawach osobnego rozdziału. Ale potem, gdy przyszło do wznowienia tej książki, opadły mnie rozmaite wątpliwości co do szansy urzeczywistnienia takiej „hodowli” i tym wątpliwościom dałem wyraz w wydaniu następnym. Jakoż, trzeba wyznać, nie wszystko, co się da pomyśleć jako przyszłe osiągnięcie, może zostać ziszczone nawet w dali nadchodzących wieków, a to i tysiącleci. Wprawdzie ewolucja naturalna, jako „hodowla informacji o budowaniu żywych ustrojów”, wszczęła się i działa bez wątpienia, ma ona taki czynnik napędowy, osadzony w niej od samego początku, z którego bezgraniczną kategorycznością NIC innego równać się nie może. Wszak przetrwać i tym samym przeżyć może to tylko, co nie ginie; gilotyną, usuwającą każdą niedostateczność organizacji objawów życia, jest śmierć — a jeszcze wiemy dziś, ze mniej więcej 99% wszystkich gatunków, spłodzonych w miliardoleciach przez ewolucję, uległo nieodwracalnej zgubie. Te hekatomby poświadczają „bezwzględność” doboru jako selekcji: co przeżyć nie ma siły, zginąć musi. Jaki jednak czynnik mógłby podobną sprawność napędową uruchomić w tej wymyślonej przeze mnie „hodowli informacji”, której byśmy mieli zawdzięczać — niechby w nader odległej przyszłości — owocowanie o postaci odkryć, wynalazków czy teorii o charakterze empirycznym? To, co potrafiła wykształtować ewolucja Darwinowska, powstawało setkami tysięcy lat pod bezwzględnym naporem warunków otoczenia i międzygatunkowej konkurencji. Cóż by jednak miało zastąpić ten napór w celu zdobycia aktywnej mocy poznawczej? Sytuacja nie jest dziś taka sama jak przed trzydziestu kilku laty. Już wówczas powstałe komputery rozpleniły się, rozrosły, jednocześnie ich „gatunkowa specjalizacja” biegła równolegle z rozmnażaniem języków programowania. Ostatnim czasem z komputerów — izolowanych jednostek wyrastać poczęły liczne połączenia w postaci sieci, które bez wątpienia w latach nadchodzących będą coraz gęściej oplatać planetę. Jakkolwiek jednak przebiegi informacyjnych ładunków ulegają i przyspieszeniu, i powieleniu, mowy nie ma wciąż o tym, ażeby w takiej jakiejś „imitacji sieci nerwowej”, która globalnie się rozrasta, mogła zabłysnąć suwerenność czegoś na kształt świadomości. Inaczej mówiąc to samo, komputery nie są neuronami ani ich odpowiednikami, łącza sieci nie są aksonami czy dendrytami: to wszystko raz wzięte trwa w absolutnej bierności, w milczeniu i w podległości ludziom, którzy do poszczególnych jednostek komputerowych, a przez nie w głąb sieci wprowadzają programy i sterują nimi wedle ludzkiego życzenia i założenia. A zatem to nie jest prowadząca ku jakiejkolwiek formie „hodowla informacji”, nieprawdaż? Owszem, każdy użytkownik sieci byłby fatalnie zaskoczony i niepomiernie zadziwiony, gdyby się okazało, że światowa sieć sama bez działania aktywnych nadawców–ludzi „ma mu cokolwiek do zakomunikowania”. To pomysł może dobry dla Fantastyki (Science Fiction), ale każdy, kto otarł się nieznacznie nawet o informatykę i dynamikę informacjoprzetwórczą sieci, dobrze wie, że się do niego sieć „nie odezwie”, „nie zbuntuje”, że się „nie usuwerenni” w żaden sposób: ani w ten, jaki moglibyśmy sobie wyobrazić, ani w taki, który znajduje się poza granicami naszej wyobraźni. A zatem, jeszcze raz: czy koncept „hodowli informacji” należy pochować na tym zwalisku rupieci, na którym spoczęły rozmaite flogistony? 2 Powiedziałbym, ze spieszyć się z takim pochówkiem nie należy Owszem, główny kierunek rozwojowy informatycznych technologii DZISIAJ nie zmierza, nie celuje w żadną postać „automatyzacji poznania” jako utworzenia „procesorów epistemicznych’”, które by cokolwiek zdołały wykoncypować „z własnej inicjatywy” albo pod naporem „badawczego programu poznawczego”. Nie należy bynajmniej uważać pomocy, jakiej w bardzo szerokim zakresie udziela komputer i komputeryzacja poszczególnym gałęziom wiedzy, za „poznawczy przyczółek informatyczny”, ponieważ to wszystko, czego nam mogą dostarczyć komputery, dzięki ich mocom obliczeniowym i dzięki digitalnej czy analogowej metodzie symulacji procesów Natury (toż można dziś symulować przyszłość kosmosu oddaloną od nas, powiedzmy, o miliardy lat — przy założeniu, że podstawy kosmologii dnia teraźniejszego są ZASADNE), wynika jako procesy, których dane my, ludzie, wprowadzamy do programów, i tym samym od jakości danych wejściowych, od programów, od skuteczności ich rozbiegu, od teorii panujących nad tym wszystkim, które MY SAMI, a nie komputery, wytworzyliśmy przecież, zależy efektywność uzyskiwanych rozwiązań czy jako symulatów określonego stanu, czy jako wyniku takiej „imitologicznej” (jak pisałem w 1963 roku) a teraz — symulacyjnej pracy–gry, w której powstaje np. projekt nowego samolotu, budowli, rakiety, systemu napędowego, broni, molekularnych związków, genów dziedziczności itp. A zatem komputery to nasze narzędzia, a przecież od narzędzi nie oczekujemy twórczego owocowania — gdzież miałoby tu powstać miejsce dla jakowejś „hodowli informacji”, w której żniwa oznaczałyby zyskanie takiej wiedzy o dowolnych zjawiskach świata czy realnego, czy tylko budowanego matematycznie, której nie oczekiwaliśmy: można to bodaj wyrazić lepiej. Mianowicie tak, że komputery dowolnej mocy to są twory zrodzone przez otoczenie, złożone z LUDZI, projektantów, von Neumannów, Turingów, Shannonów. To otoczenie utworzyło komputery, to ludzie otoczenia zawiadują nimi także w ich architekturze (hardware) i programowaniu procesualnym (software), więc w pewnym sensie jest na odwrót aniżeli w naturalnej ewolucji! W niej bowiem najpierw powstały pierwociny życia na Ziemi ledwie stygnącej, w atmosferze jeszcze beztlenowej i olbrzymim pospólnym trudem tych pierwocin życia uległo otoczenie powierzchni Ziemi, jej wód i jej atmosfery, przekształceniu takiemu, że około osiemset milionów lat temu, w kambrze, doszło do prawdziwej erupcji rozmnożonej gatunków. Więc życie wpłynęło na otoczenie, uczyniło je systemem rozmaitych NISZ, natomiast z komputerami było na odwrót: ani „same się nie rozmnożyły”, ani żadna iskra „własnej MOTYWACJI postępowania” się w nich nie wylęgła. Tak powoli i wyraźnie staram się pokazać tę fundamentalną różnicę, ponieważ nie brak dziś ochoty do upodobniania mózgów do komputerów, sieci (typu np. Internetu) do sieci neuronowych powstałych w organizmach i tak dalej. Otóż widać, że jak dotąd — nie tędy droga do „hodowli informacji”. 3 A którędy? Myślę, że do wejścia na taką drogę jeszcze jest bardzo daleko i inaczej aniżeli za pośrednictwem zuchwalstwa wyobraźni prospektywnej potencji dalszego rozwoju, dalszej ewolucji „sztucznego myślenia” ukazać nie można. Myślę, że te procesory mogą pojawić się w takiej oto kolejności. Najpierw będzie tak, jak już jest: wprowadzamy w komputerową przestrzeń określone SYMULATY (rakiety, galaktyki, wirusa) i staramy się dotrzeć, za pośrednictwem PRZETWARZANIA DANYCH przez komputer, do efektu, na jakim NAM zależy (zrozumiałe, i nie będę się nad tym rozwodził, że jedną rzeczą będzie poszukiwanie optymalizacji technologicznej budowy rakiet, a całkiem inną poszukiwanie takich „miejsc” wirusa, które moglibyśmy terapeutycznie zaatakować). Jeżeli jednak symulaty „urządzeń” tak rozmaitych jak rakieta, wirus, genom, system gwiazdowy możemy wprowadzać w przestrzeń procesualną komputerów, to wydaje się możliwe przyszłe wprowadzanie w nią „urządzeń” coraz bardziej skomplikowanych… aż na koniec będziemy w komputerach „umieszczali” zawiązki innych komputerów i ewolucja komputerów będzie się w nich samych (potomnych w rodzicielskich) rozwijała. Co prawda nie jest teraz łatwo wyobrazić sobie taką „ewolucję” w sposób konkretny. Po pierwsze, cyberspace przy całym olbrzymim, ogólnoświatowym i reklamowym rozgłosie, jest (prawdę mówiąc) wciąż w powijakach, w fazie zalążkowej. Po wtóre, właśnie ze względu na swoisty prymitywizm tej fazy, programowanie fikcyjnego fragmentu rzeczywistego świata (nie od razu zaprogramowanie „symulowanego Einsteina”, ale choćby tylko stada galopujących dinozaurów), które będzie w realnym czasie trwało kilka minut, wymaga wielotygodniowej, żmudnej roboty programistów. To jest tak, jakbyśmy chcieli, widząc pierwszy samolot braci Wright, od razu wyobrazić sobie jakiś super jumbo, przewożący tysiąc pasażerów z kontynentu na kontynent… ale powiększenie i przyśpieszenie „rozwoju” najniechybniej nastąpi w domenie komputerów, tak jak nastąpiło w domenie lotnictwa. Siły należy mierzyć na zamiary. 4 „Zanurzenie” projektowych komputerów w cyberspace musi zakładać także powstanie „wokół nich” — również symulowanego „otoczenia” czy, jeśli wolicie, „środowiska”. W przeciwnym razie nie wiadomo byłoby skąd, jak i dlaczego „zawiązkowy komputer” symulowany miałby pozyskać niejaką „motywację” („PYCH”), ażeby jął się przekształcać w „potomka” bardziej od samego siebie błyszczącego sprawnościami! Myślę, że tu może okazać się niezbędna strategia pożyczona u naturalnej ewolucji, a sęk jej tkwi w tym, że ewolucja działa MASOWO– STATYSTYCZNIE; ponieważ tak działać MUSI. Mus ten wynika z „okrucieństwa” selekcji i doboru (Jak się nie dostosujesz, jeśli się nie udoskonalisz, to zginiesz”). Dlatego panuje taki — w całej przyrodzie ożywionej — zdawałoby się, marnotrawczy nadmiar przede wszystkim w sferze ROZRODU. Miliardy jajeczek, miliardy pyłków, miliardy plemników, miliardy wymoczków, miliardy i tryliony — ponieważ 99% ginie, nie rozpocząwszy procesu embrionalnego czy wzrostu rośliny z nasienia, a jednak dąb ostatecznie rozrasta się jako gigant, ponieważ jego rodzic tak szczodrze sypać musiał i rozsiewać żołędzie. Więc TĘ metodę, szczodrego nadmiaru, którą spotkaliśmy już tam, gdzie programy komputerowe gry w szachy wzięły się „za bary” z ludźmi — arcymistrzami światowej klasy — tę metodę zapewne przyjdzie zastosować z cyberspace. A po to, by mogła ona rozpocząć swoje zmagania, musi dyspozycyjna, dostępna przestrzeń dla symulacji uzyskać odpowiednie rozmiary kombinatoryczne, logiczne i matematyczne („Pojemność” dla brute force). 5 Już pisałem kiedyś o tym, że w myśli zachowuję się podobnie jak szympans w eksperymentach psychologa Koehlera: znajduje się w pomieszczeniu, w którym u sufitu wisi banan, a dookoła są porozrzucane dosyć chaotycznie różne puste skrzynki, i szympans, jeśli nie jest zbyt głupi, na koniec znajduje rozwiązanie: ustawia skrzynki na skrzynkach, wdrapuje się na najwyższą i w taki sposób dosięga banana. Oczywiście samo przemieszczenie projektowej roboty informatycznej z realnej przestrzeni, w której programują software i zajmują się architekturą procesów inni specjaliści, w głąb przestrzeni dziś zwanej cyberspace, nie jest jeszcze uwerturą „hodowli informacji”. Jest najwyżej przemieszczaniem pewnej części roboty umysłowej ludzi w obszar pseudoumysłowej roboty maszyn. (Zauważmy, że ze ..sztuczną inteligencją” cały ten kierunek bardzo niewiele, jeśli w ogóle cokolwiek, ma wspólnego). Co dalej? Tutaj już mogę zauważyć, ze podobnie jak szympans Koehlera, zacząłem ustawiać jedne skrzynki–hipotezy na innych, ale droga ku pułapowi, na którym przenośnia sadowi mi „hodowlę informacji” wciąż jest jeszcze daleka. Informacja, użytkowalna jako empirycznie czy choćby tylko logicznie sporządzone „zrozumienie” pewnego zjawiska, procesu, „rzeczy”, musi zarówno powstać, chyba w ciżbie mniej lub bardziej niedokształconych, „poronionych”, potworkowatych „projektów”, jak też ulec takiemu odsianiu, które odpowiadałoby SELEKCJI na „maksymalną żywotność” w ewolucji naturalnej. Jak zabrać się do takiego odsiewu — oto pytanie, które jednym zamachem przenosi nas w najtrudniejszą może strefę naukoznawstwa, w tę, w której gości metanauka z metateoriami, tam, gdzie rozważa się, jak powstają, jak rozwijają się i jak umierają teorie naukowe. Już wiemy, dzięki Popperowi, że teorię można obalić w starciu z przekreślającym ją doświadczeniem, ale nie można jej sprawdzić (zweryfikować) tak, żeby się nam nie naruszona, niepokalana i „wieczna” ostała jako sama prawda. Więc i po „hodowli informacji poznawczej” nie będzie się można, jak przypuszczam, spodziewać jakiejś zupełnie pewnej niezawodności. Prawdopodobnie i ona wesprze jedynie człowieka: jeszcze jedna innowacyjna pomocnica, w późnej epoce rozwoju (czy aż samorozwoju, nie wiem) komputerów. A zatem jest — już mówiąc całkiem ogólnie — tak, że „informacji” jako „czystego destylatu” być nie może. Informacja zawsze powstaje, krystalizuje się i odsiana jako bardzo podobna do prawdy, zostaje osadzona na nośnikach: są nimi geny u istot żywych, są dyski w komputerach, są stronice książek, są konfiguracje synaptycznie powiązanych sieci neuronowych (np. w mózgu). Co prawda, akurat w mózgu mogą też osadzać się jako „memy” (Dawkinsa) niezliczone brednie, bzdury, głupstwa. Ale to rzecz osobna. 6 Z prostej przyzwoitości (czy z uczciwości) winienem się przyznać, że obraz przyszłej „hodowli informacji” oczyszczonej, rzecz jasna, z pomyłek i głupstw, pozostaje bardziej aniżeli nieostry: właściwie nie potrafiłem i nie potrafię orzec, jaki ma powstać stosunek tej „hodowli” do realnego świata. To znaczy: pierwszy impuls badawczy, jak dotąd widzę, pochodzi jednak nie z wnętrza cyberspace rodzącego programy i komputery (następnych rzutów), lecz od opiekunów tego zamkniętego elektronicznie „świata” imaginującego sobie wysoce koherentne, powikłane ale i uporządkowane „całości” jakoweś Czyli apelować trzeba i tu znów wciąż do człowieka jako badacza: jego ciekawość, jego zainteresowania stwarzają tę MOTYWACJĘ, której także i samoorganizującemu się „pseudomyśleniu maszynowemu” i na tym etapie wciąż jeszcze brakuje. Aby wyrazić to nieco inaczej: staram się iść niewielkimi krokami w przyszłość. Na pewno kroki te są dziś mniejsze niż tamte, stawiane ponad trzydzieści lat temu. Wtedy koncept „hodowli informacji”, który nawinął mi się jako sui generis inwersja strategii Darwinowskiej ewolucji, opublikowałem śmiało, ponieważ byłem prawie pewien, że NICZEGO, o czym w tamtej książce (w „Sumie Technologicznej”) pisałem, nie dożyję. To zaś, że mi się „fantomatyka” jęła ziszczać u schyłku życia jako „wirtualna rzeczywistość”, to, że moje zuchwalstwa, ukazujące nadzieje i zagrożenia INŻYNIERII GENETYCZNEJ również weszły na łamy codziennych gazet, nie tylko nie przydało mi odwagi, ale wprost przeciwnie, zdumiało, onieśmieliło i uczyniło bardziej ostrożnym w każdej próbie prognozowania dlatego, ponieważ użytek, jaki ludzie robią z tych osiągnięć, które przestają być fantazmatami i widmami, jako zakrzepłe w rzeczywistość dzisiejszego czasu, ten użytek zdaje mi się coraz bardziej podszywany prymitywizmem taniej rozrywki i rodzonego czy to komercjalizacją, czy dążeniem do władzy — ZŁA. Sztuczna nieinteligencja 1 Nie wiem sam, czemu motywem powtarzającym się w moich tekstach Science Fiction i futorologicznych już od bardzo dawna stały się owady. Mówiąc dokładniej, nie tyle owady jako stworzenia biologicznie żywe, lecz ich swoiste repliki czy odpowiedniki sztuczne, konstruowane dla bardzo rozmaitych celów i obdarzane przeze mnie bardzo rozmaitymi postaciami. W powieści Niezwyciężony pojawiają się jako „czarny deszcz” czy „czarna chmura” i choć w pojedynkę są mikroskopijne, łącząc się potrafią wytwarzać olbrzymie energie, którymi przezwyciężają wszystkie środki bojowe ziemskiego krążownika. Ale to jedynie przykład: nieraz bywało tak, że pewien koncept, zrazu wymyślony przeze mnie i wprowadzony w fabułę utworu S–F, potem wprowadzałem do tekstów dyskursywnych, które można by zwać „na poły fantastycznymi”, a „na poły prognostycznymi”. I tak w 1982 roku napisałem jako składową część „Biblioteki XXI wieku” utwór pt. Weapon Systems of the XXI Century, i w tym udającym prognozę tekście natykamy się na następujący opis, który dosłownie zacytuję (wg polskiego wydania, Wydawnictwo Literackie, Kraków 1986, bo tekst powstał pierwej jako niemiecki dla Niemców). 2 (…) wielkogabarytowe bronie, jako transportery piechoty, jednostki artyleryjskie, rakietowe, ciągniki, czołgi ziemne i podwodne, wciąż drożały. Ta ostatnia faza pancernej gigantomanii militarnej załamała się w połowie stulecia i przeszła w fazę przyśpieszonej mikrominiaturyzacji pod znakiem sztucznej NIEINTELIGENCJI. Około roku 2040 zapanowało w kręgach informatyków, cyfroników i innych ekspertów zdumienie, jak ich poprzednicy mogli być przez długi czas tak zaślepieni, per fas et nefas oraz przez brute force usiłując stworzyć sztuczną inteligencję. Przecież dla olbrzymiej większości zadań, jakie wykonują ludzie, na 97,8% stanowisk pracy zarówno fizycznej, jak umysłowej, inteligencja nie jest w ogóle potrzebna. A co jest potrzebne? Dobra orientacja, rutyna, zręczność, biegłość i zmyślność. Wszystkie te właściwości objawiają owady. Osa z gatunku Sphex wyszukuje sobie konika polnego, wstrzykuje mu w ganglion nerwowy truciznę, która go paraliżuje, lecz nie zabija, następnie wykopuje w piasku odpowiednią norkę, kładzie obok niej swoją ofiarę, wchodzi do norki, aby zbadać, czy jest należycie przygotowana, a w szczególności, czy nie ma w niej wilgoci albo mrówek, wciąga świerszcza do środka, umieszcza w nim swe jajko i odlatuje, aby kontynuować ten proceder, dzięki któremu wykluta z jajeczka gąsienica osy może aż do przemiany w poczwarkę żywić się świeżym mięsem świerszcza. Osa wykazuje tym samym doskonałą orientację w wyborze ofiary oraz w zabiegu narkotyczno–chirurgicznym, który winna na ofierze wykonać, rutynę w sporządzaniu pomieszczenia dla świerszcza, biegłość w sprawdzaniu, czy to pomieszczenie odpowiada warunkom rozwojowym jej potomstwa, oraz zmyślność, bez której cała ta seria działań nie mogłaby zostać urzeczywistniona. Osa, być może, posiada dostateczną ilość nerwowych tkanek, żeby tak samo sprawnie kierować na przykład samochodem ciężarowym wzdłuż długiej trasy wiodącej z portu do miasta docelowego, albo żeby sterować transkontynentalną rakietą, a jedynie węzły nerwowe osy zostały przez naturalną ewolucję zaprogramowane do zupełnie innych celów. Zajmując się, całkiem niepotrzebnie, daremnymi próbami naśladowania w komputerach funkcji mózgu ludzkiego, kolejne generacje informatyków oraz profesorów wiedzy komputerowej (professors of computer science) pomijały z uporczywością godną lepszej sprawy urządzenia od mózgu milion razy prostsze, a zarazem nadzwyczaj małe i działające z nadzwyczaj wysoką niezawodnością. Nie ARTIFICIAL INTELLIGENCE; lecz ARTIFICIAL INSTINCT należało symulować i programować w pierwszej kolejności, ponieważ instynkty powstały prawie miliard lat wcześniej od inteligencji, w czym jasny dowód na to, że są łatwiejsze do skonstruowania. Wziąwszy się za neurologię oraz anatomię neuralną zupełnie bezmózgich owadów, specjaliści środka XXI wieku w niezbyt długim czasie dopięli wspaniałych rezultatów. Ich poprzednicy byli prawdziwie zaślepieni, skoro nawet nie zważali na to, że owady w rodzaju pszczół, jakoby stworzenia nader prymitywne, posiadają przecież własny i to dziedziczny język, którym sygnalizują sobie w ulu robotnice miejsca nowo odkrytego pożytku, podając jednocześnie owym sygnalizacyjno–gestykulacyjno–pantomimicznym językiem: kierunek drogi, czas niezbędny dla jej pokonania, a nawet względną ilość znalezionego pokarmu. Oczywiście nie szło o to, żeby powtarzać w martwych elementach typu CHIPS albo CORN osy, muchy, pająki albo pszczoły, lecz jedynie o ich neuralną anatomię z wbudowanymi seriami pożądanych zachowań, skierowanych na pożądany i upatrzony cel. W ten sposób doszło do rewolucji naukowo–technicznej… Gdy intelektronika wytworzyła już mikrokalkulatory, które były tak małe, że konkurowały skutecznie wielkością z brzusznymi węzłami komarów i szerszeni, wciąż jeszcze większość zapaleńców spod znaku ARTIFICIAL INTELLIGENCE komponowała programy, umożliwiające komputerom prowadzenie głupawych rozmów z niezbyt rozgarniętymi ludźmi, a najsilniejsze obliczeniowo mamuty i gigantozaury komputerowe biły już nawet mistrzów szachowych nie dlatego, ze były od nich inteligentniejsze, lecz tylko dlatego, ponieważ przetwarzały dane miliard razy szybciej na sekundę od Einsteina. Powyższy cytat wyjąłem z tekstu, który prognozą zupełnie poważną nie był, skoro kierował całą problematykę „sztucznego instynktu” w stronę jej takich zastosowań militarnych w nadchodzącym stuleciu, które zastąpią „żywe siły bojowe”. 3 Lecz oto mam przed sobą artykuł o „żywych maszynach” nazwanych BIOMORFAMI, artykuł napisany przez naukowców z laboratorium w Los Alamos dla rosyjskiej „Prirody” (numer z kwietnia 1995). Autorom tym, którzy w samej rzeczy konstruują liczne, insektopodobne, opatrzone „instynktem” biomorfy–mikroroboty, wydaje się, że oni na tę koncepcję wpadli pierwsi. Cóż robić? Cytat otwierający niniejszy artykuł wskazuje, że automatyzację instynktów i ich inkorporację w pseudoowady wymyśliłem trzynaście lat temu. Rzecz jasna, nie dysponowałem ani komputerami, ani żadnymi pseudoneuronami, ani laboratoriami, ani zespołem współpracowników: inaczej aniżeli na papierze niczego stworzyć nie byłem w stanie. W każdym razie mogę powiedzieć, że właściwie omyliłem się jedynie, przewidując budowę mikrorobotów opatrzonych „instynktami” DOPIERO gdzieś w połowie XXI wieku: tymczasem pierwsze kroki postawione zostały już teraz. Biomorfy (skrót pochodzi od BlOlogical MORPHology) istnieją już w sporej ilości wariantów — chciałoby się rzec „gatunków” eksperymentalnych. Konstrukcja prototypów obejmuje trzy części: część mechaniczną, która odpowiada „perypatetycznemu” układowi kończyn (owada), i są to zazwyczaj „nogi” o niewielkiej ilości stopni swobody (jak u owadów stawonogów: nie są one na ogół złożone z elementów giętkich, poza bardzo swoistymi wyjątkami w przyrodzie żywej). Nogi te zachowują się — mówiąc w uproszczeniu — jak niezależne zawieszenie łazika: samodzielnie przystosowują swą dynamikę i do terenu, i do położenia nóg pozostałych. „Neuronowe jądro” odpowiada węzłom nerwowym owadów. „Nogi” są zaopatrzone w czujniki wewnętrzne i zewnętrzne (zewnętrzne odpowiadają zmysłom taktylnym, wewnętrzne są odpowiednikami proprioceptorów, które powiadamiają ośrodek sterujący — u człowieka byłby to mózg — o położeniu ciała względem kończyn i kończyn względem ciała, dzięki ustalaniu pomiarowego napięcia i ułożenia poszczególnych grup mięśniowych). Wzrok i słuch są u najprostszych biomorfów całkiem zbędne. Wtedy ograniczamy się do sensorów kontaktu i dystansu (u wielu owadów będą to czułki — „wąsy”). Spójny obraz w trakcie poruszania się, odpowiadający rzeźbie terenu, powstaje dzięki sprzężeniu zwrotnemu wszystkich obrotowych momentów kończyn (co reguluje poszczególne napędy) i tak powstaje możliwie najprostszy „obraz zewnętrznego świata”, synchronizujący sygnały dla silniczków, poruszających nogami. Wiadomo dzięki teorii układów dynamicznych, że podzespołów maszyny o charakterystyce nieliniowej zbyt mocno powiązywać ze sobą NIE należy, jeżeli całość ma okazywać zachowanie o cechach samoorganizacji. Maszyny z Los Alamos z punktu widzenia układowej całości zachowują się jak słabo sprzężone równoległe komputery. Dzięki temu można uszkodzić do 80% takiego biomorfa, który mimo to nadal będzie się usiłował poruszać (co ma odpowiedniki w zachowaniu i budowie rzeczywistych owadów)! 4 Dotychczas eksperymentowano dwoma podejściami dla przedstawienia w maszynie świata zewnętrznego. W jednym wariancie obrazu tego świata nie ma w ogóle: maszyna taka nie obrazuje otoczenia, lecz może się poruszać jak cybernetyczny „żółw”: od przeszkody do przeszkody — losowo. Przy innym podejściu obraz ulega zaprogramowaniu, maszyna posiada go w znacznym uszczegółowieniu (mapy), ale wówczas łatwo o wejście w ślepą uliczkę czy o awarię, jeżeli otoczenie, jako program, rozmija się z rzeczywistością. Tymczasem behawior biomorfów ukazuje wiele cech, które jesteśmy gotowi przypisywać nie tylko „zmyślności”, ale nawet rozumności. Autorzy tych prac podkreślają, że „reguły przeżywania” biomorfów nie mają nic wspólnego z tak zwanymi „prawami robotyki” Izaaka Asimova („Po pierwsze, broń człowieka, po drugie, słuchaj człowieka, po trzecie — wykazuj samozachowawczość”). Jak piszą autorzy: „to dobre dla fantastyki, ale nie dla maszyn, które winny «przeżywa滄. W Los Alamos ułożono odmienny program trójkowy: maszyna winna, po pierwsze, „walczyć o byt” (analogia z główną regułą ewolucji Darwinowskiej), po wtóre, powinna zdobywać więcej energii niż wydatkuje, i po trzecie — maszyna musi poruszać się samodzielnie. Pokrótce chodzi o wektory RUCHU, ZDOBYWANIA ENERGII I OBRONY. Długość każdego z wektorów odpowiada jego potencjałowi działania w danej dziedzinie. Amerykańska praca jest dość obszerna. Nie wchodząc w szczegóły techniczne i sprawy programowania, ograniczę się do wyliczenia niektórych z już zbudowanych biomorfów: są to turbot, beamant, walkmansolar (żywi się słoneczną energią) skoczek, triped (trójnóg), biped (dwunóg), spider (pająk), horse (koń), rouer itd. Powstało ich łącznie już kilkadziesiąt. Istnieją także biomorfy żyjące „społecznie”. Autorzy podają, ze u końca 1993 roku w ich „Parku jurajskich robotów” żyło 40 robotów dwunastu różnych gatunków, żywionych słoneczną energią. Można było obserwować łączenie się w grupy, walki, zbiorowe zmagania z osobnikami szczególnie „agresywnymi”, powstanie hierarchii dominacji przy poborze energii, lecz nie było śladów działania pospólnego (zespołowego). Jednakowoż kooperację uważa się za krok konieczny, osiągalny i wskazany. Projektowane są „maszyny mikronowe”, kolonie mikronowych maszyn, i wreszcie „nanomaszyny”, które działałyby wewnątrz komórek żywych organizmów. Niezwykłe wydaje się to, że ilość elementów neuronowych może być bardzo mała: niekiedy wystarczą DWA. Okazuje się nawet, że zmniejszenie ilości neuronów w jądrze” może powiększać wielość zachowań i sprzyja „przeżywaniu”… 5 Całą kreacyjną problematykę tak otwartego i tak nowego obszaru mogę tu oczywiście tylko zasygnalizować. To, że właśnie taki, nowy, kierunek prac w zakresie „nierozumnej inteligencji” (albowiem można by przekornie i tym sposobem nazywać nową orientację prac nad samodzielnymi i samodziałającymi maszynami) przewidywałem od dawna, wskazuje po prostu na swego rodzaju powszechne zaślepienie przekonaniem, iż nic nie może być ważniejsze w informatyce konstrukcyjnej od wyścigu z ludzkim mózgiem. Ponieważ jednak ani rowery nie są budowane na „wzór strusia”, ani samoloty na wzór ptaków (jako ornitoptery, nad którymi potrudzono się daremnie w XIX wieku), ani nie udało się wymodelować rumaka jakimkolwiek „pedypulatorem”, wydawało mi się, że chęć powtórzenia w materiale elektronicznym mózgu ludzkiego z jego życiem emocjonalnym, z jego świadomością i podświadomością była zawsze trochę „na wyrost”, a trochę wynikała z naszego zbyt dobrego mniemania o mózgu ludzkim: że niby nic nie może być ani INACZEJ rozumne, ani BARDZIEJ rozumne, ani „zmyślnie bezrozumne”, że nikt nie może w żadnej dziedzinie równać się z człowiekiem ani modelować choćby niektórych z jego funkcji. Naturalnie nie sądzę, żeby „sztuczny instynkt” miał być pokrewny mojej „hodowli informacji”‘, o której tu już pisałem. Są to dziedziny niejako równoległe. Najważniejszym zagadnieniem wydawało mi się zawsze może i ogólnikowe z konieczności (wywołanej aktualną ignorancją) przewidywanie i DOSTRZEŻENIE takich obszarów innowacyjnego działania twórczego, które leży przed nami, które mamy przed nosem (skoro i mucha na nim siada), ale którego nie jesteśmy w stanie dostrzec. Przekonany jestem, że mikroroboty i ich potomstwo okaże się obszarem fascynujących dokonań i wielozakresowej specjalizacji. Także, jak pisałem już, w dziedzinie militarnej. Tam jednak zapuszczałbym się dzisiaj niechętnie, ponieważ zagrożenia, już niefantastyczne niestety, wychodzą zza grzbietu nadchodzących lat szybciej, aniżeli możemy się obecnie spodziewać. 6 Na koniec dodam taką uwagę ogólną i ostrzegawczą. Wkraczając na drogę, a dokładniej mówiąc — zrazu tylko na ścieżkę nowych technologicznych rozwiązań, stajemy, nie wiedząc o tym z góry, oko w oko z zagrożeniami, o jakich się prekursorom nawet nie śniło. Dżin energii atomowej, wyzwolony z nukleonów, nie daje się już na powrót wepchnąć do pierwotnego schronienia. Od robotyki makro– czy mikrowymiarowej też możemy oczekiwać wielu nieznanych nam usług, ale także wielu nie doświadczonych jeszcze plag. 7 Trzeźwiącemu uskromnieniu tej mojej „owadziej” prognozy, która się zaczęła urzeczywistniać, winny posłużyć następujące uwagi. Po pierwsze, owady, jak wszystko, co się składa na żywą przyrodę, nie służą niczemu (chociaż mogą być, jak np. pszczoły, przez nas wykorzystywane). Lecz najogólniej biorąc, żywe stworzenia nie mają żadnego celu bytowania poza Darwinowskim: przeżywaniem najsprawniejszych. Otóż i biomorfy nie są przydatne teraz do czegokolwiek: i one — to „maszyny do niczego prócz trwania”. Po wtóre, owady rozmnażają się i dzięki temu utorowały swoją bogatą w gatunki ewolucyjną koleinę. Rzecz jasna, aby się rozmnażać, trzeba dysponować swoiście zorientowaną złożonością budowy, która właśnie wśród owadów objawia nadzwyczajną różnorodność jako wieloetapowość życia (od jajeczka, gąsienicy, poczwarki, przez różne środowiska i metamorfozy, do dojrzałej postaci, zdolnej do rozplemu). Po biomorfach trudno by czegoś analogicznego oczekiwać. Najprostszym ich zadaniem mogłaby być walka połączona z autodestrukcją i dlatego jej poświęciłem tekst, zacytowany na wstępie. Lecz „motywację”, jako sito selekcyjnie sterujące programem bytowania, możemy w zasadzie wcielić w programy przyszłych biomorfów, a to oznaczałoby, mówiąc bardzo skrótowo i poniekąd metaforycznie, „wykroczenie ze wzorca owadów” w kierunku, jakiego dzisiaj nie potrafimy się jeszcze domyślić, podobnie jak żaden umysł pozaziemski nie potrafiłby się w erze mezozoicznej „domyślić” współczesnego człowieka — homo sapiens. Nie było wtedy żadnych przesłanek i żadnych wzorców jako kierunkowskazów dla takiej prognozy i to samo przychodzi orzec w kwestii biomorfów. Być może, powstaną formy latające, formy, którymi będzie się mogła inżynieria entomologiczna posługiwać dla celów, jakich nie znamy, gdyż nie powstały jeszcze. To, że człowiek nie jest „maszyną do niczego”, skoro wynalazł zasadę prometejską i faustyczną, pochodzi stąd, że opuściliśmy państwo naturalnej ewolucji i dzięki rozumowi musimy żyć i przeżywać „na własny rachunek”. Jest jeszcze dość drobna kwestia warunkująca pytanie, skąd wziął mi się paradygmat owada jako projektowego przewodnika i dlaczego tylokrotnie do niego powracałem? Ale na to pytanie nie znam odpowiedzi. Zdaje mi się, że jestem ostrożniejszy w oczekiwaniach skierowanych ku technologii biomorfów od naukowców amerykańskich: gdy oni JUŻ mówili o „rozumności”, dającej się biomorficznej drodze rozwojowej przypisać — ja pozostaję przy „instynkcie”, który może jednak okazywać w działaniu POZORY nie byle jakiej rozumności. Różnica między inteligencją i instynktem w tym, że inteligencja może się sami programować i przeprogramować: instynktom nie jest to dane. Sztuczny intelekt jako eksperymentalna filozofia I 1 Dla jasności należy stwierdzić, że nie istnieje ani sztuczny intelekt ani eksperymentalna filozofia — istnieją jedynie pierwociny, zapowiedzi i wczesne związki obu. Stanu tego nie zmienia zalew tytułowy prac i książek, zwących się teoriami i praktycznym zastosowaniem bytów, zwanych HARDWARE i SOFTWARE, JAKO poszczególnych mniej lub bardziej uniwersalnych reprezentantów (albo partykularnych tylko modeli) SZTUCZNEGO INTELEKTU (Artificial Intelligence). Kiedy nawet embriona AI nie było, Simon i Newell nazwali swój program „GPS”: General Problem Soluer. Takich nazw „na wyrost” rozsądek każe unikać, bo czyż może przyjść cokolwiek świetniejszego i bardziej uniwersalnego, aniżeli „Ogólny Rozstrzygacz Wszystkich Problemów”? Nie było go i nadal go nie ma. To samo można też rzec o eksperymentalnej filozofii, na uwadze mając i to, że to dwuwyrażenie pachnie oksymoronicznie, ponieważ filozofia „nie zna granic”, czyli nie tam się kończy, gdzie zaczyna się postawiony przez Karla Poppera mur falsyfikacji eksperymentalnej. Filozofia wykracza poza wywrotność w doświadczeniach (empirycznych, nie mentalnych), i to wykracza w najróżniejszych kierunkach zarówno jako ontologia, nauka o bycie (istnieniu), jak jako epistemologia (nauka o źródłach prawomocności poznania). 2 Już w tym miejscu winienem wyraźnie oświadczyć, że nie uważam nie tylko „rozumu ludzkiego” za sprawność kosmicznie jedyną, konieczną i naczelną, ale też nie uważam całego zbioru szkół filozoficznych Ziemi za wyczerpujący „potencjalny zbiór możliwych filozofii”. Uważam, że jako istoty rozumne jesteśmy podzbiorem zbioru takich istot w Kosmosie i to samo naszych filozoficznych systemów dotyczy. Z powyższym ograniczeniem inaczej aniżeli apodyktycznie dyskutować się nie da. Na Ziemi istnieje wiele wiar religijnych, podobnie uwikłanych w światopoglądowe orientacje jak filozofie. Istnieje natomiast jedna tylko nauka ścisła w rozumieniu przyrodoznawczym i w odróżnieniu od nauk humanistycznych, wewnątrz których principium falsificationis experimentalis przeważnie zastosować się nie daje. Dla ścisłości warto dodać, że rozmiary niewywrotnej lub coraz słabiej wywrotnej dyscypliny przyrodoznawczej są różne. W zależności od punktu widzenia ewolucja Darwinowska jest albo nie jest w doświadczeniu wywrotna, a fortiori dotyczy to antropogenezy, lingwogenezy i (powtarzam się) biogenezy. Na pytanie, czy wyosobniony i umieszczony w fizycznej próżni GENOM (jako „plecionka nukleotydowa DNA”) pozwala, czy nie pozwala w tym stanie izolacji wprowadzić ze swej fizykochemicznej struktury GATUNEK ŻYWY, z którego została pobrana, nie znamy zupełnie pewnej odpowiedzi: ani TAK, ani NIE. Niepewność ta MOŻE zostać usunięta przez dalsze postępy nauki, chociaż o pewności, że będzie albo tak, albo owak, mówić dziś trudno. 3 Zawłaszczaniu nowego obszaru wiedzy, czyli wkraczaniu w białą plamę naszego dotychczasowego poznania, towarzyszy przeważnie dość naiwny optymizm, na ogół problemy przed nami upraszczający i poniekąd redukcyjny. Skłonność do redukcjonizmu jest jedną z podstawowych cech poznającego umysłu ludzkiego, naiwnie mówiąc, ponieważ CHCEMY, żeby było tak, jak Einstein orzekał: Raffiniert ist der Herrgott, aber boshaft ist Er nicht. Nadzieja ta często sprawdzać się jednak nie chce. 4 Ze względu jednak na ów współczynnik poznania początki badań, którym zaświtała perspektywa SZTUCZNEGO INTELEKTU jako Ducha w Maszynie, który posiada Rozum, były pełne optymizmu. Rychło okazało się, że jest niewczesny, a nie tylko przedwczesny. 5 Zmyślność jest to umiejętność przetwarzania zmysłowych danych, maksymalizująca szansę przeżywania osobników i ich potomstwa. Rozum jest, jak sądzę, nabudowaną na tamtej umiejętności animalnej sprawnością, uzdolniąjącą do wykraczania poza granice minimalnego survival of the fittest: albowiem wykraczamy poza dane zmysłowe i ich zwierzęcą interpretację, która u człowieka zrodziła kauzalizm. Kauzalizm był niejako narzucany światu „gdzie się dało” np. jako animizm: między tańcem o deszcz i opadami deszczu też MIAŁ istnieć stosunek przyczyny do skutku i ten dynamiczny schemat, pozostając w wielu wiarach religijnych, z reguły wykracza w skutkach poza świat (w jakiś zaświat, albo w jakąś metempsychozę lub jeszcze gdzie indziej, tam gdzie np. raki zimują). W XVIII wieku skrytykował D. Hume „heurystykę kauzalizmu” jako „prawo dostatecznego uzasadnienia”, o logicznej mocy. Heurystyka ta — sądzono — nie wynika z doświadczenia. Było tu rozwinięcie poglądów Locke’a, który nie uznawał istnienia wiedzy a priori. Natomiast Kant sądził, że syntetyczne sądy a priori są możliwe (jako wrodzone nam). Spór szedł zatem o to, czy nihil est in intellectu, quod prius non fuerit in sensu czy nie. Moim zdaniem, nie trzeba się koniecznie zajmować teoriami sztucznego intelektu, lecz raczej porównawczą neurofizjologią zwierząt i ludzi, oraz ich behawiorem w konsytuacyjnie zbliżonych lub tożsamych środowiskach (niszach), żeby dostrzec, w jakiej mierze „rozumność” ludzka czy nieludzka jest przez zewnętrzny świat (także w sensie imprinting) współwarunkowana, ograniczana („niemożliwościami”) a zatem kształtowana. Oczywiście Hume, odrzucający zasadę kauzalizmu jako pojęcia logicznego, miał słuszność. Zresztą XX– wieczną fizyką wyszliśmy już w pewnym węższym sensie „poza rozum”, ponieważ WIEMY, ALE NIE ROZUMIEMY np. mechaniki kwantowej, efektów tunelowych w mikroświecie, oraz „zamiany miejscami” czasu i przestrzeni pod powierzchnią zdarzeń Czarnych Dziur w Megaświecie. 6 W latach dziewięćdziesiątych pojawiły się dwa dość odmienne podejścia do pytania o strukturę programów komputerowych, zdolnych rozumieć naturalny język. Jedno podejście opiera się na koncepcjach filozofii lingwistycznej, drugie podejście pochodzi z hermeneutyki. Zasadnicza idea filozofii lingwistycznej — to analiza znaczenia słowa drogą jego rozłożenia na elementarne składniki sensu — „semantyczne”, przy użyciu rachunku logicznego dla wyjawienia znaczenia. Natomiast hermeneutyk widzi w każdym słowie potencjalną nieskończoność znaczeń, aktualne zaś znaczenie uzyskuje słowo w konkretnym kontekście. Ten kontekst likwiduje ową „nieskończoność”. W. Nalimow podchodził nieco podobnie do rzeczy, wprowadziwszy w swej książce Probabilistyczny model języka formułę Bayesa, która określa najpierw prawdopodobieństwo OCZEKIWANIA informacji (słowa), a potem wybiera dla niego z całej rozciągłości „wieloznaczeniowego widma semantycznego” właściwe sensowne miejsce — dzięki KONTEKSTOWI. Ten probabilistyczny punkt widzenia uważam za bardzo ważny, ponieważ nasze „urządzenie do przetwarzania danych”, tj. mózg, działa podobnie. Chyba w tym miejscu należy utworzyć przerwę filozoficzną dla ustalenia, jak mało i mimo to jak wiele zarazem wiemy obecnie o pracy naszego mózgu. Ponieważ aktywność elektryczna i elektrochemiczna stanowi tylko jedną z „fasetek” całości mózgowych procesów, nie należy sądzić, że model mózgu „z samych elektrycznych, digitalnych bramek” utworzony, będzie mógł się równać z żywym mózgiem. Nie powiadam, że to niemożliwe, ale bardzo trudne: niebiologiczne neurony nie potrafią się zachowywać ani rozwojowo, ani czynnościowo tak, jak biologiczne — których dendryty i aksony mogą niczym korzonki roślin poruszać się w mózgowiu i nie dam sobie obciąć głowy za pewność, że one NIE są współorientowane przez jakieś powstające w mózgu „IZOSEMY”, tj. że one nie są kierowane w swych mających na celu połączenia ruchach tak, żeby sensy powstawały i/albo się umacniały. Bardzo wiele można się tu nauczyć dzięki patologicznym objawom, jakie badają neurolog i psycholog. Okazuje się bowiem, że mózg nasz jest zbudowany „wielokomórkowo”, wieloagregatowo, modniej — wielomodułowo i że poszczególne moduły dysponują względną suwerennością. Dzięki temu człowiek o uszkodzonym module barwności tego, co widzi, poczyna widzieć wszystko jak na czarnobiałym filmie, aktywność zaś recepcyjna wszystkiego, co postrzegamy, ŻEBY ZROZUMIEĆ, jest gwarantowana doświadczeniami ZIEMSKIEGO środowiska. Dlatego przed pierwszym lądowaniem na Księżycu obawiano się w USA, że krajobraz księżycowy może się okazać „niezrozumiale nieczytelny” dla ludzkiego oka i odpowiednie eksperymenty wykazywały, że tak może być w pewnych warunkach. Hermeneutyka — zwłaszcza Heideggerowska — absolutyzuje język, jednocześnie (słusznie) podkreślając, że to, CO język tworzy, to, CZYM on jest w swoich seansach PODTRZYMYWANY i wypowiedziowo sterowany, odbywa się POZA świadomością: to niewiedza o naszej lingwistycznej dynamice generującej. Złożoność mózgu jest oczywiście konsekwencją struktury genotypowej, lecz zdumiewające nas fakty, w jaki sposób olbrzymia ilość charakterystycznych drobiazgów ludzkiego behawioru (jak np. sposób trzymania głowy albo charakter pisma) mogą się dziedziczyć, skoro genowy kanał przekazu dziedzicznego jest przecież dla takiej masy odtworzeń zbyt wąski. Tłumaczymy dziś, odwołując się do tego, że wprawdzie płód w okresie „maksymalnego tempa rozwoju” wytwarza z zawiązków 250 000 neuronów na minutę, to jednak kierowanie ich strumieniami odbywa się sumarycznie, całościowo i łącznie. Nie może być tak, żeby „każdy neuron za rączkę był prowadzony, gdzie się należy” — to byłoby wykluczone i my jako modelarze mózgu nie uporamy się z tym zjawiskiem ograniczeni do układów dowolnej wprawdzie kompleksowości, ALE ZAWSZE DIGITALNYCH, martwych biologicznie. 7 Podejście hermeneutyczne, które wywodzi się z jednego ramienia współczesnej filozofii, „wpisuje”, wprowadza słowa w podzbiory uniwersalnych schematów wyjaśniających. Co prawda tutaj natykamy się już na wielką dziedzinę sporów, ponieważ wcale nie jest tak, żebyśmy słowami myśleli. Nie myślimy też koniecznie zdaniami. Myślenie w pewnym zamkniętym (jako fuzzy set) zbiorze możliwości potrafimy już wymodelować tak, że to się pojawia na „wejściach”, zdobywa sensowny respons na „wyjściach” — innymi słowy mówiąc to samo, test Turinga już może zostać „złamany” przez odpowiedni komputer, w dialogu na odpowiedni temat z odpowiednio dobranym partnerem–człowiekiem. (Gorzej, gdy „rozmawiają” DWA KOMPUTERY ze sobą: ich ubóstwo „intelektualne” wyjawia się wtedy jawnie i szybko). „Schematy wyjaśniające” zwą frames w anglosaskich instytutach; chodzi o pewne wycinki świata, które koniecznie muszą być wyeksplikowane w programie (tj. opisane explicite). Trzyletnie dziecko już posiada taką „wiedzę skrytą” przed nim samym, że owe „schematy” są mu zbędne. To jak z językiem ojczystym, którym włada się, nie znając gramatyki — i z wyuczonym obcym, którego nauka jest żmudna. A JAK TO JEST zrobione w mózgu, nie wiemy. Wiemy tylko, że i tu do głosu przychodzi mózgowa wielomodułowość. 8 Obecnie słychać, że wszystkie języki ziemskie, a jest ich grubo ponad 4000, pochodzą od jednego wspólnego, jakim się 12 000 lat temu praludzie porozumiewali, a nazwano go NOSTRATIC. Wskazują, jak w wielu językach „prasłowa” pochodzą od tych kończyn czy ich części, które były w szczególnym użyciu: „Pięść” — pięć (palców), Faust — fünf, Fist — Five, itp.). A zarazem możemy stwierdzić, jaki wpływ na powstający język wywierały czynniki fizyczne, np. ziemska grawitacja. To, co się ciążeniu PRZECIWSTAWIA, jest „dążeniem wzwyż”, „wzniosłością”, „wyniesieniem”, „podźwignięciem”, „wzlotem”, „wysokością”, natomiast to, co grawitacji ulega, to „upadek”, „poniżenie”, „staczanie się”, „runięcie”, „uniżoność”: słowa te, wraz z bezlikiem innych, na pokładzie statku kosmicznego przy braku ciążenia tracą swój sens, podobnie jak „w górę”, „w dół” itp. Poświadcza to nasze lingwistyczne (i rozumieniowe)… uzależnienie od powstania i życia na powierzchni planety. Ciążenia nie trzeba uczyć się z Newtonowskiej fizyki: odruchowo uczy się jego wszechpanowania każde dziecko, jak każde zwierzę. Takie elementy właśnie składają się na ogrom „skrytej wiedzy”, którą wchłaniamy żyjąc, nawet jeżeliby żyjący NIE znalazłszy się wewnątrz ludzkiej społeczności, nie nauczył się żadnego języka. 9 Zmuszony byłem — i nadal jestem — do omawiania spraw straszliwie rozległych i zawiłych sposobem straszliwie krótkim, prymitywnie upraszczającym. Gdybym miał tylko wymienić nazwy książek czy prac poświęconych „rozumieniu”, „filozofii eksperymentalnej” i „sztucznemu intelektowi”, zabrałoby to godziny czasu. Nie ma ani do sztucznego intelektu, ani do filozofii eksperymentalnej jednej drogi. Jeżeli nawet uskromnimy się i uznamy, że jesteśmy gatunkiem naczelnym NA NASZEJ PLANECIE, że jako istoty społeczne utworzyliśmy język, przez własności owej planety współukształtowany, że w osi przewodniej wszelkich naszych sposobów myślenia, TAKŻE NIEJĘZYKOWYCH świadomie, także w mowie wewnętrznej nie wyrażanych, PRZECIE uczestniczą w sposób dla nas niewyczuwalny procesy pozaświadome, te dynamiczne dźwigary i kształtowniki myśli TAKŻE twórczej, to zadanie, jakie postawiliśmy sobie — wyprowadzenie „ducha” z człowieka w maszynę — nie stanie się przez to łatwiejsze. Jedyne, czego już teraz można by się domyślać, dotyczy nieuniwersalności ludzkiego intelektu w całej Metagalaktyce. Co się tyczy twórcy intelektu zainstalowanego w mózgu — nukleotydowych łańcuchów genowej dziedziczności — i tu nie możemy być pewni, że inny rodzaj kodu, inny typ życia, inny wykwit rozumności jest niemożliwy. Z uwagi na TEN brak danych również trudno by sobie wyobrazić, ażeby przyszłe modelarstwo zwrócone w stronę inżynierii ducha w maszynach (o ile i MY jesteśmy maszynami, tyle że żywymi i probabilistycznymi) udzielić nam mogło wyrazistych odpowiedzi na pytanie o wyjątkowość czy na odwrót powszechność ziemskiego rodzaju myślenia i rozumnego działania. Sądzę jednak, że nawet i to nie jest kategorycznie w przyszłości na zawsze niemożliwe. 10 Rzeczą nie do ominięcia będzie też sprawa tych odmian filozofii, wiary i światopoglądów, które powstały poza pierścieniem medyteranu, w Azji, ponieważ tylko tam — w strefach myślenia nieempirycznego podług kanonów naszych nauk ścisłych — powstały systemy logiki odmienne od naszego pierwotnego i jego nieuniwersalnością wywołanych logik pochodnych. Ale ja, który zabieram głos w tylu dziedzinach, w jakich czułem się niepewny, nie mogę nic powiedzieć o pozaeuropejskich filozofiach, chociaż słyszę i czytam, że one potrafią wnieść swój wkład w dziedzinie ducha w maszynie. Jest w każdym razie rzeczą zastanawiającą, dlaczego całe podwójne, roślinno–zwierzęce państwo życia podtrzymywane jest przez jeden jedyny kod nukleotydowy DNA — natomiast gatunek, który jako wąska gałąź wychodzi z prymatów i zaludnił cały glob, w komunikacji językowej rozpadł się lingwistycznie na tysiące i tysiące rozgałęzień. Wynika to najpewniej z konieczności sztywnego i (praktycznie mówiąc) bezkontekstowego RYGORU w sferze przekazów generacyjnych — w ewolucji — a zarazem z nadzwyczajnej plastyczności, wciąż nas zdumiewającej, funkcji mózgu. Wszystkie moje wyobrażenia o tożsamości dziewięćdziesięciokilkaprocentowej jednojajowych bliźniaków rozbija przypadek dwóch braci: jeden z nich pozostaje zupełnie normalny, gdy drugi zapada na schizofrenię, a ta JEST spowodowana patologicznymi zmianami komunikacji i informacyjnej pracy mózgu. Jest inny przypadek: chłopiec, któremu na skutek nowotworu trzeba było w całości usunąć w wieku 6 lat lewą półkulę mózgu, u którego funkcje nie tylko psychiczne, razem z motoryką i mową, restytuowały się prawie w 99%. Ten regeneracyjno–odtwórczy potencjał musi zdumiewać tak samo psychologów, jak filozofów i „inżynierów dusz ludzkich”. 11 Zbliżając się do zakończenia tych luźnych uwag, pragnę do J. nich dodać jeszcze kilka słów. Otóż wydaje mi się, że aczkolwiek na eksperymentalne kroki jeszcze o wiele za wcześnie, zarazem można uzmysłowić sobie następny problem: czy inżynieria genetyczna w stadium względem współczesnego potężnie zaawansowanym rozpozna GRANICE tej wariacyjności budowlano–czynnościowej mózgu, które wyznaczone są przez dane wyjściowe ludzkich genomów? (Mówiąc w języku metafor: na pewno MODELE czegokolwiek, co może zostać zbudowane z cegiełek dziecięcej gry LEGO — w Legolandzie — stanowią zbiór zamknięty i skończony: czy TO SAMO dotyczy też prospektywnych potencji prac inżynierii cerebromatycznej?) Obecnie mówi się (to kwestia osobna) już o biomorfach, jako wcielonych konstruktorsko w mikromaszynki instynktach, reprezentujących „pseudoowady”. Jak wiadomo, jednym z głównych hamulców rozwoju owadów „wzwyż” konarów drzewa Linneuszowego jest ich energetyczna bieda. (Wchodzi tu sprawa tchawek i kilka innych, jak pancerze chitynowe, czyli egzoszkielety). Czy będzie możliwe konstruowanie takich pseudoowadów, które potrafiłyby łączyć się, aby powiększać zespołową „rozumność”? Owady nie „poszły tą drogą, gdyż nie była im potrzebna. („Nikt się nie drapie, jeśli go nie swędzi” — powiedział Einstein i wynikałoby z tego, że swędzi nas „świat cały okrutnie”). Jeżeli tak jest, jeżeli nie zniszczymy się agresją i demograficznym wybuchem, „dodrapiemy się” sztucznego intelektu, który zdoła nam zaprezentować własny pogląd na świat, na człowieka — i to będzie jego filozofia eksperymentalna… II 1 Starałem się nie być stronny w powyższym szkicu, ukazującym obecny stan badań niejako z wielkiej oddali, lecz oczywiście bezstronność nie jest możliwa, skoro contradictio in adiecto tytułu ją zdradza. Jeżeli ma być AI drogą ku eksperymentalnej filozofii, to tym samym pada opcja na rzecz empiryzmu. W starej książce Summa Technologiae niejako na skrajny wyrost umieściłem wprawdzie rozdział „Wierzenia elektromózgów”, który to temat tak przed 33 laty, jak dziś pozostaje czczą zapowiedzią bez śladu spełnień. JEŻELI jednak podstawowe funkcje poznawcze zdołamy skrzesać w maszynach, pojawienie się w nich informacji o charakterze „metafizycznym”, „transcendentnym” będzie nieuchronne jako kwestia czasu, niezbędnego dla powstania takiej generacji maszyn, która dosięgnie nieznanych nam a priori postaci fideizmu: nie powiadam, że tak być musi, a tylko, że tak być może. 2 Rewelacje hermeneutyki (np. Heideggerowskiej) DZISIAJ przewyższają to, co stawać się poczyna żmudnym mozołem informatyków programistów, ale sytuacja się odwróci. Jak kiedyś pisałem, cokolwiek myślimy, jest daleko prostsze od substratu tego myślenia. Będziemy oczywiście piąć się ku AI „PO” naszym języku naturalnym. Jest nieprzypadkowe podobieństwo kodu. dziedziczności do języka, chociaż ja uważałbym raczej za bardziej istotne podobieństwo do partytury symfonicznej na wielką orkiestrę (komórka jest jeszcze o wiele większą „orkiestrą”). Metafor nie powinniśmy się obawiać, jest to bowiem jedna z najskuteczniejszych broni, ratujących nam wypowiedzi językowe przed każdym regressus ad infinitum, który wykrył Goedel. Języki naturalne dają sobie radę z nieusuwalnym defektem goedlowskim, ponieważ ich niejednoznaczność, rozmycie konotacyjno–denotacyjne oraz kontyngencje tekstowe pozwalają im neutralizować sprzeczności nie tylko „miękkie” (semantyczne), ale i „twarde” (logiczne). Stąd można w pewnym przedziale sensów mówić o tym, że istnieje odwrotna proporcjonalność pomiędzy długością tekstu a jego zawartością „rozumieniową”. Dlatego ten sam beletrystyczny tekst może być skrajnie różnie rozumiany (i przez to też oceniany), a granice tej wariacyjności są uzależnione od zbioru różnorodnych cech (od osobowości lektora po chwilę historyczną), co niejako samoczynnie tłumaczy nam, dlaczego przekłady maszynowe (tak samo jak dokonywane przez ludzi) nie są jedno–jednoznaczne, lecz stanowić muszą INTERPRETACJE tekstu tłumaczonego przy jego „przekładzie” na język tłumaczenia. Dlatego też miał (ale cząstkową) słuszność Paul Feyerabend ze swoim hasłem Anything goes przy uruchamianiu postępów naszej wiedzy. 3 Nie wiemy, w jakim stopniu jest filozofia uzależniona od funkcjonalnej organizacji naszego mózgu. Czy pewna klasa mózgów naprawdę jest zdolna raczej skłaniać się ku empirii? Czy Kretschmer miał ze swoją kategorycznością szczyptę słuszności? Czy może powstać „pozaludzki rozum”? Jako twór inżynierii genetycznej, jako twór innej ewolucji, jako twór konstruktywizmu? Jak można pojąć tę pozaludzkość? Chyba w tym, co jako informacyjny produkt takiego mózgu okaże się niepojęte dla całego zbioru mózgów ludzkich. Ale bełkot szaleńca tak samo będzie niepojmowalny? A więc? Sama wewnątrzgatunkowa wariacyjność jest olbrzymia. Nie ma tak dobrze, żeby każdy człowiek doszkolony w pełni rozumiał Heideggera czy Plotyna! Jeżeli filozofowie są wyselekcjonowaną dla „rozumienia filozofii” grupą mózgów, to nie wszyscy ludzie są równi sobie intelektem, ale czy filozofowie „idą” na czele? Poważnie w to wątpię, ponieważ i w filozofii (jak w każdej nauce) można oszukiwać. Rozwój AI nie musi być ekwifinalny z rozwojem biologicznego OUN. Możliwości stanowią ocean, a my nie mamy porządnego kompasu ani mapy. Rozum i sieć 1 Połączenia, oplatające glob i zdające się prowadzić ku „zjednoczonemu stuleciu informatycznemu”, te, które wykluwały się jako Internet i podobne łącza, wzbudziły najpierw wiele entuzjazmu Pana naszych czasów: kapitału w licznych konsorcjach, centralach rządowo– militarnych, sztabach i last but not least w ośrodkach badawczych nauki (uniwersytetach na przykład). Zarazem wyglądało na to, i tak to głosili „prorocy sieci”, że ekonomia zostanie przez sieci zawłaszczona. Błyskawiczne połączenia miały stworzyć z kuli ziemskiej swego rodzaju jedność (nie dzisiaj jeszcze, rozumie się), banki, giełdy miały uzyskać możliwość dokonywania transakcji w okamgnieniu i tym sposobem otwierały się jak gdyby wrota na XXI wiek. 2 Rychło dostrzeżono wszakże co najmniej dwa szkopuły w tej informacyjnej globalizacji przekazów. Po pierwsze, sieć razem z swoimi węzłami komputerowymi, a są ich na Ziemi dziesiątki milionów, stanowi system całkowicie bierny i „martwy”, mniej więcej jak, mówiąc w dużym uproszczeniu, światowe torowiska kolejowe (w których dworce są niejako uproszczonymi mocno „komputerami” tego systemu). Sana sieć nie może nic wymyślić, tak samo jak sam system kolejnictwa nie układa rozkładów jazdy ani nie gwarantuje wysokiej bezawaryjności, jeżeli nie będzie wsparty innymi, „pozatorowiskowymi” czynnikami. Po drugie, i potąd już porównanie z siecią kolejową NIE sięga, do Internetu, do komputerów poprzez ich łącza (albo dzięki dyskietkom, tak czy inaczej „zarażonym” programowaniem, przez użytkownika komputerów NIEpożądanym i może szkodliwym) można się włamywać i niejako hasłem tego zagrożenia jest termin WIRUSY. Oto już dziś toczą się na świecie działania zaczepno–odporne pomiędzy wirusami (twierdzą, że co najmniej kilkanaście nowych wirusów powstaje codziennie dzięki pilnemu autorstwu hackerów) i programami antywirusowymi. Rzecz jasna, już doszło do takiej eskalacji w ogniu tych cichych bitew, ze możliwe jest pojawienie się takiego programu antywirusowego, który oczyszcza wprawdzie komputery z jednych wirusów, ale potajemnie niejako wprowadza do nich inne; ze pojawiają się wirusy bardzo mutabilne (jak wirus biologiczny AIDS, nie przymierzając), które przez „oka sieci” przedostają się, udając, iż „żadnymi wirusami nie są”. Pojawia się na horyzoncie tych nasilonych już porządnie zmagań ofensywy z defensywą pytanie, czy chodzi o gry finitystyczne (z jakowymś końcem, oznaczającym wygraną lub przegraną jednej ze stron), czy też walka będzie „nieskończona”, bo musi trwać bez widoków na jednostronne zwycięstwo. 3 Ja się tutaj nie zamierzam zajmować kwestią, po co układa się programy wirusowe i co się chce za ich pomocą uzyskać. Cele mogą być bardzo różne i całkowicie rozbieżne: na przykład od „drobnych kantów” dla wyprowadzenia na manowce jakiejś izolowanej bankowej transakcji, aż po nowo otwierającą się cyberprzestrzeń walk czysto militarnych, czyli bezkrwawych wtargnięć, omamów, fałszywek, oszustw, wirusowego rażenia całych sieci łączności wroga albo nagle, albo dopiero na dany sygnał, który zresztą wcale „nadany” być nie musi, wystarczy, aby tkwił zatajony w sieci przeciwnika, ukryty na przykład w nąjniewinniejszym, długotrwałym synoptycznym programie z własnym „zegarem”, który uruchomi go w krytycznej fazie informacyjnego starcia. W silnym związku z powyższym stoi oczywiście dość drastyczne pytanie, czy cała ta nowożytna koncepcja informacyjna, sieci i jej globalizacji, niesie z sobą więcej zła aniżeli dobra. Zależy (odpowiedź) dla kogo… Część motywacji autorów programów wirusowych najoczywiściej jest rzeczowa, daje się ona wyjaśniać czysto materialnym oczekiwaniem jakichś zysków (np. finansowych), jakiejś przewagi (gospodarczej, administracyjnej, militarnej), ale druga część, jak poucza nas o tym zwykła statystyka computer crime, niczemu nie służy w sensie zdobyczy jakiejkolwiek, ale po prostu stanowić ma „wygraną” hackera (czysta satysfakcja z tytułu uzyskania władzy destrukcyjnej albo możliwości zgłębienia skrytych danych, jakichkolwiek tajemnic „przeciwnika”). 4 Obecnie oprócz zwykłych firewalls (murów ogniowych), używa się już wielokrotnie zaszyfrowanych wejść (input) do komputerów, ale teoria szyfrów i ich rozłamywania powiada, iż szyfr stuprocentowo pewny to jest taki NOWY, dotychczas nie znany szyfr, którego się powtórnie NIE będzie używać. Samo ponowne użycie szyfru kolosalnie wzmaga prawdopodobieństwo jego „rozłamywalności”, a nieustające tworzenie coraz to nowych „szyfrowych zapór” jest oczywiście raczej żmudne i wymaga ciągłego POZASIECIOWEGO porozumiewania się nadawców z adresatami. Można sensownie zauważyć, że większość treści przekazywanych siecią NIE ma charakteru tajemnic zgoła niesłychanych i ewentualne podsłuchanie tych treści nieszczęściem być nie musi. Tu jednak wchodzi nam w paradę inny czynnik, osobny, mianowicie autorskiego COPYRIGHT. Utwory muzyczne, libretta, teksty językowe czy to z zakresu sztuki, czy nauki mogą być łatwo przechwytywane i wówczas wykrycie, KTO nadał, nie musi stanowić problemu, natomiast na pytanie o to, KTO nieprawnie przejął i może wykorzysta, odpowiedzi udzielić można nie zawsze i z wielkim kłopotem, proporcjonalnym z grubsza do ilości użytkowników sieci (jeżeli zgubię portmonetkę w prawie pustym parku, odnalezienie będzie łatwiejsze, niż jeśli to nastąpi na olbrzymim, zatłoczonym dworcu kolejowym). 5 Jak wynika (co prawda nie wprost) z powiedzianego, bodajże naczelną cechą gwarantującą sprawność i rzetelność sieci jako układu, któremu powierzamy informację do przekazania, jest UCZCIWOŚĆ wszystkich użytkowników. Przecież wystarczy, ażeby na wspomnianym dworcu było kilku złodziei, a już szansę odnalezienia zagubionej rzeczy spadają na łeb na szyję. Otóż gwarantowania uczciwości użytkowników sieć nie jest w stanie zapewnić. Jest z nią całkiem jak z zamkiem u drzwi: zamki można mnożyć, ale nie ma takiej ilości najbardziej wyrafinowanych zamków, która zapewni stuprocentowe bezpieczeństwo przed włamaniem. Ten cały proces, ataku i obrony, dopiero trwa i rodzi się niejako na naszych oczach, a powstawanie agencji czy ośrodków, wyspecjalizowanych w układaniu i sprzedaży antywirusowych programów, żywo przypomina wzrost ilości agencji detektywistycznych czy ochroniarskich, kiedy się przestępczość wzmaga. „Wojna informatyczna”, na razie raczej przenośna niż literalnie militarna, trwa i będzie trwać, a jej dalsze koleje trudno dziś przewidywać. Jest tu skryte niebezpieczeństwo gorsze od mniej lub bardziej lokalnej straty jakiejś firmy czy banku: oto sama reguła gwarancji autorstwa, tj. COPYRIGHT, staje się coraz łatwiej podważalna i niektórzy głoszą, iż to właśnie może zdecydować o załamaniu się jednego z własnościowych filarów kapitalizmu, bo kapitalizm zasadza się wszak na własności, na prawie do posiadania wyłącznego (wyłącznym posiadaczem nie musi być osoba prywatna, może być np. cały sztab generalny jakiejś armii), a rynek z jego prawami podaży i popytu może tylko dzięki temu działać, że NIE wszyscy są posiadaczami „wszystkiego”. Za komunizmu państwo miało „wszystko”, lud de facto nie miał nic i tak też doprowadziło to do zapaści ustroju. 6 Do tej pory o braku inteligencji sieci i jej komputerowych węzłów nie padło ani jedno słowo. Narzekania, rozlegające się tu i tam, że sobie badawcze ośrodki, uniwersytety jakieś, przekazują obrazy pornograficzne i to jeszcze z zakresu zakazywanych NAWET tam, gdzie panuje „permisywność” (przyzwolenie), na przykład z zakresu pedofilii, nie są istotnym procentem całego zespołu treści mknących korytami Internetu, ale są niewątpliwie budzącym odrazę skandalem. Sieć nie ma centrum, nie ma ośrodka, nikt nie kontroluje treści przez nią płynących i TO na pewno jest problemem, który dopiero ulegnie wzmocnieniu w miarę rozprzestrzeniania się sieci. Najprostszym w zasadzie sposobem czy urządzeniem kontrolnym wbudowanym w sieć byłby jakowyś odpowiednik inteligencji, czyli po prostu ROZUMU. (Żeby cenzurować, trzeba rozumieć). Jednakowoż z chwilą, kiedy padło ostatnie słowo, „zaczynają się schody”. O inteligencję poza umysłem żywym toczą się batalie od półwiecza, ale oprócz paru prymitywnych programów plus brute force rosnącej chyżości iteracyjnej, a jeszcze mglistych nadziei, pokładanych niejako „na wyrost” w równoległych komputerach, co i jak zdobędziemy w XXI wieku, wciąż nie wiadomo. O tym, aby można za pomocą jakiegoś pseudorozumu odfiltrowywać, powiedzmy dla przykładu, treści pornograficzne, nie ma mowy, treści te bowiem silnie uzależnione są od kontekstów i konsytuacji (naga rodząca kobieta to nie jest przecież „pornografia”, to może być raczej ilustracja wzięta z podręcznika położnictwa). Zresztą pornografię, jako mało ważny aspekt dylematów związanych z siecią, można porzucić. Obecnie ilość ośrodków badawczych i ilość zespołów uczonych rośnie prawie wykładniczo i to, KTO pierwszy ogłosi jakieś nowe odkrycie, ma pierwszorzędne znaczenie nie tylko dla komitetu Nagród Nobla, ale też dla przemysłu (farmaceutycznego dajmy na to) i dla najszerszej publiczności. (Długo trwało w „przedsieciowej epoce” zmaganie czy zatarg między profesorem Luc Montagner z Instytutu Pasteura w Paryżu i Amerykaninem Robertem Galio o PRYMAT wykrycia wirusa AIDS: były po obu stronach zaangażowane instancje rządowe, nie są to więc byle majaki) Aby przyspieszać publikacje naukowe, używa się tak zwanych „preprintów”, które w epoce niemowlęctwa sieci TEŻ stają się już zbyt pomału i leniwie działającymi posłańcami. Ponadto, jeżeli sieć miałaby być połączona w jedną wielką „pajęczynę” za pomocą „kollaterali”, ilość przekazywanych informacji stanie się molochem czy lawiną trudną do właściwego adresowania BEZ udziału rozumu (działają tu jego niedoskonałe, statystycznie pracujące namiastki jako „filary”). Z drugiej czy też trzeciej strony, JEŻELIBY sieci uzyskały potencjał intelektualny, nastąpiłoby przyspieszenie realizacji tego, co opisałem w książkach jako taki stan, że środowisko cywilizacyjne staje się inteligentniejsze od ludzi, żyjących w tej cywilizacji. Kuratela sieci nad ludźmi nie jest czymś, co nas może pociągać. Wszystko daje się też przenieść w inne dziedziny, np. patentowanie wynalazków, marek firmowych, nowych wyrobów itp. Jednym słowem, wraz z siecią pojawia się tyleż bodaj pozytywów, co negatywów, a ich łączne zbilansowanie nie może się powieść łatwo. 7 Odpowiednio, a fortiori spotęgowane dylematy pojawiają się, kiedy „cyberprzestrzeń” przestanie być tylko rojeniem i rozrywką oraz tematem dla Science Fiction. Jednym słowem — bardzo trudno dające się rozgryźć dylematy przynosi nam postęp technologiczny… 8 Narodzinom nowych gałęzi technologii towarzyszy z jednej strony chór sceptyków, a z drugiej entuzjastów, i fale te dopiero po pewnym czasie opadają. Sądzę, że w procesach rozprzestrzeniania się sieci najpóźniej, jeśli w ogóle, pojawi się jako współpracujący w niej czynnik — ROZUM bądź jego namiastka (zwana „sztuczną inteligencją”). Gdyby zaś do tego miało dojść, nastąpi niechybnie nasilenie starć konfliktowych (jako walka o to, kto będzie dysponował „większym sprytem informatycznym”, powiedzmy). Natomiast musi dojść do wielozakresowego rozgałęziania się sieci jako zespołów specjalistycznych: czego innego będzie oczekiwała medycyna, a czegoś innego — fizyka teoretyczna; a najmniej pożądanym zjawiskiem byłby, dziś dobrze widoczny na światowych rynkach książki, „informatyczny potop”: sytuacja kiedy źródeł, prac, wiadomości jest zbyt wiele i wymagana staje się jakaś forma odsiewu, która po prostu ułatwia życie zarówno „nadawcom”, jak „odbiorcom” kolejnych treści. Od początku pojawienia się zapowiedzi Internetu odnosiłem wrażenie nieco dziwacznej jego przedwczesności. Całe zjawisko mieści się wszak pod pojęciem łączności, a ta, jeżeli w ogóle sprawna, to o tyle, o ile ważkie są przesyłane przez łącza treści. Z tego, że można milion razy szybciej przekazać treść nowej książki lub listu na drugą półkulę, nie wynika nic więcej niż z tego, że od mieszania łyżeczką herbata nie zrobi się słodsza. Potrzeba nam pewnych nowych cywilizacyjnych treści, a to znaczy przewodnich wartości w różnych dziedzinach życia, i sama sieć nic tu bez treściowego „wsparcia i wsadów” udoskonalająco tworzyć nie zdoła. Jak sobie wyobrażałem kolejność „bardziej właściwą” pojawienia się koordynatorów globalnego działania ludzkiego z ich łącznością na tym miejscu, dlatego nie opowiem, ponieważ sprawie tej poświęciłem sporo miejsca w napisanej w 1963 roku „Sumie Technologicznej”. 9 Najwyżej mogę dodać, że dzięki sieci ORAZ projektowanej, a nie ziszczonej na razie interakcyjnej telewizji będziemy mogli stać się świadkami (widzami) zjawisk równie nieoczekiwanych, jak na przykład przekształcanie się obrazów reklamowych w telewizji w ich złośliwe i to rozmyślne przeciwieństwo (dosyć wszak, żeby hacker po totalnej digitalizacji programów wtargnął w program reklamujący na przykład proszek do prania i „poprawił” go tak, aby wszystkie plamy na białych koszulkach czy majtkach dziecinnych uległy nieusuwalnemu utrwaleniu, albo też spożycie reklamowanej zupy wywołało u biesiadników skutki wręcz fatalne natychmiast). Takie „przeróbki” programów JUŻ obecnie są najzupełniej możliwe, a tylko analogowy sposób kodowania obrazu i treści udaremnia na razie tego rodzaju „zabawę”. (Oraz brak sprzężeń zwrotnych widza–odbiorcy z nadajnikiem). 10 W świecie, rozszarpywanym tyloma antagonizmami i konfliktami jak nasz, każdy nowy czynnik technologiczny, jakkolwiek miałby zostać zaprzężony do rydwanu wspaniałej cywilizacji, prędzej czy później zostaje obrócony w narzędzie bojowe — w broń. To się już staje również z komputerową siecią łączności. Pewien paradoks, towarzyszący owemu zjawisku, sprowadza się do prostej refleksji, że temu, kto komputerów nie ma, wirusy komputerowe niestraszne, zaś temu, kto się do sieci Internetu (czy Euronetu) nie podłączy, niegroźne również wszelkie falsyfikaty, rozmyślnie poprzestawiane programy: jednym słowem, także i technologiczne zapóźnienie cywilizacyjne ma swoje dodatnie strony… Należy sobie uzmysłowić, że obecnie, kilka lat przed końcem XX stulecia, rozwojowy poziom sieci wraz z umiejętnościami użytkowania jej mniej więcej znajdzie się tam, gdzie, mutatis mutandis, znajdowało się lotnictwo, kiedy pierwsze zeppeliny wzbijały się w powietrze. Przyszłość dopiero ukaże, czy globalizacja łączności, wyzbyta niestety globalnej współpracy państw i narodów, przyniesie więcej pożytku aniżeli szkody. Informacja o informacji 1 Ja się już niegdyś głowiłem, poszukując klarownej odpowiedzi na to pytanie: gdzieś koło roku 1963, gdym pisał „Sumę Technologiczną” i poszukiwałem odpowiedzi nie tyle na własną rękę (na własny pomyślunek), ile u specjalistów, którzy temu „odkryciu” dziwacznemu nadali rozgłos i wzięli je w matematyczno–fizyczne karby. Było ich wielu i całkowitej zgody między nimi nie było: jedni starali się niejako wszelkie rodzaje informacji scalić, inni natomiast na odwrót wręcz — jak tort czy jak bibliotekę dzielili ją na domeny (informacja strukturalna, semantyczna itd.). W głąb sporów ówczesnych wdawać się nie zamierzam. Faktem jest przede wszystkim, ze się z informacją (z pojęciem informacji) zrobiło coś mniej więcej takiego, jak z pojęciem grawitacji. Nie wiadomo być może do końca, co to jest, ale wiadomo, jak się z tym można obchodzić. Ja bym nazwał tę przemianę w niejakim uproszczeniu uprzemysłowieniem nowego pojęcia. My już o tym, jak można się „obchodzić” z grawitacją, jak ją mierzyć, gdzie jej szukać, całkiem nieźle wiemy, chociaż „istoty grawitacji” ujawniać nie można, ponieważ próby zaczynające się od naiwnego „przyciągania ciał”, a wybiegające w Einsteinowskie zakrzywienia przestrzeni przez masy (notabene ataki na ogólną teorię relatywistyczną nie ustały) nie pozwalają nam wcale dotrzeć do jakowejś „istoty ciążenia”. Zresztą przyjęło się w naukach ścisłych twierdzenie, że one ukazać mogą, co z czym i jak, nie pozwalając poszukiwać odpowiedzi na pytania o „istotę” czegokolwiek. Mniejsza jednak tutaj o kłopoty terminologicznego naukoznawstwa. Faktem jest, ze na pytanie, gdzie jest informacja i jakie ma własności, można odrzec, że jest wszędzie i że może mieć dowolne własności, niekoniecznie zgodne z prawami Natury (semantyczna informacja o czarownicy, zamieniającej rycerzy w kamienie NIE da się uzgodnić z żadną wersją poprawnego fizykalnie predykatu lub ich koniunkcji), ale nigdy „samodzielnie”, to znaczy, że nie można pokazać „oczyszczonej z przymieszek” (a raczej z nośników) informacji w probówce, podobnie jak nie można pokazać w ten sposób oddziaływania mas na czasoprzestrzeń, ani nawet miłości. Ciążenie JEST objawem grawitacji, a miłość JEST sui generis postacią „przyciągania ciał” (męskich i damskich, powiedzmy). Ale wyosobnić się informacja nie daje. To zuchwałe twierdzenie wymaga niewielkiego wywodu. Jak powszechnie wiadomo, teraz się informację przetwarza, przesyła, lokuje (na dyskietkach np.), wiadomo, co to są komputery, które bez wprowadzonych programów TEŻ są informacją, ale niejako zakrzepłą w hardware i przystosowaną do tego, ażeby przetwarzać informację wprowadzoną, czyli software. To wie każde dziecko, i pewno ze względu na to mało kto zastanawia się nad tym, czy w ogóle istnieje coś na kształt informacji „nieoswojonej”, w maszyny nie wprowadzonej, „wolnej”: można uznać, że tak jest, ale postawić granicę, gdzie się „kończy” sfera informacji, łatwo nie jest. Nie jestem nawet ze wszystkim pewien, czy takie ograniczenie jest możliwe, a to by oznaczało dość horrendalne orzeczenie, że informacją jest WSZYSTKO. Powiedzmy: nie tylko, ale i to, czy nie tylko, zupełnie pewne nie jest. 2 Głównym zajęciem ludzkości od jej powstania było przetwarzanie informacji w głowach, dzięki wpływaniu informacji z otoczenia do tych głów i wypróbowywanie, co z tą mózgowo ewentualnie przekształconą informacją można począć. Techniki nasze powstały z ewolucji informacyjnej, ale cała biosfera, całe życie na Ziemi (teraz już okazało się, że ono sięga i istnieje wiele kilometrów pod powierzchnią ziemi: tam, gdzie nie ma np. tlenu, ale to nie jest tutaj do rzeczy), to też ewolucja informacji, przebiegająca w gatunkach i rządzona prawidłowościami doboru naturalnego i selekcji (mutacje są niezbędne w tych procesach, ale to nie więcej niż duże czy małe korekty jakiegoś manuskryptu). Osobliwością informacji aktywnej biologicznie jest naturalnie to, że ona, usadowiona na biologicznych nośnikach (nukleotydach, ale teraz bodajże nie wyłącznie, już pojawiają się jakieś beznukleotydowe „priony”), stanowi taki dziwny alfabet, który „sam siebie wynalazł”, „sam siebie składa w zdania — chromosomy i genomy”, a co najważniejsze, sam siebie tak buduje w organizm, jakby leżące odłogiem kupy piasku i cegieł umiały „same z siebie” zbudować dom. W przypadku domu potrzebna jest bowiem dodatkowa pomoc informacyjna architektów i murarzy, dysponujących informacją, jak i co z czym zlepić i poskładać. Za każdym razem widzimy, że w szeregu zdań mamy „informację”, bez której NIC. Czy to jednak nie jest dziwaczne i dowolne poszerzenie jej sensu? Ale przecież zapowiadają nam XXI wiek jako „informatyczny”, przecież już dobrze wiadomo, że jeśli człowiekowi poprzez zmysły (= poprzez odbiorniki informacji) „wtłaczać” do głowy i do ciała „sztuczną” informację z komputera (który kiedyś nazwałem „fantomatem”), to w granicy możliwe już jest całkowite zastąpienie „realnie otaczającego ludzi świata” światem całkowicie usztucznionym, który „w istocie” zbudowany jest z odpowiednich impulsów elektronicznych… zaraz! A z czego zbudowany jest świat, którego doświadczamy bez jakiejkolwiek, urządzonej technicznie maszynerii? To, co widzimy, powstaje tak, że fotony wpadając do oczu podrażniają siatkówkę, która poprzez nerwy wzrokowe „drażni” wyższe ośrodki mózgowe, aż dojdzie do tego, że „widzimy”, a jeżeli wskutek jakichś zmian oko pocznie zniekształcać widzenie, okulista z optykiem skorygują wady i wtedy informacja wizualna, jaką postrzegamy, będzie akurat taka sama jak u INNYCH LUDZI. Ale nic więcej, ponieważ mucha, stonoga, szarańcza, ślimak „widzą” otoczenie całkiem inaczej aniżeli ludzie. A co do słuchu, to fale akustyczne… itd., itp. A jeżeli astronauta cierpi na chorobę lokomocyjną, wymiotuje, nie może na orbicie pracować, to dlatego, ponieważ informacja, jakiej dostarcza mu błędnik z ucha wewnętrznego SPRZECIWIA się informacji, jaką on widzi i postrzega. Powstaje „konflikt informacyjny”, coś jakby szef sztabu generalnego otrzymał równocześnie informację, że wróg ucieka i że wróg naciera. Więc dzięki zmysłom postrzegamy świat; wiemy już, że zmysły te można „oszukiwać” obwodowo („wirtualną rzeczywistością”) albo i centralnie (powiedzmy — halucynogenami). Czy wobec takich roztrząsań możemy jeszcze wskazać na coś, co się nijak ma do informacji? Ból brzucha, zwłaszcza po zjedzeniu czegoś, jest co prawda „mglistą, ale dolegliwą” informacją o tym, że nie jest dobrze z naszym trawieniem. Być może jednak ktoś zauważy, że istnieją szkopuły przeciwstawiające się moim rozważaniom. Leżeć między nogami dziewczyny, jak powiada Hamlet do Ofelii (która jakoby nie dosłyszy), jest miłe. Co znaczy „miłe” w kategoriach informacyjnych? Ano znaczy, iż Ewolucja, pragnąc „zachęcić” nas do gatunkowej kontynuacji („rozkazodawcami” są geny), czynności, zmierzające do utworzenia zarodka, uczyniła przyjemnymi, natomiast zniechęciła nas (nie tylko powonieniem) do woni śmierci: rozkładu ciał organicznych. Ale co to znaczy, że informacja może być „przyjemna” albo „nieprzyjemna”? Proces emocjonalnych korelatów sygnalizacji informacyjnej zaczął się bardzo dawno, grubo przed początkiem powstania człowieka. Uczucia są informacją, której odbiór bywa nieodłącznie związany z jej DOZNAWANIEM. Komputer, jak wiadomo, nie doznaje niczego i „jest mu wszystko jedno” czy (jak czytamy] w Internecie zamiast naukowych prac przekazuje pornograficzne obrazy. W każdym razie odmienność taka świadczy jedynie o tym, że nie tylko nie wszystkie rodzaje informacji nie są sobie równe, ale i o tym, że nadawaniu i odbiorowi informacji u żywych istot (ale TYLKO u żywych istot) mogą towarzyszyć doznania, rozmaicie akcentowane emocjonalnie. 3 O informacji nadawanej i odbieranej można zatem mówić dokładnie zawsze, kiedy chodzi o istoty żywe (świat roślin również do nich należy). Ale jak to jest z informacją, kiedy „nikogo nie ma”? Pytanie o to, jak „wygląda” drzewo i czy niebo jest niebieskie, gdy na nie nikt nie patrzy, dręczyło filozofów już w starożytności. Obecnie pewne sprawy się po trosze wyjaśniły. Informację mianowicie można przetwarzać, znane jest nam jej powiązanie z energią, lecz energię można jedynie przekształcać (choćby i w masę), ale zniszczyć jej nie można. Informację natomiast można zniszczyć, gdyż jest ona pewną organizacją, pewnym rodzajem ładu czy ładów, a kiedy „cokolwiek” wpada w głąb „czarnej dziury” astrofizyków, informacja tego „cokolwiek” ulega nieodwracalnemu unicestwieniu, ponieważ pod „powierzchnią zdarzeń” czarnej dziury grawitacja, rosnąca ku środkowi, wszelką organizację, wszelki ład wraz z tym, jaki panuje wewnątrz atomów, miażdży i unicestwia, a co się dzieje w samym centrum czarnej dziury nie wiadomo i astrofizycy w tej kwestii są bardzo sprzecznych zdań. Faktem jest, iżeśmy nareszcie wykryli w Kosmosie miejsca, w których nie ma ani informacji do postrzegania, ani „latentnie” spoczywającej (np. jako list rozbitka we flaszce na dnie morza). Kosmos będąc „pełen informacji”, jednocześnie jest w tej nie–substancjonalnej sprawie „dziurawy”. 4 Co nas współczesnych może pytanie o informację w ogóle obchodzić? Czy ten, kto produkuje lub kupuje rolls–royce’a musi się zajmować teorią ciała stałego i mechaniką kwantową, chociaż obie są „zaangażowane” w produkcję auta i jego używanie? Powiedziałbym, że lepiej, kiedy człowiek rozmyśla nad tym, czym się zajmuje, aniżeli kiedy komputer to dla niego mniej więcej tyle, co (prosty) aparat, który małpa może tak obsługiwać, ażeby z niego banany wylatywały. Obecnie — i to jest jedna z istotniejszych spraw, do których krętą dróżką mojego rozumowania chciałbym dotrzeć — otóż obecnie produkcja, a raczej przetwarzanie i magazynowanie informacji przez ludzi (rzędu, jak szacują, 1014 albo do piętnastej bitów) na Ziemi dawno już przekroczyło indywidualną „przepustowość” umysłu jako kanału przetwarzającego informację. Obecnie mamy już sytuację POTOPU informacyjnego i jeżeli ktoś obojętnie oglądał w telewizji start kolejnej rakiety ARIANE, która wprowadziła na orbitę taki transponder, że może on nadawać dodatkowo 120 telewizyjnych programów, to ja do tych obojętnych nie należę. Nie jest miło wiedzieć, że wprawdzie potencjalnie stojąca do dyspozycji za naciśnięciem guzika lawina wielości informacyjnej może się na nas obruszyć, ale jej nie zdołamy strawić i skonsumować tak samo, jak nie może jeden człowiek zjeść tego, co w danym dniu oferują naraz wszystkie restauracje, chociażby był ze wszystkimi połączony Internetem… Czytam o profesorach, którzy otrzymują dziennie po kilkadziesiąt listów z poczty elektronicznej — E–Mail. Ciekawym, kiedy oni spożywają jakieś posiłki i czy mają czas na sen. Zresztą przez sieci przepływają tysiące tysięcy informacji, ale ta część, która jest skierowana do banków, do giełd, do brokerów, itd., będzie odebrana przez ludzkie zespoły, a nie przez osamotnione jednostki. Przepustowość informacyjna jednego człowieka dzisiaj jest akurat taka sama, jak przed 100–80 000 lat, jak w eolicie, i jest rzeczą właściwie zdumiewającą, że ludzie, wystawieni na takie informacyjne ulewy, na ogół dają sobie z nimi radę. Częściowo wynika to stąd, że potrafią przychodzącą informację selekcjonować, z drugiej strony ja, który nie otrzymuję więcej, aniżeli 3–6 numerów pism naukowych tygodniowo, uważam się już za przeciążonego informacyjnie, ponieważ często czytam zaległe pisma z pewnym opóźnieniem. Rozpoznawanie jakości informacji, nie przyjmowanie całkowite do wiadomości informacji bezistotnej, reklamowej, drugorzędnej, po prostu zbędnej człowiekowi, jest koniecznym warunkiem „utrzymania się na powierzchni” wzbierającego informacyjnego potopu. I tu leży właśnie pies pogrzebany: gdyby można było skonstruować informatyczne selektory, zdolne do niejakiego rozumienia tekstów, sytuacja od razu by się poprawiła i wiadomość o oczekiwanym wprowadzeniu na orbity setek nowych transponderów nie ciskałaby człowieka w panikę (zamiast której obiecują nam entuzjastyczne przyjemności). Nie na ostatku należy wreszcie wyraźnie powiedzieć to: za publicznie przekazywaną, emitowaną informacją, z reguły stoi kapitał. Mniejsza o to, czy pochodzi od koncernów, czy z „grantów”, jakimi stoją placówki naukowe. Gdzie Kapitał zysku nie wywęszy, tam inwestycji nie będzie i DLATEGO nie jestem ze wszystkim pewny, czy ostoje kapitalizmu jako relacje popytu i podaży rynkowej, zapowiadające komuś tam zysk, utrzymają swoje zwierzchnictwo w XXI wieku. (Oczywiście i to, com właśnie zauważył, też jest informacją, o posmaku, powiedzmy, futurologicznym.) Informacja nie może w skali światowej bezkarnie i nieselekcyjnie po prostu przybywać: wyścigi producentów i wynalazców procesorów, które i Pentium pozostawiły już w tyle, nie mogą trwać wiecznie, gdyż wyglądałoby to na asymptotycznie zorientowany trend, abyśmy się stali zbiorowością wszechwiedzącą, czyli Bitowym Panem Bogiem. Do tego nie może nigdy dojść po prostu przez to, że łącznościowo, informatycznie jesteśmy ograniczeni tak samo jak homo robustus, a może tylko homo neanderthalensis, który, jak wiadomo, miał mózg większy przeciętnie od mózgu człowieka współczesnego. Zresztą ogromna większość ludzi pragnie, ażeby informacja nie tyle powiadamiała ich, ile, aby stawała się rozrywką, zabawką i grą niczym gry komputerowe. Neil Postman ponad 10 lat temu napisał książkę obecnie jeszcze bardziej aktualną aniżeli w czasie jej publikacji (Amusing Ourselues to Death). Informacją żyjemy, ale możemy też w niej utonąć, jeżeli jakaś inteligencja, bodaj sztuczna, z pomocą nie przyjdzie… 5 W świecie, rozpatrywanym pod kątem informacyjnym, panuje pewna charakterystyczna osobliwość, mianowicie „fałszerstwo informacji”. Zaczynając od fatamorgany, od powielania obrazu słońc przez kryształki obłocznego lodu, poprzez „kanały na Marsie” po „grawitacyjne soczewki” w Kosmosie, Natura (oczywiście bezintencjonalnie) dokonuje pewnych „manipulacji”, które byśmy w ludzkim świecie nazwali oszustwem (fatamorgana ukazuje oazę, której nie ma, itp.). Z kolei w świecie ożywionym roi się wprost od „oszustwa” i „fałszerstwa”, tylko myje zwiemy inaczej: chodzi o barwy ochronne, o mimikry, naśladowanie wyglądem stworzeń groźnych, jadowitych przez bezbronne — i to naturalnie nie wynika z zamiaru „oszustwa”, lecz po prostu z selekcji i mutacji ewolucyjnej. Tak zatem owo zjawisko nie jest tylko w świecie ludzi spotykane. Inna poważniejsza rzecz, kiedy się przed nami otwiera gigantyczny potencjalnie przestwór informacji przez nas przekazywanej, przetwarzanej, fabrykowanej. Nawet uczone osoby, zajęte przewidywaniem socjalnych skutków masowego wdrażania sieci łączności elektronicznej nie zdawały sobie sprawy (jako eksperci od technology assessment) z tego, jakim żerem stanie się i cyberprzestrzeń i Internet czy Euronet dla oszustów, hackerów, malwersantów wszelkiej maści, bo nie tylko sekretnie słane wieści można przejmować, operacje bankowe zakłócać na korzyść zakłócającego lub jego „klienta”, fałszować wiadomości (prototypem prymitywnym niech nam będzie afera z Hrabiego Monte Christo, gdzie przekupiony telegrafista — obsługujący ówczesne „wiatraki machające ramionami” — przesyła fałszywe wiadomości, które rujnują w Paryżu majątki). Cóż dopiero, kiedy programem można program zastąpić, zwalczyć, zniszczyć „sabotażystami” w postaci wirusów (czyli specyficznych mikroprogramów), całkowicie pomieszać prawdę z fałszem; pierwsze ofiary i oszustwa już się pojawiają. Czytało się nawet, że te wielkie konsorcja, które w sieci zainwestowały miliardy, nie kwapią się z ujawnianiem strat, jakie z tytułu owych oszukaństw już poniosły, ponieważ inwestorów– akcjonariuszy albo się nie powiadamia o każdej kolejnej aferze, albo się uspokaja zapewnieniami, że „przeciekom” i inwazjom w programy i treści położą kres dodatkowe elektroniczne zabezpieczenia (tak zwane firewalls na przykład). Otóż, aczkolwiek się na programowaniu nie znam i specjalistą w problemach sieci nie jestem, na podstawie ogólnej znajomości historii po prostu wiem, że „walka miecza z tarczą” to nie jest konflikt, zawężony do sfery militarnej. Ludzie ludzi oszukiwali i okradali wszędzie, na świetne zamki są jako sposoby świetne wytrychy i nie inaczej, należy mniemać, będzie w Imperium Informaticum: to jest po prostu zgodne z biegiem rzeczy! Jeżeli zaś pewne sieciowe szlaki, „wrota” można zabezpieczyć w 100 procentach, to prohibitywne okażą się koszty zabezpieczeń. Informacja bez fałszerstw jest niestety fikcją… Kwantowy komputer? 1 Jak powiada fachowiec, w ciągu ostatnich pięćdziesięciu lat co dwa lata komputery stawały się coraz szybsze, zaś ich elementy coraz mniejsze. Jednakowoż nie ulega wątpliwości, że trend ów musi mieć swój kres: kresem tym wydawała się zrazu struktura materii w skali najmniejszej, czyli tam, gdzie cząstka JEST falą, zaś fala JEST cząstką i gdzie rządzi Heisenbergowska relacja nieoznaczoności. Jak mówił Niels Bohr, człowiek, który dogłębnie studiuje mechanikę kwantową, a nie doznaje zawrotu głowy, nie ogarnia jej prawidłowości w sposób rzeczywiście właściwy, ponieważ te kwantowe prawidłowości przeczą „zdrowemu rozsądkowi” naszemu, są kontrintuicyjne i najwyraźniej gwałcą podstawowy kanon przyczynowości (kauzalizmu). Aby od razu wejść w to piekło paradoksu należy zważyć, że nie tylko na papierze i teoretycznie, ale w eksperymentach, od których jako wykrywalnych faktów po prostu nie mamy już donikąd żadnego odwołania, nie jest tak, jak utrzymywali niektórzy fizycy–optymiści (Bohm na przykład), że pęd i położenie swoje ma elektron TAKŻE przed jakimkolwiek pomiarem, a tylko my obojga aż do dokonania nie znamy (niby: nie wiadomo, czy i gdzie czarny kot znajduje się w ciemnym pokoju, lecz on tam albo gdzieś jest, albo go nie ma). Tymczasem okazało się, że tak nie jest. Jakkolwiek obraża to nasze intuicje, elektron może być zarazem „i tu, i tam”, dopóki go nie poddamy doświadczalnie pomiarowi. To też nie jest jeszcze najgorsze, albowiem jest też tak, że jako cząstka, która JEST falą, elektron może interferować z innym elektronem, a co fatalniejsze, może też oddziaływać sam na siebie i powstaje wtedy to, co fizyka kwantowa zwie „superpozycją”. Ja tu nie zamierzam iść dalej w głąb niesamowitego świata kwantów, lecz powiedziałem to tylko, co w skromnej mierze pozwoli na prezentację powstającej już perspektywy zbudowania komputera kwantowego. Wydaje się (z rozsądnej ostrożności powiadam „wydaje się”, a nie „wiem na pewno”), iż to już byłby kres zarówno mikrominiaturyzacji, jak przyspieszania czynności logicznych komputerów, ponieważ docieramy tą drogą do ostatecznych granic materii. Myślałem ongiś, że granica zostanie osiągnięta, kiedy atomy, tworzące określone związki chemiczne, będą funkcjonowały jako „ostateczne”, tj. najbardziej elementarne „bramki logiczne”, ale się pomyliłem, skoro już można obecnie poszczególne jednostki (bity) informacji umieszczać w elektronach okrążających jądro (np. wodoru): tym samym „schodzi się” jeszcze dalej czy niżej. Reguła postępowania w przypadku jednego atomu, jednego elektronu jest względnie prosta. Podobnie jak bity są nierozdzielnymi, nieczłonkowalnymi cegiełkami informacji (jeden bit to akurat tyle co 0 lub 1, czyli TAK albo NIE), podobnie też elektron okrążający jądro atomu może albo znajdować się na orbicie o najmniejszej energii, którą nazwiemy umownie zerową, albo może pozyskawszy właściwą porcję energii (jaką mu przyniesie foton) przeskoczyć na orbitę wyższą. Będzie nam ona jedynką. Foton pochodzi z urządzenia, które wytwarza promieniowanie laserowe i dzięki niemu potrafimy już dokonać nader prostej operacji: jeżeli elektronu na orbicie „spoczynkowej” nie wzmocnimy energetycznie, to jest tak, jakby miał zapisane ZERO. Jeżeli trafimy go fotonem (nie byle jakim), pozyska energię taką, by wskoczyć na wyższą orbitę i w atomie „jest zapisane” TAK, czyli jedynka. Ponadto, idąc dalej, należy jeszcze uwzględnić inne, zresztą nieliczne, ale do rachowania logicznego niezbędne warianty („i”: czyli koniunkcję, „kopiuj”, czyli przekaż itp.). Dopóki mamy jeden atom, widać, że jego „moc obliczeniowa” jest skrajnie mała, jest nędzna, ale można działać na zespoły atomów i sytuacja staje się wtedy zarówno znacznie zawilsza, jak daleko mniej trywialna: powstaje komputer kwantowy, w którym stany energetyczne elektronów tworzą zapisy, zaś fotony (laserowe) mogą owe zapisy przekształcać wedle odpowiedniego programu. Sprawa jest też bardziej skomplikowana z kilku powodów, z których wymienię choćby dwa najistotniejsze: ze względu na możliwość powstania superpozycji — czyli „wsiadania” elektronowej fali na siebie samą, oraz, co gorsze, ze względu na to, że trwałość powstających zapisów, czyli trwałość ulokowanej na kwantowym poziomie pamięci (bez której wszak w ogóle nic komputer począć nie może) jest bardzo labilna. Obecnie rekordem są takie okresy tej trwałości, które ogarniają kilka godzin. Zresztą ekranowanie takich kwantowych komputerów od zakłóceń, wywołujących błędy, to osobny, bardzo mocno kwestionowany przez wielu problem. Niby świta tam komputer najmniejszych rozmiarów i najwyższej szybkości, ale rychło spodziewać się go nie należy, nawet gdyby był konstruowalny, co zresztą jest zaprzeczane przez fizyków–sceptyków. W październikowym numerze „Scientific American” widnieje rycina pokazująca, JAK kryształ zwykłej soli mógłby dokonywać operacji logicznych za pośrednictwem „łączy kwantowych” tak, że ów komputer byłby w stanie symulować dowolny inny system kwantowy i to z nieprześcignioną szybkością…. To na papierze, ale w rzeczywistości wciąż mamy do czynienia z bardzo skromnymi zespołami atomów, elektronów i tym samym kwantów. W tym kontekście pojawia się pytanie, czy jest możliwe, jak utrzymywał w swej ostatniej książce znany fizyk R. Penrose, iż świadomość DE FACTO jest ulokowana w mózgu właśnie na kwantowym poziomie. Już nie wchodząc w krytykę tej koncepcji „od strony” fizyki, bo wszak żadnych laserowo kreowanych fotonów w mózgu nie ma, wyrażę moją subiektywną, aczkolwiek silną intuicję, tj. moje przeświadczenie, że nic nam dla wyjaśnienia fenomenu świadomości kwantowy poziom nie przyniesie. Zważyć należy, iż znękani poszukiwaniem lokalizacji świadomości myśliciele przeprowadzali ją jak mogli — od szyszynki do kory mózgowej, od kory mózgowej do podkorowych układów (np. śródmózgowia i systemu limbicznego itd.). I niejako prawdopodobne z tych „przeprowadzek” nie wynikło. Jak niejednokrotnie pisywałem, nawet maszyna (komputer), zdolna zdać „egzamin”, to jest test Turinga, pewności, iż ma ona świadomość, dostarczyć nam nie może, albowiem ekwifinalne stany „wyjść” i „wejść” (input and output) nie pozwalają na ustalanie, że wewnątrz maszyny panują procesy tożsame z procesami, powodującymi powstawanie świadomości w mózgu ludzkim. Jednym słowem, przeprowadzki z poziomu (neuronowego dajmy na to) na paziom atomowy czy choćby i kwantowy, żadnej dodatkowej wiedzy o powstawaniu i lokalizacji świadomości nam nie dostarczają, a jedynie takie przemieszczanie świadomości wyjaśnia, że uczeni starają się ją „gdzieś upchnąć”. 2 Produkowane obecnie — wracam do komputerów — procesory jeszcze nie są kresem drogi, ponieważ doskonałość litograficznego utrwalania „bramek logicznych” na „chipach” może się jeszcze powieść. Tu właśnie natrafiamy na taki oto paradoks: kiedy miniaturyzacja dosięga już atomowych rozmiarów, razem z nią pojawia się jako bardzo poważny czynnik, hamujący dalszy pochód, indeterminizm: relacja Heisenberga itp. Otóż cała „chytrość” generalnej koncepcji komputera kwantowego tkwi w tym, co Niemcy zwą aus einer Not eine Tugend machen, czyli jak przekształcić kłopot w zysk (cnotę). I rzeczywiście, właśnie elektronowe superpozycje i ich falowe własności okazałyby się zbawienne, GDYBY udało się kwantowe, na (ogólnikowo tu jedynie opisanej) zasadzie komputery budować, uczyniwszy je A) trwałymi spichlerzami pamięci oraz B) niewrażliwymi na idące z otoczenia wpływy zakłócające. Dozy fotonowe, czyli regulowanie strumieni fotonów, musiałoby bowiem być niesamowicie dla nas dzisiejszych precyzyjnie utrzymywane w spektrum energetycznym, gdyż zarówno foton „za słaby”, jak „zbyt silny” wprowadza nam od razu w operacje logiczne błąd, a usuwanie błędów z komputera kwantowego to na razie „pieśń przyszłości”. 3 Jest jeszcze jeden, osobny szkopuł wiszący nad tym całym dziewiczym dotąd obszarem „Kwantowych operacji komputerowych”, a mianowicie niechybny fakt, że jeżeli się pojawią kwantowe komputery, to zaraz się też narodzą i rozmnożą „kwantowi hackerzy”. Jakby można było sobie z nimi poradzić, nikt nie ma na razie bladego pojęcia. Czynnikiem sprawczym nie jest osobliwa zła wola czy spaczona intencja, ale po prostu natura ludzka. Już tacy nieprzyjemni dla bliźnich jesteśmy, że jeżeli można włamywać się, to się włamujemy, skoro można fałszować, to fałszujemy, to kradniemy, niszczymy nawet, jeżeli niszczącemu żadnego zysku to nie przynosi. 4 Tak zatem nieobecność, czy też nierychliwe pojawienie się na rynku informatycznym kwantowych komputerów może nas wprawdzie zainteresować, jako najdalsza perspektywa postępu technologicznego w tej dziedzinie, postępu opartego wprost na mechanice kwantowej, ale, jak dotąd, z owej perspektywy wynika dla nas może więcej nawet „LEPIEJ NIE”, aniżeli „TO WYBORNIE”, ponieważ dostateczną ilość różnorodnych kłopotów mamy JUŻ z konwencjonalnymi komputerami i z ich sieciowymi łączami. Inna rzecz, że kwantowa rewolucja bez wątpienia pociągnęłaby za sobą akty doskonalące tak trwałość pamięci na tym poziomie, jak zarazem zmniejszenie wrażliwości na perturbacje. Osobiście jestem dość umiarkowanym optymistą, co by w praktyce oznaczało, że kwantowe komputery mogą się okazać osobliwie przydatne w naukach ścisłych (analizy czynnikowe w matematyce czy też symulowanie nieznanych nam całkowicie stanów, jakie może przybierać materia), natomiast globalne sieci razem z giełdami, bankami itp., będą nadal obsługiwane przez takie komputery, które wprawdzie mikrominiaturyzujemy i wprawiamy do akceleracji działań, ALE wszystkim wspólna zasada się nie zmienia. Jest to wciąż różnica elektrycznego ładunku w bramkach logicznych i tak było w kolosalnie nadmiarowym ENIACU, jak w CRAYU (który również już do rekordzistów nie należy). Ale naturalnie mogę się tu mylić, ponieważ nie jest tak, żeśmy z fizykami na czele zjedli wszystkie mądrości w zakresie mechaniki kwantowej. Kosmos jest tak osobliwie utworzony, że tai w sobie zbiory tajemnic bez dna, my zaś dokopujemy się z wolna do coraz to głębszych ich pokładów. Już wiadomo, że jeżeli dwie kwantowe fale w superpozycji zachowują się jak jedna fala (a nazywamy to sprzężenie koherencją), to, jeżeli nastąpi dekoherencja, znów mamy do czynienia z dwiema falami. Albert Einstein nie chciał się pogodzić z całą domeną kwantowej nieokreśloności. Typowe dla niej stany gwałcą wszelką klasyczną intuicję o przyczynowym oddziaływaniu. Jeżeli zmierzy się jeden BIT (reprezentowany przez elektron w superpozycji), to drugi „sam jakoś” ustala TEŻ swoją wartość (fizyczną i logiczną). Nie zachodzi przy tym oddziaływanie pomiaru pierwszego na drugi PRZYCZYNOWE. Już wiemy, że elektrony mogą być jeden tu, drugi zaś na Jowiszu. Jak długo nie mierzymy, to panuje „niejasność” czyli nieokreśloność, a jeżeli zmierzymy jeden, to drugi „musi” się tak zachować, żeby jego nieokreśloność TEŻ znikła (zazwyczaj robi się wspierające to zjawisko eksperymenty na spolaryzowanych fotonach, albowiem one jak elektrony też są i nie są FALAMI). Jednym słowem, kroczymy tutaj w krainę, aby tak rzec, sprzeczną z regułami kauzalizmu, a zatem naszego myślenia, ukształtowanego przez prosty fakt, iż żyjemy w makroświecie, w którym efekty falowe większych „kawałków” materii są niepostrzegalne. Jeżeli elektronowo umiejscowionych bitów kwantowych mamy więcej, to pojawiają się tak okropnie i tak przeciwintuicyjnie powstałe stany, że nie wiem, jakby można o nich bez matematyki w ogóle coś sensownego powiedzieć. Jednak widać spoza owych niejasności przynajmniej to, że w obszarach kwantowych jest jeszcze bardzo dużo do zrobienia i do wykrycia. Nikt się nie myli obecnie tak, jak ci, którzy sądzą, iż nauki ścisłe zbliżają się do swego „finiszu”, do kresu i następne pokolenia uczonych nie będą już miały nic do roboty. Może warto zauważyć, że o uczonych, a już szczególnie o fizyków dwudziestowiecznych martwili się pod koniec dziewiętnastego wieku ówcześni uczeni dokładnie tak samo, byli bowiem przekonani, że ,już prawie wszystko, co można poznać, zostało poznane”. Było, rzecz jasna, całkiem inaczej i nie należy także idei kwantowych operacji logicznych umieszczać po stronie nigdy nie urzeczywistnialnych bajek, nie wiadomo, jak z tymi komputerami ostatecznymi będzie, a nawet nie wiadomo, czy poziom kwantowych operacji to już jest „ostateczna ostateczność”… 5 Na zakończenie pragnę zwrócić uwagę na to, że te postępy w szybkości i uniwersalności także symulacyjnej, jakich się po kwantowych rachmistrzach można by spodziewać, mają się nijak do zagadnienia świadomości i idąc w tamtym kierunku niczego się (moim zdaniem naturalnie) o świadomości nie dowiemy. Ta kwestia w kwantową budowę materii, jak myślę, uwikłana nie jest. Tu więcej można się będzie spodziewać od AL (Artificial Life), od „sztucznego życia” oraz od biochemii. Powiedziane zresztą w niczym nie narusza mojej omylności. Algorytmy genowe 1 Istnieją zbiory problemów, których w praktyce przy pomocy zwykłego komputera, chociażby największej mocy obliczeniowej, nie da się pokonać. Do najprostszych, takich, na których rzecz o zastosowaniu algorytmów genowych zwykle się tłumaczy, względnie od nich zaczyna, należy tak zwany problem podróżującego komiwojażera, który ma pewną ilość miast kolejno odwiedzić i to drogą najkrótszą. Przy dziesięciu miastach trzeba komputerowi około pięć sekund dla rozwiązania, lecz dla dwudziestki potrzeba mu już około 100 000 lat, ponieważ jest to tak zwany NP–problem (niewielomianowy, po angielsku nonpolynomial), i rozwiązanie wymaga N! kroków. Niezbędny dla rozwiązania problemu z grupy „P” czas rośnie wraz z rozmiarami samego problemu mniej więcej w tym samym tempie (10 jednostek czasu dla 10 elementów problemu itd.). Natomiast problemy w rodzaju „NP” rosną w czasie, jak się powiedziało wyżej, w silni i rychło przyszłoby czekać u komputera MILIONY lat na rozwiązanie. Te gorsze „NP” problemy nazywają matematycy „twardymi”: jakoż przy największej mocy obliczeniowej komputer problemu się praktycznie nie ima, bo żadna tu brute force, jak w dawniejszych zwłaszcza algorytmach gry w szachy, nic nie pomoże. Na scenę wchodzą wszakże wówczas nowsze algorytmy zwane genowymi stąd, że podobnych używa Matka Natura w sferze biologii i ewolucji biologicznej. Sensu stricto atąueproprio nie są to algorytmy z klasycznymi tożsame, jako że nie stanowią recepty na jedyne optymalne rozwiązanie takie, że już odeń lepszego być nie może. Są to raczej nie tożsame, ale silne aproksymacje rozwiązania optymalnego. Jak takie algorytmy funkcjonują, nie jest ze wszystkim łatwo przedstawić, ponieważ zasadniczo, a to zwłaszcza dla prawdziwie „twardych” NP–problemów, obraz tej gry wykracza poza granice ludzkiej wyobraźni. Można jednak dokonać swego rodzaju redukcji takiego obrazu i to, dodaję od razu, na różne sposoby. Coś podobnego się dzieje, kiedy kształty wielowymiarowej przestrzeni dla uzyskania niejakiej naoczności rzutujemy w przestrzeń o mniejszej ilości wymiarów. Manfred Eigen zobrazował ten elementarny ruch ewolucyjny genowych zespołów na modelu, jakim mu był tak zwany „pejzaż walorowy” (Wertlandschaft — Stufen zum Leben, Piper 1987). „Pejzaż” wygląda jak zasiana pagórkowatymi wzniesieniami równina, zaś „pseudoorganizmy”, które walczą o przeżycie wedle reguł naturalnej selekcji, okrążając ich wierzchołki, mogą od niższych przeskakiwać ku wyższym. Na czym też ich „postęp biologiczny” jako survival of the fittest polega. Te, co tak podążyć nie mogą, zatracają się, ponieważ proces zachodzi podczas ich replikacji, a jeżeli replikacja źle się uda, następuje coś, co silnie przypomina przejście fazowe (jak gdy np. woda ścina się w lód, albo NA ODWRÓT: zachodzi zmiana stanu). Tutaj wątek przejmowany od Manfreda Eigena urywam, a wspomniałem o nim przede wszystkim po to, by ukazać, jaką drogą idzie i posuwa się naprzód myśl badawcza w naszych czasach, żeby jakoś procesy życiowe doboru i selekcji wymodelować, ponieważ „w oryginale” zbyt zawiłym ukazać ich na razie nie umiemy („organizmy” krążące nad pejzażem walorowym Eigena są nawet względem bakterii czy i najprostszych wirusów nader prymitywnymi modelami, ALE ZASADY ICH DYNAMIKI można już rozpoznać i na modelu). 2 Dla rozwiązywania atoli problemów „NP”, czyli tych, co się wielomianowo ukąsić ani rozgryźć NIE dają, eksperci inny sporządzili „pejzaż”. „Pejzaż” (landscape) istotnie jest jakby przejęty od Eigena, ale w odwróceniu, bo gdzie u Eigena pagórki, tutaj są doliny. Są „walorowe”, chociaż wartości, jakie przypisuje się głębinie tych „dolin”, radykalnie odmienne są od walorów Eigena. U niego idzie o takie parametryczne wartości, które należą się SAMYM „pseudoorganizmom” i zależą od typologii ich funkcjonowania, więc można by je pseudobiologicznymi nazywać. Natomiast dla pokonania problemów, takich jak wspomniane już podróżowanie komiwojażera po najkrótszej drodze między miastami (albo dla stwierdzenia, jaką ilość samolotów na określonej ilości lotnisk trzeba trzymać w pogotowiu dla minimalizacji strat, spowodowanych dowolnym czynnikiem, który jakąś część samolotów do startu gotowych zatrzyma na ziemi; ilość takich zadań może być rozmaicie wielka) głębokość „doliny” ustanowiona jest ceną (kosztem) do zapłacenia jako do pokrycia wydatków związanych z podróżami (czy z utrzymywaniem samolotów w gotowości startowej: jak widać, te „landszafty genowe” przy swojej stereometrycznej tożsamości mogą służyć do rozwiązywania całkiem rozmaitych zadań). Im głębsza dolina, tym MNIEJSZY koszt (uwaga: między kosztem a „głębią” zachodzi zależność odwrotna!). Szuka się tedy dolinki najgłębszej, bo ona minimum kosztorysowe wyznaczy i to właśnie jest owocem zastosowania quasi–genowego algorytmu dla rozwiązania problemu poszukiwań, które, prowadzone na ślepo, czy to poprzez bezpośrednie („ludzkie”) działania, czy poprzez brute force komputera, trwać by mogły miliony lat. W jakiego rodzaju relacji to, cośmy tu pokrótce zaprezentowali, stoi do realnych „problemów algorytmicznie genowych” w biologii (w biologicznej ewolucji), nie wiadomo porządnie, co widać chociażby stąd, że stanowiska genetyków „prawdziwych”, tj. osadzonych na terenie biologicznym, zasadniczo się wzajemnie różnią. Trzeba rzec, że zagadki na tym polu ukryte są potężne. Używając zainspirowanych przez myśl ewolucyjną Darwina i innych też technik, D. Applegate z laboratoriów Bella w zeszłym roku uzyskał rekord w poszukiwaniu optymalnej drogi dla komiwojażera na drodze między 7397 miastami: to genetycznie natchnione szukanie trwało 3,5 roku, lecz działanie na oślep (brute force) wymagałoby prześledzenia 102547 dróg, co by trwało dłużej aniżeli ISTNIENIE WSZECHŚWIATA! 3 Tak zarodkowo i zwięźle przedstawiony koncept „genowych algorytmów” zdaje się ukrywać w sobie jakiś potężny paradoks, któregośmy dotychczas rozłupać nie mogli. Najpierw, zacznę lekko, okazuje się, że te algorytmy w samej rzeczy już i przez to są podobne do pracujących w żywej materii, że „absolutnych” czy też „ostatecznych” wyników dać nie potrafią. W praktyce ekonomicznej nie jest to żadne nieszczęście, albowiem rozwiązania aproksymujące optimum czy minimum w granicach 95 procent uzyskiwać można — i to już jest nader korzystne. Ze strony zaś biologicznej patrząc widzimy, że takie algorytmy zapewne życie ewoluujące napędzają, ponieważ i w nim „absolutnie doskonałych” ewolucyjnych rozwiązań nigdy z reguły nie ma. Są tylko doraźne sukcesy i bardziej jeszcze doraźne klęski. Po wtóre, ostatnio wykryto grupy „komenderujące” bagażem genowym każdego gatunku. Nazwane są „HOX” i jest ich od jednego HOX do pięciu, a może i do ośmiu. To one dyrygują rozwojem tak, żeby się ustaliło, gdzie ma się z jajeczka zapłodnionego rozwinąć głowa, gdzie tułów, gdzie kończyny i JAKIE. Niektórzy biologowie mówią nawet o tym, że jakoby można, działając energicznie na HOX–y — cofać ewolucyjne rozwiązania nam współczesnych gatunków w przeszłość sprzed 200, a nawet 400 milionów lat. Na razie praktyczne doświadczenia były skromne, ale poczekajmy z orzekaniem skromności jeszcze jakąś dekadę. Dziwne wszakże wydaje się to, że wyobrażenia, jakie zyskujemy dzięki utworzeniu „landszaftów walorowych” dla NP–problemów wydają się sprzeczać i zderzać z wyobrażeniami, jakie zawdzięczamy HOX–om. A to jest tak, że HOX każdy trwale ustanawia architektonikę ustrojową wedle normy gatunkowej, zaś zaburzenia wewnątrz HOX–u (to nie jest gen, ale niejako mały lokalny sztab generalny) powodują najcięższe, letalne defekty (dwugłowość i inne potworniactwa u ludzi, ale nie tylko u człowieka). Prawdopodobnie jest tak, że sprawność w chyżości rozwiązań nadmierna NIE była korzyścią ewolucyjną i niejako została wyhamowana na rzecz „wielkich symfonicznych koncertów” pod batutą serii HOX–ów: dzięki czemu i my mogliśmy po około 800 milionach lat ewolucji wielokomórkowców (po tak zwanej erupcji kambryjskiej) powstać i zaludnić Ziemię, a czy na dobre, czy na złe, to się dopiero okaże w XXI wieku. 4 Sprawność algorytmów genetycznych jest innowacją zdumiewa jącą, mnie może, który od kilkudziesięciu lat namawiałem głuchy świat do nauki w Pani Ewolucji, mniej chyba aniżeli matematyków i programistów z biologami na czele. Satysfakcje ekonomiczne, radujące Wielki Kapitał, uważam przy tym za zjawisko mikroskopijne w obliczu nowego, dopiero powstającego spojrzenia na procesy ewolucyjne, które ujawniając nam poczynają teraz zadziwiającą swoją potencję i nie mniej zastanawiający rygoryzm. Geny są bowiem niejako alfabetem, a z nich budowane ustroje stanowią konstrukcje, rozmaite architektonicznie funkcjonujące, z bodajże jednym stałym parametrem — śmierci, bez której rozwój nie byłby w ogóle możliwy jako postęp (przynajmniej jako ten postęp, który usiłujemy dostrzec w rozpiętości, oddzielającej jednokomórkowce jak PARAMECIUM CAUDATUM EHRENBERG do HOMO SAPIENS SAPIENS). Z alfabetu bowiem można zarówno najsrożej częstochowskie rymy złożyć, jak równe szekspirowskim dramaty i tragedie. Już nieodwracalnie chyba znaleźliśmy się na tej drodze, i tym samym przybliża się dzień, w którym opanujemy już nie peregrynacyjną geometrię komiwojażerów i nie zagadnienia ekonomizacji towarzystw lotniczych, ale umiejętność budowy żywych ustrojów. Co z tą umiejętnością zdoła uczynić człowiek — należy takie pytanie pozostawić w zawieszeniu przy wszystkich obawach, jakie nasuwają się, kiedy pragniemy znaleźć na nie odpowiedź. 5 Nie należy co prawda uważać, że problemy typu „NP” rozłamywalne przy pomocy algorytmów genowych to są już WSZYSTKIE w gruncie rzeczy problemy, z jakimi można się jeszcze spotkać. Istnieją, naturalnie, i takie zadania, jakich algebrą genową, genowymi algorytmami dobrać się do celu nie sposób. Ale też nikt nie powinien sądzić, żeśmy, już dzięki powyżej naszkicowanym odkryciom, zjedli wszystkie rozumy i że tym samym już wszystkie trudności teoretyczno–praktyczne na przyszłych drogach naszych będziemy potrafili pokonać. Uważam też odkrycia zawdzięczane genetyce tak samo, jak wykrycie genów dyrygenckich (HOX) za najważniejsze kroki, jakie zostały postawione na terenie biologii w dwudziestym wieku. Użyteczność pozabiologiczną technologii ukształtowanych przez życie zawsze uważałem za sprawność SUI GENERIS, i dlatego w głuszy lat sześćdziesiątych pisałem nadaremnie o tym, jak wielkie korzyści (i jak okropne zagrożenia) zostaną naszym łupem, kiedy wykroczymy z dziedziny życia, używając podpatrzonych u życia instrumentów i strategii, w ludzki świat. Myślałem i o tym, że efekty powstałe przez to okażą się może i nieludzkie, ale zanadto nie przestrzegałem, kojony tym, że czy dobro, czy zło wieściłem, nikt mnie nie słuchał. Co jest zresztą i naturalną koleją rzeczy i sprawą o nieszczególnie istotnym znaczeniu. Zmyślne roboty 1 Ogromna ilość różnospecjalistycznych teoretyków i praktyków na Ziemi pracuje ostatnim czasem nad tym odgałęzieniem Sztucznej Inteligencji, któremu można przypisać sui generis podobieństwo do ludzkiej umysłowości, a mówiąc z ostrożności szerzej, do umysłowości zwierzęcej. 2 Na czym to podobieństwo ma polegać? Problem daje się rozwarstwić na część „architektoniczną” (np. na to, czy i jakie sieci neuronopodobne należałoby skonstruować, jakie procesory etc.) i na część teoretyczną o wyraźnym posmaku filozoficznym. Zajmę się tutaj tym drugim, bo sprawa architektoniki budulca pseudoumysłu jest tak samo podrzędna, jak sprawa zawarta w pytaniu, czy określony pojazd terenowy ma się poruszać raczej na gąsienicach, czy na jakimś specjalnym rodzaju kół, jak się poruszały bezgąsienicowe pojazdy księżycowe zarówno amerykańskie jak i sowiecki. 3 Skoncentrowane i zredukowane do zasadniczego rdzenia „pytanie filozoficzne” sprowadza się do kwestii, w jaki sposób wprawić „umysłowi robota” tendencję WOLICJONALNĄ. Najdoskonalszy program szachowy w najszybszym obecnie komputerze żadnej wolicjonalnej komponenty nie zawiera. Zawiera on mniej więcej takie „dążenie do przedustawnego (prestabilizowanego) celu”, jak metalowa kula, którą burzy się mury, jakie chcemy zrujnować, albo jak pocisk wystrzelony z armaty. Program niejako zastępuje chęć dotarcia do zadanego z góry celu, zaś różnica między granatem w ruchu a kolejnym ciągiem szachowym zasadza się na tym, że granat „po drodze do celu” na utrudniające mu przeszkody nie natrafia (to jest „nie powinien” natrafić wedle wiedzy artylerzystów, która na pewno „znajduje się poza granatami i armatami”), natomiast drogę do celu (jakim jest dany przeciwnikowi MAT) utrudnia programowi tenże przeciwnik swoimi ciągami, które dotarcie programu do „dania mata” powinny całkowicie udaremnić. 4 Naśladowanie aktów wolicjonalnych, czyli „chcenia” czegokol wiek jest oczywiście możliwe, ale też jest to czysta imitacja, nic wspólnego z autentycznym aktem woli nie mająca. Jeżeli np. program ma biegle imitować akty wolicjonalne, programista powinien przewidzieć, jakie możliwe przeszkody program napotka i w jaki sposób ma im „stawić czoło”. Takich możliwych przeszkód może być wiele albo i bardzo wiele. Na kolejne pytanie, czy trzeba „wszystkie dające się przewidywać” przeszkody explicite przedprogramować (czyli przewidzieć ich cały zbiór zamknięty z góry) można odpowiedzieć, że tak być nie musi. Ewolucja naturalna nie działa tak, żeby „programy” działające w żywych stworzeniach potrafiły uporać się z „wszystkimi możliwymi przeszkodami”. Wiadomo np., że choć muchy od setek lat potrafią — bo TAK są zaprogramowane — wywinąć się żywo spod packi na muchy — nie potrafią „rozgryźć” zagadki SZKŁA (szyby). Ze względu na ich tryb życia zdolność much do „pobierania nauk” (czyli wytwarzania indywiduowych odruchów warunkowych) jest w stosunku do pszczół bardzo mała, ponieważ pszczoły opanowały nawet Język sygnalizacyjny”, jako że był im potrzebny w sztuce przeżywania (survival of the fittest). TEJ sztuki, która nie pochodzi od z zewnątrz działającego PROGRAMISTY, ale po prostu jest rezultatem długich serii działania doboru naturalnego, żadne konstruowane przez ludzi roboty jeszcze nie posiadły. Imitacje „woli przeżywania” możemy mnożyć, uczone traktaty o funkcjonowaniu quasi–wolicjonalnym pisać, coraz to zawilsze pseudoneuronowe sieci konstruować, ale nie potrafimy zejść do poziomu molekularnego, na którym już wirusy a dalej bakterie umieją tak „przetasowywać” swoje genomy, ażeby umknąć lub przezwyciężyć niweczące je działanie leków (antybiotyków na przykład). Co zwykle zachodzi przez neutralizację zgubnego (dla mikroorganizmów) działania biochemicznego leku albo przez taką zmianę struktury antygenowej drobnoustroju, że lek „nie może go odnaleźć”. Używam poniekąd metaforycznych określeń, gdyż inaczej musiałbym wypisywać długie i skomplikowane rozważania fizykalne, chemiczne czy biochemiczne, których wolę poniechać, albowiem idzie mi tylko o to, że pierwociny „chęci”, zalążki aktów wolicjonalnych można już znaleźć w najbardziej prostych organizmach żywych. 5 Trzeba sobie dobrze uświadomić, że w dziedzinie, w którą wkroczyliśmy, żadne zawiłe wykręty nic nie pomogą. Ruch wskazówek zegara może być powodowany sprężyną, elektromotorkiem, wagami — w tym ostatnim przypadku zegar w swym miarowym chodzie jest zdany na ziemską grawitację, i tam, gdzie, jak na orbicie, jej nie ma, już by iść nie mógł. W każdym takim wypadku ruch jest wektorowo zorientowany „z góry”, to jest przez zegarmistrzów–konstruktorów. Nam chodzi natomiast o to, ażeby „elektryczny mózg”, komputerowy „umysł” (czy jak go nazwać) robota miał na oku, celował psychicznie, przewidywał CELE, ku którym wyruszy aczkolwiek my o jego decyzjach poszczególnych, tworzących sensowną całość z góry nie będziemy wiedzieć, jak z góry nie wiemy jakie decyzje będzie podejmował polarnik w swym marszu do bieguna albo na Mount Everest. Inaczej mówiąc, chodzi o postępującą, adaptacyjnie skuteczną suwerenizację robota: w ostatniej fazie doskonalenia aktów wolicjonalnych może będzie on człowiekowi równy… 6 Panuje wcale rozpowszechnione pośród ekspertów przeświadczenie, że miliardy lat, które wykształciły wreszcie kambryjską eksplozję gatunków, a więc i wielopostaciowy, różnokształtny survival ofthe fittest, może „na przełaj” zastąpić rozum ludzki. Że jak się porządnie namyślimy i niezbędne teoretyczne nauki pobierzemy, to rychło otoczą nas roboty dysponujące „wolą”, które będziemy mogli „namówić” i wyuczyć ścigania NAM potrzebnych celów. Jednak taka ewentualność nie do wykluczenia musi i to uwzględnić, że takie roboty będą mogły chybiać celów im wskazanych nie jak źle wycelowany pocisk, ale jak niegrzeczne dziecko albo jak wypiastowany przez nas szkodnik. Że obdarzone wolicjonalną suwerennością roboty mogą się nam sprzeciwiać: nie myślę tu o ulubionej przez prymitywizm magicznego myślenia „rebelii” robotów przeciw człowiekowi. Myślę tylko o tym, że jak się ilość stopni swobody działania powiększa, to już „samo dobro” nie zostaje zachowane, bo może się w swobodzie niejakie „zło” wykształcić. W naturalnej ewolucji widać i to aż nadto dobrze i ta refleksja może nas co nieco zahamować w intencji obdarzenia robotów „wolną wolą”. 7 Padło właśnie słowo „intencjonalność”. Oznacza ono właśnie określone nakierowanie ku temu, co „intencja” życzy sobie wskazać. Nie chodzi tylko czy też prawie że wcale o intencję w rozumieniu fenomenologii, jako pewnego nurtu filozofii. Chodzi tylko o to, że komputery nasze żadnego śladu intencjonalności nie wykazują i warto się może zastanowić nad tym, jakby tu bezimitacyjnie i niepokrętnie intencjonalność z nich wykrzesać? 8 Jedynym znanym nam ze świata sposobem na to jest ewolucja naturalna, która to, co żywe, a niedostatecznie intencją życia napędzane, bez „litości” gładzi, a to, co intencję życia zręczniej realizuje, ocala na jakiś czas (w normie — czas rozpłodu po prostu). Największym kłopotem dla teoretyków i praktyków konstruktorstwa jest niestety to, że eony czasu, niezbędne naturalnej ewolucji, czyli miliardy, a co najmniej miliony lat są przeszkodą, której nie weźmiemy. Wszystko mym zdaniem zależy od tego, czy jest jakaś metoda, jakaś strategia przyspieszonego uzyskiwania wolicjonalności, intencjonalności, czyli po prostu CHCENIA czegokolwiek. Człowiek w obu odmianach płci posiada pewne dążenia wbudowane, jak libido, jak głód, pragnienie itd., ale ponadto dysponuje rozmaitymi typami nadmiarowości (redundance), które sięgają od krzesania w krzemieniu tłuków i bijaków po budowanie zamków z cegły albo z zapałek i last but not least kosmiczne loty. 9 Żeby wolicjonalność jakakolwiek mogła rozpocząć funkcjonowanie, niezbędny jest dla niej „obraz świata”, czy tylko środowiska choćby. Dziecko musi się pierwej dowiedzieć, że Księżyca rączką zdjąć z nieba się nie da ażeby ono po kilkudziesięciu latach mogło uczestniczyć w programie Apollo. 10 Pseudomodele czynnej wolicjonalności, a zatem „chcenia”, można konstruować i tak, że się wprowadza do programu losowy generator, przez co nie będziemy potrafili przewidzieć przyszłych stanów i ewentualnie funkcji „robota”, ale nikt tego nie chce. Nikt nie chce tego poza loterią czy lottem. Pewna pani skarżyła się psychiatrze na syna, opowiadając, że zjadł on cały tort, przeznaczony na Święta i zgwałcił kucharkę: czy nie jest to, pytała, dowodem jego szaleństwa? Nie — odparł lekarz. Gdyby pani syn zjadł kucharkę i zgwałcił tort, można by na to patrzeć inaczej. To jest skrótowo niezły przykład działania „losowego generatora”, który ma nam udawać działalność wolicjonalną. Ona musi być wyposażona w jakiś sens. U bakterii czy pchły, czy słonia będzie to sens przeżywalnościowy, u człowieka, jak się rzekło, ilość jako tako sensownych postępków jest daleko większa, wiemy wszakże aż nadto dobrze (niestety), że ludzie zdolni są do tego, by chcieć rzeczy dla nich szkodliwe, szalone oraz nawet zabójcze. Nie wyobrażam sobie, żeby robot mógł posiąść bezkresną omal wolicjonalność, żeby mógł posiąść artificial intelligence, będąc wyzbytym silnych ograniczeń — jak ludzie. My przecież jesteśmy „w pętach” prawa stanowionego, praw moralnych, także danych tradycją oraz wychowaniem, które nakłada na nas bezlik powściągów, bo gdyby ich nie było, w samej rzeczy nie byłoby oporów ani zahamowań chęci pożerania czy gwałcenia. 11 Wracam uporczywie do pytania, w jakiż to sposób moglibyśmy wyposażyć roboty w „chcenia”, obwarowane określonymi zakazami oraz nakierowującymi orientacjami. To bardzo trudny problem i pomysł Isaaka Asimova zawarty w jego trzech prawach „robotyki” jest najczystszą nierealizowalną utopią. I po wyrzuceniu za burtę rozważań wszelkiej utopii będziemy musieć stawiać czoło rozlicznym antynomiom praktycznego życia, ponieważ istnieją rozmaite osiągalne cele, różnorodnie obciążone aksjologicznie, a zarazem NIEWSPÓŁOSIĄGALNE i wtedy zwyczajny człowiek głowę (jak to się mówi) traci albo też, by głowy ze wszystkim nie stracić, będzie rzucał monetą, wypatrując orła lub reszki. Prościej mówiąc, on wtedy zdaje się na całkowicie zewnętrzny wobec niego i zupełnie od niego w rezultacie niezawisły mechanizm losowy. Ale gdyby roboty przyodziane w prawnicze togi zasiadały w jakowymś trybunale, mając rozważyć nasze sprawy konfliktowe, nie bylibyśmy zachwyceni, gdyby ich wyroki zależały od czysto losowych mechanizmów. 12 Pisałem już dawno temu o tym, że są sytuacje, w których sui generis wolicjonalność pojawia się albo się nie pojawia w zależności od tego, jakiego języka opisu użyjemy. Gdy bowiem wirus zbliża się do żywej komórki, zachodzi fizykochemiczne i biochemiczne przyciąganie, opis uzyskujemy czysto pozawolicjonałny, o tym czy wirus w ogóle CHCE zabić komórkę, czy nie — mowy nie będzie. Ale wirus atakuje komórkę, dokonuje inwazji w jej wnętrze, udaje, że jest takim samym zespołem genów jak genom komórki, przekształca się — koń trojański i oczajdusza — w wirion i oto mamy już na scenie mikrodramat wolicjonalności albo chociaż jej zalążek. 13 Akty woli naszej zawsze skierowane są ku przyszłości. Tu właśnie, w tym miejscu, pojawia się kolejny szkopuł dla konstruktorów robotów, albowiem żaden komputer nie jest skierowany ku przyszłości. Po to, żeby się zdawało, iż przecież jest, program do gry w szachy zawiera bogatą w warianty ewaluację „stanów” szachownicy, a tabelaryczne wartości, przypisane z GÓRY rozmaitym ciągom wedle ich dalszej konsekwencji w grze, czynią następne ruchy szachowe komputera jako tako zrozumiałymi i przez to quasi–wolicjonalnymi. Ale choć mówią nam, że możliwych szachowych partii podobno jest 10”, przecież chodzi o ilość skończoną. Gdybyśmy mieli wysłać „maszynę planetarną” na Tytana (księżyc Saturna), musielibyśmy pierwej sporządzić tabelaryczny zestrój tego, co może maszyna (robot) na Tytanie zastać i napotkać. Ale jeżeli okaże się (dziś rzecz całkowicie nieprawdopodobna), że są tam jakoweś Istoty lub Pseudoistoty, nie zdołamy zapewnić robotowi sensowności wolicjonalnej posunięć na obcym globie. O czym nie da się mówić, zauważył już Wittgenstein, o tym należy milczeć. We wzmiankowany wyżej „spis rzeczy” dla robota trudno się bawić, ponieważ może być tak, że sed tamen potest esse totaliter aliter. Ale czy to znaczy, że w głąb sytuacji nieprzewidywalnych koniecznie trzeba posyłać LUDZI? Posyłać można, ale gwarancji sukcesu i to nie daje, ponieważ i człowiek nie jest doskonałym wcieleniem takiej intencjonalności, która wszystko pojmie i takiej wolicjonalności, która wyłącznie optymalne działania będzie na nieznanym gruncie wykonywać. A zatem, jak widzimy, STOPNIOWE jest wyłanianie się „skutecznej wolicjonalności” i dlatego uczony, który, nie potrafiąc rozgryźć kolejnej zagadki Natury, pada na kolana i prosi Pana Boga o pomoc, albo wyjawia, że sens zagadki jeno Pan Bóg zna, sprzeniewierza się (ten uczony) metodzie naukowej, chociaż może być bardzo religijną osobą. Sęk w tym, że z chwilą apelacji do Pana Boga lub do jakiejkolwiek innej transcendencji, cedujemy NASZE PROBLEMY na Kogoś lub Coś, rezygnując z własnej poznawczej suwerenności. Także robot–maszyna planetarna, który by nam oświadczył, że jeden Pan Bóg wie, co gdzieś Tam może być, przez co on, robot, czuje się od ekspedycyjnego ryzyka doskonale zwolniony, nie będzie ani z konstruktorskiego, ani też z epistemologicznego punktu widzenia cokolwiek wart. Roboty, odwołujące się do P. Boga, byłoby zresztą aż nadto łatwo budować… 14 W poruszonym tutaj temacie kryją się też liczne dalsze zagadki, np. wbrew pozorom nie mamy pojęcia, do czego potrzebne są wolicjonalności EMOCJE (a są jakoś potrzebne). Do czego potrzebne są intuicje (też bardzo potrzebne). Do czego sny potrzebne (to samo rzec trzeba) itp. Symulowanie digitalne (czy nie) zbyt wielu rzeczy nam nie wyjaśnia ze względu na typową dlań linearność monodigitalną (numeryczną). Jeszcześmy nie zjedli wszystkich rozumów — z własnym rozumem włącznie. 15 Przypatrując się naszym własnym, ludzkim postępkom, łatwo dostrzeżemy, jakie zjawiska rodzi to, co zowie się roztargnieniem. Oto wezwany do telefonu odkładam książkę, a powróciwszy, nie mogę jej znaleźć, jak się bowiem po mękach poszukiwawczych okazuje, „machinalnie” wstawiłem ów tom sam do biblioteki. „Machinalnie” znaczy tu nie co innego, jak „nieświadomie”. Ponieważ świadomość wetknięcia książki w szereg innych na regale nie „zauważyła”, i pamięć tego nie zanotowała, zdany jestem na stratę czasu, wywołaną szukaniem. I tak nam pojawiają się niestety kolejne „byty”, mianowicie „świadomość” i „pamięć”. „Zmyślny robot” musi tedy dysponować jednym i drugim. Na nic pamięć bez świadomości et vice versa. Nieszczęście wzbiera i ominąć go nie można. Robot wyposażony w analogi zmysłów dostrzeże akt wkładania książki do biblioteki i zapamięta go: czy znaczy to jednak, że dysponuje on świadomością i pamięcią tak jak my? Wątpię raczej. Nam jest dana ograniczona dość silnie podzielność uwagi. Robot może być tutaj bardziej wielozakresowy: w to nie wątpię, ale cóż ma to ze świadomością wspólnego? Kiedy spoczywam nieruchomo, np. w łóżku przed zaśnięciem, całościowo z położenia ciała zdaję sobie sprawę, mogę jednak ponadto „wysyłać” moją przedsenną świadomość — np. do dowolnej nogi, do rąk, do ucha i wiem, że każdy normalny człek również to potrafi. Jak by miał taką czysto psychiczną aktywność naśladować robot i jak moglibyśmy się o owym „wysyłaniu na przeszpiegi” świadomości robota dowiedzieć? Możemy śledzić impulsy w odpowiednich pseudo–nerwach robota: to jasne. Ale czy za nimi trwa czuwająca świadomość? Już coraz mniej ludzi–ekspertów pozostaje wiernych testowi Turinga, a kiedy robot czy komputer NIC NIE MÓWI, rzecz staje się jeszcze gorsza. Tak zatem różne pięknie ponazywane systemy, wypełnione po brzegi świadomością i akuratnie wszystko pamiętające, zaopatrzone doskonale w wolicjonalność, w imaginację sprawną intencjonalnie, w mowność, w emocje sprzężone z myśleniem i myślenie sprzężone z intuicją — to wszystko są rzeczy nie tyle nawet wielce istotne, ile niezbędne po temu ażeby otoczył nas lud, złożony z robotów, które będą nas pilnie słuchać, ale w przeciwieństwie do ludzi absolutnie nic złego nam nie zrobią i nie zostaną przez bezlik mężów stanu poddane wojskowemu poborowi, aby wyruszyć na wroga. Na razie robotów takich nie ma, a gdyby się pojawiły, byłyby jak sądzę diablo kosztowne — ludzie są o wiele tańsi, bo ich tyle wszędzie. Te roboty, które są zmyślne, posłuszne i dobre, jakoś patrzą mi bardziej na wcielenia marzeń konstruktorskich o ANIOŁACH stróżach aniżeli o ludziach. Myślę, że na powierzchni małych planet (jak Mars) pojawią się w XXI wieku tak nazwane przeze mnie maszyny planetarne i że będą dysponowały bogatymi nadmiarowością programami, górniczymi np., także na Księżycu się pojawią, ale o niczym interesującym porozmawiać się z nimi raczej nie da. Zresztą z mnóstwem autentycznych ludzi nie ma o czym mówić: to powinno sceptyka, jak ja, co nieco pocieszyć. Symulowanie kultury 1 Obecnie modne stało się „symulowanie komputerowe wszystkiego”: od losów Wszechświata za sto miliardów lat po symulowanie wirusowej ewolucji. Nie dziwota więc, że wydawnictwo skądinąd pierwszorzędnego uniwersytetu w USA, MIT PRESS wzięło się do redagowania i publikowania serii dzieł, poświęconych symulacji kultury. Już dziwniejsze to, iż uznając mnie (Bóg wie czemu) za „znawcę” przysłał mi ów MIT PRESS pracę p. N. Gesslera z prośbą ojej zrecenzowanie. Ponieważ autor ów już mi uprzednio i bezpośrednio przysłał skrót swej pracy, obracającej się wokół symulowania (digitalnego) kultury i ponieważ uznałem pomysł za niewykonalny, to samo wydawnictwu MIT PRESS odpisałem. 2 Ograniczyłem się jednak w mej odpowiedzi do kategorycznego uznania projektu za nieurzeczywistnialny, a wysłowiłem to sposobem, który mógł redakcję oficyny urazić. Toteż chodziło za mną poczucie, iż gołosłowne uznanie symulacyjnego projektu za czystą fikcję jest niewystarczające. Trzeba mianowicie choć skrótowo powiedzieć, DLACZEGO Kultury ani jej powstawania, jej „emergencji” symulować się nie da. Niniejsza próba ma być tedy poświęcona niejakiemu wykazywaniu „niemożności” przedsięwzięcia. Najpierw należy oczywiście orzec, CO to jest kultura i skąd się wzięła, a raczej wzięły, gdy jest to bukiet rozchodzących się dróg, przy czem jedne kultury powstawszy albo przechodziły w inne postaci, albo wymierały i zanikały. Kulturolodzy z grona antropologów, kultury badających, do dzisiaj natrafiają w pracach swoich na zamierzchłe szczątki kultur, częściowo z nie rozszyfrowanymi znakami nie istniejących już na Ziemi rodzajów PISMA. Ogólnikowo o kulturze kilkadziesiąt lat temu pisałem w zakończeniu Fantastyki i futurologii i zacytuję stamtąd siebie, albowiem upływ czasu i napływ nowszych roztrząsań w niczym moich poglądów nie odmienił. A zatem wypada od cytatu zacząć. 3 „Człowiek nie jest zwierzęciem, które wpadło na pomysł kulturalizacji. Nie jest też bitwą popędowego staromózgowia z płaszczem nowomózgowej kory, jak chce tego Artur Koestler. Nie jest „nagą małpą z dużym mózgiem” (Desmond Morris), ponieważ nie jest to zwierzę z jakowymś dodatkiem. Wręcz przeciwnie: człowiek jest jako zwierzę niedostateczny. Istotą człowieka jest kultura — nie dlatego, że tak się pięknoduchom podoba. Słowa te oznaczają, że skutkiem antropogenezy było odjęcie człowiekowi dziedziczonych, zadanych ewolucyjnie z góry form zachowania. Zwierzęta dysponują odruchowością, utrzymującą w ryzach wewnątrzgatunkową agresję, a też hamującą rozrodczość samoczynnie u początków każdego populacyjnego wybuchu. Wędrówkami ptaków czy szarańczy powodują mechanizmy hormonowo–dziedziczne. Mrowisko, ul, rafa koralowa są to agregacje w milionoleciach dostrojone do samoczynnej równowagi. Socjalizacja zwierząt też podlega sterowaniu dziedzicznemu. Otóż tego rodzaju automatyzmów człowiek jest pozbawiony po prostu. Skoro proces ewolucyjny usunął zeń takie wewnętrzne musy działania, człowiek był na stworzenie kultury swoją biologią skazany. Człowiek jest zwierzęciem niedostatecznym: znaczy to, że nie może wrócić do stanu zwierzęcego. Dzieci, wyrosłe poza środowiskiem ludzkim są przez to właśnie okaleczone głęboko także w swej biologii: nie wykształca się w nich ani gatunkowa norma inteligencji, ani mowa, ani wyższa uczuciowość. Są one kalekami, a nie zwierzętami. Także ludobójstwo jest formą kultury. Nie istnieje w przyrodzie „zoocyd” jako odpowiednik genocydu. Nie ma więc w biologii człowieka danych, z których można by wyprowadzić jednoznacznie jego powinności. Nie uświadamiając sobie tego stanu rzeczy, społeczeństwa działając żywiołowo wytworzyły instytucje kultury, jakkolwiek służące tym własnościom jako rama, jako opoka, a nieraz jako łoże Prokrusta. Ludzka biologia jest NIEDOSTATECZNA, by mogła określić zachowania człowieka „właściwe”. Tę niedookreśloność kultura dopełnia wartościami nieredukowalnymi do „nagiego przeżywania”. Człowiek wytworzył instytucje, czyli uzewnętrznione struktury wartości i celów, które przekraczają jednostkę i pokolenia. Paradoks człowieczeństwa polega na tym, że biologiczna niedookreśloność zmusza człowieka do stworzenia kultury — a ta kultura, powstawszy, niezwłocznie zaczyna wartościować ludzką biologię. Jedne części ciała umieszcza na skali ocen wyżej, a inne niżej; jednym funkcjom przydaje godności, a innym ją odejmuje. Nie ma kultury, która by… przyjęła człowieka do wiadomości jako danego w niedookreśleniu, które musi być dopełnione. Każda kultura urabia i uzupełnia człowieka, lecz nie podług stanu faktycznego, ona bowiem nie przyznaje się do własnych postanowień w repertuarze tej ich dowolności, jaką odkrywa dopiero antropologia, kiedy bada cały zbiór kultur, powstałych w dziejach… Uzupełniając siebie, czyli własną naturę przemieszczając w kierunku charakterystycznym dla danej kultury, człowiek staje się dłużnikiem jej ideału, niedoskonale wypłacalnym. Człowiek spogląda na siebie z ustalonego kulturowo kierunku: widzi więc siebie z dystansu religijnego i z perspektywy obyczajowej. A więc jako istotę podporządkowaną gradientom aksjologicznym. On sam te gradienty zmyślił sobie, bo jakieś wynaleźć musiał: a teraz one go urabiają, już zgodnie z logiką, właściwą ich strukturze, a nie strukturze popędów.” 4 Ten przydługi cytat wydał mi się wskazany, ponieważ wyjaśnia przynajmniej zaczątkowo, dlaczego powstawania kultury nie można symulować. Dopowiedzmyż, co jeszcze dodać trzeba. Otóż jest tak (ja tutaj tylko pewną stałą (constans) stwierdzam, ale nie trapię się wynajdywaniem przyczyn, z których ona się bierze), jest więc tak, że kulturę inicjuje powstawanie narzędzi, w eolicie odnajdywanych, w paleolicie już krzesanych, a wokół nich jak zarazem działań, do których one służą, zaczyna od razu powstawać „opar” niematerialności. W odniesieniu do narzędzi dostrzec jego śladów archeolog nie może, gdyż „opar” ów znika wraz ze śmiercią tamtych praludzi. Widoczny pozostaje najpierw w GROBACH, do których u zwłok kładziono broń, żywność, ażeby zmarły mógł, nie wiedzieć jak, byt swój kontynuować pośmiertnie. Innej eksplikacji tego wyposażenia zmarłych nie znamy i wymyślić jej nie umiemy. Groby najdawniejsze JAKO ludzkie powstawały już kilkadziesiąt tysięcy lat temu, choć dokładniejszą datę trudno ustalić, a obecnie sądzi się, że jakieś 15–20 000 lat temu powstał prajęzyk, który się wrychle w toku wędrówki praludzi po całym (omal) globie rozszczepił na języki „miejscowe”. Tu już kryje się jedna z zagadek, bo nim mowa powstała, trudno uznać, iżby w niemocie przedmownej powstały jakiekolwiek wierzenia. Ale tu wyrasta już przed nami las hipotez, w który nie wkroczymy, gdyż przed powstaniem nie tyle mowy, ile PISMA, nie podobna uznać, że ulotne wierzenia „metafizyczne” pozostawić mogły jakieś ślady. Nieco śladów po dziś dzień (menhiry np.) zachowało się, aliści nie są one w skali antropogenezy znów tak bardzo dawne. Tutaj dalsze badania archeologów sporo jeszcze rzec nam będą mogły. 5 Zatem stan rzeczy był taki, użyjemy naocznego i naiwnego MODELU, że była sobie rzeczywistość zmysłami wprost dostrzegalna jak jakaś rzeka albo wulkan a „nad nią” albo „wokół niej” praludzie „dorabiali” sobie „opar metafizyczny”, który z upływem czasu miał wszędzie skłonność do przetwarzania się w to, co „SAKRALNE”. Najpierw był pono animizm i każdy zdrój, każdy wulkan miał swojego „ducha” czy bożka (ale w bożków przemieniały się „opary” protokulturowej metafizyki bardzo wolno, mniej więcej jak sztuka ludowa, która powstawszy w tysiącleciach, ZASTYGA), a potem jęły skupiać się opary tak, że z nich politeizm, a na koniec i monoteizm powstał. Można, rzecz oczywista, być jednego z dwu mniemań: albo „platońskiego”, orzekającego, że transcendencja (po mojemu tu — „opary”) zawsze istniała, jeno ludzie do niej nie dorośli; i dopiero kiedy dorośli scilicet „zmądrzeli”, aż naumieli się postrzegać „sakralność”, wykryli to, co było, kiedy ich samych nie było na świecie. ALBO też można uznać, iż ludzie niczego nie odkryli sakralnego, jeno to sobie wymyślili, a chociaż wiar były i są setki, podział pokazany we wszystkich podobnie funkcjonował: na SACRUM i na PROFANUM. Odmienności wywoływane były raczej lokalnie powstawaniem tabuizacji, rozróżnianiem walorowym i nakazowym płci, pejsów itp. Ale dwójpodział zasadniczo był wszędzie. 6 Z tym jest trochę jak z matematyką: jedni sądzą, że światy matematyczne odkrywamy, bo one przedustawnie istniały, a tylko matematyków jako ich odkrywców JESZCZE nie było, i to jest pogląd platoników. Inni, np. szkoła konstruktywistów, głosi i uważa, że matematykę my sami, ludzie, wznosimy i budujemy. Ja tu w spór na temat, kto ma rację w matematyce i w transcendencji, wejść bynajmniej nie zamierzam, nie iżbym zdania własnego nie miał, ale dlatego, gdyż sprawa sama jest od mojego zdania całkiem niezawisła. Czy Transcendencja była dana przedustawnie, czy wymyślona została — to NIE jest mi niezbędne jako rozstrzygnięcie racji którejkolwiek ze stron, abym zapewnił, że symulować emergencji ludzkiej kultury nie jesteśmy w stanie. Jakże by można ów „dwójpodział” włożyć do programu komputerowego? Przecież nawet to, co tylko indywidualno–wolicjonalne czy intencjonalne, symulować się skutecznie nie daje. Komputer nie chce „nic” i nie umiemy sprawić tego, aby „programowo” sam coś mógł zapragnąć, podążyć, zechcieć. Oczywiście IMITACJE „chcenia” można wyprodukować, ale to tyle co uznanie, iż autentyczna żywa baba i drewniana baba ruska to jedno i to samo… 7 Chodzi w szczególności o niepodległe dziś rozgryzieniu zagadkowe zjawisko: czy KAŻDA kosmiczna kultura jest na bifurkację (profanum–sacrum) skazana, czy też to lokalnie ziemski fenomen? Może wynikał stąd, że już praczłowiek uległej zgody na śmiertelność swoją dać nie chciał, a może stąd, że TAK szła w swoich tempach naturalna ewolucja: tutaj — jako antropogeneza i z samego „chodu” tej antropogenezy wynikła nie dająca się systematycznie pozamykać w „pramaterializmach” właściwość wszelkich narzędzi, a może też konieczny dla pokonania gödlowskiej zasadzki i przepaści wielo–symboliczny charakter KAŻDEGO języka ludzi niejako popychał ku „uwierzytelnieniu oparów metafizyki”. Jak było „naprawdę” i CZY jedynie szło o monofiletyczną przyczynę, czy raczej splot ich i zestrój, NIE WIEMY, a jakże można symulować to, o czym nie wiemy nic, zielonego pojęcia nie mamy i tym samym potrafilibyśmy w największym zapale najwyżej sporządzić jakiś „emergencyjno– kulturowy” odpowiednik teatru marionetek, udającego ruchy i życia dzięki powodowaniu niteczkami Z ZEWNĄTRZ. To nie ma dobrego scjentyficznego sensu, to dowolność urągająca metodzie naukowej, bo można coś tam symulować, ale dojść tego, czyśmy SAMI włożyli już kulturę zalążkową do protokulturowego garnka, czy też raczej ona wynikła nam „bo inaczej nie można” — tego się nie da poddać testowi na wywrotność Popperową, w eksperymencie, i ktoś dysponujący innym niż my programem uzyska inny rezultat. To jak z symulacją komputerową duchów, strzyg, demonów, tamtego świata: jak kto sobie pościele, tak się i wyśpi. Nie należy zastępować przy pomocy nauce mogących służyć przyrządów doświadczenia w sensie Poppera. Nie należy zatem symulować kultury. 8 Jak jest rzeczą zupełnie pewną, że człowiek w średniowieczu nie mógł wyzwolić energii atomowej, tak jest rzeczą całkiem pewną, iż nie można wziąć się do symulowania kultury, nie władając skutecznym programem symulowania lingwogenezy. Nie chodzi naturalnie o użycie jakiegokolwiek już istniejącego systemu znaków, zdolnych do reprodukcji sensów desygnacyjnych, sposobnych do segmentacji syntaktycznej, do znaczenia wybiórczo konotacyjnego i denotacyjnego. Chodzi o to, że przedjęzykowa faza już u zwierząt zaznacza się jako „mgły pojęciowe”, a język jest niejako ich kondensatem, ich skropleniem, ich odtwórczym derywatem. Jak psychologom wiadomo już dobrze, indywiduowe życie psychiczne jest od języka ZAWSZE bogatsze, co znaczy, że dyferencjacji stanów świadomościowych umysłu nie można w pełni adekwatnie oddać w językowej postaci. Zawsze coś niewypowiedzianego i niedopowiedzianego pozostaje takiego w naszym życiu psychicznym, iż tego się najwyżej jakoś domyślić można, a to zachodzi dzięki temu, że nasze aparatury mózgowe są wcale do siebie podobne, i już z tego powodu łatwiej nam i bezmownie pojąć innego człowieka aniżeli żyrafę lub mątwę: rzecz bowiem nie tylko w tym, że nasz mózg zawiera miliardy połączeń, a centralny system nerwowy mątwy jest względnie ubogi (ale jej wystarczy dla przeżywania). 9 Fenomenologia filozoficzna nic tu pomóc nie może. Chodzi o to, że przedjęzykowy stan psychosocjalny przechodzi w językowy „sposobami” nam całkowicie nieznanymi. Oczywiście zaraz znajdą się tacy gorliwcy, którzy elementarną sygnalizacyjność quasi–języka gestów (szympansów np.), uznają już za wyborną pożywkę kultury więc i jej symulacji, tym bardziej, że systemowe, stadne zachowania można (i to się robi nagminnie) utożsamiać z kulturowymi. Ale wtedy nie tylko delfiny i małpy, nie tylko hamadryas, nie tylko gołębie i bociany zachowują się „kulturowo”, bo przecie widać ich godowe tańce. Jak się ma otwarty worek, to byle co, więc wszystko można doń wsypać. Kultura człowieka, we wszystkich swych odmianach tak synchronicznych, jak diachronicznych, JEST w końcu jakimś derywatem biologii człowieka, bo jakbyśmy latali niczym aniołowie, to by ta fizjoanatomiczna odmienność w kulturach się jakoś zapewne odcisnęła. A gdybyśmy pod wodą żyli niczym orki, to też zmiany by to w naszą kulturotwórczość wprowadziło. Skoro jednak jesteśmy zbudowani i funkcjonujemy tak, jak „każdy widzi”, to antropogenetycznie zmienna wytwórczość kulturowa (nasza) od języka zależy (gdyż język jest przewodnikiem wielu mózgowych procesów), a w jakiejś mierze od naszej wzrokowej specjalizacji pomałpiej: byliśmy bowiem wzrokowcami grubo przedtem, nim staliśmy się rozmówcami… 10 Nie twierdzę, jakoby bezjęzykowo i pozajęzykowo symulować emergencji, czyli wynikania kultury nie dało się wcale. Chcę ostrożniej rzec, że fastryga językowa byłaby przydatna, byle jako ułatwienie w programie nie szedł ścieg nazbyt dużymi odstępami. Ogólny zaś obraz, jaki daje mi wysiłek doprowadzenia zamiaru do naoczności, jest taki: mamy pierwej zbiór zwierząt określonych gatunkowo, zdolnych do ponadsygnalizacyjnej łączności. Zbiór ten dysponuje nadmiarową ilością stopni swobody zachowania, które nie jest en masse samozagrażalne. Żyje ten zbiór w jakichś niszach, do których jest przeżywalnościowo zaadaptowany. I teraz winny kiełkować w nim zakazy i nakazy; jedna część zachowań popędowych musi ulegać niewrodzonemu 100% hamowaniu i pobudzaniu, inna część MOŻE służyć przeżywalności ILUZORYCZNIE, jak to było np. u Azteków, którzy serca żywej młodzieży wyrywali z piersi, ażeby nieboskłon się nie zawalił. Czynności ofiarnicze, brzydziej mówiąc wynikające z mniemania, iż bóstwa patronujące światu są korumpowalne (przekupne), to właściwie przekonanie jest powszechnie uniwersalne dla wszystkich bodajże wiar, i tylko w poszczególnych przybiera rozmaitą merytorycznie i liturgicznie postać. Każda wiara ma coś, więcej albo mniej, do orzekania w domenie etyki i moralności, ale nie każda wiara obiecuje korzyści transcendentalne z zachowań z nią zgodnych jako chwalebnych. Jak by to, a jeszcze więcej funkcji, można było symulować W POWSTAWANIU KULTURY, pojęcia nie mam, a czytając traktaty Amerykanów, naiwności ich kapitalistyczno–kursowo–rynkowego pragmatyzmu, bijącego pokłony komputerom, nadziwić się nie mogę. Nie o to mi idzie, że zamiary ich są niewykonalne jako kawał kontynentu empirycznego dotąd nie zawłaszczony, jedynie o to, że biorą się do wykonania oceanu z miętowej herbaty i sądzą, że „symulując emergencję kultury” będą empirię naukowo kontynuować i utwierdzać. Jest to szkodliwa dziecinnada, zwłaszcza w tym naszym kończącym się stuleciu pomieszania języków, rozumów, głów, godne Piotrusia Pana latanie na desce do prasowania jako supersamolocie XXI wieku. Jak widać, niestety, przybór głupoty jest uniwersalny i w tym wieku wcale zahamowany nie został. Powiedziałbym raczej, że metastazy w bliską przyszłość optymizmu poznawczego zadowoleniem napawać nie mogą. To jest książka o granicach między Człowiekiem i Maszyną To jest książka o tajemnicach mózgu ludzkiego To jest książka o próbach tchnięcia Ducha w Maszynę To jest książka o zadziwiających przygodach ewolucji naturalnej To jest książka o języku, jakim, przemawia genetyczny kod życia To jest książka o tym, jak liczą maszyny, a jak — twory natury