12995

Szczegóły
Tytuł 12995
Rozszerzenie: PDF
Jesteś autorem/wydawcą tego dokumentu/książki i zauważyłeś że ktoś wgrał ją bez Twojej zgody? Nie życzysz sobie, aby podgląd był dostępny w naszym serwisie? Napisz na adres [email protected] a my odpowiemy na skargę i usuniemy zabroniony dokument w ciągu 24 godzin.

12995 PDF - Pobierz:

Pobierz PDF

 

Zobacz podgląd pliku o nazwie 12995 PDF poniżej lub pobierz go na swoje urządzenie za darmo bez rejestracji. Możesz również pozostać na naszej stronie i czytać dokument online bez limitów.

12995 - podejrzyj 20 pierwszych stron:

Stanisław Lem Tajemnica Chińskiego Pokoju Jerzy Jarzębski Rozum ewolucji i ewolucja rozumu Tytuł mego szkicu jest oczywiście ukłonem w stronę autora książki, który opublikował kiedyś pasjonujący esej Etyka technologii i technologia etyki. Jest widać coś w myśli Stanisława Lema, co prowokuje takie stające łatwo na głowie formuły. Jego najnowsze eseje, publikowane w „PC Magazine”, złożyły się niepostrzeżenie w tom ważki nie tylko z racji czysto fizycznej objętości. Zrazu zdawały się jedynie aneksem dopisywanym do powstałej przed z górą trzydziestu laty Summa Technologiae, aneksem, w którym autor rad prezentował się czytelnikowi jako fortunny prorok dalszego rozwoju ludzkiej wiedzy i technicznych sprawności. Tak też było: Summa zdaje się dziś dziełem, które — zamyślane jako proroctwo długodystansowe i śmiałe aż do obrazoburstwa — znalazło się po trzech dekadach w samym centrum najbardziej aktualnej naukowej i konstruktorskiej praktyki. Na starcie Lemowych rozważań dzisiejszych jest zatem (dość triumfalnie brzmiące) zestawienie dawnych pomysłów i rachub z dzisiejszym stanem zaawansowania wiedzy. Ale gdyby się na tym kończyło, Tajemnica chińskiego pokoju nie byłaby książką tak pasjonującą. Rzecz w tym, że wraz z upływem lat i ewolucją nauki sytuacja autora prognoz zdecydowanie się zmieniła. W roku 1964, kiedy ukazywało się pierwsze wydanie „Sumy”, Lem był przede wszystkim wziętym pisarzem science–fiction i autorem esejów popularyzujących wiedzę ścisłą, który, ni stąd, ni zowąd, dokonał niejako fuzji tych gatunków, zaglądając daleko w przewidywaną przyszłość technologii. Ten skok w przyszłość na tle ówczesnego stanu wiedzy wyglądał na rojenie jeśli nie zupełnie dowolne, to przynajmniej obarczone nadmiernym w oczach współczesnych gustem do fantazjowania i sztukowania rzeczywistości nieuleczalnym wishful thinking. Książki tamtej — choć czytano ją chyba z większą powagą i uwagą niż autor chce dziś pamiętać — nie przymierzano tak bezpośrednio do „stanu badań” i bieżących odkryć. Była pustą matrycą do wypełnienia, projektem w przeważającej mierze abstrakcyjnym, któremu wolno skrywać w sobie różne na pozór szalone pomysły. Dziś — gdy tak wiele przewidywań Lema się sprawdziło, a uczeni z Niemiec czy USA przyznają wręcz, że korzystają z jego inspiracji — autor „Sumy” czuje na sobie ciężar daleko większej niż wprzódy odpowiedzialności. Tym ona poważniejsza, że twierdzenia Lema weryfikuje życie i z dnia na dzień realizowane produkty takiej czy innej (genowej, informatycznej) inżynierii. Pierwsza i zasadnicza różnica pomiędzy „Sumą” a Tajemnicą chińskiego pokoju polega więc na tym, że sądy pierwszej formułowano we względnie pustej przestrzeni hipotez i modeli, podczas gdy sądy drugiej wygłaszane są wśród zgiełku powstającego nieuchronnie w centrum powszechnego zainteresowania, wobec sprawozdań z badań eksperymentalnych, a nawet sygnałów z rynku, na którym żyć poczynają ocierające się wcześniej o fantastykę pomysły. Jak to wpływa na dyskurs samego Lema? Powiedzmy najpierw, że coraz większą rolę odgrywa w nim wątek etyczny. W Summa Technologiae frapowało ujęcie technologii jako bytu w jakiejś mierze samoistnego, rozwijającego się niezależnie od człowieczej woli, choć w oparciu o substrat, jaki dlań tworzą ludzkie dążenia do poznania i opanowania świata. Technologia ewoluowała podług tej wizji na podobieństwo genetycznego kodu, a zatem nie poddając się łatwo moralnym osądom. W Tajemnicy chińskiego pokoju projekt technologii przyszłej, będący wcześniej abstrakcją, staje się nagle treścią codziennego życia jednostek i społeczeństw, a sama technologia wchodzi w skomplikowaną rzeczywistość końca wieku, pojawia się w domach przeciętnych ludzi w postaci Internetu, produktów inżynierii genetycznej, prymitywnych jeszcze urządzeń „fantomatyzujących” itd. A zatem to, co w ujęciu generalnym stanowi zjawisko „obiektywne” i nieuchronne niczym prawo przyrody — w kontekście praktyczno– życiowym wzbudzać może silne negatywne emocje. Trudno i darmo: ludzie ze swoich wynalazków robią zazwyczaj zły użytek; zamiast dążyć do realizacji najwyższych ideałów, narzędziami wysoce zaawansowanej techniki posługują się w celu zaspokojenia prymitywnych popędów. Można nad tym biadać, piętnować etc, ale nic zapewne z tego nie wyniknie. Człowiek jest bowiem istotą ufundowaną na dziwacznej antynomii — i ten aspekt jego natury stanie się dla Lema odskocznią do bardzo skomplikowanych i rozbudowanych roztrząsań. Punkt wyjścia tych rozważań to próba porównania intelektu ludzkiego i maszynowej „sztucznej inteligencji”. Tytuł pierwszego rozdziału książki sygnalizuje, że natchnieniem dla autora był osiemnastowieczny traktat La Mettrie’go Człowiek maszyna. Ale w wersji Lema zamiast równoważności mamy koniunkcję: człowiek nie jest maszyną; istnieje obok niej i na zupełnie innych zasadach. Człowiek nie jest też spójną całością: rozdziera go nieuleczalny dualizm, swoista nieuzgadnialność materialnego substratu i rodzącego się w nim myślenia, wciąż nie w pełni znanego ciała i może jeszcze bardziej niepochwytnej świadomości. Mamy więc co najmniej trzy niezbyt dobrze przystające do siebie elementy: człowieka jako niezmiernie złożony produkt biologicznej ewolucji, człowieka jako myślącą, uwikłaną w kulturę świadomość, która w sposób nie do końca zrozumiały i poznany rodzi się z procesów zachodzących w biologicznym ciele — i wreszcie produkt technologii: maszynę, która może wykonywać operacje natury intelektualnej w sposób przez konstruktorów zaprojektowany i w zgodzie ze swym mechanicznym, funkcjonalnym schematem. Rozważania Lema poświęcone są przede wszystkim poznawczym kłopotom, które pojawiają się w momencie, gdy zechcemy owe trzy elementy do siebie wzajem sprowadzić, tłumaczyć jeden poprzez drugi, względnie imitować w jednym procesy, które w drugim zachodzą. Te kłopoty są natury trojakiej: filozoficznej, naukowej i praktyczno–inżynierskiej. Filozof pyta, co to znaczy, że w mózgu powstaje ludzka, jednostkowa świadomość, i czy istnieje ona w ten sam sposób, w jaki istnieje jej materialne podłoże, czy jakoś zupełnie inaczej. To jest zresztą dylemat, jaki zadał filozofii nowożytnej jeszcze Kartezjusz i choć Lem światopoglądowo bliższy jest zapewne materialiście i moniście La Mettrie’mu, to przecie wywiedzenie bezpośrednie procesów psychicznych z przebiegu prądów elektrycznych w korze mózgowej przekracza zarówno jego, jak i czyjekolwiek dzisiaj możliwości. Monizm materialistyczny — owszem, ale pozbawiony właściwego encyklopedystom i tylu ich następcom optymizmu poznawczego ponad stan posiadanej wiedzy. I ze świadomością, iż materia może porządkować się w nieprzenikliwe wzajem ontologiczne poziomy lub całe ich hierarchie. Ta ostatnia hipoteza silniej zresztą dała o sobie znać w Lema beletrystyce. Nie koniec tu zdziwień filozofa: silnie zakorzeniony w myśli europejskiej schemat neoplatoński, podług którego duch ludzki stoi nieporównanie wyżej na drabinie bytów od prymitywnego ciała, ulega tu znamiennemu odwróceniu: to właśnie ciało — produkt doskonalącego się genetycznego kodu — objawia zawrotną komplikację i „mądrość”, do której daleko jeszcze raczkującemu umysłowi jednostki ludzkiej. Jeśli coś tu zdumiewa, to raczej masywna dysproporcja pomiędzy wyrafinowaniem biologicznych urządzeń, które sterują każdym życiem, a niezmierzonym mozołem, jakiego trzeba, by na tym podłożu zrodziła się jakoś tam, kulawo, rozumiejąca świat i siebie samą świadomość. Przychodzi tu wciąż odruchowo na myśl Lemowy Elektrybałt z Cyberiady, który — przyjąwszy postać góry elektronicznych urządzeń nafaszerowanych całą mądrością wieków — umiał zrazu tylko wykrztusić, że „życie jest straszne”. Czy rozum jest zatem koroną Stworzenia, czy ubocznym, niedoskonałym produktem ewolucji genetycznego kodu — oto pytanie raczej dla filozofa niż dla uczonego. I — choć Lem pośrednio wciąż je zadaje — nie widzę na nie definitywnej odpowiedzi. Do sfery zmartwień uczonego należy z kolei rozstrzygnięcie problemu, czy maszyna „myśli” — tyle że nieco prościej i bardziej prymitywnie od człowieka — czy na odwrót: jej czynności są zupełnie innej natury i nawet wielokrotnie spotęgowane przez rozwój techniki komputerowej pozostaną czymś całkowicie do myśli ludzkiej niepodobnym. To bodaj centralny problem książki, stawiany wciąż od nowa w rozmaitych kontekstach. Odpowiedź brzmi ostrożniej niż przed laty: to prawda, że maszyny są już coraz bliżej sytuacji, w której człowiekowi z najwyższym trudem przyjdzie złamanie sławetnego „testu Turinga”, tzn. ustalenie, że nie z innym człowiekiem rozmawia, lecz z mechanizmem. Nie wygląda jednak, aby dało się w przewidywalnej przyszłości skonstruować sztuczną inteligencję dysponującą świadomością, poczuciem ,ja” i aktami podmiotowej woli. Komputer — choć w niektórych zakresach „myśli” nieporównanie od człowieka sprawniej, w innych wciąż mu ustępuje i zwiększanie mocy obliczeniowej tego rozziewu nie zlikwiduje, chodzi bowiem o różnicę natury jakościowej, ufundowaną w dodatku na daleko posuniętej odmienności materialnego podłoża myślowych operacji. Autor Cyberiady przyzwyczaił nas do żartobliwych wydziwiań nad czysto materialną niedoskonałością istot „rozlewnych, miękkich, ciastowatych i wodnistych” w zestawieniu z perfekcją metalowo–krystalicznych robotów, które samo tworzywo zda się predestynować do przyjmowania w siebie elektrycznej inteligencji. Włóżmy to między bajki: to właśnie w środowiskach wodnych roztworów czy zawiesin — powiada dziś Lem — procesy przetwarzania informacji zachodzą najbardziej efektywnie. A zatem biologiczne ciało człowieka nie jest wcale — jako siedziba myśli — „gorsze” od mikroprocesorów: działa po prostu inaczej, a konstruktorzy nadal powinni uczyć się od natury. Możemy tu spytać, po co właściwie człowiekowi te zapasy z oporem tworzywa, po co namiętne pragnienie skonstruowania inteligencji antropomorficznej, czemu nie poprzestanie na komputerze jako maszynie wspomagającej tylko uczonych swą mocą obliczeniową? Można rzec, iż uzasadnienie tych starań jest co najmniej dwojakiego typu: pierwsze jest natury filozoficznej — to po prostu badanie granic ludzkich możliwości, próba wydarcia Bogu kolejnych prerogatyw i ustanowienie w oparciu o to jakiegoś nowego obrazu świata. Starania konstruktorów sztucznej inteligencji stoją więc całkiem blisko wysiłków, jakie genetycy poświęcają ostatecznemu rozłamaniu kodu dziedziczności i uzyskaniu nieograniczonego wpływu na kształtowanie nowych biologicznych istot. Jedni i drudzy majstrują przy czymś, co w dotychczasowej kulturze zwykło się uważać za domenę Demiurga, a zatem wyniki ich działań wpływać mogą bezpośrednio na ludzkie wierzenia i światopoglądy. Wiedza tutaj zdobywana nie jest zbyt radosna, ciąży bowiem na niej nieuchronnie lęk przed konsekwencjami nowych odkryć, przed podważeniem etycznego porządku ludzkiej cywilizacji. Uczniowie czarnoksiężnika posuwają się jednak dalej — bo już nie można się cofnąć! Ale pomyliłby się ktoś sądzący, że mamy tu do czynienia wyłącznie z zabójczym automatyzmem odkrywania „wszystkiego, co jest do odkrycia”. W gruncie rzeczy sztuczna inteligencja staje się czymś upragnionym tam, gdzie w tempie wykładniczym rośnie góra głupiej, nieważnej, nieistotnej informacji — niczym Himalaje zalewających nas odpadków. Jednym z leitmotivów eseistyki Lema w ostatnich latach jest dezaprobata dla informacji nie selekcjonowanej, atakującej nas poprzez komputerowe sieci i anektującej umysły. Ludzkość widziana z tej perspektywy przypomina zbójcę Gębona z Cyberiady, osiodłanego przez „demona drugiego rodzaju”, produkującego bez wytchnienia sterty komunikatów sensownych tylko językowo, choć doskonale bezużytecznych. Byłażby więc komputerowa inteligencja antidotum na rozplenioną po całym świecie komputerową głupotę? Odpowiedź musi być sceptyczna, nie wiemy bowiem ani — czy uda się maszynie nadać cechy intelektu ludzkiego (co oznaczałoby w terminach potocznych „mądrość” zamiast obliczeniowej sprawności), ani — czy ów maszynowy intelekt zechce człowiekowi służyć tak, jak on to przewidział. Można jedynie sądzić, że dalsze prace w tym obszarze nauki odbywać się będą — bo akurat wszystkie poznawcze zdobycze, jakie na tym przyczółku są do osiągnięcia, zasadniczo wpływają na nasz obraz świata i rozumienie sensu ludzkiej egzystencji. W Tajemnicy chińskiego pokoju ani trochę mniej mamy więc tajemnic niż we wcześniejszej Summa Technologiae. Rozwiązanie jednej zagadki rodzi bowiem natychmiast nowe — taki już los każdego prawdziwego dociekania w świecie nauki. Książka, którą trzymamy w ręku, potwierdza jednak w całej rozciągłości te intuicje Lema, które podpowiadały mu przed laty zajęcie się z jednej strony cybernetyką, informatyką, konstruowaniem „sztucznego myślenia”, a z drugiej — genetyką i teorią ewolucji. Rzeczywiście w tych dziedzinach dokonał się bodaj największy, najbardziej spektakularny skok ludzkiej wiedzy — i one też przyniosły nam zagadki najbardziej pasjonujące i najbliżej związane z pytaniem podstawowym — o kondycję człowieka i Wszechświata, ich naturę i wzajemne relacje. Cóż się zmieniło w podejściu Lema do tych problemów na przestrzeni ostatnich trzech dekad? Dostrzegam przede wszystkim jedno: autor „Sumy”, który uprzednio kreślił niemal nieograniczone wizje rozwoju ludzkiej technologii — dziś mówi o tym z nieporównanie większą ostrożnością. Na to miejsce pojawiła się u niego fascynacja mechanizmami ewolucji naturalnej, podziw dla perfekcji jej rozwiązań, dla finezji biochemicznych reakcji stojących u podstaw życia. Nie jest to zapewne rewolucja światopoglądowa: Lem pozostaje wciąż w gruncie rzeczy pisarzem zapatrzonym w historię, w jej przebieg i prawidłowości. W każdej niemal spośród napisanych przezeń książek znajdziemy dowody na jego głębokie zainteresowanie dla rozmaitego rodzaju procesów ewolucyjnych, które nakładają się na siebie, interferują, odbijają się w sobie wzajem. Oto w samej rzeczy teren, na którym nie może spełnić się nigdy proklamowany przez Fukuyamę „koniec historii”, tzn. kres myślenia o czasie w kategoriach „postępu”, „ewolucji”, „zmierzania do celu”. Taką koncepcję czasu organizuje wpierw wizja ewolucji naturalnej, jako sfery postępu obiektywnego i mierzalnego, choć zapewne nie nakierowanego na żadne — poza reprodukcją genetycznego kodu — zwierzchnie cele. Teleologię wprowadza tu myślenie ludzkie — zawsze skierowane naprzód, ku abstrakcji jakichś stanów przyszłych, upragnionych lub budzących lęk. W Lema wizji historycznego czasu dostrzegam obydwa te bieguny, tzn. widzenie przemian zachodzących w świecie raz pesymistycznie — jako bezkierunkowego dryfu wiodącego ku nieznanym katastrofom, innym razem bardziej optymistycznie — jako procesu w pewnej mierze przewidywalnego, nad którym człowiek w coraz większej mierze panuje. W ostatnich latach wszelako pierwsza z tych dwu wizji zdaje się u Lema przeważać. W Summa Technologiae, książce z zasady optymistycznej, choć niełatwej miejscami do zaakceptowania z punktu widzenia tradycyjnych wartości humanizmu, ewolucja biologiczna znajdowała stosunkowo prędko przedłużenie w ewolucji cywilizacji technicznej, czy wręcz na koniec — w samodzielnym rozwoju wyzwolonego z uwikłania w biologię rozumu. Dziś Lem przerzuca w dalszą przyszłość datę „prześcignięcia natury” przez sztuczne twory techniki, może też coraz silniej wątpi, czy ewolucja na tych polach da się przedstawić w postaci jednoliniowego wykresu, tzn. po prostu — czy maszynowa inteligencja będzie kiedykolwiek i w jakimkolwiek sensie „kontynuacją” rozumu ludzkiego. Podobnie ostrożne wypowiedzi formułuje na temat szans wspomagania biologicznych mózgów przez tzw. brain chips, co stanowi dość chytry sposób na ominięcie dualizmu myślenia „maszynowego” i biologicznego. Czy oznacza to całkowite wycofanie się z optymistycznych idei ożywiających Summa Technologiae? Niekoniecznie. Po prostu od nieco abstrakcyjnych, wybiegających w przyszłość projektów nowej technologii Lem przeszedł do praktycznych roztrząsań nad możliwościami zastosowań swoich własnych idei. Cóż dziwnego, że pierwsze, z czym się spotkał, to opór tworzywa? Obok tego normalnego oporu stawianego przez materię świata jest jednak jeszcze inny opór, który pokonać niełatwo: to opór stawiany przez ludzi. Nowe technologie nie tyle zresztą odrzucane są przez konserwatywne jednostki, co właśnie akceptowane — wątpliwości budzi dopiero użytek, jaki z nich robi współczesna nam cywilizacja. Można więc przeprowadzać krytykę działającej ślepo ewolucji naturalnej — ale ona wybroni się zawsze zawrotnym mistrzostwem swych rozwiązań, można krytykować niedoskonałość technologii — ta jednak rozwija się szybciej niż kiedykolwiek w dziejach, nadrabiając szybko opóźnienia i ucząc się na błędach. Najgorzej w tym zestawieniu wypada ludzki intelekt, a szczególnie ten (nie)rozum zbiorowy, którym kierują się społeczeństwa, narody, środowiska konsumentów itd. O ile więc milczącym założeniem Summa Technologiae zdawało się być przeświadczenie, iż kultura ludzka rozwijać się będzie w przyszłości w miarę harmonijnie, tzn. że społeczeństwa będą umiały wchłonąć nowe odkrycia technologii z pożytkiem dla siebie, o tyle Tajemnica chińskiego pokoju to sprawozdanie ze świata rzeczywistego, takiego, w którym technologiczne innowacje pojawiają się wśród ludzi nie przygotowanych na ich przyjęcie, powodując okaleczenie psychiki jednostek i trudne do przewidzenia zmiany w organizacji życia zbiorowego. Czy ludzkość sobie z tym poradzi? Załóżmy ostrożnie, że tak. Jeśli coś budzi w książce Lema nadzieję, to niesłychane możliwości tkwiące w biologicznej naturze człowieka, a także godna podziwu dalekowzroczność ewolucyjnych rozwiązań, które radziły sobie dotychczas tylekroć z radykalnymi zmianami środowiska i trybu życia istot projektowanych przez genetyczny kod. Może więc raz jeszcze cierpliwa biologia zniesie to, co jej gotuje skłonny do aberracji intelekt i jego wykwit — technologia? Może też kultura — działająca na dłuższą metę na podobieństwo biologicznych homeostatów — zdoła wchłonąć innowacje i odzyskać na powrót równowagę? Z punktu widzenia uwikłanego w aktualność dyskursu Lema jeszcze tego nie widać. Autor książki daje nam w zamian wgląd w takie konsekwencje ludzkiego poznania i technologii, które powodują rozjątrzenie do białości najbardziej zasadniczych kwestii naukowych, ontologicznych i etycznych. Myślenie wraz z Lemem i na jego warunkach nie obiecuje zatem ukojenia egzystencjalnych i poznawczych niepokojów, jest jednak myśleniem „dla dorosłych”, tzn. nie ukrywającym kłopotów, nie tuszującym antynomii i nie obiecującym żadnej świetlanej przyszłości. Zapewne tylko tak godzi się dzisiaj mówić o perspektywach technologicznych piekieł i rajów. Człowiek i maszyna 1 Człowiek–maszyna to było dzieło francuskiego filozofa–materialisty La Mettrie, napisane w połowie XVIII wieku. Nie ulega wątpliwości, że zarówno zwolenników, jak przeciwników podobnie skrajnego rozpoznania ludzkiej natury znaleźlibyśmy i dziś. Innymi słowy, mówiąc bardziej współcześnie, spór zostałby dopiero wtedy rozstrzygnięty, gdybyśmy potrafili zbudować maszynę równoważną człowiekowi. Ale co to znaczy „równoważną” człowiekowi? Nasze podobieństwo do innych żywych stworzeń właśnie w sferze cielesnej jest niewątpliwe: człowiek to przecież żyworodny ssak, opatrzony narządami, które się w bardzo skromnym stopniu różnią od narządów i od całościowej fizjologii innych ssaków: różni nas od nich wszystkich umysł, a więc mózg. 2 Jak łatwo może się domyślić Czytelnik, tymi nieco zamglonymi słowami zbliżam się do całkowicie już współczesnego pytania, które postawił około pół wieku temu angielski matematyk Alan Turing: czy możliwe jest skonstruowanie takiego „automatu skończonego” (komputery są takimi automatami jako jedna z gałęzi informatycznego drzewa, wyrosłego z ziarna cybernetyki), którego nie dałoby się w rozmowie odróżnić od człowieka? Niezliczone razy uczestniczyłem, głównie w byłym Związku Sowieckim, w latach sześćdziesiątych, właśnie w takich dyskusjach i zażartych sporach, w których problem ów usiłowano rozgryźć. Jak wiadomo, programy (software) zdolne prowadzić pewne typy rozmów z człowiekiem już istnieją. Jednakowoż każdy taki program, który symuluje rozumnego rozmówcę, można prędzej czy później „zdemaskować”. Sposobem najprostszym, na który (nie wiem czemu) jakoś nikt albo omal nikt nie wpadł, byłoby opowiedzenie niewiadomemu dyskutantowi dowolnej historyjki, np. anegdoty, dowcipu i żądanie, ażeby opowiedziane po chwili własnymi słowami powtórzył. Maszyna najłatwiej jeszcze powtórzy wszystko literalnie: normalny człowiek dlatego nie jest w odtwarzaniu narracji precyzyjny, ponieważ nie tyle TEKST złożony ze słów zapamiętuje, ile SENSY, a to znaczy, że opowiedziane rozumie. I oto stajemy przed rzeczywistym dylematem: czy i w jaki sposób moglibyśmy przekonać się o tym, że maszyna „komputer” rozumie cokolwiek — podobnie jak człowiek? Należy zważyć wstępnie, że „rozumienie czegokolwiek” posiada swoje liczne poziomy i rodzaje. Pies w pewnym sensie „rozumie”, do czego bierze się jego pan, gdy widzi, jak ów pakuje walizki: ponieważ już to widział i „wie”, że szykuje się jakaś podróż. Ale nawet mucha „wie”, co grozi jej od klapki, którą wymachuje zniecierpliwiony jej natręctwem ten, komu ona przeszkadza. Sposobu, w jaki różne rodzaje „wiedzy” różnią się od siebie w równie odmiennych sytuacjach, nie da się prościej wyjaśnić, aniżeli odwołując się do „instynktów”, których ekstremalnym reprezentantem będzie instynkt samozachowawczy i tutaj od razu trafiamy w sedno rzeczy. Mianowicie żaden najdoskonalej grający w szachy albo tłumaczący teksty naukowe, albo informujący o chorobach, ba, stawiający ich rozpoznania wedle wyników badań komputer nie będzie próbował uniknięcia ciosu młotkiem czy kilofem, żaden bowiem nie wykaże „instynktu samozachowawczego”, dookoła którego są „obudowane” wszystkie typy wszelkich żywych stworzeń (z wyjątkiem roślin). To bowiem, co nie próbowało ani pożreć, ani uniknąć pożarcia, w toku miliardoletnich ewolucyjnych procesów zginęło; i tylko skutecznie zjadający albo skutecznie umykający ostali się przy życiu. 3 Co prawda, jakąś postać „instynktu samozachowawczego” dałoby się komputerowi wprawić: jednakowoż podobny zabieg nie przybliża nas do rozstrzygnięcia dylematu. Douglas Hofstadter w swojej grubej, zabawnej i ciekawej książce Metamagical Themes opisuje przygodę, kiedy to miał odróżnić człowieka od maszyny, przy czym na końcu okazało się, że rozmawiał z kilkoma studentami, TAK odpowiadającymi na jego indagację, ażeby zbić go z pantałyku. Jakoż kiedy już myślał, że z komputerem rozmawia, rzeczywistość mu objawiono. Więc jakże? W postaci najbardziej prymitywnej sprawa tak się przedstawia, jak ją opisałem w Summa Technologiae ponad trzydzieści lat temu. Napisałem, że można dokonywać kolejnych a zarazem doskonalonych robót konstruktorskich (dziś bym rzekł „programowań”), zastępując komputery „zdemaskowane” odmianami doskonalszymi w symulacji, a może doszłoby się do takiego modelu, którego już od człowieka w rozhoworach odróżnić nie sposób. 4 Między innymi nawet na powtarzanie opowiedzianego znalazłby się wytrych. Mianowicie maszyny segregujące (np.) artykuły naukowe są tak programowane, ażeby rozdzielać teksty wedle „słów–kluczy”. Jeżeli częstość występowania słów takich jak „osocze krwi”, albo „hemofilia”, albo „błona komórkowa” pewien próg przekroczy, tekst najpewniej należy do stref medycyny, a może (szerzej) biologii. Jeżeli w nim się „kwarki” czy „nuklidy” pojawiają — wiadomo, dokąd go przytroczyć. Więc postępując tym zrazu bardzo prymitywnym i nic „nie rozumiejącym” sposobem, można poduczać maszynę, ażeby odpowiedziała i żeby repetycja podanego jej tekstu była „szkieletowo” — gramatycznie, leksykograficznie i stylistycznie nawet bliska opowiedzianemu, ale żeby jednak nie pokrywała się z opowiedzianym co do słowa. Więc i tu można uczynić maszynę zręcznym „oszustem”, udającym żywego dyskutanta i na tym etapie zjawia się problem następny. 5 Mianowicie nie musimy zajmować się wyłącznie zagadkowym interlokutorem: możemy pytać o to, JAKI CZŁOWIEK maszynę testuje. Albowiem największy pijak i tuman nie będzie równie sprawnym ekspertem dyferencjacyjnym, co człowiek z dyplomem wyższej uczelni — czy literat albo jakiś nadzwyczajny geniusz. 6 Zresztą zadanie postawione przez Turinga mocno się odmieniło wskutek tego, że właściwie dzisiaj o możliwościach fakultatywnych komputera wiemy więcej aniżeli o tym, w jaki sposób nasz mózg działa. Moim zdaniem, opartym nie tyle na lekturach z zakresu neurofizjologii, ile na własnym doświadczeniu introspekcyjnym, mózg jest złożony z dużej liczby podzespołów, połączonych między sobą dla współpracy w sposób, który zarówno ma służyć optymalizowaniu wyników informacjoprzetwórczych, jak zarazem odzwierciedla niebywale długą historyczną (ewolucyjną) drogę, jaką mózg przeszedł w tysięcznych generacjach zwierząt, a na ostatku hominidów, zaś już u mety u nas. Niejaką zależność świadomości (boję się tego terminu) od stanu mózgu poznaje człowiek starzejący się bardziej wyraziście aniżeli człowiek młody, o umyśle w pełni sprawnym. Zdarza się mianowicie takiemu starzejącemu się, jak ja, że np. zapomni imię dobrze mu znanego uczonego, powiedzmy Prigogine’a albo Plancka. Wysiłek przypomnienia sobie (czegokolwiek) jest prawie nie do zrelacjonowania. Na ogół zresztą okazuje się daremny, ale widocznie jałowo pracująca „świadomość” uruchamia jednak jakieś mechanizmy z wydziału information retrieval, bo prawie zawsze, prędzej czy później, czasem po parunastu sekundach, czasem nazajutrz, poszukiwany termin (tu: imię) „wypływa” z odmętu niepamięci. Jak został odszukany — nie mam pojęcia i na razie nikt mi tego wyjaśnić nie będzie w stanie. W każdym razie widać stąd jedną stronę zawodności władania zasobem informacji zmagazynowanej w umyśle, a z drugiej strony człowiek zajęty mocno umysłową pracą (albo sklerotyk) dużo czasu trawi i marnuje na poszukiwanie okularów, gazety, książki, listu — ponieważ odkładanie, chowanie, pozostawianie „gdziesik” zachodzi POZA obrębem zapamiętywanych czynności, które świadomość POWINNA włożyć przynajmniej do przegródki „pamięci krótkotrwałej”. A te nieświadomie i bezpamiętnie dokonywane czynności bywają nieraz „sensowne” i koherentne, tj. nie musi iść zaraz o chowanie skarpetek w lodówce czy lodów w szufladzie. Bywa to jednak dość — jak powiadamy — „bezmyślne”, podobnie jak behawior epileptyka, zapadającego na tak zwane petit mai, co oznacza momentalne, krótkie „wyłączenie” świadomości, przy czym ono MOŻE zostać przez obecnych obserwatorów dostrzeżone albo i nie, gdyż czasem „lukę świadomości” zapełnia czynność przez chwilę automatycznie kontynuowana. Tak zatem zamiast się do rozszyfrowania „istoty świadomości” przybliżyć, ażeby (między innymi) podejść do kwestii jej symulowania, znajdujemy na tej drodze nowe przeszkody. Wykrycie zaś podzielności mózgu dzięki przecinaniu Corpus callosum, wielkiego spoidła, łączącego dwustu milionami włókien neuronowych obie półkule mózgu, oraz spowodowane tym zabiegiem niejakie „rozszczepienie” umysłu na prawie niezależną parę „umysłów”, rzecz w ostatnich latach dziwnie skomplikowało. Nie wiadomo (znów) czy i dlaczego mózg mamy dwudzielny, czy wynikło to na skutek powstałej przed wieloma milionami lat dwudzielnej symetrii ciał wszystkich tych zwierząt, co nas poprzedziły (czyli mamy do czynienia ze schedą bardzo starych „ewolucyjnych rozwiązań”, wleczonych przez wieki wieków), czy też raczej ze współpracą układów neuronowych, mózg tworzących, która to współpraca i dziś jest optymalna. Ja bym się jednak opowiadał za wersją pierwszego wytłumaczenia, ale nijakiego dowodu na jej prawdziwość przytoczyć nie potrafię. 7 Zdaje mi się, że krętą ścieżyną wywodu doprowadziłem problem do zwiększonego zmętnienia. Wydaje mi się mianowicie, iż test Turinga, w tak znacznej mierze zależny od akceleracji i sprawności hardware i software staje się coraz mniej pewnym dyferencjatorem Człowieka i Maszyny. Przy tym zachodzi pytanie, bardziej może zajmujące filozofów aniżeli ekspertów–informatyków: na jakie licho jest nam właściwie potrzebna maszyna, tak znakomicie symulująca człowieka, że w jej zachowaniu językowym od człowieka nieodróżnialna? Przecież jest oczywiste, że ewolucja komputerów wraz z ewolucją programów od umysłowości naszej nie tylko i nie po prostu się ODDALA, ale jednocześnie wkracza, i to na rosnącą skalę, w obszary umysłowi człowieka w ogóle niedostępne. To, czego ani digitalnie, ani intuicyjnie, rozumiejąco w przestrzeni konstruktorstwa imaginacyjnego sami nie potrafimy symulować, komputery potrafią. Mózg nasz, dzięki historii swojego powstania, odziedziczył i rozwinął życie afektywne, te wszystkie rodzaje ujemnych i dodatnich emocji, stresów, uczuć, uciech, cierpień, smutków, radości, rozkoszy, boleści, które „bezświadomemu bytowaniu” komputerów pozostają totalnie obce, bez których komputer obejść się MUSI, bez których — jak twierdzi neurofizjolog — nigdy komputer naśladować człowieka w jego bytowaniu świadomym nie będzie w stanie. 8 Co do tego, że teraz tak jest, oczywiście, zgoda. Czy tak będzie zawsze — nie wiem, i to z kilku powodów, z których nie wszystkie zapewne uda mi się tutaj wyłuszczyć. Strefa oddziaływania psychiki naszej na procesy toczące się w naszym organizmie jest bez wątpienia ogromna i nie wiadomo, gdzie przebiegają nasze granice. Wiemy już na przykład, że nawet tkanka, nad którą ciało ludzkie władzy nie ma, „tkanka zbuntowana”, anarchistyczna, więc nowotworowa wprawdzie SAMA nie podlega wpływowi mózgu, ale obrona przed nią organizmu od stanu, w jakim znajduje się umysł chorego, wyraźnie zależy. Zdeprymowani stawiają ciałem opór słabszy aniżeli ci, co żyć chcą, potrafią chcieć i tym samym opór stawiają znaczny zagrożeniu śmiertelnemu. W depresji umysłu natomiast wszystkie funkcje ciała więdną i słabną, a w pobudzeniu się potęgują: stąd pochodzi krąg schorzeń cyklofrenicznych (więc typowa dla tego kręgu naprzemienność depresji i pobudzania maniakalnego). I to o tyle nie jest ze wszystkim od rzeczy, że program, pozwalający komputerowi symulować inną chorobę umysłową — paranoję mianowicie — został stworzony już dość dawno temu. Poza życiem uczuciowym, którego „potrzeba” jest dla nas w jakiś trudno wytłumaczalny sposób oczywista, jesteśmy poddanymi władzy Morfeusza: trzecią część życia przebywamy, czy jak ktoś by chciał, „marnujemy”, we śnie. Na pytanie: PO CO jest nam sen, a w szczególności „czemu służy” senne marzenie, nie ma jedynej wyraźnej odpowiedzi do dzisiaj i dlatego właśnie (ponieważ pada odpowiedzi różnych wiele) NIC pewnego w kwestii owej nie wiadomo. Bez snu człowiek obejść się przez czas nieco dłuższy od tygodnia właściwie nie może. Natomiast komputery nie śnią i „potrzeby” takiej nie zdają się okazywać. Cóż i to znaczy? 9 Zdaje mi się — chcę się wypowiadać z przezorną ostrożnością — że zdany pozytywnie test Turinga — rozumiem przezeń nierozróżnialność człowieka od maszyny w najdłuższym nawet „egzaminie” — nie wyjaśni wcale, czy maszyna ma świadomość, czy nie. Kwestię tę zresztą (rzekło się) roztrząsałem jak umiałem przed trzydziestu laty w nazwanej wstępnie książce i uznałem wtedy, że do symulacji zachowania językowego, czyli do naśladowania rozumnego interlokutora, można by zbliżać się stopniowo, kolejnymi aproksymacjami, po każdej przegranej „partii” dokonując usprawnień i programu, i maszyny, aż w ten sposób (może i bardzo niepraktyczny) doszłoby się do skonstruowania jakiegoś molocha elektronicznego, który nie tylko osoby z kręgu służby domowej, ale i maturzystów, a nawet profesorów uniwersytetu omami udawanym człowieczeństwem. Czy jednak z tej doskonałej sztuki wynikłoby jakieś poniżenie dla naszej, ludzkiej istoty? To jest już kwestia wybiegająca poza ostatnią granicę ocen konstruktorstwa. 10 Niedawno czytało się i w codziennej prasie o pierwszym „romansie” jakoby stworzonym przez komputer. Było to bardzo kulawe i niezbyt sensowne przedsięwzięcie, ponieważ na pewno komputer „nic nie rozumiał”, rzeczywisty autor dawał mu po prostu możliwość wyszukiwania „właściwej deskrypcji” pewnych stanów bohaterki — było to na dobrą sprawę przedsięwzięcie, mające na celu profit, ponieważ wielu ludzi zechce nabyć powieść, której autorem „jest komputer”. Ale też rzec trzeba, że komputery wprzęga się do sfery „porno”, gdyż są po temu odpowiednie programy, pokazujące to, na czym znawcy zależy. Lecz owo wprzęganie wysokich umiejętności technologicznych, świetnych owoców nauki, do prac niskich, głupich, prymitywnych, brutalnych i wstrętnych stanowi jedno z większych rozczarowań, typowych dla schyłku dwudziestego wieku, które szczególnie wstrętnym sposobem wykoleiły moje dawne prognozy: jak gdyby światłe moce zostały zmuszone do wleczenia ciemnych chętek i żądz, których mieszkaniem jest także człowiek. 11 Nie wszcząłem rzeczy od testu Turinga, ażeby go tak czy owak po swojemu rozstrzygnąć. Bawiąc się w prognozowanie, rzec można, że w przyszłości łatwiej będzie komputerowi naśladować człowieka aniżeli człowiekowi — komputer. Kosmologiczna symulacja, w swoim czasie opublikowana przez „Scientific American”, pokazująca, jak będzie „wyglądał” Wszechświat za sto miliardów lat, JEŻELI jego łączna masa nie wystarczy, aby go „zamknąć”, więc będzie się rozszerzał, a.: wszystkie ognie gwiazdowe wypalą ze szczętem swoje atomowe zasoby, była imponującą demonstracją tego dalekosiężnego rygoru komputacyjnego i zarazem symulacyjnego, którego nam albo nie dostaje, albo który wymagałby pracy setek matematyków przez setki lat. Ale już na naszym horyzoncie pojawia się szansa, moim zdaniem, oryginalniejsza od odpowiedzi na test Turinga. Mianowicie symulacje komputerowe procesów ewolucyjnych odbywają się na razie wyłącznie „we wnętrzu” maszyn i olbrzymi rozziew przepaścisty między światem realnym a światem cyfrowym (między „ciałem i duchem”, „materią i informacją”) pozostaje nadal otwarty, lecz mogą rozpocząć jego zapełnianie nowe twory, które są konstrukcyjnie i informacyjnie zarazem „wyhodowanymi” prototypami małych, pseudożywych (chociaż martwych, chociaż nafaszerowanych tylko elektroniką) „stworzonek”, służących na razie zabawie rozmaitych „nanologów”, inżynieryjskich dziwaków, ale które mogą dać w przyszłości początek takiej ewolucji, która by samoistnie wystartować do biegu nie mogła. Byłaby to „ewolucja quasi–mechaniczna”, czy może informatyczno–elektroniczna raczej, a nawet molekularno–kwantowa, jak powiadam, przez ludzi wszczęta i przez ludzi kierowana i sterowana, ale zdolna na którymś etapie do „przejęcia pałeczki”, czyli do okazania „inicjatywy samorodnej”, danej wzmagającą się suwerennością i powstającymi trendami specjalizacyjnymi. DO CZEGO by taka ewolucja służyć miała? To pytanie trochę za wcześnie postawione; ponieważ i pytanie, postawione braciom Montgolfierom, „do czego służyć może” papierowy balon, unoszony przez ogień nagrzanym powietrzem, nie doprowadziłoby podówczas do odpowiedzi, że do lotów z kontynentu na kontynent. Inny, nie istniejący kontynent MOŻE zostać dzięki bardzo ludzkim pasjom konstruktorskim w przyszłości odkryty — i nie wiadomo, wiele nam przyniesie jego zawłaszczenie korzyści… ale i klęski. W powieści Fiasko dałem o nich co nieco do zrozumienia… ale tym jednostronnym, bo militarnym sposobem, który, niestety, dowodzi agresywnej, skażonej natury naszego gatunku… 12 Historia informatyki, rozszerzonej na najpierwsze początki „przetwarzania danych” aż po współczesność antropocentryczną i wyprowadzona z tej współczesności aż po horyzont przyszłych możliwych dokonań czy samoziszczeń, ta historia, obejmująca biogenezę, która trzy miliardy lat trwała i zrodziła świat wielokomórkowców, z którego przez gałąź hominidów wyszedł Człowiek, otóż owa olbrzymia, bo już mierzalna w geologicznej skali całość, jeżeli byśmy stłoczyli ją gwałtownie do orzeczenia o kształcie aforyzmu, tak oto by się przedstawiała. Data processing poczęło się w najprostszych pierwocinach samoorganizacji, czyli życia, a zatem w skali molekularnych autoreplikatorów; z nich powstał kod genetyczny, który przeinaczał się przez miliardy lat, aż zdobył tę potencję prospektywnych wzmocnień rozrostowych, co zrodziła i ameby, i dinozaury, i nas, a my z kolei, już w makroskali, najpierw WPROWADZAMY data processing do komputerowych wnętrzności, gdzie oczyszczona z brzemienia cielesnego informacja z informacją krzyżuje się i informacją żywi w przyspieszeniu, jakiego nigdy by życie „samo” nie doścignęło. A gdy ten etap „autonomii informatycznego ewoluowania” opuści komputery, bo wcieli się w wytworzone w ich rozwojowym projektowaniu technobionty, czyli jednostki wprawdzie podług metryki martwo zrodzone, ale podług aktywności funkcjonalnej ,jak gdyby żywe”, i to „żywe w akceleracji”, ta olbrzymia panorama przeszłości, teraźniejszości i przyszłości okaże się spójnym logicznie systemem, w którym mikrożycie poczęło makrożycie, które poczęło „zuniwersalizowane pożycie” — od molekuł przez organizmy do nieznanych nam jeszcze, i nawet własnej nazwy dziś nie noszących „technobiontów”. Jeżeli tak myśleć i tak patrzeć, można uznać, że ten ciąg rozwojowy, z człowiekiem nie jako metą ale jako cezurą panewolucji, zdoła wyjść w Kosmos, do którego — jak już pouczyły nas zaczątki astronautyki — cieleśnie, ale i zmysłowo, i psychicznie bardzo marnie jesteśmy zdatni, ponieważ zbyt trwale odcisnęły się w człowieku oznaki, atrybuty i ograniczenia spowodowane jego tylko ziemskim, tylko hominidalnym, tylko lokalnym, podsłonecznym powstaniem. Wizja ta nie jest prognozą, lecz niczym więcej, jak prognozy obecnie jeszcze fantastyczną możliwością. Prawdopodobieństwo ziszczenia musi być skromne, lecz każde zaranie późniejszych, dojrzałych szczytowań takie musi być zawsze. Można jednak na powyższy obraz spojrzeć również jako na tragifarsę, co się zdarzyła albo raczej może zdarzyć Rozumowi człowieka, który uznał siebie za najświetniejszą Stałą Kosmiczną, chociaż okaże się tylko preludium do następnej, transantropicznej fazy „informacyjnego zdobywania Wszechświata”. W takim ujęciu zdobywa owa projektowana całość posmak szydliwy, jeżeli byśmy mieli uznać za porażkę akt deuniwersalizacji, czyli zdetronizowania naszego, śmiertelnego Rozumu… „Bariera informacyjna?’ 1 W książce Summa Technologiae, liczącej sobie dobrych trzydzieści lat, wprowadziłem metaforyczne pojęcie „bomby megabitowej” oraz „bariery informacyjnej”. Kluczem do zasobów poznania jest, pisałem, informacja. Gwałtowny wzrost liczby uczonych od Rewolucji Przemysłowej wywołało znane zjawisko: ilość informacji, jaką może przesłać określonym jej kanałem, jest ograniczona. Nauka jest takim kanałem, łączącym cywilizację ze światem pozaludzkim i ludzkim. Wzrost liczby uczonych oznacza zwiększenie przepustowości tego kanału. Lecz proces ten, jak każdy wzrost wykładniczy, nie może biec przez czas dowolnie długi: kiedy zabraknie kandydatów na uczonych, eksplozja „bomby megabitowej” uderzy w „barierę informacyjną”. 2 Czy w tym obrazie zmieniło się coś po trzydziestu latach? Najpierw chcę zauważyć, że próby ustalenia granicznej mocy obliczeniowej „ostatecznej generacji” komputerów, czyli wykrycia — w dziedzinie informatyki — odpowiednika znanej w fizyce granicznej szybkości, jaką się przypisuje światłu, były podejmowane kilkakrotnie, lecz wyniki oszacowań poważnie się od siebie różniły. Biorąc pod uwagę wielkości właściwe fizyce, więc właśnie szybkość światła i relację nieoznaczoności ze stałą Plancka, obliczono, że najsprawniejszy komputer, który zdoła przetwarzać dane z najwyższą osiągalną szybkością, będzie kostką (sześcianem) o krawędzi mierzącej trzy centymetry. Wszelako niedopowiedzianą w założeniach przesłanką był wyłącznie szeregowo–krokowy, iteracyjny sposób wykonywania działań, taki, jakim się w najprostszej postaci odznacza automat Turinga, który może zajmować tylko jeden z dwu stanów: zero lub jedynkę. Jakoż każde działanie każdego komputera tego krokowego (szeregowego) typu można wykonać owym najprostszym automatem Turinga, tyle, że to, co jakiś Cray wykona w ułamku sekundy, automatowi Turinga zajmie eony czasu. Lecz rychło spostrzeżono, ze można również konstruować komputery z równoległymi programami, aczkolwiek ich programowanie i funkcjonowanie stanowi serie bardzo trudnych do rozwiązania problemów. Dowód na to, ze takie komputery są konstruowalne, nosimy w czaszce: mózg bowiem głównie, chociaż nie tylko dzięki swej budowie — jest swoistym rodzajem odpowiednika komputera paralelnego, złożonego z dwu wielkich podzespołów (półkul), a w nich z kolei też panuje bardzo dziwna dla człowieka jako konstruktora „strategia alokacji” podzespołów niższych rzędów. Dla neurofizjologów był to prawdziwy chaos, złożony z samych zagadek, a objawy wypadania poszczególnych funkcji, np. przy afazji, amnezji, aleksji itd., potrafili ci badacze wykrywać, ale nie umieli ich przyczynowo i czynnościowo wyjaśnić. Zresztą bardzo wielu tych i podobnych zjawisk nadal w naszym mózgu nie pojmujemy jak należy. Mózg może pobierać informację z szybkością od 0,1 do 1 bita na sekundę, natomiast dzisiaj potok nowej informacji dociera doń z szybkością leżącą między trzema a dwudziestoma bitami na sekundę. Całość ludzkiej wiedzy ulega podwojeniu z grubsza co pięć lat, przy czym ów czas podwojenia stale się zmniejsza. Na przełomie XIX i XX wieku okres ów wynosił około 50 lat. Codziennie publikuje się na świecie 7000 artykułów, drukuje się ponad 300 milionów gazet, a książek 250 000, aparatów zaś radiowych i telewizorów już jest ponad 640 milionów. Ponieważ dane te pochodzą sprzed czterech lat, niechybnie są już zaniżone, zwłaszcza wskutek gwałtownego przyboru wiedzy w dziedzinie telewizji satelitarnej. Ilość już zgromadzonej przez ludzkość informacji ma wynosić 1014 bitów i do roku dwutysięcznego ulegnie podwojeniu. Niewątpliwie informacyjna chłonność mózgu już uległa wyczerpaniu: poza nauką objawy tej „informacyjnej astenii” można dostrzec znacznie łatwiej aniżeli w samej nauce, zwłaszcza jeżeli jej obszar ograniczymy do nauk ścisłych. Otacza je „halo” w postaci pseudo– i auasinauk, cieszących się wszędzie znaczną popularnością, ponieważ z reguły chodzi o „wiedzę” wprawdzie bezwartościową i fałszywą (astrologię, znachorstwo, sekciarskie dziwactwa typu „Christian Science” i wszystkie „psychotroniki”, jak telepatia, telekineza, „wiedze tajemne”, wiadomości o „talerzach latających” lub „tajemnicach piramid” etc), ale mile prostą, kuszącą obietnicami wyjaśnienia ludzkiego losu, sensu istnienia itd., itp. Ja tu jednak ograniczam się do terenu nauk ścisłych, w który także zresztą wtargnęła już dawno powódź mętnych fałszerstw, nie tylko szkodliwych, ale podważających status społeczny nauki; oszustwo w nauce zdarza się bowiem coraz częściej, a sprzyja mu aktualna wciąż reguła publish or perish. Wiele czynników współpracuje więc na rzecz wzmagania powodzi informacyjnej. Natomiast wspomniana wyżej sfera pozanaukowa ulega informacyjnym samoograniczeniom, które z porównawczego zamierzenia łatwo może spostrzec widz dysponujący satelitarnym odbiornikiem: pod względem odmienności fabularnej, prawie wszystkie nadajniki światowe niezwykle skromnie się od siebie różnią, co znaczy po prostu, że programy odległych od siebie państw, krajów i językowych obszarów nieomal pokrywają się treściowo. Nie jest to ani świadome zapewne „odchudzanie telewizyjnej diety”, ani plagiatowość: po prostu publiczność, ulegająca przesytowi, woli oglądać warianty fabuł znanych już, i stąd wciąż kolejne wersje jakichś Tarzanów, Trzech Muszkieterów, a w USA — walk z Indianami, wojny secesyjnej, w Europie zaś — ostatniej wojny światowej. Informacyjna alergia w zakresie wizualnym jest szczególnie natarczywa, innowacji obawiają się w stacjach nadających gorzej niż ognia, natomiast cenią innowacyjne pozory. Oczywiście nie bawię się tu w krytyka, ponieważ nie wartościuję i tym samym nie deprecjonuję programów, co skądinąd byłoby łatwizną, lecz staram się tylko obniżyć głębszą, czysto percepcyjną przyczynę faktu znanego telewidzowi z doświadczenia, którego istota w dziwacznym podobieństwie mnóstwa rzekomo całkiem odmiennych, osobno tworzonych programów: mianowicie trudno zazwyczaj zorientować się, jeśli wyłączyć fonię, czy oglądamy obraz emitowany w Turcji, Wielkiej Brytanii, Holandii, Szwecji, Danii, Hiszpanii itd., bo zewsząd płynie do naszej anteny omalże ta sama kaszka manna z pieprzem. 3 Przed informacyjną powodzią ratuje się więc przeciętny człowiek zarówno redukcją ulewy bitów, jak i eliminacją tych, co nie są jakoś „konieczne” dla umysłowej absorpcji. W życiu codziennym polega to na wzmożonym etnocentryzmie mediów, na „narastającej gruboskórności” względem treści, które mogą szokować lub ranić uczuciowo, lecz w nauce tego rodzaju wstrzemięźliwości nie są dopuszczalne. Stąd narastająca waga posiłków, jakie przynosi tam informatyka dywizjami komputerów. Jak każde zjawisko nowe, chociaż właściwie już nie nowe literalnie, komputeryzacja stała się niezb�