12995
Szczegóły |
Tytuł |
12995 |
Rozszerzenie: |
PDF |
Jesteś autorem/wydawcą tego dokumentu/książki i zauważyłeś że ktoś wgrał ją bez Twojej zgody? Nie życzysz sobie, aby podgląd był dostępny w naszym serwisie? Napisz na adres
[email protected] a my odpowiemy na skargę i usuniemy zabroniony dokument w ciągu 24 godzin.
12995 PDF - Pobierz:
Pobierz PDF
Zobacz podgląd pliku o nazwie 12995 PDF poniżej lub pobierz go na swoje urządzenie za darmo bez rejestracji. Możesz również pozostać na naszej stronie i czytać dokument online bez limitów.
12995 - podejrzyj 20 pierwszych stron:
Stanisław Lem
Tajemnica Chińskiego Pokoju
Jerzy Jarzębski
Rozum ewolucji i ewolucja rozumu
Tytuł mego szkicu jest oczywiście ukłonem w stronę autora książki, który
opublikował kiedyś
pasjonujący esej Etyka technologii i technologia etyki. Jest widać coś w myśli
Stanisława Lema,
co prowokuje takie stające łatwo na głowie formuły. Jego najnowsze eseje,
publikowane w „PC
Magazine”, złożyły się niepostrzeżenie w tom ważki nie tylko z racji czysto
fizycznej objętości.
Zrazu zdawały się jedynie aneksem dopisywanym do powstałej przed z górą
trzydziestu laty
Summa Technologiae, aneksem, w którym autor rad prezentował się czytelnikowi
jako fortunny
prorok dalszego rozwoju ludzkiej wiedzy i technicznych sprawności. Tak też było:
Summa zdaje
się dziś dziełem, które — zamyślane jako proroctwo długodystansowe i śmiałe aż
do
obrazoburstwa — znalazło się po trzech dekadach w samym centrum najbardziej
aktualnej
naukowej i konstruktorskiej praktyki. Na starcie Lemowych rozważań dzisiejszych
jest zatem
(dość triumfalnie brzmiące) zestawienie dawnych pomysłów i rachub z dzisiejszym
stanem
zaawansowania wiedzy. Ale gdyby się na tym kończyło, Tajemnica chińskiego pokoju
nie byłaby
książką tak pasjonującą. Rzecz w tym, że wraz z upływem lat i ewolucją nauki
sytuacja autora
prognoz zdecydowanie się zmieniła. W roku 1964, kiedy ukazywało się pierwsze
wydanie
„Sumy”, Lem był przede wszystkim wziętym pisarzem science–fiction i autorem
esejów
popularyzujących wiedzę ścisłą, który, ni stąd, ni zowąd, dokonał niejako fuzji
tych gatunków,
zaglądając daleko w przewidywaną przyszłość technologii. Ten skok w przyszłość
na tle
ówczesnego stanu wiedzy wyglądał na rojenie jeśli nie zupełnie dowolne, to
przynajmniej
obarczone nadmiernym w oczach współczesnych gustem do fantazjowania i
sztukowania
rzeczywistości nieuleczalnym wishful thinking.
Książki tamtej — choć czytano ją chyba z większą powagą i uwagą niż autor chce
dziś
pamiętać — nie przymierzano tak bezpośrednio do „stanu badań” i bieżących
odkryć. Była pustą
matrycą do wypełnienia, projektem w przeważającej mierze abstrakcyjnym, któremu
wolno
skrywać w sobie różne na pozór szalone pomysły. Dziś — gdy tak wiele przewidywań
Lema się
sprawdziło, a uczeni z Niemiec czy USA przyznają wręcz, że korzystają z jego
inspiracji — autor
„Sumy” czuje na sobie ciężar daleko większej niż wprzódy odpowiedzialności. Tym
ona
poważniejsza, że twierdzenia Lema weryfikuje życie i z dnia na dzień realizowane
produkty
takiej czy innej (genowej, informatycznej) inżynierii. Pierwsza i zasadnicza
różnica pomiędzy
„Sumą” a Tajemnicą chińskiego pokoju polega więc na tym, że sądy pierwszej
formułowano we
względnie pustej przestrzeni hipotez i modeli, podczas gdy sądy drugiej
wygłaszane są wśród
zgiełku powstającego nieuchronnie w centrum powszechnego zainteresowania, wobec
sprawozdań z badań eksperymentalnych, a nawet sygnałów z rynku, na którym żyć
poczynają
ocierające się wcześniej o fantastykę pomysły.
Jak to wpływa na dyskurs samego Lema? Powiedzmy najpierw, że coraz większą rolę
odgrywa w nim wątek etyczny. W Summa Technologiae frapowało ujęcie technologii
jako bytu
w jakiejś mierze samoistnego, rozwijającego się niezależnie od człowieczej woli,
choć w oparciu
o substrat, jaki dlań tworzą ludzkie dążenia do poznania i opanowania świata.
Technologia
ewoluowała podług tej wizji na podobieństwo genetycznego kodu, a zatem nie
poddając się łatwo
moralnym osądom. W Tajemnicy chińskiego pokoju projekt technologii przyszłej,
będący
wcześniej abstrakcją, staje się nagle treścią codziennego życia jednostek i
społeczeństw, a sama
technologia wchodzi w skomplikowaną rzeczywistość końca wieku, pojawia się w
domach
przeciętnych ludzi w postaci Internetu, produktów inżynierii genetycznej,
prymitywnych jeszcze
urządzeń „fantomatyzujących” itd. A zatem to, co w ujęciu generalnym stanowi
zjawisko
„obiektywne” i nieuchronne niczym prawo przyrody — w kontekście praktyczno–
życiowym
wzbudzać może silne negatywne emocje. Trudno i darmo: ludzie ze swoich
wynalazków robią
zazwyczaj zły użytek; zamiast dążyć do realizacji najwyższych ideałów,
narzędziami wysoce
zaawansowanej techniki posługują się w celu zaspokojenia prymitywnych popędów.
Można nad
tym biadać, piętnować etc, ale nic zapewne z tego nie wyniknie. Człowiek jest
bowiem istotą
ufundowaną na dziwacznej antynomii — i ten aspekt jego natury stanie się dla
Lema odskocznią
do bardzo skomplikowanych i rozbudowanych roztrząsań.
Punkt wyjścia tych rozważań to próba porównania intelektu ludzkiego i maszynowej
„sztucznej inteligencji”. Tytuł pierwszego rozdziału książki sygnalizuje, że
natchnieniem dla
autora był osiemnastowieczny traktat La Mettrie’go Człowiek maszyna. Ale w
wersji Lema
zamiast równoważności mamy koniunkcję: człowiek nie jest maszyną; istnieje obok
niej i na
zupełnie innych zasadach. Człowiek nie jest też spójną całością: rozdziera go
nieuleczalny
dualizm, swoista nieuzgadnialność materialnego substratu i rodzącego się w nim
myślenia, wciąż
nie w pełni znanego ciała i może jeszcze bardziej niepochwytnej świadomości.
Mamy więc co
najmniej trzy niezbyt dobrze przystające do siebie elementy: człowieka jako
niezmiernie złożony
produkt biologicznej ewolucji, człowieka jako myślącą, uwikłaną w kulturę
świadomość, która w
sposób nie do końca zrozumiały i poznany rodzi się z procesów zachodzących w
biologicznym
ciele — i wreszcie produkt technologii: maszynę, która może wykonywać operacje
natury
intelektualnej w sposób przez konstruktorów zaprojektowany i w zgodzie ze swym
mechanicznym, funkcjonalnym schematem. Rozważania Lema poświęcone są przede
wszystkim
poznawczym kłopotom, które pojawiają się w momencie, gdy zechcemy owe trzy
elementy do
siebie wzajem sprowadzić, tłumaczyć jeden poprzez drugi, względnie imitować w
jednym
procesy, które w drugim zachodzą. Te kłopoty są natury trojakiej: filozoficznej,
naukowej i
praktyczno–inżynierskiej.
Filozof pyta, co to znaczy, że w mózgu powstaje ludzka, jednostkowa świadomość,
i czy
istnieje ona w ten sam sposób, w jaki istnieje jej materialne podłoże, czy jakoś
zupełnie inaczej.
To jest zresztą dylemat, jaki zadał filozofii nowożytnej jeszcze Kartezjusz i
choć Lem
światopoglądowo bliższy jest zapewne materialiście i moniście La Mettrie’mu, to
przecie
wywiedzenie bezpośrednie procesów psychicznych z przebiegu prądów elektrycznych
w korze
mózgowej przekracza zarówno jego, jak i czyjekolwiek dzisiaj możliwości. Monizm
materialistyczny — owszem, ale pozbawiony właściwego encyklopedystom i tylu ich
następcom
optymizmu poznawczego ponad stan posiadanej wiedzy. I ze świadomością, iż
materia może
porządkować się w nieprzenikliwe wzajem ontologiczne poziomy lub całe ich
hierarchie. Ta
ostatnia hipoteza silniej zresztą dała o sobie znać w Lema beletrystyce.
Nie koniec tu zdziwień filozofa: silnie zakorzeniony w myśli europejskiej
schemat
neoplatoński, podług którego duch ludzki stoi nieporównanie wyżej na drabinie
bytów od
prymitywnego ciała, ulega tu znamiennemu odwróceniu: to właśnie ciało — produkt
doskonalącego się genetycznego kodu — objawia zawrotną komplikację i „mądrość”,
do której
daleko jeszcze raczkującemu umysłowi jednostki ludzkiej. Jeśli coś tu zdumiewa,
to raczej
masywna dysproporcja pomiędzy wyrafinowaniem biologicznych urządzeń, które
sterują każdym
życiem, a niezmierzonym mozołem, jakiego trzeba, by na tym podłożu zrodziła się
jakoś tam,
kulawo, rozumiejąca świat i siebie samą świadomość. Przychodzi tu wciąż
odruchowo na myśl
Lemowy Elektrybałt z Cyberiady, który — przyjąwszy postać góry elektronicznych
urządzeń
nafaszerowanych całą mądrością wieków — umiał zrazu tylko wykrztusić, że „życie
jest
straszne”. Czy rozum jest zatem koroną Stworzenia, czy ubocznym, niedoskonałym
produktem
ewolucji genetycznego kodu — oto pytanie raczej dla filozofa niż dla uczonego. I
— choć Lem
pośrednio wciąż je zadaje — nie widzę na nie definitywnej odpowiedzi.
Do sfery zmartwień uczonego należy z kolei rozstrzygnięcie problemu, czy maszyna
„myśli”
— tyle że nieco prościej i bardziej prymitywnie od człowieka — czy na odwrót:
jej czynności są
zupełnie innej natury i nawet wielokrotnie spotęgowane przez rozwój techniki
komputerowej
pozostaną czymś całkowicie do myśli ludzkiej niepodobnym. To bodaj centralny
problem
książki, stawiany wciąż od nowa w rozmaitych kontekstach. Odpowiedź brzmi
ostrożniej niż
przed laty: to prawda, że maszyny są już coraz bliżej sytuacji, w której
człowiekowi z
najwyższym trudem przyjdzie złamanie sławetnego „testu Turinga”, tzn. ustalenie,
że nie z
innym człowiekiem rozmawia, lecz z mechanizmem. Nie wygląda jednak, aby dało się
w
przewidywalnej przyszłości skonstruować sztuczną inteligencję dysponującą
świadomością,
poczuciem ,ja” i aktami podmiotowej woli. Komputer — choć w niektórych zakresach
„myśli”
nieporównanie od człowieka sprawniej, w innych wciąż mu ustępuje i zwiększanie
mocy
obliczeniowej tego rozziewu nie zlikwiduje, chodzi bowiem o różnicę natury
jakościowej,
ufundowaną w dodatku na daleko posuniętej odmienności materialnego podłoża
myślowych
operacji.
Autor Cyberiady przyzwyczaił nas do żartobliwych wydziwiań nad czysto materialną
niedoskonałością istot „rozlewnych, miękkich, ciastowatych i wodnistych” w
zestawieniu z
perfekcją metalowo–krystalicznych robotów, które samo tworzywo zda się
predestynować do
przyjmowania w siebie elektrycznej inteligencji. Włóżmy to między bajki: to
właśnie w
środowiskach wodnych roztworów czy zawiesin — powiada dziś Lem — procesy
przetwarzania
informacji zachodzą najbardziej efektywnie. A zatem biologiczne ciało człowieka
nie jest wcale
— jako siedziba myśli — „gorsze” od mikroprocesorów: działa po prostu inaczej, a
konstruktorzy nadal powinni uczyć się od natury.
Możemy tu spytać, po co właściwie człowiekowi te zapasy z oporem tworzywa, po co
namiętne pragnienie skonstruowania inteligencji antropomorficznej, czemu nie
poprzestanie na
komputerze jako maszynie wspomagającej tylko uczonych swą mocą obliczeniową?
Można rzec,
iż uzasadnienie tych starań jest co najmniej dwojakiego typu: pierwsze jest
natury filozoficznej
— to po prostu badanie granic ludzkich możliwości, próba wydarcia Bogu kolejnych
prerogatyw
i ustanowienie w oparciu o to jakiegoś nowego obrazu świata. Starania
konstruktorów sztucznej
inteligencji stoją więc całkiem blisko wysiłków, jakie genetycy poświęcają
ostatecznemu
rozłamaniu kodu dziedziczności i uzyskaniu nieograniczonego wpływu na
kształtowanie nowych
biologicznych istot. Jedni i drudzy majstrują przy czymś, co w dotychczasowej
kulturze zwykło
się uważać za domenę Demiurga, a zatem wyniki ich działań wpływać mogą
bezpośrednio na
ludzkie wierzenia i światopoglądy. Wiedza tutaj zdobywana nie jest zbyt radosna,
ciąży bowiem
na niej nieuchronnie lęk przed konsekwencjami nowych odkryć, przed podważeniem
etycznego
porządku ludzkiej cywilizacji. Uczniowie czarnoksiężnika posuwają się jednak
dalej — bo już
nie można się cofnąć!
Ale pomyliłby się ktoś sądzący, że mamy tu do czynienia wyłącznie z zabójczym
automatyzmem odkrywania „wszystkiego, co jest do odkrycia”. W gruncie rzeczy
sztuczna
inteligencja staje się czymś upragnionym tam, gdzie w tempie wykładniczym rośnie
góra głupiej,
nieważnej, nieistotnej informacji — niczym Himalaje zalewających nas odpadków.
Jednym z
leitmotivów eseistyki Lema w ostatnich latach jest dezaprobata dla informacji
nie
selekcjonowanej, atakującej nas poprzez komputerowe sieci i anektującej umysły.
Ludzkość
widziana z tej perspektywy przypomina zbójcę Gębona z Cyberiady, osiodłanego
przez „demona
drugiego rodzaju”, produkującego bez wytchnienia sterty komunikatów sensownych
tylko
językowo, choć doskonale bezużytecznych. Byłażby więc komputerowa inteligencja
antidotum
na rozplenioną po całym świecie komputerową głupotę? Odpowiedź musi być
sceptyczna, nie
wiemy bowiem ani — czy uda się maszynie nadać cechy intelektu ludzkiego (co
oznaczałoby w
terminach potocznych „mądrość” zamiast obliczeniowej sprawności), ani — czy ów
maszynowy
intelekt zechce człowiekowi służyć tak, jak on to przewidział. Można jedynie
sądzić, że dalsze
prace w tym obszarze nauki odbywać się będą — bo akurat wszystkie poznawcze
zdobycze, jakie
na tym przyczółku są do osiągnięcia, zasadniczo wpływają na nasz obraz świata i
rozumienie
sensu ludzkiej egzystencji.
W Tajemnicy chińskiego pokoju ani trochę mniej mamy więc tajemnic niż we
wcześniejszej
Summa Technologiae. Rozwiązanie jednej zagadki rodzi bowiem natychmiast nowe —
taki już
los każdego prawdziwego dociekania w świecie nauki. Książka, którą trzymamy w
ręku,
potwierdza jednak w całej rozciągłości te intuicje Lema, które podpowiadały mu
przed laty
zajęcie się z jednej strony cybernetyką, informatyką, konstruowaniem „sztucznego
myślenia”, a z
drugiej — genetyką i teorią ewolucji. Rzeczywiście w tych dziedzinach dokonał
się bodaj
największy, najbardziej spektakularny skok ludzkiej wiedzy — i one też
przyniosły nam zagadki
najbardziej pasjonujące i najbliżej związane z pytaniem podstawowym — o kondycję
człowieka i
Wszechświata, ich naturę i wzajemne relacje.
Cóż się zmieniło w podejściu Lema do tych problemów na przestrzeni ostatnich
trzech dekad?
Dostrzegam przede wszystkim jedno: autor „Sumy”, który uprzednio kreślił niemal
nieograniczone wizje rozwoju ludzkiej technologii — dziś mówi o tym z
nieporównanie większą
ostrożnością. Na to miejsce pojawiła się u niego fascynacja mechanizmami
ewolucji naturalnej,
podziw dla perfekcji jej rozwiązań, dla finezji biochemicznych reakcji stojących
u podstaw życia.
Nie jest to zapewne rewolucja światopoglądowa: Lem pozostaje wciąż w gruncie
rzeczy
pisarzem zapatrzonym w historię, w jej przebieg i prawidłowości. W każdej niemal
spośród
napisanych przezeń książek znajdziemy dowody na jego głębokie zainteresowanie
dla
rozmaitego rodzaju procesów ewolucyjnych, które nakładają się na siebie,
interferują, odbijają
się w sobie wzajem. Oto w samej rzeczy teren, na którym nie może spełnić się
nigdy
proklamowany przez Fukuyamę „koniec historii”, tzn. kres myślenia o czasie w
kategoriach
„postępu”, „ewolucji”, „zmierzania do celu”. Taką koncepcję czasu organizuje
wpierw wizja
ewolucji naturalnej, jako sfery postępu obiektywnego i mierzalnego, choć zapewne
nie
nakierowanego na żadne — poza reprodukcją genetycznego kodu — zwierzchnie cele.
Teleologię wprowadza tu myślenie ludzkie — zawsze skierowane naprzód, ku
abstrakcji jakichś
stanów przyszłych, upragnionych lub budzących lęk. W Lema wizji historycznego
czasu
dostrzegam obydwa te bieguny, tzn. widzenie przemian zachodzących w świecie raz
pesymistycznie — jako bezkierunkowego dryfu wiodącego ku nieznanym katastrofom,
innym
razem bardziej optymistycznie — jako procesu w pewnej mierze przewidywalnego,
nad którym
człowiek w coraz większej mierze panuje. W ostatnich latach wszelako pierwsza z
tych dwu
wizji zdaje się u Lema przeważać.
W Summa Technologiae, książce z zasady optymistycznej, choć niełatwej miejscami
do
zaakceptowania z punktu widzenia tradycyjnych wartości humanizmu, ewolucja
biologiczna
znajdowała stosunkowo prędko przedłużenie w ewolucji cywilizacji technicznej,
czy wręcz na
koniec — w samodzielnym rozwoju wyzwolonego z uwikłania w biologię rozumu. Dziś
Lem
przerzuca w dalszą przyszłość datę „prześcignięcia natury” przez sztuczne twory
techniki, może
też coraz silniej wątpi, czy ewolucja na tych polach da się przedstawić w
postaci jednoliniowego
wykresu, tzn. po prostu — czy maszynowa inteligencja będzie kiedykolwiek i w
jakimkolwiek
sensie „kontynuacją” rozumu ludzkiego. Podobnie ostrożne wypowiedzi formułuje na
temat
szans wspomagania biologicznych mózgów przez tzw. brain chips, co stanowi dość
chytry
sposób na ominięcie dualizmu myślenia „maszynowego” i biologicznego.
Czy oznacza to całkowite wycofanie się z optymistycznych idei ożywiających Summa
Technologiae? Niekoniecznie. Po prostu od nieco abstrakcyjnych, wybiegających w
przyszłość
projektów nowej technologii Lem przeszedł do praktycznych roztrząsań nad
możliwościami
zastosowań swoich własnych idei. Cóż dziwnego, że pierwsze, z czym się spotkał,
to opór
tworzywa? Obok tego normalnego oporu stawianego przez materię świata jest jednak
jeszcze
inny opór, który pokonać niełatwo: to opór stawiany przez ludzi. Nowe
technologie nie tyle
zresztą odrzucane są przez konserwatywne jednostki, co właśnie akceptowane —
wątpliwości
budzi dopiero użytek, jaki z nich robi współczesna nam cywilizacja. Można więc
przeprowadzać
krytykę działającej ślepo ewolucji naturalnej — ale ona wybroni się zawsze
zawrotnym
mistrzostwem swych rozwiązań, można krytykować niedoskonałość technologii — ta
jednak
rozwija się szybciej niż kiedykolwiek w dziejach, nadrabiając szybko opóźnienia
i ucząc się na
błędach. Najgorzej w tym zestawieniu wypada ludzki intelekt, a szczególnie ten
(nie)rozum
zbiorowy, którym kierują się społeczeństwa, narody, środowiska konsumentów itd.
O ile więc milczącym założeniem Summa Technologiae zdawało się być
przeświadczenie, iż
kultura ludzka rozwijać się będzie w przyszłości w miarę harmonijnie, tzn. że
społeczeństwa
będą umiały wchłonąć nowe odkrycia technologii z pożytkiem dla siebie, o tyle
Tajemnica
chińskiego pokoju to sprawozdanie ze świata rzeczywistego, takiego, w którym
technologiczne
innowacje pojawiają się wśród ludzi nie przygotowanych na ich przyjęcie,
powodując
okaleczenie psychiki jednostek i trudne do przewidzenia zmiany w organizacji
życia zbiorowego.
Czy ludzkość sobie z tym poradzi? Załóżmy ostrożnie, że tak. Jeśli coś budzi w
książce Lema
nadzieję, to niesłychane możliwości tkwiące w biologicznej naturze człowieka, a
także godna
podziwu dalekowzroczność ewolucyjnych rozwiązań, które radziły sobie dotychczas
tylekroć z
radykalnymi zmianami środowiska i trybu życia istot projektowanych przez
genetyczny kod.
Może więc raz jeszcze cierpliwa biologia zniesie to, co jej gotuje skłonny do
aberracji intelekt i
jego wykwit — technologia? Może też kultura — działająca na dłuższą metę na
podobieństwo
biologicznych homeostatów — zdoła wchłonąć innowacje i odzyskać na powrót
równowagę? Z
punktu widzenia uwikłanego w aktualność dyskursu Lema jeszcze tego nie widać.
Autor książki
daje nam w zamian wgląd w takie konsekwencje ludzkiego poznania i technologii,
które
powodują rozjątrzenie do białości najbardziej zasadniczych kwestii naukowych,
ontologicznych i
etycznych. Myślenie wraz z Lemem i na jego warunkach nie obiecuje zatem ukojenia
egzystencjalnych i poznawczych niepokojów, jest jednak myśleniem „dla
dorosłych”, tzn. nie
ukrywającym kłopotów, nie tuszującym antynomii i nie obiecującym żadnej
świetlanej
przyszłości. Zapewne tylko tak godzi się dzisiaj mówić o perspektywach
technologicznych
piekieł i rajów.
Człowiek i maszyna
1
Człowiek–maszyna to było dzieło francuskiego filozofa–materialisty La Mettrie,
napisane w
połowie XVIII wieku. Nie ulega wątpliwości, że zarówno zwolenników, jak
przeciwników
podobnie skrajnego rozpoznania ludzkiej natury znaleźlibyśmy i dziś. Innymi
słowy, mówiąc
bardziej współcześnie, spór zostałby dopiero wtedy rozstrzygnięty, gdybyśmy
potrafili zbudować
maszynę równoważną człowiekowi. Ale co to znaczy „równoważną” człowiekowi? Nasze
podobieństwo do innych żywych stworzeń właśnie w sferze cielesnej jest
niewątpliwe: człowiek
to przecież żyworodny ssak, opatrzony narządami, które się w bardzo skromnym
stopniu różnią
od narządów i od całościowej fizjologii innych ssaków: różni nas od nich
wszystkich umysł, a
więc mózg.
2
Jak łatwo może się domyślić Czytelnik, tymi nieco zamglonymi słowami zbliżam się
do
całkowicie już współczesnego pytania, które postawił około pół wieku temu
angielski matematyk
Alan Turing: czy możliwe jest skonstruowanie takiego „automatu skończonego”
(komputery są
takimi automatami jako jedna z gałęzi informatycznego drzewa, wyrosłego z ziarna
cybernetyki),
którego nie dałoby się w rozmowie odróżnić od człowieka? Niezliczone razy
uczestniczyłem,
głównie w byłym Związku Sowieckim, w latach sześćdziesiątych, właśnie w takich
dyskusjach i
zażartych sporach, w których problem ów usiłowano rozgryźć. Jak wiadomo,
programy
(software) zdolne prowadzić pewne typy rozmów z człowiekiem już istnieją.
Jednakowoż każdy
taki program, który symuluje rozumnego rozmówcę, można prędzej czy później
„zdemaskować”.
Sposobem najprostszym, na który (nie wiem czemu) jakoś nikt albo omal nikt nie
wpadł, byłoby
opowiedzenie niewiadomemu dyskutantowi dowolnej historyjki, np. anegdoty,
dowcipu i
żądanie, ażeby opowiedziane po chwili własnymi słowami powtórzył. Maszyna
najłatwiej
jeszcze powtórzy wszystko literalnie: normalny człowiek dlatego nie jest w
odtwarzaniu narracji
precyzyjny, ponieważ nie tyle TEKST złożony ze słów zapamiętuje, ile SENSY, a to
znaczy, że
opowiedziane rozumie. I oto stajemy przed rzeczywistym dylematem: czy i w jaki
sposób
moglibyśmy przekonać się o tym, że maszyna „komputer” rozumie cokolwiek —
podobnie jak
człowiek? Należy zważyć wstępnie, że „rozumienie czegokolwiek” posiada swoje
liczne
poziomy i rodzaje. Pies w pewnym sensie „rozumie”, do czego bierze się jego pan,
gdy widzi, jak
ów pakuje walizki: ponieważ już to widział i „wie”, że szykuje się jakaś podróż.
Ale nawet
mucha „wie”, co grozi jej od klapki, którą wymachuje zniecierpliwiony jej
natręctwem ten, komu
ona przeszkadza. Sposobu, w jaki różne rodzaje „wiedzy” różnią się od siebie w
równie
odmiennych sytuacjach, nie da się prościej wyjaśnić, aniżeli odwołując się do
„instynktów”,
których ekstremalnym reprezentantem będzie instynkt samozachowawczy i tutaj od
razu trafiamy
w sedno rzeczy. Mianowicie żaden najdoskonalej grający w szachy albo tłumaczący
teksty
naukowe, albo informujący o chorobach, ba, stawiający ich rozpoznania wedle
wyników badań
komputer nie będzie próbował uniknięcia ciosu młotkiem czy kilofem, żaden bowiem
nie wykaże
„instynktu samozachowawczego”, dookoła którego są „obudowane” wszystkie typy
wszelkich
żywych stworzeń (z wyjątkiem roślin). To bowiem, co nie próbowało ani pożreć,
ani uniknąć
pożarcia, w toku miliardoletnich ewolucyjnych procesów zginęło; i tylko
skutecznie zjadający
albo skutecznie umykający ostali się przy życiu.
3
Co prawda, jakąś postać „instynktu samozachowawczego” dałoby się komputerowi
wprawić:
jednakowoż podobny zabieg nie przybliża nas do rozstrzygnięcia dylematu. Douglas
Hofstadter
w swojej grubej, zabawnej i ciekawej książce Metamagical Themes opisuje
przygodę, kiedy to
miał odróżnić człowieka od maszyny, przy czym na końcu okazało się, że rozmawiał
z kilkoma
studentami, TAK odpowiadającymi na jego indagację, ażeby zbić go z pantałyku.
Jakoż kiedy już
myślał, że z komputerem rozmawia, rzeczywistość mu objawiono. Więc jakże? W
postaci
najbardziej prymitywnej sprawa tak się przedstawia, jak ją opisałem w Summa
Technologiae
ponad trzydzieści lat temu. Napisałem, że można dokonywać kolejnych a zarazem
doskonalonych robót konstruktorskich (dziś bym rzekł „programowań”), zastępując
komputery
„zdemaskowane” odmianami doskonalszymi w symulacji, a może doszłoby się do
takiego
modelu, którego już od człowieka w rozhoworach odróżnić nie sposób.
4
Między innymi nawet na powtarzanie opowiedzianego znalazłby się wytrych.
Mianowicie
maszyny segregujące (np.) artykuły naukowe są tak programowane, ażeby rozdzielać
teksty
wedle „słów–kluczy”. Jeżeli częstość występowania słów takich jak „osocze krwi”,
albo
„hemofilia”, albo „błona komórkowa” pewien próg przekroczy, tekst najpewniej
należy do stref
medycyny, a może (szerzej) biologii. Jeżeli w nim się „kwarki” czy „nuklidy”
pojawiają —
wiadomo, dokąd go przytroczyć. Więc postępując tym zrazu bardzo prymitywnym i
nic „nie
rozumiejącym” sposobem, można poduczać maszynę, ażeby odpowiedziała i żeby
repetycja
podanego jej tekstu była „szkieletowo” — gramatycznie, leksykograficznie i
stylistycznie nawet
bliska opowiedzianemu, ale żeby jednak nie pokrywała się z opowiedzianym co do
słowa. Więc i
tu można uczynić maszynę zręcznym „oszustem”, udającym żywego dyskutanta i na
tym etapie
zjawia się problem następny.
5
Mianowicie nie musimy zajmować się wyłącznie zagadkowym interlokutorem: możemy
pytać
o to, JAKI CZŁOWIEK maszynę testuje. Albowiem największy pijak i tuman nie
będzie równie
sprawnym ekspertem dyferencjacyjnym, co człowiek z dyplomem wyższej uczelni —
czy literat
albo jakiś nadzwyczajny geniusz.
6
Zresztą zadanie postawione przez Turinga mocno się odmieniło wskutek tego, że
właściwie
dzisiaj o możliwościach fakultatywnych komputera wiemy więcej aniżeli o tym, w
jaki sposób
nasz mózg działa. Moim zdaniem, opartym nie tyle na lekturach z zakresu
neurofizjologii, ile na
własnym doświadczeniu introspekcyjnym, mózg jest złożony z dużej liczby
podzespołów,
połączonych między sobą dla współpracy w sposób, który zarówno ma służyć
optymalizowaniu
wyników informacjoprzetwórczych, jak zarazem odzwierciedla niebywale długą
historyczną
(ewolucyjną) drogę, jaką mózg przeszedł w tysięcznych generacjach zwierząt, a na
ostatku
hominidów, zaś już u mety u nas. Niejaką zależność świadomości (boję się tego
terminu) od
stanu mózgu poznaje człowiek starzejący się bardziej wyraziście aniżeli człowiek
młody, o
umyśle w pełni sprawnym. Zdarza się mianowicie takiemu starzejącemu się, jak ja,
że np.
zapomni imię dobrze mu znanego uczonego, powiedzmy Prigogine’a albo Plancka.
Wysiłek
przypomnienia sobie (czegokolwiek) jest prawie nie do zrelacjonowania. Na ogół
zresztą okazuje
się daremny, ale widocznie jałowo pracująca „świadomość” uruchamia jednak jakieś
mechanizmy z wydziału information retrieval, bo prawie zawsze, prędzej czy
później, czasem po
parunastu sekundach, czasem nazajutrz, poszukiwany termin (tu: imię) „wypływa” z
odmętu
niepamięci. Jak został odszukany — nie mam pojęcia i na razie nikt mi tego
wyjaśnić nie będzie
w stanie. W każdym razie widać stąd jedną stronę zawodności władania zasobem
informacji
zmagazynowanej w umyśle, a z drugiej strony człowiek zajęty mocno umysłową pracą
(albo
sklerotyk) dużo czasu trawi i marnuje na poszukiwanie okularów, gazety, książki,
listu —
ponieważ odkładanie, chowanie, pozostawianie „gdziesik” zachodzi POZA obrębem
zapamiętywanych czynności, które świadomość POWINNA włożyć przynajmniej do
przegródki
„pamięci krótkotrwałej”. A te nieświadomie i bezpamiętnie dokonywane czynności
bywają
nieraz „sensowne” i koherentne, tj. nie musi iść zaraz o chowanie skarpetek w
lodówce czy
lodów w szufladzie. Bywa to jednak dość — jak powiadamy — „bezmyślne”, podobnie
jak
behawior epileptyka, zapadającego na tak zwane petit mai, co oznacza momentalne,
krótkie
„wyłączenie” świadomości, przy czym ono MOŻE zostać przez obecnych obserwatorów
dostrzeżone albo i nie, gdyż czasem „lukę świadomości” zapełnia czynność przez
chwilę
automatycznie kontynuowana. Tak zatem zamiast się do rozszyfrowania „istoty
świadomości”
przybliżyć, ażeby (między innymi) podejść do kwestii jej symulowania, znajdujemy
na tej drodze
nowe przeszkody. Wykrycie zaś podzielności mózgu dzięki przecinaniu Corpus
callosum,
wielkiego spoidła, łączącego dwustu milionami włókien neuronowych obie półkule
mózgu, oraz
spowodowane tym zabiegiem niejakie „rozszczepienie” umysłu na prawie niezależną
parę
„umysłów”, rzecz w ostatnich latach dziwnie skomplikowało. Nie wiadomo (znów)
czy i
dlaczego mózg mamy dwudzielny, czy wynikło to na skutek powstałej przed wieloma
milionami
lat dwudzielnej symetrii ciał wszystkich tych zwierząt, co nas poprzedziły
(czyli mamy do
czynienia ze schedą bardzo starych „ewolucyjnych rozwiązań”, wleczonych przez
wieki
wieków), czy też raczej ze współpracą układów neuronowych, mózg tworzących,
która to
współpraca i dziś jest optymalna. Ja bym się jednak opowiadał za wersją
pierwszego
wytłumaczenia, ale nijakiego dowodu na jej prawdziwość przytoczyć nie potrafię.
7
Zdaje mi się, że krętą ścieżyną wywodu doprowadziłem problem do zwiększonego
zmętnienia. Wydaje mi się mianowicie, iż test Turinga, w tak znacznej mierze
zależny od
akceleracji i sprawności hardware i software staje się coraz mniej pewnym
dyferencjatorem
Człowieka i Maszyny. Przy tym zachodzi pytanie, bardziej może zajmujące
filozofów aniżeli
ekspertów–informatyków: na jakie licho jest nam właściwie potrzebna maszyna, tak
znakomicie
symulująca człowieka, że w jej zachowaniu językowym od człowieka nieodróżnialna?
Przecież
jest oczywiste, że ewolucja komputerów wraz z ewolucją programów od umysłowości
naszej nie
tylko i nie po prostu się ODDALA, ale jednocześnie wkracza, i to na rosnącą
skalę, w obszary
umysłowi człowieka w ogóle niedostępne. To, czego ani digitalnie, ani
intuicyjnie, rozumiejąco
w przestrzeni konstruktorstwa imaginacyjnego sami nie potrafimy symulować,
komputery
potrafią. Mózg nasz, dzięki historii swojego powstania, odziedziczył i rozwinął
życie afektywne,
te wszystkie rodzaje ujemnych i dodatnich emocji, stresów, uczuć, uciech,
cierpień, smutków,
radości, rozkoszy, boleści, które „bezświadomemu bytowaniu” komputerów pozostają
totalnie
obce, bez których komputer obejść się MUSI, bez których — jak twierdzi
neurofizjolog — nigdy
komputer naśladować człowieka w jego bytowaniu świadomym nie będzie w stanie.
8
Co do tego, że teraz tak jest, oczywiście, zgoda. Czy tak będzie zawsze — nie
wiem, i to z
kilku powodów, z których nie wszystkie zapewne uda mi się tutaj wyłuszczyć.
Strefa
oddziaływania psychiki naszej na procesy toczące się w naszym organizmie jest
bez wątpienia
ogromna i nie wiadomo, gdzie przebiegają nasze granice. Wiemy już na przykład,
że nawet
tkanka, nad którą ciało ludzkie władzy nie ma, „tkanka zbuntowana”,
anarchistyczna, więc
nowotworowa wprawdzie SAMA nie podlega wpływowi mózgu, ale obrona przed nią
organizmu od stanu, w jakim znajduje się umysł chorego, wyraźnie zależy.
Zdeprymowani
stawiają ciałem opór słabszy aniżeli ci, co żyć chcą, potrafią chcieć i tym
samym opór stawiają
znaczny zagrożeniu śmiertelnemu. W depresji umysłu natomiast wszystkie funkcje
ciała więdną i
słabną, a w pobudzeniu się potęgują: stąd pochodzi krąg schorzeń
cyklofrenicznych (więc typowa
dla tego kręgu naprzemienność depresji i pobudzania maniakalnego). I to o tyle
nie jest ze
wszystkim od rzeczy, że program, pozwalający komputerowi symulować inną chorobę
umysłową
— paranoję mianowicie — został stworzony już dość dawno temu. Poza życiem
uczuciowym,
którego „potrzeba” jest dla nas w jakiś trudno wytłumaczalny sposób oczywista,
jesteśmy
poddanymi władzy Morfeusza: trzecią część życia przebywamy, czy jak ktoś by
chciał,
„marnujemy”, we śnie. Na pytanie: PO CO jest nam sen, a w szczególności „czemu
służy” senne
marzenie, nie ma jedynej wyraźnej odpowiedzi do dzisiaj i dlatego właśnie
(ponieważ pada
odpowiedzi różnych wiele) NIC pewnego w kwestii owej nie wiadomo. Bez snu
człowiek obejść
się przez czas nieco dłuższy od tygodnia właściwie nie może. Natomiast komputery
nie śnią i
„potrzeby” takiej nie zdają się okazywać. Cóż i to znaczy?
9
Zdaje mi się — chcę się wypowiadać z przezorną ostrożnością — że zdany
pozytywnie test
Turinga — rozumiem przezeń nierozróżnialność człowieka od maszyny w najdłuższym
nawet
„egzaminie” — nie wyjaśni wcale, czy maszyna ma świadomość, czy nie. Kwestię tę
zresztą
(rzekło się) roztrząsałem jak umiałem przed trzydziestu laty w nazwanej wstępnie
książce i
uznałem wtedy, że do symulacji zachowania językowego, czyli do naśladowania
rozumnego
interlokutora, można by zbliżać się stopniowo, kolejnymi aproksymacjami, po
każdej przegranej
„partii” dokonując usprawnień i programu, i maszyny, aż w ten sposób (może i
bardzo
niepraktyczny) doszłoby się do skonstruowania jakiegoś molocha elektronicznego,
który nie
tylko osoby z kręgu służby domowej, ale i maturzystów, a nawet profesorów
uniwersytetu omami
udawanym człowieczeństwem. Czy jednak z tej doskonałej sztuki wynikłoby jakieś
poniżenie dla
naszej, ludzkiej istoty? To jest już kwestia wybiegająca poza ostatnią granicę
ocen
konstruktorstwa.
10
Niedawno czytało się i w codziennej prasie o pierwszym „romansie” jakoby
stworzonym
przez komputer. Było to bardzo kulawe i niezbyt sensowne przedsięwzięcie,
ponieważ na pewno
komputer „nic nie rozumiał”, rzeczywisty autor dawał mu po prostu możliwość
wyszukiwania
„właściwej deskrypcji” pewnych stanów bohaterki — było to na dobrą sprawę
przedsięwzięcie,
mające na celu profit, ponieważ wielu ludzi zechce nabyć powieść, której autorem
„jest
komputer”. Ale też rzec trzeba, że komputery wprzęga się do sfery „porno”, gdyż
są po temu
odpowiednie programy, pokazujące to, na czym znawcy zależy. Lecz owo wprzęganie
wysokich
umiejętności technologicznych, świetnych owoców nauki, do prac niskich, głupich,
prymitywnych, brutalnych i wstrętnych stanowi jedno z większych rozczarowań,
typowych dla
schyłku dwudziestego wieku, które szczególnie wstrętnym sposobem wykoleiły moje
dawne
prognozy: jak gdyby światłe moce zostały zmuszone do wleczenia ciemnych chętek i
żądz,
których mieszkaniem jest także człowiek.
11
Nie wszcząłem rzeczy od testu Turinga, ażeby go tak czy owak po swojemu
rozstrzygnąć.
Bawiąc się w prognozowanie, rzec można, że w przyszłości łatwiej będzie
komputerowi
naśladować człowieka aniżeli człowiekowi — komputer. Kosmologiczna symulacja, w
swoim
czasie opublikowana przez „Scientific American”, pokazująca, jak będzie
„wyglądał”
Wszechświat za sto miliardów lat, JEŻELI jego łączna masa nie wystarczy, aby go
„zamknąć”,
więc będzie się rozszerzał, a.: wszystkie ognie gwiazdowe wypalą ze szczętem
swoje atomowe
zasoby, była imponującą demonstracją tego dalekosiężnego rygoru komputacyjnego i
zarazem
symulacyjnego, którego nam albo nie dostaje, albo który wymagałby pracy setek
matematyków
przez setki lat. Ale już na naszym horyzoncie pojawia się szansa, moim zdaniem,
oryginalniejsza
od odpowiedzi na test Turinga. Mianowicie symulacje komputerowe procesów
ewolucyjnych
odbywają się na razie wyłącznie „we wnętrzu” maszyn i olbrzymi rozziew
przepaścisty między
światem realnym a światem cyfrowym (między „ciałem i duchem”, „materią i
informacją”)
pozostaje nadal otwarty, lecz mogą rozpocząć jego zapełnianie nowe twory, które
są
konstrukcyjnie i informacyjnie zarazem „wyhodowanymi” prototypami małych,
pseudożywych
(chociaż martwych, chociaż nafaszerowanych tylko elektroniką) „stworzonek”,
służących na
razie zabawie rozmaitych „nanologów”, inżynieryjskich dziwaków, ale które mogą
dać w
przyszłości początek takiej ewolucji, która by samoistnie wystartować do biegu
nie mogła.
Byłaby to „ewolucja quasi–mechaniczna”, czy może informatyczno–elektroniczna
raczej, a
nawet molekularno–kwantowa, jak powiadam, przez ludzi wszczęta i przez ludzi
kierowana i
sterowana, ale zdolna na którymś etapie do „przejęcia pałeczki”, czyli do
okazania „inicjatywy
samorodnej”, danej wzmagającą się suwerennością i powstającymi trendami
specjalizacyjnymi.
DO CZEGO by taka ewolucja służyć miała? To pytanie trochę za wcześnie
postawione;
ponieważ i pytanie, postawione braciom Montgolfierom, „do czego służyć może”
papierowy
balon, unoszony przez ogień nagrzanym powietrzem, nie doprowadziłoby podówczas
do
odpowiedzi, że do lotów z kontynentu na kontynent. Inny, nie istniejący
kontynent MOŻE zostać
dzięki bardzo ludzkim pasjom konstruktorskim w przyszłości odkryty — i nie
wiadomo, wiele
nam przyniesie jego zawłaszczenie korzyści… ale i klęski. W powieści Fiasko
dałem o nich co
nieco do zrozumienia… ale tym jednostronnym, bo militarnym sposobem, który,
niestety,
dowodzi agresywnej, skażonej natury naszego gatunku…
12
Historia informatyki, rozszerzonej na najpierwsze początki „przetwarzania
danych” aż po
współczesność antropocentryczną i wyprowadzona z tej współczesności aż po
horyzont
przyszłych możliwych dokonań czy samoziszczeń, ta historia, obejmująca
biogenezę, która trzy
miliardy lat trwała i zrodziła świat wielokomórkowców, z którego przez gałąź
hominidów
wyszedł Człowiek, otóż owa olbrzymia, bo już mierzalna w geologicznej skali
całość, jeżeli
byśmy stłoczyli ją gwałtownie do orzeczenia o kształcie aforyzmu, tak oto by się
przedstawiała.
Data processing poczęło się w najprostszych pierwocinach samoorganizacji, czyli
życia, a
zatem w skali molekularnych autoreplikatorów; z nich powstał kod genetyczny,
który przeinaczał
się przez miliardy lat, aż zdobył tę potencję prospektywnych wzmocnień
rozrostowych, co
zrodziła i ameby, i dinozaury, i nas, a my z kolei, już w makroskali, najpierw
WPROWADZAMY data processing do komputerowych wnętrzności, gdzie oczyszczona z
brzemienia cielesnego informacja z informacją krzyżuje się i informacją żywi w
przyspieszeniu,
jakiego nigdy by życie „samo” nie doścignęło. A gdy ten etap „autonomii
informatycznego
ewoluowania” opuści komputery, bo wcieli się w wytworzone w ich rozwojowym
projektowaniu
technobionty, czyli jednostki wprawdzie podług metryki martwo zrodzone, ale
podług
aktywności funkcjonalnej ,jak gdyby żywe”, i to „żywe w akceleracji”, ta
olbrzymia panorama
przeszłości, teraźniejszości i przyszłości okaże się spójnym logicznie systemem,
w którym
mikrożycie poczęło makrożycie, które poczęło „zuniwersalizowane pożycie” — od
molekuł
przez organizmy do nieznanych nam jeszcze, i nawet własnej nazwy dziś nie
noszących
„technobiontów”. Jeżeli tak myśleć i tak patrzeć, można uznać, że ten ciąg
rozwojowy, z
człowiekiem nie jako metą ale jako cezurą panewolucji, zdoła wyjść w Kosmos, do
którego —
jak już pouczyły nas zaczątki astronautyki — cieleśnie, ale i zmysłowo, i
psychicznie bardzo
marnie jesteśmy zdatni, ponieważ zbyt trwale odcisnęły się w człowieku oznaki,
atrybuty i
ograniczenia spowodowane jego tylko ziemskim, tylko hominidalnym, tylko
lokalnym,
podsłonecznym powstaniem. Wizja ta nie jest prognozą, lecz niczym więcej, jak
prognozy
obecnie jeszcze fantastyczną możliwością. Prawdopodobieństwo ziszczenia musi być
skromne,
lecz każde zaranie późniejszych, dojrzałych szczytowań takie musi być zawsze.
Można jednak na
powyższy obraz spojrzeć również jako na tragifarsę, co się zdarzyła albo raczej
może zdarzyć
Rozumowi człowieka, który uznał siebie za najświetniejszą Stałą Kosmiczną,
chociaż okaże się
tylko preludium do następnej, transantropicznej fazy „informacyjnego zdobywania
Wszechświata”. W takim ujęciu zdobywa owa projektowana całość posmak szydliwy,
jeżeli
byśmy mieli uznać za porażkę akt deuniwersalizacji, czyli zdetronizowania
naszego,
śmiertelnego Rozumu…
„Bariera informacyjna?’
1
W książce Summa Technologiae, liczącej sobie dobrych trzydzieści lat,
wprowadziłem
metaforyczne pojęcie „bomby megabitowej” oraz „bariery informacyjnej”. Kluczem
do zasobów
poznania jest, pisałem, informacja. Gwałtowny wzrost liczby uczonych od
Rewolucji
Przemysłowej wywołało znane zjawisko: ilość informacji, jaką może przesłać
określonym jej
kanałem, jest ograniczona. Nauka jest takim kanałem, łączącym cywilizację ze
światem
pozaludzkim i ludzkim. Wzrost liczby uczonych oznacza zwiększenie przepustowości
tego
kanału. Lecz proces ten, jak każdy wzrost wykładniczy, nie może biec przez czas
dowolnie długi:
kiedy zabraknie kandydatów na uczonych, eksplozja „bomby megabitowej” uderzy w
„barierę
informacyjną”.
2
Czy w tym obrazie zmieniło się coś po trzydziestu latach? Najpierw chcę
zauważyć, że próby
ustalenia granicznej mocy obliczeniowej „ostatecznej generacji” komputerów,
czyli wykrycia —
w dziedzinie informatyki — odpowiednika znanej w fizyce granicznej szybkości,
jaką się
przypisuje światłu, były podejmowane kilkakrotnie, lecz wyniki oszacowań
poważnie się od
siebie różniły.
Biorąc pod uwagę wielkości właściwe fizyce, więc właśnie szybkość światła i
relację
nieoznaczoności ze stałą Plancka, obliczono, że najsprawniejszy komputer, który
zdoła
przetwarzać dane z najwyższą osiągalną szybkością, będzie kostką (sześcianem) o
krawędzi
mierzącej trzy centymetry. Wszelako niedopowiedzianą w założeniach przesłanką
był wyłącznie
szeregowo–krokowy, iteracyjny sposób wykonywania działań, taki, jakim się w
najprostszej
postaci odznacza automat Turinga, który może zajmować tylko jeden z dwu stanów:
zero lub
jedynkę. Jakoż każde działanie każdego komputera tego krokowego (szeregowego)
typu można
wykonać owym najprostszym automatem Turinga, tyle, że to, co jakiś Cray wykona w
ułamku
sekundy, automatowi Turinga zajmie eony czasu.
Lecz rychło spostrzeżono, ze można również konstruować komputery z równoległymi
programami, aczkolwiek ich programowanie i funkcjonowanie stanowi serie bardzo
trudnych do
rozwiązania problemów. Dowód na to, ze takie komputery są konstruowalne, nosimy
w czaszce:
mózg bowiem głównie, chociaż nie tylko dzięki swej budowie — jest swoistym
rodzajem
odpowiednika komputera paralelnego, złożonego z dwu wielkich podzespołów
(półkul), a w nich
z kolei też panuje bardzo dziwna dla człowieka jako konstruktora „strategia
alokacji”
podzespołów niższych rzędów.
Dla neurofizjologów był to prawdziwy chaos, złożony z samych zagadek, a objawy
wypadania
poszczególnych funkcji, np. przy afazji, amnezji, aleksji itd., potrafili ci
badacze wykrywać, ale
nie umieli ich przyczynowo i czynnościowo wyjaśnić. Zresztą bardzo wielu tych i
podobnych
zjawisk nadal w naszym mózgu nie pojmujemy jak należy. Mózg może pobierać
informację z
szybkością od 0,1 do 1 bita na sekundę, natomiast dzisiaj potok nowej informacji
dociera doń z
szybkością leżącą między trzema a dwudziestoma bitami na sekundę.
Całość ludzkiej wiedzy ulega podwojeniu z grubsza co pięć lat, przy czym ów czas
podwojenia stale się zmniejsza. Na przełomie XIX i XX wieku okres ów wynosił
około 50 lat.
Codziennie publikuje się na świecie 7000 artykułów, drukuje się ponad 300
milionów gazet, a
książek 250 000, aparatów zaś radiowych i telewizorów już jest ponad 640
milionów. Ponieważ
dane te pochodzą sprzed czterech lat, niechybnie są już zaniżone, zwłaszcza
wskutek
gwałtownego przyboru wiedzy w dziedzinie telewizji satelitarnej.
Ilość już zgromadzonej przez ludzkość informacji ma wynosić 1014 bitów i do roku
dwutysięcznego ulegnie podwojeniu. Niewątpliwie informacyjna chłonność mózgu już
uległa
wyczerpaniu: poza nauką objawy tej „informacyjnej astenii” można dostrzec
znacznie łatwiej
aniżeli w samej nauce, zwłaszcza jeżeli jej obszar ograniczymy do nauk ścisłych.
Otacza je
„halo” w postaci pseudo– i auasinauk, cieszących się wszędzie znaczną
popularnością, ponieważ
z reguły chodzi o „wiedzę” wprawdzie bezwartościową i fałszywą (astrologię,
znachorstwo,
sekciarskie dziwactwa typu „Christian Science” i wszystkie „psychotroniki”, jak
telepatia,
telekineza, „wiedze tajemne”, wiadomości o „talerzach latających” lub
„tajemnicach piramid”
etc), ale mile prostą, kuszącą obietnicami wyjaśnienia ludzkiego losu, sensu
istnienia itd., itp.
Ja tu jednak ograniczam się do terenu nauk ścisłych, w który także zresztą
wtargnęła już
dawno powódź mętnych fałszerstw, nie tylko szkodliwych, ale podważających status
społeczny
nauki; oszustwo w nauce zdarza się bowiem coraz częściej, a sprzyja mu aktualna
wciąż reguła
publish or perish. Wiele czynników współpracuje więc na rzecz wzmagania powodzi
informacyjnej. Natomiast wspomniana wyżej sfera pozanaukowa ulega informacyjnym
samoograniczeniom, które z porównawczego zamierzenia łatwo może spostrzec widz
dysponujący satelitarnym odbiornikiem: pod względem odmienności fabularnej,
prawie
wszystkie nadajniki światowe niezwykle skromnie się od siebie różnią, co znaczy
po prostu, że
programy odległych od siebie państw, krajów i językowych obszarów nieomal
pokrywają się
treściowo.
Nie jest to ani świadome zapewne „odchudzanie telewizyjnej diety”, ani
plagiatowość: po
prostu publiczność, ulegająca przesytowi, woli oglądać warianty fabuł znanych
już, i stąd wciąż
kolejne wersje jakichś Tarzanów, Trzech Muszkieterów, a w USA — walk z
Indianami, wojny
secesyjnej, w Europie zaś — ostatniej wojny światowej. Informacyjna alergia w
zakresie
wizualnym jest szczególnie natarczywa, innowacji obawiają się w stacjach
nadających gorzej niż
ognia, natomiast cenią innowacyjne pozory. Oczywiście nie bawię się tu w
krytyka, ponieważ nie
wartościuję i tym samym nie deprecjonuję programów, co skądinąd byłoby łatwizną,
lecz staram
się tylko obniżyć głębszą, czysto percepcyjną przyczynę faktu znanego
telewidzowi z
doświadczenia, którego istota w dziwacznym podobieństwie mnóstwa rzekomo całkiem
odmiennych, osobno tworzonych programów: mianowicie trudno zazwyczaj zorientować
się,
jeśli wyłączyć fonię, czy oglądamy obraz emitowany w Turcji, Wielkiej Brytanii,
Holandii,
Szwecji, Danii, Hiszpanii itd., bo zewsząd płynie do naszej anteny omalże ta
sama kaszka manna
z pieprzem.
3
Przed informacyjną powodzią ratuje się więc przeciętny człowiek zarówno redukcją
ulewy
bitów, jak i eliminacją tych, co nie są jakoś „konieczne” dla umysłowej
absorpcji. W życiu
codziennym polega to na wzmożonym etnocentryzmie mediów, na „narastającej
gruboskórności”
względem treści, które mogą szokować lub ranić uczuciowo, lecz w nauce tego
rodzaju
wstrzemięźliwości nie są dopuszczalne. Stąd narastająca waga posiłków, jakie
przynosi tam
informatyka dywizjami komputerów. Jak każde zjawisko nowe, chociaż właściwie już
nie nowe
literalnie, komputeryzacja stała się niezb�