Wojciechowski M.

Wojciechowski M. Psycholog biznesu |
szkolenia &
consulting sprzedaży

Temat: Cywilizacja: wizja przyszłości.

Przed nami rysuje się fantastyczna przyszłość. Ale też wiele zagrożeń, które mogą zniweczyć ambitne plany rozwoju cywilizacji. Jak wyglądać będzie świat za pół wieku?

Wielu wybitnych badaczy współczesności wystrzega się przewidywania przyszłości. Daniel Bell, amerykański socjolog, który w 1973 r. napisał jedną z najważniejszych analiz przemian społeczeństwa przemysłowego w postindustrialne („The Coming of Post-Industrial Society”), stwierdza wprost: coś takiego jak przyszłość nie istnieje. Owszem, nadejdzie, ale dziś jej nie ma, więc mówienie o niej to czcze gdybanie. Rozmawiać o przyszłości nie chce Manuel Castells, profesor University of Berkeley, najważniejszy bodaj badacz społeczeństwa informacyjnego. Mówi, że jest socjologiem, a nie futurologiem i może analizować co jest, a nie co ewentualnie będzie. W końcu Karl R. Popper, wielki filozof dwudziestowieczny, także stwierdził, że nie sposób przewidzieć przyszłości, bo nie można przewidzieć rozwoju nauki. A skoro tak, to nie mają sensu wszelkie pomysły głoszące, że istnieje logika rozwoju społecznego, umożliwiająca zaplanowanie idealnego ustroju.

Popper pisał swą „Nędzę historycyzmu” (PWN, 1999), a potem „Społeczeństwo otwarte i jego wrogowie” (PWN, 1993) w odpowiedzi na rozwój totalitaryzmu w Europie, który w wariancie komunistycznym odwoływał się do odkrytych przez Marksa praw rządzących historią. Gdy w końcu w 1989 r. historia przyznała rację Popperowi i komunizm runął, wielką popularność zyskał Francis Fukuyama, amerykański politolog, który ogłosił „Koniec historii” (Zysk i S-ka, 1996). Z tezy tej wycofał się w książce „Koniec człowieka” (Znak, 2004), gdzie przyznaje rację Popperowi – historia nie skończyła się, bo nie ustał rozwój nauki i opartej na niej techniki. W jakim kierunku pójdą, nikt, niestety, nie jest w stanie przewidzieć.

Zerowa skuteczność

Rzeczywiście, przyglądając się najważniejszym wydarzeniom z ostatniego półwiecza naszej naukowo-techniczno-informatycznej cywilizacji nie sposób ukryć zdumienia, że większość formułowanych w tym okresie prognoz była nietrafiona. Nie doszło do ekonomicznej konwergencji systemu kapitalistycznego i socjalistycznego, zapowiadanej jeszcze w latach 60. Konfrontację wygrał wolnorynkowy kapitalizm, wykazując większą sprawność niż gospodarka oparta na centralnym planowaniu. Kapitalizm wygrał także dlatego, że nie spełniły się prognozy zapowiadające śmiertelny kryzys, wieszczony m.in. w raporcie Klubu Rzymskiego. Do dziś globalna gospodarka nie osiągnęła bariery wzrostu. Ba, do dziś nie spełniły się zapowiedzi wyczerpania surowców energetycznych, zwłaszcza ropy naftowej. Na wysoką cenę tego paliwa większy ma ciągle wpływ sytuacja geopolityczna niż rzeczywisty stan zasobów.

Nie sprawdziły się także optymistyczne prognozy zapowiadające, że do końca XX w. powstanie na Księżycu stała stacja kosmiczna. Nie zdołano – mimo wielkich nakładów i naukowego wysiłku – poskromić raka. Nie nadeszła epoka sztucznej inteligencji, ciągle mamy problemy ze „zwykłymi” komputerowymi tłumaczeniami na różne języki, ciągle także nie najlepiej sprawdza się możliwość porozumiewania z komputerami za pomocą głosu, choć prace nad tzw. interfejsem głosowym trwają od wielu lat. Nie doczekaliśmy się odkurzaczy napędzanych miniaturowymi reaktorami jądrowymi, a wojsko, Bogu dzięki, nie dostało na wyposażenie atomowych ręcznych granatów.

Z drugiej strony – większość prognoz dotyczących rozwoju technologii telekomunikacyjnych i informatycznych była niedoszacowana, by wspomnieć tylko błędnie zaniżone przewidywania popytu na komputery, komputery osobiste, telefony komórkowe czy pojawienie się Internetu.

Czyżby więc rację miał pisarz Andrzej Stasiuk, pisząc w swej książce „Fado”: „Futurologia zawsze budziła we mnie odrazę, ponieważ wydawała mi się owocem tchórzostwa i dezercji, porzuceniem własnej kondycji. Nigdy nie myślałem o przyszłości jako o jakimś rozwiązaniu. Przyszłość jest zawsze ucieczką głupców. Nadchodzi, a oni muszą ją usprawiedliwiać, że nie nadeszła taka, jak trzeba, albo udowadniać, że jest właśnie taka, jak zapowiadali”. Zamiast więc zajmować się głupstwami, laureat nagrody literackiej Nike woli „upijać się w samotności albo z przyjaciółmi i czekać, aż minione weźmie nas w posiadanie. Zawsze lepiej jest obcować z bytami skończonymi niż potencjalnymi. Po prostu przeszłość traktuje nas poważnie, czego nie można powiedzieć o przyszłości”.

Paliwo cywilizacji

Cóż, wizja być może mniej odrażająca niż futurologia, ale nie można jej zaakceptować. Bo wola tworzenia przyszłości jest tak samo istotnym elementem naszej cywilizacji jak surowce energetyczne oraz nauka i technika. To właśnie przyszłość jest motorem napędzającym nasze codzienne starania. Nie tylko pijemy, myśląc o lepszej przeszłości, ale bierzemy kredyty w przekonaniu, że zdołamy je spłacić. Gwarantem naszej wypłacalności jest przekonanie, że gospodarka będzie się rozwijać, co oznacza wiarę, że nie wyczerpie się źródło naukowych odkryć i technologicznych innowacji, powodujących nieustanny wzrost efektywności ekonomicznej machiny. Co stanie się, gdy ta wiara wygaśnie? Odpowiedzi udzielił już w 1980 r. historyk i filozof Krzysztof Pomian w eseju „Kryzys przyszłości”: „...nasza cywilizacja zależy tyleż od przyszłości co od ropy naftowej; gdy przyszłość się wyczerpie – runie, niczym samolot, któremu zabrakło paliwa”.

W takiej sytuacji istotniejsze niż dokładność prognoz jest samo ich istnienie, gotowość i chęć namysłu nad przyszłością traktowaną nie jako fatum, lecz wyzwanie, z którym człowiek siłą swej inwencji może sobie poradzić. Analiza doświadczeń prognostycznych z historii pozwala uchwycić pewne prawidłowości, o których warto pamiętać, zastanawiając się nad dalszym rozwojem cywilizacji.

Dlaczego udało utrzymać się harmonogram lotu na Księżyc? Bo wyzwanie to, choć wymagało wielkiego wysiłku finansowego i organizacyjnego, nie było w istocie wielkim wyzwaniem pod względem naukowym. Niezbędna wiedza była dostępna, zadanie miało w gruncie rzeczy charakter inżynierski i polegało na rozwiązywaniu problemów technicznych. Podobnie wielki program końca XX w. Human Genome Project (Projekt Poznania Genomu Ludzkiego) ukończono nawet przed czasem: techniki sekwencjonowania i rozszyfrowywania genów były doskonale znane, jedyne, co mogło wpłynąć na postęp prac, to pojawienie się nowych, wydajniejszych metod analizy.

Inaczej już jednak sprawa wygląda z problemami, w których przynajmniej część tajemnicy kryje się w nieznanej wiedzy. To właśnie nieznajomość podstawowych mechanizmów biologicznych powoduje, że ambitne projekty eliminacji raka kończą się niepowodzeniem. A nieznajomość mechanizmów działania ludzkiego mózgu – że ciągle bardzo daleko jesteśmy od symulacji jego funkcji za pomocą komputerów, zaś hasło sztucznej inteligencji cały czas bliższe jest literaturze science fiction niż rzeczywistości.

Nieposkromiona wynalazczość

Nie tylko jednak stan wiedzy ma wpływ na rozwój cywilizacji i upowszechnianie się nowych technologii. Alfred N. Whitehead, wielki filozof i matematyk brytyjski, stwierdził w latach 30. XX w., że największym osiągnięciem XIX stulecia był wynalazek masowego „wytwarzania” wynalazków. To właśnie w II połowie XIX w. wielkie korporacje, jak również rządy niektórych państw (zwłaszcza Prusy) doszły do wniosku, że proces technologicznego rozwoju można przyspieszyć, a nawet do pewnego stopnia zaplanować, zwiększając nakłady finansowe na badania i koncentrując je w dużych laboratoriach. Do tego czasu wynalazczość była domeną przedsiębiorców-amatorów (by wspomnieć Samuela Morse’a, Grahama Bella, Nicolę Teslę czy Thomasa Edisona). Od końca XIX stulecia zaczęła być elementem polityki korporacji i państw. Nie stałoby się tak, gdyby nie przekonanie, że to właśnie inwestycje w badania i rozwój są kluczowym czynnikiem panowania nad przyszłością. Projekt Manhattan, który doprowadził do zbudowania bomby atomowej (patrz: Zeszyt 1), a potem projekt Apollo, to najbardziej spektakularne przejawy takiego myślenia. W rezultacie tej polityki sektor badań i rozwoju zaczął się rozwijać w państwach nowoczesnych w tempie wykładniczym. Tylko w USA roczne nakłady na badania i rozwój wzrosły między 1953 a 2000 r. ośmiokrotnie, w podobnej proporcji wzrosła liczba zgłaszanych rocznie patentów. Ośmiokrotnie wzrosła też liczba naukowców i inżynierów.

Uprzemysłowienie wynalazczości to warunek konieczny, ale nie wystarczający dla zapewnienia technologicznego postępu. Nie każdy bowiem wynalazek staje się społeczną innowacją. Upowszechnianie się nowych technologii to proces nie mniej złożony niż sama wynalazczość i zależny zarówno od systemu politycznego, jak obowiązujących norm prawnych i kulturowych. Wynalazek druku, mimo że wywodzi się z Chin, w samych Chinach, zamkniętym Państwie Środka, nie wywołał większych zmian. W średniowiecznej Europie doprowadził do społecznej rewolucji, której żniwo zbieramy do dziś. W zamkniętym systemie komunistycznym inż. Jacek Karpiński mógł stworzyć na początku lat 70. znakomity mikrokomputer K-202, ale nie miał szansy doprowadzić do upowszechnienia tej innowacji. Do wybuchu komputerowej rewolucji potrzebna była otwarta atmosfera kalifornijskiej Krzemowej Doliny.

Dlatego przyglądając się zapowiedziom tego, co technicznie możliwe, należy pamiętać, że rzeczywistością stanie się tylko to, co zaakceptujemy jako ludzie i społeczeństwa. Jakich więc niespodzianek możemy spodziewać się w świecie techniki w perspektywie najbliższych dziesięcioleci? Niezwykle ciekawą listę przygotował w 2005 r. zespół analityków z British Telecom. Oto najważniejsze „fakty z przyszłości” z zaproponowanego przez nich „BT Technology Timeline”.

Kalendarz przyszłości

Już w perspektywie najbliższych 10 lat spodziewać się możemy szybkiego rozwoju technologii sztucznej inteligencji. W efekcie do 2015 r. nawet 25 proc. gwiazd elektronicznej rozrywki będzie tworami syntetycznymi, a coraz większa liczba postaci, z którymi będziemy wchodzić w relacje w Internecie, będzie miała charakter wirtualny i nie zdołamy tego rozpoznać. Bo i jak, skoro do 2015 r. organizm zaopatrzony w sztuczną inteligencję zdoła zdać maturę, a do 2020 r. obronić pracę magisterską? W tej też perspektywie spodziewajmy się pierwszych androidów w roli parlamentarzystów. Dopiero jednak w latach 50. XXI w. – zdaniem brytyjskich prognostów – piłkarska drużyna humanoidalnych robotów rozgromi reprezentację Anglii.

Postępom w opanowywaniu sztucznej inteligencji towarzyszyć będzie rozgryzanie tajemnic biologii. W perspektywie lat 20. uczeni zdołają konstruować syntetyczne organizmy wielokomórkowe oraz odtwarzać wymarłe gatunki. Zdolność materii ożywionej do samoorganizacji wykorzystywana będzie do tworzenia układów elektronicznych, świat elektroniki zacznie integrować się ze światem biologii na najniższym, cząsteczkowym poziomie. W końcu w perspektywie lat 30. będziemy mieli do czynienia z obdarzonymi inteligencją jogurtami, a komputery – jakkolwiek jeszcze będą wówczas wyglądać – zdołają same tworzyć dla siebie oprogramowanie oraz nadzorować i kontrolować produkcję urządzeń, np. robotów inteligentniejszych od ludzi.

Zdaniem Brytyjczyków ten rozwój technologii bioelektronicznych powinien wyjść nam na zdrowie. W perspektywie 10 lat poznamy ponad 90 proc. genetycznych uwarunkowań schorzeń, co umożliwi rozwój spersonalizowanych terapii. Do tego bowiem czasu standardowym elementem osobistych danych zapisanych w pamięci elektronicznego dowodu tożsamości będzie sekwencja genomu, umożliwiająca także projektowanie spersonalizowanej, modyfikowanej genetycznie żywności. Rozwój inżynierii materiałowej doprowadzi do przełomu w transplantologii, umożliwiając zastępowanie kości naturalnych plastikowymi, odtwarzanie zębów oraz wszczepianie syntetycznych organów wewnętrznych. By życie nie straciło uroku, w perspektywie 2015 r. uzyskamy dostęp do takich przyjemności jak orgazm przez e-mail. Pod koniec lat 20. powinniśmy już wyjaśnić genetyczne, chemiczne i fizjologiczne podstawy ludzkiego zachowania, co najpierw umożliwi wspomaganie funkcji intelektualnych za pomocą technik bioelektrochemicznych. W latach 40. XXI w. spodziewajmy się sztucznego mózgu.

Wcześniej jednak będziemy musieli się napracować – ze względów demograficznych w ciągu 10 lat wiek emerytalny zostanie podniesiony do 75 lat. Chyba że stanie się to zbędne, bo zgodnie z jednym z kontrtrendów do 2020 r. ponad 10 proc. populacji stanowić będą androidy, czyli inteligentne roboty. Być może zdołamy zagonić je do pracy. Chyba że stanie się odwrotnie. Wobec tej perspektywy zapowiedź, że w ciągu 10 lat będziemy mogli oglądając film samodzielnie obsadzać w rolach wirtualne postaci aktorów, wydaje się trywialna. Mniej trywialna jest zapowiedź problemów społecznych, z których jednym z poważniejszych okaże się „VR escapism”, czyli uciekanie przed trudami realnego życia do wirtualnej rzeczywistości i oddawanie się sztucznym uciechom za pomocą takich urządzeń jak orgazmotrony. Polityczna i ekonomiczna integracja świata doprowadzi do globalnych głosowań i wyborów, przynajmniej w niektórych sprawach.

W okolicach 2030 r. spodziewajmy się konstrukcji Matriksa, przygotowaniem do tego momentu będzie rozwój metod komunikacji z maszynami. Już za dziesięć lat rozpoznawanie myśli stanie się rutynowym interfejsem użytkownika, by w latach 20. przekształcić się w pełne bezpośrednie połączenie mózgu z maszyną. Nie łudźmy się, że w związku z postępem technicznym wygasną wojenne skłonności człowieka. Pojawią się bowiem nowe dla nich powody: migracje wywołane globalnym ociepleniem i ucieczką ludzi z terytoriów położonych nad brzegami mórz oraz brak wody zdatnej do picia. Już za 10–15 lat (choć wojen o wodę spodziewajmy się nawet wcześniej) najzamożniejsi znajdą schronienie przed tymi kataklizmami w zamkniętych miastach. Wojny w ich imieniu prowadzić będą androidy-gladiatorzy oraz bezzałogowe niewidzialne czołgi i samoloty.

Progności z British Telecom nie mają złudzeń, że ich wizje uciech w orgazmotronach spodobają się wszystkim. Już na początku przyszłej dekady spodziewać się więc można masowych antytechnologicznych buntów. Co będzie groźniejsze? Owe bunty, wojny o podstawowe zasoby czy może ataki terrorystów, którzy w latach 20. opanują technologie biologiczne i informatyczne, by tworzyć nowe zagrożenia na globalną skalę? Załóżmy, że cywilizacja nie rozpadnie się pod naciskiem tych zagrożeń, wówczas rozwiązaniem niedoborów zasobów energetycznych stanie się eksploracja kosmosu. Najpierw człowiek ruszy na Księżyc, by w perspektywie końca lat 20. ustanowić tam bazy-kopalnie helu 3 – paliwa dla syntezy termojądrowej. I niewykluczone, że w latach 40. w najlepsze będziemy pozyskiwać brakującą wodę z kopalń na Marsie.

„BT Technology Timeline” zawiera także kategorię wydarzeń możliwych, nie mieszczących się jednak w systematycznych klasyfikacjach. Oto tylko niektóre: pandemia nowego wirusa powodująca śmierć setek milionów ludzi, katastrofa kosmiczna – zderzenie Ziemi z planetoidą lub inwazja inteligentnych form życia z kosmosu, zanik Golfsztromu, wielki kryzys gospodarczy, głód wywołany globalną katastrofą ekologiczną.

Pełzająca rewolucja

Technologiczna mapa przyszłości stworzona przez analityków zawiera setki elementów, które po bliższym przyjrzeniu się tworzą spójną konstrukcję. Jej walor nie wynika z ewentualnej ścisłości kalendarzowej. To nie takie istotne, czy twory obdarzone sztuczną inteligencją zastąpią naszych parlamentarzystów w wyborach w 2020 r. czy 10 lat później. „Technology Timeline” ujawnia natomiast pewną logikę technologicznego rozwoju, która choć nie musi prowadzić (pamiętamy o twierdzeniu Karla Poppera) do zdeterminowanych rezultatów, to jednak niewątpliwie doprowadzi w perspektywie nadchodzących dwóch dekad do zmian, jakie trudno sobie dziś wyobrazić.

Co najważniejsze, owe prognozy nie są gdybaniem wróżki patrzącej w kryształową kulę. Ostatnie stulecie rozwoju cywilizacji technicznej pokazało, że ziarna przełomowych technologii (disruptive technologies, jak je nazywają badacze techniki i innowacyjności) zaczynają kiełkować na kilkadziesiąt lat przed eksplozją i umasowieniem. Zanim tranzystor i związana z nim elektronika półprzewodnikowa zaczęły w rewolucyjny sposób zmieniać świat, od połowy lat 50., upłynąć musiało następnych 30 lat prac naukowych i technicznych. Od uruchomienia ENIACA, pierwszego komputera cyfrowego, do rewolucji komputerów osobistych w latach 80. ubiegłego stulecia minęło 40 lat. Od uruchomienia pierwszego automatycznego telefonu komórkowego w 1956 r. do eksplozji GSM minęło 35 lat; nie inaczej rzecz się miała z telewizją i Internetem. Co wynika z tych spostrzeżeń? Że technologie, które zdefiniują techniczny wymiar naszej cywilizacji w ciągu najbliższych 30 lat i ewentualnie doprowadzą do opisywanych w „BT Technology Timeline” konsekwencji, są już w tej chwili intensywnie rozwijane w korporacyjnych i akademickich laboratoriach.

Co ważniejsze, w ciągu ostatniego półwiecza zrozumieliśmy dynamikę tego rozwoju, którą najlepiej wyraża tzw. prawo Moore’a, sformułowane w 1965 r. Zgodnie z nim wydajność mikroprocesorów podwaja się co 18 miesięcy. To powoduje, że dynamika rozwoju technologii informatycznych ma charakter wykładniczy. Później okazało się, że w podobnym tempie zwiększa się wydajność sieci teleinformatycznych i maleją koszty pamięci elektronicznych. Dziś na rynku pojawiły się dyski twarde o pojemności 1 terabajta (1000 GB), które można kupić za kilkaset dolarów. Pod koniec lat 70., gdy powstawał protokół TCP/IP, będący podstawą funkcjonowania Internetu, za jeden terabajt pamięci trzeba było zapłacić 100 mln dol.

Rosnące tempo

Ray Kurzweil, amerykański technologiczny geniusz i wynalazca, który opracował wiele istotnych technologii, jak choćby pierwszy skaner płaski i pierwszy syntezator dźwięku, przestrzega, że ciągle nie rozumiemy doniosłości konsekwencji wykładniczego tempa rozwoju techniki. Myślimy bowiem w kategoriach liniowych, przyjmując, że ostatnie 10 lat rozwoju jest dobrym modelem dla następnej dekady. To niewybaczalny błąd, ostrzega Amerykanin. W ciągu następnych 10 lat wydarzy się tyle co w całym przeszłym stuleciu. Z jego wyliczeń wynika, że ludzkość wkroczyła w najbardziej stromo wznoszący się obszar krzywej wykresu opisującego technologiczny postęp. I zaczyna pędzić niczym rollercoaster po wyjściu z zakrętu.

Nie rozumiemy doniosłości tego procesu, bo nie potrafimy analizować natury postępu całościowo. Komputery pracują coraz szybciej, co powoduje, że nie tylko komputerowi gracze mogą korzystać z coraz lepszej grafiki. Głównym odbiorcą mocy obliczeniowych są dziś biolodzy i chemicy. Ci pierwsi wykorzystują wszelką dostępną moc obliczeniową do analizy struktury DNA i białek po to, by lepiej i szybciej wyjaśniać kolejne tajemnice życia. Chemicy z kolei za pomocą coraz potężniejszych komputerów są w stanie coraz lepiej projektować nowe materiały. Postęp w dziedzinie inżynierii materiałowej i biologii oddziałuje z kolei zwrotnie na elektronikę, bo dostarcza nowych materiałów niezbędnych do projektowania jeszcze szybszych mikroprocesorów, pojemniejszych pamięci i szybszych magistral przesyłających dane. Postęp napędza postęp, a za węgłem kolejna rewolucja związana z rozwojem nanotechnologii. Oto inżynierowie, wyposażeni w wiedzę płynącą ze współczesnej biologii, chemii i fizyki, która odsłania się dzięki coraz potężniejszym komputerom, zyskują możliwość projektowania obiektów technicznych na poziomie atomowym.

Kurzweil wyliczył, że już pod koniec obecnej dekady największe superkomputery zyskają moc obliczeniową porównywalną do zdolności przetwarzania danych właściwej ludzkiemu mózgowi. Kilka lat później będziemy zdolni do symulowania funkcji mózgu w komputerze. Jeszcze przed 2020 r. podobne możliwości obliczeniowe zyska laptop wart tysiąc dolarów. Nie minie kolejnych dziesięć lat, by pojedynczy laptop dysponował mocą połączonych wszystkich ludzkich mózgów na Ziemi.

Nie chodzi jednak tylko o szybkość. Rozwijane równolegle (dzięki coraz doskonalszym komputerom) badania nad mózgiem doprowadzą do reverse engineering, czyli odtworzenia i rekonstrukcji jego funkcji za pomocą maszyny. Nadejdzie epoka „uduchowionych maszyn”, jak zapowiada tytuł bestsellera Kurzweila z 1999 r. („The Age of Spiritual Machines”). Znowu jednak nie chodzi o to, że pojawią się obdarzone świadomością urządzenia. Kurzweil zwraca uwagę na czekające nas dwa przełomy, które opisuje w monumentalnej książce „The Singularity Is Near” (Osobliwość jest tuż).

Pierwszy przełom to uzyskanie przez człowieka potencjalnej nieśmiertelności. Za kilkadziesiąt lat medycyna dysponować będzie takimi możliwościami naprawy ludzkiego organizmu i zahamowania starzenia, że śmierć jako naturalny kres życia będzie można wykreślić ze słownika. Drugi przełom dotyczy całego gatunku ludzkiego – to czekająca nas w perspektywie kilkudziesięciu lat Osobliwość, najważniejszy moment w ewolucji od pojawienia się życia. Człowiek stopi się z technologią, powstanie nowy rodzaj życia na Ziemi. Wkroczymy w epokę transhumanistyczną. Etap ten nie kończy jednak ewolucji, jej finałem będzie bowiem nasycenie inteligencją całego Wszechświata.

Prognozy z „BT Technology Timeline” doskonale ilustrują ujawnianą przez Kurzweila logikę wykładniczego tempa rozwoju. Mniej istotna jest ścisłość, a raczej zrozumienie samego faktu, że świat techniki nieustannie przyspiesza.

Szukanie słabości

Przed analizą społeczno-politycznego kontekstu przyszłości warto zastanowić się, czy wizjom analityków BT i Kurzweila nie grożą przeszkody o charakterze fundamentalnym. Niewątpliwie największą niewiadomą jest kwestia sztucznej inteligencji. Czy stworzenie syntetycznego umysłu porównywalnego do ludzkiego, a nawet go przewyższającego, jest w ogóle możliwe? Czy jest wyłącznie kwestią wydajności procesorów i jakości aparatury analitycznej, używanej do rozwikłania struktury mózgu? Wszak superkomputer IBM Deep Blue pokonał szachowego arcymistrza Garego Kasparowa i było to wyłącznie kwestią jego operacyjnej szybkości.

Niestety, nie jesteśmy dziś w stanie z pełnym przekonaniem odpowiedzieć na pytanie o umysł i możliwość realizacji sztucznej inteligencji. Filozofowie tacy jak John Searle przekonują, że umysł jest właściwością immanentnie związaną z materią ożywioną. Czy jednak w takim razie, nawet jeśli nie odtworzymy mózgu w pamięci komputera, zdołamy to uczynić za kilkanaście lat, gdy nastąpi bioelektroniczna symbioza? Nie widać bowiem zasadniczych przeszkód uniemożliwiających stworzenie materii ożywionej „w probówce”. A jeśli tak i jeśli umysł jest cechą materii ożywionej o pewnym stopniu zorganizowania, to wówczas stworzenie sztucznej inteligencji jest tylko kwestią czasu. Chyba że zaistnienie umysłu podobnego do ludzkiego wymaga interwencji innego rodzaju, ze strony sił niematerialnych. To pytanie pokazuje z kolei, że w ciągu najbliższych lat coraz więcej tematów badań czy technologicznych poszukiwań wchodzić będzie w obszar bezpośredniego kontaktu i konfliktu z religią.

Pamiętajmy o przestrogach Kurzweila i nie pocieszajmy się dotychczasowymi niepowodzeniami prac nad sztuczną inteligencją. Uczeni nie poddają się i atakują zarówno kolejne tajemnice mózgu, umysłu i świadomości, jak i możliwości technicznych ich reprezentacji. Rozwijają się takie dziedziny jak neurokognitywistyka, neuroekonomia, a nawet neuroteologia, poszukujące materialnych wyjaśnień dla niematerialnych z pozoru zjawisk, z fenomenem wiary religijnej włącznie. Czy dyscypliny te zdołają dostarczyć zadowalających odpowiedzi? Oczywiście tego nie wiemy.

Wielka niewiadoma: społeczeństwo

Podstawowym jednak problemem, który zdecyduje, jak bardzo przyszłość zbliży się do prezentowanych wizji, jest pytanie o pozanaukowy i pozatechniczny kontekst rozwoju. To pytanie o przyszłość kapitalizmu jako wyjątkowej formacji społeczno-gospodarczej, jedynej, która z innowacyjności i postępu technologicznego uczyniła napędzający ją motor. Czy energia poruszająca ten mechanizm nie wyczerpie się? Pytanie to dręczyło wielu badaczy, by wspomnieć Adama Smitha, Davida Ricardo, Karola Marksa, Maksa Webera, Josepha Schumpetera. Dawali różne odpowiedzi. Dziś, po zamknięciu konfrontacji z komunizmem, wiemy jedno: kapitalizm będzie trwać tak długo, jak długo nie wygaśnie popyt, czyli chęć ludzi do kupowania kolejnych produktów i usług. Ten zaś można stymulować w nieskończoność.

Popyt, podobnie jak pożądanie, nie musi znać zaspokojenia. Co jeszcze ważniejsze, można go kierować w taki sposób, by był zgodny z interesem nie tylko gospodarki, ale całego systemu. Najlepszym tego dowodem fenomen ruchu Neo Greens (Nowych Zielonych) w Stanach Zjednoczonych, którzy przekonują, że spowodowane przez rozwój cywilizacji zagrożenia, jak globalne ocieplenie, można zniwelować, zamieniając w element rynkowej gry podaży i popytu, rozpalając popyt-pożądanie na ekologiczne produkty i usługi.

Czy jednak ten utopijny wręcz optymizm i wiara w moc sprawczą kapitalizmu jako siły pobudzającej innowacyjność do służby w rozwiązywaniu problemów ludzkości wystarczy, by zmierzyć się ze strategicznymi wyzwaniami przyszłości, jakie sformułowało waszyngtońskie Centrum Studiów Strategicznych i Międzynarodowych? Analitycy CSSM opracowali w oparciu o badania przeprowadzone wśród liderów politycznych, biznesowych i naukowców wizję wyzwań, jakie będą czekać świat w 2025 r., nadając jej miano Siedmiu Rewolucji.

Siedem Rewolucji

Po pierwsze, świat czeka wielowymiarowa rewolucja demograficzna. W 2025 r. na Ziemi mieszkać będzie 7,9 mld ludzi, w 2050 r. – wzrost nasyci się osiągając pułap 9,2 mld. 80 proc. tego przyrostu będzie miało miejsce w krajach najmniej do tego przygotowanych gospodarczo i politycznie. Do 2025 r. ponad połowa ludzkości mieszkać będzie w miastach, rozwój megamiast liczących dziesiątki milionów mieszkańców postawi nowe wyzwania infrastrukturalne, sanitarne i społeczne. Podobnie jak starzenie się społeczeństw krajów najbardziej rozwiniętych.

Po drugie, rewolucyjnego znaczenia nabierze kwestia zasobów, a zwłaszcza ich niedoboru. Nieuchronnie zbliżamy się do granicy wzrostu wydajności rolnictwa, pułap fotosyntetyczny, określający maksymalną możliwą ilość upraw zielonych, zostanie osiągnięty przed 2050 r., a proces ten może ulec przyspieszeniu na skutek postępującej erozji gruntów uprawnych i coraz większych niedoborów wody. Do 2025 r. na niedobory wody cierpieć będą 54 kraje z populacją 4 mld ludzi. Brak wody może doprowadzić do większej liczby ofiar śmiertelnych niż pandemia HIV/AIDS i będzie jednym z najważniejszych powodów niepokojów społecznych, prowadzących do wojen domowych i konfliktów międzynarodowych.

Powodem napięć będzie także sytuacja na rynku paliw. Do 2050 r. liczba samochodów w Chinach zwiększy się z obecnych kilkunastu milionów do pół miliarda, w Indiach – do 600 mln (pamiętajmy, że dzisiejsze 200 mln aut jeżdżących po drogach USA zużywa 11 proc. wydobycia ropy). Wzmożonego popytu energetycznego ze strony krajów rozwijających się nie zaspokoi rozwój energetyki alternatywnej i jądrowej (jej efektywny udział w produkcji energii będzie malał). W efekcie walka o dostęp do paliw będzie jednym z najważniejszych czynników decydujących o geopolityce w nadchodzących dekadach.

Trzeci rewolucyjny czynnik kryje się w rozwoju technologii. Raport CSSM pokrywa się w warstwie analitycznej z tendencjami opisanymi wcześniej. Trochę skromniej niż Ray Kurzweil dostrzegają, że w efekcie rozwoju medycyny opartego na biologii molekularnej urodzone dziś dzieci mają olbrzymią szansę dożycia XXII w. Pod warunkiem, że nie przeszkodzą w tym problemy wynikające z wcześniejszych zagrożeń, jak również zagrożeń wywołanych przez same technologie.

Czwarta rewolucyjna zmiana wynika z uświadomienia w skali globalnej znaczenia wiedzy jako kluczowego zasobu, zwiększającego szanse na sukces jednostek i społeczeństw. Wzrostowi tej świadomości towarzyszą przemiany w sposobie dystrybucji i dostępu do wiedzy oraz informacji, powodujące załamanie dotychczasowych modeli działania mediów, instytucji akademickich, jak również instytucji władzy.

Dalej raport CSSM zwraca uwagę na wyzwania związane ze wzrostem gospodarczego znaczenia krajów BRIC (Brazylia, Indie, Rosja, Chiny), nowe rodzaje konfliktów zbrojnych, wynikające m.in. z upowszechnienia broni masowego rażenia i rozwoju fenomenu wojny asymetrycznej. W wojnach asymetrycznych państwa zmierzyć się muszą z przeciwnikiem pozbawionym państwowej struktury politycznej (np. sieć Al-Kaidy). W końcu wyzwanie wynikające z pytania: czy nawet jeśli przetrwa kapitalizm, to wraz z nim przetrwają w skali globalnej instytucje społeczeństwa obywatelskiego i demokracji liberalnej?

Przyszłość jest tuż

Perspektywa odpowiedzi na większość przedstawionych wyżej problemów jest bardzo nieodległa. 10–20 lat to niewiele, a ma się w tym czasie wydarzyć tyle co w ciągu minionych stuleci. Czy jesteśmy przygotowani na taką przyszłość? Czy nasza kultura poradzi sobie z tempem przemian? Krzysztof Pomian pisał we wspomnianym „Kryzysie przyszłości”: „naruszone są same podstawy cywilizacji współczesnej we wszystkich jej kształtach ustrojowych, ponieważ coraz trudniej pomyśleć przyszłość zarazem osiągalną i pożądaną; taką, której by przekonywające racje pozwalały oczekiwać z zasadną nadzieją, że przynajmniej pod pewnymi względami będzie lepsza od teraźniejszości”.

To poważna diagnoza. Czy możemy jednak ją zaakceptować? Wszak rezygnacja z przyszłości to rezygnacja z cywilizacji, która, choć niedoskonała, jest jedyną, w jakiej pojęcie postępu nie tylko w sensie naukowym i technicznym, ale także postępu mierzonego jakością życia ludzkiego miało sens. Próby wymyślenia cywilizacji doskonalszych, by wspomnieć różne warianty faszyzmu i komunizmu, zamieniły życie setek milionów ludzi w piekło. Optymizmu należy doszukiwać się nie tylko w regule, że większość dotychczasowych prognoz nie sprawdziła się. Także w fakcie, że wiele opracowanych i upowszechnionych w ostatnim półwieczu technologii ujawniło w rękach kreatywnych jednostek emancypacyjny potencjał. Narzędzia takie jak Internet nie umożliwiają przewidywania przyszłości, ale ułatwiają kontrolę nad siłami, które o przyszłości decydują, poczynając od kontrolowania skorumpowanych polityków po dyscyplinowanie amoralnych uczonych. I pamiętajmy (że znów przywołam Pomiana): „Historia nie zawiera drogowskazów. Żeby doprowadzić Arkę do Araratu, Noe musiał się ciężko napracować. Zresztą nie był to bynajmniej koniec historii. Raczej początek”.

E.Bendyk/Cywilizacja