Opoka - Portal katolicki
opoka.newsopoka.photo
Pekao


Michał Chaberek OP

Kościół a ewolucja



ISBN 978-83-62268-30-6
Wydawnictwo Fronda
2012


fragment:

I. Spór o ewolucję - geneza, specyfika i stan obecny

(...)

2. Elementy teorii inteligentnego projektu

a. Określona złożoność (Specified Complexity)

Częstym błędem w dyskusjach na temat inteligentnego projektu jest twierdzenie, że teoria ta jest nową „zamaskowaną” wersją kreacjonizmu i że nie proponuje nic więcej poza samą krytyką ewolucjonizmu darwinowskiego. W rzeczywistości IP — podobnie jak darwinizm — jest czymś więcej niż jedną z teorii naukowych. Jest nowym paradygmatem uprawiania nauki i filozofii opozycyjnym wobec darwinizmu. Działania badaczy przynależących do ruchu nie są wyłącznie krytyką darwinizmu, przede wszystkim naukowcy ci różnią się znacząco w podejściu do różnych elementów teorii Darwina. Niektórzy, na przykład, nie odrzucają wspólnego pochodzenia organizmów (common descent) lub znaczącej roli naturalnej selekcji w kształtowaniu genomów (M. Behe). Jednakże to, co ich łączy, to wspólne przekonanie, że przypadkowe mutacje nie mogą wyjaśnić całej złożoności świata organicznego. Ponadto naukowcy ci dostrzegają ograniczenia naturalizmu metodologicznego w podejściu do tajemnicy życia. Na tej podstawie postulują zasadę, że naukowiec powinien iść tam, gdzie prowadzą go dowody, nawet jeżeli dowody te miałyby wskazywać na rzeczywistość niematerialną. Kluczowe jest więc zrozumienie fundamentalnej różnicy między kreacjonizmem a teorią inteligentnego projektu.

Charakter kreacjonizmu naukowego dobrze wyrażał podtytuł książki Whitcomba, Genesis Flood: The Biblical Record and its Scientific Implications (Potop z Księgi Rodzaju. Relacja biblijna i jej naukowe konsekwencje). Zapis biblijny miał określone implikacje naukowe, które kreacjonizm starał się odnaleźć w nauce. W inteligentnym projekcie sprawy są ustawione inaczej. Spór toczy się zasadniczo na naukowej i filozoficznej płaszczyźnie. Pytanie dotyczy tego, czy świat jest efektem ślepych procesów, co postuluje darwinizm, czy jest efektem działania jakiejkolwiek inteligencji. Czy w świecie na poziomie badań eksperymentalnych odnajdujemy skutki procesów chaotycznych, czy raczej działań planowych, „projektów” mogących pochodzić wyłącznie od inteligencji? Zwolennicy IP nie określają jednak, jaka to ma być inteligencja. Jako naukowcy dążą do uznania, że stwierdzenie działania inteligencji da się testować eksperymentalnie i że ingerencja czynnika inteligentnego lepiej wyjaśnia (lub w ogóle wyjaśnia) szereg fenomenów przyrodniczych, zwłaszcza na molekularnym poziomie życia. Tak zdefiniowany pogląd nie implikuje żadnej religii, ani nawet nie odnosi do Boga. Stephen C. Meyer, na przykład, twierdzi, że w ramach IP możliwa jest koncepcja Cricka i Hoyla, mówiąca o pochodzeniu życia na Ziemi od jakiejś inteligencji z kosmosu. Każdy pogląd religijny czy filozoficzny może być zgodny z IP pod warunkiem, że odrzuca przypadek jako główny motor emergencji uporządkowanych struktur. Jest to teoria IP w jej minimalistycznym lub fundamentalnym sformułowaniu. W ramach tego „minimum” nie określa się nawet, czy świat został stworzony, czy istnieje odwiecznie. Nie jest także powiedziane, skąd pochodzi i czym jest owa inteligencja. Określa się ją na podstawie analogii do działania inteligencji ludzkiej. Wydaje się więc, że po przeszło stu latach kontrowersji naukowcom udało się wreszcie sformułować adekwatną płaszczyznę sporu, na której nie przeciwstawia się sobie wizji religijnej i wizji naukowej, lecz raczej dwa odrębne paradygmaty naukowe. William Dembski, jeden z pionierów IP, pisał: „To, co trzymało projekt z dala od głównego nurtu nauki przez ostatnie 130 lat, to był brak precyzyjnych metod rozróżnienia przedmiotów posiadających inteligentną przyczynę od tych, które jej nie posiadają. Żeby projekt mógł być owocną naukową teorią, naukowcy muszą być pewni, że są w stanie niezawodnie określić, czy coś zostało zaprojektowane. Johannes Kepler, na przykład, myślał, że kratery na Księżycu zostały inteligentnie zaprojektowane przez mieszkańców Księżyca. Dzisiaj wiemy, że kratery uformowały się w sposób naturalny. Ten strach fałszywego przypisania czegoś projektowi tylko dlatego, aby nie zostało to unieważnione później, uniemożliwił projektowi wejście do nauki […]. Naukowcy są dzisiaj zdolni do uniknięcia błędu Keplera”. Zdaniem Dembskiego, postęp nauki umożliwia więc tworzenie nowych teorii, a te z kolei wpływają na zmianę paradygmatów.

Można teraz zastanowić się, czy stanowisko IP jest poglądem zupełnie nowym. Odpowiedź będzie uzależniona od rozłożenia akcentów w pojmowaniu tej propozycji. Przejawy działania Rozumnej Istoty w świecie rozpoznawano od pogańskiej starożytności poprzez Biblię i chrześcijaństwo aż do dzieł większości twórców nowożytnej nauki. Znajdziemy je u Kopernika i Newtona. Ten ostatni po wyłożeniu swoich poglądów na temat budowy układu planetarnego pisał: „Chociaż ciała te mogą, w rzeczy samej, pozostawać w swoich orbitach poprzez same prawa ciążenia, jednak w żaden sposób nie mogły one początkowo przyjąć regularnych pozycji tychże orbit z tych praw […]. [Tak więc] ten najpiękniejszy system Słońca, planet i komet może pochodzić jedynie z planu i mocy inteligentnej i potężnej Istoty”.

Cała historia europejskiej myśli filozoficznej i naukowej potwierdza, że człowiek może rozpoznać w stworzeniu ślady działania wyższej Inteligencji. Niewykluczone, że okres panowania darwinizmu był pierwszym momentem w historii, gdy badacze przyrody z reguły nie dostrzegali tego, co dla poprzedników zdawało się oczywiste. Mimo to zastrzeżenie Dembskiego pozostaje aktualne. Żadne starożytne, średniowieczne czy nowożytne ujęcie projektu nie miało takich możliwości weryfikacyjnych jak współczesne. Żadne też nie było tak dobrze odróżnione w swej naukowej warstwie od implikacji filozoficznych i teologicznych. Wiele z dawniejszych ujęć poszukujących projektanta ocierało się o pozory (niektóre przykłady Paleya), ponieważ ci, którzy je wysuwali, nie dysponowali adekwatnym zapleczem badań. Dlatego też platforma współczesnego inteligentnego projektu stanowi nową jakość, mogącą konkurować z naturalistycznymi koncepcjami przyrodniczymi, dominującymi w naukach od XIX wieku.

Wśród naukowców panuje obecnie powszechna zgoda, że życie na poziomie molekularnym jest zbiorem informacji. Nawet R. Dawkins przyznał, że jedno jądro komórkowe zawiera więcej informacji niż 30 tomów Encyklopedii Britannica łącznie104. Teoria inteligentnego projektu głosi, że informacja nie może powstawać przypadkowo, lecz musi mieć źródło w intelekcie analogicznym do intelektu ludzkiego, i że złożoną informację można odróżnić od czegoś, co nią nie jest, na drodze testowania naukowego. Początki tej koncepcji znajdują się we wspominanej już pracy anglikańskiego teologa, Williama Paleya, Natural Theology z 1802 roku. Najsłynniejszy w jego argumentacji jest przykład przypadkowo znalezionego zegarka. Jeżeli idąc wrzosowiskiem, zobaczysz leżący na ziemi zegarek, nie zadowolisz się odpowiedzią, że znalazł się tam przypadkowo, ani że leżał od zawsze. Przypadkowo nie mógł powstać mechanizm tak precyzyjny i działający celowo. Natomiast istnienie „od zawsze” nie stanowi adekwatnej odpowiedzi na pytanie, skąd się wziął. Obecnie, żeby lepiej wyjaśnić argument biochemiczny, można posłużyć się innym przykładem. Jeżeli idąc plażą, znajdziemy na piasku napis: „Jaś kocha Małgosię”, to spontanicznie stwierdzamy, że napis ten nie powstał w wyniku przypadkowego ruchu fal, wiatru czy działania zwierząt. Jeżeli przyjmiemy istnienie 30 znaków alfabetu wraz ze spacją, bez dużych liter, to prawdopodobieństwo przypadkowego ułożenia się tego prostego zdania wynosi 1:3018. Liczba niewiarygodnie mała, lecz jeżeli uznamy, że jedno jądro komórkowe zawiera setki tysięcy zdań, możemy śmiało stwierdzić, że taka informacja nie może powstać przypadkowo. P. Lenartowicz, analizując takie „cuda probabilistyczne”, zastanawiał się, dlaczego naukowcy ewolucyjni przyjmują możliwość występowania podobnych zdarzeń. Lenartowicz dowodzi, że tego typu zdarzenie, choć można obliczyć jego prawdopodobieństwo matematyczne, jest niemożliwe w świecie rzeczywistym. Gdyby „cud probabilistyczny” rzeczywiście się zdarzył, można by metodą analizy statystycznej wykazać, że było to zdarzenie selektywne, a więc nieprzypadkowe. Błąd naukowców przyjmujących taką możliwość tkwi w tym, iż bezkrytycznie przenoszą rozważania matematyczne na świat fizyczny i nie uznają oczywistej różnicy między doborem przypadkowym a doborem selektywnym. W bardziej klasycznym przykładzie „cudu daktylograficznego”, który przytacza Lenartowicz, mówi się o małpach uderzających w klawiaturę komputera. Lenartowicz zwraca uwagę, że nie mogą one przypadkowo wystukać nawet prostego sonetu, ponieważ przy chaotycznym uderzaniu w klawiaturę prawdopodobieństwo wystąpienia któregokolwiek znaku jest takie samo. Natomiast każdy tekst, w dowolnym języku, ma różne ograniczenia (np. po znaku interpunkcji występuje spacja, cyfr jest znacznie mniej niż liter, etc.). Zatem tekst może powstać tylko za pomocą selektywnego traktowania klawiatury, do którego małpy nie są zdolne.

O metodach wykrywania projektów w przyrodzie najwięcej pisał w ostatnich latach William Dembski. W książce The Design Revolution (2004), odpowiadając na główne zarzuty przeciwko nowej teorii, przedstawił drogę dochodzenia w nauce do wniosku o istnieniu w danym elemencie przyrody struktury zaprojektowanej. Autor odróżnia jednak argument z projektu (design argument) oraz wnioskowanie o projekcie (design inference): „Pierwszy jest w swej istocie argumentem filozoficznym i teologicznym. Próbuje ustalić istnienie i atrybuty inteligentnej przyczyny stojącej za światem w oparciu o określone właściwości świata. Natomiast wnioskowanie o projekcie jest swego rodzaju argumentem umożliwiającym zidentyfikowanie skutków inteligencji bez względu na szczególne właściwości inteligencji oraz bez względu na to, gdzie, kiedy, jak i dlaczego inteligencja działa”. Wnioskowanie o projekcie różni się więc istotnie od dawnych argumentów teleologicznych św. Tomasza czy Williama Paleya. Podstawowym pojęciem metody Dembskiego jest „określona złożoność” (specified complexity). Każda struktura przyrodnicza może być poddana badaniu za pomocą trójstopniowego filtra wyjaśniającego (explanatory filter). (1) Najpierw należy zbadać, czy dany układ jest przypadkowy, czy konieczny. Jeżeli elementy układu są ułożone w sposób zdeterminowany jakimś prawem lub innymi czynnikami przyrodniczymi, to nie można tu wnioskować o projekcie. Jeżeli jednak dany układ nie jest deterministyczny, co znaczy, że jego elementy mogą być ułożone tak lub inaczej, to należy zapytać, (2) czy elementy są ułożone w sposób złożony. Jeżeli układ nie jest złożony, to może być dziełem przypadku. Mogą istnieć oczywiście układy proste będące dziełem inteligencji. Na przykład, ułożenie znaków „Ala” nie jest zdeterminowane (litery alfabetu mogą być ułożone w sposób dowolny). Nie jest to jednak układ złożony, czyli może być wytworem przypadku (choć w tym przykładzie nie jest). (3) Ostatnim elementem wnioskowania o projekcie jest wykrycie, czy dany układ charakteryzuje określoność, czyli istnienie niezależnego od układu wzorca, któremu ten układ odpowiada. Jeśli nie zachodzi specyfikacja, układ nadal może być dziełem przypadku. Jeżeli jednak specyfikacja ma miejsce, wtedy wniosek o projekcie jest pewny. Tak, na przykład, widząc pomnik bohatera narodowego stojący w mieście, nikt nie ma wątpliwości, że został on celowo wytworzony. Co jednak skłania do natychmiastowego przyjęcia takiego wniosku? Idąc drogą filtra wyjaśniającego, stwierdza się, że: (1) Układ materiału w pomniku (na przykład brązu) nie jest zdeterminowany żadnym prawem fizycznym. Można sobie wyobrazić bryłę metalu, czy kamienia w każdym innym kształcie. (2) Układ elementów w pomniku jest złożony, zachodzi symetria twarzy, rąk etc. (3) Złożoność ta jest określona, gdyż istnieje niezależny wzorzec (w tym przypadku postać historyczna), do którego pasuje ten pomnik. Pomnik jest więc zaprojektowany.

Jeżeli teraz odniesiemy te ogólne pojęcia do rzeczywistości komórkowej, to okazuje się, że odzwierciedla ona strukturę projektu. Układ czy kolejność kwasów nukleinowych wewnątrz podwójnej helisy DNA nie jest niczym zdeterminowana. Jednak układ ten w całości pozostaje niezwykle złożony, ponieważ kolejność występowania kwasów nukleinowych tworzy kod DNA i decyduje o zasadniczych funkcjach komórki. Z kolei każdy gatunek istot żyjących stanowi niezależny wzorzec, gdyż jest osobną naturą. Łańcuchy DNA i RNA mają charakter informacji, którą naukowcy potrafi ą już dzisiaj odczytać i przedstawić w formie zapisu literami oznaczającymi poszczególne kwasy nukleinowe (T,G,C,A). Na tej podstawie są w stanie również syntetyzować te informacje, przetwarzać i udoskonalać. To jest prężnie rozwijająca się gałąź biochemii, zwana inżynierią genetyczną. Warunkiem działania tych „inżynierów biochemii” jest baza w postaci istniejącego w naturze projektu. Gdyby naukowcy nie stwierdzali istnienia projektu, nie mogliby go modyfikować i cała gałąź nauki byłaby bezpodstawna.

Zasadnicze pytanie, decydujące o tym, czy inteligentny projekt jest nauką, czy nie, dotyczy tego, czy można falsyfikować twierdzenie, że dany układ znaków jest wytworem inteligencji. Przeciwnicy, którzy twierdzą, że nie można, w istocie odrzucają racjonalną strukturę rzeczywistości. Gdyby przyjąć tę odpowiedź, oznaczałoby to, że nie powinniśmy odkrywać żadnych wzorców w przyrodzie, a inżynieria genetyczna nie różniłaby się niczym od gry w ruletkę. Nauka ma kompetencje do oceny, czy coś jest informacją, czy nie, nieustannie tego dokonuje, inaczej wszelkie modelowanie matematyczne nie miałoby sensu. Matematyka sama w sobie jest zbiorem spójnych tautologii. Naukową wartość nabywa dopiero wtedy, gdy staje się opisem rzeczywistych zjawisk. Jednak jeżeli te zjawiska nie miałyby natury informacyjnej, to opis matematyczny do niczego by nie prowadził. Obecnie większość wynalazków i projektów powstaje najpierw w komputerze, czyli w postaci opisu matematycznego. Samoloty są całkowicie projektowane komputerowo, w rzeczywistości testuje się dopiero gotowy egzemplarz. I podobnie jak człowiek może wytworzyć projekt w komputerze, a następnie przenieść go do rzeczywistości, tak jest możliwe również odnalezienie projektu w naturze i przeniesienie go do komputera. Złożoność informacji zawartych w genach przemawia za koniecznością pochodzenia od inteligentnego źródła. Na tym kończą się kompetencje nauki. Na tym też kończy swoje postulaty teoria inteligentnego projektu.

b. Nieredukowalna złożoność (Irreducible Complexity)

Prawdopodobnie pierwszym uczonym, który docenił złożoność struktur biochemicznych w kontekście działania jakiejś zewnętrznej inteligencji, był Piotr Lenartowicz SI, jego pracy nie znało jednak środowisko anglosaskie, gdzie zrodziła się teoria inteligentnego projektu. W 1996 roku Michael Behe wydał książkę Darwin’s Black Box (Czarna skrzynka Darwina) i dzisiaj, po piętnastu latach od tego wydarzenia, jest ona powszechnie uważana za przełom w dyskusji na temat ewolucji. Jakie były główne tezy Behego?

Określenie „czarna skrzynka” odnosi się do każdego zjawiska przyrodniczego, w którym znamy tylko dane wejściowe i dane wyjściowe (efekty), natomiast nie wiemy — z braku możliwości poznawczych — co dzieje się wewnątrz, w środku systemu. Taką „czarną skrzynką” dla całej dziewiętnastowiecznej nauki była komórka. Pod ówczesnymi mikroskopami można było zobaczyć, że komórki istnieją. Znane były dane wejściowe, to, że komórki pobierają pokarm, że bywają czułe na światło etc. Znane były także dane wyjściowe, że komórki się dzielą, że wydalają i z czasem umierają. Chodziło tu o zjawiska dostępne ówczesnym obserwacjom, natomiast wnętrze tych mikronowych „kuleczek” pozostawało kompletną tajemnicą. Dla Haeckla komórka stanowiła woreczek protoplazmy, coś, co można by porównać do żelki dla dzieci. Zatem wiedza o złożoności tych cegiełek życia była żadna. Na podstawie takiej wiedzy Haeckel i inni uważali, że owe „bąbelki” protoplazmatyczne mogą powstawać w sposób spontaniczny oraz że o ich funkcji decyduje tylko nieco wyższy poziom uorganizowania materii. Jednakże z czasem postępujące nauki, zwłaszcza genetyka i biochemia, odkryły, jak wielce złożone są budowa i procesy zachodzące w komórkach. Naukowcy zdali sobie sprawę z tego, że mamy tu do czynienia z mikrokosmosem, z całą galaktyką organelli, funkcji, przemian i zależności. Biologia ewolucyjna przedstawiała swoje sukcesy w wyjaśnianiu pochodzenia kopyt, dziobów, płetw i skrzydeł, ale jak pisał Behe: „Rzeczywiste procesy życiowe nie zachodzą na poziomie anatomicznym zwierzęcia czy na poziomie narządu. Najważniejsze części organizmów żywych są zbyt małe, by można było je zobaczyć. Procesy życiowe przebiegają na poziomie molekularnym i to molekuły odpowiedzialne są za szczegóły życia”. Behe przywołał polemikę kreacjonisty Francisa Hitchinga z Dawkinsem na temat ewolucji systemu obronnego chrząszcza kanoniera. Hitching pokazywał, jak chrząszcz umiejętnie wypuszcza z odwłoku dwa związki chemiczne, które połączone razem dają wybuchową mieszaninę rażącą wroga, i pyta: jak taki zgrabny system mógł wyewoluować? Dawkins odpowiada, że oba związki oraz ich katalizator występują w organizmach. „Przodkowie chrząszcza kanoniera po prostu zmusili związki chemiczne, które i tak już w ich ciele występowały, do pełnienia nowej funkcji. Ewolucja często działa w taki sposób”. Behe, komentując ten swoisty spór, wskazuje, że obaj autorzy nie uchwycili sedna sprawy. Pytanie bowiem dotyczy tego, jak stopniowo mogły powstać złożone systemy biochemiczne. Rozważania na poziomie fenomenalnym nie dają żadnej wiedzy, trzeba się zwrócić do tych poziomów, gdzie analizuje się przyczyny. To jest właśnie poziom molekularny. Behe zauważa też, że biologia molekularna dociera do wyjaśnień ostatecznych, nie ma bowiem już nic poniżej tego poziomu. Zatem wszystkie „czarne skrzynki” zostały otwarte. Po setkach lat badań biologia w wielu kwestiach dotarła wreszcie do prawdziwych odpowiedzi. Jest to o tyle ważne, że odkrycia biochemiczne, choć nie są kompletne, nie ulegną już unieważnieniu w przyszłości, ponieważ nie ma już takich nieznanych przestrzeni, które mogłyby je unieważnić. Dopóki człowiek nie lądował na Księżycu, można było jeszcze utrzymywać, że po jego drugiej stronie mogą być jakieś ślady cywilizacji, choć mnóstwo argumentów wskazywało, że tak nie jest. Dzisiaj mamy już wiedzę pewną, że faktycznie tak nie jest.

Kluczem do zrozumienia argumentacji Behego jest pojęcie systemów nieredukowalnie złożonych. Otóż w komórkach znajdują się takie organy, jak rzęska i wić bakteryjna. Są też mechanizmy, jak transport wewnątrzkomórkowy i proces krzepnięcia krwi. Uczony, odwołując się do skomplikowanych opisów przemian i procesów biochemicznych, które zachodzą w czasie funkcjonowania tych elementów, wskazuje, że stanowią one pewne całości, to znaczy, że nie mogą pełnić swych funkcji, jeżeli nie tworzą od razu kompletnej struktury. Innymi słowy, są one wewnętrznie zależne od samych siebie. Aby zidentyfikować, że dany układ jest nieredukowalnie złożony, należy: 1) rozpoznać funkcję oraz wszystkie składniki układu (otworzyć wszystkie „czarne skrzynki”); 2) sprawdzić, czy wszystkie części układu są niezbędne do pełnienia określonej funkcji. Znanym porównaniem Behego opisującym układy nieredukowalnie złożone jest pułapka na myszy. Urządzenie proste, zbudowane raptem z pięciu elementów, ale może spełniać swoją funkcję tylko wtedy, gdy wszystkie pięć elementów będzie jednocześnie obecnych na swoich miejscach. Pułapka ma podstawę (deseczka), sprężynę, ramkę uderzającą mysz, szpilkę blokującą ramkę i zatrzask do szpilki, który zostaje zwolniony przez ofiarę. Jak pułapka nie zadziała, gdy wszystkie elementy nie będą od razu na swoich miejscach, tak też ani wić, ani rzęska nie zadziała, jeżeli wszystkie struktury białkowe nie znajdą się od razu, doskonale dopasowane i właściwie spełniające swoje funkcje, we właściwych miejscach. Oczywiście wiele z tych struktur (jak mikrotubule) można znaleźć w innych miejscach komórki; tak samo wiele podobnych białek. Jednak, zdaniem Behego, biochemia ewolucyjna nie ma pomysłu, jak elementy te miałyby się jednocześnie zmodyfikować, uzupełnić innymi i połączyć w funkcjonalną całość. Odwołując się do przykładów z życia codziennego, autor zauważa, że motocykl nie powstał drogą modyfikacji roweru, lecz od razu został zbudowany jako motocykl. Nie ma bowiem takiego toku postępowania, w którym poprzez dodanie kolejnych elementów można przebudować rower w motocykl (lub samochód w samolot) — są to poprzednicy pojęciowi, ale nie fizyczni. Żadnego motocykla w historii nie wyprodukowano drogą modyfikacji roweru, tak jak i promu kosmicznego nie wytworzono drogą modyfikacji odrzutowca. Problem ewolucji polega na tym, że każda „drobna zmiana” musi dawać przewagę. Behe zauważa jednak, że wić bez sprawnego rotora, będącego w istocie miniaturowym silnikiem elektrycznym, nie dawałaby żadnej przewagi, przeciwnie stanowiłaby obciążenie i prowadziła do eliminacji bakterii z wicią bez silnika, z silnikiem, ale bez wici, etc. Oprócz przykładów systemów nieredukowalnie złożonych Behe mówi też o systemach, które teoretycznie można by utworzyć na drodze stopniowych modyfikacji istniejącej struktury (np. biosynteza AMP), jednak proces ten byłby tak niewiarygodnie złożony, że praktycznie niemożliwy. Darwin pisał w O powstawaniu gatunków: „Gdyby można było wykazać, że istnieje jakikolwiek narząd złożony, który nie mógłby powstać drogą licznych następujących po sobie drobnych przekształceń — moja teoria musiałaby absolutnie upaść”. Współczesna biochemia znalazła przykłady wielu takich narządów.

W tym kontekście Behe postawił pytanie o znaczenie literatury naukowej dotyczącej ewolucji biochemicznej. Korzystając z komputerowych baz artykułów, wykazał, że uczeni piszący o tych zagadnieniach, mimo dziesiątek tysięcy publikacji, nigdy nie zaproponowali żadnych wyjaśnień dla powstałych problemów. Zdecydowana większość tych artykułów zajmuje się analizą i porównywaniem sekwencji białek. Wyglądają więc bardzo fachowo, są pełne naukowych metod i pojęć, ale poza tym, że stwierdzają „co odkryto”, nie podają odpowiedzi na pytanie: „jak to powstało”? Jeżeli biochemicy zajmują się porównywaniem sekwencji białek i na tej podstawie wyciągają wniosek, że taki a taki gen powstał z takiego a takiego, to w istocie zakładają to, czego dowodzą. Nie mamy tu do czynienia z niczym innym, niż z sięgającym czasów Darwina argumentem z homologii, tyle że na poziomie molekularnym. Argument ten jest jednak obarczony myśleniem na zasadzie błędnego koła: struktury (geny, narządy, kończyny) są do siebie podobne, ponieważ wywodzą się od jednego przodka. Ale na jakiej podstawie wiadomo, że pochodzą od wspólnego przodka? Ponieważ są do siebie podobne. W rozumowaniu tym zakłada się to, co miało być dowiedzione. Tymczasem istnienie podobieństw (na przykład genetycznych) nie prowadzi koniecznie do wniosku o wspólnym pochodzeniu, podobnie jak spotkanie dwóch podobnych ludzi na ulicy nie musi oznaczać, że są oni braćmi. Artykuły, które dotyczyły istotnych pytań: „jak to powstało”?, można policzyć na palcach rąk. Ponieważ jest ich tak niewiele, Behe omawia każdy z nich osobno i pokazuje, że gdy naukowcy przechodzą do konkretów w kwestii ewolucji biochemicznej, stają się „marzycielami”. Zaczynają posługiwać się metaforami, miejsce realnych związków chemicznych zastępują schematami w rodzaju „część A” i „część B”, artykuły są pełne spekulacji i domysłów „być może”, „prawdopodobnie”, „jest możliwe” etc. Wywody współczesnych naukowców niczym nie różnią się od domysłów i spekulacji Darwina i jego pierwszych zwolenników. Zatem nikt nigdy nie wyjaśnił, jak mogło dojść do powstania systemów nieredukowalnie złożonych, a literatura podejmująca istotne pytanie jest zaskakująco uboga na tle ogromu publikacji z biologii molekularnej. Wszystko to prowadzi do wniosku, że początki i ewolucja życia są dla współczesnej nauki wielką tajemnicą, taką samą, jaką były dwieście lat temu. Nauka poczyniła ogromne postępy w wyjaśnianiu sposobów funkcjonowania życia, tych, które obserwujemy, jednak nie udzieliła odpowiedzi na pytanie, skąd się to życie w takich formach wzięło. We współczesnej teologii odkrycia biochemików, takich jak M. Behe, czy prace o komórce Stephena C. Meyera i P. Lenartowicza, stanowią również poważne wyzwanie dla teistycznego ewolucjonizmu.

c. Granice ewolucji

W 2007 roku ukazała się druga książka Michaela Behego, The Edge of Evolution (Krawędź ewolucji). Zadaniem, które tym razem postawił sobie autor, było określenie tego, co mogą rzeczywiście zdziałać mechanizmy darwinowskie w świecie biologii. Behe pisał: „W ciągu minionych stu lat nauka zrobiła ogromny postęp. Co pokazują wyniki nowoczesnej nauki? […] Teraz, gdy znamy sekwencję wielu genomów, gdy wiemy, w jaki sposób zachodzą mutacje i jak często, możemy badać możliwości i ograniczenia przypadkowych mutacji z pewnym stopniem dokładności — po raz pierwszy od czasu, gdy Darwin zaproponował swoją teorię”. W swojej pracy Behe przeanalizował dobrze znane przypadki dostosowania się organizmów do warunków naturalnych poprzez mutacje zachodzące przypadkowo przy replikacji genomu w czasie rozmnażania. Jednak oprócz takich dobrze udokumentowanych przypadków uczony wskazał także na istnienie wielu innych przykładów, równie dobrze udokumentowanych, w których mutacje działające w równie długim czasie i nawet na większą skalę nie potrafi ły pokonać podobnego rodzaju barier. Gdzieś pomiędzy tymi przykładami znajdują się, zdaniem Behego, granice ewolucji. Wchodząc w głąb tajemnic życia, amerykański biochemik wykazał, że „udoskonalenia”, których doświadczają choćby bakterie malarii, są równie przypadkowe, jak mutacje, które je wywołują. Tak jak zbierające się osady w rzece mogą czasem spowodować jej zatamowanie i wytworzenie rezerwuaru dla zwierząt, podobnie przypadkowa duplikacja genów może wzmocnić funkcję danych protein, a inna mutacja może uczynić bakterię odporną na określoną truciznę. Zmiany te mają zazwyczaj także niekorzystny wpływ na działanie tych samych protein. Ponadto, żaden z czterech możliwych rodzajów mutacji (substytucja, wstawienie, skasowanie, duplikacja) nie prowadzi do wytworzenia jakiejś funkcjonalnej nowości, lecz wprowadza zmianę, która jest korzystna tylko względnie. Można by na przykład zastanowić się, w jaki sposób zwiększyć prędkość maksymalną samochodu. Najprostszym sposobem może się wydawać pozbawienie go lusterek bocznych. Taki pojazd rzeczywiście może wygrać wyścig na krótkim dystansie i w pewnych okolicznościach. Przy normalnym użytkowaniu jednak szybko ujawni swoje wady. Taka jest, zdaniem Behego, natura przypadkowych zmian w kodach genetycznych roślin i zwierząt. Naukowiec pokazuje ponadto, że mierzalną różnicą pomiędzy względnie efektywnymi mutacjami obserwowanymi w przyrodzie a wynikami, które postuluje teoria Darwina, ale które nie mogą zostać osiągnięte, jest liczba zmian koniecznych w jednej mutacji, aby uzyskać nową funkcjonalną cechę. Wywołanie odporności na nowy lek wymaga tylko jednej zmiany w kodzie genetycznym pasożyta malarii. Zmiana tego rodzaju w niektórych organizmach zachodzi dość łatwo. Wtedy to proces darwinowski — naturalna selekcja — zachowuje taką zmianę. O ile osobniki niezmutowane (na przykład malarii) giną od nowego lekarstwa, osobniki po mutacji przetrwają, rozmnożą się i w końcu zdominują populację. W ten sposób wirusy (np. HIV) czy bakterie stają się odporne na leki, owady — na niektóre trucizny, a ryby arktyczne mogły na tej drodze „nabyć” mechanizm zapobiegający zamarzaniu ich krwi. Problem dotyka jednak pojawiania się nowych struktur wewnątrzkomórkowych, niezwykle złożonych mechanizmów (Behe omawia m.in. transport wewnątrz rzęski bakteryjnej IFT), które wymagają nie uszkodzenia czy powtórzenia pojedynczego genu, lecz jednoczesnego zaistnienia wielu funkcjonalnych genów. Behe w kilku miejscach swojej książki powtórzył, że to dopiero badania ostatnich lat dowiodły, z jak niewyobrażalnie skomplikowanymi, a zarazem precyzyjnie dopasowanymi mechanizmami mamy do czynienia na podstawowym poziomie życia. Kiedy komórka wydawała się prostą bryłką protoplazmy (Haeckel, Darwin), można było postulować jej samoczynne powstanie. Im nauka ujawnia więcej szczegółów z jej budowy, tym mechanizmy darwinowskie stają się bardziej niewystarczalne przy tłumaczeniu jej genezy. Dlatego też Behe kończy swoje rozważania wnioskiem, że przypadkowe mutacje mogą wytłumaczyć niektóre drobne zmiany wewnątrz organizmów, nie mogą jednak wytłumaczyć ani powstania bardziej złożonych mechanizmów komórkowych, ani nowych struktur organicznych. Jednocześnie mutacje nieprzypadkowe, lecz niezawodnie kierowane przez jakąś inteligencję, mogłyby z pewnością wywołać dalej idące skutki, choć nie wynika z tego, że mogłyby doprowadzić do powstania całej różnorodności życia.

W ostatnich latach naukowcy z Ruchu Inteligentnego Projektu podjęli szereg badań mających doprowadzić do bardziej precyzyjnego określenia granic przypadkowych mutacji i naturalnej selekcji w kształtowaniu nowych struktur. Do najnowszych osiągnięć można zaliczyć badania Ann Gauger i Douglasa Axe, którzy podjęli zagadnienie możliwości powstawania nowych protein na drodze przypadkowych mutacji. W tym celu wzięli za podstawę badań dwie najprostsze funkcjonalne proteiny i spróbowali określić, ile zmian w kodzie genetycznym (mutacji) jest wymagane, aby gen kodujący jedną z protein (Kbl2) mógł wytworzyć drugą (BioF2). Okazało się, że udana funkcjonalna konwersja wymagałaby w tym przypadku siedmiu lub więcej substytucji nukleotydów. W naturze pojedyncze substytucje są dość częste, podwójne bardzo rzadkie, ale potrójne nie zachodzą nigdy. Wniosek z tych badań jest taki, że na drodze przypadkowych mutacji nie da się wytworzyć nawet najprostszej funkcjonalnej proteiny. Proteiny zaś są podstawowym budulcem maszynerii komórkowej.

Uogólniając te odkrycia, stanowiące efekt postępu nauki na przestrzeni zaledwie kilkunastu ostatnich lat, można stwierdzić, że mechanizmy darwinowskie działają w rzeczywistości, ale ich możliwości zostały dalece wyolbrzymione przez ideologicznych zwolenników darwinizmu. W rzeczywistości bowiem napotykają niepokonalne trudności na każdym poziomie budowy organizmów: nie mogą wywołać powstawania funkcjonalnych protein, nie potrafi ą wywołać powstania zupełnie nowych funkcjonalnych genów, nie wyjaśniają, skąd bierze się zakodowana informacja w łańcuchach DNA. Na wyższym poziomie — nie mogą wywołać powstania narządów nieredukowalnie złożonych obecnych w każdej komórce. W efekcie biologia molekularna potwierdziła wyniki badań prowadzonych już od XIX wieku w skali makrostruktur (krzyżowanie odmian, badania populacji). O ile jednak dawniejsze badania mogły być mylące, ponieważ opierały się na nieadekwatnym poziomie (poziomie „fenomenalnym”), o tyle współczesne badania, prowadzone na poziomie molekularnym, ujawniają rzeczywistą naturę życia. Nie mogą mylić, ponieważ dotykają podstaw biologii, to znaczy takiego poziomu organicznego, poniżej którego nie można już zejść. Na podstawie tych badań naukowcy skonstruowali cztery grupy argumentów podważających dotychczasowe mechanizmy ewolucji: 1. Informacyjny charakter DNA (m.in. Stephen C. Mayer, Robert Marks); 2. Istnienie systemów nieredukowalnie złożonych (m.in. Michael Behe); 3. Niemożliwość ewolucji protein (m.in. Ann Gauger, Douglas Axe); 4. Niemożność wspólnego pochodzenia (m.in. Paul Nelson).

d. Kierunki rozwoju teorii

Kończąc omawianie teorii inteligentnego projektu, można podsumować ją w następujących siedmiu punktach pokazujących ruch myśli wewnątrz teorii, a zarazem jej główne kierunki rozwoju:

1. Zwątpienie we „wszechmogącą” siłę przypadkowych mutacji i doboru naturalnego. Punktem wyjścia nowego ruchu intelektualnego było niezadowolenie licznego grona naukowców (nie tylko w USA) z dominującego w nauce od lat 50. XX wieku przekonania, że całą różnorodność życia można wyjaśnić niezwykle prymitywnym mechanizmem neodarwinowskim.

2. Krytyka „dowodów na ewolucję”. Wątpliwości dotyczące ewolucji zostały wzmocnione krytycznym przyjrzeniem się dowodom przedstawianym na jej poparcie. W wyniku powtórnej analizy, przeprowadzonej często dopiero w latach 90. ubiegłego wieku, okazało się, że wiele z tych „klasycznych” dowodów na rzecz ewolucji było: (1) opartych na błędnych założeniach (np. eksperyment Millera – Ureya, muszka owocowa), albo/i (2) celowo sfałszowanych (zarodki Haeckla, pitekantropus i inne formy „człekokształtne”), albo/i (3) postulowane wnioski stanowiły nieupoważnioną ekstrapolację wyników eksperymentów (ćmy krępaka nabrzozaka, zięby Darwina, i in.). Świadomie pomijam całą bogatą literaturę na ten temat, ponieważ wykracza ona poza ramy IP i dotyczy szerszego zagadnienia uczciwości i krytyki w nauce. Niewątpliwie badacze działający w ramach Discovery Institute przyczynili się wydatnie do sprostowania wielu mitów, niemniej ta sfera działalności stanowi jedynie negatywne tło istotnych badań.

3. Odrzucenie naturalizmu metodologicznego jako naczelnej zasady naukowej. Od XIX wieku w świecie nauki utrwaliło się przekonanie, że tylko czysto naturalistyczne podejście do świata przyrody jest owocne w badaniach naukowych. Jednak, jak zauważają eksperci z Ruchu Inteligentnego Projektu, większość znaczących odkryć w historii nauki zostało dokonanych z innej perspektywy. Chrześcijaństwo stanowiło bodziec do badań natury, czego potwierdzeniem jest niepodważalny sukces nauki właśnie w chrześcijańskiej Europie. Najwybitniejsi badacze byli otwarci na możliwość istnienia Boga, a metodologiczny naturalizm ma ograniczone możliwości stymulowania nowych poszukiwań. W kontekście współczesnych badań nad komórką nie dokonano by kilku ważnych odkryć (np. funkcji tak zwanego śmieciowego DNA), gdyby naukowcy pozostali w ramach darwinizmu. Dlatego naukowcy działający w ramach IP postulują przełamanie naturalizmu, który ich zdaniem nie jest konieczny, a na dłuższą metę okazuje się nawet szkodliwy dla samej nauki.

4. Badanie granic możliwości mechanizmów ewolucyjnych. Nikt obecnie nie podważa faktu zachodzenia „jakiejś” ewolucji. W świecie biologii obserwuje się zmiany w organizmach, a także ich trwałe przekształcenia. Jednak darwinizm postuluje znacznie więcej niż to, co można rzeczywiście zaobserwować w naturze lub w laboratorium. Stąd pytanie, na które szukają odpowiedzi eksperci IP nie brzmi, czy ewolucja zachodzi, lecz na mocy jakich mechanizmów i jak daleko może ona przekształcać istniejące organizmy. Badania wykazują, że mechanizmy darwinowskie mogą przekształcać istniejące genomy. Jednak postulat neodarwinizmu sięga dużo dalej — w jego ujęciu wszystkie organizmy żyjące i wymarłe, jak też samo życie, a w końcu cały świat i ludzka psychika, miały powstać na drodze tych samych prostych mechanizmów. Badania pokazują jednak, że w rzeczywistości zakres działania mutacji i doboru jest ograniczony, a korzystne zmiany są okupione także pewnymi stratami. Kluczowe pytanie dotyczy tego, skąd wzięła się informacja w jądrze komórki (nawet gdyby chodziło tylko o pierwszą informację w jądrze komórki wspólnego przodka). Dokładne określenie tego, co ewolucja darwinowska może zdziałać, jest nadal otwartym projektem, choć uzyskane dotąd wyniki nie wróżą pomyślnej przyszłości dla tej teorii.

5. Badanie struktur, które nie mogły powstać na drodze mechanizmów ewolucyjnych. Pozytywny aspekt badań inteligentnego projektu to odkrycie układów nieredukowalnie złożonych oraz innych mechanizmów (np. biosynteza AMP), których budowa sama z siebie wyklucza stopniowe utworzenie na drodze drobnych przekształceń. Poznanie tych struktur rzuca zupełnie nowe światło na konstrukcję życia. Przynajmniej niektóre z jego fundamentalnych elementów musiały powstać na drodze dużych i nagłych skoków (całe funkcjonujące systemy gotowe od razu). Religijna interpretacja takiego zjawiska nazywa się stworzeniem.

6. Propozycja udoskonalenia przestarzałej teorii. Zwolennicy inteligentnego projektu nie mówią o konieczności całkowitego odrzucenia teorii Darwina (co często postulowali kreacjoniści), ale raczej o jej udoskonaleniu. Niewątpliwie istnieje pewien obszar, w którym teoria ta się sprawdza, jednak sięga ona XIX wieku i, podobnie jak teorie z innych dziedzin nauki, również ewolucja darwinowska w pewnej mierze się zdezaktualizowała. Jej moc eksplanacyjna jest zbyt mała, aby wyjaśnić fenomeny obserwowane pod mikroskopami elektronowymi w XXI wieku. Zwolennicy IP porównują teorię Darwina do mechaniki Newtona, która w pewnym momencie została zastąpiona ogólną teorią względności Einsteina. Teoria Newtona pozostała ważna, ale tylko w wąskim zakresie zjawisk (przy małych prędkościach i na małych przestrzeniach). Aby wyjaśnić szersze zjawiska, potrzebna była jednak nowsza, bardziej ogólna teoria.

7. Nowy paradygmat naukowy. Odkrycie, że przynajmniej niektóre elementy przyrody są wytworem inteligencji, prowadzi do nowych, niespodziewanych dotąd inspiracji w prowadzeniu badań. Okazuje się bowiem, że świat jest racjonalny i dlatego warto go poznawać. Jeżeli wszystko jest dziełem przypadku, to nie można spodziewać się odnalezienia czegoś zaskakującego, pięknego, innego. Inteligentny projekt okazuje się nowym (bardziej adekwatnym) paradygmatem w nauce, który obejmuje obecnie już nie tylko biologię, ale także astronomię i rozprzestrzenia się na inne dziedziny.


opr. aś/aś


 


Podziel się tym materiałem z innymi:


Kliknij aby zobaczyć dokumenty zawierające wybrany tag: Kościół ewolucja teoria ewolucji teoria inteligentnego projektu inteligentny projekt
 
© Fundacja Opoka 2017
Realizacja: 3W
© Fundacja Opoka 2017
Realizacja: 3W