Ograniczenia metody naukowej

Udostępnij
Przeczytasz tekst w ok. 5 min.

Ten i inne teksty kreacjonistyczne znajdą Państwo w książce Idź Pod Prąd w sporze ewolucjonizm-kreacjonizm”.

Marta Cuberbiller

Dr John Baumgardner jest emerytowanym geofizykiem ze znanej firmy Los Alamos National Laboratory. Jednocześnie zawsze był i jest kreacjonistą młodej Ziemi. Należy do tych nielicznych kreacjonistów, którzy zyskali uznanie w tzw. nauce głównego nurtu. Zaprojektował program komputerowy o nazwie Terra, modelujący konwekcję geofizyczną w płaszczu Ziemi, czyli ruchy ciepła w płaszczu Ziemi oraz ruchy materii związane z różnicami temperatur w płaszczu Ziemi. Konwekcja ta odpowiada za działalność wulkaniczną, ruch płyt kontynentalnych oraz trzęsienia ziemi, jakie temu ruchowi towarzyszą. Baumgardner wierzy nie tylko w niedawne stworzenie, ale i w potop Noego. Program Terra zaprojektował właśnie po to, by móc, rozważając różne parametry, odtworzyć wydarzenia w trakcie i po potopie. Ten sam program jednak może służyć i służy także tradycyjnej geologii historycznej. Wystarczy zmienić dane na wejściu, aby otrzymać standardowy obraz ewolucji powierzchni Ziemi, w którym płyty kontynentalne przesuwają się względem siebie przez miliony lat z prędkością porównywalną z tempem wzrostu paznokci. Ale gdy do tego programu wprowadzimy dane zgodne z informacjami zachowanymi w Biblii, otrzymamy obraz na początku względnie szybkiego pod wpływem wód potopu ruchu płyt kontynentalnych, które wyhamowując po kilku tysiącach lat, mają prędkość obecnie obserwowaną. Ten początkowy ruch kontynentów nie musiał być bardzo szybki. Jego prędkość można porównać z prędkością poruszania się samochodu w ruchu miejskim.

O Baumgardnerze, jego poglądach i pracy naukowej pisano w 1997 roku w amerykańskim tygodniku U.S. News & World Report, a jego publikacje bądź omówienia wyników badań ukazywały się w czołowych czasopismach naukowych.

W marcowym numerze kreacjonistycznego miesięcznika Acts & Facts Baumgardner stara się wyjaśnić, dlaczego większość uczonych może się mylić w takich sprawach jak stworzenie. Jest to zagadkowa sprawa, gdyż dla nikogo nie ulega wątpliwości, że nauka doprowadziła do oszałamiających sukcesów technicznych – cieszy się więc w rezultacie ogromnym autorytetem. Dlaczego tak solidne źródło wiedzy myli się w sprawach stworzenia? Wyjaśnienia tego faktu Autor upatruje w cechach metody naukowej.

O metodzie naukowej

Metoda naukowa to proces konstruowania przez uczonych dokładnej reprezentacji świata, dokładnego modelu świata. Trzeba jednak pamiętać, że uczeni są ludźmi i na ich postrzeżenia i interpretacje wpływ mają zarówno osobiste, jak i kulturowe przekonania. Dlatego uczeni używają standardowych procedur i kryteriów, by zminimalizować te wpływy, gdy budują teorię naukową. Podobnie przy testowaniu hipotez i teorii uczeni starają się zmniejszyć, na ile się da, wpływ upodobań i przesądów.

Oto te standardowe procedury:

  1. Obserwacja i opis zjawisk.
  2. Formułowanie hipotez wyjaśniających.
  3. Wyprowadzanie z tych hipotez przewidywań nowych zjawisk lub ich nieznanych dotąd własności (np. ilościowych).
  4. Testowanie empiryczne tych przewidywań przez kilku niezależnych eksperymentatorów lub obserwatorów. Jeśli eksperymenty i obserwacje potwierdzają hipotezę, można ją tymczasowo akceptować (jako prawo lub teorię). Jeśli jej zaprzeczają, należy ją odrzucić lub zmodyfikować. Teoria bowiem musi być zgodna z wynikami obserwacji i eksperymentów.Hipotezy naukowe muszą być testowalne, tzn. o ich prawdziwości lub fałszywości muszą rozstrzygać obserwacje i eksperymenty. Jeśli hipoteza nie jest testowalna, jest spekulacją, być może prawdziwą, ale nienaukową.

Niepowodzenia metody naukowej

Wspomniane wyżej procedury mają na celu zobiektywizowanie reprezentacji świata, usunięcie wpływu osobistych upodobań, przekonań pozanaukowych i innych deformujących kształt nauki wpływów. Ale procedury te nie gwarantują stuprocentowej skuteczności. Może się tak zdarzyć, że fałszywe hipotezy, powstałe pod wpływem osobistych lub kulturowych nastawień, stronniczości i tendencyjności, mogą przetrwać testowanie i być uznane za poprawne ujęcie świata. Zdarzało się to nieraz w przeszłości, zdarza się i obecnie. I tak właśnie jest z teorią ewolucji.

Istnieją obiektywne przyczyny tego, że ta fałszywa teoria zyskała tak szeroką akceptację. Po pierwsze, dotyczy ona zdarzeń z przeszłości, często z zamierzchłej przeszłości, a tę jest szczególnie trudno obecnie testować, bo trzeba uciec się do świadectw pośrednich. Po drugie, sprawy pochodzenia życia i człowieka są niezwykle mocno obciążone światopoglądowo. Ich rozstrzyganie angażuje każdego myślącego człowieka, ma też dalekosiężne konsekwencje, dotyczące życia ludzi.

Przyjrzyjmy się bliżej znanej hipotezie, że mutacje i dobór naturalny prowadzą do stałego genetycznego ulepszenia populacji roślin lub zwierząt. W ciągu ostatnich 90 lat genetycy populacyjni stworzyli wyrafinowane modele matematyczne, opisujące i badające ten proces. Prace R.A. Fishera, J.B.S. Haldane’a i Sewalla Wrighta przeprowadzone między 1918 a 1932 rokiem położyły podwaliny dla genetyki populacyjnej. Ta z kolei w latach 1936-1947 doprowadziła do sformułowania tzw. syntezy neodarwinowskiej. W jej ramach dokonało się połączenie koncepcji doboru naturalnego z genetyką mendlowską. Powstała zunifikowana teoria ewolucji, akceptowana dzisiaj przez większość zawodowych biologów.

Ale czy twierdzenia tej sformułowanej ponad 60 lat temu teorii ewolucji dają się utrzymać w świetle tego, co obecnie wiemy na temat funkcjonowania na molekularnym poziomie układów żywych? Białka, z których zbudowane są układy ożywione, wymagają do swego funkcjonowania tak precyzyjnego poziomu specyfikacji, że dopasowywanie się ich na chybił trafił nie jest w stanie zrealizować tego celu. Dlatego właśnie w profesjonalnych czasopismach z genetyki nie ma artykułów, które by dokładnie pokazały, że jest to możliwe.

Zaskakujące może się okazać dla czytelników to, że dobór naturalny – wbrew temu, w co się powszechnie wierzy – nie prowadzi do powolnego, niedostrzegalnego ulepszania genetycznego organizmów. Dobór naturalny bowiem jest „ślepy” na większość mutacji. Żeby dobór „dostrzegł” mutację (czy to korzystną, czy niekorzystną) i ją rozpowszechnił lub usunął z populacji, musi ona wywoływać dostatecznie duży wpływ, pozytywny lub negatywny, na dopasowanie organizmu w jego środowisku. Ponieważ większość mutacji znajduje się poniżej progu wykrywania przez dobór naturalny, większość szkodliwych mutacji gromadzi się bez przeszkód, przyczyniając się do stopniowego z pokolenia na pokolenie pogarszania się jakości materiału genetycznego. Oczywiście, w ten sam sposób mogą się gromadzić też i niewielkie korzystne mutacje, ale niekorzystne znacznie przewyższają je liczbowo.

Trudności te znane są od ponad 30 lat, ale dyskutowano nad nimi tylko w gronie specjalistów, laikom pozostawiając wiarę w to, że wszystko jest w porządku. Zmylono także większość zawodowych biologów, którzy sądzą, że teoretyczne fundamenty syntezy neodarwinowskiej są dobrze osadzone. W rzeczywistości można łatwo pokazać, że mechanizmy neodarwinowskie prowadzą do przeciwnych konsekwencji niż te, których wymaga ewolucjonizm. Przyczyną takiego stanu rzeczy jest zgoda uczonych, aby ich osobiste przekonania wpływały na to, co robią, i w rezultacie pominięcie tak ważnego etapu metody naukowej jak testowanie hipotez.

Nie tylko w biologii

Podobna sytuacja istnieje na przykład w geologii, której przedstawiciele interpretują warstwy geologiczne zawierające skamieniałości jako wynik procesów gradualistycznych raczej niż katastroficznych, chociaż istnieje wiele argumentów empirycznych przemawiających za tym drugim ujęciem.

Także w kosmologii izotropia przesunięcia ku czerwieni w widmach galaktyk oraz kosmicznego mikrofalowego promieniowania tła wskazuje na to, że Ziemia znajduje się blisko centrum Wszechświata. Aby jednak tego wniosku uniknąć, kosmologowie przyjęli wysoce spekulatywną i trudną do stestowania hipotezę – tzw. zasadę kopernikańską, według której w każdym miejscu kosmosu wygląda on tak, jak go obserwujemy z Ziemi (oczywiście, przy odpowiednio dużej skali). Wszystkie modele Big Bangu zależą od tej hipotezy. Ponieważ zasada kopernikańska nie została jak dotąd stestowana, kosmologii Big Bangu nie można uważać za naukę z prawdziwego zdarzenia.

Wnioski

Nauka jest przedsięwzięciem społecznym. Uczeni są ludźmi i mają takie same słabości jak zwykli ludzie. Metoda naukowa nie zawsze daje dokładny obraz świata, ale nie wskutek wadliwości tej metody, tylko dlatego, że stosują ją ludzie. Metoda ta zawodzi, gdy uczeni pozwalają, by ich osobiste przekonania i preferencje prowadziły do pominięcia istotnego składnika metody naukowej, jakim jest testowanie hipotez.

Marta Cuberbiller

(John Baumgardner, „Exploring the Limitations of the Scientific Method”, Acts & Facts March 2008, vol. 37, no. 3, s. 4-5.)

Idź Pod Prąd 2008, nr 51 (październik), s. 10.

Autor
Redakcja IPP