1.6 C
Lublin, PL
21 listopada 2017

PRZESZKODA DLA KORZYSTNYCH MUTACJI

Ewolucjoniści głoszą, że każdy organizm żywy powstał w procesie ewolucji od jakiegoś pierwotnego organizmu jednokomórkowego. Rozwój ten według neodarwinistów odbywa się dzięki istnieniu dziedzicznej zmienności i działaniu doboru naturalnego. Podstawą dziedzicznej zmienności są mutacje – korzystne, niekorzystne i neutralne – zachodzące w materiale genetycznym. Spośród tych trzech dla koncepcji ewolucjonistycznej najważniejsze są oczywiście mutacje korzystne – one bowiem mają odpowiadać za pojawianie się coraz lepszych przystosowań.

Krytycy teorii ewolucji zwracają jednak uwagę na to, że korzystnych mutacji właściwie się nie obserwuje lub obserwuje się bardzo rzadko – jeśli za korzystną uznać mutację wywołującą anemię sierpowatą, która chroni przed śmiercią z powodu malarii, czy mutacje powodujące odporność bakterii na niektóre substancje chemiczne.[1] W jednym z takich krytycznych artykułów autorzy zwrócili uwagę na pewną cechę większych genomów, która podkopuje wiarygodność mechanizmu mutacje + dobór naturalny jako mechanizmu twórczego ulepszania genomów. Autorzy tego artykułu zajęli się mianowicie problemem, w jaki sposób istnienie nakładających się (zachodzących na siebie) kodów genetycznych wpływa na prawdopodobieństwo zajścia korzystnej mutacji.[2]

Pojęcie kodu genetycznego odnosi się do zależności pomiędzy sekwencją nukleotydów w DNA a pojawianiem się określonych skutków biologicznych. Na przykład w powszechnie znanym trójkowym kodzie genetycznym, za którego pomocą kodowane są białka, pewne sekwencje DNA ulegają przepisaniu na cząsteczki pośredniczące (mRNA), a następnie „odczytywane” są w ten sposób, że trzy nukleotydy (stanowiące tryplet, kodon) oznaczają instrukcję wstawienia jednego określonego aminokwasu. Odczytywanie trypletów zgodnie z kolejnością ich ułożenia w sekwencji nukleotydów prowadzi do realizowania instrukcji dotyczących łączenia aminokwasów w prawidłowej kolejności, warunkującej prawidłowe funkcjonowanie białek. Okazuje się jednak, że nie jest to jedyny kod genetyczny i nie jest to jedyny poziom zapisanej informacji genetycznej.

Na przykład istnieje również kod, w którym równolegle do kodu trójkowego (kodującego instrukcje co do kolejności łączenia aminokwasów w białkach) zapisana jest inna informacja (w tych samych sekwencjach nukleotydów, jednak czytanych w inny sposób). Chodzi tutaj o kod, w którym zapisana jest informacja o występowaniu pauz w translacji, co ma znaczenie dla tworzenia właściwej struktury przestrzennej białek, zapewniającej ich funkcjonalność.[3]

Co ciekawe, część fragmentów DNA, które gdy są odczytywane z jednej nici, zawierają zakodowaną informację na temat kolejności łączenia aminokwasów w białkach, posiada również biologiczne znaczenie, gdy są odczytywane z drugiej nici – jako tzw. antysensowne transkrypty.[4]

W 1980 roku odkryto także pewien inny wzorzec sekwencji, który odpowiada za uporządkowane zwijanie (upakowywanie) nici DNA. Nazwano go kodem chromatynowym. Chodzi o periodyczne sekwencje wyznaczające miejsca, w których do DNA przyłączają się białka histonowe, na które DNA nawija się, co wpływa na jego ściślejsze upakowanie w komórce (białka te wraz z nawiniętymi odcinkami DNA to tzw. nukleosomy).[5]

DNA zawiera również informacje jeszcze innego typu, np. dotyczące procesu splicingu genów, regulacji transkrypcji, wyznaczania miejsc wiązania kohezyn. Autorzy artykułu przedstawili swoją propozycję wyodrębnienia aż szesnastu różnych kodów genetycznych odpowiadających różnym poziomom zakodowanej informacji.[6] Oczywiście nie twierdzą oni, że każdy nukleotyd w genomie ma znaczenie dla więcej niż jednego kodu. Dopuszczają nawet możliwość, że niektóre nukleotydy w ogóle nie są brane pod uwagę w żadnym kodzie. Nie twierdzą też, że istnieje choćby jeden nukleotyd, który brałby udział we wszystkich szesnastu kodach.

Dla kwestii prawdopodobieństwa zachodzenia korzystnych mutacji ważne jest to, że różne kody genetyczne mogą w mniejszym lub większym stopniu wykorzystywać te same odcinki nici DNA. Inaczej mówiąc, występowanie takich a nie innych nukleotydów w danym miejscu sekwencji może być istotne ze względu na więcej niż jeden kod. Jeśli chodzi np. o odcinki DNA kodujące aminokwasy w białkach (tzw. eksony stanowiące około 1-2% genomu), to objęte są one co najmniej dwoma kodami – trójkowym oraz dotyczącym występowania pauz podczas translacji. Część nukleotydów znajdujących się w obrębie eksonów jest istotna również ze względu na inne kody, np. kod chromatynowy, ponieważ w obrębie eksonów również znajdują się miejsca wiązania histonów.

We wspomnianym artykule przedstawiono obliczenia pokazujące, jak wielość kodów genetycznych – możliwość wykorzystania tych samych nukleotydów do kodowania informacji różnego typu – wpływa na prawdopodobieństwo ulepszenia sekwencji DNA w wyniku punktowej mutacji.[7] W obliczeniach tych przyjęto założenia, które być może zaniżają bądź zawyżają w pewnym stopniu konkretny wynik liczbowy, warto jednak zwrócić uwagę na ogólne wnioski. Po pierwsze, prawdopodobieństwo korzystnej mutacji jest tym mniejsze, im większy stopień optymalności wykazuje aktualna sekwencja. Po drugie zaś, prawdopodobieństwo korzystnej mutacji jest tym mniejsze, im więcej kodów współdzieli daną sekwencję.

Dla zobrazowania tych zależności można spróbować wyobrazić sobie akapit tekstu, w którym przy różnych sposobach czytania (wprost, wspak, co drugą literę itp.) uzyskuje się jakąś sensowną treść. Jeśli ktoś przepisze ten akapit z jedną literówką, być może uda mu się zwiększyć optymalność tekstu na jednym poziomie odczytu, chociaż o wiele bardziej prawdopodobne jest, że się ona zmniejszy. A jeśli weźmiemy pod uwagę dwa, trzy lub więcej poziomów odczytywania tego tekstu, to prawdopodobieństwo, że przynajmniej na jednym z nich nastąpi ulepszenie bez jednoczesnego uszkodzenia na pozostałych poziomach, jest jeszcze bardziej nikłe.

Chociaż jak dotąd nie wiadomo, jaka jest skala zjawiska występowania nukleotydów istotnych ze względu na informacje kodowane za pomocą więcej niż jednego kodu, to w tych obszarach DNA, w których zjawisko to ma miejsce, prawdopodobieństwo zajścia korzystnej mutacji drastycznie maleje, osiągając bardzo niewielkie wartości w stosunku do prawdopodobieństwa zachodzenia mutacji szkodliwych.[8] Obserwacje potwierdzają, że zachodzenie szkodliwych mutacji jest w genomach normalną tendencją.

Ale skoro tak jest, to jak takie rzadkie korzystne mutacje wśród przytłaczającej większości mutacji szkodliwych mogłyby stanowić wystarczające źródło ulepszania genomów?

 

Przypisy:

[1] Jednak można je uznać za korzystne tylko w takim sensie, że blokują niszczący wpływ jakiegoś jednego czynnika, nie wnoszą natomiast żadnej twórczej korzyści i w normalnych warunkach mogą okazywać się szkodliwe, jak jest w przypadku mutacji wywołującej anemię sierpowatą.

[2] Zob. George Montañez, Robert J. Marks II, Jorge Fernandez and John C. Sanford, „Multiple Overlapping Genetic Codes Profoundly Reduce the Probability of Beneficial Mutation” w: R. J. Marks II, M. J. Behe, W. A. Dembski, B. L. Gordon, and J. C. Sanford, Biological Information. New Perspectives, World Scientific Publishing Company 2013, s. 139-167 (wszystkie artykuły opublikowane w tej książce można pobrać ze strony http://tiny.pl/qzbpz, 28.01.2015 r.).

[3] Por. David J D’Onofrio, David L. Abel, „Redundancy of the genetic code enables translational pausing”, Frontiers in Genetics 2014, vol. 5, s. 1, 3, 4 [1-16], http://tiny.pl/q6nt9 (27.09.2014 r.); pisałam też o tym w tekście „«Śmieciowy» DNA i «zdegenerowany» kod genetyczny”, idź Pod Prąd 2014, nr 8-9-12 (121-122-123), s. 16.

[4] Por. Adam Master, Alicja Nauman, „Regulacja ekspresji genów przez długie naturalnie występujące antysensowne transkrypty”, Postępy Biologii Komórki 2014, tom 41, nr 1, s. 3-28, http://tiny.pl/qzv2f (27.01.2014 r.).

[5] Por. Edward N. Trifonov, „Thirty Years of Multiple Sequence Codes”, Genomics Proteomics Bioinformatics 2011, vol. 9, no 1-2, s. 1-6, http://tiny.pl/qzvfc (27.01.2015 r.). Por. też: J. C. Sanford, Genetic Entropy & The Mystery of the Genome, FMS Publications, New York 2008, s. 132.

[6] Por. Montanez et al., „Multiple Overlapping Genetic Codes…”, s. 154-155.

[7] Por. Tamże, s. 144-148.

[8] Warto dodać, że wiele mutacji wywołuje tak słaby efekt, że są jakby niewidoczne dla doboru naturalnego, przez co nie są selekcjonowane. Niekorzystne mutacje mogą się więc akumulować w genomie, mimo że teoretycznie powinny być eliminowane, korzystne mutacje zaś – nawet jeśli już się pojawią – mogą nie być faworyzowane, a przez to nie będą miały szans zdominować populacji, aby korzystna zmiana została utrwalona w kolejnych pokoleniach. Por. John C. Sanford, John R. Baumgardner and Wesley H. Brewer, „Selection Threshold Severely Constrains Capture of Beneficial Mutations” w: Marks II et al., Biological Information…, s. 265-266 (http://tiny.pl/qzbpz, 28.01.2015 r.).

 

  

 

 

 

 

idź Pod Prąd, nr 1-2 (126-127) styczeń-luty 2015, s. 15-16


“ŚMIECIOWY” DNA I “ZDEGENEROWANY” KOD GENETYCZNY

fot. sxc.huNaukowcy od dawna wiedzą, że tylko niewielką część ludzkiego DNA stanowią sekwencje kodujące białka.[1]  Zdecydowana większość genomu nie jest wykorzystywana jako matryca w procesie syntezy białek. Już w latach siedemdziesiątych Susumu Ohno pisał, że – jak wówczas oceniano – tylko ok. 6% ludzkiego DNA stanowią geny. Co do pozostałej części materiału genetycznego sugerował, że mogą to być „pozostałości wymarłych genów”, które w toku ewolucji nagromadziły się w genomie, podobnie jak w skałach nagromadziły się skamieniałości wymarłych gatunków.[2]

 

W tytule swojego artykułu Ohno określił tę część materiału genetycznego jako „śmieciowy DNA”. Wprawdzie określenie to było znane już w latach sześćdziesiątych,[3] ale Ohno przyczynił się do jego spopularyzowania. W taki sposób opisywało tę część genomu wielu uznanych naukowców, m.in. Francis Crick i Leslie Orgel: „Wiele danych empirycznych sugeruje [...], że duża część DNA organizmów wyższych to niewiele więcej niż zwykłe śmieci”.[4]

 

Istnienie rozległych bezużytecznych sekwencji DNA często było wykorzystywane przez ewolucjonistów jako argument przeciwko kreacjonistom. Np. filozof Philip Kitcher przekonywał: „Gdybyś projektował genomy organizmów, nie wypełniałbyś ich śmieciami”. [5]

 

Dzisiaj wiemy już, że „śmieci” to fałszywa metka, którą przyklejono do części genomu, nie mając wystarczającej wiedzy na temat jego funkcjonowania. Wiadomo obecnie, że oprócz białek, produktami powstającymi na podstawie informacji genetycznej zapisanej w DNA są również tzw. niekodujące RNA – cząsteczki RNA, które nie przekazują instrukcji montażu białek, lecz pełnią inne funkcje. Stosunkowo niedawno opublikowane wyniki badań prowadzonych w ramach tzw. Projektu ENCODE [6] wskazują, że około 80% genomu ulega przepisywaniu (transkrypcji) na cząsteczki RNA.[7] Nie wiadomo, czy wszystkie one pełnią jakieś funkcje w komórkach, nie można jednak tego wykluczyć.

 

W wywiadzie dla Scientific American przewodniczący zespołu ponad czterystu naukowców z ENCODE, Ewan Birney, mówiąc o określeniu „śmieciowy DNA”, stwierdził: „Uważam, że tę frazę należy raz na zawsze usunąć z leksykonu. [...] obecnie nie jest to najprzydatniejszy opis genomowej rzeczywistości”.[8]

 

Podobnie nie „najprzydatniejsze” okazało się także inne określenie używane w biologii molekularnej, mianowicie „zdegenerowany” (ewent. „redundantny”) kod genetyczny.

 

Terminu tego używa się w odniesieniu do kodu genetycznego, ponieważ w przyporządkowaniach kodon-aminokwas kodony (trójki nukleotydów) występują w nadmiarze w stosunku do aminokwasów. Istnieją 64 różne kodony (jest to liczba wszystkich kombinacji sekwencji składających się z trzech nukleotydów, kiedy dostępne są 4 różne nukleotydy), a kodują one tylko 20 rodzajów aminokwasów (z trzema wyjątkami, które oznaczają zakończenie translacji). Dlatego większość aminokwasów kodowana jest przez więcej niż jeden kodon (tzw. kodony synonimiczne).

 

Wydawało się więc, że kod genetyczny jest zdegenerowany czy redundantny w tym sensie, że mógłby wyczerpywać pulę wszystkich znaczeń, nawet gdyby duża część kodonów w ogóle nie występowała w sekwencjach DNA. Jednak dzięki postępowi badań naukowych obecnie wiadomo, że funkcjonowanie tego kodu jest w rzeczywistości dużo ciekawszym zagadnieniem.

 

Okazuje się, że kod genetyczny jest idealnym narzędziem służącym do zapisywania informacji w sposób wielowymiarowy. Odkryto bowiem, że sekwencje nukleotydów w mRNA nie tylko określają kolejność łączenia się aminokwasów w łańcuchu polipeptydowym tworzącego się białka, ale także zawierają precyzyjną informację na temat szybkości translacji – występowania pauz w czasie tego procesu. Ścisłe określenie momentów zwalniania translacji jest bardzo ważne dla powstawania funkcjonalnych białek, ponieważ ma to wpływ na sposób ich fałdowania, czyli na trójwymiarowy kształt cząsteczek, a od tego zależy ich funkcjonalność.[9]

 

Zapisana w sekwencji nukleotydów informacja o pauzach w przebiegu translacji odczytywana jest nie z pojedynczych kodonów, ale z ich par (heksamerów nukleotydów). O tym, czy pauza nastąpi, czy nie, decyduje oddziaływanie pary sąsiadujących kodonów z tzw. sekwencją anty-Shine-Dalgarno, która stanowi fragment rybosomowej cząsteczki RNA (integralnej części rybosomu).[10]

 

W rybosomie znajdują się więc dwa osobne centra odczytu informacji zapisanej wprawdzie w jednym, tym samym ciągu znaków (nukleotydów), ale w różny sposób – innym kodem. Dzięki temu z jednej sekwencji nukleotydów odczytywane są dwa różne znaczenia.[11] Co ważne, bezkolizyjność tych dwóch równocześnie zapisanych informacji jest możliwa właśnie dzięki temu, że kod genetyczny określający przyporządkowania kodonów do aminokwasów (rozpatrywany jako wyizolowana część układu kodów) charakteryzuje się redundantnością. Jednak biorąc pod uwagę jego jednoczesne funkcjonowanie z drugim kodem, nie jest on – jak się okazuje – ani redundantny, ani „zdegenerowany”.[12] Naturę tego systemu lepiej oddawałoby określenie „optymalnie skonstruowany”.

 

Warto zwrócić uwagę, że z punktu widzenia kreacjonistów odnajdywanie w żywych organizmach wyrafinowanych układów informatycznych powinno być czymś wręcz oczekiwanym. Jednak konkretne rozwiązania niezmiennie budzą zdumienie i podziw dla Stwórcy. W tym kontekście przypomina się fragment Psalmu 111, „Wielkie są dzieła Pana, godne badania przez wszystkich, którzy je kochają”. Słowa te za czasów Jamesa Clerka Maxwella zostały wyryte na drzwiach wejściowych słynnego Laboratorium Cavendisha w Cambridge. To właśnie tam w następnym stuleciu Watson i Crick dokonali odkrycia struktury DNA, które stało się podstawą dla dalszego rozwoju genetyki.

 

Przypisy:
[1] Obecnie szacuje się, że ludzki genom zawiera ok. 20-25 tys. genów kodujących białka, a fragmenty kodujące – eksony (sekwencje ulegające translacji) – obejmują ok. 1,2% euchromatyny (części chromatyny o mniej skondensowanej strukturze w odróżnieniu od heterochromatyny). Por. International Human Genome Sequencing Consortium, „Finishing the Euchromatic Sequence of the Human Genome”, Nature 2004, vol. 431, no 7011, s. 942-943 [931-945], http://tiny.pl/q64jb (27.09.2014 r.).
[2] Por. Susumu Ohno, „So Much «Junk» DNA in Our Genome” [w:] H.H. Smith (ed.), Evolution of Genetic Systems: Brookhaven Symposia in Biology, no. 23, Gordon and Breach, New York 1972, s. 367-368 [366-370] http://tiny.pl/q64p6 (27.09.2014 r.)
[3] Por. Charles Ehret, Gérard de Haller, Origin, Development, and Maturation of Organelles and Organelle Systems of the Cell Surface in Paramecium, Journal of ultrastructure research. Supplement: 6, Academic Press, New York, London 1963, s. 39; Judge Starling, „The Origin of Junk DNA: A Historical Whodunnit”, http://tiny.pl/q644n (27.09.2014 r.).
[4] L.E. Orgel, F.H.C. Crick, „Selfish DNA: The Ultimate Parasite”, Nature 1980, vol. 284, no. 5757, s. 604-605 [604-607], http://tiny.pl/q64n1 (27.09.2014 r.).
[5] Philip Kitcher, Living with Darwin: Evolution, Design, and the Future of Faith, Oxford University Press, 2007, s. 57.
[6] Pełna nazwa projektu: Encyclopedia of DNA Elements (Encyklopedia Elementów DNA).
[7] Por. wywiad z Ewanem Birneyem (który przewodził zespołowi naukowców z ENCODE): „Wyprawa w głąb genomu”, Świat Nauki 2012, nr 69 (listopad), s. 70 [68-71]; The ENCODE Project Consortium, „An integrated encyclopedia of DNA elements in the human genome”, Nature 2012, vol. 489, no. 7414, s. 57 [57-74].
[8] wywiad z Birneyem, „Wyprawa…”, s. 70.
[9] Por. David J D’Onofrio, David L. Abel, „Redundancy of the genetic code enables translational pausing”, Frontiers in Genetics 2014, vol. 5, s. 1, 3, 4 [1-16], http://tiny.pl/q6nt9 (27.09.2014 r.).
[10] Por. tamże, s. 2, 3, 11.
[11] Por. tamże, s. 11.
[12] Por. tamże, s. 3, 13.

 

idź Pod Prąd, październik 2014


O informacji genetycznej i pochodzeniu życia

O INFORMACJI GENETYCZNEJ I POCHODZENIU ŻYCIA

Podpis w komórce - okładkaZaczęło się 10 lutego 1985 roku. Tego dnia w Dallas, gdzie pracował jako geofizyk, odbywała się debata o pochodzeniu życia z udziałem znakomitych naukowców, ekspertów w tej dziedzinie. O konferencji dowiedział się trochę przypadkowo i nie mógł wtedy nawet przypuszczać, jak wielką zmianę spowoduje ona w jego życiu. Stephen C. Meyer przysłuchiwał się dyskusji jako widz. Ku jego zaskoczeniu wszyscy debatujący naukowcy przyznawali, że nie mają żadnej dobrej teorii wyjaśniającej pochodzenie życia. Nie byli w stanie przedstawić żadnego zadowalającego scenariusza ewolucji chemicznej, a najważniejszą przeszkodą był według nich DNA – nośnik informacji genetycznej.

Wśród dyskutujących ekspertów byli także Charles Thaxton, Walter Bradley i Roger Olsen, autorzy książki „The Mystery of Life’s Origin” („Tajemnica pochodzenia życia”), w której zasugerowali, że skoro inne próby wyjaśnienia genezy życia zawiodły, to może należy rozważyć, czy w tym wydarzeniu kluczowej roli nie odegrała jakaś inteligentna przyczyna.


Zabrzmiało to jak powrót starego argumentu z projektu, jednak tym razem jego podstawą było nie wspaniałe przystosowanie struktur biologicznych do pełnienia ich funkcji, lecz sam fakt istnienia w żywych organizmach informacji biologicznej, zakodowanej w specyficznych sekwencjach nukleotydów w cząsteczkach DNA. Jak stwierdził Meyer, naukowcy natrafili na „co najmniej jeden przejaw projektu w biologii, który nie może być, póki co, zadowalająco wyjaśniony przez dobór naturalny ani jakikolwiek inny czysto naturalny mechanizm”1. Jego zdaniem należy zweryfikować powstałe po 1859 roku wrażenie, że Darwin obalił argument z projektu, że pokazał „projekt bez projektanta”, jak to określił Francisco Ayala2.

W wypowiedziach wielu ewolucjonistów ujawnia się przekonanie, że projekt, który widać w przyrodzie, nie jest prawdziwym projektem. Tak też traktują oni kod genetyczny i informację biologiczną. Chociaż wszystkie inne rodzaje informacji, jakie znamy, powstają najpierw w umyśle inteligentnego twórcy, jest teoretycznie możliwe, że informacja przechowywana w DNA powstała w inny sposób, bez udziału świadomego projektanta. Jednak na jakiej podstawie może być zbudowane takie przekonanie?

Otóż ewolucjoniści uważają, że natura potrafi naśladować działanie inteligencji, a przykładem, który to potwierdza, ma być dobór naturalny działający jak świadoma selektywna hodowla, chociaż w rzeczywistości jest ślepy i niekierowany. To jest przesłanka, na której zbudowano przekonanie, że przyroda może stworzyć informację.

Meyer przyznaje, że w nauce zdarzają się przypadki, kiedy ludzkie postrzeganie wprowadza w błąd – np. kontynenty wydają się nieruchome – dlatego możliwe jest, że naukowi materialiści mają rację w sprawie informacji zawartej w DNA. Jest to jednak mimo wszystko dziwne, że przy tak słabych przesłankach na rzecz naturalistycznego wyjaśnienia obecności informacji biologicznej, tak łatwo wielu naukowców lekceważy w tej sprawie intuicję. „Biologowie muszą przez cały czas mieć na uwadze, że to, co widzą, nie zostało zaprojektowane, lecz raczej wyewoluowało" – to zdanie Francisa Cricka3 pokazuje, że u podstaw przekonania o czysto naturalnym pochodzeniu DNA leży nie obserwacja, lecz raczej wstępne założenie, że nie może być inaczej.

Stephen C. Meyer przez wiele lat zajmował się poszukiwaniem odpowiedzi na pytanie, skąd się wzięła informacja biologiczna, jak powstała. Badania doprowadziły go do wniosku, że wyjaśnieniem, które najlepiej odpowiada temu, co dzisiaj wiemy, jest odwołanie się do działania inteligentnej przyczyny.

Meyer uznał, że argument, który jego samego przekonał do teorii inteligentnego projektu, powinien zostać przedstawiony w formie „jednego długiego wywodu” (analogicznie do sposobu, w jaki Darwin przedstawił teorię ewolucji).   I chociaż wcześniej wiele pisał już na ten temat, postanowił, że argument ten zasługuje na całościowe opracowanie w postaci książki. Zatytułował ją „Podpis w komórce”, co sugeruje, że informacja genetyczna jest swego rodzaju podpisem, jaki Twórca życia zostawił w swoim dziele.

Jako że Meyer chciał dotrzeć do szerokiego grona odbiorców, nie tylko do naukowego audytorium, książka ta przedstawia nową koncepcję na tle historycznego rozwoju poglądów na temat pochodzenia życia oraz na tle osobistej drogi autora, jaką przebył, by ostatecznie ukształtowały się jego własne przekonania.

* Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009
1. tamże, s. 12
2. tamże, s. 9
3. tamże, s. 20

Proste jak budowa komórki

PROSTE JAK BUDOWA KOMÓRKI

Podpis w komórce - okładka

Drugi rozdział książki „Podpis w komórce” Stephen Meyer poświęcił omówieniu wczesnych teorii ewolucji chemicznej, jakie pojawiały się od 1828 roku, kiedy to Friedrich Wöhler przeprowadził słynną reakcję syntezy mocznika, do roku 1953, gdy Watson i Crick przedstawili swój model złożonej struktury cząsteczki DNA.

Przy dzisiejszym stanie wiedzy o budowie i funkcjonowaniu komórki teorie te wydają się śmieszne, jednak w czasie, gdy powstawały, uważano je za poważne naukowe koncepcje.

W roku 1859 Charles Darwin opublikował swoją najsłynniejszą książkę „O powstawaniu gatunków drogą doboru naturalnego”. Przedstawił w niej teorię dotyczącą wyłaniania się, począwszy od wspólnego przodka, różnorodnych form żywych organizmów. Nie podjął się jednak wyjaśnienia, skąd wziął się ów pierwszy wspólny przodek: „Jego teoria zakłada raczej, niż tłumaczy powstanie pierwszego życia” (s. 35). To, z jaką łatwością naukowcy uznali w tamtym czasie, że teoria Darwina podważyła koncepcję projektu w biologii, mimo iż nie przedstawiła wiarygodnej propozycji wyjaśnienia genezy życia, było dla Meyera zadziwiające: „Jeśli naukowcy nie mieli wówczas uszczegółowionych wyjaśnień dotyczących tego, jak w ogóle powstało życie, to skąd wiedzieli, że projekt […] nie odegrał żadnej roli w tym szczególnym wydarzeniu?” (s. 35-36).


Część odpowiedzi na to pytanie daje pewne wcześniejsze odkrycie z 1828 roku. Eksperyment ten właściwie udał się „niechcący”. Dziewiętnastowieczny chemik, Friedrich Wöhler, nie planował bowiem zsyntetyzowania żadnego związku organicznego. W ramach swoich badań naukowych sprawdzał jedynie, czy w wyniku ogrzewania cyjanianu amonu (NH4NCO) wydzieli się cyjanek. Nie wydzielił się, za to nieorganiczny związek, jakim jest cyjanian amonu, pod wpływem wysokiej temperatury przekształcił się w mocznik (CO(NH2)2), substancję bez wątpienia organiczną.

Doniosłość tego eksperymentu polegała na tym, że wymusił on konieczność zweryfikowania wcześniejszych poglądów, według których związki organiczne i nieorganiczne uważano za dwa rodzaje materii, między którymi istnieje nieprzekraczalna granica. Potraktowano tę reakcję jako świadectwo przeciwko witalizmowi, to jest poglądowi filozoficznemu mówiącemu, że w tym, co żywe, obecne są pewne niematerialne „siły witalne”. Eksperyment Wöhlera zaczęto traktować jako uzasadnienie poglądów, że życie nie jest niczym więcej, jak tylko oddziaływaniem materii i energii w specyficzny sposób, bez udziału jakichkolwiek nadprzyrodzonych czynników. Był więc wzmocnieniem dla materialistycznej wizji świata.

Do początku lat 60. XIX wieku jako naturalistyczne wyjaśnienie pojawienia się życia przyjmowano tak zwaną teorię samorództwa, czyli pogląd, że życie może powstawać spontanicznie z martwej materii. Koncepcję tę miały potwierdzać fakty takie, jak na przykład pojawianie się pleśni na resztkach pożywienia. Jednak ostatecznie Louis Pasteur eksperymentalnie wykazał, że za podobne zjawiska odpowiedzialne są mikroorganizmy, które unoszą się w powietrzu wraz z kurzem. Jeśli osiądą na podłożu sprzyjającym ich rozwojowi, jedynie namnażają się w nim, a nie tworzą. Okazało się, że nauka nie dysponuje żadnymi obserwacjami, z których wynikałoby, że życie może powstawać spontanicznie. Mimo to pojawiły się kolejne teorie proponujące wyjaśnienia, jak mogłoby do tego dojść.

Pod koniec lat 60. XIX wieku Thomas Henry Huxley i Ernst Haeckel zaczęli rozwijać teorie protoplazmatyczne. Opierali się na wcześniejszych odkryciach, w których naukowcy ustalili, że komórki zarówno roślin, jak i zwierząt zawierają bliżej nieokreśloną, bogatą w azot substancję warunkującą ich przeżycie, którą nazwali protoplazmą. Huxley i Haeckel zakładali, że do jej utworzenia prowadzą proste reakcje chemiczne w połączeniu z prostymi właściwościami krystalizacji. Można tutaj znaleźć drugą część odpowiedzi na wspomniane pytanie Meyera. Ich schematy powstawania życia brzmiały wiarygodnie, ponieważ panowało wówczas przekonanie, że życie w ogóle jest proste – że żywa komórka to tylko mały kawałek czegoś w rodzaju galaretki – i nie wymaga skomplikowanych wyjaśnień. Żaden dostępny w tamtym czasie sprzęt badawczy nie umożliwiał uczonym zobaczenia, co naprawdę kryje wnętrze komórki.

Jednak pod koniec XIX wieku, dzięki odkryciu enzymów i ich ważnej roli w procesach życiowych, zaczęto postrzegać komórkę jako „wysoce złożony układ zintegrowanych reakcji chemicznych” (s. 47). Minęło ponad dwadzieścia lat, zanim pojawiła się nowa teoria.
Zaproponował ją rosyjski uczony Aleksandr Oparin. W jego teorii pojawił się element „długiego okresu czasu”, ponieważ uważał, że przy tak wysokim stopniu złożoności życia, jego powstanie musiało być długotrwałym procesem. Swój scenariusz pojawienia się życia podzielił na dwa etapy. W pierwszym kolejne kroki prowadzą do powstania białek. W drugim - białka i inne związki organiczne zostają zamknięte w sferycznych strukturach, zwanych koacerwatami. W ich wnętrzu rozwija się coś na kształt prymitywnego metabolizmu. Pojawia się między nimi konkurencja o pewne związki chemiczne z otoczenia – zaczerpnięta z teorii Darwina koncepcja walki o byt. To prowadzi do wykształcenia się coraz efektywniejszych metabolizmów, a w końcu powstaje pierwsza żywa komórka.

Następnie pojawiło się, jak mogło się wydawać, eksperymentalne potwierdzenie tej teorii, w postaci eksperymentu Millera-Ureya, którego wyniki opublikowano w 1953 roku. Była to symulacja powstawania cząsteczek biologicznych z mieszaniny gazów atmosferycznych – przy założeniu pewnego, innego niż dzisiejszy, składu atmosfery. I rzeczywiście – obok mieszaniny toksycznych substancji pojawiły się również niektóre aminokwasy, z których część była nawet lewoskrętna, a więc potencjalnie nadająca się do budowy żywych komórek. W kręgach naukowych naturalistów spowodowało to euforię, że historia ewolucji została dopełniona.

Jednak Meyer kończy ten rozdział stwierdzeniem, że problem genezy życia wydawał się rozwiązany tylko tak długo, aż nie zaczęto „rozważać innego doniosłego odkrycia 1953 roku” (s. 57). Ma tutaj na myśli odkrycie struktury DNA i jego roli jako nośnika informacji genetycznej. Kwestia powstania precyzyjnych instrukcji potrzebnych do budowy białek, zapisanych w DNA za pomocą kodu genetycznego, wpisuje się w znany z historii schemat, gdy kolejne odkrycia sprawiały, że materialistyczne wyjaśnienie genezy życia stawało się coraz trudniejsze.

* na podstawie książki Stephena C. Meyera „Podpis w komórce” (Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 33-57;wszystkie cytaty pochodzą z tej książki)

DNA – struktura cząsteczki dziedziczności*

„DNA i jego charakterystyczny kształt podwójnej helisy to już kulturowa ikona”1. Trudno byłoby ująć tę myśl trafniej. W rzeczy samej jest to jedna z najbardziej rozpoznawalnych cząsteczek. Schematy i modele jej struktury wyglądają imponująco. Jednak na szczególny podziw zasługuje to, jak cechy budowy chemicznej DNA czynią go doskonałym narzędziem dziedziczności.

Trzeba przyznać, że początkowo nie doceniano jego znaczenia, a kluczową rolę w przekazywaniu cech dziedzicznych przypisywano białkom. U podstaw tego błędnego przekonania leżało przyjęcie tak zwanej hipotezy tetranukleotydu, zaproponowanej przez biochemika Phoebusa Levene’a. Według tej hipotezy cztery zasady azotowe nukleotydów miały występować zawsze w równych ilościach i w sztywno ustalonej, zawsze takiej samej sekwencji, powtarzającej się w sposób monotonny i regularny. Gdyby rzeczywiście tak było, cząsteczka DNA nie nadawałaby się do pełnienia funkcji czynnika odpowiedzialnego za przekazywanie cech dziedzicznych. Czynnik taki musiałby bowiem posiadać zdolność tworzenia znacznej ilości różnych wariantów budowy, aby różnorodne cechy mogły być zapisane w jego strukturze.


Jednak w latach 40. XX wieku eksperymentalne badania przeprowadzone przez Oswalda Avery’ego potwierdziły słuszność identyfikowania DNA (kwasu deoksyrybonukleinowego) jako cząsteczki, która odpowiada za dziedziczenie.

Dalszy postęp w wyjaśnianiu tajemnicy dziedziczności przyniosła praca Erwina Chargaffa. Jego badania prowadzone w latach 50. przyczyniły się do odrzucenia hipotezy tetranukleotydu. Chargaff odkrył pewne intrygujące regularności (tak zwane reguły Chargaffa) w ilościowym udziale poszczególnych zasad azotowych w całej cząsteczce DNA, zupełnie inne od tego, o czym mówił wcześniej Levene.

Okazało się mianowicie, że w DNA zawartość czterech zasad: adeniny, tyminy, guaniny i cytozyny (odpowiednio A, T, G i C) wcale nie jest jednakowa. Zależności przedstawiały się owiele ciekawiej. Chargaff odkrył, że równość zachodzi tylko między ilością adeniny i tyminy (A = T) oraz między ilością guaniny i cytozyny (G = C), a ponadto wykazał, że u odmiennych gatunków inny jest stosunek ilości A i T do G i C. Argumentował, że w związku z tym, iż w DNA jest miejsce na różnorodność, może on odpowiadać za przekazywanie cech dziedzicznych. Zagadkowe prawidłowości stały się w pełni zrozumiałe dopiero po odkryciu struktury cząsteczki DNA.

Na początku lat 50. naukowcy niejako na wyścigi szukali odpowiedzi na pytanie o jej chemiczną budowę. Ostatecznie w 1953 roku przełomowego odkrycia dokonali James Watson i Francis Crick, którym udało się ułożyć kompletną całość ze wszystkich dostępnych danych.

Z rozwiązania łamigłówki wyłoniła się struktura zachwycająca złożonością i ogromnymi możliwościami tworzenia różnych kombinacji sekwencji. Podwójna helisa DNA, spiralna struktura utworzona z dwu antyrównolegle biegnących długich nici zbudowanych z nukleotydów (jednostek budulcowych składających się z grupy fosforanowej, części cukrowej i jednej z czterech zasad azotowych), doskonale odpowiada funkcji, jaką pełni ta cząsteczka.

W obrębie pojedynczej nici potencjalnie każdy wariant sekwencji jest tak samo prawdopodobny, ponieważ nie ma różnicy w powinowactwie chemicznym pomiędzy poszczególnymi rodzajami nukleotydów – żadne właściwości chemiczne nie determinują kolejności ich łączenia. Dzięki temu DNA może być uniwersalnym tworzywem do skonstruowania ogromnej różnorodności genetycznej.

Natomiast precyzyjnie określone jest, jakie nukleotydy w dwu niciach mogą być położone naprzeciwko siebie, łącząc się za pomocą wiązań wodorowych. Jest to tak zwana zasada komplementarności, która mówi, że jeżeli w jednej nici w pewnym miejscu znajduje się adenina, to naprzeciw niej, w drugiej nici musi się znajdować tymina. Analogicznie guanina zawsze łączy się z cytozyną. Stąd też otrzymane przez Chargaffa prawidłowości. Ta własność jest niezbędna, by mógł zachodzić proces kopiowania materiału genetycznego, czyli replikacja. Bez niej nie ma mowy o rozmnażaniu (dlatego każdy, nawet najprostszy jednokomórkowy organizm, musi posiadać DNA).

Własność parowania nukleotydów zgodnie z zasadą komplementarności niezbędna jest także w procesie transkrypcji, w którym na podstawie matrycy DNA powstaje cząsteczka mRNA (tutaj zasadą azotową komplementarną wobec adeniny jest uracyl). Transkrypcja zaś jest pierwszym etapem w procesie ekspresji genów – procesie, który prowadzi do syntezy białka na podstawie informacji zapisanej w DNA.

Każda teoria dotycząca genezy życia musi zaproponować wyjaśnienie pochodzenia tej niezwykłej cząsteczki. Naukowi materialiści odrzucający możliwość jakiejkolwiek nadnaturalnej ingerencji wierzą, że DNA jest cząsteczką „z przypadku”, powstałą samoistnie ze związków chemicznych, bez udziału inteligencji i bez żadnego zaplanowanego celu. Inni, którzy nie przyjmują takiego założenia ograniczającego możliwość wyjaśniania zjawisk przyrodniczych tylko do przyczyn ze świata materialnego, nie mogą oprzeć się wrażeniu, że DNA został precyzyjnie zaprojektowany w konkretnym celu i wbudowany w żywe stworzenia.
Kolejne zagadnienia związane z funkcjonowaniem omawianej cząsteczki jeszcze to wrażenie pogłębiają.

* na podstawie książki Stephena C. Meyera „Podpis w komórce”: Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 58 – 84
1 tamże, s. 27

Czy funkcjonalne białka mogą powstać przypadkowo

Stephen C. Meyer w swojej książce „Signature in the Cell” („Podpis  w  komórce”)  poszukuje  odpowiedzi  na  pytanie, jakie  jest  „najlepsze  wyjaśnienie”  powstania  informacji biologicznej  koniecznej  do  utworzenia  żywej  komórki.  W tym  celu  rozpatruje  wiele  proponowanych  w  nauce  wyjaśnień, by ocenić ich wartość i móc je ze sobą porównać.


 

Analizując  wartość  wyjaśnienia  opartego  na  czysto losowych procesach [1], Meyer przedstawia ciekawe ustalenia  dotyczące  możliwości  przypadkowego  powstania cząsteczek  koniecznych  do  zbudowania  żywej  komórki. Rozważając tę kwestię, skupia się on na cząsteczkach funkcjonalnych białek, w których pełnienie funkcji biologicznej zależy  od  specyficznej  kolejności  połączenia  ze  sobą  poszczególnych  aminokwasów  w  łańcuchach  polipeptydowych, które – ulegając pofałdowaniu w określony sposób – tworzą  trójwymiarowe  struktury  funkcjonalnych  cząsteczek białek.

Według  bardziej  popularnych  koncepcji  odwołujących  się  do  losowych  procesów,  funkcjonalne  białka  nie powstały bezpośrednio drogą przypadkowego łączenia się aminokwasów,  lecz  na  podstawie  sekwencji  nukleotydów kwasu  nukleinowego,  który  wcześniej  powstał  poprzez przypadkowe  łączenie  się  poszczególnych  nukleotydów. Jednak prawdopodobieństwo utworzenia się przez przypadek sekwencji nukleotydów DNA lub RNA można obliczyć pośrednio  –  właśnie  poprzez  obliczenie,  ile  wynosiłoby prawdopodobieństwo  przypadkowego  utworzenia  się  białek, które powstają na ich podstawie.[2] Meyer korzysta z prac naukowców, którzy przyjęli tę strategię.

Aby  białka  były  funkcjonalne,  muszą  spełniać  kilka wymogów dotyczących ich struktury, które uwzględnia się przy  obliczaniu prawdopodobieństwa  przypadkowego  powstania tych białek.

Przede wszystkim funkcjonalne białka mogą powstać tylko  w  rezultacie  pofałdowania  łańcuchów  polipeptydowych o odpowiedniej długości – naukowcy, na których prace  powołuje  się  Meyer,  przyjmowali  długość  100  lub  150 reszt aminokwasowych. W nowszej z tych prac, której autorem jest Douglas Axe, eksperymenty i obliczenia przeprowadzono  dla  cząsteczek  zbudowanych  ze  150  aminokwasów (nie jest to wygórowana liczba). Ponieważ w białkach występuje  20  różnych  aminokwasów,  prawdopodobieństwo  uzyskania  ściśle  określonej  sekwencji  o  tej  długości wynosi (1/20)150 , czyli około 1 do 10195. Ponadto wszystkie aminokwasy  tworzące  łańcuch  polipeptydowy  przed  sfałdowaniem cząsteczki muszą być ze sobą połączone wyłącznie wiązaniami peptydowymi. Naukowcy ustalili, że szansa na to wynosi mniej więcej 1/2 dla każdego aminokwasu, a dla łańcucha o długości 150 aminokwasów – (1/2)149 , czyli około 1 szansa na 1045 . Aby białko mogło być funkcjonalne, wszystkie aminokwasy muszą także występować w formie izomeru  optycznego  o  konfiguracji  L,  chociaż  z  taką  samą łatwością może się przyłączyć forma D. Zatem szansa uzyskania struktury prawidłowej pod tym względem również wynosi dla łańcucha 150-aminokwasowego około (1/2)150, czyli 1 do 1045 .[3]

Wiadomo jednak, że część aminokwasów w funkcjonalnych białkach (ale nie wszystkie) może zostać zmieniona  na  inne,  bez  spowodowania  utraty  funkcji.  Dopóki  nie określono,  jak  duży  zakres  zmian  sekwencji  jest  dopuszczalny, nie można było stwierdzić, jakie jest prawdopodobieństwo  uzyskania  przez  przypadek funkcjonalnej struktury. Pierwszymi  naukowcami,  którzy podjęli  próbę  eksperymentalnego ustalenia  skali  tej  tolerancji,  był zespół  badawczy  kierowany  przez  Roberta  Sauera, biochemika  z  MIT.  Przeprowadzili  oni  eksperymenty na  kilku  białkach  o  łańcuchach  długości  mniej  więcej 100 aminokwasów. Wykazali, że dopuszczalna zmienność sekwencji aminokwasów w tych cząsteczkach jest w  dużym  stopniu  ograniczona,  gdyż  nawet  w  miejscach, w których jej zmiana nie powoduje utraty funkcji białka, nie można określonego aminokwasu zastąpić którymkolwiek  spośród  pozostałych  dziewiętnastu. Zespół Sauera ustalił, że prawdopodobieństwo uzyskania funkcjonalnej sekwencji o długości 100 aminokwasów wynosi 1 do 1063 , jest więc niezmiernie małe.[4]

Podobne  eksperymenty  przeprowadził  później Douglas  Axe.  W  2004  roku  opublikował  w  Journal  of Molecular Biology wyniki badań wykonanych na funkcjonalnym fragmencie białkowym zbudowanym ze 150 aminokwasów. Ustalił on, że stosunek liczby zmienionych sekwencji, które nadal mogą pełnić daną funkcję, do  liczby  wszystkich  możliwych  sekwencji  o  długości 150 aminokwasów wynosi 1 do 1077 . Ustalił on dodatkowo, że stosunek liczby zmienionych sekwencji, które mogą pełnić jakąkolwiek funkcję[5], do liczby wszystkich możliwych sekwencji o tej samej długości wynosi 1 do 1074 .[6] Ustalenie tej danej pozwoliło obliczyć, że szanse uzyskania przez przypadek jakiegokolwiek funkcjonalnego  białka  zbudowanego  ze  150  aminokwasów  w rezultacie losowych oddziaływań między cząsteczkami w „prebiotycznej zupie” to 1 szansa na 10164 .[7] Prawdopodobieństwo to jest niezmiernie małe. Może  się  jednak  wydawać,  że  w  ogromnym  oceanie „prebiotycznej zupy”, w ciągu bardzo długiego okresu czasu, nawet tak bardzo nieprawdopodobne zdarzenie nie jest tak zupełnie nierealne. Aby  uzmysłowić  sobie,  co  naprawdę  oznacza taka  wartość  prawdopodobieństwa,  Meyer  przedstawia obliczenia wykonane przez matematyka Williama Dembskiego.  Obliczył  on  maksymalną  liczbę  pojedynczych  zdarzeń  (liczbę  możliwych  sposobów  łączenia cząstek elementarnych), jakie teoretycznie mogły zajść w  ciągu  całej  historii  obserwowalnego  Wszechświata. Pomnożył przez siebie trzy dane liczbowe: szacowaną liczbę  cząstek  elementarnych  w  obserwowalnym Wszechświecie  –  1080 ;  czas,  który  –  według  pewnych założeń – upłynął od tzw. Wielkiego Wybuchu, podany w sekundach – 1017 ; oraz maksymalną liczbę oddziaływań cząstek elementarnych w ciągu jednej sekundy – 1043 [8], co w wyniku dało liczbę 10140 .[9] Jeśli porówna się tę liczbę z wartością prawdopodobieństwa przypadkowego  uzyskania  jednego funkcjonalnego  białka,  którego  łańcuch  zbudowany jest ze 150 aminokwasów – 1 do 10164  – okazuje się, że gdyby  wszystkie  zdarzenia  we  Wszechświecie  przez całą  jego  historię  były  związane  z  próbą  uzyskania takiego funkcjonalnego białka, to do tej pory Wszechświat  nie  przerobiłby  jeszcze  tylu  zdarzeń,  aby  przypadkowe powstanie  oczekiwanego  białka  można  było  uznać  za  realnie prawdopodobne.[10]   Trzeba przy tym pamiętać, że obliczenia te dotyczą przypadkowego powstania jednego funkcjonalnego białka. Aby mogła powstać  żywa  komórka,  potrzeba  takich  białek  przynajmniej 250.[11] A komórka składa się też z wielu innych cząsteczek. Meyer  uznał,  że  na  podstawie  m.  in.  tych  obliczeń  można odrzucić wyjaśnienia pochodzenia informacji biologicznej odwołujące się wyłącznie do procesów losowych.


(Na podstawie książki Stephena C. Meyera: Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 194 – 228.)

[1] W kolejnych rozdziałach analizuje on także wyjaśnienia, których podstawą – w całości lub w części – są koncepcje, według których pewne procesy prowadzące do pojawienia się życia zachodziły z konieczności, a nie przypadkowo.
[2]  „(…)  stosownych  obliczeń  prawdopodobieństwa  można  dokonać,  analizując  albo  szanse  ułożenia  się  aminokwasów  w  funkcjonalne  białko,  albo  szanse ułożenia  się  zasad  nukleotydowych  w  gen  kodujący  to  białko”.  Stephen  C.  Meyer, Signature…, s. 203.
[3] Por. Meyer, Signature…, s. 205-207.
[4] Por. tamże, s. 208.
[5] Czyli takich sekwencji  aminokwasowych, które przynajmniej  pozwalają na zwinięcie się (pofałdowanie) łańcucha polipeptydowego w jakąś stabilną strukturę trzeciorzędową, co jest warunkiem funkcjonalności.
[6] Por. Meyer, Signature…, s. 210-211.
[7]  Por.  tamże,  s.  212.  Wynik  uzyskano  przez  pomnożenie  trzech  danych: prawdopodobieństwa,  że w 150-aminokwasowej sekwencji utworzą się wyłącznie wiązania  peptydowe  (1  do  1045 ),  prawdopodobieństwa,  że  w  sekwencji  o  takiej długości znajdą się tylko izomery L aminokwasów (1 do 10 45 ) oraz prawdopodobieństwa  uzyskania  sekwencji  aminokwasów  pozwalającej  na  utworzenie  stabilnej struktury trzeciorzędowej (1 do 10 74 , jak obliczył Axe).
[8]  Dembski  skorzystał  z  odwrotności  wartości  tzw.  czasu  Plancka – „najkrótszego  czasu  potrzebnego,  aby  wystąpił  jakikolwiek  skutek  fizyczny”  (w przybliżeniu 10-43  sekundy) Por. Meyer, Signature…, s. 216.
[9] Por. tamże, s. 215-217. Meyer zaznacza, że jest to bardziej restrykcyjna liczba niż ta, jaką Dembski obliczył jako tzw. wszechświatową granicę prawdopodobieństwa – 10150  – w której do obliczeń zamiast liczby 1043  przyjmuje 1045 , a jako dostępny czas przyjmuje 1025  sekund – hipotetyczny czas od Wielkiego Wybuchu do momentu, gdy Wszechświat ulegnie kolapsowi lub śmierci cieplnej. Por. D. Sagan, „Filtr eksplanacyjny: wykrywanie inteligentnego projektu na gruncie nauk przyrodniczych”, Roczniki Filozoficzne 2009, t. LVII, nr 1, s. 166 [157-193].
[10] Por. tamże, s. 217-218
[11]  „Na  podstawie  eksperymentów  z  minimalną  złożonością  niektórzy
naukowcy spekulują (ale tego nie wykazali), że prosty jednokomórkowy organizm byłby w stanie przetrwać, mając tylko około 250 – 400 genów”. Tamże, s. 201.  Polecamy  stronę  internetową  Zielonogórskiej  Grupy  Lokalnej  "Nauka  a Religia"  i  czasopisma  internetowego  "Filozoficzne  Aspekty  Genezy": http://www.nauka-a-religia.uz.zgora.pl/ Na stronie tej znajdą Państwo  artykuły w języku  polskim  (oryginalne  oraz  tłumaczenia)  poświęcone  kwestii  relacji  między nauką i religią, ale też dotyczące szeroko rozumianej problematyki genezy.

Świat RNA z perspektywy krytyków

 

We wszystkich żywych komórkach biosynteza białek oparta jest na występowaniu trzech typów cząsteczek: DNA, RNA i samych białek. Informacja genetyczna przepisywana jest w procesie transkrypcji z DNA na RNA. Powstająca w ten sposób cząsteczka RNA (mRNA) służy następnie jako matryca, na podstawie której w procesie translacji zachodzi budowanie łańcuchów polipeptydowych o ściśle określonej sekwencji aminokwasów. Zsyntetyzowane polipeptydy podlegają fałdowaniu, które prowadzi do przyjęcia przez nie odpowiedniej struktury przestrzennej i, tym samym, do powstania funkcjonalnych białek. (W żywych komórkach białka nie powstają w żaden inny sposób.) Transkrypcja i translacja mogą zachodzić wyłącznie w obecności pewnych specyficznych białek – istnieje więc grupa białek, które występują zarówno w roli produktów syntezy, jak i niezbędnych elementów systemu, który ową syntezę przeprowadza. [1]



DNA, określone rodzaje RNA oraz wspomniana grupa białek stanowią układ cząsteczek, który w przypadku usunięcia nawet jednej z nich straciłby funkcjonalność. Można powiedzieć, że jest to układ nieredukowalnie złożony. Działa on jako pełny zestaw wszystkich współzależnych części albo nie działa wcale. [2]

Pogląd, w myśl którego żywe komórki powstały na drodze ewolucji chemicznej, napotyka tutaj na problem, w jaki sposób system biosyntezy białek mógł się wykształcić stopniowo. Skoro jest to układ nieredukowalnie złożony, to nie mógł powstać jako rezultat bezpośredniej ewolucji, czyli kolejnego pojawiania się poszczególnych jego elementów zdolnych do pełnienia od razu tej funkcji, jaką pełnią obecnie w żywych komórkach. [3] W takim przypadku wszystkie te cząsteczki musiałyby być zachowywane przez dobór naturalny, mimo iż byłyby zupełnie bezużyteczne, dopóki nie spotkałyby się wszystkie w komplecie.

Ewolucjonistyczne próby przezwyciężenia tej trudności zaowocowały wypracowaniem tak zwanej hipotezy „świata RNA”, obecnie najpopularniejszej wśród naukowców koncepcji, według której powstanie komórkowego systemu biosyntezy białek jest rezultatem ewolucji pośredniej. Rozwój tej teorii zapoczątkowały odkrycia z lat 80. XX wieku, które przyniosły nową wiedzę o istnieniu cząsteczek RNA posiadających zdolność katalizowania niektórych reakcji chemicznych. [4] Cząsteczki te zwane są rybozymami.

We współcześnie znanych żywych komórkach ogromną większość reakcji biochemicznych, z nielicznymi wyjątkami, katalizują enzymy białkowe. Jednak wychodząc od faktu istnienia rybozymów, hipoteza „świata RNA” proponuje rozwiązanie, że ewolucję chemiczną mogło zapoczątkować pojawienie się na ziemi cząsteczek RNA pełniących rolę zarówno magazynu informacji, jak i katalizatora, zdolnych do tworzenia swoich własnych kopii (samoreplikacji). Jest to więc koncepcja ewolucji pośredniej, w której funkcja (a nie tylko struktura) RNA ulega stopniowej zmianie. Jego pierwotne funkcje zostają z czasem przeniesione na bardziej wyspecjalizowane rodzaje cząsteczek (białka przejmują rolę katalizatorów, a DNA – magazynu informacji), a znaczenie samego RNA dla procesu syntezy białek zostaje zredukowane do roli pośrednika. [5]

Krytycy tej koncepcji zwracają jednak uwagę na trudności, jakie da się zauważyć przy bardziej szczegółowym jej rozważeniu. Przytoczę kilka z wymienianych problemów.

Już z samą syntezą rybonukleotydów (czyli cegiełek, z których zbudowany jest łańcuch RNA) wiążą się pewne kłopoty. Jedna taka cząsteczka jest połączeniem trzech mniejszych elementów składowych: grupy fosforanowej, cukru rybozy oraz jednej z czterech zasad azotowych – adeniny, uracylu, guaniny  lub cytozyny. Powstanie rybonukleotydów wymagałoby jednoczesnej obecności wszystkich tych trzech rodzajów cząsteczek w pobliżu siebie, aby mogły się ze sobą połączyć. Okazuje się jednak, że wcale nie jest to łatwe do spełnienia, a może nawet niemożliwe do osiągnięcia w warunkach „pierwotnej zupy”. Dlaczego?

Jak stwierdzają Dean Kenyon i Gordon Mills, „warunki postulowane dla prebiotycznej syntezy puryn i pirymidyn [zasad azotowych] są wyraźnie niezgodne z warunkami proponowanymi dla syntezy rybozy”. Ryboza może zostać wyprodukowana ze związków nieorganicznych w toku tzw. reakcji formozowej. Zaczyna się ona od związania razem dwu cząsteczek formaldehydu, a w dalszych etapach tworzy się kilka rodzajów cukrów, w tym ryboza. Mogą one jednak wchodzić w interakcje z innymi cząsteczkami powstającymi w przebiegu reakcji formozowej. Jednak bardziej podstawowym problemem jest tutaj fakt, że reakcja ta nie może zachodzić w obecności pewnych związków azotowych, w tym również związków tworzących się podczas syntezy zasad azotowych. A jeżeli te ostatnie nie spotkają się z rybozą (oraz fosforanami), wówczas nie powstaną rybonukleotydy, a zatem i cząsteczki RNA. (Można dodać, że reakcja formozowa nie zachodzi również w obecności aminokwasów.) [6]

Kolejną trudność stanowi nietrwałość zasad azotowych. W temperaturze około 100°C adenina i guanina mogą przetrwać rok, uracyl 12 lat, a cytozyna – zaledwie 19 dni. [7] Mówi się jednak, że kiedy na powierzchni Ziemi tworzyło się życie, jej powierzchnia była gorąca – panowała temperatura około 80 – 90°C. [8] Niestabilność zasad azotowych stanowiłaby przeszkodę dla przetrwania powstających cząsteczek RNA.

Okazuje się także, że rybonukleotydy, jeśli już są, wiążą się ze sobą wiązaniami o różnych konfiguracjach. Ale budowa cząsteczki kwasu rybonukleinowego wymaga tworzenia wyłącznie wiązań 3',5'-fosfodiestrowych. Badania wykazały jednak, że w spontanicznych reakcjach łączenia rybonukleotydów o wiele chętniej powstają wiązania 5',5'-fosfodiestrowe i 2',5'-fosfodiestrowe. [9]

Teoria „świata RNA” rodzi również poważne problemy probabilistyczne związane z powstaniem systemu samoreplikacji. Wymagałoby to bowiem spotkania w jednym miejscu dwu cząsteczek RNA o specyficznych sekwencjach nukleotydów, z których jedna miałaby zdolność katalizowania replikacji, a druga byłaby dokładnym komplementarnym odpowiednikiem pierwszej i funkcjonowałaby jako matryca. (Ewentualnie drugą cząsteczką RNA mógłby być rybozym zdolny skopiować tę pierwszą i w ten sposób utworzyć dla niej komplementarną matrycę.) [10]

Problemów jest więcej, chociażby to, w jaki sposób mogłoby przebiegać przejście od translacji przeprowadzanej przez rybozymy do systemu translacji opartego na enzymach białkowych. [11] Mimo to, jak wcześniej napisałam, hipoteza „świata RNA” jest obecnie najbardziej popularną koncepcją pochodzenia życia. Można przypuszczać, że o jej popularności decyduje dzisiaj nie przekonywujące świadectwo empiryczne, ale osobiste przekonania przyjmujących ją uczonych, że życie po prostu musiało powstać na drodze niekierowanych procesów ewolucji chemicznej.

Przypisy:
[1] Nieco bardziej szczegółowo opisałam to tutaj: M. Gazda, „Co było pierwsze?”, idź Pod Prąd, nr 105, s. 9.
[2] Twórcą pojęcia „nieredukowalnej złożoności” jest Michael J. Behe. Pisze on: „Przez nieredukowalnie złożony rozumiem pojedynczy system, złożony z poszczególnych dobrze dopasowanych, oddziałujących ze sobą części, które wspólnie pełnią podstawową funkcję układu, a usunięcie jakiejkolwiek z tych części powoduje, że system przestaje sprawnie funkcjonować.” Michael J. Behe, Czarna skrzynka Darwina. Biochemiczne wyzwanie dla ewolucjonizmu, przeł. Dariusz Sagan, BFAG, t. 4, Megas, Warszawa 2008, s. 43.
[3] „Układu nieredukowalnie złożonego nie można wytworzyć bezpośrednio (czyli nieustannie doskonaląc początkową funkcję, której mechanizm się nie zmienia) poprzez liczne, następujące po sobie, drobne przekształcenia układu będącego jego prekursorem, ponieważ każdy prekursor systemu nieredukowalnie złożonego, któremu brakuje jakiejś części, jest z definicji niefunkcjonalny.” Behe, Czarna skrzynka…, s. 43.
[4] W 1982 r. Thomas Cech wraz ze swoimi współpracownikami opublikowali wyniki badań, w których wykazali istnienie intronu zdolnego do autokatalitycznego wycinania się z prekursora RNA. Rok później Sidney Altman i jego współpracownicy odkryli aktywność katalityczną RNazy P. Por. Lizabeth A. Allison, Podstawy biologii molekularnej, Wyd. Uniwersytetu Warszawskiego, Warszawa 2009, s. 71.
[5] Por. Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 298-299.
[6] Por. Dean Kenyon, Gordon C. Mills, “The RNA World: A Criticque”, Origins and Design 17 (1996), s. 11 [9–16]. (http://tiny.pl/hsdwv)
[7] Por. Meyer, Signature in the Cell…, s. 302.
[8] Hugh Ross, „Wysokie temperatury to kubeł zimnej wody dla zwolenników hipotezy powstania życia”, Na początku..., Rok 6, nr 6 (117), s. 188 [188-190].
[9] Kenyon, Mills, “The RNA World…”, s. 12 [9–16].
[10] Por. Meyer, Signature in the Cell…, s. 315-316 oraz przypis 37 ze s. 538-539.
[11] Por. Meyer, Signature in the Cell…, s. 305-312.


Polecamy stronę internetową Zielonogórskiej Grupy Lokalnej "Nauka a Religia" i czasopisma internetowego "Filozoficzne Aspekty Genezy":http://www.nauka-a-religia.uz.zgora.pl/  Na stronie tej znajdą Państwo artykuły w języku polskim (oryginalne oraz tłumaczenia) poświęcone kwestii relacji między nauką i religią, ale też dotyczące szeroko rozumianej problematyki genezy.

Co było pierwsze?

Dzięki odpowiednim cechom budowy chemicznej cząsteczka DNA doskonale spełnia swoją rolę uniwersalnego tworzywa, z którego skonstruowane są różnorodne genotypy wszystkich istot żywych, a także rolę czynnika umożliwiającego rozmnażanie organizmów i dziedziczenie cech oraz produkcję odpowiednich białek.

To idealne dopasowanie struktury i funkcji może rodzić podejrzenie, że DNA został inteligentnie i celowo zaprojektowany, chociaż część naukowców uważa, że jest to jedynie „wrażenie projektu”, a nie rzeczywisty projekt. 1

Jednak Stephen Meyer opisuje w swojej książce jeszcze inny problem związany z funkcjonowaniem DNA i przetwarzaniem informacji genetycznej, który stanowi niemały kłopot dla prób naturalistycznego wyjaśnienia genezy życia. W proponowanych wyjaśnieniach powinny zostać przedstawione jakieś wiarygodne koncepcje dotyczące stopniowego powstania komórki, a zatem także stopniowego powstania złożonego systemu ekspresji genów. Jednak bliższe przyjrzenie się funkcjonowaniu tego systemu pokazuje, że próba określenia, w jaki sposób mógł on wyewoluować, jest zadaniem karkołomnym.




Każda żywa komórka zawiera w swoim wnętrzu DNA - molekularny nośnik informacji genetycznej. Jest to cząsteczka złożona z dwóch połączonych ze sobą i spiralnie skręconych długich nici zbudowanych z tzw. nukleotydów. W DNA występują cztery rodzaje nukleotydów (można je sobie wyobrazić jako koraliki w czterech różnych kolorach nawleczone na sznurek). Procesy przetwarzania informacji zapisanej w DNA, w wyniku których produkowane są różne rodzaje cząsteczek RNA oraz białka, nazywane są ekspresją genów.

W kontekście pytania o genezę życia najciekawsze będzie rozważenie tych procesów, które zachodzą w komórce, by przejść od informacji zapisanej w sekwencji nukleotydów w DNA do zbudowania białka o określonej sekwencji aminokwasów.

Syntezą białek na podstawie informacji genetycznej rządzą pewne prawidłowości. Odkryto mianowicie, że obowiązuje tu zasada, iż każdej kombinacji trzech nukleotydów w powstałej na podstawie DNA cząsteczce mRNA odpowiada jeden konkretny rodzaj aminokwasu w cząsteczce białka (z wyjątkiem trzech trypletów – kodonów – które oznaczają komendę „STOP” podczas tzw. translacji). Jednak ponieważ liczba możliwych kodonów (64) jest większa niż liczba rodzajów aminokwasów (20), to część aminokwasów przyporządkowana jest do więcej niż jednego kodonu. Zbiór tych przyporządkowań nazywa się kodem genetycznym.

Proces syntezy białka dzieli się na dwa etapy. Pierwszym z nich jest tzw. transkrypcja. Dochodzi tutaj do przepisania informacji biologicznej z cząsteczki DNA na cząsteczkę RNA (mRNA), która następnie kieruje się do rybosomów obecnych w cytoplazmie komórki i przy udziale tych struktur ulega tzw. translacji. Translacja polega na „przetłumaczeniu” informacji zapisanej w mRNA – w określonej kolejności ułożenia nukleotydów – na kolejność łączenia odpowiednich aminokwasów w tworzącym się białku.

Na czym jednak polega wspomniany problem? Otóż w obu etapach syntezy białek konieczna jest obecność pewnych bardzo specyficznych… białek!

Transkrypcja zachodzi przy udziale kompleksu enzymatycznego zwanego polimerazą RNA oraz innych molekuł, tzw. czynników inicjacji, elongacji i terminacji transkrypcji. Są to białka. Najprostsza polimeraza RNA jest kompleksem pięciu podjednostek białkowych, z których każda zbudowana jest w specyficzny sposób odpowiadający funkcji, jaką pełni. Ponadto polimeraza RNA do wyprodukowania cząsteczki mRNA potrzebuje budulca – rybonukleotydów. Ich synteza również wymaga działania szeregu różnych specyficznych enzymów (które są rodzajem białek).

Podobnie jest w przypadku translacji. Rybosomy, na których odbywa się ten proces, składają się z dwóch podjednostek zbudowanych z białek i rRNA. W komórkach prokariotycznych (nieposiadających jądra komórkowego) na jeden rybosom przypada około 50 cząsteczek białkowych i 3 cząsteczki rRNA. W komórkach eukariotycznych (posiadających jądro komórkowe) jest to około 80 cząsteczek białek i 4 cząsteczki rRNA.

Oprócz tego, aby mógł zachodzić proces translacji, konieczna jest obecność cząsteczek aminoacylo-tRNA. To one transportują do rybosomów odpowiednie rodzaje aminokwasów, zgodnie z kolejnością przesuwających się kodonów mRNA. Każda cząsteczka aminoacylo-tRNA posiada antykodon pasujący tylko do jednego kodonu na mRNA i jeden konkretny aminokwas odpowiadający temu kodonowi. Synteza tych cząsteczek wymaga specyficznych enzymów – syntetaz aminoacylo-tRNA. Jest ich co najmniej 20 rodzajów i są przypisane do konkretnych rodzajów aminokwasów.

Z problemem tym wiąże się także proces replikacji DNA, który polega na zbudowaniu kopii już istniejącej cząsteczki DNA (proces ten jest podstawą rozmnażania). Również tutaj niezbędna jest obecność białek – enzymów, takich jak topoizomeraza, helikaza, polimeraza DNA, prymaza i kilku innych.

Jak widać, nie tylko synteza białek wymaga uprzedniego istnienia wielu produktów owej syntezy, ale nawet instrukcja (DNA), na podstawie której się ona odbywa, nie powstaje bez udziału końcowych produktów (białek) ekspresji pewnych genów.

Mamy więc do czynienia ze ściśle zintegrowanym układem zależności, w którym pojawienie się jednych cząsteczek nie tylko nie ma sensu, ale jest nawet niemożliwe, jeżeli równocześnie nie istnieją inne elementy systemu. Sposób funkcjonowania procesów przetwarzania informacji genetycznej wskazuje, że omawiany system powstał od razu w całości, a nie stopniowo, w toku ewolucji. Twórca życia najwyraźniej zadbał, by człowiek, napotykając Jego ślady, mógł poznać, że „bez niego nic nie powstało, co powstało”. 2

* na podstawie książki Stephena C. Meyera „Podpis w komórce”: Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 112 – 135.
1 Por. tamże, s. 12.
2 Jan 1:3.


Polecamy stronę internetową Zielonogórskiej Grupy Lokalnej "Nauka a Religia" i czasopisma internetowego "Filozoficzne Aspekty Genezy": www.nauka-a-religia.uz.zgora.pl

Na stronie znajdą Państwo artykuły w języku polskim (oryginalne oraz tłumaczenia) poświęcone kwestii relacji między nauką i religią, ale też dotyczące szeroko rozumianej problematyki genezy.

NAJNOWSZE ARTYKUŁY

Kursy walut

PLN - Polski złoty
EUR
4,2290
USD
3,6090
GBP
4,7786
HUF
0,0135