Strona główna Tagi Genetyka

Tag: genetyka

Historia biblijna odzwierciedlona w genetyce

Małgorzata Gazda W artykule i wywiadzie dla Answers in Genesis dr Nathaniel Jeanson przedstawia, jak dane z genetyki współgrają z biblijną historią ludzkości....

Znajdowanie Adama i Ewy w naszym DNA (cz. II)

zobacz: Znajdowanie Adama i Ewy w naszym DNA (cz. I) Marta Cuberbiller Anglikański prymas kościoła Irlandii z XVII wieku, James Ussher (1581-1656), potraktował poważnie genealogie biblijne...

#NiePochodzęOdMałpy – genetyka a teza o ewolucji człowieka

Małgorzata Gazda Tytułowym hasztagiem nawiązuję do akcji, która pojawiła się i rozniosła w „polskim Internecie” na fali medialnego zainteresowania żartami Mariana Kowalskiego z teorii ewolucji....

SERWIS INFORMACYJNY, 11 maja 2018 r.

Poznaliśmy termin spotkania prezydenta USA Donalda Trumpa z dyktatorem komunistycznej Korei Północnej Kim Dzong Unem. Odbędzie się ono 12 czerwca w Singapurze. Donald Trump...

Granice zmian ewolucyjnych

Marta Cuberbiller Czego dotyczy spór ewolucjonizmu z kreacjonizmem? Potocznie uważa się, że kreacjonizm jest negacją ewolucjonizmu. Ale to błędny pogląd. Nie wystarczy zanegować jakieś twierdzenie ewolucjonisty,...

Znajdowanie Adama i Ewy w naszym DNA (cz. I)

Marta Cuberbiller Biblia wyraźnie naucza, że pochodzimy od tylko dwojga ludzi - Adama i Ewy (Ks. Rodzaju 1:26-28). Jednak dzisiejsi uczeni zaprzeczają tej biblijnej doktrynie....

ZASADA NATURALIZMU METODOLOGICZNEGO CZY ADEKWATNOŚCI PRZYCZYNOWEJ?

Stephen C. Meyer jest jednym z teoretyków projektu, czyli uczonym propagującym tak zwaną teorię inteligentnego projektu. Jest to koncepcja, według której w świecie przyrody istnieją możliwe do wykrycia rzeczywiste projekty – świadectwa empiryczne świadczące o aktywności jakiegoś inteligentnego projektanta. (Przy czym w ramach tej teorii nie jest określana tożsamość projektanta – teoretycy projektu uznają, że nie da się tego rozstrzygnąć na polu nauk przyrodniczych).

Meyer w ramach teorii inteligentnego projektu rozwija węższą, bardziej szczegółową koncepcję „podpisu w komórce”, mówiącą o jednym, konkretnym przykładzie rzeczywistego projektu w przyrodzie. Tym inteligentnym projektem jest według Meyera informacja genetyczna występująca w komórce w cząsteczkach DNA (ale też RNA i białek).

W 2009 roku ukazała się książka Meyera zatytułowana Signature in the Cell (Podpis w komórce), w której przedstawia on obszerne uzasadnienie dla swojej hipotezy. To uzasadnienie dzieli się na dwojakiego rodzaju argumenty. Z jednej strony stara się wykazać, że wszystkie proponowane alternatywne wyjaśnienia problemu pochodzenia informacji genetycznej po dokładniejszym przeanalizowaniu okazują się nie tylko błędne, ale wręcz w żadnym wariancie niezdolne do wyjaśnienia tej sprawy. Z drugiej zaś strony argumentuje w sposób pozytywny, że podmioty inteligentne są znanym z doświadczenia rodzajem czynnika, który potrafi wytwarzać i wytwarza informację.Meyer ma tu na myśli tzw. „wyspecyfikowaną informację”, czyli takie sekwencje czy ułożenia elementów, które przekazują jakąś treść albo wywołują ściśle określony fizyczny skutek zależny od szczegółowego rozmieszczenia poszczególnych znaków lub innych elementów. Koncepcja Meyera dotyczy zatem problemu, skąd się wzięła wyspecyfikowana, sensowna informacja w żywych komórkach zapisana w liniowej sekwencji nukleotydów w cząsteczce DNA.

Jeśli chodzi o naukowe naturalistyczne koncepcje, to Meyer zauważył, że każdą z nich można przyporządkować do jednej z trzech grup, w których podstawą wyjaśniania są:

a) procesy losowe (przypadek),

b) procesy wymuszone prawami przyrody (konieczność),

c) kombinacja powyższych (przypadek + konieczność), czyli przypadkowe powstawanie sekwencji + selekcja związana z prawami przyrody.

Takie ogólne możliwości ma do dyspozycji nauka naturalistyczna. Meyer analizuje wiele szczegółowych hipotez, ale stara się uogólnić krytykę do całej grupy wyjaśnień danego typu, by w ten sposób wykazać, że w ramach danego podejścia w ogóle nie da się sformułować adekwatnego wyjaśnienia – takiego, które nie napotykałoby na nieprzezwyciężalne trudności czy to praktyczne, czy też nawet i konceptualne.[1]

Meyer po skrytykowaniu tych wszystkich koncepcji formułuje ogólny, daleko idący wniosek, że żadne znane wyjaśnienia naturalistyczne nie są w stanie wyjaśnić powstania wyspecyfikowanej informacji w komórce. Skoro w tych trzech wymienionych grupach koncepcji zamykają się wszystkie hipotezy, które jak dotąd zaproponowano, a on – jak twierdzi – wykazał, że każda z tych grup napotyka na zasadnicze, dyskwalifikujące problemy, to nauka naturalistyczna nie ma żadnego dobrego pomysłu na wyjaśnienie pochodzenia wyspecyfikowanej informacji biologicznej.

W obliczu niepowodzenia wyjaśnień naturalistycznych Meyer czuje się więc uprawniony do tego, by za najlepsze wyjaśnienie pochodzenia informacji w komórce uznać hipotezę inteligentnego zaprojektowania. Jak stwierdza, w wypadku inteligentnych podmiotów z doświadczenia wiemy, że mogą wytwarzać wyspecyfikowaną informację.[2]

Formułując wniosek o zaprojektowaniu informacji w komórce, Meyer wyraźnie łamie zasadę naturalizmu metodologicznego (zakaz odwoływania się do czynników pozanaturalnych w wyjaśnieniach zjawisk przyrodniczych) traktowaną współcześnie jako wyznacznik naukowości. Uważa on jednak, że jego koncepcja zasługuje na miano hipotezy naukowej i na poważne potraktowanie przez uczonych, ponieważ choć jest niezgodna z zasadą naturalizmu metodologicznego, to spełnia inną ważną zasadę metodologiczną, której z kolei nie spełnia żadna alternatywna naukowa hipoteza naturalistyczna.

Chodzi o zasadę adekwatności przyczynowej.[3] Meyer definiuje ją jako ograniczenie się w nauce tylko do takich wyjaśnień przyczynowych, które odwołują się do znanych przyczyn mających potwierdzoną przez doświadczenie zdolność do wywoływania określonych skutków – inaczej mówiąc, uzasadnione jest powoływanie się w wyjaśnieniach naukowych tylko na takie przyczyny, o których wiadomo z doświadczenia, że mogą powodować dany rodzaj skutków. Na przykład występowanie na jakimś terenie warstwy pyłów wulkanicznych wyjaśnia się tym, że miał miejsce wybuch wulkanu – ponieważ jest to jedyna przyczyna, o której wiadomo z doświadczenia, że może spowodować powstanie takiego pyłu. Nie rozważa się natomiast na przykład trzęsienia ziemi jako przyczyny, ponieważ żadne doświadczenie nie potwierdza, że trzęsienia ziemi mogą wytwarzać pył wulkaniczny.

Meyer wskazuje, że również dla Darwina ważne było spełnienie zasady, by powoływać się na znane przyczyny mające potwierdzoną zdolność wywoływania określonych skutków. Postulując, że różnorodne organizmy żywe powstały od wspólnego przodka dzięki procesom dziedziczenia z modyfikacjami, Darwin wskazywał, że obecnie obserwuje się coś takiego w mniejszej skali w hodowli – od wspólnych rodziców po wielu pokoleniach powstają bardzo różne odmiany. I choć oczywiście można mu zarzucać, że rozszerzenie zakresu stosowania się tego mechanizmu poza granice jednego rodzaju organizmów jest nieuzasadnione, to widać, że wyjaśniając dane zjawisko przyrodnicze, starał się wykazać, że przyczyna, do której się odwołuje, ma potwierdzoną zdolność powodowania podobnych skutków jak te, które chce wyjaśnić.

Darwin respektował więc jednocześnie obie zasady metodologiczne – zasadę naturalizmu oraz zasadę adekwatności przyczynowej. W wypadku pracy Darwina można powiedzieć, że się one uzupełniały. Jednak w świetle rozważań Meyera okazuje się, że może zachodzić między nimi niezgodność – że respektowanie jednej wiąże się ze złamaniem drugiej i odwrotnie. Jeśli zachowa się zasadę naturalizmu, to powstanie informacji biologicznej trzeba przypisać jakiejś naturalnej przyczynie, ale nie będzie to przyczyna o potwierdzonej przez doświadczenie zdolności do wywołania takiego skutku. Jeśli natomiast wybierze się zachowanie zasady adekwatności przyczynowej, to jedyną przyczyną znaną z tworzenia informacji jest działanie inteligentnego podmiotu, tym samym ta opcja jest niezgodna z zasadą naturalizmu metodologicznego.

Z logicznego punktu widzenia tak samo możliwe jest przyjęcie którejkolwiek z tych dwóch opcji, wobec tego trzeba się po prostu na którąś z nich zdecydować. Warto zdawać sobie sprawę, że wybór zależy od osobistych preferencji.

Przypisy:

[1] Analizy te zajmują kilka rozdziałów książki Meyera: Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 173-323 (rozdz. 8-14). Część tych argumentów wymieniałam w tekstach: „Czy funkcjonalne białka mogą powstać przypadkowo?”, Idź pod prąd 2013, nr 112-113, s.16-17; „«Świat RNA» z perspektywy krytyków”, Idź Pod Prąd 2013, nr 107, s. 9. O niektórych trudnościach najpoważniejszej hipotezy naturalistycznej dotyczącej pochodzenia życia piszę w artykule „Pochodzenie życia. Krytyka teorii świata RNA w świetle badań laboratoryjnych dotyczących nieenzymatycznej syntezy rybonukleotydów”, Filozofia Nauki 2015, nr 3(91), s. 113-131.

[2] Por. Meyer, Signature in theCell…, s. 325-348.

[3] Por. Meyer, Signature in the Cell…, s. 159-161.

 

 


GENETYCZNY „KOD KRESKOWY”

W wydanej kilka lat temu książce „Signature of Controversy”[1] dokumentującej kontrowersje, jakie toczyły się wokół książki Stephena C. Meyera „Signature in the Cell”[2] (Podpis w komórce), znalazł się bardzo ciekawy wątek dotyczący funkcjonalności czy sensowności pewnych sekwencji (Alu) zaliczanych do tak zwanych transpozonów.

Transpozony są fragmentami DNA, które mogą przemieszczać się w inne miejsca genomu na drodze procesu transpozycji. U ssaków stanowią około połowę sekwencji DNA. Wśród transpozonów podgrupę stanowią retrotranspozony, do których zalicza się między innymi tak zwane sekwencje non-LTR dzielące się na dwa rodzaje – elementy SINE (wśród nich sekwencje Alu) i LINE.

Dla wielu naukowców przekonanych, że genomy organizmów żywych zawierają nie tylko informację, ale też sporą ilość genetycznych „śmieci”, transpozony służyły za przykład tej niechlubnej grupy sekwencji. Później (szczególnie w latach po rozpoczęciu w 2003 roku tzw. projektu ENCODE)[3] wiele się zmieniało, jeśli chodzi o rozumienie roli tych fragmentów DNA. Niestety, informacje widocznie nie rozchodziły się dość szybko, by dotrzeć do jednego z czołowych biologów ewolucyjnych, zanim zdążył użyć przestarzałego argumentu w swoim tekście mającym na celu zdyskredytowanie książki Meyera. Dzięki temu jednak pojawiła się dobra okazja, by krytycy krytyka zajęli się tym tematem w swoich odpowiedziach. W ten sposób powstały ciekawe teksty ujęte później w zbiorze „Signature of Controversy”.

Krytykując Meyera (choć w istocie nie odnosząc się do tego, o czym rzeczywiście pisał), znany biolog ewolucyjny Francisco Ayala przedstawił argument przeciwko idei inteligentnego zaprojektowania ludzkiego genomu. Stwierdził w nim, że oprócz funkcjonalnych genów i elementów służących ich włączaniu i wyłączaniu w materiale genetycznym człowieka znajduje się „mnóstwo nonsensownych sekwencji DNA”. Jako przykład podał sekwencje Alu:

„[…] na obszarze całego ludzkiego genomu rozsianych jest około miliona praktycznie identycznych sekwencji Alu, każda długości około trzystu liter (nukleotydów). […] czterdzieści razy więcej sekwencji Alu niż genów.[4] To tak, jakby redaktor książki Meyera wklejał co dwie strony tekstu „Signature of the Cell” czterdzieści dodatkowych stron zapełnionych tą samą trzystuliterową sekwencją. Takiego redaktora Meyer nie uważałby raczej za „inteligentnego”. Czy kiedykolwiek ten milion niemal identycznych sekwencji Alu okaże się funkcjonalny? Wydaje się to mało prawdopodobne”.[5]

Aby wzmocnić swój argument przeciwko inteligentnemu zaprojektowaniu ludzkiego genomu, Ayala dodaje, że często wklejenia dodatkowych sekwencji Alu uszkadzają materiał genetyczny i powodują śmierć na wczesnych etapach rozwoju płodowego. Radzi zatem, by z powodów teologicznych uznać, że ludzki genom jest wytworem wyłącznie naturalnych procesów ewolucji biologicznej powstałym bez udziału inteligentnego Twórcy.

Odpowiadając na cytowane wyżej zarzuty Ayali, Meyer wymienił kilkanaście różnych funkcji biologicznych, jakie w pracach naukowych są przypisywane sekwencjom Alu, wykazując tym samym fałszywość twierdzenia, jakoby były to sekwencje nonsensowne i bezużyteczne.[6] Zwrócił również uwagę na fakt, że wbrew temu, co sugeruje Ayala, sekwencje te nie są rozmieszczone przypadkowo, ale według pewnego schematu, tworząc w genomie coś w rodzaju „kodu kreskowego” – naprzemiennie występujące w chromosomach pasma z większą i mniejszą zawartością Alu. Ponadto ich lokalizacja wykazuje ścisłą korelację z rozmieszczeniem genów kodujących białka – większość tych genów znajduje się w pasmach zawierających więcej sekwencji Alu. Zauważalna jest również przewaga ich występowania w regionach promotorowych i w intronach. Według Meyera taka ukierunkowana dystrybucja elementów Alu nie jest w żadnym razie spodziewanym efektem zachodzenia przypadkowych insercji (mutacji polegających na wklejeniu nukleotydu lub – jak w tym wypadku – większej sekwencji nukleotydów do chromosomów).[7]

Richard Sternberg ujął ten ostatni temat jeszcze szerzej, co pozwoliło dostrzec inną zdumiewającą prawidłowość dotyczącą dystrybucji retrotranspozonów. Wyszedł on w swojej analizie poza poziom jednego genomu czy genomu jednego gatunku i przedstawił obserwacje, jakich dokonano, porównując liniowe rozmieszczenie retrotranspozonów grupy SINE u różnych gatunków.

Elementy SINE różnych gatunków różnią się pod względem sekwencji. U człowieka występuje sekwencja Alu, u naczelnych różne tzw. podrodziny tej sekwencji wykazujące do niej podobieństwo. U myszy występują trzy rodziny elementów SINE – B1, B2 i B4, przy czym B1 wykazuje pewne podobieństwo do Alu, natomiast B2 i B4 są zupełnie niepodobne zarówno do niej, jak i do siebie nawzajem. U szczura odpowiednikiem są elementy ID – niewykazujące podobieństwa do żadnej wcześniej wymienionej grupy.[8]

Biolodzy ewolucyjni szacują, że linie myszy i szczurów wyodrębniły się od wspólnego przodka jakieś 22 miliony lat temu. Skoro tak, to ich genomy od tego czasu kształtowały się niezależnie od siebie. Sternberg proponuje pewien eksperyment myślowy. Załóżmy, że 22 miliony lat temu doszło do rozpadu jakiegoś ciała niebieskiego i utworzenia z jego części dwóch księżyców. Wyobraźmy sobie, że powierzchnie każdego z nich były następnie kształtowane przez przypadkowe kolizje z asteroidami i uderzenia meteorytów, w związku z czym obecnie (po 22 milionach lat) są pokryte licznymi kraterami. Czy porównując rozmieszczenie kraterów na powierzchniach obu księżyców spodziewalibyśmy się, że będzie ono wyraźnie różne, czy też niemal identyczne? Wracając do sprawy retrotranspozonów, jeżeli założylibyśmy, że słuszne są twierdzenia Ayali na temat nonsensowności elementów SINE i przypadkowości ich rozmieszczenia (rozsiania), to jak powinny mieć się do siebie wzorce rozmieszczenia tych elementów u myszy i u szczura po 22 milionach lat podlegania naturalnemu procesowi przypadkowego wklejania do genomu tych sekwencji? Powinny wyraźnie się różnić, czy też powinny być niemal identyczne?[9]

Badania porównawcze wykazały, że drugi wariant jest zgodny z rzeczywistością.[10] A czy jest zgodny z przewidywaniem opartym na wyżej wymienionych założeniach? Dlaczego stały wzorzec rozmieszczenia elementów SINE miałby być tak istotną cechą genomu, gdyby nie był szczególnie ważny dla biologicznej funkcjonalności? Nie można tego tłumaczyć jako rezultatu chemicznej konieczności związanej z własnościami określonej sekwencji nukleotydów, gdyż – jak wyżej wspomniano – rozmieszczenie jest niemal jednakowe mimo diametralnych różnic sekwencji. Być może jednak ich dystrybucję zgodną ze ściśle określonym wzorcem wymuszają jakieś inne, nieznane cechy genomów?

Meyer i Sternberg przedstawili mocne argumenty przeciwko twierdzeniu, jakoby retrotranspozony grupy SINE były bezużyteczne i przypadkowo rozproszone w genomie. Tylko tyle i aż tyle – bo choć nie musi to oznaczać, że zostały one inteligentnie zaprojektowane, to z całą pewnością utrudnia argumentowanie, że nie zostały. Dodatkową zaś wartością jest podanie w wątpliwość argumentu z autorytetu światowej sławy naukowców. Poleganie na nich może – jak widać – wieść na „bezdroża błędu”.

 

 

Przypisy:

[1] Zob. David Klinghoffer (red.), Signature of Controversy: Responses to Critics of Signature in the Cell, Discovery Institute Press, Seattle 2010, http://tiny.pl/gx2cc.

[2] Zob. Stephen C. Meyer, Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009.

[3] Pełna nazwa projektu – ENCyclopedia Of DNA Elements (Encyklopedia Elementów DNA). Jego cel to zidentyfikowanie i opisanie wszystkich funkcjonalnych elementów ludzkiego genomu.

[4] Ayala bierze pod uwagę tylko grupę genów kodujących białka, których człowiek ma około 20-25 tysięcy.

[5] Ayala, „On Reading the Cell’s Signature”, http://tiny.pl/gx2sj. Błąd w tytule książki Signature in the Cell obecny jest w oryginalnym tekście Ayali. Ponieważ treść tego tekstu wydaje się wskazywać, że Ayala nie zapoznał się z treścią tej książki, odpowiedź Meyera została umieszczona w zbiorze Signature of Controversy w dziale „On Not Reading Stephen Meyer’s Signature in the Cell”, którego tytuł wyraźnie nawiązuje do tytułu tekstu Ayali).

[6] Por. http://tiny.pl/gx2sp (w przedruku w Signature of Controversy…, s. 13-14). Niektóre wskazane tam funkcje sekwencji Alu to zapewnianie sygnałów dla alternatywnego splicingu RNA, wyznaczanie alternatywnych miejsc startowych dla procesu ekspresji genów, kodowanie cząsteczek RNA modulujących transkrypcję, wpływ na fizyczne układanie się chromatyny.

[7] Por. http://tiny.pl/gx2sp (w przedruku w Signature of Controversy…, s. 14-15).

[8] Por. Signature of Controversy…, s. 59-60

[9] Por. Signature of Controversy…, s. 60-61.

[10] Por. Signature of Controversy…, s. 61-62.

 

 

 

 

 

 

 

 

 

idź Pod Prąd nr 132/134, lipiec/sierpień/wrzesień 2015

 


PRZESZKODA DLA KORZYSTNYCH MUTACJI

Ewolucjoniści głoszą, że każdy organizm żywy powstał w procesie ewolucji od jakiegoś pierwotnego organizmu jednokomórkowego. Rozwój ten według neodarwinistów odbywa się dzięki istnieniu dziedzicznej zmienności i działaniu doboru naturalnego. Podstawą dziedzicznej zmienności są mutacje – korzystne, niekorzystne i neutralne – zachodzące w materiale genetycznym. Spośród tych trzech dla koncepcji ewolucjonistycznej najważniejsze są oczywiście mutacje korzystne – one bowiem mają odpowiadać za pojawianie się coraz lepszych przystosowań.

Krytycy teorii ewolucji zwracają jednak uwagę na to, że korzystnych mutacji właściwie się nie obserwuje lub obserwuje się bardzo rzadko – jeśli za korzystną uznać mutację wywołującą anemię sierpowatą, która chroni przed śmiercią z powodu malarii, czy mutacje powodujące odporność bakterii na niektóre substancje chemiczne.[1] W jednym z takich krytycznych artykułów autorzy zwrócili uwagę na pewną cechę większych genomów, która podkopuje wiarygodność mechanizmu mutacje + dobór naturalny jako mechanizmu twórczego ulepszania genomów. Autorzy tego artykułu zajęli się mianowicie problemem, w jaki sposób istnienie nakładających się (zachodzących na siebie) kodów genetycznych wpływa na prawdopodobieństwo zajścia korzystnej mutacji.[2]

Pojęcie kodu genetycznego odnosi się do zależności pomiędzy sekwencją nukleotydów w DNA a pojawianiem się określonych skutków biologicznych. Na przykład w powszechnie znanym trójkowym kodzie genetycznym, za którego pomocą kodowane są białka, pewne sekwencje DNA ulegają przepisaniu na cząsteczki pośredniczące (mRNA), a następnie „odczytywane” są w ten sposób, że trzy nukleotydy (stanowiące tryplet, kodon) oznaczają instrukcję wstawienia jednego określonego aminokwasu. Odczytywanie trypletów zgodnie z kolejnością ich ułożenia w sekwencji nukleotydów prowadzi do realizowania instrukcji dotyczących łączenia aminokwasów w prawidłowej kolejności, warunkującej prawidłowe funkcjonowanie białek. Okazuje się jednak, że nie jest to jedyny kod genetyczny i nie jest to jedyny poziom zapisanej informacji genetycznej.

Na przykład istnieje również kod, w którym równolegle do kodu trójkowego (kodującego instrukcje co do kolejności łączenia aminokwasów w białkach) zapisana jest inna informacja (w tych samych sekwencjach nukleotydów, jednak czytanych w inny sposób). Chodzi tutaj o kod, w którym zapisana jest informacja o występowaniu pauz w translacji, co ma znaczenie dla tworzenia właściwej struktury przestrzennej białek, zapewniającej ich funkcjonalność.[3]

Co ciekawe, część fragmentów DNA, które gdy są odczytywane z jednej nici, zawierają zakodowaną informację na temat kolejności łączenia aminokwasów w białkach, posiada również biologiczne znaczenie, gdy są odczytywane z drugiej nici – jako tzw. antysensowne transkrypty.[4]

W 1980 roku odkryto także pewien inny wzorzec sekwencji, który odpowiada za uporządkowane zwijanie (upakowywanie) nici DNA. Nazwano go kodem chromatynowym. Chodzi o periodyczne sekwencje wyznaczające miejsca, w których do DNA przyłączają się białka histonowe, na które DNA nawija się, co wpływa na jego ściślejsze upakowanie w komórce (białka te wraz z nawiniętymi odcinkami DNA to tzw. nukleosomy).[5]

DNA zawiera również informacje jeszcze innego typu, np. dotyczące procesu splicingu genów, regulacji transkrypcji, wyznaczania miejsc wiązania kohezyn. Autorzy artykułu przedstawili swoją propozycję wyodrębnienia aż szesnastu różnych kodów genetycznych odpowiadających różnym poziomom zakodowanej informacji.[6] Oczywiście nie twierdzą oni, że każdy nukleotyd w genomie ma znaczenie dla więcej niż jednego kodu. Dopuszczają nawet możliwość, że niektóre nukleotydy w ogóle nie są brane pod uwagę w żadnym kodzie. Nie twierdzą też, że istnieje choćby jeden nukleotyd, który brałby udział we wszystkich szesnastu kodach.

Dla kwestii prawdopodobieństwa zachodzenia korzystnych mutacji ważne jest to, że różne kody genetyczne mogą w mniejszym lub większym stopniu wykorzystywać te same odcinki nici DNA. Inaczej mówiąc, występowanie takich a nie innych nukleotydów w danym miejscu sekwencji może być istotne ze względu na więcej niż jeden kod. Jeśli chodzi np. o odcinki DNA kodujące aminokwasy w białkach (tzw. eksony stanowiące około 1-2% genomu), to objęte są one co najmniej dwoma kodami – trójkowym oraz dotyczącym występowania pauz podczas translacji. Część nukleotydów znajdujących się w obrębie eksonów jest istotna również ze względu na inne kody, np. kod chromatynowy, ponieważ w obrębie eksonów również znajdują się miejsca wiązania histonów.

We wspomnianym artykule przedstawiono obliczenia pokazujące, jak wielość kodów genetycznych – możliwość wykorzystania tych samych nukleotydów do kodowania informacji różnego typu – wpływa na prawdopodobieństwo ulepszenia sekwencji DNA w wyniku punktowej mutacji.[7] W obliczeniach tych przyjęto założenia, które być może zaniżają bądź zawyżają w pewnym stopniu konkretny wynik liczbowy, warto jednak zwrócić uwagę na ogólne wnioski. Po pierwsze, prawdopodobieństwo korzystnej mutacji jest tym mniejsze, im większy stopień optymalności wykazuje aktualna sekwencja. Po drugie zaś, prawdopodobieństwo korzystnej mutacji jest tym mniejsze, im więcej kodów współdzieli daną sekwencję.

Dla zobrazowania tych zależności można spróbować wyobrazić sobie akapit tekstu, w którym przy różnych sposobach czytania (wprost, wspak, co drugą literę itp.) uzyskuje się jakąś sensowną treść. Jeśli ktoś przepisze ten akapit z jedną literówką, być może uda mu się zwiększyć optymalność tekstu na jednym poziomie odczytu, chociaż o wiele bardziej prawdopodobne jest, że się ona zmniejszy. A jeśli weźmiemy pod uwagę dwa, trzy lub więcej poziomów odczytywania tego tekstu, to prawdopodobieństwo, że przynajmniej na jednym z nich nastąpi ulepszenie bez jednoczesnego uszkodzenia na pozostałych poziomach, jest jeszcze bardziej nikłe.

Chociaż jak dotąd nie wiadomo, jaka jest skala zjawiska występowania nukleotydów istotnych ze względu na informacje kodowane za pomocą więcej niż jednego kodu, to w tych obszarach DNA, w których zjawisko to ma miejsce, prawdopodobieństwo zajścia korzystnej mutacji drastycznie maleje, osiągając bardzo niewielkie wartości w stosunku do prawdopodobieństwa zachodzenia mutacji szkodliwych.[8] Obserwacje potwierdzają, że zachodzenie szkodliwych mutacji jest w genomach normalną tendencją.

Ale skoro tak jest, to jak takie rzadkie korzystne mutacje wśród przytłaczającej większości mutacji szkodliwych mogłyby stanowić wystarczające źródło ulepszania genomów?

 

Przypisy:

[1] Jednak można je uznać za korzystne tylko w takim sensie, że blokują niszczący wpływ jakiegoś jednego czynnika, nie wnoszą natomiast żadnej twórczej korzyści i w normalnych warunkach mogą okazywać się szkodliwe, jak jest w przypadku mutacji wywołującej anemię sierpowatą.

[2] Zob. George Montañez, Robert J. Marks II, Jorge Fernandez and John C. Sanford, „Multiple Overlapping Genetic Codes Profoundly Reduce the Probability of Beneficial Mutation” w: R. J. Marks II, M. J. Behe, W. A. Dembski, B. L. Gordon, and J. C. Sanford, Biological Information. New Perspectives, World Scientific Publishing Company 2013, s. 139-167 (wszystkie artykuły opublikowane w tej książce można pobrać ze strony http://tiny.pl/qzbpz, 28.01.2015 r.).

[3] Por. David J D’Onofrio, David L. Abel, „Redundancy of the genetic code enables translational pausing”, Frontiers in Genetics 2014, vol. 5, s. 1, 3, 4 [1-16], http://tiny.pl/q6nt9 (27.09.2014 r.); pisałam też o tym w tekście „«Śmieciowy» DNA i «zdegenerowany» kod genetyczny”, idź Pod Prąd 2014, nr 8-9-12 (121-122-123), s. 16.

[4] Por. Adam Master, Alicja Nauman, „Regulacja ekspresji genów przez długie naturalnie występujące antysensowne transkrypty”, Postępy Biologii Komórki 2014, tom 41, nr 1, s. 3-28, http://tiny.pl/qzv2f (27.01.2014 r.).

[5] Por. Edward N. Trifonov, „Thirty Years of Multiple Sequence Codes”, Genomics Proteomics Bioinformatics 2011, vol. 9, no 1-2, s. 1-6, http://tiny.pl/qzvfc (27.01.2015 r.). Por. też: J. C. Sanford, Genetic Entropy & The Mystery of the Genome, FMS Publications, New York 2008, s. 132.

[6] Por. Montanez et al., „Multiple Overlapping Genetic Codes…”, s. 154-155.

[7] Por. Tamże, s. 144-148.

[8] Warto dodać, że wiele mutacji wywołuje tak słaby efekt, że są jakby niewidoczne dla doboru naturalnego, przez co nie są selekcjonowane. Niekorzystne mutacje mogą się więc akumulować w genomie, mimo że teoretycznie powinny być eliminowane, korzystne mutacje zaś – nawet jeśli już się pojawią – mogą nie być faworyzowane, a przez to nie będą miały szans zdominować populacji, aby korzystna zmiana została utrwalona w kolejnych pokoleniach. Por. John C. Sanford, John R. Baumgardner and Wesley H. Brewer, „Selection Threshold Severely Constrains Capture of Beneficial Mutations” w: Marks II et al., Biological Information…, s. 265-266 (http://tiny.pl/qzbpz, 28.01.2015 r.).

 

  

 

 

 

 

idź Pod Prąd, nr 1-2 (126-127) styczeń-luty 2015, s. 15-16


“ŚMIECIOWY” DNA I “ZDEGENEROWANY” KOD GENETYCZNY

fot. sxc.huNaukowcy od dawna wiedzą, że tylko niewielką część ludzkiego DNA stanowią sekwencje kodujące białka.[1]  Zdecydowana większość genomu nie jest wykorzystywana jako matryca w procesie syntezy białek. Już w latach siedemdziesiątych Susumu Ohno pisał, że – jak wówczas oceniano – tylko ok. 6% ludzkiego DNA stanowią geny. Co do pozostałej części materiału genetycznego sugerował, że mogą to być „pozostałości wymarłych genów”, które w toku ewolucji nagromadziły się w genomie, podobnie jak w skałach nagromadziły się skamieniałości wymarłych gatunków.[2]

 

W tytule swojego artykułu Ohno określił tę część materiału genetycznego jako „śmieciowy DNA”. Wprawdzie określenie to było znane już w latach sześćdziesiątych,[3] ale Ohno przyczynił się do jego spopularyzowania. W taki sposób opisywało tę część genomu wielu uznanych naukowców, m.in. Francis Crick i Leslie Orgel: „Wiele danych empirycznych sugeruje [...], że duża część DNA organizmów wyższych to niewiele więcej niż zwykłe śmieci”.[4]

 

Istnienie rozległych bezużytecznych sekwencji DNA często było wykorzystywane przez ewolucjonistów jako argument przeciwko kreacjonistom. Np. filozof Philip Kitcher przekonywał: „Gdybyś projektował genomy organizmów, nie wypełniałbyś ich śmieciami”. [5]

 

Dzisiaj wiemy już, że „śmieci” to fałszywa metka, którą przyklejono do części genomu, nie mając wystarczającej wiedzy na temat jego funkcjonowania. Wiadomo obecnie, że oprócz białek, produktami powstającymi na podstawie informacji genetycznej zapisanej w DNA są również tzw. niekodujące RNA – cząsteczki RNA, które nie przekazują instrukcji montażu białek, lecz pełnią inne funkcje. Stosunkowo niedawno opublikowane wyniki badań prowadzonych w ramach tzw. Projektu ENCODE [6] wskazują, że około 80% genomu ulega przepisywaniu (transkrypcji) na cząsteczki RNA.[7] Nie wiadomo, czy wszystkie one pełnią jakieś funkcje w komórkach, nie można jednak tego wykluczyć.

 

W wywiadzie dla Scientific American przewodniczący zespołu ponad czterystu naukowców z ENCODE, Ewan Birney, mówiąc o określeniu „śmieciowy DNA”, stwierdził: „Uważam, że tę frazę należy raz na zawsze usunąć z leksykonu. [...] obecnie nie jest to najprzydatniejszy opis genomowej rzeczywistości”.[8]

 

Podobnie nie „najprzydatniejsze” okazało się także inne określenie używane w biologii molekularnej, mianowicie „zdegenerowany” (ewent. „redundantny”) kod genetyczny.

 

Terminu tego używa się w odniesieniu do kodu genetycznego, ponieważ w przyporządkowaniach kodon-aminokwas kodony (trójki nukleotydów) występują w nadmiarze w stosunku do aminokwasów. Istnieją 64 różne kodony (jest to liczba wszystkich kombinacji sekwencji składających się z trzech nukleotydów, kiedy dostępne są 4 różne nukleotydy), a kodują one tylko 20 rodzajów aminokwasów (z trzema wyjątkami, które oznaczają zakończenie translacji). Dlatego większość aminokwasów kodowana jest przez więcej niż jeden kodon (tzw. kodony synonimiczne).

 

Wydawało się więc, że kod genetyczny jest zdegenerowany czy redundantny w tym sensie, że mógłby wyczerpywać pulę wszystkich znaczeń, nawet gdyby duża część kodonów w ogóle nie występowała w sekwencjach DNA. Jednak dzięki postępowi badań naukowych obecnie wiadomo, że funkcjonowanie tego kodu jest w rzeczywistości dużo ciekawszym zagadnieniem.

 

Okazuje się, że kod genetyczny jest idealnym narzędziem służącym do zapisywania informacji w sposób wielowymiarowy. Odkryto bowiem, że sekwencje nukleotydów w mRNA nie tylko określają kolejność łączenia się aminokwasów w łańcuchu polipeptydowym tworzącego się białka, ale także zawierają precyzyjną informację na temat szybkości translacji – występowania pauz w czasie tego procesu. Ścisłe określenie momentów zwalniania translacji jest bardzo ważne dla powstawania funkcjonalnych białek, ponieważ ma to wpływ na sposób ich fałdowania, czyli na trójwymiarowy kształt cząsteczek, a od tego zależy ich funkcjonalność.[9]

 

Zapisana w sekwencji nukleotydów informacja o pauzach w przebiegu translacji odczytywana jest nie z pojedynczych kodonów, ale z ich par (heksamerów nukleotydów). O tym, czy pauza nastąpi, czy nie, decyduje oddziaływanie pary sąsiadujących kodonów z tzw. sekwencją anty-Shine-Dalgarno, która stanowi fragment rybosomowej cząsteczki RNA (integralnej części rybosomu).[10]

 

W rybosomie znajdują się więc dwa osobne centra odczytu informacji zapisanej wprawdzie w jednym, tym samym ciągu znaków (nukleotydów), ale w różny sposób – innym kodem. Dzięki temu z jednej sekwencji nukleotydów odczytywane są dwa różne znaczenia.[11] Co ważne, bezkolizyjność tych dwóch równocześnie zapisanych informacji jest możliwa właśnie dzięki temu, że kod genetyczny określający przyporządkowania kodonów do aminokwasów (rozpatrywany jako wyizolowana część układu kodów) charakteryzuje się redundantnością. Jednak biorąc pod uwagę jego jednoczesne funkcjonowanie z drugim kodem, nie jest on – jak się okazuje – ani redundantny, ani „zdegenerowany”.[12] Naturę tego systemu lepiej oddawałoby określenie „optymalnie skonstruowany”.

 

Warto zwrócić uwagę, że z punktu widzenia kreacjonistów odnajdywanie w żywych organizmach wyrafinowanych układów informatycznych powinno być czymś wręcz oczekiwanym. Jednak konkretne rozwiązania niezmiennie budzą zdumienie i podziw dla Stwórcy. W tym kontekście przypomina się fragment Psalmu 111, „Wielkie są dzieła Pana, godne badania przez wszystkich, którzy je kochają”. Słowa te za czasów Jamesa Clerka Maxwella zostały wyryte na drzwiach wejściowych słynnego Laboratorium Cavendisha w Cambridge. To właśnie tam w następnym stuleciu Watson i Crick dokonali odkrycia struktury DNA, które stało się podstawą dla dalszego rozwoju genetyki.

 

Przypisy:
[1] Obecnie szacuje się, że ludzki genom zawiera ok. 20-25 tys. genów kodujących białka, a fragmenty kodujące – eksony (sekwencje ulegające translacji) – obejmują ok. 1,2% euchromatyny (części chromatyny o mniej skondensowanej strukturze w odróżnieniu od heterochromatyny). Por. International Human Genome Sequencing Consortium, „Finishing the Euchromatic Sequence of the Human Genome”, Nature 2004, vol. 431, no 7011, s. 942-943 [931-945], http://tiny.pl/q64jb (27.09.2014 r.).
[2] Por. Susumu Ohno, „So Much «Junk» DNA in Our Genome” [w:] H.H. Smith (ed.), Evolution of Genetic Systems: Brookhaven Symposia in Biology, no. 23, Gordon and Breach, New York 1972, s. 367-368 [366-370] http://tiny.pl/q64p6 (27.09.2014 r.)
[3] Por. Charles Ehret, Gérard de Haller, Origin, Development, and Maturation of Organelles and Organelle Systems of the Cell Surface in Paramecium, Journal of ultrastructure research. Supplement: 6, Academic Press, New York, London 1963, s. 39; Judge Starling, „The Origin of Junk DNA: A Historical Whodunnit”, http://tiny.pl/q644n (27.09.2014 r.).
[4] L.E. Orgel, F.H.C. Crick, „Selfish DNA: The Ultimate Parasite”, Nature 1980, vol. 284, no. 5757, s. 604-605 [604-607], http://tiny.pl/q64n1 (27.09.2014 r.).
[5] Philip Kitcher, Living with Darwin: Evolution, Design, and the Future of Faith, Oxford University Press, 2007, s. 57.
[6] Pełna nazwa projektu: Encyclopedia of DNA Elements (Encyklopedia Elementów DNA).
[7] Por. wywiad z Ewanem Birneyem (który przewodził zespołowi naukowców z ENCODE): „Wyprawa w głąb genomu”, Świat Nauki 2012, nr 69 (listopad), s. 70 [68-71]; The ENCODE Project Consortium, „An integrated encyclopedia of DNA elements in the human genome”, Nature 2012, vol. 489, no. 7414, s. 57 [57-74].
[8] wywiad z Birneyem, „Wyprawa…”, s. 70.
[9] Por. David J D’Onofrio, David L. Abel, „Redundancy of the genetic code enables translational pausing”, Frontiers in Genetics 2014, vol. 5, s. 1, 3, 4 [1-16], http://tiny.pl/q6nt9 (27.09.2014 r.).
[10] Por. tamże, s. 2, 3, 11.
[11] Por. tamże, s. 11.
[12] Por. tamże, s. 3, 13.

 

idź Pod Prąd, październik 2014


NAJNOWSZE ARTYKUŁY

Kursy walut