Strona główna Tagi Informacja genetyczna

Tag: informacja genetyczna

Życie z kurzu czy woda z mózgu?

Archiwum: Idź Pod Prąd 2018, nr 166-168 (maj-lipiec), s. 15. Małgorzata Gazda Jakiś czas temu na stronie internetowej „Rzeczpospolitej” pojawił się tekst lansujący tezę, że życie na...

“ŚMIECIOWY” DNA I “ZDEGENEROWANY” KOD GENETYCZNY

fot. sxc.huNaukowcy od dawna wiedzą, że tylko niewielką część ludzkiego DNA stanowią sekwencje kodujące białka.[1]  Zdecydowana większość genomu nie jest wykorzystywana jako matryca w procesie syntezy białek. Już w latach siedemdziesiątych Susumu Ohno pisał, że – jak wówczas oceniano – tylko ok. 6% ludzkiego DNA stanowią geny. Co do pozostałej części materiału genetycznego sugerował, że mogą to być „pozostałości wymarłych genów”, które w toku ewolucji nagromadziły się w genomie, podobnie jak w skałach nagromadziły się skamieniałości wymarłych gatunków.[2]

 

W tytule swojego artykułu Ohno określił tę część materiału genetycznego jako „śmieciowy DNA”. Wprawdzie określenie to było znane już w latach sześćdziesiątych,[3] ale Ohno przyczynił się do jego spopularyzowania. W taki sposób opisywało tę część genomu wielu uznanych naukowców, m.in. Francis Crick i Leslie Orgel: „Wiele danych empirycznych sugeruje [...], że duża część DNA organizmów wyższych to niewiele więcej niż zwykłe śmieci”.[4]

 

Istnienie rozległych bezużytecznych sekwencji DNA często było wykorzystywane przez ewolucjonistów jako argument przeciwko kreacjonistom. Np. filozof Philip Kitcher przekonywał: „Gdybyś projektował genomy organizmów, nie wypełniałbyś ich śmieciami”. [5]

 

Dzisiaj wiemy już, że „śmieci” to fałszywa metka, którą przyklejono do części genomu, nie mając wystarczającej wiedzy na temat jego funkcjonowania. Wiadomo obecnie, że oprócz białek, produktami powstającymi na podstawie informacji genetycznej zapisanej w DNA są również tzw. niekodujące RNA – cząsteczki RNA, które nie przekazują instrukcji montażu białek, lecz pełnią inne funkcje. Stosunkowo niedawno opublikowane wyniki badań prowadzonych w ramach tzw. Projektu ENCODE [6] wskazują, że około 80% genomu ulega przepisywaniu (transkrypcji) na cząsteczki RNA.[7] Nie wiadomo, czy wszystkie one pełnią jakieś funkcje w komórkach, nie można jednak tego wykluczyć.

 

W wywiadzie dla Scientific American przewodniczący zespołu ponad czterystu naukowców z ENCODE, Ewan Birney, mówiąc o określeniu „śmieciowy DNA”, stwierdził: „Uważam, że tę frazę należy raz na zawsze usunąć z leksykonu. [...] obecnie nie jest to najprzydatniejszy opis genomowej rzeczywistości”.[8]

 

Podobnie nie „najprzydatniejsze” okazało się także inne określenie używane w biologii molekularnej, mianowicie „zdegenerowany” (ewent. „redundantny”) kod genetyczny.

 

Terminu tego używa się w odniesieniu do kodu genetycznego, ponieważ w przyporządkowaniach kodon-aminokwas kodony (trójki nukleotydów) występują w nadmiarze w stosunku do aminokwasów. Istnieją 64 różne kodony (jest to liczba wszystkich kombinacji sekwencji składających się z trzech nukleotydów, kiedy dostępne są 4 różne nukleotydy), a kodują one tylko 20 rodzajów aminokwasów (z trzema wyjątkami, które oznaczają zakończenie translacji). Dlatego większość aminokwasów kodowana jest przez więcej niż jeden kodon (tzw. kodony synonimiczne).

 

Wydawało się więc, że kod genetyczny jest zdegenerowany czy redundantny w tym sensie, że mógłby wyczerpywać pulę wszystkich znaczeń, nawet gdyby duża część kodonów w ogóle nie występowała w sekwencjach DNA. Jednak dzięki postępowi badań naukowych obecnie wiadomo, że funkcjonowanie tego kodu jest w rzeczywistości dużo ciekawszym zagadnieniem.

 

Okazuje się, że kod genetyczny jest idealnym narzędziem służącym do zapisywania informacji w sposób wielowymiarowy. Odkryto bowiem, że sekwencje nukleotydów w mRNA nie tylko określają kolejność łączenia się aminokwasów w łańcuchu polipeptydowym tworzącego się białka, ale także zawierają precyzyjną informację na temat szybkości translacji – występowania pauz w czasie tego procesu. Ścisłe określenie momentów zwalniania translacji jest bardzo ważne dla powstawania funkcjonalnych białek, ponieważ ma to wpływ na sposób ich fałdowania, czyli na trójwymiarowy kształt cząsteczek, a od tego zależy ich funkcjonalność.[9]

 

Zapisana w sekwencji nukleotydów informacja o pauzach w przebiegu translacji odczytywana jest nie z pojedynczych kodonów, ale z ich par (heksamerów nukleotydów). O tym, czy pauza nastąpi, czy nie, decyduje oddziaływanie pary sąsiadujących kodonów z tzw. sekwencją anty-Shine-Dalgarno, która stanowi fragment rybosomowej cząsteczki RNA (integralnej części rybosomu).[10]

 

W rybosomie znajdują się więc dwa osobne centra odczytu informacji zapisanej wprawdzie w jednym, tym samym ciągu znaków (nukleotydów), ale w różny sposób – innym kodem. Dzięki temu z jednej sekwencji nukleotydów odczytywane są dwa różne znaczenia.[11] Co ważne, bezkolizyjność tych dwóch równocześnie zapisanych informacji jest możliwa właśnie dzięki temu, że kod genetyczny określający przyporządkowania kodonów do aminokwasów (rozpatrywany jako wyizolowana część układu kodów) charakteryzuje się redundantnością. Jednak biorąc pod uwagę jego jednoczesne funkcjonowanie z drugim kodem, nie jest on – jak się okazuje – ani redundantny, ani „zdegenerowany”.[12] Naturę tego systemu lepiej oddawałoby określenie „optymalnie skonstruowany”.

 

Warto zwrócić uwagę, że z punktu widzenia kreacjonistów odnajdywanie w żywych organizmach wyrafinowanych układów informatycznych powinno być czymś wręcz oczekiwanym. Jednak konkretne rozwiązania niezmiennie budzą zdumienie i podziw dla Stwórcy. W tym kontekście przypomina się fragment Psalmu 111, „Wielkie są dzieła Pana, godne badania przez wszystkich, którzy je kochają”. Słowa te za czasów Jamesa Clerka Maxwella zostały wyryte na drzwiach wejściowych słynnego Laboratorium Cavendisha w Cambridge. To właśnie tam w następnym stuleciu Watson i Crick dokonali odkrycia struktury DNA, które stało się podstawą dla dalszego rozwoju genetyki.

 

Przypisy:
[1] Obecnie szacuje się, że ludzki genom zawiera ok. 20-25 tys. genów kodujących białka, a fragmenty kodujące – eksony (sekwencje ulegające translacji) – obejmują ok. 1,2% euchromatyny (części chromatyny o mniej skondensowanej strukturze w odróżnieniu od heterochromatyny). Por. International Human Genome Sequencing Consortium, „Finishing the Euchromatic Sequence of the Human Genome”, Nature 2004, vol. 431, no 7011, s. 942-943 [931-945], http://tiny.pl/q64jb (27.09.2014 r.).
[2] Por. Susumu Ohno, „So Much «Junk» DNA in Our Genome” [w:] H.H. Smith (ed.), Evolution of Genetic Systems: Brookhaven Symposia in Biology, no. 23, Gordon and Breach, New York 1972, s. 367-368 [366-370] http://tiny.pl/q64p6 (27.09.2014 r.)
[3] Por. Charles Ehret, Gérard de Haller, Origin, Development, and Maturation of Organelles and Organelle Systems of the Cell Surface in Paramecium, Journal of ultrastructure research. Supplement: 6, Academic Press, New York, London 1963, s. 39; Judge Starling, „The Origin of Junk DNA: A Historical Whodunnit”, http://tiny.pl/q644n (27.09.2014 r.).
[4] L.E. Orgel, F.H.C. Crick, „Selfish DNA: The Ultimate Parasite”, Nature 1980, vol. 284, no. 5757, s. 604-605 [604-607], http://tiny.pl/q64n1 (27.09.2014 r.).
[5] Philip Kitcher, Living with Darwin: Evolution, Design, and the Future of Faith, Oxford University Press, 2007, s. 57.
[6] Pełna nazwa projektu: Encyclopedia of DNA Elements (Encyklopedia Elementów DNA).
[7] Por. wywiad z Ewanem Birneyem (który przewodził zespołowi naukowców z ENCODE): „Wyprawa w głąb genomu”, Świat Nauki 2012, nr 69 (listopad), s. 70 [68-71]; The ENCODE Project Consortium, „An integrated encyclopedia of DNA elements in the human genome”, Nature 2012, vol. 489, no. 7414, s. 57 [57-74].
[8] wywiad z Birneyem, „Wyprawa…”, s. 70.
[9] Por. David J D’Onofrio, David L. Abel, „Redundancy of the genetic code enables translational pausing”, Frontiers in Genetics 2014, vol. 5, s. 1, 3, 4 [1-16], http://tiny.pl/q6nt9 (27.09.2014 r.).
[10] Por. tamże, s. 2, 3, 11.
[11] Por. tamże, s. 11.
[12] Por. tamże, s. 3, 13.

 

idź Pod Prąd, październik 2014


Czy funkcjonalne białka mogą powstać przypadkowo?

Stephen C. Meyer w swojej książce „Signature in the Cell” („Podpis  w  komórce”)  poszukuje  odpowiedzi  na  pytanie, jakie  jest  „najlepsze  wyjaśnienie”  powstania  informacji biologicznej  koniecznej  do  utworzenia  żywej  komórki.  W tym  celu  rozpatruje  wiele  proponowanych  w  nauce  wyjaśnień, by ocenić ich wartość i móc je ze sobą porównać.


 

Analizując  wartość  wyjaśnienia  opartego  na  czysto losowych procesach [1], Meyer przedstawia ciekawe ustalenia  dotyczące  możliwości  przypadkowego  powstania cząsteczek  koniecznych  do  zbudowania  żywej  komórki. Rozważając tę kwestię, skupia się on na cząsteczkach funkcjonalnych białek, w których pełnienie funkcji biologicznej zależy  od  specyficznej  kolejności  połączenia  ze  sobą  poszczególnych  aminokwasów  w  łańcuchach  polipeptydowych, które – ulegając pofałdowaniu w określony sposób – tworzą  trójwymiarowe  struktury  funkcjonalnych  cząsteczek białek.

Według  bardziej  popularnych  koncepcji  odwołujących  się  do  losowych  procesów,  funkcjonalne  białka  nie powstały bezpośrednio drogą przypadkowego łączenia się aminokwasów,  lecz  na  podstawie  sekwencji  nukleotydów kwasu  nukleinowego,  który  wcześniej  powstał  poprzez przypadkowe  łączenie  się  poszczególnych  nukleotydów. Jednak prawdopodobieństwo utworzenia się przez przypadek sekwencji nukleotydów DNA lub RNA można obliczyć pośrednio  –  właśnie  poprzez  obliczenie,  ile  wynosiłoby prawdopodobieństwo  przypadkowego  utworzenia  się  białek, które powstają na ich podstawie.[2] Meyer korzysta z prac naukowców, którzy przyjęli tę strategię.

Aby  białka  były  funkcjonalne,  muszą  spełniać  kilka wymogów dotyczących ich struktury, które uwzględnia się przy  obliczaniu prawdopodobieństwa  przypadkowego  powstania tych białek.

Przede wszystkim funkcjonalne białka mogą powstać tylko  w  rezultacie  pofałdowania  łańcuchów  polipeptydowych o odpowiedniej długości – naukowcy, na których prace  powołuje  się  Meyer,  przyjmowali  długość  100  lub  150 reszt aminokwasowych. W nowszej z tych prac, której autorem jest Douglas Axe, eksperymenty i obliczenia przeprowadzono  dla  cząsteczek  zbudowanych  ze  150  aminokwasów (nie jest to wygórowana liczba). Ponieważ w białkach występuje  20  różnych  aminokwasów,  prawdopodobieństwo  uzyskania  ściśle  określonej  sekwencji  o  tej  długości wynosi (1/20)150 , czyli około 1 do 10195. Ponadto wszystkie aminokwasy  tworzące  łańcuch  polipeptydowy  przed  sfałdowaniem cząsteczki muszą być ze sobą połączone wyłącznie wiązaniami peptydowymi. Naukowcy ustalili, że szansa na to wynosi mniej więcej 1/2 dla każdego aminokwasu, a dla łańcucha o długości 150 aminokwasów – (1/2)149 , czyli około 1 szansa na 1045 . Aby białko mogło być funkcjonalne, wszystkie aminokwasy muszą także występować w formie izomeru  optycznego  o  konfiguracji  L,  chociaż  z  taką  samą łatwością może się przyłączyć forma D. Zatem szansa uzyskania struktury prawidłowej pod tym względem również wynosi dla łańcucha 150-aminokwasowego około (1/2)150, czyli 1 do 1045 .[3]

Wiadomo jednak, że część aminokwasów w funkcjonalnych białkach (ale nie wszystkie) może zostać zmieniona  na  inne,  bez  spowodowania  utraty  funkcji.  Dopóki  nie określono,  jak  duży  zakres  zmian  sekwencji  jest  dopuszczalny, nie można było stwierdzić, jakie jest prawdopodobieństwo  uzyskania  przez  przypadek funkcjonalnej struktury. Pierwszymi  naukowcami,  którzy podjęli  próbę  eksperymentalnego ustalenia  skali  tej  tolerancji,  był zespół  badawczy  kierowany  przez  Roberta  Sauera, biochemika  z  MIT.  Przeprowadzili  oni  eksperymenty na  kilku  białkach  o  łańcuchach  długości  mniej  więcej 100 aminokwasów. Wykazali, że dopuszczalna zmienność sekwencji aminokwasów w tych cząsteczkach jest w  dużym  stopniu  ograniczona,  gdyż  nawet  w  miejscach, w których jej zmiana nie powoduje utraty funkcji białka, nie można określonego aminokwasu zastąpić którymkolwiek  spośród  pozostałych  dziewiętnastu. Zespół Sauera ustalił, że prawdopodobieństwo uzyskania funkcjonalnej sekwencji o długości 100 aminokwasów wynosi 1 do 1063 , jest więc niezmiernie małe.[4]

Podobne  eksperymenty  przeprowadził  później Douglas  Axe.  W  2004  roku  opublikował  w  Journal  of Molecular Biology wyniki badań wykonanych na funkcjonalnym fragmencie białkowym zbudowanym ze 150 aminokwasów. Ustalił on, że stosunek liczby zmienionych sekwencji, które nadal mogą pełnić daną funkcję, do  liczby  wszystkich  możliwych  sekwencji  o  długości 150 aminokwasów wynosi 1 do 1077 . Ustalił on dodatkowo, że stosunek liczby zmienionych sekwencji, które mogą pełnić jakąkolwiek funkcję[5], do liczby wszystkich możliwych sekwencji o tej samej długości wynosi 1 do 1074 .[6] Ustalenie tej danej pozwoliło obliczyć, że szanse uzyskania przez przypadek jakiegokolwiek funkcjonalnego  białka  zbudowanego  ze  150  aminokwasów  w rezultacie losowych oddziaływań między cząsteczkami w „prebiotycznej zupie” to 1 szansa na 10164 .[7] Prawdopodobieństwo to jest niezmiernie małe. Może  się  jednak  wydawać,  że  w  ogromnym  oceanie „prebiotycznej zupy”, w ciągu bardzo długiego okresu czasu, nawet tak bardzo nieprawdopodobne zdarzenie nie jest tak zupełnie nierealne. Aby  uzmysłowić  sobie,  co  naprawdę  oznacza taka  wartość  prawdopodobieństwa,  Meyer  przedstawia obliczenia wykonane przez matematyka Williama Dembskiego.  Obliczył  on  maksymalną  liczbę  pojedynczych  zdarzeń  (liczbę  możliwych  sposobów  łączenia cząstek elementarnych), jakie teoretycznie mogły zajść w  ciągu  całej  historii  obserwowalnego  Wszechświata. Pomnożył przez siebie trzy dane liczbowe: szacowaną liczbę  cząstek  elementarnych  w  obserwowalnym Wszechświecie  –  1080 ;  czas,  który  –  według  pewnych założeń – upłynął od tzw. Wielkiego Wybuchu, podany w sekundach – 1017 ; oraz maksymalną liczbę oddziaływań cząstek elementarnych w ciągu jednej sekundy – 1043 [8], co w wyniku dało liczbę 10140 .[9] Jeśli porówna się tę liczbę z wartością prawdopodobieństwa przypadkowego  uzyskania  jednego funkcjonalnego  białka,  którego  łańcuch  zbudowany jest ze 150 aminokwasów – 1 do 10164  – okazuje się, że gdyby  wszystkie  zdarzenia  we  Wszechświecie  przez całą  jego  historię  były  związane  z  próbą  uzyskania takiego funkcjonalnego białka, to do tej pory Wszechświat  nie  przerobiłby  jeszcze  tylu  zdarzeń,  aby  przypadkowe powstanie  oczekiwanego  białka  można  było  uznać  za  realnie prawdopodobne.[10]   Trzeba przy tym pamiętać, że obliczenia te dotyczą przypadkowego powstania jednego funkcjonalnego białka. Aby mogła powstać  żywa  komórka,  potrzeba  takich  białek  przynajmniej 250.[11] A komórka składa się też z wielu innych cząsteczek. Meyer  uznał,  że  na  podstawie  m.  in.  tych  obliczeń  można odrzucić wyjaśnienia pochodzenia informacji biologicznej odwołujące się wyłącznie do procesów losowych.


(Na podstawie książki Stephena C. Meyera: Signature in the Cell. DNA and the Evidence for Intelligent Design, Harper One, New York 2009, s. 194 – 228.)

[1] W kolejnych rozdziałach analizuje on także wyjaśnienia, których podstawą – w całości lub w części – są koncepcje, według których pewne procesy prowadzące do pojawienia się życia zachodziły z konieczności, a nie przypadkowo.
[2]  „(…)  stosownych  obliczeń  prawdopodobieństwa  można  dokonać,  analizując  albo  szanse  ułożenia  się  aminokwasów  w  funkcjonalne  białko,  albo  szanse ułożenia  się  zasad  nukleotydowych  w  gen  kodujący  to  białko”.  Stephen  C.  Meyer, Signature…, s. 203.
[3] Por. Meyer, Signature…, s. 205-207.
[4] Por. tamże, s. 208.
[5] Czyli takich sekwencji  aminokwasowych, które przynajmniej  pozwalają na zwinięcie się (pofałdowanie) łańcucha polipeptydowego w jakąś stabilną strukturę trzeciorzędową, co jest warunkiem funkcjonalności.
[6] Por. Meyer, Signature…, s. 210-211.
[7]  Por.  tamże,  s.  212.  Wynik  uzyskano  przez  pomnożenie  trzech  danych: prawdopodobieństwa,  że w 150-aminokwasowej sekwencji utworzą się wyłącznie wiązania  peptydowe  (1  do  1045 ),  prawdopodobieństwa,  że  w  sekwencji  o  takiej długości znajdą się tylko izomery L aminokwasów (1 do 10 45 ) oraz prawdopodobieństwa  uzyskania  sekwencji  aminokwasów  pozwalającej  na  utworzenie  stabilnej struktury trzeciorzędowej (1 do 10 74 , jak obliczył Axe).
[8]  Dembski  skorzystał  z  odwrotności  wartości  tzw.  czasu  Plancka – „najkrótszego  czasu  potrzebnego,  aby  wystąpił  jakikolwiek  skutek  fizyczny”  (w przybliżeniu 10-43  sekundy) Por. Meyer, Signature…, s. 216.
[9] Por. tamże, s. 215-217. Meyer zaznacza, że jest to bardziej restrykcyjna liczba niż ta, jaką Dembski obliczył jako tzw. wszechświatową granicę prawdopodobieństwa – 10150  – w której do obliczeń zamiast liczby 1043  przyjmuje 1045 , a jako dostępny czas przyjmuje 1025  sekund – hipotetyczny czas od Wielkiego Wybuchu do momentu, gdy Wszechświat ulegnie kolapsowi lub śmierci cieplnej. Por. D. Sagan, „Filtr eksplanacyjny: wykrywanie inteligentnego projektu na gruncie nauk przyrodniczych”, Roczniki Filozoficzne 2009, t. LVII, nr 1, s. 166 [157-193].
[10] Por. tamże, s. 217-218
[11]  „Na  podstawie  eksperymentów  z  minimalną  złożonością  niektórzy
naukowcy spekulują (ale tego nie wykazali), że prosty jednokomórkowy organizm byłby w stanie przetrwać, mając tylko około 250 – 400 genów”. Tamże, s. 201.  Polecamy  stronę  internetową  Zielonogórskiej  Grupy  Lokalnej  "Nauka  a Religia"  i  czasopisma  internetowego  "Filozoficzne  Aspekty  Genezy": http://www.nauka-a-religia.uz.zgora.pl/ Na stronie tej znajdą Państwo  artykuły w języku  polskim  (oryginalne  oraz  tłumaczenia)  poświęcone  kwestii  relacji  między nauką i religią, ale też dotyczące szeroko rozumianej problematyki genezy.

NAJNOWSZE ARTYKUŁY