Molekularny skalpel, który uleczy wszystkie choroby świata?

Marcin Suskiewicz | 27-05-2018 17:54:10 | zajmie Ci przeczytanie tego artykułu
Molekularny skalpel, który uleczy wszystkie choroby świata?
www.flickr.com/photos/nihgov/

Czy metoda CRISPR uleczy „absolutnie wszystkie” choroby? Historyk nauki Nathaniel Comfort porównuje atmosferę wokół CRISPR i innych osiągnięć nowej biologii do skeczu Monty Pythona How to do it, w którym niejaka Jackie tłumaczy, jak pozbyć się wszystkich chorób świata: „Wpierw zostań lekarzem i odkryj cudowne lekarstwo na jakąś chorobę, a gdy świat medyczny zacznie cię w końcu zauważać, powiedz im, co robić, i dopilnuj, by robili wszystko jak trzeba, żeby na świecie nie było już żadnych chorób”. Wyolbrzymione obietnice naukowców i popularyzatorów nauki stwarzają czasem podobnie komiczne wrażenie.

Rozmowy na temat CRISPR – nowej metody umożliwiającej wprowadzanie zmian w sekwencji DNA – zwykle szybko schodzą na temat moralnej dopuszczalności edycji ludzkiego genomu. W niniejszym tekście chciałbym jednak zostawić to ważne zagadnienie etyczne na boku i skupić się na CRISPR jako przede wszystkim pewnym fakcie naukowym i pewnym epizodzie z historii nauki (a może nawet szerzej i mocniej: z historii cywilizacji). Mam nadzieję, że taka właśnie naukowo-historyczna perspektywa okaże się przydatna także w kontekście dyskusji filozoficznych.

W swoim szkicu skupię się przede wszystkim na nakreśleniu tła potrzebnego dla zrozumienia doniosłości CRISPR. Zacznę od podstaw biologii molekularnej, a następnie przedstawię wybrane epizody z historii tej dziedziny, aż po odkrycie nowej metody. Na koniec pozwolę sobie na garść luźnych refleksji na temat złożonej wielokierunkowej relacji między tym, w jaki sposób nauka dochodzi do swoich wniosków i co rzeczywiście mówi a jej postrzeganiem przez – z jednej strony – samych naukowców i – z drugiej strony – opinię publiczną. Przypadek CRISPR dobrze pokazuje, że odkrycia naukowe nie wydarzają się w próżni, lecz w ludzkiej przestrzeni rozciągającej się między biegunami geniuszu i przypadku, ofiarności i ambicji, nadziei i lęku. Przestrzeni, w której – na dodatek – wszystko ma swoją historię. Pośród tych końcowych rozważań znajdzie się miejsce dla kilku prowizorycznych myśli o zabarwieniu filozoficznym.

Dramat zwany komórką

Powyżej padły słowa „sekwencja”, „DNA” i „genom”. Co one dokładnie oznaczają i w jakiej relacji stoją do innych terminów, takich, jak „gen”, „enzym”, „chromosom”, „RNA” czy „białko”? I wreszcie: jakie role ci wszyscy bohaterowie odgrywają w dramacie zwanym „komórką biologiczną”?

Zacznijmy może od białek. Tradycyjnie postrzegano je jako swego rodzaju niby-maszyny, wyspecjalizowane w spełnianiu różnych funkcji. Jedne białka przyspieszają więc reakcje chemiczne (nazywamy je enzymami – każda reakcja wymaga oczywiście innego enzymu), inne transportują substancje przez błony biologiczne. Są też białka odbierające sygnały na powierzchni komórki oraz takie, które kontrolują proces odczytywania genów. Lista możliwych funkcji ciągnie się jeszcze długo.

Choć taki funkcjonalistyczny obraz białek jest zasadniczo słuszny, współczesna biologia zastrzega, że każda ich prosta klasyfikacja jest uproszczeniem – większość białek da się bowiem przypisać jednocześnie do kilku funkcji, a są i takie, których nie da się przypisać do żadnej. Jednak każde białko, także to pozornie „bezrobotne”, odgrywa przynajmniej jedną podstawową rolę: oddziałując z innymi białkami i wpływając na ich aktywność, stanowi węzeł w złożonym, dynamicznym systemie wzajemnych zależności. Dopiero ów system jako całość jest w stanie w skoordynowany sposób regulować procesy życiowe komórki.

Centralna pozycja białek rodzi jednak problem: jak przekazać komórkom potomnym przepis na ich budowę?

Otóż fundamentalne znaczenie dla funkcjonowania życia, przynajmniej tego, które znamy z naszej planety, ma fakt, że w komórce – inaczej niż miałoby to miejsce w świecie wytworów ludzkich – budowa owych niby-maszyn nie wymaga skomplikowanych instrukcji, schematów, rysunków – a więc informacji złożonej i wielowymiarowej. Białka są bowiem liniowymi łańcuchami zaledwie dwudziestu rodzajów ogniw i aby stworzyć określone białko wystarczy znać łączną liczbę i sekwencję ogniw.

Ogniwa te – aminokwasy – różnią się między sobą własnościami fizyko-chemicznymi. W nanoskali podstawowe oddziaływania elektrostatyczne między atomami są na tyle silne, by długie łańcuchy białka – liczące zwykle kilkaset elementów – mogły w środowisku wodnym samorzutnie przybierać misterne kształty, każda cząsteczka kształt nieco inny, zależnie od sekwencji. Ewolucja biologiczna od samych początków życia po omacku poszukuje takich kombinacji aminokwasów, które są w stanie samorzutnie w coś sensownego się zwinąć i – dzięki odpowiednio rozmieszczonym w przestrzeni grupom chemicznym – spełniać jakąś funkcję lub choćby oddziaływać w określony sposób z innymi białkami.

Skoro informacja potrzebna do budowy białek ma charakter jednowymiarowy, przepisy na białka – geny – również mogą mieć formę liniowego łańcucha. Tym razem jest to łańcuch złożony z ogniw nie dwudziestu, lecz zaledwie czterech rodzajów. Ponieważ jednak ogniwa te – nukleotydy A, T, C i G – odczytywane są w procesie produkcji białek trójkami, możliwych kombinacji (AAA, AAT, ATA, TAA itd.) jest aż nadto (4^3 = 64), by, jak to się mówi, „zakodować” każdy z dwudziestu aminokwasów wchodzących w skład białek.

Nici DNA są bardzo długie. W złożonych organizmach (np. u człowieka) nie dość że każda taka nić (tak zwany chromosom) mieści tysiące przepisów na białka, to jeszcze przepisy te łącznie stanowią zaledwie 1-2% całej długości. Resztę chromosomu zajmują obszary odgrywające wciąż nie do końca sprecyzowane funkcje, przede wszystkim – jak się przypuszcza – mające na celu regulację odczytywania genów. To od tych obszarów zależy, czy dane białko w ogóle będzie w danym momencie produkowane, a jeśli tak – w jakiej ilości. Regulacja ta ma fundamentalne znaczenie. Dość przypomnieć, że każda komórka naszego ciała zawiera to samo DNA, a mimo to komórki różnych tkanek zawierają bardzo różne zestawy białek – i zestawy te zmieniają się w czasie.

I jeszcze jeden fundamentalnie ważny fakt na temat DNA: jest ono „podwójną helisą”, to znaczy składa się z dwóch splecionych ze sobą nici. Jeśli na jednej nici znajduje się zakodowana sekwencja białka, na drugiej obecny jest jej jakby fotograficzny negatyw. Każdemu A na pierwszej odpowiada T na drugiej, każdemu zaś T na pierwszej – A na drugiej. Podobnie każdemu C odpowiada G i każdemu G – C. To parowanie wynika z korzystnych oddziaływań elektrostatycznych, które dany nukleotyd może stworzyć tylko ze swoim partnerem (A tylko z T, G tylko z C). Dwie „komplementarne” sekwencje – na przykład AGTCGCATC i GATGCGACT (ta druga musi najpierw zostać odwrócona do góry nogami – zobacz rysunek) – wiążą się ze sobą bardzo ściśle. Niektóre geny zapisane są na jednej nici (a na drugiej posiadają swój negatyw), inne zapisane są na drugiej (a pierwsza zawiera ich negatyw).

View post on imgur.com

Po co jednak to wszystko? „Nie umknęło naszej uwadze, że specyficzny sposób parowania, który proponujemy, natychmiast sugeruje mechanizm powielania materiału genetycznego” – napisali James Watson i Francis Crick w artykule z 1953 roku prezentującym model podwójnej helisy. Rzeczywiście, podwójna nić okazuje się przydatna przy podziale komórki. Helisa rozplata się wówczas na dwie składowe, a następnie każda pojedyncza nić kieruje syntezą brakującej „siostry” według reguł parowania. W ten sposób zamiast jednej podwójnej nici na koniec mamy dwie podwójne nici – po jednej dla każdej komórki potomnej przy podziale.

I wreszcie ostatni bohater dramatu – RNA. Jeśli DNA jest zbiorem przepisów (na białka), to zbiorem szczególnie cennym, którego nie trzyma się w warsztacie, lecz w sejfie – specjalnie wydzielonym obszarze komórki zwanym jądrem komórkowym. W związku z tym,  zanim dojdzie do syntezy białka, wybrany gen musi zostać przepisany z helisy DNA na krótszy łańcuch, tak zwany przekaźnik RNA, który dopiero jest w stanie opuścić jądro. Cząsteczka RNA przypomina w budowie cząsteczkę DNA – również jest łańcuchem złożonym z nukleotydów czterech rodzajów – ale zwykle jest znacznie krótsza (odpowiada tylko jednemu genowi) i istnieje jako pojedyncza nić, nie podwójna helisa.

Całą tę sytuację można porównać do kserowania właściwej strony ze zbioru przepisów trzymanego w sejfie i zabranie następnie kserokopii do miejsca produkcji.

W procesie „kserowania” genu znów przydatna okazuje się fakt, że DNA jest podwójną helisą i każdy gen posiada swój „negatyw” na przeciwległej nici: dwie nici DNA zostają chwilowo rozplecione przez specjalny enzym i nić zawierająca „negatyw” genu służy jako matryca do stworzenia łańcucha RNA odpowiadającego jego „pozytywowi”, zgodnie z zasadami komplementarności nukleotydów. W ostatnim akcie RNA wypływa z jądra do cytoplazmy, gdzie enzym odpowiadający za produkcję białek, rybosom, przesuwając się wzdłuż RNA „odczytuje” sekwencję nukleotydów trójkami i jednocześnie syntezuje łańcuch białka o odpowiednym układzie ogniw. Całą ścieżkę od genu poprzez RNA do białka można zilustrować schematycznie w następujący sposób:

View post on imgur.com

Wszystkie drogi prowadzą do CRISPR

Francuski historyk nauki i biochemik Michel Morange przekonująco pokazał (w artykule pt. What history tells us XXXIX. CRISPR-Cas: From a prokaryotic immune system to a universal genome editing tool, zamieszczonym w numerze „Journal of Biosciences” z 5 grudnia 2015 roku), że CRISPR posiada (przynajmniej) podwójny rodowód. Oczywiście nie byłoby metody CRISPR bez odkrycia bakteryjnego systemu odporności o tej właśnie nazwie – to pierwsze, oczywiste źródło nowej technologii. Nie byłoby jej jednak również – twierdzi Morange – bez tradycji poszukiwania enzymów, które są w stanie w specyficzny sposób ciąć określone sekwencje DNA. Dopiero na tle tej tradycji znaczenie CRISPR zaczyna być zrozumiałe. Według mnie jednak początków CRISPR można w pewnym sensie szukać jeszcze wcześniej, u samych korzeni biologii molekularnej. Zanim bowiem ktokolwiek zaczął szukać enzymów „w specyficzny sposób tnących sekwencje DNA”, biolodzy musieli odkryć znaczenie specyficzności.

Historia specyficzności rozpoczyna się zaś od Karla Landsteinera, laureata nagrody Nobla za odkrycie grup krwi i pioniera badań nad układem odpornościowym. Jak wiadomo, układ odpornościowy reaguje na obecność obcych substancji, tak zwanych „antygenów”, tworzeniem przeciwciał. Wstrzykując zwierzętom różne związki chemiczne, Landsteiner zauważył, że przeciwciała produkowane w odpowiedzi zawsze oddziałują tylko z tym związkiem, który został użyty w danym eksperymencie – przy czym przez „oddziaływanie” rozumiał fizyczne zlepianie się przeciwciała i danego związku. Ową wyłączność określił mianem „specyficzności”: przeciwciała są „specyficzne” dla wybranych związków chemicznych. Jakie jest jednak źródło owej specyficzności? Podobne zjawisko zaobserwowano już wcześniej, pod koniec XIX wieku, w przypadku enzymów i związków chemicznych biorących udział w reakcji, którą dane enzymy przyspieszają (zarówno przeciwciała, jak i enzymy, są białkami). Dopasowanie białkek do konkretnych związków chemicznych porównywano wówczas obrazowo do dopasowania zamka do klucza. Teraz Landsteiner po raz pierwszy pytał o naturę tego dopasowania.

Początkowo wydawało się, że speficzność musi sprowadzać się do reaktywności. W probówce chemika niektóre substancje reagują ze sobą łatwiej niż inne ze względu na naturę grup chemicznych wchodzących w ich skład. Na przykład, jak czytelnik być może pamięta z lekcji chemii, kwasy karboksylowe reagują z alkoholami (dając estry o owocowych zapachach), ale nie z eterami, mimo iż te są podobne do alkoholi. Jednak przy bliższej analizie okazuje się, że reaktywność znacznie różni się od specyficzności. Trudno sobie bowiem wyobrazić konkretną parę związków chemicznych, które reagują wyłącznie ze sobą, ale nie z innymi związkami z tej samej klasy czy o podobnych ogólnych właściwościach chemicznych. W świecie przeciwciał tymczasem mamy do czynienia właśnie z takimi niemalże wyłącznymi parami przeciwciało-antygen. W 1936 r. Landsteiner poprosił o wytłumaczenie zjawiska specyficzności wielkiego chemika Linusa Paulinga. Teoria, którą Pauling wówczas sformułował, dziś wydaje się może oczywista, stanowiła jednak kamień milowy dla współczesnej biologii (zainteresowanym szczegółami polecam fascynujący artykuł wspomnieniowy Paulinga pt. Molecular basis of biological specificity zamieszczony w numerze tygodnika „Nature” z 26 kwietnia 1974 roku).

Otóż w 1940 roku Pauling zaproponował, że podczas gdy chemicy zasadniczo skupiają się na mocnych wiązaniach kowalencyjnych (które łączą atomy w związki chemiczne i są tworzone bądź zrywane w trakcie reakcji chemicznych), oddziaływania biologiczne – na przykład między przeciwciałem a antygenem – składają się z szeregu słabych oddziaływań o charakterze przede wszystkim elekstrostatycznym (a konkretnie – dla osób interesujących się chemią – oddziaływań między przeciwnie naładowanymi grupami chemicznymi, oddziaływań Van der Waalsa między dipolami i tak zwanych wiązań wodorowych). Są to te same oddziaływania, które odpowiadają za zwijanie się łańcucha białkowego w trójwymiarową strukturę. Ponieważ oddziaływania te są słabe, potrzeba ich wiele, by dwie cząsteczki mogły się razem „zlepić”. W przypadku cząsteczek posiadających skomplikowaną budowę przestrzenną, takich jak białka, stworzenie wielu słabych oddziaływań z małym związkiem chemicznym, innym białkiem albo fragmentem DNA czy RNA wymaga więc dokładnego dopasowania przestrzennego. A więc dosłownie chodzi o dopasowanie tego typu, co między zamkiem a pasującym do niego kluczem.

Wróćmy teraz do cytowanego zdania Watsona i Cricka z 1953 na temat helisy DNA: „Nie umknęło naszej uwadze, że specyficzny sposób parowania, który proponujemy, natychmiast sugeruje mechanizm powielania materiału genetycznego”. Podczas gdy oddziaływania białek opierają się na skomplikowanym dopasowaniu przestrzennym, oddziaływania między liniowymi nićmi DNA lub RNA opierają się na prostszej, opisanej przez Watsona i Cricka, komplementarności sekwencji, tej która sprawia, że we wspomnianym w pierwszej części tego tekstu przykładzie sekwencja AGTCGCATC oddziałuje ściśle z (odwróconą do góry nogami) sekwencją GATGCGACT. Każdy nukleotyd A tworzy dwa wiązania wodorowe z nukleotydem T (i na odwrót), każdy nukleotyd G – trzy wiązania wodorowe z nukleotydem C (i na odwrót). Oddziaływania między wieloma kolejnymi nukleotydami w komplementarnych do siebie szeregach sumują się, dając w rezultacie oddziaływanie silne. W przyrodzie mamy więc do czynienia z dwoma nieco różnymi rodzajami specyficzności: przestrzennej (białek) i sekwencji (DNA/RNA). Problem ze specyficznością białek jest taki, że opiera się ona na strukturze białka, a ta – choć wynika z sekwencji aminokwasów – nie jest prostą pochodną sekwencji. Dość powiedzieć, że pomimo dekad starań – i coraz lepszych komputerów – zasadniczo wciąż nie jesteśmy w stanie przewidzieć, jaki dokładnie kształt przyjmie białko o danej sekwencji. A jeśli nie jesteśmy w stanie tego przewidzieć – nie jesteśmy w stanie również zaprojektować białka o konkretnej specyficzności. Poszukiwania te trzeba więc prowadzić tak, jak robi to przyroda – metodą prób i błędów, a następnie pozytywnej selekcji.

W taki właśnie sposób powstają nowe białka w procesie ewolucji biologicznej na przestrzeni milionów lat; w taki sposób przebiega też w naszym organizmie selekcja przeciwciał, których geny – inaczej niż w przypadku normalnych białek – nie mają określonej z góry sekwencji, lecz składają się z fragmentów łączonych w poszczególnych limfocytach B w mnóstwo różnych losowych kombinacji. Można próbować przeprowadzić podobny proces poszukiwania specyficznych białek w laboratorium, ale jest on żmudny i nie zawsze kończy się sukcesem.

Inaczej sprawa wygląda w przypadku DNA i RNA. Aby stworzyć cząsteczkę DNA lub RNA zdolną specyficznie przylepić się do wybranego fragmentu DNA lub RNA, wystarczy znać wspomnianą powyżej uniwersalną zasadę komplementarności nukleotydów i zaprojektować posługując się tą zasadą „negatyw” danego fragmentu sekwencji.

Jak to wszystko ma się do CRISPR i edycji genomu? Załóżmy, że chcemy przeciąć jeden z ludzkich chromosomów w określonej pozycji. Że chcemy, innymi słowy, zrobić cięcie wysoce specyficzne, w środku pewnej określonej sekwencji DNA znajdującej się tylko raz w całym ludzkim genomie. Później wytłumaczę, w jaki sposób takie cięcie może doprowadzić do miejscowej zmiany sekwencji – na razie zatrzymajmy się na tym pierwszym etapie. Przecięcie helisy DNA to reakcja chemiczna, a więc potrzebujemy enzymu przyspieszającego tę reakcję – czyli białka. Skąd jednak wziąć białko, które rozpozna konkretną, unikalną sekwencję DNA wokół miejsca cięcia? Który tylko do tej jednej sekwencji się „przyklei” – i do żadnej innej? O ileż łatwiej byłoby posłużyć się w takim przypadku łańcuchem DNA bądź RNA komplementarnym względem danej sekwencji, prawda? Otóż u podstaw rewolucyjnej metody CRISPR leży tylko tyle i aż tyle: szczególny enzym odkryty w bakteriach, Cas9, który potrafi ciąć DNA (tzn. posiada „miejsce aktywne”, gdzie odpowiednio ułożone aminokwasy oddziałują z DNA i cząsteczką wody, przyspieszając reakcję hydrolizy), dodatkowo jednak zawiera „kieszeń” na specjalną cząsteczkę RNA, wskazującą miejsce przecięcia. Aby dokonać cięcia przy użyciu CRISPR wystarczy więc enzym Cas9 i zsyntezowane chemicznie łańcuch RNA o długości kilkudziesięciu nukleotydów, którego jedna część jest zawsze taka sama i pasuje do kieszeni w enzymie, a drugą należy zaprojektować w taki sposób, by była komplementarna (na długości około 20 nukleotydów) do sekwencji DNA, którą chcemy przeciąć.

View post on imgur.com

Lek na wszystkie choroby świata?

Przypadek CRISPR jest jednocześnie bardziej i mniej fascynujący, niż można sądzić po krótkich notkach prasowych o cudownym „molekularnym skalpelu” umożliwiającym naprawianie mutacji kryjących się w ludzkim genomie. Od razu zaznaczę, że nie mam nic przeciwko użyciu metafory „skalpela”, rzeczywiście dobrze oddającej to, co enzym Cas9 robi – o ile metafora ta, czy jakakolwiek inna, jest częścią dłuższej naukowej opowieści. Chodzi mi raczej o podejście – bardzo częste u popularyzatorów nauki i samych naukowców – by, pisząc dla niespecjalistów, prawdziwą naukę z jej złożonością i historią zostawiać niejako na boku.

W rzeczywistości każde odkrycie naukowe można docenić jedynie na tle innych odkryć z tej samej dziedziny – ograniczanie więc owego tła do kilku zdań wstępu, jak to się często zdarza, prowadzi de facto do sytuacji, w której nie da się przekazać prawdziwej doniosłości danego odkrycia. Naukowiec czy popularyzator nauki stosujący taką minimalistyczną taktykę (często wbrew własnej woli, lecz ze względu na ograniczenie długości tekstu) musi więc to poczucie doniosłości stworzyć niejako z niczego. W tym celu posługuje się wielkimi przymiotnikami (niesamowity, genialny, rewolucyjny), atrakcyjnymi metaforami („molekularny skalpel”), przede wszystkim zaś spekuluje na temat możliwych zastosowań nowego odkrycia w medycynie. Na pytanie jakie choroby można uleczyć używając CRISPR badaczka tego systemu Irina Conboy miała odpowiedzieć – przynajmniej według krótkiego cytatu w artykule z magazynu popularnonaukowego „New Scientist” – „absolutnie wszystkie”.

Informacje docierające do nas z prasy kreują więc nieprawdziwy obraz nowej metody. Po pierwsze, można odnieść wrażenie, że wprowadzanie specyficznych zmian w DNA było zupełnie niemożliwe przed odkryciem enzymu Cas9. Co jednak w takim razie choćby z nagrodą Nobla z 2007 roku przyznaną za tworzenie genetycznie modyfikowanych organizmów metodą rekombinacji homologicznej? Prasa pisała wówczas, iż „Capecchi i Smithies [nobliści z 2007 roku] niezależnie od siebie dowiedli, że poszczególne mysie geny można skutecznie namierzać, modyfikować, a gdy mają jakieś defekty, nawet naprawiać”.

Brzmi jak CRISPR – i słusznie, CRISPR jest bowiem w pewnym sensie po prostu nową wersją poprzedniej metody. Samo przecięcie DNA przy użyciu CRISPR może co najwyżej doprowadzić do dezaktywacji genu, w którym zostało dokonane – komórka, próbując naprawić cięcie, może usunąć lub dodać nukleotydy w przypadkowy sposób, co zwykle blokuje produkcję białka (pamiętajmy, że przepis na białku odczytywany jest trójkami, każde usunięcie lub dodatek o długości innej niż wielokrotność trójki zaburza więc rejestr sekwencji).

Takie wyłączanie genów jest doskonałym narzędziem do badania ich funkcji, ma jednak ograniczone zastosowania. Aby wprowadzić konkretną, specyficzną zmianę w sekwencji DNA, na przykład zamienić zmutowany gen na aktywny, cięcie nie wystarczy – należy raczej użyć właśnie metody rekombinacji homologicznej. Metoda ta opiera się na znanym od dawna naturalnym zjawisku, w wyniku którego dwie podwójne helisy o zbliżonej sekwencji mogą wymienić się sekwencją. Wystarczy więc wprowadzić do komórki fragment DNA o sekwencji ogólnie komplementarnej do danego obszaru w genomie – komplementarnej, ma się rozumieć, z wyjątkiem różnic, które chcemy wprowadzić.

Problem w tym, że proces ten jest mało wydajny – skonstruowanie genetycznie modyfikowanej myszy trwało do niedawna długie miesiące. W latach 90. odkryto jednak, że rekombinacja zachodzi znacznie szybciej, jeśli dokona się cięcia w sekwencji. Właśnie dlatego wzmożono wówczas poszukiwania enzymów specyficznie tnących DNA; i dlatego odkrycie Cas9 od razu wywołało tak wielkie zamieszanie. Przypominam tę historię nie po to, by umniejszyć doniosłości CRISPR – dokonywanie wszelkich zmian w DNA jest teraz naprawdę znacznie, znacznie łatwiejsze – lecz by pokazać, iż odkrycie to, jak wszystko w nauce, buduje na odkryciach poprzednich.

Czytając popularnonaukowe doniesienia na temat CRISPR można też odnieść wrażenie, że jest to metoda arcynowoczesna, zawdzięczająca swoje odkrycie technologicznemu postępowi w biologii. Tymczasem w rzeczywistości odkrycie enzymu Cas9 i ogólnie bakteryjnego systemu ochrony przed wirusami, w którym Cas9 normalnie bierze udział, było raczej przykładem dość klasycznej biologii, bazującej na standardowych technikach rozwiniętych zwłaszcza w latach 70. i 80. Również niektóre ośrodki, w których te badania prowadzono (są wśród nich hiszpańskie Alicante, szwedzka Umea, litewskie Wilno), leżą nieco poza centrum świata naukowego. Inna rzecz, że dziś spór patentowy o CRISPR – a więc spór o zyski z nowej metody – rozgrywa się przede wszystkim między dwoma wielkimi instytucjami z przeciwległych wybrzeży Ameryki, bostońskim Broad Institute związanym z MIT i Uniwersytetem Harwarda oraz Uniwersytetem Kalifornijskim w Berkeley.

Zasadniczo jednak CRISPR jest triumfem ośrodków nieco peryferyjnych i tradycyjnej biologii molekularnej. Posługując się rozróżnieniem Thomasa Kuhna na okresy rewolucji naukowych i nauki normalnej, CRISPR została stworzona przez biologię jako „naukę normalną”.

Znów nie chodzi mi o to, by umniejszyć doniosłości CRISPR. Podziwiam zdolności i intuicję naukowców, którzy odkryli bakteryjny system i następnie stworzyli na jego bazie metodę modyfikacji DNA. Odczuwam też pewną, być może irracjonalną, dumę z tego powodu, że jest wśród nich również Polak, Krzysztof Chyliński, który jako doktorant u Emmenuelle Charpentier w Wiedniu był współautorem kluczowej publikacji z 2012 roku opisującej mechanizm Cas9. W pewnym sensie było to jednak jedno z wielu wspaniałych naukowych osiągnięć ostatnich lat – tym najgłośniejszym stało się częściowo w wyniku zbiegu sprzyjających okoliczności.

Chciałbym na koniec wspomnieć jeszcze o dwóch sprawach. Metaforyka „molekularnego skalpela” zdaje się sugerować, że CRISPR jest przykładem nanotechnologii – zdolności człowieka do dokonywania zmian na poziomie pojedynczych atomów. Fani tej wyczekiwanej „dziedziny przyszłości” lubią odwoływać się do wizji fizyka Richarda Feynmana ze sławnego wykładu z 1959 roku pt. There’s plenty of room at the bottom (Jest wiele miejsca tam na dole) – wizji maleńkich maszyn przesuwających pojedyncze atomy. W uproszczonej wersji owe nanomaszyny mają być właściwie takie same jak inne ludzkie maszyny, tylko że mniejsze. Zauważmy jednak, że CRISPR nie jest nanotechnologią w tym sensie, że to nie my stworzyliśmy „maszynę”, która dokonuje zmian w DNA. W dodatku – choć sam nazywałem wcześniej białka „niby-maszynami” – Cas9 różni się od ludzkich urządzeń zasadniczo.

Na przykład w przypadku maszyn materiał, z którego są wykonane, jest kwestią dość przygodną – ważne tylko, by umożliwiał on wykonywanie odpowiednich ruchów mechanicznych. W przypadku białek jednak medium is the message (sam przekaźnik jest przekazem) – sprawy dzieją się na tyle blisko podstawowych praw fizyki i chemii, że cząsteczki w pewnym sensie muszą mieć taką formę, jaką mają, by mogły wykonywać swoje funkcje. Praw fizyki i chemii nie można zmodyfikować. Tego typu maszyn w zasadzie nie da się zaprojektować w taki sposób, w jaki projektujemy maszyny makroskopowe, mając dużą swobodę z czego je wykonać, jaką dokładnie nadać im formę – i tak dalej. Tego typu maszyny trzeba raczej odkrywać – odkrywać jako coś, co już istnieje w przyrodzie (jak w przypadku Cas9 i większości innych metod biotechnologicznych) lub jako pewną „możliwość” ukrytą w samych prawach przyrody. To powinno rodzić, jak sądzę, poczucie pokory – obecne często u naukowców, ale rzadko w tym obrazie nauki, który dociera do opinii publicznej.

I druga, ostatnia kwestia. Czy metoda CRISPR uleczy „absolutnie wszystkie” choroby? Historyk nauki Nathaniel Comfort porównuje atmosferę wokół CRISPR i innych osiągnięć nowej biologii do skeczu Monty Pythona How to do it (Jak to zrobić), w którym niejaka Jackie tłumaczy, jak pozbyć się wszystkich chorób świata: „Wpierw zostań lekarzem i odkryj cudowne lekarstwo na jakąś chorobę, a gdy świat medyczny zacznie cię w końcu zauważać, powiedz im, co robić, i dopilnuj, by robili wszystko jak trzeba, żeby na świecie nie było już żadnych chorób”. Wyolbrzymione obietnice naukowców i popularyzatorów nauki stwarzają czasem podobnie komiczne wrażenie, zwłaszcza, gdy zdamy sobie sprawę, że od dekad są one powtarzane w niemalże tej samej formie przy okazji każdego większego odkrycia. Wystarczy spojrzeć choćby na dyskusje z lat 70. i 80., gdy odkryto metody klonowania genów i na ich podstawie zaczęto rozwijać tzw. terapię genową polegającą na wprowadzaniu dodatkowych genów do komórek, zwykle za pośrednictwem wirusów. Przypomnijmy, że pierwsze próby prowadzenia tej terapii zakończyły się głośną porażką, łącznie z przypadkami śmiertelnymi. Dziś nadal wiązane są z nią pewne nadzieje, ale znacznie bardziej umiarkowane, niż kiedyś.

Choć oczywiście nie da się przewidzieć przyszłości, metoda CRISPR prawdopodobnie będzie przydatna przede wszystkim samej nauce, znacznie ułatwiając badanie funkcji genów i innych obszarów DNA (pamiętajmy, że geny to zaledwie mały ułamek całego genomu). Tu już rozpoczęła się rewolucja – ale rewolucja, która ma niewiele wspólnego z medialnym szumem. Postęp w naszej wiedzy biologicznej z pewnością przełoży się na nowe rozwiązania medyczne, ale trudno przewidzieć, jakie, i czy będą one miały coś wspólnego z CRISPR. Po pierwsze, dostarczenie enzymu Cas9 do choćby części z tryliona komórek tworzących dorosły ludzki organizm pewnie jeszcze bardzo długo pozostanie niemożliwe (ogólnie białka nie przenikają do wnętrza komórek, a dostarczenie do komórek genu kodującego dane białko też nie jest sprawą błahą – jak pokazuje historia terapii genowej). Pewne zmiany można by wprowadzić na etapie zarodkowym życia człowieka, gdy Cas9 można po prostu wstrzyknąć do pojedynczej komórki – ale i tu zasadność takich ingerencji jest w przypadku większości chorób wątpliwa, nie mówiąc o kwestiach moralnych.

Sprawa jednak nie ogranicza się tylko do ograniczeń technicznych czy wątpliwości moralnych.

Jeszcze kilka dekad temu mogliśmy przypuszczać, że umiejętność dokonywania punktowych zmian w genach rzeczywiście pozwoli nam uzdrowić wiele schorzeń – dziś jednak wiemy, że komórka (nie mówiąc o całym organie, a tym bardziej – całym organizmie) jest systemem niezwykle złożonym i, nie licząc rzadkich wyjątków, większość trapiących nas chorób (nawet tych, jak rak, o których wiemy, że są w znacznym stopniu dziedziczne) powiązana jest statystycznie z tysiącami, a czasem dziesiątkami czy setkami tysięcy różnych genów.

W głośnym artykule pt. An expanded view of complex traits: from polygenic to omnigenic z numeru „Cell” z 15 czerwca 2017 roku Jonathan K. Pritchard argumentował nawet, że w jakimś stopniu niemalże wszystkie geny aktywne w danej tkance mają wpływ na niemalże wszystkie funkcje (w tym choroby) dotyczące tej tkanki. Trudno sobie wyobrazić, by można przy użyciu CRISPR w jednej komórce na raz wpłynąć na choćby sto różnych genów (zwłaszcza jeśli nie chcemy przy okazji wprowadzić żadnych zmian niespecyficznych w DNA). Nawet gdyby to się udało – nasze poprawki mogłyby mieć trudne do przewidzenia skutki uboczne, bo te same geny będą oczywiście powiązane z innymi chorobami czy cechami.

Mogę się mylić, ale proponowane przez niektórych (na przykład fizyka Stephena Hsu) projekty zwiększenia inteligencji dzieci przy użyciu CRISPR w najlepszym wypadku podzielą los medycyny kosmetycznej: staną się modne wśród tych, których na nie stać, ale reszta świata nie będzie specjalnie żałować, zajęta zwykłym codziennym życiem i bardziej palącymi problemami, których nie da się rozwiązać „molekularnym skalpelem”.

Podziel się artykułem:

Marcin Suskiewicz
Stały współpracownik czasopisma "Pressje". Pracuje nad doktoratem z biochemii (krystalografia białek), interesuje się filozofią przyrody oraz teologią.

Napisaliśmy już 2212 tekstów

Robimy to dla Ciebie, zupełnie za darmo. Nie blokujemy treści, nie zakrywamy portalu banerami. Sami tego nie lubimy. Zamiast sprzedawać Twoje kliknięcia, stawiamy sprawę jasno: Potrzebujemy Twojego wsparcia, by utrzymać portal. Liczymy na Ciebie.

INNA KWOTA

Ciągle musimy uczyć się odróżniać zmiany, które wynikają z nieuchronnych procesów, i te, które są częściowo sterowalne i mogą być modyfikowane według naszych wartości czy wyobrażeń.

Zybertowicz: Jeśli udało się objąć kontrolą broń masowego rażenia, to dlaczego nie zrobić tego ze sztuczną inteligencją?

Zybertowicz: Jeśli udało się objąć kontrolą broń masowego rażenia, to dlaczego nie zrobić tego ze sztuczną inteligencją?

Krzysztof Mazur

Protestujący pod hasłami samorządności i autonomii uczelni, bronią tak naprawdę wszechwładzy uniwersyteckich koterii.

To w ogóle nie o to chodzi. Wokół medialnej awantury o Konstytucję dla Nauki

To w ogóle nie o to chodzi. Wokół medialnej awantury o Konstytucję dla Nauki

Marcin Kędzierski

Wysokie zarobki w wielkim mieście to mit. Jest wielu, którzy na wysokie zarobki się nie załapują.

Biznes nie musi być zlokalizowany w wielkim mieście [ROZMOWA]

Biznes nie musi być zlokalizowany w wielkim mieście [ROZMOWA]

Krzysztof Nędzyński
Następny artykuł:

Wszyscy byliśmy chciwi. Krajobraz po GetBack

Wszyscy byliśmy chciwi. Krajobraz po GetBack