Noble 2007

Medycyna / fizjologia: Mario R. Capecchi, Martin J. Evans, Oliver Smithies

Myszy po nokaucie

Myszy to ulubione organizmy laboratoryjne: małe, łatwe w hodowli, badacz może obserwować wiele ich pokoleń - właściwie trudno się obejść bez prac "na mysich modelach". Jeżeli bada się jakiś interesujący gen, wiele można zrobić w hodowlach komórkowych; można też prowadzić prace in silico związane z modelowaniem białka. Na pytanie jednak, co robi każdy z genów ssaka, trudno odpowiedzieć bez badania całych zwierząt. Klasyczne badanie polega na tworzeniu myszy nokautowanych, czyli pozbawionych jednego z blisko 25 tys. genów. Myszy tego typu żyje już blisko 10 tys. i jedne są zdrowe, inne wcześniej się starzeją, kolejne są otyłe, mają cukrzycę, zaburzenia rozwojowe itp., a niektóre w ogóle się nie rodzą, bo brak genu uniemożliwia rozwój zarodka. "Zrobienie nokautu" trwa około roku, kosztuje blisko 50 tys. dolarów, a wszystko to po to, by tak zmienione myszy mogły być modelami różnych chorób ludzkich, pomagając w poznaniu mechanizmów patologii, działania leków czy terapii genowej.

Tegoroczny Nobel przyznano właśnie za odkrycie metody tworzenia takich myszy. Dwóch laureatów, Amerykanie Mario Capecchi i Oliver Smithies, wymyślili niezależnie od siebie sposób uzyskania inaktywacji genów w komórkach ssaków w hodowli. Wiadomo było, że do komórek ssaków można wprowadzać DNA (kwas dezoksyrybonukleinowy), ale nie było sposobu kontrolowania, gdzie się wbuduje. Capecchi wymyślił genialną metodę usuwania danego genu za pomocą rekombinacji i podwójnej selekcji - nie wnikając w szczegóły, wprowadzany DNA miał się wbudować w konkretne miejsce i "podmienić" jakiś gen na coś, co nie działało, ale dawało możliwość selekcji takich komórek w hodowli, bo każdy wbudowany fragment DNA wnosił oporność na jakąś substancję. Natomiast wszystkie wbudowane fragmenty, z wyjątkiem jedynego wbudowanego we właściwe miejsce, wnosiły jeszcze coś, co wytwarzało wrażliwość na inny związek. Pomysł Capecchiego był tak nieoczekiwany, że odmówiono mu funduszy na badania, twierdząc, że przeprowadzenie czegoś takiego jest niemożliwe. W spisie jego publikacji widać zresztą, że wówczas przez trzy lata nie udało mu się opublikować żadnej pracy.

Jednak nawet jeśli mamy komórki, z których usunięto konkretny gen w hodowli, daleko jeszcze do myszy. Każdy, kto pamięta owcę Dolly, może w tym momencie pomyśleć o klonowaniu, ale pojawiają się dwa problemy: w 1989 r., kiedy powstawały pierwsze myszy znokautowane, klonowanie nie było znane (Dolly powstała w 1996 r.), poza tym - klonowanie udaje się naprawdę rzadko. Tymczasem Anglik Martin Evans wykrył, że z zarodków myszy można uzyskać komórki ES (embryonic stem cells - zarodkowe komórki macierzyste), które można utrzymać w hodowli tak, by się nie różnicowały. Komórki te wprowadzone do wczesnego zarodka myszy uczestniczą w tworzeniu wszystkich tkanek, także tych, z których powstają komórki jajowe i plemniki. Połączenie techniki wybijania genu właśnie w komórkach ES, wprowadzania takich komórek do zarodków myszy i następnie uzyskiwania myszek, które powstały z gamet pochodzących z ES, było pierwszym krokiem do uzyskiwania myszy znokautowanych. Myszy otrzymane na tym etapie mają "wybity" jeden gen z dwóch danej pary (większość genów mamy na dwóch chromosomach, czyli w dwóch kopiach), ale wystarczy skrzyżować dwie takie myszy, by 25 proc. ich potomstwa była już właściwym "nokautem".

Prace nad myszami modelowymi idą dalej - są myszy knock-in, czyli z wprowadzonymi w konkretne miejsce genami (ludzkimi, z mutacjami, które chcemy zbadać); myszy "warunkowe", które dany gen rozpoczną (lub przestaną) wyrażać w konkretnej tkance w momencie, kiedy zadziałamy na mysz jakimś lekiem itp. Badania te wnoszą i wnosiły niesłychanie istotne informacje o powstawaniu nowotworów, mukowiscydozie, chorobach prionowych, chorobie Huntingtona, starzeniu się - lista jest długa i nieprędko się skończy. Ciekawe, że trzej laureaci nadal badają myszy znokautowane jako modele do leczenia szeregu ważnych chorób ludzkich, np. nowotworów, a także do poznania rozwoju i zachowania człowieka.

Ewa Bartnik

Autorka jest profesorem, pracownikiem Instytutu Genetyki i Biotechnologii UW oraz Instytutu Biochemii i Biofizyki PAN.

Bez Fausta w tle

Informacje o komórkach macierzystych w powszechnym odbiorze kojarzą się przede wszystkim ze sporem o możliwość uzyskiwania ludzkich komórek macierzystych z ludzkich zarodków niewykorzystanych w programach in vitro. Tym razem jednak nie o ludzkie komórki macierzyste chodzi, bo tegorocznych Noblistów uhonorowano za wieloletnie badania na myszach. Po raz kolejny w historii badań laboratoryjnych zwierzęta oddały nieocenioną przysługę ludziom. Omawiając to niekwestionowane osiągnięcie, warto jednak zwrócić uwagę na dwie kwestie. Po pierwsze, współczesna genetyka to nie tylko moralnie kontrowersyjne eksperymenty, ale też: insulina rekombinacyjna, interferony, mysie modele ludzkich chorób. Błędem zatem jest tworzenie wokół genetyki, czy raczej genetyków, atmosfery z Faustem w tle. Po wtóre, we współczesnej etyce środowiskowej są stanowiska, zgodnie z którymi tworzenie mysich modeli ludzkich chorób narusza zasadę partnerstwa człowieka względem natury, skazując nadto zwierzęta na cierpienie. Jakkolwiek owo partnerstwo wydaje się nierealne, zważywszy na daleko zaawansowane technologie hodowli roślin i zwierząt, uświadomienie sobie, że otaczające nas środowisko nie przedstawia wartości tylko dlatego, że może się nam do czegoś przydać, ale że samo w sobie stanowi wartość - łącznie z myszami - jest rzeczą ważną. Z tego właśnie powodu wprowadzono do badań nad zwierzętami zasady nakazujące redukowanie ich bólu.

Barbara Chyrowicz

Autorka jest filozofem i etykiem, profesorem KUL, należy do Zgromadzenia Misyjnego Służebnic Ducha Św.

Fizyka: Albert Fert, Peter Grünberg

Gigantyczna miniaturyzacja

Jeszcze na początku lat 90. pojemność twardych dysków komputerowych była rzędu jednego gigabajta. Obecnie standardem są dyski o pojemności rzędu 100 GB. Ten gigantyczny postęp, który zaowocował takimi cudami techniki jak laptopy o pojemnościach dysków porównywalnych z komputerami stacjonarnymi czy odtwarzacze muzyczne, na których można zmieścić zawartość kilkudziesięciu płyt dvd, nie byłby możliwy bez prac laureatów tegorocznego Nobla z fizyki.

Nagrodą za odkrycie gigantycznego magnetooporu (GMR) w strukturach warstwowych zbudowanych z naprzemiennych warstw: metali magnetycznych (żelaza) i niemagnetycznych (chromu) o grubości rzędu nanometrów (jedna miliardowa metra) każda, podzielili się po połowie Francuz Albert Fert i Niemiec Peter Grünberg. Pod koniec lat 80. ukazały się wyniki prac prowadzonych niezależnie przez ich grupy badawcze, poświęconych nowemu efektowi: w odpowiednio przygotowanych nanomateriałach mała zmiana natężenia zewnętrznego pola magnetycznego powodowała gigantyczną zmianę oporności układu, przez który płynął prąd. Struktury badane przez grupę Ferta to układy kilkudziesięciu naprzemiennych warstw metal niemagnetyczny-metal magnetyczny. Struktura Grünberga była miniaturową wersją tego samego pomysłu: prosta, trójwarstwowa "kanapka" złożona z niemagnetycznego metalu umieszczonego między dwiema "pajdami" metalu magnetycznego. Za efekt GMR odpowiedzialne są spiny elektronów.

Obaj laureaci natychmiast zrozumieli istotność nowego odkrycia i wspomnieli o potencjalnych zastosowaniach w swoich publikacjach (Grünberg równolegle z pisaniem artykułu naukowego przygotował też wniosek patentowy). Oczywiście przełom technologiczny, którego efekty właśnie obserwujemy, wymagał jeszcze opracowania bardziej efektywnych metod wytwarzania odpowiednich struktur warstwowych na skalę przemysłową.

Zjawisko magnetooporu (MR) w metalach znane jest od dawna. Już pod koniec XIX wieku W. Thomson (Lord Kelvin) opisał zmianę oporu przewodników magnetycznych (niklu i żelaza) pod wpływem zewnętrznego pola magnetycznego. Chociaż efekt jest dosyć słaby, znalazł zastosowanie w czytnikach pól magnetycznych. Jednak dopiero odkrycie GMR, możliwe dzięki rozwojowi nanotechnologii, miało olbrzymie konsekwencje dla rozwoju urządzeń elektronicznych. Pierwsze dyski magnetyczne wprowadzone do komputerów osobistych miały pojemność do kilkudziesięciu megabajtów przy rozmiarach 5,25 cala. W połowie lat 80. standardowy rozmiar dysków twardych w komputerach stacjonarnych zmniejszył się do 3,5 cala, a rozwój laptopów wymusił rozmiar 2,5 cala. Coraz popularniejsze iPody i iPhony to kolejna redukcja rozmiaru przy wzroście pojemności.

Dyski twarde to nośniki typu magnetycznego - poszczególne bity informacji kodowane są w postaci namagnesowania małych fragmentów dysku zwanych domenami magnetycznymi. Oczywistymi zaletami nośników magnetycznych są: łatwość zapisywania, odczytywania i usuwania informacji oraz wieloletnia trwałość. Jeszcze w połowie lat 90. do zapisywania i odczytywania informacji służyły głowice wyposażone w miniaturowe cewki. Zapis polegał na przepuszczaniu przez cewkę prądu, który namagnesowywał materiał magnetyczny. Podczas odczytu pole magnetyczne domeny generowało prąd elektryczny w cewce. O ile podstawowa zasada zapisu do dziś pozostaje bez zmian, o tyle do odczytu wykorzystujemy obecnie odkryty przez Ferta i Grünberga efekt GMR. Bez niego miniaturyzacja dysków i zwiększenie gęstości zapisu nie byłyby możliwe. Większa gęstość zapisu oznacza bowiem większą liczbę mniejszych domen na tej samej powierzchni. Mniejsza domena to słabsze pole magnetyczne, potrzebne są więc czulsze przyrządy pomiarowe do odczytania zapisanej na dysku informacji.

Zaawansowane badania nad wytwarzaniem i wykorzystaniem nanostruktur zbudowanych z warstw metalicznych prowadzi się także w Polsce, w Instytucie Fizyki PAN w Warszawie i w Instytucie Fizyki Molekularnej PAN w Poznaniu.

Arkadiusz Orłowski

Autor jest docentem w Instytucie Fizyki PAN i profesorem w kierowanej przez siebie Katedrze Informatyki SGGW.

Chemia: Gerhard Ertl

Na powierzchni

Czegokolwiek wokół nas dotkniemy, spotkamy się z jakąś powierzchnią. Jest ona nie tylko wszechobecna, ale i dostępna, zarówno dla nas, jak dla cząsteczek gazu, które się do niej przyczepiają (czyli na niej adsorbują).

Powierzchnia charakteryzuje się często istotnie innymi właściwościami fizycznymi i chemicznymi niż trudno dostępne wnętrze substancji. Po pierwsze, znane w fizyce i chemii oddziaływania między atomami tworzącymi powierzchnię i cząsteczką adsorbowaną są silne, po drugie atomy powierzchni oferują cząsteczce adsorbowanej możliwość utworzenia z nią wiązań chemicznych. Ta oferta zależy od budowy wewnętrznej substancji tworzącej powierzchnię i od samej cząsteczki, ale także od ukształtowania powierzchni, zwłaszcza od pewnych szczególnie reaktywnych skupisk atomów powierzchni. Tworzenie nowych wiązań chemicznych łączy się zwykle ze zrywaniem niektórych innych wiązań - a to oznacza reakcję chemiczną, czyli przekształcenie jednych substancji chemicznych w inne.

Tegoroczny Noblista, prof. Gerhard Ertl, całe naukowe życie poświęcił badaniom adsorpcji gazów (wodoru, tlenu, amoniaku, tlenku węgla) i reakcji chemicznych zachodzących na powierzchniach metali (m.in. platyny, palladu, żelaza, germanu). Niektóre z takich reakcji, np. reakcja tlenu z powierzchnią żelaza, niszczą powierzchnię, dochodzi do korozji i pojawia się rdza. Poznanie tego tak powszechnego zjawiska i udoskonalenie procesów zapobiegania mu niewątpliwie pozwoli prowadzić gospodarkę bardziej oszczędną.

Są też takie reakcje chemiczne, w których powierzchnia metalu się nie zużywa, a jej rola sprowadza się do ułatwiania reakcji (chodzi o katalizę) przez doprowadzanie do kontaktu i następnie reakcji chemicznej dwóch zaadsorbowanych cząsteczek. Takie katalizatory mają wielkie znaczenie w przemyśle chemicznym. Gerhard Ertl zbadał katalityczną reakcję syntezy amoniaku i reakcję utleniania tlenku węgla do dwutlenku węgla na powierzchni palladu. Tlenek węgla (czad) powstaje przy niecałkowitym spalaniu substancji na skutek zbyt małego dostępu tlenu. Takie niecałkowite spalanie zachodzi np. w milionach samochodów. Gdyby nie zainstalowany w układzie wydechowym samochodu katalizator, który utlenia szkodliwy tlenek węgla do praktycznie nieszkodliwego dwutlenku węgla, a przede wszystkim gdyby nie badania prof. Ertla, trujący czad zanieczyszczałby powietrze.

Innym osiągnięciem Noblisty jest obserwacja tzw. reakcji oscylacyjnej, zachodzącej na powierzchni platyny. Reakcje, w których stężenie pewnych substancji oscyluje w czasie i przestrzeni, były od dawna znane, ale prof. Ertl zaobserwował jako pierwszy taką reakcję na powierzchni metalu. W przyszłości reakcje oscylacyjne (o regulowanym przez człowieka okresie oscylacji - zegar chemiczny), przez sterowane wyzwalanie jednych i hamowanie innych reakcji będą regulować ważne procesy.

Odkrycia Gerharda Ertla są krokiem w kierunku przyszłych, precyzyjnie działających katalizatorów. Wiele reakcji chemicznych, które dla swego przebiegu wymagają dzisiaj skrajnie wysokich temperatur czy ciśnień, dzięki katalizatorom będzie przebiegało w temperaturze pokojowej i przy normalnym ciśnieniu. Mamy pewność, że jest to możliwe, ponieważ przyroda pokazuje nam to na każdym kroku.

Lucjan Piela

Autor jest profesorem Wydziału Chemii Uniwersytetu Warszawskiego (specjalności: chemia kwantowa i teoretyczna).

Nagroda Pokojowa: Al Gore i Międzyrządowy Panel ds. Zmian Klimatu

Prorok czy polityk?

Działalność Ala Gore'a trudno uznać za tradycyjnie rozumiany wysiłek na rzecz pokoju na świecie. Złośliwi twierdzą, że Nobla przyznano awansem - chodzi bowiem o polityka, który wciąż ma szansę włączyć się do gry o prezydenturę w USA. Al Gore zapewne jawił się też członkom Komitetu jako odwrotność "toksycznego Teksańczyka" - George'a Busha Jr., ucieleśniając mit o "zielonej" i otwartej na świat Ameryce.

Gore, bodaj najsłynniejszy niedoszły prezydent, od siedmiu lat przemierza Stany Zjednoczone niczym starotestamentowy prorok i głosi apokaliptyczną wizję katastrofy środowiskowej. Mówiąc o "kryzysie, który zagraża naszej cywilizacji i życiu na Ziemi", czy pokazując obrazy topniejących gór lodowych i zalewanych przez wzbierające morze regionów, Gore sprawia, że truchleją serca niedowiarków. Jego film dokumentalny "Niewygodna prawda" nagrodzono dwoma Oscarami, także organizowane przez niego koncerty "Live Earth" okazały się sukcesem.

Działalność Gore'a przyczyniła się do tego, że społeczeństwa i politycy na poważnie zaczęli traktować argumenty ekologów. Prawdopodobnie dzięki niemu USA przystąpią do nowego traktatu, który w 2012 r. zastąpi Protokół z Kioto. W przeciwieństwie jednak do innych dostrzeżonych przez Komitet "ekologicznych" działaczy, jak Wangari Maathai (animatorka procesu zalesiania sawanny afrykańskiej; laureatka z 2004 r.) i Mohammad Yunus (pomysłodawca mikrokredytów odznaczony w 2006 r.), Gore był i jest rasowym politykiem, traktującym problematykę zmian klimatycznych nieco instrumentalnie. Sięga po uproszczenia i alarmistyczny ton, które są często szkodliwe, zwłaszcza z punktu widzenia potrzeb krajów biednych.

Laureat powtarza, że "ci, którzy kwestionują zjawisko globalnego ocieplenia, patrzą bezczynnie na płonącą kołyskę, łudząc się, że dziecko jest odporne na ogień". Naukowcy, choć w większości nie podważają samego faktu zmian klimatycznych, nie podzielają pewności amerykańskiego polityka co do perspektyw czy środków zaradczych. Jak ryzykowne jest łączenie polityki z nauką, świadczy choćby przykład tezy o zwiększeniu liczby zachorowań na malarię w związku z ociepleniem klimatu. Nie jest to udowodnione, ale żądne sensacji media wolą to wytłumaczenie od bardziej prozaicznych przyczyn: ubóstwa, głodu czy złego stanu higieny. Słuchając tego, co proponuje Al Gore, trzeba pamiętać, by nie wylać dziecka z kąpielą: drastyczne ograniczenie emisji dwutlenku węgla doprowadziłoby do załamania gospodarczego na świecie, najbardziej uderzając w ludność krajów rozwijających się.

Jakie winny być zatem globalne priorytety rozwojowe? W 2004 r. Bj?rn Lomborg, duński działacz na rzecz środowiska naturalnego, zgromadził grono najwybitniejszych ekonomistów (w tym trzech Noblistów), które opracowało tzw. Konsensus Kopenhaski - listę dziedzin, w których potrzebne są pilne działania na rzecz ludzkości. Okazało się, że podejmując intensywne kroki w walce z niedożywieniem i chorobami w krajach rozwijających się, dość małym kosztem można uratować wielu ludzi. Przeciwdziałanie ociepleniu klimatu będzie zaś kosztować fortunę i nikt tak naprawdę nie wie, na ile okaże się skuteczne. Do podobnych wniosków doszedł panel dyplomatów obradujący w 2006 r. pod przewodnictwem Johna Boltona, ówczesnego ambasadora USA przy ONZ. Postawiono jedno pytanie: co zrobiłbyś dla świata, mając 50 mld dolarów? Problemy do rozwiązania uszeregowano wedle ważności: niedożywienie, choroby zakaźne, migracje, czysta woda, bariery w handlu, wojny, edukacja, niestabilność finansowa, zarządzanie oraz - na ostatnim miejscu - zmiany klimatyczne.

Trudno ignorować niszczącą działalność człowieka w przyrodzie czy kwestionować sens wielkich inicjatyw międzyrządowych. Pamiętajmy jednak, że niewygodnych prawd, parafrazując tytuł filmu Gore'a, jest więcej, a realizacja jednego priorytetu kosztem drugiego to przelewanie z pustego w próżne.

Jakub Wiśniewski

Autor jest pracownikiem Urzędu Komitetu Integracji Europejskiej, stałym współpracownikiem "TP".

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru TP 42/2007