PTU - Polskie Towarzystwo Urologiczne

Odczytanie ludzkiego genomu
Artykuł opublikowany w Urologii Polskiej 2007/60/4.

autorzy

Stanisław Wroński
Oddział Urologii, Szpital Wojewódzki im. dr. J. Biziela w Bydgoszczy
Regionalny Bank Tkanek, Szpital Wojewódzki im. dr J. Biziela w Bydgoszczy

słowa kluczowe

genom, Human Genome Project, sekwencjonowanie DNA

streszczenie

W prezentowanej pracy omówiono historię realizacji projektu odczytania ludzkiego genomu – Human Genome Project. Przedstawiono zastosowane metody laboratoryjne, wyniki oraz korzyści i perspektywy związane z wykorzystaniem efektów prac nad ustaleniem sekwencji ludzkiego DNA.
Rezultatem wieloletnich przygotowań oraz badań było opublikowanie w dniach 15 i 16 lutego 2001 roku przez tygodniki „Nature” i „Science” sekwencji blisko 3 miliardów nukleotydów ludzkiego genomu (ok. 90% całego zapisu). Do odczytu (sekwencjonowania) wykorzystano metodę ustalania kolejności zasad w rozfragmentowanych niciach DNA, uzyskanych z badanych ludzkich chromosomów – „shotgun sequencing”. Stwierdzono, że ludzka komórka zawiera ok. 30 000 genów kodujących białka oraz że istnieje ok. 740 genów kodujących nici RNA, spełniających inne niż udział w syntezie białek funkcje komórkowe. Wielkość ludzkiego genomu oceniono na 3,2 Gb (miliardów zasad). Realizacja projektu przyczyniła się do gwałtownego rozwoju genetyki w analogiczny sposób, jak program lądowania człowieka na księżycu „Apollo” wpłynął na rozwój techniki w latach 60. Wyodrębniła się nowa gałąź wiedzy nazwana genomiką. Odczytanie sekwencji genomu człowieka oraz innych organizmów pozwoli na poznanie różnic genetycznych między gatunkami, określenie dróg ewolucji i pochodzenia życia na Ziemi.
Rezultaty prac znajdą bezpośrednie zastosowanie w medycynie, pozwalając na poznanie przyczyn większości schorzeń oraz opracowanie nowych, skutecznych metod leczenia. Jednocześnie poznanie struktury ludzkiego genomu rodzi wiele nieznanych wcześniej problemów etycznych.

Wprowadzenie

Historia odczytania struktury ludzkiego genomu jest wynikiem pracy i zainteresowań wielu badaczy, ale także, być może po raz pierwszy w nauce, wyraźnie wyrażonej chęci osiągnięcia korzyści materialnych jako efektu badań naukowych.

W dniu 26 czerwca 2000 roku F. Collins, dyrektor Narodowego Instytutu Badań Ludzkiego Genomu (NHGRI – The National Human Genome Research Institute) i J. Craig Venter, założyciel, współwłaściciel i prezes prywatnej firmy Celera Genomics ogłosili poznanie pierwszej, przybliżonej sekwencji genomu ludzkiego. Powstanie w roku 1998 firmy Celera Genomics to przykład bezpośredniego sprzęgnięcia badań nauk podstawowych z celami komercyjnymi, a samo przedsięwzięcie jest dziełem C. Ventera oraz Applera Corporation. Pierwotnym celem firmy było odczytanie ludzkiego genomu dzięki badaniom prowadzonym nie dłużej niż trzy lata. Z kolei NHGRI stanowiło element międzynarodowego projektu nazwanego International Human Genome Sequencing Consortium (IHGSC) [1,2].

Najbardziej spektakularnym wydarzeniem opisywanego ciągu zdarzeń jest opublikowanie na łamach tygodników „Science” i „Nature” wyników prac powyższych zespołów. Ponieważ Celera i NHGR były w istocie rzeczy rywalizującymi instytucjami, każde z nich wyniki prac przedstawiło w innym czasopiśmie.

W dniu 15 lutego 2001 r. opublikowano w „Nature” otrzymaną przez NHGRI sekwencję blisko trzech miliardów nukleotydów genomu ludzkiego (odczytano około 90% genomu ludzkiego) [1]. Wyniki pracy zespołu z Celera podano na łamach „Science” 16 lutego 2001 [2]. Odczytanie pozostałej części genomu zakończono w roku 2003.

Jednak początek całego procesu datuje się znacznie wcześniej. W roku 1986 szef Programów Badawczych Zdrowia i Środowiska Departamentu Energii Stanów Zjednoczonych Ch. DeLisi przedstawił projekt nazwany Human Genome Initiative. Dzięki poparciu senatorów Kongresu USA został on ujęty w prezydenckiej propozycji budżetu, przedstawionej kongresowi w roku 1987 [3,4].

W roku 1988 w ramach Narodowego Instytutu Zdrowia (NIH) przy współudziale Departamentu Energii Stanów Zjednoczonych powołano Narodowe Centrum Badań Ludzkiego Genomu (NCHGR – National Center for Human Genome Research). Budżet przeznaczony na realizację projektu wyniósł trzy miliardy dolarów, a czas realizacji szacowano na 15 lat. W roku 1997 NCHGR przemianowano na Narodowy Instytut Badań Ludzkiego Genomu National Human Genome Research Institute (NHGRI), którego kierownictwo objął Francis Collins. Z kolei NHGRI stanowił część wspomnianego wyżej konsorcjum, zatrudniającego badaczy z Wielkiej Brytanii, Francji, Niemiec, Japonii i Chin. Warto dodać, że budżet powstałej w tym czasie firmy Celera Genomics, a przeznaczony na realizację takiego samego projektu, wynosił 300 mln dolarów przy przewidywanym znacznie krótszym czasie realizacji. Firma ta miała jednak pełny dostęp do danych, uzyskiwanych na bieżąco przez zespół HGP, i możliwość ich wykorzystywania. Jest oczywiste, że koszty działalności prywatnej firmy zawsze będą niższe niż dużego zbiurokratyzowanego i niestety wstrząsanego personalnymi rozgrywkami państwowego konglomeratu, ale równocześnie należy stwierdzić, iż redukcja kosztów wynikała głównie z odmiennych metod badawczych, wykorzystanych do ustalenia sekwencji zasad.

Metoda realizacji projektu

Każda z metod zastosowanych do odczytania ludzkiego genomu musiała poddać analizie materiał genetyczny wybrany jako model materiału genetycznego człowieka. Dlatego też na samym początku oba zespoły starały się ustalić, jaki DNA będzie stanowić ten „reprezentujący” ludzkość. Czy powinien nim być genom pojedynczego człowieka lub może grupy osób? Jeżeli tak, to kogo? Czy materiał ma być pobrany od losowo wybranego reprezentanta/reprezentantów, czy też może od określonej wyróżniającej się jednostki? Jakie kryteria uznać za najstosowniejsze przy wyborze takiej osoby?

Dr Marvin Stodolsky (Oak Ridge Natl. Lab. Website, Wikipedia) podaje, że HGP zebrał dużą ilość materiału, na który składały się leukocyty pobrane od kobiet i nasienie od mężczyzn. Z tej grupy wybrano anonimowo kilka próbek tak, że ani dawcy, ani badacze nie wiedzieli, czyj materiał będzie dalej analizowany. Naukowcy skupieni w Celera użyli mieszanki próbek pobranych również od anonimowych dawców z każdego kontynentu. C. Venter przyznał, że znajdował się w grupie „wybrańców”.

Podczas realizacji projektu oba zespoły wykorzystały metodę ustalania kolejności zasad (sekwencjonowania) w rozfragmentowanych niciach DNA, uzyskanych z badanych ludzkich chromosomów. Fragmenty te po powieleniu i odczytaniu ponownie składano na podstawie pasujących do siebie końców. Końce te lokalizowano na zasadzie nakładania się identycznych sekwencji DNA (overlapping sequences). W dużym przybliżeniu ten sposób sekwencjonowania można porównać do próby odczytania książki po jej złożeniu z chaotycznie rozsypanych kawałków przypadkowo podartych stron. Dodać należy, że książka ma kilka tysięcy stron, pisana jest w nieznanym języku, a strony nie są ponumerowane.

Ponieważ odczyt następuje kolejno z losowo rozbitych fragmentów, nazwano ją metodą ustalania kolejności zasad w rozbitych fragmentach pierwotnej badanej nici DNA – „shotgun sequencing”. W celu zmniejszenia prawdopodobieństwa wystąpienia błędów odczytu, przeprowadzanych było kilka lub kilkanaście rund sekwencjonowania. Na zakończenie odcinki o znanej kolejności zasad zostają ułożone w większe elementy, następnie w cały badany odcinek DNA odpowiadający danemu chromosomowi.

W zarysie shotgun sequencing przedstawia się następująco: po wyizolowaniu z komórki i chromosomów, przeznaczona do badania nić DNA zostaje metodami fizycznymi (ultradźwiękami) rozbita na małe odcinki o długości od 2 kb do 20 kb (1 kb – 1000 zasad). Fragmenty za pomocą elektroforezy są frakcjonowane pod względem wielkości i łączone z nośnikiem (wektorem). Powstała struktura zostaje wprowadzona do komórki bakteryjnej. Bakterie powielają sztucznie wprowadzony materiał genetyczny, tworząc znaczną liczbę klonów „adoptowanych” odcinków nici. Po odzyskaniu odpowiednio dużej ich liczby następuje odczytywanie kolejności ułożenia zasad w każdym klonie odpowiadającym poszczególnym odcinkom pierwotnego badanego DNA. Odczyt ten przebiega jednocześnie z obu końców odcinka. Fragmenty odczytanych klonów zostają łączone ze sobą w większe jednostki (contiguous sequences – „contigs”) dzięki temu, że identyczne sekwencje (odpowiadające tym samym odcinkom badanej nici DNA) klonów nakładają się na siebie. Po określeniu odstępów pomiędzy genami w nici DNA „contigs” zostają układane kolejno w sposób odpowiadający ułożeniu na badanym materiale.

Konkurujące zespoły użyły odmiennych modyfikacji wyżej opisanego schematu. W Human Genome Project (nazywanym czasami „stroną publiczną”) do sekwencjonowania genomu użyto metody określanej hierarchical shotgun sequencing lub BAC-to-BAC method. Podobnie jak w opisanym powyżej schemacie badana pierwotna nić DNA zostaje pocięta na fragmenty, których położenie w jej obrębie zostaje ściśle określone. Odpowiednio oznakowane duże fragmenty zostają enzymatycznie pocięte na mniejsze o długości 150 kb. Fragmenty 150 kb są wbudowywane w strukturę sztucznych chromosomów bakteryjnych (BAC – bacterial artificial chromosome) i po wprowadzeniu do bakterii replikowane. Tą drogą uzyskuje się dużą liczbę kopii fragmentów badanego DNA – powstaje tzw. biblioteka BAC (BAC library). Każdy odcinek będący kopią badanego fragmentu zostaje ponownie oznakowany w sposób pozwalający odtworzyć później ich kolejność. Fragmenty skopiowane w BAC zostają ponownie cięte i następuje ustalanie wspólnych sekwencji w nakładających się odcinkach. Pozwala to na określenie ich miejsca w badanej pierwotnej nici DNA. Nakładające się odcinki BAC (overlapping sequences) odtwarzają układ, jaki z dużym prawdopodobieństwem występuje w ludzkim chromosomie. W kolejnym etapie chromosomy BAC zostają ponownie rozbite na małe fragmenty o długości 1,5 kb, które są umieszczane w nowej strukturze DNA nazwanej M13. Zbiór tych struktur tworzy nową bibliotekę – M13 library. Biblioteki M13 podlegają ponownemu sekwencjonowaniu. W końcowym efekcie otrzymywana jest gigantyczna liczba kopii fragmentów chromosomów o znanej sekwencji. Ta wielka ilość danych wprowadzana jest do komputerów, które dzięki złożonym algorytmom składają „puzzle” w całość. Aby zmniejszyć prawdopodobieństwo błędów, sekwencjonowanie odcinków jest wielokrotnie ponawiane (około 12 rund) [1,2,5,6,7].

Sposób sekwencjonowania zastosowany przez Celera prowadził odczyt bezpośrednio we fragmentach uzyskanych wprost z pierwotnej badanej nici DNA i pomijał etap związany z tworzeniem BAC. Proces ten nazwano odczytem całego genomu (whole-genome shotgun sequencing). Wcześniej metodę tę stosowano do sekwencjonowania krótkich odcinków DNA i użycie jej do dużego materiału genetycznego człowieka wydawało się ryzykownym przedsięwzięciem. Proces rozpoczyna rozbicie pierwotnej nici DNA za pomocą metod fizycznych na fragmenty o długości 2kb i 10 kb i wbudowaniu ich do plazmidów namnażanych (replikowanych) w komórce bakteryjnej. Uzyskane tą drogą dwie biblioteki plazmidów z kopiami odcinków 2 kb i 10 kb podlegają sekwencjonowaniu. Podobnie jak w modyfikacji stosowanej przez HGP, powstaje wielka liczba krótkich sekwencji, które za pomocą odpowiednich programów komputerowych są składane w całość odpowiadającą ludzkim chromosomom. Ponieważ nasz genom składa się z około 3 miliardów par zasad, to odczyt powtórzony dziesięciokrotnie daje w efekcie 30 miliardów par zasad układanych w krótkich odcinkach. Składanie odcinków w jedną ciągłą strukturę przypomina budowanie obrazka typu puzzle z 30 miliardów kawałków, przy czym nie jest znany obraz wzorca. Przeanalizowanie gigantycznej ilości kombinacji wymagało opracowania statystycznego przy użyciu wysoce złożonych algorytmów oraz sieci superkomputerów o dużej mocy obliczeniowej [2,7,8,9,10].

Wyniki

Wyniki uzyskane przez zespoły HGP i Celera są bardzo zbliżone, natomiast sam efekt tych prac był dużym zaskoczeniem, choć dane nie były w pełni kompletne i prawdopodobnie nie pozbawione pewnej liczby błędów. Dlatego uzyskaną sekwencję nazwano „surową” – draft sequence [1,2].

Przed rozpoczęciem realizacji projektu odczytania ludzkiego genomu liczbę genów szacowano na 100 000, a nawet istniały sugestie, że liczba ta może sięgać 300 000. Tak duża, przypuszczalna liczba genów oceniana była na podstawie ilości czynnych białek oraz procesów biochemicznych, zachodzących w ludzkiej komórce, a także z odniesienia do liczby genów w komórkach prostszych organizmów zwierzęcych (np. 20 000 genów nicienia Caenorhabditis elegans, 13 000 muszki owocowej czy 6000 genów drożdży). Na podstawie uzyskanych wyników zespół HGP ocenił, że w komórce ludzkiej jest około 31 000 genów kodujących białka, natomiast Celera oszacowała tę liczbę na około 26 000. Dodatkowo stwierdzono, że istnieje w przybliżeniu 740 genów kodujących nici RNA spełniające inne – niż udział w syntezie – białek funkcje komórkowe. Wielkość ludzkiego genomu oceniono na 3,2 Gb, z czego 2,95 Gb zgromadzone jest w obrębie euchromatyny [11,12,13,14,15,16,17,18]. Dowodzi to, że stopień złożoności organizmów nie zależy od liczby czynnych genów, ale wzrostu liczby ich funkcji. Zwiększa się zakres pełnionych przez dany gen funkcji, a także wzrasta liczba wzajemnych powiązań pomiędzy genami. Jak się oblicza, w komórce ludzkiej każdy pojedynczy gen współpracuje przeciętnie z pięcioma innymi. Poza tym produkty genów: RNA białka, w wysoce złożonych organizmach zaczynają spełniać wiele, często odmiennych funkcji. Jedynie 28% sekwencji genomu odpowiada za kodowanie RNA a 1% (według niektórych źródeł do 1,4%) za kodowanie białek. Nie jest znana funkcja pozostałej części materiału genetycznego, na który składają się długie, powtarzające się sekwencje, rzadziej krótkie „repetycje” czy też „przypadkowe” wtrącenia. Dotychczas tę część sekwencji nazywano „śmieciowym DNA”, ale w miarę poznawania ludzkiego genomu okazuje się, że ta część materiału pełni istotne funkcje regulacyjne wobec materiału kodującego białka. Dowiodła tego obserwacja, że „śmieciowy” DNA stanowi bardzo mały odsetek genomu w prostych organizmach, natomiast istotnie wzrasta w miarę wzrostu stopnia złożoności, sięgając tak wysokiego odsetka u człowieka. Prawdopodobnie znaczna część tego DNA to materiał „pasożytniczy” wbudowywany w miarę ewolucji na drodze odwrotnej transkrypcji podczas atakowania komórek kolejnych pokoleń przez mikroorganizmy [12,13].

Dotychczasowy dogmat: jeden gen – jedno białko, okazał się nieprawdziwy, ponieważ na drodze rozszczepiania i ponownego składania syntetyzowanych z danego genu nici RNA, komórka uzyskuje matryce do syntezy odmiennych białek (alternative RNA splicing). Jak się oblicza, na około 30 000 genów w komórce człowieka istnieje 85 000 rodzajów mRNA. W komórce ludzkiej każdy gen „produkuje” dwa razy więcej białek niż gen np. muszki owocowej, białek, które pełnią jednocześnie wiele więcej funkcji. Istotna część naszego genomu, wywodząc się z „pierwotnych” genów, jest wspólna dla całego świata żywego naszej planety. Jakkolwiek stopień pokrewieństwa genetycznego wzrasta w miarę wzrostu złożoności, to odsetek wspólnych genów dla wszystkich organizmów jest zaskakujący. Około 36% genów człowieka jest wspólnych z genomem muszki owocowej, 23% z drożdżami, 7% z E. coli, sięgając aż 90% wspólnych genów w przypadku myszy i szczura oraz 98% z szympansem. Pojawianiu się dodatkowych funkcji genów dowodzi fakt, że spośród blisko 1300 rodzin białek, występujących w ludzkiej komórce, tylko 94 występuje jako jedyne w komórkach kręgowców [13,14,15,16].

Subtelne zmiany w DNA (genotyp) przekładają się na istotne różnice osobnicze (fenotyp), np. różnice między osobnikami tego samego gatunku są rzędu jednej pary zasad na kilka tysięcy par. Zjawisko to nazywamy polimorfizmem pojedynczych nukleotydów – single nucleotide polymorphisms (SNP). Różnice między materiałem genetycznym poszczególnych przedstawicieli naszego gatunku nie są duże i sięgają od 5,2 do 8,8 SNP na 10 kb, natomiast blisko 99,9% materiału genetycznego wszystkich ludzi pozostaje tożsame [14]. Kolejną obserwacją, wynikającą z realizacji projektu, jest stwierdzenie obszarów o wysokiej częstości występowania par C-G oraz innych z wysoką częstością par A-T. W obszarach o wysokiej gęstości C-G stwierdzana jest szczególnie duża liczba genów, a niekodujące odcinki intronów są mniejsze [14,15,17]. Stopień złożoności organizmów nie jest związany z bezwzględną liczbą genów, lecz z ich funkcją i współdziałaniem oraz jednocześnie z funkcją i współdziałaniem ich produktów (białek).

Perspektywy

Od opublikowania pierwszej, tzw. surowej wersji odczytanego genomu upłynęło sześć lat. W miarę prowadzenia dalszych badań pojawiają się nowe problemy do rozwiązania. Krok po kroku ludzki genom ujawnia ogromny stopień złożoności, a jego poznanie wymagać będzie pracy pokoleń biologów. Jednak już teraz rozwiązywanie zagadnień związanych z prowadzeniem badań doprowadziło do powstania i rozwoju nowych narzędzi nauki oraz do wyodrębnienia jej nowych gałęzi.

Powstała nowa dziedzina biologii nazwana genomiką, badająca oddziaływania między genami. Kolejną nową dziedziną wiedzy, dotyczącą jeszcze bardziej złożonego zagadnienia, jest proteomika badająca sieci współdziałań między białkami. W tym przypadku stopień złożoności jest rzędy wielkości większy od skali oddziaływań pomiędzy genami. Podobny postęp dotyczy nauk zajmujących się badaniami nad metabolizmem, farmakologią [18,19,20]. Wyniki prac nad poznaniem ludzkiego genomu zmienią obraz wielu dziedzin życia, a szczególnie medycyny.

Powstają testy umożliwiające nie tylko wykrycie chorób na ich najwcześniejszych etapach, ale także określenie osób, których profil genetyczny będzie wiązał się ze zwiększonym ryzykiem danego schorzenia (np. firma Myriad Genetics oferuje testy genetyczne pozwalające na określenie ryzyka rozwoju raka sutka lub schorzeń wątroby).

Masowa produkcja powinna wiązać się ze znacznym obniżeniem ceny dotychczas kosztownych badań genetycznych. C. Venter ufundował nawet nagrodę w wysokości dziesięciu milionów dolarów dla badacza (lub zespołu badaczy), który opracuje metodę pozwalającą na zsekwencjonowanie całego genomu za tysiąc dolarów [18,19,20].

Od roku 2001 koszty realizacji projektów z zakresu genomiki systematycznie spadają i jest to trend analogiczny do widocznego w przypadku elektroniki użytkowej czy informatyki. Ocenia się, że koszt odczytu genomu spada o połowę w ciągu osiemnastu kolejnych miesięcy i najpewniej za parę lat ktoś otrzyma nagrodę C. Ventera. Obecne najsprawniejsze urządzenia – sekwencery – są drogie i ich utrzymanie wymaga dużych nakładów finansowych. Sekwencer DNA 3730xl firmy Applied Biosystems kosztujący 365 000 dolarów potrafi odczytywać 2,8 mln zasad na dobę (a więc przy tej szybkości odczytanie ludzkiego genomu wymaga ponad 1000 dni ciągłej pracy) czy Genome Sequencer 20 firmy Life Sciences w cenie 500 000 dolarów, sekwencjonujący 40 milionów zasad w czterogodzinnym cyklu pracy i pozwalający odczytać genom w ciągu miesiąca. Dane te dotyczą jednokrotnego odczytu, a jak stwierdził Michael Egholm, prawidłowy odczyt powinien być powtórzony od 8 do 15 razy i o tyle wzrastają koszty i czas pracy. Z kolei firma Helicos Biosciences planuje produkcję urządzeń pozwalających na sekwencjonowanie 125 mln zasad na godzinę pracy i w dalszej przyszłości maszyn zwiększających tę szybkość do 7,5 miliarda na godzinę [18].

Poznanie różnic genetycznych między gatunkami pozwoli na określenie dróg ewolucji oraz pochodzenia życia na Ziemi, na poznanie przyczyn i mechanizmów pojawiania się nowych cech i stworzy nowy wymiar dla biologii ewolucyjnej [19,20,21,22,23].

Nowym możliwościom wynikającym z poznawania budowy ludzkiego genomu i ich przyszłego wykorzystania, np. w epidemiologii lub medycynie, towarzyszy pojawienie się nieznanych wcześniej problemów etycznych. Nie można odpowiedzieć na pytanie, jak wielu z nas będzie chciało poznać stopień ryzyka wystąpienia w przyszłości danej choroby, choćby raka prostaty, gdyż może to negatywnie wpłynąć na m.in. życie osobiste danej osoby. Z drugiej strony, taka wiedza może spowodować przedsięwzięcie przez pacjenta działań profilaktycznych lub odpowiednio wczesne podjęcie diagnostyki [13,17,19,20,21,22,23].

Farmakologia jest kolejną dziedziną ściśle związaną z rozwojem genomiki (jak i proteomiki). Już teraz trwają prace nad nowymi lekami dedykowanymi pacjentom o konkretnym genotypie. Poznanie podłoża genetycznego wielu chorób, często dotychczas nieuleczalnych, umożliwi ich skuteczne, „celowane” leczenie, a skuteczność innych wzrośnie dzięki możliwości dopasowania substancji leczniczych do indywidualnego profilu genetycznego.

Niewątpliwie osiągnięcia genomiki wpłyną na funkcjonowanie społeczeństw, być może organizacje lub przedsiębiorstwa zatrudniające pracowników zaczną żądać wyników badań genetycznych przyszłych pracowników, wkraczając w najbardziej osobistą sferę życia [22,23].

Badania nad ludzkim genomem znacząco wpływają na rozwój nauki. Wpływy te są i będą coraz głębsze, czego wyrazem jest powstawanie wielu firm biotechnologicznych, komercyjnie traktujących badania nad strukturą i działaniem genów. Powszechny jest pogląd, że biotechnologia będzie największym „biznesem” XXI wieku, podobnie jak elektronika i informatyka pod koniec wieku XX.

piśmiennictwo

  1. International Human Genome Sequencing Consortium: Initial sequencing and analysis of the human genome. Nature 2001, 409, 860-921.
  2. Venter JC, Adams MD, Myers EW et al: The sequence of the human genome. Science 2001, 291, 1304-1351.
  3. Barnhart BJ: DOE Human Genome Program. Hum Gen Qrly 1989, 1, 1.
  4. DeLisi Ch: Genomes: 15 years later a perspective by Charles DeLisi, HGP pionier. Hum Gen News 2001, 11, 3-4.
  5. Fleischmann RD, Adams MD, White O et al: The first report of a complete
  6. genome sequence of a free-living organism obtained by the shotgun approach. Whole-genome random sequencing and assembly of Haemophilus influenzae Rd. Science 1995, 269, 496-512.
  7. Venter JC, Adams MD, Sutton GG et al: Announcement of intention to use shotgun sequencing in application to human genome: Shotgun sequencing
  8. of the human genome. Science 1998, 280, 1540-1542.
  9. Venter JC, Smith OH, Hood L: A new startegy for genome sequencing. Nature 1996, 381, 364-366.
  10. Edwards A, Voss H, Rice P, Civitello A et al: Automated DNA sequencing of the human HPRT locus. Genomics 1990, 6, 593-608.
  11. Edwards A, Caskey T: Closure strategies for random DNA sequencing. Methods: A Companion to Methods in Enzymology 1991, 3 (1), 41-47.
  12. Roach JC, Boysen C, Wang K, Hood L: Pairwise end sequencing: a unified approach to genomic mapping and sequencing. Genomics 1995, 26, 345-353.
  13. Galas DJ: Sequence interpretation: Making sense of the sequence. Science 2001, 291, 1257-1260.
  14. Baltimore D: Our genome unveiled. Nature 2001, 409, 814-816.
  15. Hattori M, Taylor TD: The human genome: part three in the book of genes. Nature 2001, 414, 854-855.
  16. Chakravarti A: Single nucleotide polymorphisms to a future of genetic medicine. Nature 2001, 409, 822-823.
  17. Aach J, Bulyk ML, Church GM et al: Computational comparison of two draft sequences of the human genome. Nature 2001, 409, 856-859.
  18. Claverie JM: Gene number: what if there are only 30,000 human genes? Science 2001, 291, 1255-1257.
  19. Paabo S: The human genome and our view of ourselves. Science 2001, 29, 1219-1220.
  20. Perkel JM: My own private genome. The Scientist 2006, 20, 67.
  21. Cavazzana-Calvo M, Haceyn-Bey S, Saint Basile G et al: Gene therapy of severe combined immunodeficiency. Ann Rev Med. 2005, 56, 585-602.
  22. Fischer A, Cavazzana-Calvo M: Whither gene therapy. The Scientist 2006, 20, 36.
  23. Anderlik MR, Rothstein MA: Privacy and confidentiality of genetic information:
  24. What rules for the new science? Ann Rev Genom Hum Genet 2001, 2, 401-433.
  25. National Cancer Institute and National Human Genome Research Institute National Institutes of Health U.S. Department of Health and Human Services: Executive Summary: Toward a Comprehensive Genomic Analysis of Cancer July 2005.
  26. Collins FS, Green ED, Guttmacher AE, Guyer MS: Vision for the future of genomics research. Nature 2003, 422, 835-847.

adres autorów

Stanisław Wroński
Szpital Wojewódzki im. dr. J. Biziela
Oddział Urologii
ul. Ujejskiego 75
85-168 Bydgoszcz
tel. (052) 371 16 00
wrona@ozzl.org.pl