MedIQ

Régen Frederick Sanger, kétszeres Nobel-díjas kémikus, zseniális módszert dolgozott ki a DNS szekvenálására, azaz a DNS-ben lévő betűk (bázisok) meghatározására. Viszont gyorsabb, jobban automatizálható rendszerekre van szükség abban a korban, amikor már nem több millió dollárért akarunk teljes emberi génállományt meghatározni, hanem néhány ezerért. Így néz ki a régi módszer: 

A Helicos új konstrukciója pedig így. A módszer maga hasonló, de más eszközöket is felhasznál, például a fluoreszcens jeleknek a képi feldolgozását és észlelését. Napi 1 milliárd bázist határoznak meg vele, de a cél az óránkénti egy milliárd bázis.

Röviden a lényege. A DNS-t apró darabokra szabdalják, majd minden rövid szekvencia 3' vége kap egy fluoreszcensen jelölt "A" bázisokból álló darabot, mely hozzákötődik a Helicos előre lekötött "T" bázisokból álló darabjaihoz, ezáltal mintegy röghöz kötve az összes DNS fragmentumot. Egy CCD kamera rögzíti a fragmentumok lokalizációját. Ezután egyenként adnak hozzá fluoreszcensen jelölt bázisokat, melyek a DNS polimeráz által odakötődnek a helyükre és a CCD kamera észleli őket. Ugyanez történik minden bázissal, míg fel nem épülnek a lekötött fragmentumok párjai. Így valójában képalkotás segítségével zajlik a különböző bázisok adatrögzítése.

A bejegyzés trackback címe:

https://mediq.blog.hu/api/trackback/id/tr701401091

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Pas · http://pasthelod.hell-and-heaven.org 2009.09.23. 13:56:16

Ez tökjó, de honnan tudják, hogy melyik kis 100-200 bázis hosszú rész melyik után jött az eredeti láncban?

Meskó Berci · http://mediq.blog.hu/ 2009.09.23. 13:58:25

Szerintem úgy, hogy minden fluoreszcensen jelölt bázis bevitele után csinálnak egy leképezést, így időben látszani fog a képek alapján, hogy milyen bázis után mi jött.

Pas · http://pasthelod.hell-and-heaven.org 2009.09.23. 14:01:20

És eddig hogy csinálták? Valahogy csak megoldották eddig is, fotó nélkül :o

2009.09.23. 17:23:32

@PAStheLoD: szerintem is az van, hogy minden bázis beépülése után lesz egy kép (és kurva sok adat a végén).

a 100-200 bázisok összerakásához meg általában már megvan a referenciagenom, amihez illesztik. nem véletlen hogy ezeket a nextgen módszereket általában újraszekvenálásra használják, nem teljesen új genomok megszekvenálására (bár újabban már ez sem igaz).

Pas · http://pasthelod.hell-and-heaven.org 2009.09.23. 19:58:15

azt értem, hogy csinálnak kurvasok képet. :)

azt nem, hogy hogyan csinálták meg az első (a referencia) genomot :o

illetve az oké, hogy van referencia, és ahhoz hasonlítják/keresik, stb.. de hogy detektálják a mutációkat? vagy egyszerűen a 100-200 bázis olyan hosszú, hogy azt biztosan tudják illeszteni?

Dömper Ármánd 2009.09.23. 20:24:39

@PAStheLoD: én nem értek a génszekventáláshoz, de úgy vettem ki a videóból, hogy gyakorlatilag több teljes DNS-t darabolnak föl (természetesen ugyanannak a DNS-nek a másolatait), néhány száz bázis hosszúságú darabokra. Így mindig lehet találni egy darabhoz egy másik darabot, ami részben átfedi azt, innentől a teljes géntérkép előállítása triviális hiszen, ha az első szakasz végének csupán 16 bázisa egyezik a következő szakasz első 16 bázisával, akkor csupán egy a kb. négymilliárdhoz az esélye annak, hogy véletlenül egy nem oda illő szakaszt illesztünk be. Gondolom ennél sokkal jobb is lehet az arány a valóságban, miután sokkal több átfedés is lehet.

Pas · http://pasthelod.hell-and-heaven.org 2009.09.23. 22:00:40

nem túl egyértelmű a második videó eleje, amikor a minta előkészítéséről beszél a "100-200 bázis" említése előtt. a vizuál meg csak annyi, "illusztráció".

azért köszönöm a válaszokat :)

2009.09.23. 22:26:34

@Dömper Ármánd: hát a többé kevésbé átfedő, esetenként ismétlődő, megduplikált, esetleg szekvenálási hibákat is tartalmazó, stb darabok összerakása azért annyira nem triviális programozási probléma :)

A klasszikus genomszekvenálásnál a módszer valamivel nagyobb darabokat olvas le egyben, mint az újaknál, így egyszerűbb összerakni a genomot.

Egyébként meg az új és régi módszereknél is többször szekvenálják meg az összes régiót (5x, 10x, 30x, stb) éppen azért, hogy utána biztosan lehessen azt mondani, hogy a vele összehasonlított szekvenciában tényleg mutáció van és nem szekvenálási hibáról van szó.

(egyébként meg google is your friend: whole genome sequencing, shotgun sequencing, next generation sequencing, genome assembly, etc)
süti beállítások módosítása