HTML

Az élet kódjai

Csináld maga. Senki nem csinálja meg helyetted.

Friss topikok

  • Kalle: @Travis.CG: Igazság szerint bioinformatikában nem is nagyon tudnék érvet mondani, hogy miért kéne ... (2019.06.28. 23:45) CentOS, nagyoknak
  • sdani: @Travis.CG: Nohát, nem is tudtam, hogy ilyen van... bár ahogy elnézem ezek a komponensek fizetősek... (2018.11.01. 10:14) Rossz beidegződések a bionformatikában
  • Csenge Tarnói: Ez érdekes. Most csinálok egy meta-analízist, életemben először, úgyhogy az én tudásom is felszíne... (2018.10.01. 21:39) Ez már nekem sok
  • robertherczeg: Nekem a kedvenc az volt, hogy: "Inkább eleve Mann-Whitney és/vagy Wilcoxon tesztet használjunk, m... (2018.09.04. 07:47) Ezért utálom a Wilcoxon-tesztet
  • Travis.CG: ÉÉÉÉÉs megjelent! (2018.08.24. 23:31) Nehéz szülés 2

BioIT World 2. rész

2012.10.10. 23:32 Travis.CG

Még tegnap este megnéztem kedvenc marketingesünk laptopját, mert állítólag elromlott. Az elromlott azt szokta jelenteni, hogy nem azt csinálja, amit a tulaj szeretne, ezért erős fenntartásokkal fogadtam a tüneteket. Végül sikerült megállapítani, hogy tele van a merevlemez hibás blokkokkal, ami lelassította a rendszerindítást. Egy éjszakán keresztül igyekezett a kis gép kijavítani a hibás szektorokat, de végül alul maradt.

Reggel a laptop tulaja úgy nézett ki a kávéja nélkül, mint egy zombi. Fel is ajánlottam neki egy szerepet még el nem készült poszt-apokaliptikus filmemben. De természetesen a legfontosabbak az előadások, így térjünk át ezekre.

A klinikai SNP keresés nagyban eltér a hagyományos kutatásban megismert módszerektől. Erről szólt az első előadás is. Az exome szekvenálás költséghatékony módja a variációk felderítésének, de felmerül a kérdés, vajon a szekvenálások mennyire befolyásolják a végeredményt? A vizsgálatok során a Complete Genomics és az Illumina szekvenálásokból kerestek variációkat. BWA-t, SOAP-Alignert használtak illesztésekhez és SOAPsnp-t, SOAPindelt, GATK-t, Samtoolst, SNPvert, GNUMAP-SNP-t SNPk és indelek azonosítására. A jó hír, hogy a variációk legtöbbjét mindegyik módszerrel meg lehet találni, de a gond azok a variációk, amelyek csak egyik vagy másik módszerrel találhatóak csak meg. A szekvenálás lefedettségének növelése sem megoldás, mert ezzel csökkennek ugyan a csak Illuminával megtalálható variációk (ez fals pozitívok jelenlétére utal), de a grafikonokból én azt láttam, hogy a Complete Genomics szekvenálásainál viszont növekedtek a variációk (ami viszont azt jelenti szerintem, hogy a valódi pozitívok száma alacsony). A részletek ebben a cikkben olvashatóak.

Ez után a depressziós előadás után egy kicsit vidámabb következett. Az előadó elmondta, hogy náluk azért működik az exome szekvenálás, az előzőekben hallott problémák ellenében. Erre hozott példákat is. Az egyik egy hibásan diagnosztizált egyén jó diagnosztizálása, a másik egy régi eset megoldása volt. Ennek ellenére nem tudja, hogy mennyire hatékony az exome szekvenálás, mert ők nagyon speciális eseteket dolgoztak fel. A norvég törvények nagyon szigorúak a humán klinikai minták biztonságával szemben, ezért náluk szóba sem jöhet semmilyen felhő alapú szolgáltatás. Előadás után megkérdzték tőle, hogy mi a véleménye a PacBio szekvenátorról. Azt válaszolta, hogy nagyon alacsony az áteresztő képessége, ami manapság már nem elegendő. A jövőre vonatkozóan annyit mondott, hogy kíváncsian várja a MinION USB-re csatlakoztatható szekvenálót.

Meghallgattam az IBM előadását is, így már képben vagyok, mire is van szüksége egy bioinformatikusnak. Az IBM hihetetlen mennyiségű számítási kapacitást és performanciát igyekszik a kutatók rendelkezésére bocsátani. Mit is jelent ez? 7,5 terabájt memóriát, Intel csúcsprocesszorokat (Sandy Bridge külön kihangsúlyozva). Ha valaki azt kifogásolná, hogy korunk bioinformatikai kihívásai I/O érzékenyek, azok megkapják a GPFS fájlrendszert. A ScaleMP már csak hab a tortán. Természetesen a bioinformatikust nem érdeklik a technológiai részletek, ezért a CLC-vel karöltve előre telepített vackok... izé bioinformatikus alkalmazások vannak. Személy szerint nem tetszett az erőforrások teljesen felesleges felhalmozása. 47 másodperc humán de-novo? Mire jó ez?

Hallgattam még egy klinikai sikertörténetet is, ahol az életkorfüggő fibropoliferatív repair genetikai okait keresték. Ez ugyanis az életkor előrehaladásával csökkenti egyes szervek működőképességét. Modellorganizmusnak transzgenikus egereket használtak, ahol genetikai targeteket igyekeztek keresni. Embereken észrevették, hogy a közös fenotípus mögött eltérő okok húzódnak. Egyes típust könnyebb azonosítani DNS típizálással, míg másokat mRNS mintázatuk alapján egyszerűbb meghatározni.

Egy másik klinikai diagnosztikai előadás arról beszélt, hogy ők még mindig Sangert használnak, mert náluk a cél, hogy minél kevesebb hibát ejtsenek a vizsgálatok során. Így is 10% körüli az emberi tényező okozta hiba. Ezt úgy igyekeznek csökkenteni, hogy két, egymástól független szakértő is elvégzi az elemzést. (Ezt egyébként a riportjukban is feltűntetik). A genetikai variációk feltételezett hatását a következő programokkal igyekeznek felderíteni: snps3d, sift, polyphen, pmut, panther. Természetesen mozdulni akarnak az újgenerációs szekvenálások irányába. Jelenleg egy CGC LIMS programot használnak, de KIWI néven egy új programot fejlesztenek GWT alapokon, Java EE szerverrel és MySQL liquibase adatbázissal. A forráskódot Mavennel rázzák gatyába.

Az utolsó klinikai diagnosztikával foglalkozó előadást azzal kezdték, hogy elég ritka, hogy egy genetikai eredetű betegség esetén, ha meg is szekvenálják a beteget, kiterjesztik a vizsgálatot más génekre, vagy rokonokra. XworX platformon fejlesztenek munkafolyamatot MutAid néven. Ez az eszköz inkább csak a funkcionális annotációban és a riport készítésében segít, mint a konkrét genetikai okok felderítésében.

Az IBM másik előadásán a hibrid architektúrájú felhőkről beszéltek. Valós időben akarnak elemzéseket végezni, vezeték nélküli nanoszenzorokból érkező adatokon. A beérkező adatokat pedig az örökkévalóságig tárolni. A hibrid architektúra azt jelenti, hogy vannak feldolgozás központú csomópontok, erős GPU-val, kis merevlemezzel, és I/O-ban erős csomópontok, de gyengébb processzorral. A csomópontok Hadoop-al, Oozival, Zookeeperrel vannak felhővé varázsolva.

A nap utolsó előtti előadása egy álomról szólt. Az EMIF projekt olyan új, hogy még weboldala sincs. Pontosan nem is értem mi lesz a lényege, de szeretnének egy platformot, ahol összegyűjtik a klinikai információkat és megosztják azokat, majd levonják a nagy következtetéseket.

A farmakogenomikáról szólt az utolsó előadás, illetve arról, hogy milyen eszközöket fejlesztettek, ami még farmakogenomikához is használható. Az egyik a FindBase, ami demoeffekt-szerűen vizualizálja a keresési eredményeket. Mutációs függőségi gráfokat is tartalmaz. A másik termék a Goldenhelix.

A kiállítok között feltűnt a Virtalis. Kiraktak egy 3D projektort, aktív szemüveggel egy PyMol segítségével megjelenítettek egy modellt és megpróbálták elmagyarázni, hogy ez a jövő. Azért, mert a filmeket már nem tudják eladni 3D nélkül, az nem jelenti azt, hogy ettől jobban fog menni a tudomány. Beszélgettem egy kémikussal, aki szintén a kiállítók között volt. Szerinte, például a fehérje szerkezeti vizsgálatnál teljesen felesleges a 3D vizualizálás, mert nem az a lényeg. Egyetértettem vele.

Szólj hozzá!

Címkék: cloud computing bioinformatika

A bejegyzés trackback címe:

https://cybernetic.blog.hu/api/trackback/id/tr144831870

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.