打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
变异检测流程居然可以如此之快

这是一篇工具介绍贴,考虑这个工具是要钱的,那些动不动就说别人忘了初心的用户肯定认为我写的是软文,所以这些人就不要继续往下看了。

变异检测的软件目前虽然有很多,SAMtools/BCFtools, GATK, FreeBayes等,但是我看到的大部分文章都是用GATK UG/HC。GATK的速度是有目共睹的慢,不过我平时就分析几个重测序样品,基本上过个两天就能出结果,所以速度不是我的刚需。

如果想要追求速度的话,一种思路是可以将参考基因组进行分割,然后分别并行运算加速,或者搭建Spark环境,用GATK4的Spark模式。还有一种就是根据GATK的算法思想,用C/C++重新写软件。去年的时候我看到了一个软件叫做sentieon,用C/C++实现了GATK的算法,瞬间速度就上来了,这是一个商业公司的收费软件,目前国内用的比较少。

我原本以为这个速度已经够快的,直到我最近去demo了另一个软件,edico公司开发的DRAGEN,这个效率简直是丧心病狂。它从硬件和软件上同时进行加速

  • 需要购买他们公司的硬件,128G内存,56线程,2T固态硬盘,以及一个FPGA芯片

  • 比对这一步的算法基于而不是BWT转换(这就是为什么要128G内存)

  • 比对之前要将索引加载到芯片中,所以每次只能比对一个任务

  • 由于IO读写是非常大瓶颈,所以采用了固态硬盘

  • 程序由C/C++开发,所以效率极高

为啥我要去demo这个工具呢,主要因为最近服务器资源紧缺(因为之前用的服务器要么是合租的,要么是蹭别人的),而老板又在催进度,而要买的服务器还在路上。就在这走投无路的情况下,我突然想起2个月之前和这个设备的负责人说要去测试一下(换句话说,我放了他两个月的鸽子。。)

看完软件说明书,我就坐着地铁揣着硬盘,硬盘里装着一个260M的基因组和230个GBS测序的数据(80G)跑到仁科生物公司以测试软件之名实为蹭别人的服务器。

首先我把数据一股脑地全从硬盘里拷到固态硬盘挂载的 /staging

然后是建立索引:

  1. dragen -h-ht-reference reference.fa --output-directory reference --build-hash-table true

接着我现场写了一个shell脚本用来批量分析,命名为 run_dragen.sh

  1. #!/bin/bash

  2. set -e

  3. set -u

  4. set -o pipefail

  5. REF=$1

  6. SAMPLES=$2

  7. samples=$(cat $SAMPLES)

  8. # loading hash table

  9. dragen -l -r $REF

  10. # calling gvcf for each sample

  11. mkdir -p GVCF

  12. for sample in ${samples}

  13. do

  14.    prefix=$(basename ${sample})

  15.    if [ ! -f GVCF/${prefix}.done ]; then

  16.    dragen -f -r $REF \

  17.        -1 ${sample}.1.fq.gz -2 ${sample}.2.fq.gz \

  18.        --enable-variant-caller true \

  19.        --vc-emit-ref-confidence GVCF \

  20.        --vc-sample-name ${prefix} \

  21.        --output-directory GVCF \

  22.        --output-file-prefix ${prefix} \

  23.        --enable-duplicate-marking false \

  24.        --enable-map-align-output true

  25.    touch GVCF/${prefix}.done

  26.    fi

  27. done

  28. find GVCF/ -name '*.gvcf.gz' | grep -v 'hard' > gvcfs.list

  29. # merge gvcf and join calling

  30. mkdir -p vcf_result

  31. if [ -f gvcfs.list -a ! -f vcf_result/combine.gvcf.gz]; then

  32.    dragen -f -r $REF \

  33.        --enable-combinegvcfs true \

  34.        --output-directory vcf_result \

  35.        --output-file-prefix combine\

  36.        --variant-list gvcfs.list

  37. fi

  38. if [ ! -f vcf_result/join_calling.vcf.gz ]

  39. then

  40.    dragen -f -r $REF \

  41.        --enable-joint-genotyping true \

  42.        --output-directory vcf_result \

  43.        --output-file-prefix joint_calling\

  44.        --variant vcf_result/combine.gvcf.gz

  45. fi

运行方法:

  1. # 创建一个文件存放待分析的样本

  2. find /staging/xuzhougeng/00-raw-data/ -name '*.fq.gz'| sed 's/\(.*\)\.[12].fq.gz/\1/' | uniq > samples.txt

  3. # 执行命令, 参数分别是索引的文件夹和样本文件

  4. bash run_dragen.sh reference samples.txt &> run.log &

按照我的估算,每个样本至少得要花个20分钟得到GVCF文件吧,毕竟我用BWA-MEM10个线程进行比对也要10min呀。事实证明我还是低估了程序猿的能力值,每个GBS样品得到GVCF文件居然只要不到1min。。

  1. RUN TIME,,Total runtime,00:00:56.528,56.53

得到的GVCF可以进行合并,但是有一个问题,就是超过200样本就会出错,而且Join calling运行也不需要combine,所以后续的代码就删掉了merge这一步

  1. ...

  2. find GVCF/ -name '*.gvcf.gz' | grep -v 'hard' > gvcfs.list

  3. # join calling

  4. if [ ! -f vcf_result/join_calling.vcf.gz ]

  5. then

  6.    dragen -f -r $REF \

  7.        --enable-joint-genotyping true \

  8.        --output-directory vcf_result \

  9.        --output-file-prefix joint_calling\

  10.        --variant-list gvcfs.list

  11. fi

在Joint Calling步骤花的时间比较长,时间是'RUN TIME,,Total runtime,00:14:24.272,864.27'.

虽然软件运行速度是很快,但是写出上面的代码并且调试却花了我好久时间,于是这两天时间我就在公司里敲代码。除了GBS数据,第二天我还带着另一个260M基因组(Canu初步组装和arrow polish后到版本)和一个100X重测序数据(压缩后10G数据)去测试,分别在固态硬盘和我的移动硬盘里测试,结果如下:

  1. 固态硬盘 draft.fa: 06:31(mapping) + 28.17 (varaint calling)

  2. 普通移动硬盘 draft.fa: 28.33(mapping) + 29.03 (varaint calling)

  3. 固态硬盘 polish.fa: 06:09(mapping) + 13.093(variant calling)

  4. 普通移动硬盘 polish.fa: 27.46(mapping) + 13.33(varint calling)

这里有两个结论

  • 是比对的IO对速度影响非常大,也就是要一定要在固态硬盘里发挥它最大的威力。

  • 重测序样本与参考基因组的差异程序影响variant calling这一步。

从上面的测试而言,DRAGEN的运算速度的确是非常快的。虽然你需要先把拷贝数据这一步会花点时间,但是你从公司拿到的数据其实也要拷贝到服务器才行,所以拷贝数据是不可避免的。

对于公司而言,原本需要两天才能跑完的分析可能现在2小时或者1小时不到就能搞定了,那么业务速度就快了,此外也不需要搭建spark或者自己搞一套对GATK进行并行,更何况GATK商用是要钱的,国内很多公司都是偷偷的在用吧。对于医院而言,嗯,他们不差钱。对于科研机构而言,除非专门搞一个平台管理,不然一年花掉2T的分析数据量还是有难度。

当然都是比对,所以这个软件也能用于分析RNA-seq,ChIP-seq,ATAC-seq等illumina高通量测序数据,但是三代测序数据目前搞不定,不知道未来会不会支持。


本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
肿瘤WES项目实战演练分享及学习班通知
GATK4 最佳实践-生殖细胞突变的检测与识别
02.GATK人种系变异最佳实践SnakeMake流程:Call变异
一步一步用Snakemake搭建gatk4生成正常样本的germline突变数据库的流程
最新版针对RNA-seq数据的GATK找变异流程
vcf文件合并
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服