轉載自:https://blog.csdn.net/yangl7/article/details/109202042
一、BWA比對
1.構建索引
bwa index -a is example.fasta #構建索引 -a is算法 (BWT構造算法:bwtsw、is或rb2)
2.進行比對
bwa mem -t 6 -R '@RG\tID:foo\tPL:Illumina\tSM:example'
example.fasta example_1.fq.gz example_2.fq.gz > example.sam
# 進行對比 mem算法 -t 運行的核數目
# -R添加頭部?
ID:這是Read Group的分組ID,一般設置為測序的lane ID(不同lane之間的測序過程認為是獨立的),下機數據中我們都能看到這個信息的,一般都是包含在fastq的文件名中;
PL:指的是所用的測序平臺,這個信息不要隨便寫,在GATK中,PL只允許被設置為:ILLUMINA,SLX,SOLEXA,SOLID,454,LS454,COMPLETE,PACBIO,IONTORRENT,CAPILLARY,HELICOS或UNKNOWN這幾個信息。如果不知道,那么必須設置為UNKNOWN。
SM:樣本ID。
LB:測序文庫的名字,如果上面的lane ID足夠用于區分的話,也可以不用設置LB;
(用GATK檢測變異 其中ID,PL和SM信息是必須的)
二、samtools格式轉換
1.sam格式轉換為bam格式
samtools view -bS example.sam -o example.bam
# -b 輸出bam格式文件 -S 輸入sam格式文件
2.質控
samtools view -h -b -q30 example.bam > example.q30.bam
# -q 比對的最低質量值 -h 輸出的文件包含頭部信息 -b 輸出bam格式文件
3.構建索引
samtools faidx base/example.fasta
# 該命令會在example.fasta所在目錄下創建一個example.fai索引文件
gatk CreateSequenceDictionary -R example.fasta -O example.dict
# 創建gatk索引 生產dict文件
三、gatk變異檢測
1.排序
gatk SortSam -I example.q30.bam -O example.q30.sort.bam
-R base/example.fasta -SO coordinate --CREATE_INDEX true
# -I 輸入文件 -O 輸出文件 -R參考基因組 --CREATE_INDEX 是否建立索引
將sam文件中同一染色體對應的條目按照坐標順序從小到大進行排序
2.標記重復序列
gatk MarkDuplicates -I example.q30.sort.bam -O example.q30.sort.markdup.bam -M example.q30.sort.markdup_metrics.txt
# -I 輸入排序后的文件 -O 輸出文件 -M 輸出重復矩陣
注意:
samtools index example.q30.sort.markdup.bam
# 為gatk建立索引這里非常重要
3.檢測變異
gatk HaplotypeCaller --emitRefConfidence GVCF -R base/example.fasta -I example.q30.sort.markdup.bam -L chrX -O chrX.g.vcf.gz
# HaplotypeCaller同時檢測snp和indel -R 參考基因組 -I 輸入文件 -L 僅檢測該染色體的變異(分染色體檢測變異,加快速度)-O 輸出文件
這里分染色體進行檢測,后續再進行合并,可以加快檢測速度。
合并文件(g.vcf)
gatk CombineGVCFs -R base/example.fasta --variant example1.g.vcf.gz --variant example2.g.vcf.gz -O con.vcf.gz
# -R 參考基因組 --variant 輸入變異文件 可以輸入多個文件 -O 輸出文件
檢測變異
gatk GenotypeGVCFs -R ref.fa -V test.g.vcf -O test.vcf
4.提取SNP變異
gatk SelectVariants -R base/example.fasta -V test.vcf -O test.snp.vcf --select-type-to-include SNP
# -R 參考基因組 -O 輸出vcf文件 -V 輸入vcf文件 --select-type-to-include 選取提取的變異類型(#SNP,MNP,INDEL,SYMBOLIC,MIXED)
5.對SNP進行過濾
gatk VariantFiltration -O chr5.Filt.vcf -V chr5.vcf
--cluster-window-size 10
--filter-expression "MQ0 >= 4 && ((MQ0 / (1.0 * DP)) > 0.1)" --filter-name "HARD_TO_VALIDATE"
--filter-expression "DP < 5 " --filter-name "LowCoverage"
--filter-expression "QUAL < 30.0 " --filter-name "VeryLowQual"
--filter-expression "QUAL > 30.0 && QUAL < 50.0 "
--filter-name "LowQual" --filter-expression "QD < 1.5 "
--filter-name "LowQD"
# -O 輸出文件 -V輸入變異文件 --filter-expression 過濾條件 --filter-name 被過濾掉的SNP不會刪除,而是給一個標簽,例如 "LowCoverage" 。
這里可以將過濾條件合并,僅給出一個標簽。--cluster-window-size 以10個堿基為一個窗口
這里通過設定相應的參數值進行了硬過濾,實際應用時還要根據數據類型及自己的需求設定相應的參數。
6.合并文件(vcf)
刪除掉被過濾的SNP
grep -v "LowCoverage" Filt.vcf > Filt1.vcf
# -v顯示不包含匹配文本的所有行 "LowCoverage"上一步給出的標簽
合并成一個文件
gatk MergeVcfs -I chr1.Filt.vcf -I chr2.Filt.vcf -I chr3.Filt.vcf? -O Filt.vcf
# -I 輸入文件 可以多次指定 -O 輸出文件
至此為止就得到了整個群體的VCF變異文件,后續都是基于此文件來進行相應的分析。
四、Plink格式轉換及主成分分析
1.VCF格式轉換為 ped/map格式
vcftools --vcf snp.vcf --plink --out snp
2.ped/map格式轉換為bed/bim/fam格式
plink --file snp --make-bed --out snp_test
3.主成分分析
Plink --threads 8 --bfile snp --pca 10 --out pca
# --threads 線程數 --bfile 輸入.bed文件 --pca 主成分的成分數 --out輸出的文件名
五、Admixture 群體結構
1.群體結構分析
for K in 2 3 4 5 6 7 8 9 10; \
do admixture --cv hapmap3.bed $K | tee log${K}.out; done
#2 3 4 5 6 7 8 9 10分成的群體結構數 hapmap3.bed 輸入文件
注意:
如果你的數據格式是plink的bed文件, 比如a.bed, 那么你應該包含a.bim, a.fam
如果你的數據格式是plink的ped文件, 比如b.ped, 那么你應該包括b.map
K值根據實際情況進行設置,通過比較得到最佳K值。
grep -h CV log*.out
#查看最佳K值 輸出最佳K值文件:hapmap3.3.Q
2.R語言作圖
tbl=read.table("hapmap3.3.Q")
barplot(t(as.matrix(tbl)), col=rainbow(K),
xlab="Individual", ylab="Ancestry", border=NA)
hapmap.3.Q文件為群體結構的結果,作為協變量進行關聯分析
六、Tassel關聯分析
Tassel的管道命令不允許有回車符號,使用以下命令時需要將#注釋及換行刪除。
1.VCF格式轉換為 hmp格式
run_pipeline.pl -SortGenotypeFilePlugin -inputFile example.vcf -outputFile example -fileType VCF
#給vcf文件排序,排成tassel認可的序列
#-inputFile 輸入的文件名 -outputFile 輸出的文件名 -fileType 輸出的文件格式
run_pipeline.pl -fork1 -vcf example.vcf? -export example -exportType Hapmap -runfork1
#vcf文件轉換為hapmap格式
#-vcf 輸出的文件 -export 輸出的文件 -exportType 輸出的文件格式
2.親緣關系
run_pipeline.pl -importGuess genotype.hmp.txt #打開數據文件
-KinshipPlugin -method Centered_IBS -endPlugin #計算親緣關系
-export genotype_kinship.txt? #輸出文件名
-exportType SqrMatrix #輸出格式
3.關聯分析
混合線性模型
run_pipeline.pl -fork1 -h genotype.hmp.txt -filterAlign -filterAlignMinCount 150 -filterAlignMinFreq 0.05 -filterAlignMaxFreq 1
#-h讀取hapmap格式的基因型數據 -filterAlign 打開過濾選項
#-filterAlignMinCount -filterAlignMinFreq -filterAlignMaxFreq 過濾的條件 需要按照實際情況進行修改
-fork2 -r traits.txt
#-r 讀取表型數據
-fork3 -q population_structure.txt -excludeLastTrait
#-q 讀取群體結構數據 -excludeLastTrait 去掉最后一個群體結構 (當分成的群體結構>2時)
-fork4 -k kinship.txt
#讀取親緣關系數據
-combine5 -input1 -input2 -input3 -intersect -combine6 -input5 -input4 -mlm -export example
#-combine合并數據 -mlm混合線性模型 -export輸出文件名
一般線性模型
run_pipeline.pl
-fork1 -h genotype.hmp.txt -filterAlign
-filterAlignMinCount 150 -filterAlignMinFreq 0.05 -filterAlignMaxFreq 1
-fork2 -r traits.txt
-fork3 -q population_structure.txt -excludeLastTrait
-combine4 -input1 -input2 -input3 -intersect -glm -export example
#-glm 一般線性模型
4.R語言作圖
Library(qqman)
#加載qqman包
曼哈頓圖
manhattan(example,ylim=c(0,10),col = color_set,annotatePval = 0.01)
# ylim Y軸范圍 col 顏色 annotatePval 標記最高位點 CHR==1 繪制每個染色體的曼哈頓圖
Q-Q plot
qq(example$P)
七、其他
1.基因組統計工具
可以統計fasta和fastq文件中的信息。
seqkitfx2tab example.fasta -l -n
-l統計序列長度 -n 統計染色體
2.提取文本文檔中某列
用于Tassel關聯分析后的結果文件,提取相應的列進行R語言繪圖。
catMLM.txt | awk '{print $1" "$3" "$4" "$7}' > manhattan.txt
# $提取的列數
3.刪除文本文檔中不包含匹配文本的行
用于過濾后刪除低質量的SNP。
grep-v"LowCoverage"Filt.vcf > Filt1.vcf