數據文本導入MySQL總結

場景描述

最近工作中遇到需要導一批數據到mysql中。數據以txt文件形式給出,大概有80G大小,統計后有三千多萬行,也即會往表里導入三千多萬條數據。具體該怎么辦呢?寫程序一行一行讀文本,然后拼接SQL語句往數據庫里插入(批量插入),太耗時了也太麻煩了,否定了這種想法。有沒有工具能夠直接從文本到數據到mysql呢?經查詢,mysql客戶端自帶了導入工具mysqlimport同時mysql本身就支持LOAD DATA SQL語句。最終我選用了mysql的LOAD DATA命令來導入這些數據。下面我們就通過這個場景,一起了解一下mysql文本導入的使用方法。

文本預處理

數據文本是由以'\01'分隔的一行行字符串構成的。我們必須把這里的'\01'替換成mysql文本導入中支持的分隔符,我們這里選擇替換成'\t\t',在文本目錄下執行命令:

sed -i 's/\x01/\t\t/g' ./*

sed的執行速度還是很快的,一千六百萬行文本五分鐘左右就替換好了。替換后的文本如下所示:
現在我們的數據經過預處理,已經可以用來導入了。

數據導入

前面也說過,我們選擇mysql的命令來導入文本數據。所以我們先一起來看一下mysql的數據導入語法:

LOAD DATA [LOW_PRIORITY | CONCURRENT] [LOCAL] INFILE 'file_name'
    [REPLACE | IGNORE]
    INTO TABLE tbl_name
    [PARTITION (partition_name,...)]
    [CHARACTER SET charset_name]
    [{FIELDS | COLUMNS}
        [TERMINATED BY 'string']
        [[OPTIONALLY] ENCLOSED BY 'char']
        [ESCAPED BY 'char']
    ]
    [LINES
        [STARTING BY 'string']
        [TERMINATED BY 'string']
    ]
    [IGNORE number {LINES | ROWS}]
    [(col_name_or_user_var,...)]
    [SET col_name = expr,...]

我們一個個參數具體解釋一下:

  • file_name
    file_name必須是本地的要導入的文本數據
  • CHARACTER SET
    CHARACTER SET指定導入的文件的字符格式
  • FIELDS | COLUMNS
    如果需要在導入數據時對導入的文本進行分割,我們需要添加FIELDS TERMINATED BY ','語法,LINES TERMINATED BY 語句是以指定字符分隔文本為行,默認是以換行符進行行分隔。
  • IGNORE number [LINES | ROWS]
    IGNORE 后面加數字表示導入數據時忽略文本的前多少行.
  • (col_name1,col_name2...)字段列表
    每一行文本被分隔為一個個字段,但是我們導入這些數據的時候,每個字段對應到表中哪一個字段,是在此處指定的。數據文本中的字段按順序導入到該字段列表指定的字段中。如果出現文本中的字段比我們mysql表中的字段要多,或者是我們只希望導入每一行數據的某一些字段,我們可以在字段列表中按照導入文本的字段順序加入一些用戶變量,如下所示:
LOAD DATA INFILE 'file.txt'
  INTO TABLE t1
  (column1, @dummy, column2, @dummy, column3);

這樣做就相當于我們直接丟棄了導入文本中的某些字段值。

  • SET col_name = expr
    如果表中某些字段我們希望是一個特定值,我們可以在這里直接設置。

我們的具體導入sql語句如下:

LOAD DATA  INFILE '/opt/data/backup/xx_01_xx  
INTO TABLE db_abc.t_info_xxx CHARACTER SET utf8  FIELDS TERMINATED BY '\t\t'  IGNORE 1  LINES
(@dummycola,col1,col2,col3,col4,col5,col6,col7,col8,col9,col10,col11,
@dummycolb,@dummycolc,col12,col13,@dummycold,col14,col15,
@dummycole,col16,col17,col18,col19,@dummycolf,col19,col20,
col21,col22,col23,col24,col25,col26,col27);

先拿一部分數據測試,一百六十萬行數據,導入大概花了2min左右,速度還是可以接受的。
執行結束后,我們可以通過sql命令SHOW WARNINGS查看數據導入中的一些告警,我的導入中就發現了一些字段的寬度不夠的情況,通過調整、測試,保證表結構無誤,就可以正式來導入這些數據了。

由于我們的這些數據是由十多個文本組成的,一條一條語句的在mysql客戶端命令行去執行每個文件的導入太麻煩了,寫個腳本來執行方便多了,我們的腳本如下:

#!/bin/bash

mysql=/usr/bin/mysql
host="192.168.0.1"
port=1234
username=xxx
passwd="xxx"
dbname=db_abc
tbname=t_info_xxx

time0=`date +%s`
echo "------------------start to import data into mysql...-----------------------"
echo -e "\n"
for i in `seq 1 12`
do
    num=`printf "%.2d" $i`
    filename="xxx_${num}_xxx"
    echo "import file:${filename}..."
    time1=`date +%s`
    mysql -h${host} -P${port} -u${username} -p${passwd} -e "
use ${dbname};
LOAD DATA LOCAL INFILE '/opt/data/backup/${filename}'  INTO TABLE ${dbname}.${tbname} CHARACTER SET utf8 
FIELDS TERMINATED BY '\t\t'  IGNORE 1 LINES
(@dummycola,col1,col2,col3,col4,col5,col6,col7,col8,col9,col10,col11,@dummycolb,
@dummycolc,col12,col13,@dummycold,col14,col15,@dummycole,col16,col17,col18,col19,@dummycolf,col19,col20,col21,col22,col23,col24,col25,col26,col27);
quit
"
    echo "import file:${filename} success!"
    time2=`date +%s`
    comp1=`expr $time2 - $time1`
    echo "import file:${filename} has cost ${comp1} seconds!"
    echo -e "\n"
done
timen=`date +%s`
comp2=`expr $timen - $time0`
echo "The whole data import cost ${comp2} seconds!"
echo -e "\n"
echo "-----------------import data into mysql end!-----------------------"

注:

  • 因為是公司內部數據,所以具體的字段名稱、數據庫名稱等都做了處理,但是這個腳本的整體結構是一樣的。
  • 最后sql語句中的字段列表中有一些@dummycolx列,這些用戶變量是為了解決文本中多出來的一些字段,而我們數據庫表中沒有對應字段,或者我們不需要一些文本中的字段,把這些@dummycolx列放在這里就相當于丟棄了這些字段,只導入我們需要的那些字段。
  • 最終我們一共導入了2000萬條數據,總共耗時10多分鐘。

另外

mysqlimport工具使用起來也是十分方便,實際上mysqlimport工具內部就是包裝了LOAD DATA INFILE語句。如果使用的話,具體可以參考這里:mysqlimport

參考

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,333評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,491評論 3 416
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,263評論 0 374
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,946評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,708評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,186評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,255評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,409評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,939評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,774評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,976評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,518評論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,209評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,641評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,872評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,650評論 3 391
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,958評論 2 373

推薦閱讀更多精彩內容