精品一区二区三区在线成人,欧美精产国品一二三区,Ji大巴进入女人66h,亚洲春色在线视频

Linux I/O棧:如何精準定位性能瓶頸?

系統 Linux
想象一下,在一個數據處理中心,大量的數據分析任務同時啟動,每個任務都需要頻繁地讀取和寫入海量的數據文件。

在Linux 系統的廣袤世界里,I/O 性能猶如一座大廈的基石,支撐著整個系統的穩定運行和高效運作。從日常辦公中的文件讀寫,到企業級應用里的數據存儲與傳輸,I/O 操作無處不在。然而,當系統面臨高并發的文件訪問、大規模的數據傳輸或者復雜的存儲架構時,I/O 棧的性能瓶頸就可能如潛伏的暗礁,隨時讓系統這艘巨輪觸礁擱淺。

想象一下,在一個數據處理中心,大量的數據分析任務同時啟動,每個任務都需要頻繁地讀取和寫入海量的數據文件。此時,如果 I/O 棧無法高效地處理這些請求,就會導致任務執行緩慢,數據處理的時效性大打折扣,甚至可能引發整個系統的卡頓和崩潰。又比如在一個網絡服務器集群中,眾多用戶同時訪問服務器上的文件資源,I/O 性能的不足會使得用戶體驗急劇下降,訪問延遲大幅增加,嚴重影響業務的正常開展。

這些因 I/O 性能瓶頸引發的問題,不僅在大型企業級場景中頻繁出現,也在個人開發者的日常工作中時有發生。比如,在開發一個需要頻繁讀寫本地文件的應用程序時,如果不能深入理解 Linux I/O 棧的工作原理,就很難發現和解決潛在的 I/O 性能問題,導致程序運行效率低下。因此,深入剖析 Linux I/O 棧,精準定位性能瓶頸,已經成為系統管理員、開發者和運維工程師們必須掌握的關鍵技能 。接下來,讓我們一起揭開 Linux I/O 棧的神秘面紗,探尋性能瓶頸的定位之道。

Part1.Linux I/O 棧全景解析

1.1 I/O 棧架構總覽

Linux I/O 棧宛如一座精心構筑的高樓大廈,自頂向下主要由文件系統層、通用塊層和設備層這三個關鍵部分有序搭建而成。文件系統層作為與用戶和應用程序交互的 “前沿陣地”,它以友好的姿態提供了諸如文件的創建、讀取、寫入和刪除等一系列熟悉且便捷的操作接口,就像是大廈的大堂,直接面向用戶,為用戶提供各種服務入口 。通用塊層則像是大廈的中層樞紐,它將來自上層的各種 I/O 請求進行整合與優化,精心規劃這些請求的執行順序,力求讓整個 I/O 流程更加高效順暢,如同大廈中層的調度中心,協調著各方資源。而設備層則如同大廈的根基,直接與物理存儲設備緊密相連,切實執行 I/O 操作,是整個 I/O 棧的堅實基礎,確保數據能夠準確無誤地在存儲設備與內存之間傳輸 。

圖片圖片

1.2文件系統層探秘

在文件系統層中,虛擬文件系統(VFS)無疑是最為閃耀的明星。它宛如一位神奇的翻譯官,在各種形形色色的具體文件系統和上層應用程序之間搭建起了一座溝通的橋梁,提供了一套統一的標準接口。無論底層是古老經典的 ext4 文件系統,還是以高性能著稱的 XFS 文件系統,又或是其他別具特色的文件系統,VFS 都能讓它們在 Linux 系統中和諧共處,協同工作。就好比一個大型國際交流會議,VFS 就像是專業的同聲傳譯,讓來自不同國家、說著不同語言的參會者能夠順暢地交流合作。

圖片圖片

以 ext4文件系統為例,它憑借出色的穩定性和廣泛的兼容性,成為了眾多Linux發行版的默認選擇,在個人電腦和中小型服務器領域廣泛應用,就像一位可靠的老伙計,一直默默堅守在崗位上。而 XFS 文件系統則憑借其對大文件的高效處理能力和卓越的性能表現,在大型數據中心和云環境中嶄露頭角,成為了處理海量數據的得力助手 。

file: 存放一個文件對象的信息。

struct file {
	union {
	    struct llist_node           fu_llist;
	    struct rcu_head             fu_rcuhead;
	} f_u;
	struct path                     f_path;
	struct inode                    *f_inode;    /* cached value */
	const struct file_operations    *f_op;  

	struct mutex                    f_pos_lock;
	loff_t                          f_pos;
}

dentry: 存放目錄項和其下的文件鏈接信息。

struct dentry {
	unsigned int                   d_flags;        
	seqcount_t                     d_seq;        
	struct hlist_bl_node           d_hash;    /* 哈希鏈表 */
	struct dentry                  *d_parent; /* 父目錄項 */
	struct qstr                    d_name; /* 目錄名 */
	struct inode                   *d_inode; /* 對應的索引節點 */
	unsigned char                  d_iname[DNAME_INLINE_LEN];    /* small names */

	struct lockref                 d_lockref;    /* per-dentry lock and refcount */
	const struct dentry_operations *d_op;    /* dentry操作 */
	struct super_block             *d_sb;    /* 文件的超級塊對象 */
	unsigned long                  d_time;        
	void                           *d_fsdata;            

	struct list_head               d_lru; /* LRU list */
	struct list_head               d_child; /* child of parent list */
	struct list_head               d_subdirs; /* our children */

	union {
	    struct hlist_node          d_alias; /* inode alias list */
	    struct rcu_head            d_rcu;
	} d_u;
}

inode: 索引節點對象,存在具體文件的一般信息,文件系統中的文件的唯一標識。

struct inode {
        struct hlist_node                i_hash; /* 散列表,用于快速查找inode */
        struct list_head                 i_list; /* 相同狀態索引節點鏈表 */
        struct list_head                 i_sb_list;  /* 文件系統中所有節點鏈表  */
        struct list_head                 i_dentry;   /* 目錄項鏈表 */
        unsigned long                    i_ino;      /* 節點號 */
        atomic_t                         i_count;    /* 引用計數 */
        unsigned int                     i_nlink;    /* 硬鏈接數 */
        uid_t                            i_uid;      /* 使用者id */
        gid_t                            i_gid;      /* 使用組id */
        struct timespec                  i_atime;    /* 最后訪問時間 */
        struct timespec                  i_mtime;    /* 最后修改時間 */
        struct timespec                  i_ctime;    /* 最后改變時間 */
        const struct inode_operations    *i_op;     /* 索引節點操作函數 */
        const struct file_operations     *i_fop;    /* 缺省的索引節點操作 */
        struct super_block               *i_sb;          /* 相關的超級塊 */
        struct address_space             *i_mapping;     /* 相關的地址映射 */
        struct address_space             i_data;         /* 設備地址映射 */
        unsigned int                     i_flags;        /* 文件系統標志 */
        void                             *i_private; /* fs 私有指針 */
        unsigned long                    i_state;
};

superblock: 超級塊對象,記錄該文件系統的整體信息。在文件系統安裝時建立,在文件系統卸載時刪除。

值得一提的是,頁緩存機制在文件系統層中也扮演著至關重要的角色。它如同一個智能的 “數據倉庫”,會將頻繁訪問的數據預先存儲在內存中,當應用程序再次請求相同的數據時,就可以直接從這個 “倉庫” 中快速獲取,而無需再去緩慢的磁盤中讀取,大大提高了數據的訪問速度,就像在圖書館中,將熱門書籍放在最容易拿到的位置,方便讀者快速借閱。

1.3通用塊層剖析

通用塊層堪稱 Linux I/O 棧中的 “優化大師”,它對 I/O 請求施展了一系列精妙的 “魔法”。其中,請求合并功能就像是一位高效的整理員,會將多個連續的 I/O 請求巧妙地合并成一個大請求,從而有效減少設備驅動程序處理請求的次數,提升處理效率。例如,當有多個小文件的寫入請求連續到來時,通用塊層會將這些請求整合為一個大的寫入請求,一次性發送給設備層,避免了多次重復操作帶來的開銷。

I/O 調度功能則如同一位經驗豐富的交通指揮員,它會根據不同的調度算法,對 I/O 請求進行合理排序和調度,確保 I/O 操作能夠高效執行。常見的 I/O 調度算法中,CFQ(Completely Fair Queuing)算法秉持著公平的原則,為每個進程維護獨立的 I/O 調度隊列,均勻分配時間片,就像一位公正的裁判,平等對待每一個進程,讓它們都能公平地獲得 I/O 資源,非常適合運行大量進程的系統,如桌面環境和多媒體應用 。而 DeadLine 算法則更像是一位急性子的 “救火隊員”,它為讀寫請求分別創建隊列,并且會優先處理那些達到最終期限的請求,確保數據能夠及時響應,有效提高了機械磁盤的吞吐量,特別適合 I/O 壓力大的場景,比如數據庫系統,在那里每一秒的響應都至關重要 。

1.4設備層

設備層是 Linux I/O 棧中與硬件直接對話的 “實干家”。存儲設備作為設備層的核心成員,其種類繁多,不同的存儲設備有著各自獨特的特性,這些特性也對 I/O 性能產生著顯著的影響 。

機械硬盤(HDD)就像是一位 “老工匠”,雖然工作起來稍顯遲緩,但勝在存儲容量大、成本相對較低。它由盤片和讀寫磁頭組成,數據存儲在盤片的環狀磁道中。在進行讀寫操作時,需要移動讀寫磁頭定位到數據所在的磁道,這就導致它的隨機 I/O 性能較差,因為頻繁移動磁頭會耗費不少時間,但在連續 I/O 場景下,由于不需要頻繁尋址,它的表現還算不錯 。

固態硬盤(SSD)則像是一位身手敏捷的 “短跑健將”,憑借其由固態電子元器件組成的結構優勢,無需磁頭尋址,在連續 I/O 和隨機 I/O 性能方面都大幅超越機械硬盤。不過,SSD 也有自己的小 “短板”,隨機 I/O 會受到 “先擦除再寫入” 的限制,并且在進行隨機 I/O 操作時可能會觸發垃圾回收機制,這在一定程度上會影響性能 。

設備驅動程序則像是存儲設備與內核之間的 “翻譯官”,它負責將內核的 I/O 請求準確無誤地轉換為設備能夠理解的指令,同時將設備的狀態和數據反饋給內核,確保雙方能夠順暢溝通,協同完成 I/O 操作 。

Part2.I/O 性能指標與解讀

2.1文件系統 I/O 指標

在評估文件系統 I/O 性能時,多個關鍵指標為我們提供了深入洞察其運行狀況的視角。空間使用率直觀地反映了文件系統已使用空間在總空間中所占的比例。當空間使用率逼近 100% 時,猶如一個被塞得滿滿當當的倉庫,不僅會導致文件創建和寫入操作的速度大幅減緩,還可能因缺乏足夠的剩余空間而引發各類錯誤,嚴重影響系統的正常運行 。

索引節點使用情況則聚焦于文件系統中索引節點(inode)的使用比例。索引節點作為文件系統的關鍵數據結構,如同文件的 “身份證”,詳細記錄了文件的權限、所有者、大小和創建時間等重要元信息。當索引節點使用率過高時,就像圖書館的索引卡片幾乎被全部占用,新文件的創建就會因無法獲取空閑的索引節點而受阻 。

緩存命中率是衡量文件系統性能的另一關鍵指標,它展示了從緩存中成功獲取數據的請求在總請求中所占的比例。較高的緩存命中率,意味著文件系統能夠像一位經驗豐富的圖書管理員,快速地從緩存這個 “常用書架” 中找到用戶所需的數據,從而大大減少了對低速磁盤的訪問次數,顯著提升了數據訪問速度 。

IOPS(Input/Output Operations Per Second)即每秒輸入輸出操作次數,它衡量了文件系統在單位時間內能夠處理的 I/O 請求數量。在諸如數據庫這類對數據讀寫速度要求極高的應用場景中,高IOPS就如同高速公路上高效運行的收費站,能夠快速處理大量的車輛(I/O 請求),確保數據的快速讀寫,對系統性能起著決定性的作用 。

響應時間是指從I/O請求發出到收到響應所經歷的時間,它直接反映了文件系統對請求的處理效率。較短的響應時間,能讓用戶在操作文件時感受到流暢和高效,就像在網購時能夠迅速加載商品頁面,極大地提升了用戶體驗 。

吞吐量表示單位時間內成功傳輸的數據量,在進行大規模數據傳輸時,如數據備份和視頻流處理,高吞吐量就像一條寬闊的高速公路,能夠讓大量的數據快速通過,保證了數據傳輸的高效性 。

2.2磁盤 I/O 關鍵指標

磁盤使用率揭示了磁盤忙于處理 I/O 請求的時間在總時間中所占的比例。當磁盤使用率長期居高不下,接近或超過 80% 時,就如同一位過度勞累的工人,可能會出現力不從心的情況,導致 I/O 性能急劇下降,成為系統性能的瓶頸 。

IOPS 對于磁盤 I/O 性能評估同樣至關重要,它體現了磁盤在每秒內能夠處理的 I/O 請求數量。在隨機讀寫頻繁的場景中,如小文件存儲和 OLTP(Online Transaction Processing)數據庫應用,磁盤需要頻繁地在不同的存儲位置進行讀寫操作,此時 IOPS 就如同短跑運動員的爆發力,是衡量磁盤性能的關鍵指標 。

吞吐量代表了磁盤在單位時間內傳輸的數據量,在順序讀寫大量連續數據的場景下,如電視臺的視頻編輯和視頻點播(VOD)系統,高吞吐量就像一條暢通無阻的高速數據通道,能夠確保大量的連續數據快速傳輸,保障了業務的流暢運行 。

響應時間是從 I/O 請求發出到完成所耗費的時間,它綜合反映了磁盤的處理能力和效率。低響應時間就像快遞能夠快速送達,讓用戶能夠及時獲取所需的數據,對于對數據響應及時性要求高的應用程序來說,是至關重要的性能指標 。

Part3.定位性能瓶頸的實用工具

3.1 iostat:磁盤 I/O 洞察利器

iostat 是 Linux 系統中一款強大的磁盤 I/O 性能分析工具,如同一位專業的醫生,能精準地為磁盤 I/O “把脈問診” 。在大多數 Linux 發行版中,它包含在 sysstat 包內,使用前需確保已安裝。若未安裝,在 Ubuntu/Debian 系統中,可通過命令 “sudo apt - get install sysstat” 安裝;在 CentOS/RHEL 系統中,使用 “sudo yum install sysstat” 命令進行安裝 。

安裝完成后,運行 “iostat -x 1” 命令,其中 “-x” 選項用于顯示擴展統計信息,“1” 表示每秒更新一次數據。命令執行后,會輸出類似如下數據:

Linux 4.15.0 - 20 - generic (hostname)  2023年10月31日  _x86_64_  (2 CPU)
Device:            rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s     avgrq - sz   avgqu - sz     await   svctm  %utils
da               0.000     0.500  30.000  13.000   120.000    62.000       5.000      0.020    0.600    0.030   5.00

這些數據中,“rrqm/s” 表示每秒合并的讀請求數量,“wrqm/s” 是每秒合并的寫請求數量,它們體現了請求合并的情況,合并操作可減少磁盤尋道時間,提升 I/O 性能。“r/s” 和 “w/s” 分別代表每秒讀取和寫入的操作數,反映了磁盤的讀寫操作頻率 。“await” 是每次請求的平均等待時間(單位:毫秒),“% util” 表示磁盤當前的使用率 。

通過觀察這些指標,能深入了解磁盤 I/O 性能。例如,若 “tps”(每秒的 I/O 傳輸次數)持續很高,表明磁盤 I/O 操作頻繁,可能處于高負載狀態;“rkB/s” 和 “wkB/s” 分別是每秒從磁盤讀取和寫入的數據量,若它們接近磁盤的最大傳輸速率,可能意味著磁盤帶寬已成為性能瓶頸 。

3.2 pidstat:進程 I/O 分析助手

pidstat專注于進程I/O性能分析,能幫助我們輕松找出高 I/O 占用的進程,如同在茫茫人海中精準定位目標人物 。使用時,運行 “pidstat -d 1” 命令,“-d” 選項用于顯示塊設備相關的I/O統計信息,“1” 表示每秒輸出一次結果 。

命令執行后,輸出結果類似如下:

Linux 4.15.0 - 20 - generic (hostname)  2023年10月31日  _x86_64_  (2 CPU)
14:00:01      UID       PID    kB_rd/s    kB_wr/s    kB_ccwr/s  Command
14:00:01        0     12345       1024        512           0  mysqld
14:00:01        0     23456         0       2048           0  java

從輸出中可以清晰看到每個進程的 “kB_rd/s”(每秒讀取的千字節數)和 “kB_wr/s”(每秒寫入的千字節數)等信息 。如上述示例中,“mysqld” 進程每秒讀取 1024KB 數據,寫入 512KB 數據;“java” 進程每秒寫入 2048KB 數據,無讀取操作 。通過這些數據,能快速定位到如 “java” 這樣高 I/O 寫入的進程,進而針對性地進行優化 。

3.3其他輔助工具

top 是一款實時監控系統整體資源使用情況的工具,就像一個全方位的監控器,能展示 CPU、內存、進程負載等信息 。在終端輸入“top”命令,進入動態刷新的監控界面(默認 3 秒刷新一次) 。界面上半部分展示系統整體資源統計,包括 “load average”(系統 1/5/15 分鐘的平均負載,數值≈CPU核心數時為飽和)、“% Cpu (s)”(其中 “us” 為用戶進程占用CPU百分比,“sy” 為系統內核占用CPU百分比,“id” 為空閑CPU百分比,越高越好,“wa” 為 I/O 等待占用CPU百分比,高則可能存在磁盤瓶頸)以及內存 / 交換分區使用情況等 。下半部分是進程列表,默認按 CPU 使用率排序,通過關注 “% CPU”(進程占用 CPU 百分比)、“% MEM”(進程占用內存百分比)和 “S”(進程狀態,“R” 為運行,“S” 為睡眠,“Z” 為僵尸進程)等指標,可快速發現占用大量資源的進程 。例如,若某個進程的 “% CPU” 占用率持續很高,可能是該進程存在性能問題,或者系統 CPU 資源不足;若有大量進程處于 “D”(不可中斷睡眠)狀態,可能表示系統存在 I/O 瓶頸,因為這些進程正在等待 I/O 操作完成 。

strace 用于跟蹤系統調用,能詳細展示進程執行的系統調用及其參數和返回值,如同為進程的系統調用操作拍攝 “特寫鏡頭” 。運行 “strace -p [PID]” 命令(其中 “[PID]” 為要跟蹤的進程 ID),可以查看指定進程的系統調用情況 。比如,當懷疑某個進程的 I/O 問題與系統調用相關時,使用 strace 跟蹤該進程,通過分析輸出結果,能了解進程在進行 I/O 操作時具體調用了哪些系統函數,以及這些調用的執行情況和返回值,從而找出潛在的問題,如系統調用錯誤、資源競爭等 。

lsof(List Open Files)用于查看系統中打開的文件信息,就像一本詳細的文件打開目錄,能顯示打開文件的進程、文件類型、文件路徑等 。運行 “lsof” 命令可查看系統中所有打開的文件;若要查看某個特定進程打開的文件,使用 “lsof -p [PID]” 命令 。在定位 I/O 瓶頸時,通過 lsof可以了解哪些文件被頻繁訪問,進而分析這些文件的訪問模式和操作是否合理 。例如,若發現某個進程頻繁打開和關閉大量小文件,可能會導致 I/O 性能下降,需要對該進程的文件操作進行優化 。

Part4.性能瓶頸定位實戰

4.1案例背景與問題呈現

假設你負責維護一個基于 Linux 系統的 Web 服務器,該服務器承載著一個高流量的電商網站。最近,用戶頻繁反饋網站響應緩慢,頁面加載時間過長,嚴重影響了用戶購物體驗和業務的正常開展。作為運維人員,你迅速對服務器進行排查,初步懷疑是 I/O 性能瓶頸導致了這一問題。

4.2排查步驟與分析思路

①初步系統檢查:首先,使用 top 命令對系統的整體資源使用情況進行實時監控。在終端輸入 “top” 后,發現 CPU 的 iowait 指標(即 CPU 等待 I/O 操作完成的時間百分比)持續處于較高水平,達到了 40% 左右,而正常情況下該值應在 10% 以下 。同時,CPU 的其他使用率指標如 user(用戶態進程占用 CPU 百分比)和 sys(內核態進程占用 CPU 百分比)相對穩定,沒有出現異常升高的情況;內存使用率也在合理范圍內,沒有明顯的內存不足跡象。這一發現讓我們將懷疑的重點聚焦到了 I/O 方面,因為較高的 iowait 通常意味著系統存在 I/O 性能問題,導致 CPU 不得不花費大量時間等待 I/O 操作完成 。

②磁盤 I/O 評估:為了進一步確定是否是磁盤 I/O 導致的性能瓶頸,使用 iostat 命令對磁盤 I/O 進行詳細分析。運行 “iostat -x 1”(每秒更新一次擴展統計信息)后,觀察到磁盤的使用率(% util)長期保持在 85% 以上,接近滿負荷狀態 。同時,IOPS(r/s 和 w/s 之和)相對較低,遠低于該磁盤的正常性能指標 。平均等待時間(await)也明顯增加,達到了 50 毫秒以上,而正常情況下應在 10 毫秒以內 。這些數據清晰地表明,磁盤I/O存在嚴重的性能瓶頸,磁盤的高使用率和低 IOPS 導致了 I/O 請求的大量積壓和等待,進而影響了整個系統的響應速度 。

③進程 I/O 排查:確定磁盤 I/O 存在問題后,需要找出是哪些進程在占用大量的 I/O 資源。通過 pidstat 命令來實現這一目標,運行 “pidstat -d 1”(每秒輸出一次塊設備相關的 I/O 統計信息) 。結果顯示,一個名為 “php-fpm” 的進程的 I/O 讀寫量非常高,其每秒讀取的數據量(kB_rd/s)達到了 5000KB 以上,每秒寫入的數據量(kB_wr/s)也有 2000KB 左右,遠遠超過了其他進程 。這表明 “php-fpm” 進程很可能是導致磁盤 I/O 性能瓶頸的罪魁禍首,由于它頻繁地進行大量的 I/O 操作,使得磁盤處于高負載狀態,無法及時響應其他進程的 I/O 請求 。

④深入問題定位:為了深入了解 “php-fpm” 進程的 I/O 行為,結合 strace 和 lsof 命令進行進一步分析。首先,使用 strace 跟蹤 “php-fpm” 進程的系統調用,運行 “strace -p [php-fpm 進程 ID]” 。從輸出結果中發現,該進程頻繁地進行文件讀寫操作,并且在一些系統調用上出現了較長的等待時間,如 “read” 和 “write” 系統調用的返回時間明顯增加 。接著,使用 lsof 查看 “php-fpm” 進程打開的文件,運行 “lsof -p [php-fpm 進程 ID]” 。發現該進程正在頻繁訪問網站的日志文件和緩存文件,這些文件的讀寫操作非常頻繁,而且由于文件的大小和訪問模式不合理,導致了 I/O 效率低下 。綜合分析 strace 和 lsof 的結果,最終確定問題的根源是 “php-fpm” 進程對日志文件和緩存文件的不合理讀寫操作,導致磁盤 I/O 負載過高,從而影響了整個 Web 服務器的性能 。

責任編輯:武曉燕 來源: 深度Linux
相關推薦

2013-08-29 11:32:19

企業移動App定位

2016-09-08 14:04:56

云計算

2024-02-02 11:24:00

I/O高并發場景

2013-07-16 16:46:28

云計算

2022-04-23 16:30:22

Linux磁盤性能

2016-05-12 09:33:11

IBM大型機實時分析

2021-06-10 14:20:46

無人機AI人工智能

2022-04-07 13:22:06

5G物聯網蜂窩

2017-02-09 09:00:14

Linux IO調度器

2023-09-03 22:44:28

I/O高并發

2016-06-02 14:11:34

銳捷網絡機車無線定位

2025-06-16 09:46:06

2012-12-27 12:38:47

移動廣告地理信息服務

2011-05-10 15:26:30

藍影鼠標微軟

2025-05-26 00:22:00

2014-10-20 16:31:48

科來軟件網絡回溯分析

2014-07-28 16:47:41

linux性能

2009-01-16 17:24:43

服務器虛擬化VMware

2019-12-02 09:45:45

Linux IO系統
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 松原市| 牟定县| 彭阳县| 报价| 建德市| 绥阳县| 诸暨市| 信宜市| 宜兰市| 辽中县| 开鲁县| 谷城县| 灵川县| 沅陵县| 武宣县| 碌曲县| 喀喇沁旗| 邛崃市| 鄂托克前旗| 绥德县| 台北县| 西充县| 德保县| 大宁县| 资溪县| 虎林市| 甘肃省| 溧阳市| 乐山市| 北海市| 武邑县| 南宁市| 高要市| 沅陵县| 祁连县| 高台县| 阿城市| 大姚县| 乃东县| 鄄城县| 如皋市|