• [T-SQL] NCL INDEX 欄位選擇效能影響-解析


    因為這篇文章寫的比較長一些,我就將總結先列出來

    總結

    1. 除了WHERE條件外,JOINColumn除了記得建立索引,也要注意到選擇性的高低,如果真的找不到可用的Column,可以考慮在兩邊關聯的表上加入super eky,再做JOIN
    如果單純想測試這個Column的選擇性,可以透過這個語法
    SELECT 1 / CAST(COUNT(DISTINCT {COLUMN_NAME} ) AS NUMERIC(18, 2)) FROM {TABLE_NAME}

    2. 某些情境下(像是本文的例子),索引Column其實是因為商業邏輯沒有考慮周全,導致該Column的值重複性太高,如果在早期就發現這個問題了,可以與開發人員溝通,想辦法讓該Column的值重複性下降。我們都知道索引越接近唯一值效能就會越好(不用付出額外的查找成本)

    3. 在SQL Server中,索引有一欄可以勾選是否唯一。該Column的設定值是會影響到SQL Server如何判斷查找,如果確定該欄不會有重複的資料,就勾起來吧!
    clip_image001

    4. 要注意的是,不是用到了索引就會速度飛快,實際上你要先明白你資料集預期是會有多少筆,如果SQL Server實際在運作時,撈取的資料超過預期。就需要去找出原因,否則實際上不只是索引撈的資料量太多,後續SQL Server在做處理時,會一併用高耗能的方式去處理大量資料
    e.g. 平行資料流、Hash Join 、Table Pool

    5. 利用子查詢或CTE做資料查詢拆分並重新Join時,也要注意到選擇的Column值要從重複性較低的資料表上選取

    正文開始 ~

    筆者前陣子因為有user反應SSRS的報表無法一次匯出全部的資料,當下心想應該是T-SQL語法的問題。除了先將該問題處理之外,也一併將舊的語法全面改用CTE撰寫。

    一般會用CTE寫的原因不外乎是當一個查詢裡面的子查詢(Sub-query)過多時,語法會顯得非常複雜也很難維護。透過CTE可以很直覺的將資料集拆成一小區一小區後,再聯合平做一次JOIN來達到我們的需求

    這次在改寫的過程中也為了效能有特別注意執行計畫這一塊,也找到了索引對於整體查詢效能影響的關鍵

    clip_image003

    先來看看這個因為選錯INNER JOIN Column導致的效能問題吧!可以看到上圖雖然用了NCL index seek但是撈出來的資料量顯然是非常多阿!
    clip_image004

    正常來說應該只有這樣1856筆。
    兩者相差了快178倍 。

    在這個案例中我們首先看到的是 執行數目 232  這一個值。這裡其實就是INNER JOIN(NESTED)背後的OUTER Table表上的筆數。這裡我們把232先記下來

    clip_image005

    提到索引,接下來為了分析為何用了第一個索引會撈出33萬筆這麼多的資料。我們要來查看這個索引的統計資訊(Statistics) ,這裡為了方便我們講解,我已經截取出我們所需要的資料到Excel上並且也實際算了一下,來證明我們的猜想

    clip_image006

    可以看到第一個索引會用到的HISTOGRAM是這幾筆鍵值。第一欄的CP_1、CP_2基本上就是我們的ability_ID,這裡也可以看到因為EQ_ROW平均都有1500筆左右的資料,所以乘上我們OUTER Table的筆數232。最後加總取一個平均,就是SQL Server取出的資料量。

    而這就也就是為什麼當我們用第一個索引時,SQL Server會取出這麼多資料,原因其實就是在於CP_1、CP_2鍵值資料太多導致SQL Server在查找(Seek)時,每次都要掃將近1500筆。

    第二個就比較簡單了,同樣的從HISTOGRAM來看,SQL Server 只需要查找(Seek) 一個區間的資料,而且這個區間資料筆數也非常的小。這裡透過CourseID取得的只有8筆再乘上我們剛剛提到的232,也就剛好為1856

    clip_image007

    透過實際了解SQL Server最終是如何撈取這麼多的資料列後,我們可以簡單的看看兩邊索引的選擇性

    clip_image008

    clip_image009

    可以很明顯的看到第二個索引的選擇性很明顯是優於第一個的

    但這裡要注意的是,雖然我們能透過索引的選擇性去比較這個索引的好壞。但實際上仍要去檢查這個Column的資料是不是與當初預期的規劃一樣,以這個案例來說,當初設計Ability_ID Column時並沒有將重複值這件事考慮進去,所以最後也導致了SQL Server要額外付出成本從重複的資料集中做搜尋(Seek)的動作。

    額外補充-優化過程

    其實筆者這次用CTE,改寫時!發現到,SQL Server並沒有像我預期的,先將某些資料取出成小資料集後再進行JOIN的動作,而是間接去將原始表撈取出了大量資料!

    以下的語法JOIN關聯有經過調整,所以會跟上面的例子有點不太一樣

    如果有遇到這種問題,可以先透過QUERY HITS的方式來強迫SQL Server依照T-SQL語句的順序執行,透過這種方式我們可以很容易找出問題點。(但前提是你對於資料表執行的順序有一定的了解)

    我們先來看看原本的SQL Server認為的最佳執行語句

    clip_image010

    圖一

    由圖一我們可以發現到整體TotalSubtreeCoast大約有4.414左右,而比較執行吃重的部分我已經用黃色標記起來了。這裡我們就先稍微看一下

    clip_image011

    圖二

    一樣我們看到圖二黃色標注的地方,但不一樣的是,這次我利用了OPTION (FORCE ORDER) 強迫SQL Server 依照我認為最佳的執行順序去執行,而發生問題的資料筆所撈的筆數也只有232筆。

    很顯然相同語法SQL Server選了一個看起來比較差的執行計畫去執行。

    不過也因為有完整的執行計畫參考,我們就依照這當中一些可能的問題,進行調整吧!

    clip_image012

    圖三

    一開始看到執行計畫時,SQL Server會貼心的提醒DBA們,是否有用到的Column缺少索引,由上圖可以發現到在SQLServer有建議在Survey_Question表上建立一個NCL Index 。而下圖的執行計畫圖示中也顯示出Survey_Question是採用Index Scan的方式進行資料查找。這裡我們就先依照SQL Server的建議建立相關的索引
    (但要注意的是,SQL Server給的建議是在語法非常的簡單的情形下,一但語法過度複雜時,SQL Server就無法判斷了,需要DBA們依照經驗進行索引的調整唷!)

    clip_image013

    圖四

    調整之後可以發現到原本的Index Scan已經因為能用到適合的索引,而變成Index Seek了。但是我們仍發現到左邊粉紅色標註的地方,有一個Index Scan的動作但是這時候SQL Server並未顯示有索引缺漏。

    我們來詳看一下這段做了什麼事

    clip_image014

    圖五

    透過上圖可以更詳細的了解SQL Server實際上,是將兩張表Survey_question與Question_option做了Hash Join動作,而這個選擇是沒有錯的,因為我們看到最底下,Question_option這裡撈取了29萬筆之多的資料。也因為這樣的資料量太大,用Nested Join是非常沒有效率的。但在先前提到的,我們利用OPTION (FORCE ORDER)的結果,並沒有這樣大量的資料出現,所以也代表的是,這肯定是還有優化的空間。下一步就先分析兩邊索引的統計資訊

    我們先看Question_option這張表,首先是他利用了一個CL Index做了Scan的動作,但是原本的資料表上明明有建立了以question_id為主的NCL,怎麼會沒有使用呢?

    以下是相關的統計資訊

    clip_image015

    圖六 CL_INDEX

    clip_image016

    圖七 NCL_INDEX

    依照我們目前會用到的RANGE_HI_KEY (已經分別用黃色標註) ,可以看到如果是用NCL_INDEX應該會是比較好的選擇,這裡我們直接利用TABLE HITS測試看看

    clip_image017

    圖八

    可以見到,雖然用了我們認為比較好的NCL_INDEX,但資料仍然有26萬筆之多。並沒有達到很明顯的下降

    這裡我們回頭往上一層追,也就是15行顯示的R_Course_Stu_Ability資料表 。並且根據之前利用
    OPTION (FORCE ORDER)執行後的執行計畫,來做一個簡單的對照。(這裡是因為要得知在最好的情況下,各個資料表的筆數應該有多少,藉此比對我們較差的語法,是否仍可以做修正

    clip_image018

    圖九 OPTION (FORCE ORDER)的執行計畫結果

    可以從圖九得知,在最好的情形下,我們僅需要232筆資料即可關聯出我們所需的結果

    此外透過圖八我們也可以知道需要針對AbilityID這個Column做修正 (原因在一開始有提到,因為這個Column的資料重複性太高)

    所以我們想辦法讓兩張表JOIN的資料重複性降低 (也就是選用更多的Column來做JOIN,SQL Server就會認為回傳的筆數會比較少)

    最後可以看到修改後的結果如下

    clip_image019

    雖然原本R_Course_Stu_Ability的資料從5817筆上升到11281筆,但是我們一開始的Question_options資料的筆數直接從26萬筆之多,下降到只有232筆!這一來一往之間。其實效能是有提升的 (可以看到TotalSubtreeCost 從2.76下降成1.98)

    但更有趣的地方在後面

    clip_image020

    我們可以先看到綠色註解的部分,這個部分是最一開始額外新增的JOIN Column,而另一部分則是修改後的Column。

    這裡的差別僅僅是從不同的資料表中,抓取我們所需的Column而已。

    但是再看到執行計畫,可以發現到這個執行計畫的R_Course_Stu_Ability資料表筆數從原本的1萬多筆,也下降為232筆。而TotoalSubtreeCost更是再度下降到1.328

    為什麼只是從A表的Column選擇換到B表的Column選擇,居然效能可以提昇如此之多呢?

    其實原因很簡單,以這個案例來說Survey_main在執行資料查詢時,只會回傳一筆資料,但是R_Course_Ability是會回傳多筆資料的。自然而然當我們選擇Ability表時,SQL Server會認為即使資料的重複性下降了,但還是要回傳一定的資料筆數,所以在產生執行計畫時,會以較多的資料筆數為考量。而如果選擇main表時,因為僅會回傳一筆資料,當然在推估的過程中就是以一筆資料為基準去產生整個執行計畫。

    這裡為了證明,我就簡單用兩張表搭配CTE來看看測試結果。

    clip_image021.

    可以看到我特意在A表上額外建了兩個Column,這裡組合起來會是一個唯一值,而B表上也是弄了一樣的Column,但這裡面的值是會有重複的

    再來看我們的測試語法

    第一個區塊就是我提到的JOIN Column選擇,這裡要額外注意的是WHERE條件記得要選用具有主鍵的那張表(這裡是A表),不要選錯選到B表去了喔(有時候會剛好兩張表有相同的Column名稱)!

    最後一個區塊就只是一個簡單的JOIN測試,這裡就直接看TotoalsubtreeCost 大約是2.226左clip_image022

    好啦!最後就來看看如果我們JOIN  Column是改選擇A資料表上面呢?

    clip_image023

    資料筆數我就不多加說明了,直接看到TotoalsubtreeCost 大約是1.745左右

    是不是很明顯比上一個語法還要好呢?

    所以各位在寫Sub-Query或是拆分成CTE後要重新做JOIN時,不要忘記了。一但Column是要做為JOIN使用的話,記得從資料重複性較低的那張資料表上選唷!

    天呀~~這篇文章因為需要測試與推估過程,寫了超級久的。如果覺得不錯的話,再給我個讚吧!

    我們下次見

    參考文章:

    http://www.sqlpassion.at/archive/2014/01/28/inside-the-statistics-histogram-density-vector/

    http://www.cnblogs.com/CareySon/archive/2011/12/27/2303508.html

  • 相关阅读:
    UML中的构件图
    Extjs4 中的gird
    【转载】C#实现线程安全的网络流
    [转载]组播
    【转载】wcf综合运用之:大文件异步断点续传
    【转载】WCF热门问题编程示例(4):WCF客户端如何异步调用WCF服务?
    【转载】特殊用途的IP地址介绍
    [转载]C# HashTable
    c宏定义实战
    c异或加密与解密
  • 原文地址:https://www.cnblogs.com/KingJaja/p/5211157.html
Copyright © 2020-2023  润新知