更新時(shí)間:2022年02月21日18時(shí)11分 來源:傳智教育 瀏覽次數(shù):
由于缺乏或者不準(zhǔn)確的數(shù)據(jù)統(tǒng)計(jì)信息(元數(shù)據(jù))和對成本的錯(cuò)誤估算(執(zhí)行計(jì)劃調(diào)度)導(dǎo)致生成的初始執(zhí)行計(jì)劃不理想在Spark3.x版本提供Adaptive Query Execution自適應(yīng)查詢技術(shù)通過在”運(yùn)行時(shí)”對查詢執(zhí)行計(jì)劃進(jìn)行優(yōu)化, 允許Planner在運(yùn)行時(shí)執(zhí)行可選計(jì)劃,這些可選計(jì)劃將會基于運(yùn)行時(shí)數(shù)據(jù)統(tǒng)計(jì)進(jìn)行動態(tài)優(yōu)化, 從而提高性能。
Adaptive Query Execution AQE主要提供了三個(gè)自適應(yīng)優(yōu)化:
此優(yōu)化可以在一定程度上避免由于缺少統(tǒng)計(jì)信息或著錯(cuò)誤估計(jì)大小(當(dāng)然也可能兩種情況同時(shí)存在),而導(dǎo)致執(zhí)行計(jì)劃性能不佳的情況。這種自適應(yīng)優(yōu)化可以在運(yùn)行時(shí)sort merge join轉(zhuǎn)換成broadcast hash join,從而進(jìn)一步提升性能。
此優(yōu)化可以在一定程度上避免由于缺少統(tǒng)計(jì)信息或著錯(cuò)誤估計(jì)大小(當(dāng)然也可能兩種情況同時(shí)存在),而導(dǎo)致執(zhí)行計(jì)劃性能不佳的情況。這種自適應(yīng)優(yōu)化可以在運(yùn)行時(shí)sort merge join轉(zhuǎn)換成broadcast hash join,從而進(jìn)一步提升性能。
skew joins可能導(dǎo)致負(fù)載的極端不平衡,并嚴(yán)重降低性能。在AQE從shuffle文件統(tǒng)計(jì)信息中檢測到任何傾斜后,它可以將傾斜的分區(qū)分割成更小的分區(qū),并將它們與另一側(cè)的相應(yīng)分區(qū)連接起來。這種優(yōu)化可以并行化傾斜處理,獲得更好的整體性能。
觸發(fā)條件: 1. 分區(qū)大小> spark.sql.adaptive.skewJoin.skewedPartitionFactor (default=10) * "median partition size(中位數(shù)分區(qū)大小)"
2. 分區(qū)大小> spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes (default = 256MB)。
總結(jié):
1. AQE的開啟通過: spark.sql.adaptive.enabled 設(shè)置為true開啟。
2. AQE是自動化優(yōu)化機(jī)制, 無需我們設(shè)置復(fù)雜的參數(shù)調(diào)整, 開啟AQE符合條件即可自動化應(yīng)用AQE優(yōu)化。
3. AQE帶來了極大的SparkSQL性能提升。
北京校區(qū)