
一 引發性能問題原因?
引發性能問題的原因通常不是單方面緣由,特别是大型系統疊代多年後,長期積勞成疾造成,是以我們要必要分析找到症結所在,并按瓶頸優先級逐個擊破,拿我們項目為例,大概分幾個方面:
1 資源包過大
通過Chrome DevTools的Network标簽,我們可以拿到頁面實際拉取的資源大小(如下圖):
經過前端高速發展,近幾年項目更新疊代,前端建構産物也在急劇增大,因為要業務先行,很多同學引入庫和編碼過程并沒有考慮性能問題,導緻建構的包增至幾十MB,這樣帶來兩個顯著的問題:
- 弱(普通)網絡下,首屏資源下載下傳耗時長
- 資源解壓解析執行慢
對于第一個問題,基本上會影響所有移動端使用者,并且會耗費大量不必要的使用者帶寬,對客戶是一個經濟上的隐式損失和體驗損失。
對于第二個問題,會影響所有使用者,使用者可能因為等待時間過長而放棄使用。
下圖展示了延遲與使用者反應:
2 代碼耗時長
在代碼執行層面,項目疊代中引發的性能問題普遍是因為開發人員編碼品質導緻,大概以下幾個緣由:
不必要的資料流監聽
此場景在hooks+redux的場景下會更容易出現,如下代碼:
const FooComponent = () => {
const data = useSelector(state => state.fullData);
return <Bar baz={data.bar.baz} />;
};
假設fullData是頻繁變更的大對象,雖然FooComponent僅依賴其.bar.baz屬性,fullData每次變更也會導緻Foo重新渲染。
雙刃劍cloneDeep
相信很多同學在項目中都有cloneDeep的經曆,或多或少,特别是疊代多年的項目,其中難免有mutable型資料處理邏輯或業務層面依賴,需要用到cloneDeep,但此方法本身存在很大性能陷阱,如下:
// a.tsx
export const a = {
name: 'a',
};
// b.tsx
import { a } = b;
saveData(_.cloneDeep(a)); // 假設需要克隆後落庫到後端資料庫
上方代碼正常疊代中是沒有問題的,但假設哪天 a 需要擴充一個屬性,儲存一個ReactNode的引用,那麼執行到b.tsx時,浏覽器可能直接崩潰!
Hooks之Memo
hooks的釋出,給react開發帶來了更高的自由度,同時也帶來了容易忽略的品質問題,由于不再有類中明碼标價的生命周期概念,元件狀态需要開發人員自由控制,是以開發過程中務必懂得react對hooks元件的渲染機制,如下代碼可優化的地方:
const Foo = () => { // 1. Foo可用React.memo,避免無props變更時渲染
const result = calc(); // 2. 元件内不可使用直接執行的邏輯,需要用useEffect等封裝
return <Bar result={result} />; // 3.render處可用React.useMemo,僅對必要的資料依賴作渲染
};
Immutable Deep Set
在使用資料流的過程中,很大程度我們會依賴lodash/fp的函數來實作immutable變更,但fp.defaultsDeep系列函數有個弊端,其實作邏輯相當于對原對象作深度克隆後執行fp.set,可能帶來一些性能問題,并且導緻原對象所有層級屬性都被變更,如下:
const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = fp.defaultsDeep({ b: { c3: 3 } }, a);
console.log(merged.b.c === a.b.c); // 列印 false
3 排查路徑
對于這些問題來源,通過Chrome DevTools的Performance火焰圖,我們可以很清晰地了解整個頁面加載和渲染流程各個環節的耗時和卡頓點(如下圖):
當我們鎖定一個耗時較長的環節,就可以再通過矩陣樹圖往下深入(下圖),找到具體耗時較長的函數。
誠然,通常我們不會直接找到某個單點函數占用耗時非常長,而基本是每個N毫秒函數疊加執行成百上千次導緻卡頓。是以這塊結合react調試插件的Profile可以很好地幫助定位渲染問題所在:
如圖react元件被渲染的次數以及其渲染時長一目了然。
二 如何解決性能問題?
1 資源包分析
作為一名有性能sense的開發者,有必要對自己建構的産物内容保持敏感,這裡我們使用到webpack提供的stats來作産物分析。
首先執行 webpack --profile --json > ./build/stats.json 得到 webpack的包依賴分析資料,接着使用 webpack-bundle-analyzer ./build/stats.json 即可在浏覽器看到一張建構大圖(不同項目産物不同,下圖僅作舉例):
當然,還有一種直覺的方式,可以采用Chrome的Coverage功能來輔助判定哪些代碼被使用(如下圖):
最佳建構方式
通常來講,我們組織建構包的基本思路是:
- 按entry入口建構。
- 一個或多個共享包供多entry使用。
而基于複雜業務場景的思路是:
- entry入口輕量化。
- 共享代碼以chunk方式自動生成,并建立依賴關系。
- 大資源包動态導入(異步import)。
webpack 4中提供了新的插件 splitChunks 來解決代碼分離優化的問題,它的預設配置如下:
module.exports = {
//...
optimization: {
splitChunks: {
chunks: 'async',
minSize: 20000,
minRemainingSize: 0,
maxSize: 0,
minChunks: 1,
maxAsyncRequests: 30,
maxInitialRequests: 30,
automaticNameDelimiter: '~',
enforceSizeThreshold: 50000,
cacheGroups: {
defaultVendors: {
test: /[\\/]node_modules[\\/]/,
priority: -10
},
default: {
minChunks: 2,
priority: -20,
reuseExistingChunk: true
}
}
}
}
};
根據上述配置,其分離chunk的依據有以下幾點:
- 子產品被共享或子產品來自于node_modules。
- chunk必須大于20kb。
- 同一時間并行加載的chunk或初始包不得超過30。
理論上webpack預設的代碼分離配置已經是最佳方式,但如果項目複雜或耦合程度較深,仍然需要我們根據實際建構産物大圖情況,調整我們的chunk split配置。
解決TreeShaking失效
“你項目中有60%以上的代碼并沒有被使用到!”
treeshaking的初衷便是解決上面一句話中的問題,将未使用的代碼移除。
webpack預設生産模式下會開啟treeshaking,通過上述的建構配置,理論上應該達到一種效果“沒有被使用到的代碼不應該被打入包中”,而現實是“你認為沒有被使用的代碼,全部被打入Initial包中”,這個問題通常會在複雜項目中出現,其緣由就是代碼副作用(code effects)。由于webpack無法判定某些代碼是否“需要産生副作用”,是以會将此類代碼打入包中(如下圖):
是以,你需要明确知道你的代碼是否有副作用,通過這句話判定:“關于‘副作用’的定義是,在導入時會執行特殊行為的代碼(修改全局對象、立即執行的代碼等),而不是僅僅暴露一個 export 或多個 export。舉例說明,例如 polyfill,它影響全局作用域,并且通常不提供 export。”
對此,解決方法就是告訴webpack我的代碼沒有副作用,沒有被引入的情況下可以直接移除,告知的方式即:
在package.json中标記sideEffects為false。
或 在webpack配置中 module.rules 添加sideEffects過濾。
子產品規範
由此,要使得建構産物達到最佳效果,我們在編碼過程中約定了以下幾點子產品規範:
- [必須] 子產品務必es6 module化(即export 和 import)。
- [必須] 三方包或資料檔案(如地圖資料、demo資料)超過 400KB 必須動态按需加載(異步import)。
- [禁止] 禁止使用export * as方式輸出(可能導緻tree-shaking失效并且難以追溯)。
- [推薦] 盡可能引入包中具體檔案,避免直接引入整個包(如:import { Toolbar } from '@alife/foo/bar')。
- [必須] 依賴的三方包必須在package.json中标記為sideEffects: false(或在webpack配置中标記)。
2 Mutable資料
基本上通過Performance和React插件提供的調試能力,我們基本可以定位問題所在。但對于mutable型的資料變更,我這裡也結合實踐給出一些非标準調試方式:
當機定位法
衆所周知,資料流思想的産生緣由之一就是避免mutable資料無法追溯的問題(因為你無法知道是哪段代碼改了資料),而很多項目中避免不了mutable資料更改,此方法就是為了解決一個棘手的mutable資料變更問題而想出的方法,這裡我暫時命名為“當機定位法”,因為原理就是使用當機方式定位mutable變更問題,使用相當tricky:
constob j= {
prop: 42
};
Object.freeze(obj);
obj.prop=33; // Throws an error in strict mode
Mutable追溯
此方法也是為了解決mutable變更引發資料不确定性變更問題,用于實作排查的幾個目的:
- 屬性在什麼地方被讀取。
- 屬性在什麼地方被變更。
- 屬性對應的通路鍊路是什麼。
如下示例,對于一個對象的深度變更或通路,使用 watchObject 之後,不管在哪裡設定其屬性的任何層級,都可以輸出變更相關的資訊(stack内容、變更内容等):
const a = { b: { c: { d: 123 } } };
watchObject(a);
const c =a.b.c;
c.d =0; // Print: Modify: "a.b.c.d"
watchObject 的原理即對一個對象進行深度 Proxy 封裝,進而攔截get/set權限,詳細可參考:
https://gist.github.com/wilsoncook/68d0b540a0fea24495d83fc284da9f4b避免Mutable
通常像react這種技術棧,都會配套使用相應的資料流方案,其與mutable是天然對立的,是以在編碼過程中應該盡可能避免mutable資料,或者将兩者從設計上分離(不同store),否則出現不可預料問題且難以調試
3 計算&渲染
最小化資料依賴
在項目元件爆炸式增長的情況下,資料流store内容層級也逐漸變深,很多元件依賴某個屬性觸發渲染,這個依賴項需要盡可能在設計時遵循最小化原則,避免像上方所述,依賴一個大的屬性導緻頻繁渲染。
合理利用緩存
(1)計算結果
在一些必要的cpu密集型計算邏輯中,務必采用 WeakMap 等緩存機制,存儲目前計算終态結果或中間狀态。
(2)元件狀态
對于像hooks型元件,有必要遵循以下兩個原則:
- 盡可能memo耗時邏輯。
- 無多餘memo依賴項。
避免cpu密集型函數
某些工具類函數,其複雜度跟随入參的量級上升,而另外一些本身就會耗費大量cpu時間。針對這類型的工具,要盡量避免使用,若無法避免,也可通過 “控制入參内容(白名單)” 及 “異步線程(webworker等)”方式做到嚴控。
比如針對 _.cloneDeep ,若無法避免,則要控制其入參屬性中不得有引用之類的大型資料。
另外像最上面描述的immutable資料深度merge的問題,也應該盡可能控制入參,或者也可參考使用自研的immutable實作:
https://gist.github.com/wilsoncook/fcc830e5fa87afbf876696bf7a7f6bb1const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = immutableDefaultsDeep(a, { b: { c3: 3 } });
console.log(merged === a); // 列印 false
console.log(merged.b.c === a.b.c); // 列印 true
三 寫在最後
以上,總結了Quick BI性能優化過程中的部分心得和經驗,性能是每個開發者不可繞過的話題,我們的每段代碼,都對标着産品的健康度。