天天看點

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

[轉載自并發程式設計網 – ifeve.com 原文連結:http://ifeve.com/tag/jmm/]

并發程式設計模型的分類

在并發程式設計中,我們需要處理兩個關鍵問題:線程之間如何通信及線程之間如何同步(這裡的線程是指并發執行的活動實體)。通信是指線程之間以何種機制來交換資訊。在指令式程式設計中,線程之間的通信機制有兩種:共享記憶體和消息傳遞。

在共享記憶體的并發模型裡,線程之間共享程式的公共狀态,線程之間通過寫-讀記憶體中的公共狀态來隐式進行通信。在消息傳遞的并發模型裡,線程之間沒有公共狀态,線程之間必須通過明确的發送消息來顯式進行通信。

同步是指程式用于控制不同線程之間操作發生相對順序的機制。在共享記憶體并發模型裡,同步是顯式進行的。程式員必須顯式指定某個方法或某段代碼需要線上程之間互斥執行。在消息傳遞的并發模型裡,由于消息的發送必須在消息的接收之前,是以同步是隐式進行的。

Java的并發采用的是共享記憶體模型,Java線程之間的通信總是隐式進行,整個通信過程對程式員完全透明。如果編寫多線程程式的Java程式員不了解隐式進行的線程之間通信的工作機制,很可能會遇到各種奇怪的記憶體可見性問題。

Java記憶體模型的抽象

在java中,所有執行個體域、靜态域和數組元素存儲在堆記憶體中,堆記憶體線上程之間共享(本文使用“共享變量”這個術語代指執行個體域,靜态域和數組元素)。局部變量(Local variables),方法定義參數(java語言規範稱之為formal method parameters)和異常處理器參數(exception handler parameters)不會線上程之間共享,它們不會有記憶體可見性問題,也不受記憶體模型的影響。

Java線程之間的通信由Java記憶體模型(Java Memory Model本文簡稱為JMM)控制,JMM決定一個線程對共享變量的寫入何時對另一個線程可見。從抽象的角度來看,JMM定義了線程和主記憶體之間的抽象關系:線程之間的共享變量存儲在主記憶體(main memory)中,每個線程都有一個私有的本地記憶體(local memory),本地記憶體中存儲了該線程以讀/寫共享變量的副本。本地記憶體是JMM的一個抽象概念,并不真實存在。它涵蓋了緩存,寫緩沖區,寄存器以及其他的硬體和編譯器優化。Java記憶體模型的抽象示意圖如下:

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

從上圖來看,線程A與線程B之間如要通信的話,必須要經曆下面2個步驟:

  1. 首先,線程A把本地記憶體A中更新過的共享變量重新整理到主記憶體中去。
  2. 然後,線程B到主記憶體中去讀取線程A之前已更新過的共享變量。

下面通過示意圖來說明這兩個步驟:

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

如上圖所示,本地記憶體A和B有主記憶體中共享變量x的副本。假設初始時,這三個記憶體中的x值都為0。線程A在執行時,把更新後的x值(假設值為1)臨時存放在自己的本地記憶體A中。當線程A和線程B需要通信時,線程A首先會把自己本地記憶體中修改後的x值重新整理到主記憶體中,此時主記憶體中的x值變為了1。随後,線程B到主記憶體中去讀取線程A更新後的x值,此時線程B的本地記憶體的x值也變為了1。

從整體來看,這兩個步驟實質上是線程A在向線程B發送消息,而且這個通信過程必須要經過主記憶體。JMM通過控制主記憶體與每個線程的本地記憶體之間的互動,來為java程式員提供記憶體可見性保證。

重排序

在執行程式時為了提高性能,編譯器和處理器常常會對指令做重排序。重排序分三種類型:

  1. 編譯器優化的重排序。編譯器在不改變單線程程式語義的前提下,可以重新安排語句的執行順序。
  2. 指令級并行的重排序。現代處理器采用了指令級并行技術(Instruction-Level Parallelism, ILP)來将多條指令重疊執行。如果不存在資料依賴性,處理器可以改變語句對應機器指令的執行順序。
  3. 記憶體系統的重排序。由于處理器使用緩存和讀/寫緩沖區,這使得加載和存儲操作看上去可能是在亂序執行。

從java源代碼到最終實際執行的指令序列,會分别經曆下面三種重排序:

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

上述的1屬于編譯器重排序,2和3屬于處理器重排序。這些重排序都可能會導緻多線程程式出現記憶體可見性問題。對于編譯器,JMM的編譯器重排序規則會禁止特定類型的編譯器重排序(不是所有的編譯器重排序都要禁止)。對于處理器重排序,JMM的處理器重排序規則會要求java編譯器在生成指令序列時,插入特定類型的記憶體屏障(memory barriers,intel稱之為memory fence)指令,通過記憶體屏障指令來禁止特定類型的處理器重排序(不是所有的處理器重排序都要禁止)。

JMM屬于語言級的記憶體模型,它確定在不同的編譯器和不同的處理器平台之上,通過禁止特定類型的編譯器重排序和處理器重排序,為程式員提供一緻的記憶體可見性保證。

處理器重排序與記憶體屏障指令

現代的處理器使用寫緩沖區來臨時儲存向記憶體寫入的資料。寫緩沖區可以保證指令流水線持續運作,它可以避免由于處理器停頓下來等待向記憶體寫入資料而産生的延遲。同時,通過以批處理的方式重新整理寫緩沖區,以及合并寫緩沖區中對同一記憶體位址的多次寫,可以減少對記憶體總線的占用。雖然寫緩沖區有這麼多好處,但每個處理器上的寫緩沖區,僅僅對它所在的處理器可見。這個特性會對記憶體操作的執行順序産生重要的影響:處理器對記憶體的讀/寫操作的執行順序,不一定與記憶體實際發生的讀/寫操作順序一緻!為了具體說明,請看下面示例:

Processor A Processor B

a = 1; //A1

x = b; //A2

b = 2; //B1

y = a; //B2

初始狀态:a = b = 0

處理器允許執行後得到結果:x = y = 0

假設處理器A和處理器B按程式的順序并行執行記憶體通路,最終卻可能得到x = y = 0的結果。具體的原因如下圖所示:

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

這裡處理器A和處理器B可以同時把共享變量寫入自己的寫緩沖區(A1,B1),然後從記憶體中讀取另一個共享變量(A2,B2),最後才把自己寫緩存區中儲存的髒資料重新整理到記憶體中(A3,B3)。當以這種時序執行時,程式就可以得到x = y = 0的結果。

從記憶體操作實際發生的順序來看,直到處理器A執行A3來重新整理自己的寫緩存區,寫操作A1才算真正執行了。雖然處理器A執行記憶體操作的順序為:A1->A2,但記憶體操作實際發生的順序卻是:A2->A1。此時,處理器A的記憶體操作順序被重排序了(處理器B的情況和處理器A一樣,這裡就不贅述了)。

這裡的關鍵是,由于寫緩沖區僅對自己的處理器可見,它會導緻處理器執行記憶體操作的順序可能會與記憶體實際的操作執行順序不一緻。由于現代的處理器都會使用寫緩沖區,是以現代的處理器都會允許對寫-讀操做重排序。

下面是常見處理器允許的重排序類型的清單:

Load-Load Load-Store Store-Store Store-Load 資料依賴
sparc-TSO N N N Y N
x86 N N N Y N
ia64 Y Y Y Y N
PowerPC Y Y Y Y N

上表單元格中的“N”表示處理器不允許兩個操作重排序,“Y”表示允許重排序。

從上表我們可以看出:常見的處理器都允許Store-Load重排序;常見的處理器都不允許對存在資料依賴的操作做重排序。sparc-TSO和x86擁有相對較強的處理器記憶體模型,它們僅允許對寫-讀操作做重排序(因為它們都使用了寫緩沖區)。

※注1:sparc-TSO是指以TSO(Total Store Order)記憶體模型運作時,sparc處理器的特性。

※注2:上表中的x86包括x64及AMD64。

※注3:由于ARM處理器的記憶體模型與PowerPC處理器的記憶體模型非常類似,本文将忽略它。

※注4:資料依賴性後文會專門說明。

為了保證記憶體可見性,java編譯器在生成指令序列的适當位置會插入記憶體屏障指令來禁止特定類型的處理器重排序。JMM把記憶體屏障指令分為下列四類:

屏障類型 指令示例 說明
LoadLoad Barriers Load1; LoadLoad; Load2 確定Load1資料的裝載,之前于Load2及所有後續裝載指令的裝載。
StoreStore Barriers Store1; StoreStore; Store2 確定Store1資料對其他處理器可見(重新整理到記憶體),之前于Store2及所有後續存儲指令的存儲。
LoadStore Barriers Load1; LoadStore; Store2 確定Load1資料裝載,之前于Store2及所有後續的存儲指令重新整理到記憶體。
StoreLoad Barriers Store1; StoreLoad; Load2 確定Store1資料對其他處理器變得可見(指重新整理到記憶體),之前于Load2及所有後續裝載指令的裝載。StoreLoad Barriers會使該屏障之前的所有記憶體通路指令(存儲和裝載指令)完成之後,才執行該屏障之後的記憶體通路指令。

StoreLoad Barriers是一個“全能型”的屏障,它同時具有其他三個屏障的效果。現代的多處理器大都支援該屏障(其他類型的屏障不一定被所有處理器支援)。執行該屏障開銷會很昂貴,因為目前處理器通常要把寫緩沖區中的資料全部重新整理到記憶體中(buffer fully flush)。

happens-before

從JDK5開始,java使用新的JSR -133記憶體模型(本文除非特别說明,針對的都是JSR- 133記憶體模型)。JSR-133提出了happens-before的概念,通過這個概念來闡述操作之間的記憶體可見性。如果一個操作執行的結果需要對另一個操作可見,那麼這兩個操作之間必須存在happens-before關系。這裡提到的兩個操作既可以是在一個線程之内,也可以是在不同線程之間。 與程式員密切相關的happens-before規則如下:

  • 程式順序規則:一個線程中的每個操作,happens- before 于該線程中的任意後續操作。
  • 螢幕鎖規則:對一個螢幕鎖的解鎖,happens- before 于随後對這個螢幕鎖的加鎖。
  • volatile變量規則:對一個volatile域的寫,happens- before 于任意後續對這個volatile域的讀。
  • 傳遞性:如果A happens- before B,且B happens- before C,那麼A happens- before C。

注意,兩個操作之間具有happens-before關系,并不意味着前一個操作必須要在後一個操作之前執行!happens-before僅僅要求前一個操作(執行的結果)對後一個操作可見,且前一個操作按順序排在第二個操作之前(the first is visible to and ordered before the second)。happens- before的定義很微妙,後文會具體說明happens-before為什麼要這麼定義。

happens-before與JMM的關系如下圖所示:

Java多線程 -- 深入了解JMM(Java記憶體模型) --(一)基礎

如上圖所示,一個happens-before規則通常對應于多個編譯器重排序規則和處理器重排序規則。對于java程式員來說,happens-before規則簡單易懂,它避免程式員為了了解JMM提供的記憶體可見性保證而去學習複雜的重排序規則以及這些規則的具體實作。

參考文獻

  1. Programming Language Pragmatics, Third Edition
  2. The Java Language Specification, Third Edition
  3. JSR-133: Java Memory Model and Thread Specification
  4. Java theory and practice: Fixing the Java Memory Model, Part 2
  5. Understanding POWER Multiprocessors
  6. Concurrent Programming on Windows
  7. The Art of Multiprocessor Programming
  8. Intel® 64 and IA-32 ArchitecturesvSoftware Developer’s Manual Volume 3A: System Programming Guide, Part 1
  9. Java Concurrency in Practice
  10. The JSR-133 Cookbook for Compiler Writers

關于作者

程曉明,Java軟體工程師,國家認證的系統分析師、資訊項目管理師。專注于并發程式設計,就職于富士通南大。個人郵箱:[email protected]。