天天看點

linux 最大重複數量,linux – 目前我的ZFS重複資料删除表有多大?

您可以使用zpool status -D poolname指令.

輸出看起來類似于:

[email protected]:/volumes# zpool status -D vol1

pool: vol1

state: ONLINE

scan: scrub repaired 0 in 4h38m with 0 errors on Sun Mar 24 13:16:12 2013

DDT entries 2459286,size 481 on disk,392 in core

bucket allocated referenced

______ ______________________________ ______________________________

refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE

------ ------ ----- ----- ----- ------ ----- ----- -----

1 2.23M 35.6G 19.0G 19.0G 2.23M 35.6G 19.0G 19.0G

2 112K 1.75G 1005M 1005M 240K 3.75G 2.09G 2.09G

4 8.03K 129M 73.8M 73.8M 35.4K 566M 324M 324M

8 434 6.78M 3.16M 3.16M 4.61K 73.8M 35.4M 35.4M

16 119 1.86M 811K 811K 2.33K 37.3M 15.3M 15.3M

32 24 384K 34.5K 34.5K 1.13K 18.1M 1.51M 1.51M

64 19 304K 19K 19K 1.63K 26.1M 1.63M 1.63M

128 7 112K 7K 7K 1.26K 20.1M 1.26M 1.26M

256 3 48K 3K 3K 1012 15.8M 1012K 1012K

512 3 48K 3K 3K 2.01K 32.1M 2.01M 2.01M

1K 2 32K 2K 2K 2.61K 41.7M 2.61M 2.61M

2K 1 16K 1K 1K 2.31K 36.9M 2.31M 2.31M

Total 2.35M 37.5G 20.1G 20.1G 2.51M 40.2G 21.5G 21.5G

重要的字段是總配置設定塊和總引用塊.在上面的示例中,我的重複資料删除率較低. 40.2G存儲在37.5G空間的磁盤上.或者在235萬塊的空間中有251萬個街區.

要擷取表的實際大小,請參閱:

DDT條目2459286,磁盤大小為481,核心大小為392

2459286 * 392 = 964040112位元組除以1024和1024得到:919.3MB的RAM.