天天看點

qemu numa nodes passthrough

 有辦法pass host的node到guest node去

 這個可以通過hugetlbfs

 qemu memory backend 有兩種

 通常是ram_backend_memory_alloc

 有找到點了?

 另外一種是file_backend_memory_alloc

 mmap直接map到那個file上

 如果準備好hugetlbfs

 mmap就過去了

 是以說, 如果有兩個nodes

 一個通過hugetlbfs 從一個numa node中取memory

 一個通過hugetlbfs 從另一個numa node中取memory

 了解了,有趣

 是以是系統先做好兩個file, 分別對應到兩個nodes

 再把這兩個nodes pass 給guest, 做為兩個guest numa nodes

 然後qemu再去map

 對了

 接有意思

 挺

 對啊

 這樣就可以把host nunam,

 這樣就可以把host numa node memory 給它pass 到guest了

 不過應該很少用

 qemu_anon_ram_alloc

 最後call到這裡來

 mmap

 應該沒錯?

 沒錯, 那個是普通的方式

 我看到s390有定義自己的

 其他都是用這個

 回家看清楚點在和你討論

 嗯, 好的

 -object memory-backend-ram,size=1024M,policy=bind,host-nodes=0,id=ram-node0 -numa node,nodeid=0,cpus=0,memdev=ram-node0

 -object memory-backend-ram,size=1024M,policy=bind,host-nodes=1,id=ram-node1 -numa node,nodeid=1,cpus=1,memdev=ram-node1

 比如這就是一個特别的方式

 ha,,  看來不用hugetlbfs也得, host_memory_backend_memory_complete 裡面它動了手腳

 mbind  在 #ifdef CONFIG_NUMA 下面

  每個memory-backend-ram初始化完畢, 這個host_memory_backend_memory_complete都會跑一次

 之前mmap的virtual memory還沒有給physical frame呢, 是以還沒真用哪一個numa node的memory

 這段代碼先mbind一下, 然後preallocate

mbind針對mem region,如果每個region都是模擬成一個node,設好了以後就不會變了

 通過hugetlbfs >> -object memory-backend-file,id=ram0,size=1G,mem-path=/dev/hugepages/hugetlbfs-16M -numa node,nodeid=0,cpus=0,memdev=ram0

An example qemu cmd with explicit host bridge definition,

./x86_64-softmmu/qemu-system-x86_64 -enable-kvm -m 2048M -smp 4 \

    -object memory-backend-ram,size=1024M,policy=bind,prealloc=on,host-nodes=0-1,id=ram-node0 \

    -numa node,nodeid=0,cpus=0-1,memdev=ram-node0 \

    -object memory-backend-ram,size=1024M,policy=bind,prealloc=on,host-nodes=1,id=ram-node1 \

    -numa node,nodeid=1,cpus=2-3,memdev=ram-node1 \

    -device pxb,id=bridge1,bus=pci.0,numa_node=1,bus_nr=4 \

    -device pxb,id=bridge2,bus=pci.0,numa_node=0,bus_nr=8 \

    -device pxb,id=bridge3,bus=pci.0,bus_nr=16,bus=pci.0 \

    -drive if=none,id=drive0,file=../trusty-server-cloudimg-amd64-disk1.img \

    -device virtio-blk-pci,drive=drive0,scsi=off,bus=bridge3 \

    -nographic

繼續閱讀