这个事来自dpdk, 所以, 先参考.

http://dpdk.org/doc/guides/linux_gsg/sys_reqs.html

当前, 假设你已经读过上边内容, 知道大页内存时候, dpdk是什么,以及怎样使用.

我们已经知道, 为系统分配大页内存有两种大小:

2M 和 1G

1G的只有64位系统支持, 并且我们推荐64位的操作系统尽量使用1G的page

同时, 我们还知道配置大页内存,有两个时机

boot time 和 run time

boot time的配置写在grub里,给内核.

run time的配置方式, 类似如下:

# 不是 numa 的
echo > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages # 是 numa 的
echo > /sys/devices/system/node/node0/hugepages/hugepages-2048kB/nr_hugepages
echo > /sys/devices/system/node/node1/hugepages/hugepages-2048kB/nr_hugepages

据说, 1G的必须在boot time分配, 而且,就算是2M的也应该在开机之后尽快分配, 因为申请的大页需要连续空间, 如果不连续, 申请将失败.

那么, boot time是申请1G大页的内核参数如下:

default_hugepagesz=1G hugepagesz=1G hugepages=

上面的例子, 申请了4G的大页, 如果是numa的话, 这4G会被平分给两个node, 每个node, 2G

而接下的问题是: 在实际生产生活中我们并不想这样用. 比如,我只想在node0上申请4G的大页, 而不想在node1上申请大页.

这时候, 一个人在intel问了这个问题, 然后intel的人很不负责人的回答了(我只是为了吐槽)

https://embedded.communities.intel.com/thread/6681

真正的解决方案在这里:

https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/performance_tuning_guide/sect-red_hat_enterprise_linux-performance_tuning_guide-memory-configuring-huge-pages

简单的来说就是

1. 先用这样的参数

default_hugepagesz=1G hugepagesz=1G

2. 在用下面的命令, 给不同的node配置不同的页数

echo $ > $nodes_path/$/hugepages/hugepages-1048576kB/nr_hugepages

另外如果知道,支不支持1G的大页?

2M, 查看CPU的 psr 标记

[root@dpdk ~]# cat /proc/cpuinfo |grep pse

1G, 查看CPU的 pdpe1gb  标记

[root@dpdk ~]# cat /proc/cpuinfo |grep pdpe1gb

另外的另外, 我的QEMU不支持怎么办?

首先查看支不支持,

qemu-system-x86_64 -cpu help

然后, 启动的时候在CPU类型后面加一个参数:

qemu-system-x86_64 -cpu Nehalem,pdpe1gb

参考:

[daily][qemu][kvm] qemu增加减少CPUID

04-28 19:31