我正在编写一个使用 Linux 异步 I/O 系统调用的库,并且想知道为什么io_submit
函数在 ext4 文件系统上表现出较差的扩展性。如果可能的话,我该怎么做才能得到io_submit
不阻止大 IO 请求大小?我已经执行了以下操作(如上所述here https://code.google.com/p/kernel/wiki/AIOUserGuide):
- Use
O_DIRECT
.
- 将 IO 缓冲区与 512 字节边界对齐。
- 将缓冲区大小设置为页面大小的倍数。
为了观察内核花费了多长时间io_submit
,我运行了一个测试,其中使用以下命令创建了 1 Gb 测试文件dd
and /dev/urandom
,并反复删除系统缓存(sync; echo 1 > /proc/sys/vm/drop_caches
)并读取文件中越来越大的部分。在每次迭代中,我打印了所花费的时间io_submit
以及等待读取请求完成所花费的时间。我在运行 Arch Linux、内核版本 3.11 的 x86-64 系统上运行了以下实验。该机器配备 SSD 和 Core i7 CPU。第一个图表绘制了阅读的页数与等待时间的关系io_submit
完成。第二个图显示等待读取请求完成所花费的时间。时间以秒为单位。
为了进行比较,我创建了一个类似的测试,通过以下方式使用同步 IOpread
。结果如下:
看起来异步 IO 可以按预期工作,请求大小约为 20,000 页。在那之后,io_submit
块。这些观察引出了以下问题:
- 为什么执行时间不是
io_submit
持续的?
- 是什么导致了这种不良的缩放行为?
- 我是否需要将 ext4 文件系统上的所有读取请求拆分为多个请求,每个请求的大小小于 20,000 页?
- 这个“神奇”的20000值从何而来?如果我在另一个 Linux 系统上运行我的程序,如何确定要使用的最大 IO 请求大小,而不会遇到不良的扩展行为?
用于测试异步IO的代码如下。如果您认为其他源列表相关,我可以添加它们,但我尝试仅发布我认为可能相关的详细信息。
#include <cstddef>
#include <cstdint>
#include <cstring>
#include <chrono>
#include <iostream>
#include <memory>
#include <fcntl.h>
#include <stdio.h>
#include <time.h>
#include <unistd.h>
// For `__NR_*` system call definitions.
#include <sys/syscall.h>
#include <linux/aio_abi.h>
static int
io_setup(unsigned n, aio_context_t* c)
{
return syscall(__NR_io_setup, n, c);
}
static int
io_destroy(aio_context_t c)
{
return syscall(__NR_io_destroy, c);
}
static int
io_submit(aio_context_t c, long n, iocb** b)
{
return syscall(__NR_io_submit, c, n, b);
}
static int
io_getevents(aio_context_t c, long min, long max, io_event* e, timespec* t)
{
return syscall(__NR_io_getevents, c, min, max, e, t);
}
int main(int argc, char** argv)
{
using namespace std::chrono;
const auto n = 4096 * size_t(std::atoi(argv[1]));
// Initialize the file descriptor. If O_DIRECT is not used, the kernel
// will block on `io_submit` until the job finishes, because non-direct
// IO via the `aio` interface is not implemented (to my knowledge).
auto fd = ::open("dat/test.dat", O_RDONLY | O_DIRECT | O_NOATIME);
if (fd < 0) {
::perror("Error opening file");
return EXIT_FAILURE;
}
char* p;
auto r = ::posix_memalign((void**)&p, 512, n);
if (r != 0) {
std::cerr << "posix_memalign failed." << std::endl;
return EXIT_FAILURE;
}
auto del = [](char* p) { std::free(p); };
std::unique_ptr<char[], decltype(del)> buf{p, del};
// Initialize the IO context.
aio_context_t c{0};
r = io_setup(4, &c);
if (r < 0) {
::perror("Error invoking io_setup");
return EXIT_FAILURE;
}
// Setup I/O control block.
iocb b;
std::memset(&b, 0, sizeof(b));
b.aio_fildes = fd;
b.aio_lio_opcode = IOCB_CMD_PREAD;
// Command-specific options for `pread`.
b.aio_buf = (uint64_t)buf.get();
b.aio_offset = 0;
b.aio_nbytes = n;
iocb* bs[1] = {&b};
auto t1 = high_resolution_clock::now();
auto r = io_submit(c, 1, bs);
if (r != 1) {
if (r == -1) {
::perror("Error invoking io_submit");
}
else {
std::cerr << "Could not submit request." << std::endl;
}
return EXIT_FAILURE;
}
auto t2 = high_resolution_clock::now();
auto count = duration_cast<duration<double>>(t2 - t1).count();
// Print the wait time.
std::cout << count << " ";
io_event e[1];
t1 = high_resolution_clock::now();
r = io_getevents(c, 1, 1, e, NULL);
t2 = high_resolution_clock::now();
count = duration_cast<duration<double>>(t2 - t1).count();
// Print the read time.
std::cout << count << std::endl;
r = io_destroy(c);
if (r < 0) {
::perror("Error invoking io_destroy");
return EXIT_FAILURE;
}
}