我正在研究使用 SDL2 渲染的单线程图形程序 https://github.com/TurkeyMcMac/intergrid。请参阅末尾的较小示例。
它既可以在旧的 Linux 机器上运行,也可以在不太旧的 Mac 上运行。 Linux 计算机的处理器为 1.60GHz,而 Mac 的处理器为 2.2GHz。 Linux 上的 SDL 版本是 2.0.8,Mac 上的 SDL 版本是 2.0.10。在我编译的两台计算机上clang++
使用优化标志-O3
and -flto
。我调用了可执行文件./intergrid -fullscreen -pixel-size 3
(本质上,我让程序绘制了很多像素。)
由于某种原因,较慢的 Linux 计算机毫不费力地执行了程序,而 Mac 则花了几秒钟来渲染第一帧。正如我所料,当我使用 Mac 时,Mac 比 Linux 机器更快-no-draw
标志以禁用图形。
编辑:Linux 计算机具有用于图形的“Intel Haswell Mobile”,Mac 列出“Intel Iris Pro 1536 MB”。
这是一个最小的可重现示例:
#include <SDL2/SDL.h>
#include <stdio.h>
int main(void)
{
SDL_Init(SDL_INIT_VIDEO | SDL_INIT_TIMER);
SDL_Window *window = SDL_CreateWindow(
"Example",
SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED,
0, 0,
SDL_WINDOW_SHOWN);
SDL_SetWindowFullscreen(window, SDL_WINDOW_FULLSCREEN_DESKTOP);
SDL_Renderer *renderer = SDL_CreateRenderer(window, -1, 0);
SDL_Rect viewport;
SDL_RenderGetViewport(renderer, &viewport);
// The screen is not rendered to unless this is done:
SDL_Event event;
while (SDL_PollEvent(&event))
;
Uint32 ticks_before = SDL_GetTicks();
for (int x = 0; x < viewport.w - 10; x += 10) {
for (int y = 0; y < viewport.h - 10; y += 10) {
// I just chose a random visual effect for this example.
SDL_Rect square;
square.x = x;
square.y = y;
square.w = 10;
square.h = 10;
SDL_SetRenderDrawColor(renderer, x % 256, y % 256, 255, 255);
SDL_RenderFillRect(renderer, &square);
}
}
Uint32 ticks_after = SDL_GetTicks();
printf("Ticks taken to render: %u\n", ticks_after - ticks_before);
SDL_RenderPresent(renderer);
SDL_Delay(500);
// I Won't worry about cleaning stuff up.
}
我在 Mac 和 Linux 上编译了这个clang++ -O3 -flto <filename> -lSDL2
。当我在 Mac 上运行该程序时,它打印了:
Ticks taken to render: 849
Linux上的程序打印出:
Ticks taken to render: 4
这是一个巨大的差异!