首先是最不明显的问题:
一旦我完成了所有的矢量处理,我到底如何从__m128i
将低 64 位提取为整数int64_t _mm_cvtsi128_si64x(__m128i)
, or 低 32 位与int _mm_cvtsi128_si32 (__m128i a).
如果您想要向量的其他部分,而不是低元素,您的选择是:
-
打乱向量以创建新向量__m128i
在低元素中添加所需的数据,并使用 cvt 内在函数(asm 中的 MOVD 或 MOVQ)。
-
使用SSE2int _mm_extract_epi16 (__m128i a, int imm8),或 SSE4.1 类似的指令用于其他元素大小,例如_mm_extract_epi64(v, 1);
(PEXTRB/W/D/Q) 不是最快的指令,但如果您只需要一个高位元素,它们大约相当于单独的 shuffle 和 MOVD,但机器代码更小。
-
_mm_store_si128
到对齐的临时数组并访问成员:编译器通常会将其优化为只是随机播放或pextr*
指令如果你编译-msse4.1
or -march=haswell
管他呢。打印 __m128i 变量显示了一个示例,包括 Godbolt 编译器输出显示_mm_store_si128
进入一个alignas(16) uint64_t tmp[2]
-
Or use union { __m128i v; int64_t i64[2]; }
或者其他的东西。基于联合的类型双关在 C99 中是合法的,但仅作为 C++ 中的扩展。这与 tmp 数组的编译方式相同,并且通常不易于阅读。
也可以在 C++ 中使用的 union 的替代方案是memcpy(&my_int64_local, 8 + (char*)my_vector, 8);
提取上半部分,但这似乎更复杂且不太清晰,并且更有可能是编译器无法“看穿”的东西。当它是一个完整的变量时,编译器通常非常擅长优化小的固定大小的 memcpy,但这只是变量的一半。
-
如果向量的整个高半部分可以不加修改地直接进入内存(而不是在整数寄存器中需要),那么智能编译器可能会优化以使用MOVHPS存储a的高半部分__m128i
与上述工会的东西。
或者你可以使用_mm_storeh_pi((__m64*)dst, _mm_castsi128_ps(vec))
。只需要SSE1,比SSE4.1效率更高pextrq
在大多数 CPU 上。但不要对您将立即再次使用的标量整数执行此操作;如果 SSE4.1 不可用,编译器可能实际上会进行 MOVHPS 和整数重新加载,这通常不是最佳的。 (有些编译器(例如 MSVC)不会优化内在函数。)
这会在内存中变成线性的、不间断的块吗?
不,它是指向单独内存块的指针数组,与正确的二维数组相比,引入了额外的间接级别。不要那样做。
进行一项大的分配,然后自己进行索引计算(使用array[x*yres + y]
).
是的,从中加载数据_mm_load_si128
,或者 loadu 如果您需要从偏移量加载。
assumed _mm_load_si128
只加载有符号的字节
有符号或无符号不是字节的固有属性,而只是解释这些位的方式。您可以使用相同的加载内部函数来加载两个 64 位元素或 128 位位图。
使用适合您的数据的内在函数。它有点像汇编语言:一切都只是字节,机器会用字节执行您告诉它的操作。您可以选择一系列指令/内在函数来产生有意义的结果。
整数加载内在函数采用__m128i*
指针参数,所以你必须使用_mm_load_si128( (const __m128i*) my_int_pointer )
或类似的。这看起来像指针别名(例如读取数组int
通过一个short *
),这是 C 和 C++ 中的未定义行为。然而,这就是英特尔所说的你应该这样做的方式,因此任何实现英特尔内在函数的编译器都需要使其正确工作。 gcc 通过定义来做到这一点__m128i
with __attribute__((may_alias))
.
也可以看看加载 GCC 向量扩展的数据其中指出您可以使用 Intel 内在函数进行 GNU C 本机向量扩展,并展示如何加载/存储。
要了解有关 SSE 的 SIMD 的更多信息,请参阅sse标签 wiki,包括一些介绍/教程链接。
The x86tag wiki 有一些很好的 x86 asm / 性能链接。