@@ -230,21 +230,36 @@ define <16 x i8> @test_div7_16i8(<16 x i8> %a) nounwind {
230
230
; AVX1-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
231
231
; AVX1-NEXT: retq
232
232
;
233
- ; AVX2-LABEL: test_div7_16i8:
234
- ; AVX2: # BB#0:
235
- ; AVX2-NEXT: vpmovzxbw {{.*#+}} ymm1 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero,xmm0[8],zero,xmm0[9],zero,xmm0[10],zero,xmm0[11],zero,xmm0[12],zero,xmm0[13],zero,xmm0[14],zero,xmm0[15],zero
236
- ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1
237
- ; AVX2-NEXT: vpsrlw $8, %ymm1, %ymm1
238
- ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
239
- ; AVX2-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
240
- ; AVX2-NEXT: vpsubb %xmm1, %xmm0, %xmm0
241
- ; AVX2-NEXT: vpsrlw $1, %xmm0, %xmm0
242
- ; AVX2-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
243
- ; AVX2-NEXT: vpaddb %xmm1, %xmm0, %xmm0
244
- ; AVX2-NEXT: vpsrlw $2, %xmm0, %xmm0
245
- ; AVX2-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
246
- ; AVX2-NEXT: vzeroupper
247
- ; AVX2-NEXT: retq
233
+ ; AVX2NOBW-LABEL: test_div7_16i8:
234
+ ; AVX2NOBW: # BB#0:
235
+ ; AVX2NOBW-NEXT: vpmovzxbw {{.*#+}} ymm1 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero,xmm0[8],zero,xmm0[9],zero,xmm0[10],zero,xmm0[11],zero,xmm0[12],zero,xmm0[13],zero,xmm0[14],zero,xmm0[15],zero
236
+ ; AVX2NOBW-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1
237
+ ; AVX2NOBW-NEXT: vpsrlw $8, %ymm1, %ymm1
238
+ ; AVX2NOBW-NEXT: vextracti128 $1, %ymm1, %xmm2
239
+ ; AVX2NOBW-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
240
+ ; AVX2NOBW-NEXT: vpsubb %xmm1, %xmm0, %xmm0
241
+ ; AVX2NOBW-NEXT: vpsrlw $1, %xmm0, %xmm0
242
+ ; AVX2NOBW-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
243
+ ; AVX2NOBW-NEXT: vpaddb %xmm1, %xmm0, %xmm0
244
+ ; AVX2NOBW-NEXT: vpsrlw $2, %xmm0, %xmm0
245
+ ; AVX2NOBW-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
246
+ ; AVX2NOBW-NEXT: vzeroupper
247
+ ; AVX2NOBW-NEXT: retq
248
+ ;
249
+ ; AVX512BW-LABEL: test_div7_16i8:
250
+ ; AVX512BW: # BB#0:
251
+ ; AVX512BW-NEXT: vpmovzxbw {{.*#+}} ymm1 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero,xmm0[8],zero,xmm0[9],zero,xmm0[10],zero,xmm0[11],zero,xmm0[12],zero,xmm0[13],zero,xmm0[14],zero,xmm0[15],zero
252
+ ; AVX512BW-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1
253
+ ; AVX512BW-NEXT: vpsrlw $8, %ymm1, %ymm1
254
+ ; AVX512BW-NEXT: vpmovwb %zmm1, %ymm1
255
+ ; AVX512BW-NEXT: vpsubb %xmm1, %xmm0, %xmm0
256
+ ; AVX512BW-NEXT: vpsrlw $1, %xmm0, %xmm0
257
+ ; AVX512BW-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
258
+ ; AVX512BW-NEXT: vpaddb %xmm1, %xmm0, %xmm0
259
+ ; AVX512BW-NEXT: vpsrlw $2, %xmm0, %xmm0
260
+ ; AVX512BW-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
261
+ ; AVX512BW-NEXT: vzeroupper
262
+ ; AVX512BW-NEXT: retq
248
263
%res = udiv <16 x i8 > %a , <i8 7 , i8 7 , i8 7 , i8 7 ,i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 , i8 7 ,i8 7 , i8 7 , i8 7 , i8 7 >
249
264
ret <16 x i8 > %res
250
265
}
@@ -586,8 +601,7 @@ define <16 x i8> @test_rem7_16i8(<16 x i8> %a) nounwind {
586
601
; AVX512BW-NEXT: vpmovzxbw {{.*#+}} ymm1 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero,xmm0[8],zero,xmm0[9],zero,xmm0[10],zero,xmm0[11],zero,xmm0[12],zero,xmm0[13],zero,xmm0[14],zero,xmm0[15],zero
587
602
; AVX512BW-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1
588
603
; AVX512BW-NEXT: vpsrlw $8, %ymm1, %ymm1
589
- ; AVX512BW-NEXT: vextracti128 $1, %ymm1, %xmm2
590
- ; AVX512BW-NEXT: vpackuswb %xmm2, %xmm1, %xmm1
604
+ ; AVX512BW-NEXT: vpmovwb %zmm1, %ymm1
591
605
; AVX512BW-NEXT: vpsubb %xmm1, %xmm0, %xmm2
592
606
; AVX512BW-NEXT: vpsrlw $1, %xmm2, %xmm2
593
607
; AVX512BW-NEXT: vpand {{.*}}(%rip), %xmm2, %xmm2
0 commit comments