diff --git a/llvm/lib/Target/RISCV/RISCVISelLowering.cpp b/llvm/lib/Target/RISCV/RISCVISelLowering.cpp --- a/llvm/lib/Target/RISCV/RISCVISelLowering.cpp +++ b/llvm/lib/Target/RISCV/RISCVISelLowering.cpp @@ -4519,7 +4519,7 @@ VL = DAG.getRegister(RISCV::X0, XLenVT); unsigned IntID = - IsUnmasked ? Intrinsic::riscv_vloxei : Intrinsic::riscv_vloxei_mask; + IsUnmasked ? Intrinsic::riscv_vluxei : Intrinsic::riscv_vluxei_mask; SmallVector Ops{MGN->getChain(), DAG.getTargetConstant(IntID, DL, XLenVT)}; if (!IsUnmasked) diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll @@ -10,14 +10,14 @@ ; RV32-LABEL: mgather_v1i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x i8> @llvm.masked.gather.v1i8.v1p0i8(<1 x i8*> %ptrs, i32 1, <1 x i1> %m, <1 x i8> %passthru) @@ -30,14 +30,14 @@ ; RV32-LABEL: mgather_v2i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -48,7 +48,7 @@ ; RV32-LABEL: mgather_v2i8_sextload_v2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e16, mf4, ta, mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret @@ -56,7 +56,7 @@ ; RV64-LABEL: mgather_v2i8_sextload_v2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e16, mf4, ta, mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret @@ -69,7 +69,7 @@ ; RV32-LABEL: mgather_v2i8_zextload_v2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e16, mf4, ta, mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret @@ -77,7 +77,7 @@ ; RV64-LABEL: mgather_v2i8_zextload_v2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e16, mf4, ta, mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret @@ -90,7 +90,7 @@ ; RV32-LABEL: mgather_v2i8_sextload_v2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret @@ -98,7 +98,7 @@ ; RV64-LABEL: mgather_v2i8_sextload_v2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV64-NEXT: vsext.vf4 v8, v9 ; RV64-NEXT: ret @@ -111,7 +111,7 @@ ; RV32-LABEL: mgather_v2i8_zextload_v2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret @@ -119,7 +119,7 @@ ; RV64-LABEL: mgather_v2i8_zextload_v2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV64-NEXT: vzext.vf4 v8, v9 ; RV64-NEXT: ret @@ -132,7 +132,7 @@ ; RV32-LABEL: mgather_v2i8_sextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vsext.vf8 v8, v9 ; RV32-NEXT: ret @@ -140,7 +140,7 @@ ; RV64-LABEL: mgather_v2i8_sextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vsext.vf8 v8, v9 ; RV64-NEXT: ret @@ -153,7 +153,7 @@ ; RV32-LABEL: mgather_v2i8_zextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vzext.vf8 v8, v9 ; RV32-NEXT: ret @@ -161,7 +161,7 @@ ; RV64-LABEL: mgather_v2i8_zextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vzext.vf8 v8, v9 ; RV64-NEXT: ret @@ -176,14 +176,14 @@ ; RV32-LABEL: mgather_v4i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x i8> @llvm.masked.gather.v4i8.v4p0i8(<4 x i8*> %ptrs, i32 1, <4 x i1> %m, <4 x i8> %passthru) @@ -194,14 +194,14 @@ ; RV32-LABEL: mgather_truemask_v4i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e8, mf4, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e8, mf4, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 @@ -230,14 +230,14 @@ ; RV32-LABEL: mgather_v8i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e8, mf2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e8, mf2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x i8> @llvm.masked.gather.v8i8.v8p0i8(<8 x i8*> %ptrs, i32 1, <8 x i1> %m, <8 x i8> %passthru) @@ -250,7 +250,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsetvli zero, zero, e8, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -259,7 +259,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsetvli zero, zero, e8, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, <8 x i8> %idxs @@ -273,14 +273,14 @@ ; RV32-LABEL: mgather_v1i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x i16> @llvm.masked.gather.v1i16.v1p0i16(<1 x i16*> %ptrs, i32 2, <1 x i1> %m, <1 x i16> %passthru) @@ -293,14 +293,14 @@ ; RV32-LABEL: mgather_v2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru) @@ -311,7 +311,7 @@ ; RV32-LABEL: mgather_v2i16_sextload_v2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret @@ -319,7 +319,7 @@ ; RV64-LABEL: mgather_v2i16_sextload_v2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret @@ -332,7 +332,7 @@ ; RV32-LABEL: mgather_v2i16_zextload_v2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret @@ -340,7 +340,7 @@ ; RV64-LABEL: mgather_v2i16_zextload_v2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret @@ -353,7 +353,7 @@ ; RV32-LABEL: mgather_v2i16_sextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret @@ -361,7 +361,7 @@ ; RV64-LABEL: mgather_v2i16_sextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vsext.vf4 v8, v9 ; RV64-NEXT: ret @@ -374,7 +374,7 @@ ; RV32-LABEL: mgather_v2i16_zextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret @@ -382,7 +382,7 @@ ; RV64-LABEL: mgather_v2i16_zextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vzext.vf4 v8, v9 ; RV64-NEXT: ret @@ -397,14 +397,14 @@ ; RV32-LABEL: mgather_v4i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x i16> @llvm.masked.gather.v4i16.v4p0i16(<4 x i16*> %ptrs, i32 2, <4 x i1> %m, <4 x i16> %passthru) @@ -415,14 +415,14 @@ ; RV32-LABEL: mgather_truemask_v4i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e16, mf2, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e16, mf2, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 @@ -451,14 +451,14 @@ ; RV32-LABEL: mgather_v8i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x i16> @llvm.masked.gather.v8i16.v8p0i16(<8 x i16*> %ptrs, i32 2, <8 x i1> %m, <8 x i16> %passthru) @@ -472,7 +472,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -482,7 +482,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, <8 x i8> %idxs @@ -497,7 +497,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -507,7 +507,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i16> @@ -523,7 +523,7 @@ ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -533,7 +533,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i16> @@ -549,7 +549,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -559,7 +559,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, <8 x i16> %idxs @@ -573,14 +573,14 @@ ; RV32-LABEL: mgather_v1i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x i32> @llvm.masked.gather.v1i32.v1p0i32(<1 x i32*> %ptrs, i32 4, <1 x i1> %m, <1 x i32> %passthru) @@ -593,14 +593,14 @@ ; RV32-LABEL: mgather_v2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x i32> @llvm.masked.gather.v2i32.v2p0i32(<2 x i32*> %ptrs, i32 4, <2 x i1> %m, <2 x i32> %passthru) @@ -611,7 +611,7 @@ ; RV32-LABEL: mgather_v2i32_sextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret @@ -619,7 +619,7 @@ ; RV64-LABEL: mgather_v2i32_sextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret @@ -632,7 +632,7 @@ ; RV32-LABEL: mgather_v2i32_zextload_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret @@ -640,7 +640,7 @@ ; RV64-LABEL: mgather_v2i32_zextload_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret @@ -655,14 +655,14 @@ ; RV32-LABEL: mgather_v4i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x i32> @llvm.masked.gather.v4i32.v4p0i32(<4 x i32*> %ptrs, i32 4, <4 x i1> %m, <4 x i32> %passthru) @@ -673,13 +673,13 @@ ; RV32-LABEL: mgather_truemask_v4i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu -; RV32-NEXT: vloxei32.v v8, (zero), v8 +; RV32-NEXT: vluxei32.v v8, (zero), v8 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e32, m1, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 @@ -708,14 +708,14 @@ ; RV32-LABEL: mgather_v8i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x i32> @llvm.masked.gather.v8i32.v8p0i32(<8 x i32*> %ptrs, i32 4, <8 x i1> %m, <8 x i32> %passthru) @@ -729,7 +729,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -739,7 +739,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i8> %idxs @@ -754,7 +754,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -764,7 +764,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i32> @@ -780,7 +780,7 @@ ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -790,7 +790,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i32> @@ -806,7 +806,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -816,7 +816,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i16> %idxs @@ -831,7 +831,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -841,7 +841,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i32> @@ -857,7 +857,7 @@ ; RV32-NEXT: vzext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -867,7 +867,7 @@ ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i32> @@ -882,7 +882,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu ; RV32-NEXT: vsll.vi v26, v8, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -892,7 +892,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i32> %idxs @@ -906,14 +906,14 @@ ; RV32-LABEL: mgather_v1i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x i64> @llvm.masked.gather.v1i64.v1p0i64(<1 x i64*> %ptrs, i32 8, <1 x i1> %m, <1 x i64> %passthru) @@ -926,14 +926,14 @@ ; RV32-LABEL: mgather_v2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x i64> @llvm.masked.gather.v2i64.v2p0i64(<2 x i64*> %ptrs, i32 8, <2 x i1> %m, <2 x i64> %passthru) @@ -946,14 +946,14 @@ ; RV32-LABEL: mgather_v4i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e64, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e64, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x i64> @llvm.masked.gather.v4i64.v4p0i64(<4 x i64*> %ptrs, i32 8, <4 x i1> %m, <4 x i64> %passthru) @@ -964,14 +964,14 @@ ; RV32-LABEL: mgather_truemask_v4i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e64, m2, ta, mu -; RV32-NEXT: vloxei32.v v26, (zero), v8 +; RV32-NEXT: vluxei32.v v26, (zero), v8 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e64, m2, ta, mu -; RV64-NEXT: vloxei64.v v8, (zero), v8 +; RV64-NEXT: vluxei64.v v8, (zero), v8 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 %mtrue = shufflevector <4 x i1> %mhead, <4 x i1> undef, <4 x i32> zeroinitializer @@ -999,14 +999,14 @@ ; RV32-LABEL: mgather_v8i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x i64> @llvm.masked.gather.v8i64.v8p0i64(<8 x i64*> %ptrs, i32 8, <8 x i1> %m, <8 x i64> %passthru) @@ -1020,7 +1020,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1030,7 +1030,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, <8 x i8> %idxs @@ -1045,7 +1045,7 @@ ; RV32-NEXT: vsext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1055,7 +1055,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i64> @@ -1071,7 +1071,7 @@ ; RV32-NEXT: vzext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1081,7 +1081,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i64> @@ -1097,7 +1097,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1107,7 +1107,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, <8 x i16> %idxs @@ -1122,7 +1122,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1132,7 +1132,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i64> @@ -1148,7 +1148,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1158,7 +1158,7 @@ ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i64> @@ -1173,7 +1173,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu ; RV32-NEXT: vsll.vi v26, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1183,7 +1183,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, <8 x i32> %idxs @@ -1198,7 +1198,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1208,7 +1208,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i32> %idxs to <8 x i64> @@ -1224,7 +1224,7 @@ ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1234,7 +1234,7 @@ ; RV64-NEXT: vzext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i32> %idxs to <8 x i64> @@ -1249,7 +1249,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1258,7 +1258,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu ; RV64-NEXT: vsll.vi v28, v8, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, <8 x i64> %idxs @@ -1272,14 +1272,14 @@ ; RV32-LABEL: mgather_v1f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x half> @llvm.masked.gather.v1f16.v1p0f16(<1 x half*> %ptrs, i32 2, <1 x i1> %m, <1 x half> %passthru) @@ -1292,14 +1292,14 @@ ; RV32-LABEL: mgather_v2f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x half> @llvm.masked.gather.v2f16.v2p0f16(<2 x half*> %ptrs, i32 2, <2 x i1> %m, <2 x half> %passthru) @@ -1312,14 +1312,14 @@ ; RV32-LABEL: mgather_v4f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x half> @llvm.masked.gather.v4f16.v4p0f16(<4 x half*> %ptrs, i32 2, <4 x i1> %m, <4 x half> %passthru) @@ -1330,14 +1330,14 @@ ; RV32-LABEL: mgather_truemask_v4f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e16, mf2, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e16, mf2, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 @@ -1366,14 +1366,14 @@ ; RV32-LABEL: mgather_v8f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x half> @llvm.masked.gather.v8f16.v8p0f16(<8 x half*> %ptrs, i32 2, <8 x i1> %m, <8 x half> %passthru) @@ -1387,7 +1387,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -1397,7 +1397,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, <8 x i8> %idxs @@ -1412,7 +1412,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -1422,7 +1422,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i16> @@ -1438,7 +1438,7 @@ ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -1448,7 +1448,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i16> @@ -1464,7 +1464,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -1474,7 +1474,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, <8 x i16> %idxs @@ -1488,14 +1488,14 @@ ; RV32-LABEL: mgather_v1f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x float> @llvm.masked.gather.v1f32.v1p0f32(<1 x float*> %ptrs, i32 4, <1 x i1> %m, <1 x float> %passthru) @@ -1508,14 +1508,14 @@ ; RV32-LABEL: mgather_v2f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x float> @llvm.masked.gather.v2f32.v2p0f32(<2 x float*> %ptrs, i32 4, <2 x i1> %m, <2 x float> %passthru) @@ -1528,14 +1528,14 @@ ; RV32-LABEL: mgather_v4f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x float> @llvm.masked.gather.v4f32.v4p0f32(<4 x float*> %ptrs, i32 4, <4 x i1> %m, <4 x float> %passthru) @@ -1546,13 +1546,13 @@ ; RV32-LABEL: mgather_truemask_v4f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu -; RV32-NEXT: vloxei32.v v8, (zero), v8 +; RV32-NEXT: vluxei32.v v8, (zero), v8 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e32, m1, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 @@ -1581,14 +1581,14 @@ ; RV32-LABEL: mgather_v8f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x float> @llvm.masked.gather.v8f32.v8p0f32(<8 x float*> %ptrs, i32 4, <8 x i1> %m, <8 x float> %passthru) @@ -1602,7 +1602,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1612,7 +1612,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i8> %idxs @@ -1627,7 +1627,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1637,7 +1637,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i32> @@ -1653,7 +1653,7 @@ ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1663,7 +1663,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i32> @@ -1679,7 +1679,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1689,7 +1689,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i16> %idxs @@ -1704,7 +1704,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1714,7 +1714,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i32> @@ -1730,7 +1730,7 @@ ; RV32-NEXT: vzext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1740,7 +1740,7 @@ ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i32> @@ -1755,7 +1755,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu ; RV32-NEXT: vsll.vi v26, v8, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1765,7 +1765,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i32> %idxs @@ -1779,14 +1779,14 @@ ; RV32-LABEL: mgather_v1f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 1, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v1f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 1, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <1 x double> @llvm.masked.gather.v1f64.v1p0f64(<1 x double*> %ptrs, i32 8, <1 x i1> %m, <1 x double> %passthru) @@ -1799,14 +1799,14 @@ ; RV32-LABEL: mgather_v2f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v2f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call <2 x double> @llvm.masked.gather.v2f64.v2p0f64(<2 x double*> %ptrs, i32 8, <2 x i1> %m, <2 x double> %passthru) @@ -1819,14 +1819,14 @@ ; RV32-LABEL: mgather_v4f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e64, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v4f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e64, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %v = call <4 x double> @llvm.masked.gather.v4f64.v4p0f64(<4 x double*> %ptrs, i32 8, <4 x i1> %m, <4 x double> %passthru) @@ -1837,14 +1837,14 @@ ; RV32-LABEL: mgather_truemask_v4f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 4, e64, m2, ta, mu -; RV32-NEXT: vloxei32.v v26, (zero), v8 +; RV32-NEXT: vluxei32.v v26, (zero), v8 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_v4f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 4, e64, m2, ta, mu -; RV64-NEXT: vloxei64.v v8, (zero), v8 +; RV64-NEXT: vluxei64.v v8, (zero), v8 ; RV64-NEXT: ret %mhead = insertelement <4 x i1> undef, i1 1, i32 0 %mtrue = shufflevector <4 x i1> %mhead, <4 x i1> undef, <4 x i32> zeroinitializer @@ -1872,14 +1872,14 @@ ; RV32-LABEL: mgather_v8f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_v8f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %v = call <8 x double> @llvm.masked.gather.v8f64.v8p0f64(<8 x double*> %ptrs, i32 8, <8 x i1> %m, <8 x double> %passthru) @@ -1893,7 +1893,7 @@ ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1903,7 +1903,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, <8 x i8> %idxs @@ -1918,7 +1918,7 @@ ; RV32-NEXT: vsext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1928,7 +1928,7 @@ ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i64> @@ -1944,7 +1944,7 @@ ; RV32-NEXT: vzext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1954,7 +1954,7 @@ ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i64> @@ -1970,7 +1970,7 @@ ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1980,7 +1980,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, <8 x i16> %idxs @@ -1995,7 +1995,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2005,7 +2005,7 @@ ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i64> @@ -2021,7 +2021,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2031,7 +2031,7 @@ ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i64> @@ -2046,7 +2046,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu ; RV32-NEXT: vsll.vi v26, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2056,7 +2056,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, <8 x i32> %idxs @@ -2071,7 +2071,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2081,7 +2081,7 @@ ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext <8 x i32> %idxs to <8 x i64> @@ -2097,7 +2097,7 @@ ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2107,7 +2107,7 @@ ; RV64-NEXT: vzext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext <8 x i32> %idxs to <8 x i64> @@ -2122,7 +2122,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2131,7 +2131,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu ; RV64-NEXT: vsll.vi v28, v8, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, <8 x i64> %idxs @@ -2147,7 +2147,7 @@ ; RV32-NEXT: vsetivli zero, 16, e32, m4, ta, mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v28, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -2156,7 +2156,7 @@ ; RV64-NEXT: vsetivli zero, 16, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v16, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, <16 x i8> %idxs @@ -2173,7 +2173,7 @@ ; RV32-NEXT: vsetvli zero, a1, e32, m8, ta, mu ; RV32-NEXT: vsext.vf4 v16, v8 ; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v16, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -2188,12 +2188,12 @@ ; RV64-NEXT: vsetivli zero, 2, e8, mf4, ta, mu ; RV64-NEXT: vslidedown.vi v0, v0, 2 ; RV64-NEXT: vsetivli zero, 16, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v26, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v26, (a0), v16, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu ; RV64-NEXT: vmv1r.v v0, v25 -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: addi a0, zero, 32 ; RV64-NEXT: vsetvli zero, a0, e8, m2, ta, mu ; RV64-NEXT: vmv.v.i v8, 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll @@ -10,14 +10,14 @@ ; RV32-LABEL: mgather_nxv1i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf8, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf8, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1i8.nxv1p0i8( %ptrs, i32 1, %m, %passthru) @@ -30,14 +30,14 @@ ; RV32-LABEL: mgather_nxv2i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -48,7 +48,7 @@ ; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e16, mf2, ta, mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret @@ -56,7 +56,7 @@ ; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e16, mf2, ta, mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret @@ -69,7 +69,7 @@ ; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e16, mf2, ta, mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret @@ -77,7 +77,7 @@ ; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e16, mf2, ta, mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret @@ -90,7 +90,7 @@ ; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret @@ -98,7 +98,7 @@ ; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV64-NEXT: vsext.vf4 v8, v10 ; RV64-NEXT: ret @@ -111,7 +111,7 @@ ; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret @@ -119,7 +119,7 @@ ; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV64-NEXT: vzext.vf4 v8, v10 ; RV64-NEXT: ret @@ -132,7 +132,7 @@ ; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vsext.vf8 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -141,7 +141,7 @@ ; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vsext.vf8 v8, v10 ; RV64-NEXT: ret @@ -154,7 +154,7 @@ ; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vzext.vf8 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -163,7 +163,7 @@ ; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vzext.vf8 v8, v10 ; RV64-NEXT: ret @@ -178,14 +178,14 @@ ; RV32-LABEL: mgather_nxv4i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4i8.nxv4p0i8( %ptrs, i32 1, %m, %passthru) @@ -196,14 +196,14 @@ ; RV32-LABEL: mgather_truemask_nxv4i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, mf2, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, mf2, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 @@ -232,14 +232,14 @@ ; RV32-LABEL: mgather_nxv8i8: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8, m1, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8i8: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8i8.nxv8p0i8( %ptrs, i32 1, %m, %passthru) @@ -252,7 +252,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v9, (a0), v28, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; @@ -261,7 +261,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v9, (a0), v16, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, %idxs @@ -275,14 +275,14 @@ ; RV32-LABEL: mgather_nxv1i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1i16.nxv1p0i16( %ptrs, i32 2, %m, %passthru) @@ -295,14 +295,14 @@ ; RV32-LABEL: mgather_nxv2i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i16.nxv2p0i16( %ptrs, i32 2, %m, %passthru) @@ -313,7 +313,7 @@ ; RV32-LABEL: mgather_nxv2i16_sextload_nxv2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret @@ -321,7 +321,7 @@ ; RV64-LABEL: mgather_nxv2i16_sextload_nxv2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret @@ -334,7 +334,7 @@ ; RV32-LABEL: mgather_nxv2i16_zextload_nxv2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret @@ -342,7 +342,7 @@ ; RV64-LABEL: mgather_nxv2i16_zextload_nxv2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret @@ -355,7 +355,7 @@ ; RV32-LABEL: mgather_nxv2i16_sextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -364,7 +364,7 @@ ; RV64-LABEL: mgather_nxv2i16_sextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vsext.vf4 v8, v10 ; RV64-NEXT: ret @@ -377,7 +377,7 @@ ; RV32-LABEL: mgather_nxv2i16_zextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vzext.vf4 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -386,7 +386,7 @@ ; RV64-LABEL: mgather_nxv2i16_zextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vzext.vf4 v8, v10 ; RV64-NEXT: ret @@ -401,14 +401,14 @@ ; RV32-LABEL: mgather_nxv4i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4i16.nxv4p0i16( %ptrs, i32 2, %m, %passthru) @@ -419,14 +419,14 @@ ; RV32-LABEL: mgather_truemask_nxv4i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m1, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m1, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 @@ -455,14 +455,14 @@ ; RV32-LABEL: mgather_nxv8i16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8i16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8i16.nxv8p0i16( %ptrs, i32 2, %m, %passthru) @@ -476,7 +476,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -486,7 +486,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, %idxs @@ -501,7 +501,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -511,7 +511,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -527,7 +527,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -537,7 +537,7 @@ ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -553,7 +553,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -563,7 +563,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, %idxs @@ -577,14 +577,14 @@ ; RV32-LABEL: mgather_nxv1i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1i32.nxv1p0i32( %ptrs, i32 4, %m, %passthru) @@ -597,14 +597,14 @@ ; RV32-LABEL: mgather_nxv2i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i32.nxv2p0i32( %ptrs, i32 4, %m, %passthru) @@ -615,7 +615,7 @@ ; RV32-LABEL: mgather_nxv2i32_sextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vsext.vf2 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -624,7 +624,7 @@ ; RV64-LABEL: mgather_nxv2i32_sextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret @@ -637,7 +637,7 @@ ; RV32-LABEL: mgather_nxv2i32_zextload_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV32-NEXT: vzext.vf2 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 @@ -646,7 +646,7 @@ ; RV64-LABEL: mgather_nxv2i32_zextload_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret @@ -661,14 +661,14 @@ ; RV32-LABEL: mgather_nxv4i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4i32.nxv4p0i32( %ptrs, i32 4, %m, %passthru) @@ -679,13 +679,13 @@ ; RV32-LABEL: mgather_truemask_nxv4i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m2, ta, mu -; RV32-NEXT: vloxei32.v v8, (zero), v8 +; RV32-NEXT: vluxei32.v v8, (zero), v8 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m2, ta, mu -; RV64-NEXT: vloxei64.v v26, (zero), v8 +; RV64-NEXT: vluxei64.v v26, (zero), v8 ; RV64-NEXT: vmv2r.v v8, v26 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 @@ -714,14 +714,14 @@ ; RV32-LABEL: mgather_nxv8i32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8i32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8i32.nxv8p0i32( %ptrs, i32 4, %m, %passthru) @@ -735,7 +735,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -745,7 +745,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -760,7 +760,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -770,7 +770,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -786,7 +786,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -796,7 +796,7 @@ ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -812,7 +812,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -822,7 +822,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -837,7 +837,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -847,7 +847,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -863,7 +863,7 @@ ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -873,7 +873,7 @@ ; RV64-NEXT: vzext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -888,7 +888,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -898,7 +898,7 @@ ; RV64-NEXT: vsext.vf2 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -912,14 +912,14 @@ ; RV32-LABEL: mgather_nxv1i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1i64.nxv1p0i64( %ptrs, i32 8, %m, %passthru) @@ -932,14 +932,14 @@ ; RV32-LABEL: mgather_nxv2i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i64.nxv2p0i64( %ptrs, i32 8, %m, %passthru) @@ -952,14 +952,14 @@ ; RV32-LABEL: mgather_nxv4i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4i64.nxv4p0i64( %ptrs, i32 8, %m, %passthru) @@ -970,14 +970,14 @@ ; RV32-LABEL: mgather_truemask_nxv4i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m4, ta, mu -; RV32-NEXT: vloxei32.v v28, (zero), v8 +; RV32-NEXT: vluxei32.v v28, (zero), v8 ; RV32-NEXT: vmv4r.v v8, v28 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m4, ta, mu -; RV64-NEXT: vloxei64.v v8, (zero), v8 +; RV64-NEXT: vluxei64.v v8, (zero), v8 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 %mtrue = shufflevector %mhead, undef, zeroinitializer @@ -1005,14 +1005,14 @@ ; RV32-LABEL: mgather_nxv8i64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8i64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8i64.nxv8p0i64( %ptrs, i32 8, %m, %passthru) @@ -1026,7 +1026,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1036,7 +1036,7 @@ ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, %idxs @@ -1051,7 +1051,7 @@ ; RV32-NEXT: vsext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1061,7 +1061,7 @@ ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1077,7 +1077,7 @@ ; RV32-NEXT: vzext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1087,7 +1087,7 @@ ; RV64-NEXT: vzext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1103,7 +1103,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1113,7 +1113,7 @@ ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, %idxs @@ -1128,7 +1128,7 @@ ; RV32-NEXT: vsext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1138,7 +1138,7 @@ ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1154,7 +1154,7 @@ ; RV32-NEXT: vzext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1164,7 +1164,7 @@ ; RV64-NEXT: vzext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1179,7 +1179,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1189,7 +1189,7 @@ ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, %idxs @@ -1204,7 +1204,7 @@ ; RV32-NEXT: vsext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1214,7 +1214,7 @@ ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1230,7 +1230,7 @@ ; RV32-NEXT: vzext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1240,7 +1240,7 @@ ; RV64-NEXT: vzext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1255,7 +1255,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV32-NEXT: vsll.vi v8, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1264,7 +1264,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsll.vi v8, v8, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i64, i64* %base, %idxs @@ -1282,13 +1282,13 @@ ; RV32: # %bb.0: ; RV32-NEXT: vl8re64.v v24, (a0) ; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t ; RV32-NEXT: csrr a0, vlenb ; RV32-NEXT: srli a0, a0, 3 ; RV32-NEXT: vsetvli a2, zero, e8, mf4, ta, mu ; RV32-NEXT: vslidedown.vx v0, v0, a0 ; RV32-NEXT: vsetvli a2, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v24, (zero), v12, v0.t +; RV32-NEXT: vluxei32.v v24, (zero), v12, v0.t ; RV32-NEXT: slli a0, a0, 6 ; RV32-NEXT: add a0, a1, a0 ; RV32-NEXT: vs8r.v v24, (a0) @@ -1308,7 +1308,7 @@ ; RV64-NEXT: vmv8r.v v16, v8 ; RV64-NEXT: vl8re64.v v8, (a1) ; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v24, (zero), v16, v0.t +; RV64-NEXT: vluxei64.v v24, (zero), v16, v0.t ; RV64-NEXT: csrr a0, vlenb ; RV64-NEXT: srli a0, a0, 3 ; RV64-NEXT: vsetvli a1, zero, e8, mf4, ta, mu @@ -1316,7 +1316,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, tu, mu ; RV64-NEXT: addi a1, sp, 16 ; RV64-NEXT: vl8re8.v v16, (a1) # Unknown-size Folded Reload -; RV64-NEXT: vloxei64.v v8, (zero), v16, v0.t +; RV64-NEXT: vluxei64.v v8, (zero), v16, v0.t ; RV64-NEXT: slli a0, a0, 6 ; RV64-NEXT: add a0, a2, a0 ; RV64-NEXT: vs8r.v v8, (a0) @@ -1344,14 +1344,14 @@ ; RV32-LABEL: mgather_nxv1f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf4, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf4, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1f16.nxv1p0f16( %ptrs, i32 2, %m, %passthru) @@ -1364,14 +1364,14 @@ ; RV32-LABEL: mgather_nxv2f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2f16.nxv2p0f16( %ptrs, i32 2, %m, %passthru) @@ -1384,14 +1384,14 @@ ; RV32-LABEL: mgather_nxv4f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m1, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m1, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4f16.nxv4p0f16( %ptrs, i32 2, %m, %passthru) @@ -1402,14 +1402,14 @@ ; RV32-LABEL: mgather_truemask_nxv4f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m1, ta, mu -; RV32-NEXT: vloxei32.v v25, (zero), v8 +; RV32-NEXT: vluxei32.v v25, (zero), v8 ; RV32-NEXT: vmv1r.v v8, v25 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m1, ta, mu -; RV64-NEXT: vloxei64.v v25, (zero), v8 +; RV64-NEXT: vluxei64.v v25, (zero), v8 ; RV64-NEXT: vmv1r.v v8, v25 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 @@ -1438,14 +1438,14 @@ ; RV32-LABEL: mgather_nxv8f16: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8f16: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8f16.nxv8p0f16( %ptrs, i32 2, %m, %passthru) @@ -1459,7 +1459,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1469,7 +1469,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, %idxs @@ -1484,7 +1484,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1494,7 +1494,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1510,7 +1510,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1520,7 +1520,7 @@ ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1536,7 +1536,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 ; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -1546,7 +1546,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 ; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, %idxs @@ -1560,14 +1560,14 @@ ; RV32-LABEL: mgather_nxv1f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, mf2, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, mf2, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1f32.nxv1p0f32( %ptrs, i32 4, %m, %passthru) @@ -1580,14 +1580,14 @@ ; RV32-LABEL: mgather_nxv2f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2f32.nxv2p0f32( %ptrs, i32 4, %m, %passthru) @@ -1600,14 +1600,14 @@ ; RV32-LABEL: mgather_nxv4f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m2, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4f32.nxv4p0f32( %ptrs, i32 4, %m, %passthru) @@ -1618,13 +1618,13 @@ ; RV32-LABEL: mgather_truemask_nxv4f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m2, ta, mu -; RV32-NEXT: vloxei32.v v8, (zero), v8 +; RV32-NEXT: vluxei32.v v8, (zero), v8 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m2, ta, mu -; RV64-NEXT: vloxei64.v v26, (zero), v8 +; RV64-NEXT: vluxei64.v v26, (zero), v8 ; RV64-NEXT: vmv2r.v v8, v26 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 @@ -1653,14 +1653,14 @@ ; RV32-LABEL: mgather_nxv8f32: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8f32: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8f32.nxv8p0f32( %ptrs, i32 4, %m, %passthru) @@ -1674,7 +1674,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1684,7 +1684,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1699,7 +1699,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1709,7 +1709,7 @@ ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1725,7 +1725,7 @@ ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1735,7 +1735,7 @@ ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1751,7 +1751,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1761,7 +1761,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1776,7 +1776,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1786,7 +1786,7 @@ ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1802,7 +1802,7 @@ ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1812,7 +1812,7 @@ ; RV64-NEXT: vzext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1827,7 +1827,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 2 ; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -1837,7 +1837,7 @@ ; RV64-NEXT: vsext.vf2 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 ; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1851,14 +1851,14 @@ ; RV32-LABEL: mgather_nxv1f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m1, tu, mu -; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv1f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m1, tu, mu -; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv1f64.nxv1p0f64( %ptrs, i32 8, %m, %passthru) @@ -1871,14 +1871,14 @@ ; RV32-LABEL: mgather_nxv2f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv2f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m2, tu, mu -; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2f64.nxv2p0f64( %ptrs, i32 8, %m, %passthru) @@ -1891,14 +1891,14 @@ ; RV32-LABEL: mgather_nxv4f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m4, tu, mu -; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv4f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m4, tu, mu -; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv4f64.nxv4p0f64( %ptrs, i32 8, %m, %passthru) @@ -1909,14 +1909,14 @@ ; RV32-LABEL: mgather_truemask_nxv4f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m4, ta, mu -; RV32-NEXT: vloxei32.v v28, (zero), v8 +; RV32-NEXT: vluxei32.v v28, (zero), v8 ; RV32-NEXT: vmv4r.v v8, v28 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_truemask_nxv4f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m4, ta, mu -; RV64-NEXT: vloxei64.v v8, (zero), v8 +; RV64-NEXT: vluxei64.v v8, (zero), v8 ; RV64-NEXT: ret %mhead = insertelement undef, i1 1, i32 0 %mtrue = shufflevector %mhead, undef, zeroinitializer @@ -1944,14 +1944,14 @@ ; RV32-LABEL: mgather_nxv8f64: ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t +; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; ; RV64-LABEL: mgather_nxv8f64: ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv8f64.nxv8p0f64( %ptrs, i32 8, %m, %passthru) @@ -1965,7 +1965,7 @@ ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -1975,7 +1975,7 @@ ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, %idxs @@ -1990,7 +1990,7 @@ ; RV32-NEXT: vsext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2000,7 +2000,7 @@ ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -2016,7 +2016,7 @@ ; RV32-NEXT: vzext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2026,7 +2026,7 @@ ; RV64-NEXT: vzext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -2042,7 +2042,7 @@ ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2052,7 +2052,7 @@ ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, %idxs @@ -2067,7 +2067,7 @@ ; RV32-NEXT: vsext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2077,7 +2077,7 @@ ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -2093,7 +2093,7 @@ ; RV32-NEXT: vzext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2103,7 +2103,7 @@ ; RV64-NEXT: vzext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -2118,7 +2118,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu ; RV32-NEXT: vsll.vi v28, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t +; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2128,7 +2128,7 @@ ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, %idxs @@ -2143,7 +2143,7 @@ ; RV32-NEXT: vsext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2153,7 +2153,7 @@ ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -2169,7 +2169,7 @@ ; RV32-NEXT: vzext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2179,7 +2179,7 @@ ; RV64-NEXT: vzext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -2194,7 +2194,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV32-NEXT: vsll.vi v8, v8, 3 ; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret ; @@ -2203,7 +2203,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsll.vi v8, v8, 3 ; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu -; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t +; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret %ptrs = getelementptr inbounds double, double* %base, %idxs @@ -2219,7 +2219,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu ; RV32-NEXT: vsext.vf4 v16, v8 ; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu -; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t +; RV32-NEXT: vluxei32.v v10, (a0), v16, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret ; @@ -2228,7 +2228,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: csrr a1, vlenb ; RV64-NEXT: srli a1, a1, 3 ; RV64-NEXT: vsetvli a2, zero, e8, mf4, ta, mu @@ -2236,7 +2236,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v9 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v11, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v11, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, %idxs @@ -2252,7 +2252,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu ; RV32-NEXT: vsext.vf4 v16, v8 ; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu -; RV32-NEXT: vloxei32.v v12, (a0), v16, v0.t +; RV32-NEXT: vluxei32.v v12, (a0), v16, v0.t ; RV32-NEXT: csrr a1, vlenb ; RV32-NEXT: srli a1, a1, 2 ; RV32-NEXT: vsetvli a2, zero, e8, mf2, ta, mu @@ -2260,7 +2260,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu ; RV32-NEXT: vsext.vf4 v16, v10 ; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu -; RV32-NEXT: vloxei32.v v14, (a0), v16, v0.t +; RV32-NEXT: vluxei32.v v14, (a0), v16, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret ; @@ -2270,7 +2270,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: csrr a1, vlenb ; RV64-NEXT: srli a1, a1, 3 ; RV64-NEXT: vsetvli a2, zero, e8, mf4, ta, mu @@ -2278,7 +2278,7 @@ ; RV64-NEXT: vsetvli a2, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v9 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v13, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v13, (a0), v16, v0.t ; RV64-NEXT: slli a2, a1, 1 ; RV64-NEXT: vsetvli a3, zero, e8, mf2, ta, mu ; RV64-NEXT: vslidedown.vx v25, v25, a2 @@ -2287,12 +2287,12 @@ ; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v11 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu -; RV64-NEXT: vloxei64.v v15, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v15, (a0), v16, v0.t ; RV64-NEXT: vsetvli zero, zero, e64, m8, ta, mu ; RV64-NEXT: vsext.vf8 v16, v10 ; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu ; RV64-NEXT: vmv1r.v v0, v25 -; RV64-NEXT: vloxei64.v v14, (a0), v16, v0.t +; RV64-NEXT: vluxei64.v v14, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, %idxs