diff --git a/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.h b/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.h --- a/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.h +++ b/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.h @@ -327,6 +327,9 @@ return static_cast(VLMUL); } +// Decode VLMUL into 1,2,4,8 and fractional indicator. +std::pair decodeVLMUL(RISCVII::VLMUL VLMUL); + inline static unsigned decodeVSEW(unsigned VSEW) { assert(VSEW < 8 && "Unexpected VSEW value"); return 1 << (VSEW + 3); diff --git a/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.cpp b/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.cpp --- a/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.cpp +++ b/llvm/lib/Target/RISCV/MCTargetDesc/RISCVBaseInfo.cpp @@ -121,31 +121,35 @@ return VTypeI; } -void RISCVVType::printVType(unsigned VType, raw_ostream &OS) { - RISCVII::VLMUL VLMUL = getVLMUL(VType); - - unsigned Sew = getSEW(VType); - OS << "e" << Sew; - +std::pair RISCVVType::decodeVLMUL(RISCVII::VLMUL VLMUL) { switch (VLMUL) { case RISCVII::VLMUL::LMUL_RESERVED: llvm_unreachable("Unexpected LMUL value!"); case RISCVII::VLMUL::LMUL_1: case RISCVII::VLMUL::LMUL_2: case RISCVII::VLMUL::LMUL_4: - case RISCVII::VLMUL::LMUL_8: { - unsigned LMul = 1 << static_cast(VLMUL); - OS << ",m" << LMul; - break; - } + case RISCVII::VLMUL::LMUL_8: + return std::make_pair(1 << static_cast(VLMUL), false); case RISCVII::VLMUL::LMUL_F2: case RISCVII::VLMUL::LMUL_F4: - case RISCVII::VLMUL::LMUL_F8: { - unsigned LMul = 1 << (8 - static_cast(VLMUL)); - OS << ",mf" << LMul; - break; - } + case RISCVII::VLMUL::LMUL_F8: + return std::make_pair(1 << (8 - static_cast(VLMUL)), true); } +} + +void RISCVVType::printVType(unsigned VType, raw_ostream &OS) { + unsigned Sew = getSEW(VType); + OS << "e" << Sew; + + unsigned LMul; + bool Fractional; + std::tie(LMul, Fractional) = decodeVLMUL(getVLMUL(VType)); + + if (Fractional) + OS << ",mf"; + else + OS << ",m"; + OS << LMul; if (isTailAgnostic(VType)) OS << ",ta"; diff --git a/llvm/lib/Target/RISCV/RISCVInsertVSETVLI.cpp b/llvm/lib/Target/RISCV/RISCVInsertVSETVLI.cpp --- a/llvm/lib/Target/RISCV/RISCVInsertVSETVLI.cpp +++ b/llvm/lib/Target/RISCV/RISCVInsertVSETVLI.cpp @@ -120,6 +120,8 @@ } unsigned encodeVTYPE() const { + assert(isValid() && !isUnknown() && + "Can't encode VTYPE for uninitialized or unknown"); return RISCVVType::encodeVTYPE(VLMul, SEW, TailAgnostic, MaskAgnostic); } @@ -133,6 +135,30 @@ Other.MaskAgnostic); } + // Convert VLMUL to a fixed point value with 3 bits of fraction. + unsigned getSEWLMULRatio() const { + assert(isValid() && !isUnknown() && + "Can't use VTYPE for uninitialized or unknown"); + unsigned LMul; + bool Fractional; + std::tie(LMul, Fractional) = RISCVVType::decodeVLMUL(VLMul); + + // Convert LMul to a fixed point value with 3 fractional bits. + LMul = Fractional ? (8 / LMul) : (LMul * 8); + + assert(SEW >= 8 && "Unexpected SEW value"); + return (SEW * 8) / LMul; + } + + // Check if the VTYPE for these two VSETVLIInfos produce the same VLMAX. + bool hasSameVLMAX(const VSETVLIInfo &Other) const { + assert(isValid() && Other.isValid() && + "Can't compare invalid VSETVLIInfos"); + assert(!isUnknown() && !Other.isUnknown() && + "Can't compare VTYPE in unknown state"); + return getSEWLMULRatio() == Other.getSEWLMULRatio(); + } + bool isCompatible(const VSETVLIInfo &Other) const { assert(isValid() && Other.isValid() && "Can't compare invalid VSETVLIInfos"); @@ -260,7 +286,7 @@ private: bool needVSETVLI(const VSETVLIInfo &Require, const VSETVLIInfo &CurInfo); void insertVSETVLI(MachineBasicBlock &MBB, MachineInstr &MI, - const VSETVLIInfo &Info); + const VSETVLIInfo &Info, const VSETVLIInfo &PrevInfo); bool computeVLVTYPEChanges(const MachineBasicBlock &MBB); void computeIncomingVLVTYPE(const MachineBasicBlock &MBB); @@ -335,9 +361,22 @@ } void RISCVInsertVSETVLI::insertVSETVLI(MachineBasicBlock &MBB, MachineInstr &MI, - const VSETVLIInfo &Info) { + const VSETVLIInfo &Info, + const VSETVLIInfo &PrevInfo) { DebugLoc DL = MI.getDebugLoc(); + // Use X0, X0 form if the AVL is the same and the SEW+LMUL gives the same + // VLMAX. + if (PrevInfo.isValid() && !PrevInfo.isUnknown() && + Info.hasSameAVL(PrevInfo) && Info.hasSameVLMAX(PrevInfo)) { + BuildMI(MBB, MI, DL, TII->get(RISCV::PseudoVSETVLI)) + .addReg(RISCV::X0, RegState::Define | RegState::Dead) + .addReg(RISCV::X0, RegState::Kill) + .addImm(Info.encodeVTYPE()) + .addReg(RISCV::VL, RegState::Implicit); + return; + } + if (Info.hasAVLImm()) { BuildMI(MBB, MI, DL, TII->get(RISCV::PseudoVSETIVLI)) .addReg(RISCV::X0, RegState::Define | RegState::Dead) @@ -526,14 +565,14 @@ assert(BlockInfo[MBB.getNumber()].Pred.isValid() && "Expected a valid predecessor state."); if (needVSETVLI(NewInfo, BlockInfo[MBB.getNumber()].Pred)) { - insertVSETVLI(MBB, MI, NewInfo); + insertVSETVLI(MBB, MI, NewInfo, BlockInfo[MBB.getNumber()].Pred); CurInfo = NewInfo; } } else { // If this instruction isn't compatible with the previous VL/VTYPE // we need to insert a VSETVLI. if (needVSETVLI(NewInfo, CurInfo)) { - insertVSETVLI(MBB, MI, NewInfo); + insertVSETVLI(MBB, MI, NewInfo, CurInfo); CurInfo = NewInfo; } } diff --git a/llvm/test/CodeGen/RISCV/rvv/extload-truncstore.ll b/llvm/test/CodeGen/RISCV/rvv/extload-truncstore.ll --- a/llvm/test/CodeGen/RISCV/rvv/extload-truncstore.ll +++ b/llvm/test/CodeGen/RISCV/rvv/extload-truncstore.ll @@ -20,7 +20,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -33,7 +33,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -46,7 +46,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -59,7 +59,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -72,7 +72,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -85,7 +85,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -98,7 +98,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -111,7 +111,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -124,7 +124,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -137,7 +137,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -150,7 +150,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vsext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -163,7 +163,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vzext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -176,7 +176,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -189,7 +189,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -202,7 +202,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -215,7 +215,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -228,7 +228,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; CHECK-NEXT: vsext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -241,7 +241,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; CHECK-NEXT: vzext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -423,7 +423,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -436,7 +436,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -449,7 +449,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -462,7 +462,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -487,7 +487,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -500,7 +500,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -513,7 +513,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -526,7 +526,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -707,7 +707,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -733,7 +733,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -746,7 +746,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load , * %x @@ -759,7 +759,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -809,7 +809,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -859,7 +859,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vs1r.v v25, (a0) ; CHECK-NEXT: ret @@ -909,7 +909,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e16,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v28, 0 ; CHECK-NEXT: vs2r.v v26, (a0) ; CHECK-NEXT: ret @@ -935,9 +935,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vse8.v v25, (a0) ; CHECK-NEXT: ret @@ -951,7 +951,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -977,9 +977,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vse8.v v25, (a0) ; CHECK-NEXT: ret @@ -993,7 +993,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -1019,9 +1019,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -1035,7 +1035,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vs1r.v v25, (a0) ; CHECK-NEXT: ret @@ -1061,9 +1061,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v28, 0 -; CHECK-NEXT: vsetvli a1, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vs1r.v v25, (a0) ; CHECK-NEXT: ret @@ -1077,7 +1077,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v28, 0 ; CHECK-NEXT: vs2r.v v26, (a0) ; CHECK-NEXT: ret @@ -1116,7 +1116,7 @@ ; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v26 ; CHECK-NEXT: ret %y = load , * %x @@ -1142,7 +1142,7 @@ ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v26 ; CHECK-NEXT: ret %y = load , * %x @@ -1168,7 +1168,7 @@ ; CHECK-NEXT: vl1re16.v v25, (a0) ; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v26 ; CHECK-NEXT: ret %y = load , * %x @@ -1194,7 +1194,7 @@ ; CHECK-NEXT: vl2re16.v v26, (a0) ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v28 ; CHECK-NEXT: ret %y = load , * %x @@ -1327,7 +1327,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v25, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -1353,7 +1353,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m1,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v25, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -1379,7 +1379,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v26, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vs1r.v v25, (a0) ; CHECK-NEXT: ret @@ -1405,7 +1405,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vs2r.v v26, (a0) ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-calling-conv.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-calling-conv.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-calling-conv.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-calling-conv.ll @@ -1552,7 +1552,7 @@ ; LMULMAX1-NEXT: vse32.v v8, (a0) ; LMULMAX1-NEXT: addi a0, sp, 16 ; LMULMAX1-NEXT: vse32.v v8, (a0) -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 ; LMULMAX1-NEXT: vmerge.vim v25, v25, 1, v0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-extload-truncstore.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-extload-truncstore.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-extload-truncstore.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-extload-truncstore.ll @@ -9,7 +9,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle1.v v0, (a0) -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v8, v25, -1, v0 ; CHECK-NEXT: ret @@ -23,7 +23,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -36,7 +36,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -49,7 +49,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -62,7 +62,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -75,7 +75,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -88,7 +88,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf8 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i8>, <2 x i8>* %x @@ -101,7 +101,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -114,7 +114,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -127,7 +127,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -140,7 +140,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -164,7 +164,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf8 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -188,7 +188,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf8 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i8>, <4 x i8>* %x @@ -201,7 +201,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -214,7 +214,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -238,7 +238,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -262,7 +262,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -294,7 +294,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vsext.vf8 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -326,7 +326,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vzext.vf8 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i8>, <8 x i8>* %x @@ -350,7 +350,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <16 x i8>, <16 x i8>* %x @@ -374,7 +374,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <16 x i8>, <16 x i8>* %x @@ -406,7 +406,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; LMULMAX4-NEXT: vsext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <16 x i8>, <16 x i8>* %x @@ -438,7 +438,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu ; LMULMAX4-NEXT: vle8.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; LMULMAX4-NEXT: vzext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <16 x i8>, <16 x i8>* %x @@ -586,7 +586,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i16>, <2 x i16>* %x @@ -599,7 +599,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i16>, <2 x i16>* %x @@ -612,7 +612,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i16>, <2 x i16>* %x @@ -625,7 +625,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i16>, <2 x i16>* %x @@ -650,7 +650,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i16>, <4 x i16>* %x @@ -663,7 +663,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <4 x i16>, <4 x i16>* %x @@ -687,7 +687,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i16>, <4 x i16>* %x @@ -711,7 +711,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i16>, <4 x i16>* %x @@ -747,7 +747,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i16>, <8 x i16>* %x @@ -771,7 +771,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i16>, <8 x i16>* %x @@ -803,7 +803,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vsext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i16>, <8 x i16>* %x @@ -835,7 +835,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX4-NEXT: vle16.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vzext.vf4 v8, v25 ; LMULMAX4-NEXT: ret %y = load <8 x i16>, <8 x i16>* %x @@ -856,7 +856,7 @@ ; LMULMAX1-NEXT: vnsrl.wi v25, v9, 0 ; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 8 -; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; LMULMAX1-NEXT: vse8.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -894,7 +894,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; LMULMAX4-NEXT: vle16.v v26, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; LMULMAX4-NEXT: vsext.vf2 v8, v26 ; LMULMAX4-NEXT: ret %y = load <16 x i16>, <16 x i16>* %x @@ -925,7 +925,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; LMULMAX4-NEXT: vle16.v v26, (a0) -; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; LMULMAX4-NEXT: vzext.vf2 v8, v26 ; LMULMAX4-NEXT: ret %y = load <16 x i16>, <16 x i16>* %x @@ -1038,7 +1038,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -1064,7 +1064,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i32>, <2 x i32>* %x @@ -1077,7 +1077,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf2 v8, v25 ; CHECK-NEXT: ret %y = load <2 x i32>, <2 x i32>* %x @@ -1090,7 +1090,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a0) ; CHECK-NEXT: ret @@ -1127,7 +1127,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX4-NEXT: vle32.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vsext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i32>, <4 x i32>* %x @@ -1151,7 +1151,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX4-NEXT: vle32.v v25, (a0) -; LMULMAX4-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; LMULMAX4-NEXT: vzext.vf2 v8, v25 ; LMULMAX4-NEXT: ret %y = load <4 x i32>, <4 x i32>* %x @@ -1164,7 +1164,7 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1172,11 +1172,11 @@ ; LMULMAX1-NEXT: vslideup.vi v25, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v27, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX1-NEXT: vse8.v v25, (a0) ; LMULMAX1-NEXT: ret ; @@ -1184,7 +1184,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX4-NEXT: vse8.v v26, (a0) ; LMULMAX4-NEXT: ret @@ -1206,7 +1206,7 @@ ; LMULMAX1-NEXT: vnsrl.wi v25, v9, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX1-NEXT: vse16.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -1244,7 +1244,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vle32.v v26, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vsext.vf2 v8, v26 ; LMULMAX4-NEXT: ret %y = load <8 x i32>, <8 x i32>* %x @@ -1275,7 +1275,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vle32.v v26, (a0) -; LMULMAX4-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX4-NEXT: vzext.vf2 v8, v26 ; LMULMAX4-NEXT: ret %y = load <8 x i32>, <8 x i32>* %x @@ -1288,7 +1288,7 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1297,7 +1297,7 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v28, 4 @@ -1307,19 +1307,19 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v10, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v11, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v28, 4 ; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 8 -; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; LMULMAX1-NEXT: vse8.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -1327,7 +1327,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v26, 0 ; LMULMAX4-NEXT: vse8.v v25, (a0) ; LMULMAX4-NEXT: ret @@ -1359,7 +1359,7 @@ ; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 4 ; LMULMAX1-NEXT: addi a1, a0, 16 -; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX1-NEXT: vse16.v v26, (a1) ; LMULMAX1-NEXT: vse16.v v27, (a0) ; LMULMAX1-NEXT: ret @@ -1476,9 +1476,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vse8.v v25, (a0) ; CHECK-NEXT: ret @@ -1492,7 +1492,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -1518,9 +1518,9 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v26, 0 @@ -1528,13 +1528,13 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vse8.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -1542,9 +1542,9 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v25, 0 -; LMULMAX4-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v26, 0 ; LMULMAX4-NEXT: vse8.v v25, (a0) ; LMULMAX4-NEXT: ret @@ -1558,7 +1558,7 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1566,11 +1566,11 @@ ; LMULMAX1-NEXT: vslideup.vi v25, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v27, 2 -; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; LMULMAX1-NEXT: vse16.v v25, (a0) ; LMULMAX1-NEXT: ret ; @@ -1578,7 +1578,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX4-NEXT: vse16.v v26, (a0) ; LMULMAX4-NEXT: ret @@ -1600,7 +1600,7 @@ ; LMULMAX1-NEXT: vnsrl.wi v25, v9, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -1620,9 +1620,9 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v26, 0 @@ -1631,9 +1631,9 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v25, 2 @@ -1643,23 +1643,23 @@ ; LMULMAX1-NEXT: vslideup.vi v25, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v10, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v11, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v27, 2 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v26, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX1-NEXT: vse8.v v25, (a0) ; LMULMAX1-NEXT: ret ; @@ -1667,9 +1667,9 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX4-NEXT: vse8.v v26, (a0) ; LMULMAX4-NEXT: ret @@ -1683,7 +1683,7 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1692,7 +1692,7 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v28, 2 @@ -1702,19 +1702,19 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v10, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v11, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v28, 2 ; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX1-NEXT: vse16.v v26, (a0) ; LMULMAX1-NEXT: ret ; @@ -1722,7 +1722,7 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v26, 0 ; LMULMAX4-NEXT: vse16.v v25, (a0) ; LMULMAX4-NEXT: ret @@ -1754,7 +1754,7 @@ ; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 ; LMULMAX1-NEXT: addi a1, a0, 16 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v26, (a1) ; LMULMAX1-NEXT: vse32.v v27, (a0) ; LMULMAX1-NEXT: ret @@ -1775,9 +1775,9 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1786,9 +1786,9 @@ ; LMULMAX1-NEXT: vslideup.vi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v26, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v26, 2 @@ -1799,18 +1799,18 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v10, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vmv1r.v v29, v25 ; LMULMAX1-NEXT: vslideup.vi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v11, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v30, v28, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v30, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v29, v28, 2 @@ -1822,18 +1822,18 @@ ; LMULMAX1-NEXT: vslideup.vi v28, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v12, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vmv1r.v v29, v25 ; LMULMAX1-NEXT: vslideup.vi v29, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v13, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v30, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v30, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v29, v27, 2 @@ -1841,17 +1841,17 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v14, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v15, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v27, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v27, 2 @@ -1859,7 +1859,7 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v25, 4 ; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v26, 8 -; LMULMAX1-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; LMULMAX1-NEXT: vse8.v v28, (a0) ; LMULMAX1-NEXT: ret ; @@ -1867,9 +1867,9 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu ; LMULMAX4-NEXT: vmv.v.i v25, 0 @@ -1877,13 +1877,13 @@ ; LMULMAX4-NEXT: vslideup.vi v25, v26, 0 ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v12, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v28, v26, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v28, 0 ; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,tu,mu ; LMULMAX4-NEXT: vslideup.vi v25, v26, 8 -; LMULMAX4-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; LMULMAX4-NEXT: vse8.v v25, (a0) ; LMULMAX4-NEXT: ret %y = trunc <16 x i64> %x to <16 x i8> @@ -1896,7 +1896,7 @@ ; LMULMAX1: # %bb.0: ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v8, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v25, 0 @@ -1905,7 +1905,7 @@ ; LMULMAX1-NEXT: vslideup.vi v28, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v9, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v27, 2 @@ -1916,14 +1916,14 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v10, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf2,tu,mu ; LMULMAX1-NEXT: vmv1r.v v28, v25 ; LMULMAX1-NEXT: vslideup.vi v28, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v11, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v30, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v30, 2 @@ -1931,14 +1931,14 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v28, 4 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v12, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf2,tu,mu ; LMULMAX1-NEXT: vmv1r.v v28, v25 ; LMULMAX1-NEXT: vslideup.vi v28, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v13, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v30, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v30, 2 @@ -1946,20 +1946,20 @@ ; LMULMAX1-NEXT: vslideup.vi v26, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v14, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v15, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v25, v29, 2 ; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 4 ; LMULMAX1-NEXT: addi a1, a0, 16 -; LMULMAX1-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX1-NEXT: vse16.v v26, (a1) ; LMULMAX1-NEXT: vse16.v v27, (a0) ; LMULMAX1-NEXT: ret @@ -1968,11 +1968,11 @@ ; LMULMAX4: # %bb.0: ; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v12, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v28, v26, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v26, v8, 0 -; LMULMAX4-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX4-NEXT: vnsrl.wi v30, v26, 0 ; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; LMULMAX4-NEXT: vmv.v.i v26, 0 @@ -1980,7 +1980,7 @@ ; LMULMAX4-NEXT: vslideup.vi v26, v30, 0 ; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,tu,mu ; LMULMAX4-NEXT: vslideup.vi v26, v28, 8 -; LMULMAX4-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; LMULMAX4-NEXT: vse16.v v26, (a0) ; LMULMAX4-NEXT: ret %y = trunc <16 x i64> %x to <16 x i16> @@ -2029,7 +2029,7 @@ ; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 ; LMULMAX1-NEXT: addi a1, a0, 48 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v26, (a1) ; LMULMAX1-NEXT: addi a1, a0, 32 ; LMULMAX1-NEXT: vse32.v v29, (a1) @@ -2049,7 +2049,7 @@ ; LMULMAX4-NEXT: vslideup.vi v8, v12, 0 ; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,tu,mu ; LMULMAX4-NEXT: vslideup.vi v8, v28, 8 -; LMULMAX4-NEXT: vsetivli zero, 16, e32,m4,ta,mu +; LMULMAX4-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; LMULMAX4-NEXT: vse32.v v8, (a0) ; LMULMAX4-NEXT: ret %y = trunc <16 x i64> %x to <16 x i32> @@ -2075,7 +2075,7 @@ ; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v26 ; CHECK-NEXT: ret %y = load , * %x @@ -2101,7 +2101,7 @@ ; CHECK-NEXT: vl1re16.v v25, (a0) ; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v26 ; CHECK-NEXT: ret %y = load , * %x @@ -2127,7 +2127,7 @@ ; CHECK-NEXT: vl2re16.v v26, (a0) ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v28 ; CHECK-NEXT: ret %y = load , * %x @@ -2153,11 +2153,11 @@ ; CHECK-NEXT: vl4re16.v v28, (a0) ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v8, v16 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v24, v30 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v24 ; CHECK-NEXT: ret %y = load , * %x @@ -2267,7 +2267,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m1,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v25, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vse16.v v26, (a0) ; CHECK-NEXT: ret @@ -2293,7 +2293,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v26, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vs1r.v v25, (a0) ; CHECK-NEXT: ret @@ -2319,7 +2319,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vs2r.v v26, (a0) ; CHECK-NEXT: ret @@ -2345,11 +2345,11 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v8 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v8, v28 -; CHECK-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v16 -; CHECK-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v10, v28 ; CHECK-NEXT: vs4r.v v8, (a0) ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-buildvec.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-buildvec.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-buildvec.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-buildvec.ll @@ -66,9 +66,9 @@ ; LMULMAX2-NEXT: addi a0, a0, %lo(.LCPI1_0) ; LMULMAX2-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX2-NEXT: vle32.v v27, (a0) -; LMULMAX2-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; LMULMAX2-NEXT: vrgather.vv v26, v9, v27, v0.t -; LMULMAX2-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX2-NEXT: vrgather.vv v27, v10, v25 ; LMULMAX2-NEXT: addi a0, zero, 8 ; LMULMAX2-NEXT: vsetivli zero, 1, e8,mf8,ta,mu @@ -77,7 +77,7 @@ ; LMULMAX2-NEXT: addi a0, a0, %lo(.LCPI1_1) ; LMULMAX2-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX2-NEXT: vle32.v v25, (a0) -; LMULMAX2-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; LMULMAX2-NEXT: vrgather.vv v27, v11, v25, v0.t ; LMULMAX2-NEXT: addi a0, zero, 3 ; LMULMAX2-NEXT: vsetivli zero, 1, e8,mf8,ta,mu diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-conv.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-conv.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-conv.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-conv.ll @@ -10,7 +10,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vse32.v v26, (a1) ; CHECK-NEXT: ret %a = load <2 x half>, <2 x half>* %x @@ -25,9 +25,9 @@ ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v26 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vse64.v v25, (a1) ; CHECK-NEXT: ret %a = load <2 x half>, <2 x half>* %x @@ -42,7 +42,7 @@ ; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX8-NEXT: vle16.v v25, (a0) ; LMULMAX8-NEXT: vfwcvt.f.f.v v26, v25 -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vse32.v v26, (a1) ; LMULMAX8-NEXT: ret ; @@ -56,7 +56,7 @@ ; LMULMAX1-NEXT: vfwcvt.f.f.v v27, v26 ; LMULMAX1-NEXT: vfwcvt.f.f.v v26, v25 ; LMULMAX1-NEXT: addi a0, a1, 16 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v27, (a0) ; LMULMAX1-NEXT: vse32.v v26, (a1) ; LMULMAX1-NEXT: ret @@ -72,9 +72,9 @@ ; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX8-NEXT: vle16.v v25, (a0) ; LMULMAX8-NEXT: vfwcvt.f.f.v v26, v25 -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfwcvt.f.f.v v28, v26 -; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX8-NEXT: vse64.v v28, (a1) ; LMULMAX8-NEXT: ret ; @@ -86,7 +86,7 @@ ; LMULMAX1-NEXT: vslidedown.vi v26, v25, 2 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v27, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v26, v27 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,m1,ta,mu ; LMULMAX1-NEXT: vslidedown.vi v27, v25, 4 @@ -94,18 +94,18 @@ ; LMULMAX1-NEXT: vslidedown.vi v28, v27, 2 ; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v29, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v28, v29 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v27, v29 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v29, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfwcvt.f.f.v v25, v29 ; LMULMAX1-NEXT: addi a0, a1, 32 -; LMULMAX1-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; LMULMAX1-NEXT: vse64.v v27, (a0) ; LMULMAX1-NEXT: vse64.v v25, (a1) ; LMULMAX1-NEXT: addi a0, a1, 48 @@ -124,7 +124,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vse16.v v26, (a1) ; CHECK-NEXT: ret @@ -139,9 +139,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vse16.v v25, (a1) ; CHECK-NEXT: ret @@ -156,7 +156,7 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX8-NEXT: vle32.v v26, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX8-NEXT: vse16.v v25, (a1) ; LMULMAX8-NEXT: ret @@ -169,7 +169,7 @@ ; LMULMAX1-NEXT: addi a2, a0, 16 ; LMULMAX1-NEXT: vle32.v v25, (a2) ; LMULMAX1-NEXT: vle32.v v26, (a0) -; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v27, v25 ; LMULMAX1-NEXT: addi a0, sp, 8 ; LMULMAX1-NEXT: vse16.v v27, (a0) @@ -191,9 +191,9 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; LMULMAX8-NEXT: vle64.v v28, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfncvt.rod.f.f.w v26, v28 -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX8-NEXT: vse16.v v25, (a1) ; LMULMAX8-NEXT: ret @@ -210,21 +210,21 @@ ; LMULMAX1-NEXT: vle64.v v27, (a2) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle64.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rod.f.f.w v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v27, v29 ; LMULMAX1-NEXT: addi a0, sp, 12 ; LMULMAX1-NEXT: vse16.v v27, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rod.f.f.w v27, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v28, v27 ; LMULMAX1-NEXT: addi a0, sp, 4 ; LMULMAX1-NEXT: vse16.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rod.f.f.w v27, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v26, v27 ; LMULMAX1-NEXT: addi a0, sp, 8 ; LMULMAX1-NEXT: vse16.v v26, (a0) @@ -235,7 +235,7 @@ ; LMULMAX1-NEXT: vse16.v v26, (a0) ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rod.f.f.w v26, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX1-NEXT: vse16.v v25, (sp) ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-setcc.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-setcc.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-setcc.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-setcc.ll @@ -9,7 +9,7 @@ ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vle16.v v26, (a1) ; CHECK-NEXT: vmfeq.vv v27, v25, v26 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v27, (a2) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -26,7 +26,7 @@ ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vle16.v v26, (a1) ; CHECK-NEXT: vmfeq.vv v27, v25, v26 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v27, (a2) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -43,7 +43,7 @@ ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vle32.v v26, (a1) ; CHECK-NEXT: vmfne.vv v0, v25, v26 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -68,7 +68,7 @@ ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vle32.v v26, (a1) ; CHECK-NEXT: vmfne.vv v0, v25, v26 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -93,7 +93,7 @@ ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vle64.v v26, (a1) ; CHECK-NEXT: vmflt.vv v0, v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -118,7 +118,7 @@ ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vle64.v v26, (a1) ; CHECK-NEXT: vmflt.vv v0, v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -143,7 +143,7 @@ ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vle16.v v28, (a1) ; CHECK-NEXT: vmflt.vv v25, v26, v28 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -160,7 +160,7 @@ ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vle16.v v28, (a1) ; CHECK-NEXT: vmflt.vv v25, v26, v28 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -177,7 +177,7 @@ ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vle32.v v28, (a1) ; CHECK-NEXT: vmfle.vv v25, v28, v26 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -194,7 +194,7 @@ ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vle32.v v28, (a1) ; CHECK-NEXT: vmfle.vv v25, v28, v26 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -211,7 +211,7 @@ ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vle64.v v28, (a1) ; CHECK-NEXT: vmfle.vv v0, v26, v28 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -236,7 +236,7 @@ ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vle64.v v28, (a1) ; CHECK-NEXT: vmfle.vv v0, v26, v28 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -262,7 +262,7 @@ ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vle16.v v8, (a1) ; CHECK-NEXT: vmflt.vv v25, v8, v28 -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -281,7 +281,7 @@ ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vle16.v v8, (a1) ; CHECK-NEXT: vmfle.vv v25, v28, v8 -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <32 x half>, <32 x half>* %x @@ -298,7 +298,7 @@ ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vle32.v v8, (a1) ; CHECK-NEXT: vmflt.vv v25, v28, v8 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -316,7 +316,7 @@ ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vle32.v v8, (a1) ; CHECK-NEXT: vmfle.vv v25, v8, v28 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <16 x float>, <16 x float>* %x @@ -333,7 +333,7 @@ ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vle64.v v8, (a1) ; CHECK-NEXT: vmfle.vv v25, v8, v28 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -351,7 +351,7 @@ ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vle64.v v8, (a1) ; CHECK-NEXT: vmflt.vv v25, v28, v8 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <8 x double>, <8 x double>* %x @@ -369,7 +369,7 @@ ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vle16.v v16, (a1) ; CHECK-NEXT: vmfle.vv v25, v8, v16 -; CHECK-NEXT: vsetvli zero, a3, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -388,7 +388,7 @@ ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vle16.v v16, (a1) ; CHECK-NEXT: vmflt.vv v25, v16, v8 -; CHECK-NEXT: vsetvli zero, a3, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <64 x half>, <64 x half>* %x @@ -407,7 +407,7 @@ ; CHECK-NEXT: vle32.v v16, (a1) ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -426,7 +426,7 @@ ; CHECK-NEXT: vle32.v v8, (a0) ; CHECK-NEXT: vle32.v v16, (a1) ; CHECK-NEXT: vmfeq.vv v25, v8, v16 -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <32 x float>, <32 x float>* %x @@ -444,7 +444,7 @@ ; CHECK-NEXT: vle64.v v16, (a1) ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret @@ -462,7 +462,7 @@ ; CHECK-NEXT: vle64.v v8, (a0) ; CHECK-NEXT: vle64.v v16, (a1) ; CHECK-NEXT: vmfne.vv v25, v8, v16 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a2) ; CHECK-NEXT: ret %a = load <16 x double>, <16 x double>* %x @@ -480,7 +480,7 @@ ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmfeq.vv v27, v25, v25 ; CHECK-NEXT: vmfeq.vv v25, v26, v26 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v27 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 @@ -507,7 +507,7 @@ ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmfne.vv v27, v25, v25 ; CHECK-NEXT: vmfne.vv v25, v26, v26 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v27 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 @@ -532,7 +532,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vmfeq.vf v26, v25, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v26, (a1) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -549,7 +549,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vmfeq.vf v26, v25, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v26, (a1) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -566,7 +566,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vmfne.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -591,7 +591,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vmfne.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -616,7 +616,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vmfgt.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -641,7 +641,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vmfgt.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -666,7 +666,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmflt.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -683,7 +683,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmflt.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -700,7 +700,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vmfge.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -717,7 +717,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vmfge.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -734,7 +734,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vmfle.vf v0, v26, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -759,7 +759,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vmfle.vf v0, v26, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -785,7 +785,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vmfgt.vf v25, v28, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -804,7 +804,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vmfle.vf v25, v28, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <32 x half>, <32 x half>* %x @@ -821,7 +821,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vmflt.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -839,7 +839,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vmfge.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x float>, <16 x float>* %x @@ -856,7 +856,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vmfge.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -874,7 +874,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vmflt.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x double>, <8 x double>* %x @@ -892,7 +892,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m8,ta,mu ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -911,7 +911,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m8,ta,mu ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <64 x half>, <64 x half>* %x @@ -930,7 +930,7 @@ ; CHECK-NEXT: vle32.v v8, (a0) ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -949,7 +949,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m8,ta,mu ; CHECK-NEXT: vle32.v v8, (a0) ; CHECK-NEXT: vmfeq.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <32 x float>, <32 x float>* %x @@ -967,7 +967,7 @@ ; CHECK-NEXT: vle64.v v8, (a0) ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -985,7 +985,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e64,m8,ta,mu ; CHECK-NEXT: vle64.v v8, (a0) ; CHECK-NEXT: vmfne.vf v25, v8, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x double>, <16 x double>* %x @@ -1004,7 +1004,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v27, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v25, v25 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v27 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 @@ -1032,7 +1032,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v27, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v25, v25 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v27 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 @@ -1058,7 +1058,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vmfeq.vf v26, v25, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v26, (a1) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -1075,7 +1075,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vmfeq.vf v26, v25, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v26, (a1) ; CHECK-NEXT: ret %a = load <8 x half>, <8 x half>* %x @@ -1092,7 +1092,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vmfne.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1117,7 +1117,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vmfne.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1142,7 +1142,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vmflt.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1167,7 +1167,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) ; CHECK-NEXT: vmflt.vf v0, v25, fa0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1192,7 +1192,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmfgt.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -1209,7 +1209,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmfgt.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x half>, <16 x half>* %x @@ -1226,7 +1226,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vmfle.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -1243,7 +1243,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vmfle.vf v25, v26, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x float>, <8 x float>* %x @@ -1260,7 +1260,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vmfge.vf v0, v26, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1285,7 +1285,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; CHECK-NEXT: vle64.v v26, (a0) ; CHECK-NEXT: vmfge.vf v0, v26, fa0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu @@ -1311,7 +1311,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vmflt.vf v25, v28, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1330,7 +1330,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vmfge.vf v25, v28, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <32 x half>, <32 x half>* %x @@ -1347,7 +1347,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vmfgt.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1365,7 +1365,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; CHECK-NEXT: vle32.v v28, (a0) ; CHECK-NEXT: vmfle.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x float>, <16 x float>* %x @@ -1382,7 +1382,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vmfle.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1400,7 +1400,7 @@ ; CHECK-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; CHECK-NEXT: vle64.v v28, (a0) ; CHECK-NEXT: vmfgt.vf v25, v28, fa0 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <8 x double>, <8 x double>* %x @@ -1418,7 +1418,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m8,ta,mu ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmnand.mm v25, v25, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1437,7 +1437,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m8,ta,mu ; CHECK-NEXT: vle16.v v8, (a0) ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <64 x half>, <64 x half>* %x @@ -1456,7 +1456,7 @@ ; CHECK-NEXT: vle32.v v8, (a0) ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmnor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1475,7 +1475,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m8,ta,mu ; CHECK-NEXT: vle32.v v8, (a0) ; CHECK-NEXT: vmfeq.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <32 x float>, <32 x float>* %x @@ -1493,7 +1493,7 @@ ; CHECK-NEXT: vle64.v v8, (a0) ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v25, v26, v25 ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret @@ -1511,7 +1511,7 @@ ; CHECK-NEXT: vsetivli zero, 16, e64,m8,ta,mu ; CHECK-NEXT: vle64.v v8, (a0) ; CHECK-NEXT: vmfne.vf v25, v8, fa0 -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vse1.v v25, (a1) ; CHECK-NEXT: ret %a = load <16 x double>, <16 x double>* %x @@ -1530,7 +1530,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v27, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v25, v25 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmand.mm v0, v27, v26 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 @@ -1558,7 +1558,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v27, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v25, v25 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmor.mm v0, v27, v26 ; CHECK-NEXT: vmv.v.i v25, 0 ; CHECK-NEXT: vmerge.vim v25, v25, 1, v0 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-shuffles.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-shuffles.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-shuffles.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp-shuffles.ll @@ -87,7 +87,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI4_0) ; RV32-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vrgatherei16.vv v26, v8, v25 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -112,7 +112,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI5_0) ; RV32-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vrgatherei16.vv v26, v8, v25 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -137,13 +137,13 @@ ; RV32-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; RV32-NEXT: vmv.s.x v25, a0 ; RV32-NEXT: vmv.v.i v28, 0 -; RV32-NEXT: vsetivli zero, 4, e16,mf2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; RV32-NEXT: vslideup.vi v28, v25, 3 ; RV32-NEXT: lui a0, %hi(.LCPI6_0) ; RV32-NEXT: addi a0, a0, %lo(.LCPI6_0) -; RV32-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vrgatherei16.vv v26, v8, v25 ; RV32-NEXT: addi a0, zero, 8 ; RV32-NEXT: vsetivli zero, 1, e8,mf8,ta,mu @@ -159,11 +159,11 @@ ; RV64-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; RV64-NEXT: vmv.s.x v26, a0 ; RV64-NEXT: vmv.v.i v28, 0 -; RV64-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV64-NEXT: vslideup.vi v28, v26, 3 ; RV64-NEXT: lui a0, %hi(.LCPI6_0) ; RV64-NEXT: addi a0, a0, %lo(.LCPI6_0) -; RV64-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vle64.v v30, (a0) ; RV64-NEXT: vrgather.vv v26, v8, v30 ; RV64-NEXT: addi a0, zero, 8 @@ -189,9 +189,9 @@ ; RV32-NEXT: vle16.v v25, (a0) ; RV32-NEXT: lui a0, %hi(.LCPI7_1) ; RV32-NEXT: addi a0, a0, %lo(.LCPI7_1) -; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vlse64.v v26, (a0), zero -; RV32-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV32-NEXT: vrgatherei16.vv v26, v8, v25, v0.t ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -208,7 +208,7 @@ ; RV64-NEXT: lui a0, %hi(.LCPI7_1) ; RV64-NEXT: addi a0, a0, %lo(.LCPI7_1) ; RV64-NEXT: vlse64.v v26, (a0), zero -; RV64-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV64-NEXT: vrgather.vv v26, v8, v28, v0.t ; RV64-NEXT: vmv2r.v v8, v26 ; RV64-NEXT: ret @@ -231,7 +231,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI8_0) ; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; RV32-NEXT: vlse64.v v26, (a0), zero -; RV32-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV32-NEXT: vrgatherei16.vv v26, v8, v28, v0.t ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -250,7 +250,7 @@ ; RV64-NEXT: addi a0, a0, %lo(.LCPI8_0) ; RV64-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; RV64-NEXT: vlse64.v v26, (a0), zero -; RV64-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV64-NEXT: vrgather.vv v26, v8, v28, v0.t ; RV64-NEXT: vmv2r.v v8, v26 ; RV64-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp.ll @@ -438,9 +438,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v26, (a1) -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v27, v26 ; CHECK-NEXT: vfsgnjn.vv v25, v25, v27 ; CHECK-NEXT: vse16.v v25, (a0) @@ -460,10 +460,10 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v26, (a1) ; CHECK-NEXT: vfwcvt.f.f.v v27, v26 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnjn.vv v25, v25, v27 ; CHECK-NEXT: vse64.v v25, (a0) ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp2i.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp2i.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp2i.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-fp2i.ll @@ -92,7 +92,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vfwcvt.rtz.x.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vse64.v v26, (a1) ; CHECK-NEXT: ret %a = load <2 x float>, <2 x float>* %x @@ -107,7 +107,7 @@ ; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) ; CHECK-NEXT: vfwcvt.rtz.xu.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vse64.v v26, (a1) ; CHECK-NEXT: ret %a = load <2 x float>, <2 x float>* %x @@ -122,7 +122,7 @@ ; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX8-NEXT: vle32.v v26, (a0) ; LMULMAX8-NEXT: vfwcvt.rtz.x.f.v v28, v26 -; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX8-NEXT: vse64.v v28, (a1) ; LMULMAX8-NEXT: ret ; @@ -143,7 +143,7 @@ ; LMULMAX1-NEXT: vfwcvt.rtz.x.f.v v27, v25 ; LMULMAX1-NEXT: vfwcvt.rtz.x.f.v v25, v26 ; LMULMAX1-NEXT: addi a0, a1, 16 -; LMULMAX1-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; LMULMAX1-NEXT: vse64.v v29, (a0) ; LMULMAX1-NEXT: vse64.v v25, (a1) ; LMULMAX1-NEXT: addi a0, a1, 48 @@ -163,7 +163,7 @@ ; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX8-NEXT: vle32.v v26, (a0) ; LMULMAX8-NEXT: vfwcvt.rtz.xu.f.v v28, v26 -; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX8-NEXT: vse64.v v28, (a1) ; LMULMAX8-NEXT: ret ; @@ -184,7 +184,7 @@ ; LMULMAX1-NEXT: vfwcvt.rtz.xu.f.v v27, v25 ; LMULMAX1-NEXT: vfwcvt.rtz.xu.f.v v25, v26 ; LMULMAX1-NEXT: addi a0, a1, 16 -; LMULMAX1-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; LMULMAX1-NEXT: vse64.v v29, (a0) ; LMULMAX1-NEXT: vse64.v v25, (a1) ; LMULMAX1-NEXT: addi a0, a1, 48 @@ -204,9 +204,9 @@ ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.rtz.x.f.v v25, v26 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vse64.v v25, (a1) ; CHECK-NEXT: ret %a = load <2 x half>, <2 x half>* %x @@ -221,9 +221,9 @@ ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.rtz.xu.f.v v25, v26 -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vse64.v v25, (a1) ; CHECK-NEXT: ret %a = load <2 x half>, <2 x half>* %x @@ -237,11 +237,11 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rtz.x.f.w v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a1) ; CHECK-NEXT: ret @@ -256,11 +256,11 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rtz.xu.f.w v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 ; CHECK-NEXT: vse8.v v26, (a1) ; CHECK-NEXT: ret @@ -275,11 +275,11 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; LMULMAX8-NEXT: vle64.v v28, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfncvt.rtz.x.f.w v26, v28 -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX8-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX8-NEXT: vse8.v v26, (a1) ; LMULMAX8-NEXT: ret @@ -294,11 +294,11 @@ ; LMULMAX1-NEXT: vle64.v v27, (a0) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle64.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.x.f.w v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v27, 0 @@ -307,9 +307,9 @@ ; LMULMAX1-NEXT: vslideup.vi v30, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.x.f.w v29, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v30, v29, 2 @@ -319,23 +319,23 @@ ; LMULMAX1-NEXT: vslideup.vi v28, v30, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.x.f.w v29, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.x.f.w v26, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v26, 2 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v27, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX1-NEXT: vse8.v v28, (a1) ; LMULMAX1-NEXT: ret %a = load <8 x double>, <8 x double>* %x @@ -349,11 +349,11 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; LMULMAX8-NEXT: vle64.v v28, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfncvt.rtz.xu.f.w v26, v28 -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX8-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX8-NEXT: vse8.v v26, (a1) ; LMULMAX8-NEXT: ret @@ -368,11 +368,11 @@ ; LMULMAX1-NEXT: vle64.v v27, (a0) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle64.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.xu.f.w v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; LMULMAX1-NEXT: vmv.v.i v27, 0 @@ -381,9 +381,9 @@ ; LMULMAX1-NEXT: vslideup.vi v30, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.xu.f.w v29, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v28, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v28, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v30, v29, 2 @@ -393,23 +393,23 @@ ; LMULMAX1-NEXT: vslideup.vi v28, v30, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.xu.f.w v29, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v29, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v29, v26, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v29, 0 ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.rtz.xu.f.w v26, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX1-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v26, 2 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v28, v27, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX1-NEXT: vse8.v v28, (a1) ; LMULMAX1-NEXT: ret %a = load <8 x double>, <8 x double>* %x diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-i2fp.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-i2fp.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-i2fp.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-i2fp.ll @@ -91,7 +91,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v26, v25 ; CHECK-NEXT: vfcvt.f.x.v v25, v26 ; CHECK-NEXT: vse64.v v25, (a1) @@ -107,7 +107,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; CHECK-NEXT: vle16.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v26, v25 ; CHECK-NEXT: vfcvt.f.xu.v v25, v26 ; CHECK-NEXT: vse64.v v25, (a1) @@ -123,7 +123,7 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX8-NEXT: vle16.v v25, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX8-NEXT: vsext.vf4 v28, v25 ; LMULMAX8-NEXT: vfcvt.f.x.v v28, v28 ; LMULMAX8-NEXT: vse64.v v28, (a1) @@ -168,7 +168,7 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; LMULMAX8-NEXT: vle16.v v25, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; LMULMAX8-NEXT: vzext.vf4 v28, v25 ; LMULMAX8-NEXT: vfcvt.f.xu.v v28, v28 ; LMULMAX8-NEXT: vse64.v v28, (a1) @@ -213,9 +213,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.x.w v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vse16.v v25, (a1) ; CHECK-NEXT: ret @@ -230,9 +230,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 2, e64,m1,ta,mu ; CHECK-NEXT: vle64.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.xu.w v26, v25 -; CHECK-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vse16.v v25, (a1) ; CHECK-NEXT: ret @@ -247,9 +247,9 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; LMULMAX8-NEXT: vle64.v v28, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfncvt.f.x.w v26, v28 -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX8-NEXT: vse16.v v25, (a1) ; LMULMAX8-NEXT: ret @@ -266,21 +266,21 @@ ; LMULMAX1-NEXT: vle64.v v27, (a2) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle64.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.x.w v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v27, v29 ; LMULMAX1-NEXT: addi a0, sp, 12 ; LMULMAX1-NEXT: vse16.v v27, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.x.w v27, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v28, v27 ; LMULMAX1-NEXT: addi a0, sp, 4 ; LMULMAX1-NEXT: vse16.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.x.w v27, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v26, v27 ; LMULMAX1-NEXT: addi a0, sp, 8 ; LMULMAX1-NEXT: vse16.v v26, (a0) @@ -291,7 +291,7 @@ ; LMULMAX1-NEXT: vse16.v v26, (a0) ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.x.w v26, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX1-NEXT: vse16.v v25, (sp) ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu @@ -315,9 +315,9 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; LMULMAX8-NEXT: vle64.v v28, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vfncvt.f.xu.w v26, v28 -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX8-NEXT: vse16.v v25, (a1) ; LMULMAX8-NEXT: ret @@ -334,21 +334,21 @@ ; LMULMAX1-NEXT: vle64.v v27, (a2) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle64.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.xu.w v29, v27 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v27, v29 ; LMULMAX1-NEXT: addi a0, sp, 12 ; LMULMAX1-NEXT: vse16.v v27, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.xu.w v27, v28 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v28, v27 ; LMULMAX1-NEXT: addi a0, sp, 4 ; LMULMAX1-NEXT: vse16.v v28, (a0) -; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.xu.w v27, v26 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v26, v27 ; LMULMAX1-NEXT: addi a0, sp, 8 ; LMULMAX1-NEXT: vse16.v v26, (a0) @@ -359,7 +359,7 @@ ; LMULMAX1-NEXT: vse16.v v26, (a0) ; LMULMAX1-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; LMULMAX1-NEXT: vfncvt.f.xu.w v26, v25 -; LMULMAX1-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; LMULMAX1-NEXT: vfncvt.f.f.w v25, v26 ; LMULMAX1-NEXT: vse16.v v25, (sp) ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-i1.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-i1.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-i1.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-i1.ll @@ -58,9 +58,9 @@ ; CHECK-NEXT: vmv.s.x v25, a0 ; CHECK-NEXT: vmv.v.i v26, 0 ; CHECK-NEXT: vmerge.vim v26, v26, 1, v0 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vslideup.vi v26, v25, 1 -; CHECK-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vand.vi v25, v26, 1 ; CHECK-NEXT: vmsne.vi v0, v25, 0 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-subvector.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-subvector.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-subvector.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert-subvector.ll @@ -155,9 +155,9 @@ ; CHECK-NEXT: vle32.v v25, (a1) ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vslideup.vi v26, v25, 2 -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vse32.v v26, (a0) ; CHECK-NEXT: ret %sv = load <2 x i32>, <2 x i32>* %svp @@ -235,9 +235,9 @@ ; LMULMAX1-NEXT: vle32.v v25, (a1) ; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX1-NEXT: vle32.v v26, (a0) -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v26, (a0) ; LMULMAX1-NEXT: ret %sv = load <2 x i32>, <2 x i32>* %svp @@ -254,9 +254,9 @@ ; LMULMAX2-NEXT: vle32.v v26, (a1) ; LMULMAX2-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX2-NEXT: vle32.v v28, (a0) -; LMULMAX2-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; LMULMAX2-NEXT: vslideup.vi v28, v26, 6 -; LMULMAX2-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX2-NEXT: vse32.v v28, (a0) ; LMULMAX2-NEXT: ret ; @@ -267,9 +267,9 @@ ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; LMULMAX1-NEXT: vle32.v v26, (a0) -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; LMULMAX1-NEXT: vslideup.vi v26, v25, 2 -; LMULMAX1-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-NEXT: vse32.v v26, (a0) ; LMULMAX1-NEXT: ret %sv = load <2 x i32>, <2 x i32>* %svp @@ -332,7 +332,7 @@ ; CHECK-NEXT: vle16.v v26, (a1) ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,tu,mu ; CHECK-NEXT: vslideup.vi v25, v26, 2 -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vse16.v v25, (a0) ; CHECK-NEXT: ret %v = load <4 x i16>, <4 x i16>* %vp @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmerge.vim v26, v26, 1, v0 ; CHECK-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; CHECK-NEXT: vslideup.vi v25, v26, 4 -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmsne.vi v26, v25, 0 ; CHECK-NEXT: vse1.v v26, (a0) ; CHECK-NEXT: ret @@ -499,7 +499,7 @@ ; CHECK-NEXT: vmv.v.i v26, 0 ; CHECK-NEXT: vmv1r.v v0, v27 ; CHECK-NEXT: vmerge.vim v26, v26, 1, v0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vslideup.vi v25, v26, 0 ; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmsne.vi v0, v25, 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-insert.ll @@ -16,7 +16,7 @@ ; RV32-NEXT: vslide1up.vx v28, v30, a1 ; RV32-NEXT: vsetivli zero, 4, e64,m2,tu,mu ; RV32-NEXT: vslideup.vi v26, v28, 3 -; RV32-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vse64.v v26, (a0) ; RV32-NEXT: ret ; @@ -25,9 +25,9 @@ ; RV64-NEXT: vsetivli zero, 4, e64,m2,ta,mu ; RV64-NEXT: vle64.v v26, (a0) ; RV64-NEXT: vmv.s.x v28, a1 -; RV64-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV64-NEXT: vslideup.vi v26, v28, 3 -; RV64-NEXT: vsetivli zero, 4, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vse64.v v26, (a0) ; RV64-NEXT: ret %a = load <4 x i64>, <4 x i64>* %x @@ -54,7 +54,7 @@ ; RV32-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; RV32-NEXT: vlse32.v v26, (a4), zero ; RV32-NEXT: vmv.s.x v26, a3 -; RV32-NEXT: vsetivli zero, 4, e64,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; RV32-NEXT: vslideup.vi v28, v26, 2 ; RV32-NEXT: vsetivli zero, 2, e32,m2,ta,mu ; RV32-NEXT: vmv.v.i v26, 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-exttrunc.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-exttrunc.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-exttrunc.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-exttrunc.ll @@ -11,7 +11,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsext.vf4 v26, v25 ; CHECK-NEXT: vse32.v v26, (a1) ; CHECK-NEXT: ret @@ -26,7 +26,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vle8.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vzext.vf4 v26, v25 ; CHECK-NEXT: vse32.v v26, (a1) ; CHECK-NEXT: ret @@ -41,7 +41,7 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX8-NEXT: vle8.v v25, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX8-NEXT: vsext.vf4 v26, v25 ; LMULMAX8-NEXT: vse32.v v26, (a1) ; LMULMAX8-NEXT: ret @@ -50,7 +50,7 @@ ; LMULMAX2: # %bb.0: ; LMULMAX2-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX2-NEXT: vle8.v v25, (a0) -; LMULMAX2-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; LMULMAX2-NEXT: vsext.vf4 v26, v25 ; LMULMAX2-NEXT: vse32.v v26, (a1) ; LMULMAX2-NEXT: ret @@ -80,7 +80,7 @@ ; LMULMAX8-NEXT: addi a2, zero, 32 ; LMULMAX8-NEXT: vsetvli zero, a2, e8,m2,ta,mu ; LMULMAX8-NEXT: vle8.v v26, (a0) -; LMULMAX8-NEXT: vsetvli zero, a2, e32,m8,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e32,m8,ta,mu ; LMULMAX8-NEXT: vsext.vf4 v8, v26 ; LMULMAX8-NEXT: vse32.v v8, (a1) ; LMULMAX8-NEXT: ret @@ -168,9 +168,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; CHECK-NEXT: vle32.v v25, (a0) -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 ; CHECK-NEXT: vse8.v v25, (a1) ; CHECK-NEXT: ret @@ -185,9 +185,9 @@ ; LMULMAX8: # %bb.0: ; LMULMAX8-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX8-NEXT: vle32.v v26, (a0) -; LMULMAX8-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX8-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX8-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX8-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX8-NEXT: vse8.v v26, (a1) ; LMULMAX8-NEXT: ret @@ -196,9 +196,9 @@ ; LMULMAX2: # %bb.0: ; LMULMAX2-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; LMULMAX2-NEXT: vle32.v v26, (a0) -; LMULMAX2-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; LMULMAX2-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX2-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX2-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX2-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX2-NEXT: vse8.v v26, (a1) ; LMULMAX2-NEXT: ret @@ -209,9 +209,9 @@ ; LMULMAX1-NEXT: vle32.v v25, (a0) ; LMULMAX1-NEXT: addi a0, a0, 16 ; LMULMAX1-NEXT: vle32.v v26, (a0) -; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v27, v25, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v27, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu ; LMULMAX1-NEXT: vmv.v.i v27, 0 @@ -219,11 +219,11 @@ ; LMULMAX1-NEXT: vslideup.vi v27, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v25, v26, 0 -; LMULMAX1-NEXT: vsetivli zero, 4, e8,mf4,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; LMULMAX1-NEXT: vnsrl.wi v26, v25, 0 ; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,tu,mu ; LMULMAX1-NEXT: vslideup.vi v27, v26, 4 -; LMULMAX1-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; LMULMAX1-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; LMULMAX1-NEXT: vse8.v v27, (a1) ; LMULMAX1-NEXT: ret %a = load <8 x i32>, <8 x i32>* %x diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-shuffles.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-shuffles.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-shuffles.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int-shuffles.ll @@ -89,11 +89,11 @@ ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vmv.s.x v25, a0 ; CHECK-NEXT: vmv.v.i v26, 0 -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vslideup.vi v26, v25, 3 ; CHECK-NEXT: lui a0, %hi(.LCPI6_0) ; CHECK-NEXT: addi a0, a0, %lo(.LCPI6_0) -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v27, (a0) ; CHECK-NEXT: vrgather.vv v25, v8, v27 ; CHECK-NEXT: addi a0, zero, 8 @@ -118,7 +118,7 @@ ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vmv.v.i v25, 5 -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vrgather.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v8, v25 ; CHECK-NEXT: ret @@ -139,7 +139,7 @@ ; CHECK-NEXT: vmv.s.x v0, a0 ; CHECK-NEXT: vsetivli zero, 4, e16,mf2,ta,mu ; CHECK-NEXT: vmv.v.i v25, 5 -; CHECK-NEXT: vsetivli zero, 4, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vrgather.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v8, v25 ; CHECK-NEXT: ret @@ -154,7 +154,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI9_0) ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vrgatherei16.vv v28, v8, v25 ; RV32-NEXT: vmv4r.v v8, v28 ; RV32-NEXT: ret @@ -179,7 +179,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI10_0) ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vrgatherei16.vv v28, v8, v25 ; RV32-NEXT: vmv4r.v v8, v28 ; RV32-NEXT: ret @@ -209,13 +209,13 @@ ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vmv.v.i v26, 0 ; RV32-NEXT: vmerge.vim v26, v26, 2, v0 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vslideup.vi v26, v25, 7 ; RV32-NEXT: lui a0, %hi(.LCPI11_0) ; RV32-NEXT: addi a0, a0, %lo(.LCPI11_0) -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vrgatherei16.vv v28, v8, v25 ; RV32-NEXT: addi a0, zero, 164 ; RV32-NEXT: vsetivli zero, 1, e8,mf8,ta,mu @@ -236,11 +236,11 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vmv.v.i v16, 0 ; RV64-NEXT: vmerge.vim v16, v16, 2, v0 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vslideup.vi v16, v28, 7 ; RV64-NEXT: lui a0, %hi(.LCPI11_0) ; RV64-NEXT: addi a0, a0, %lo(.LCPI11_0) -; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV64-NEXT: vle64.v v20, (a0) ; RV64-NEXT: vrgather.vv v28, v8, v20 ; RV64-NEXT: addi a0, zero, 164 @@ -271,7 +271,7 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI12_0) ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vmv.v.i v12, -1 ; RV32-NEXT: vrgatherei16.vv v28, v12, v25 ; RV32-NEXT: addi a0, zero, 113 @@ -299,7 +299,7 @@ ; RV64-NEXT: vmv.s.x v0, a0 ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vmv.v.i v28, -1 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vrgather.vv v28, v8, v16, v0.t ; RV64-NEXT: vmv4r.v v8, v28 ; RV64-NEXT: ret @@ -315,7 +315,7 @@ ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) ; RV32-NEXT: vmv4r.v v28, v8 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vrgatherei16.vv v8, v28, v25 ; RV32-NEXT: addi a0, zero, 140 ; RV32-NEXT: vsetivli zero, 1, e8,mf8,ta,mu @@ -324,9 +324,9 @@ ; RV32-NEXT: addi a0, a0, %lo(.LCPI13_1) ; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu ; RV32-NEXT: vle16.v v25, (a0) -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vmv.v.i v28, 5 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vrgatherei16.vv v8, v28, v25, v0.t ; RV32-NEXT: ret ; @@ -340,7 +340,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vle64.v v12, (a0) ; RV64-NEXT: vmv.v.i v28, 5 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vrgather.vv v28, v8, v12, v0.t ; RV64-NEXT: vmv4r.v v8, v28 ; RV64-NEXT: ret @@ -358,14 +358,14 @@ ; CHECK-NEXT: addi a1, zero, 1 ; CHECK-NEXT: vmv.s.x v26, a1 ; CHECK-NEXT: vmv.v.i v27, 0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vslideup.vi v27, v26, 3 ; CHECK-NEXT: addi a1, zero, 10 ; CHECK-NEXT: vsetivli zero, 1, e8,mf8,ta,mu ; CHECK-NEXT: vmv.s.x v0, a1 ; CHECK-NEXT: vsetivli zero, 4, e8,mf4,ta,mu ; CHECK-NEXT: vmv.v.x v8, a0 -; CHECK-NEXT: vsetivli zero, 4, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vrgather.vv v8, v25, v27, v0.t ; CHECK-NEXT: ret %y = shufflevector <4 x i8> %x, <4 x i8> undef, <4 x i32> diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-int.ll @@ -997,9 +997,9 @@ ; CHECK-NEXT: addi a1, zero, 1 ; CHECK-NEXT: vmv.s.x v26, a1 ; CHECK-NEXT: vmv.v.i v27, 2 -; CHECK-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vslideup.vi v27, v26, 3 -; CHECK-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vsrl.vv v25, v25, v27 ; CHECK-NEXT: vse32.v v25, (a0) ; CHECK-NEXT: ret @@ -4257,9 +4257,9 @@ ; LMULMAX1-RV32-NEXT: addi a2, zero, 1 ; LMULMAX1-RV32-NEXT: vmv.s.x v29, a2 ; LMULMAX1-RV32-NEXT: vmv.v.i v30, 2 -; LMULMAX1-RV32-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; LMULMAX1-RV32-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; LMULMAX1-RV32-NEXT: vslideup.vi v30, v29, 3 -; LMULMAX1-RV32-NEXT: vsetivli zero, 4, e32,m1,ta,mu +; LMULMAX1-RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; LMULMAX1-RV32-NEXT: vsrl.vv v26, v26, v30 ; LMULMAX1-RV32-NEXT: vmulhu.vv v27, v25, v27 ; LMULMAX1-RV32-NEXT: vsub.vv v25, v25, v27 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-mask-buildvec.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-mask-buildvec.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-mask-buildvec.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-mask-buildvec.ll @@ -461,7 +461,7 @@ ; RV32-LMULMAX4-NEXT: lui a0, 748384 ; RV32-LMULMAX4-NEXT: addi a0, a0, 1776 ; RV32-LMULMAX4-NEXT: vmv.s.x v0, a0 -; RV32-LMULMAX4-NEXT: vsetivli zero, 2, e32,mf2,tu,mu +; RV32-LMULMAX4-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; RV32-LMULMAX4-NEXT: vslideup.vi v0, v25, 1 ; RV32-LMULMAX4-NEXT: ret ; @@ -488,7 +488,7 @@ ; RV32-LMULMAX8-NEXT: lui a0, 748384 ; RV32-LMULMAX8-NEXT: addi a0, a0, 1776 ; RV32-LMULMAX8-NEXT: vmv.s.x v0, a0 -; RV32-LMULMAX8-NEXT: vsetivli zero, 2, e32,mf2,tu,mu +; RV32-LMULMAX8-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; RV32-LMULMAX8-NEXT: vslideup.vi v0, v25, 1 ; RV32-LMULMAX8-NEXT: ret ; @@ -596,16 +596,16 @@ ; RV32-LMULMAX4-NEXT: lui a0, 748384 ; RV32-LMULMAX4-NEXT: addi a0, a0, 1776 ; RV32-LMULMAX4-NEXT: vmv.s.x v0, a0 -; RV32-LMULMAX4-NEXT: vsetivli zero, 2, e32,mf2,tu,mu +; RV32-LMULMAX4-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; RV32-LMULMAX4-NEXT: vslideup.vi v0, v25, 1 ; RV32-LMULMAX4-NEXT: lui a0, 945060 ; RV32-LMULMAX4-NEXT: addi a0, a0, -1793 -; RV32-LMULMAX4-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV32-LMULMAX4-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-LMULMAX4-NEXT: vmv.s.x v25, a0 ; RV32-LMULMAX4-NEXT: lui a0, 551776 ; RV32-LMULMAX4-NEXT: addi a0, a0, 1776 ; RV32-LMULMAX4-NEXT: vmv.s.x v8, a0 -; RV32-LMULMAX4-NEXT: vsetivli zero, 2, e32,mf2,tu,mu +; RV32-LMULMAX4-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; RV32-LMULMAX4-NEXT: vslideup.vi v8, v25, 1 ; RV32-LMULMAX4-NEXT: ret ; @@ -651,7 +651,7 @@ ; RV32-LMULMAX8-NEXT: addi a0, a0, -1793 ; RV32-LMULMAX8-NEXT: vsetivli zero, 4, e32,m1,ta,mu ; RV32-LMULMAX8-NEXT: vmv.s.x v25, a0 -; RV32-LMULMAX8-NEXT: vsetivli zero, 4, e32,m1,tu,mu +; RV32-LMULMAX8-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; RV32-LMULMAX8-NEXT: vslideup.vi v0, v25, 3 ; RV32-LMULMAX8-NEXT: ret ; @@ -674,7 +674,7 @@ ; RV64-LMULMAX8-NEXT: slli a0, a0, 17 ; RV64-LMULMAX8-NEXT: addi a0, a0, 1776 ; RV64-LMULMAX8-NEXT: vmv.s.x v0, a0 -; RV64-LMULMAX8-NEXT: vsetivli zero, 2, e64,m1,tu,mu +; RV64-LMULMAX8-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; RV64-LMULMAX8-NEXT: vslideup.vi v0, v25, 1 ; RV64-LMULMAX8-NEXT: ret ret <128 x i1> diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll @@ -49,7 +49,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -57,7 +57,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -70,7 +70,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -78,7 +78,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -91,7 +91,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -99,7 +99,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vsext.vf4 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -112,7 +112,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -120,7 +120,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vzext.vf4 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -133,7 +133,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vsext.vf8 v8, v9 ; RV32-NEXT: ret ; @@ -141,7 +141,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vsext.vf8 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -154,7 +154,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vzext.vf8 v8, v9 ; RV32-NEXT: ret ; @@ -162,7 +162,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e8,mf8,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vzext.vf8 v8, v9 ; RV64-NEXT: ret %v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru) @@ -249,7 +249,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 -; RV32-NEXT: vsetivli zero, 8, e8,mf2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -258,7 +258,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 -; RV64-NEXT: vsetivli zero, 8, e8,mf2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -312,7 +312,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -320,7 +320,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru) @@ -333,7 +333,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -341,7 +341,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru) @@ -354,7 +354,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -362,7 +362,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vsext.vf4 v8, v9 ; RV64-NEXT: ret %v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru) @@ -375,7 +375,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -383,7 +383,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16,mf4,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vzext.vf4 v8, v9 ; RV64-NEXT: ret %v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru) @@ -471,7 +471,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -481,7 +481,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -496,7 +496,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -506,7 +506,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -522,7 +522,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -532,7 +532,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -548,7 +548,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -558,7 +558,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -612,7 +612,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -620,7 +620,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32,mf2,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vsext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i32> @llvm.masked.gather.v2i32.v2p0i32(<2 x i32*> %ptrs, i32 4, <2 x i1> %m, <2 x i32> %passthru) @@ -633,7 +633,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -641,7 +641,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32,mf2,tu,mu ; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t -; RV64-NEXT: vsetivli zero, 2, e64,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; RV64-NEXT: vzext.vf2 v8, v9 ; RV64-NEXT: ret %v = call <2 x i32> @llvm.masked.gather.v2i32.v2p0i32(<2 x i32*> %ptrs, i32 4, <2 x i1> %m, <2 x i32> %passthru) @@ -728,7 +728,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -738,7 +738,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -753,7 +753,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -763,7 +763,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -779,7 +779,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -789,7 +789,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -805,7 +805,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -815,7 +815,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -830,7 +830,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -840,7 +840,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -856,7 +856,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -866,7 +866,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -881,7 +881,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v8, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -891,7 +891,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1019,7 +1019,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1029,7 +1029,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1044,7 +1044,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1054,7 +1054,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1070,7 +1070,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1080,7 +1080,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1096,7 +1096,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1106,7 +1106,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1121,7 +1121,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1131,7 +1131,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1147,7 +1147,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1157,7 +1157,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1172,7 +1172,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v8, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1182,7 +1182,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1197,7 +1197,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1207,7 +1207,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1223,7 +1223,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1233,7 +1233,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1248,7 +1248,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1257,7 +1257,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsll.vi v28, v8, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1386,7 +1386,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -1396,7 +1396,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -1411,7 +1411,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -1421,7 +1421,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -1437,7 +1437,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -1447,7 +1447,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -1463,7 +1463,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -1473,7 +1473,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -1601,7 +1601,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1611,7 +1611,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1626,7 +1626,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1636,7 +1636,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1652,7 +1652,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1662,7 +1662,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1678,7 +1678,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1688,7 +1688,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1703,7 +1703,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1713,7 +1713,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1729,7 +1729,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1739,7 +1739,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1754,7 +1754,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v8, 2 -; RV32-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1764,7 +1764,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1892,7 +1892,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1902,7 +1902,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1917,7 +1917,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1927,7 +1927,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1943,7 +1943,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf8 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1953,7 +1953,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1969,7 +1969,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v8 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1979,7 +1979,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1994,7 +1994,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2004,7 +2004,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2020,7 +2020,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2030,7 +2030,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2045,7 +2045,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v8, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2055,7 +2055,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2070,7 +2070,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2080,7 +2080,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2096,7 +2096,7 @@ ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2106,7 +2106,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf2 v28, v8 ; RV64-NEXT: vsll.vi v28, v28, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2121,7 +2121,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2130,7 +2130,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsll.vi v28, v8, 3 -; RV64-NEXT: vsetivli zero, 8, e64,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -2146,7 +2146,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 -; RV32-NEXT: vsetivli zero, 16, e8,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -2155,7 +2155,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 16, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 -; RV64-NEXT: vsetivli zero, 16, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -2172,7 +2172,7 @@ ; RV32-NEXT: addi a1, zero, 32 ; RV32-NEXT: vsetvli zero, a1, e32,m8,ta,mu ; RV32-NEXT: vsext.vf4 v16, v8 -; RV32-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -2189,9 +2189,9 @@ ; RV64-NEXT: vslidedown.vi v0, v0, 2 ; RV64-NEXT: vsetivli zero, 16, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v26, (a0), v16, v0.t -; RV64-NEXT: vsetivli zero, 16, e64,m8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 -; RV64-NEXT: vsetivli zero, 16, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vmv1r.v v0, v25 ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: addi a0, zero, 32 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-scatter.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-scatter.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-scatter.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-scatter.ll @@ -64,7 +64,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 ; RV32-NEXT: vsoxei32.v v26, (zero), v9, v0.t ; RV32-NEXT: ret @@ -73,7 +73,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 ; RV64-NEXT: vsoxei64.v v26, (zero), v9, v0.t ; RV64-NEXT: ret @@ -87,9 +87,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v25, v26, 0 ; RV32-NEXT: vsoxei32.v v25, (zero), v9, v0.t ; RV32-NEXT: ret @@ -98,9 +98,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetivli zero, 2, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v25, v26, 0 ; RV64-NEXT: vsoxei64.v v25, (zero), v9, v0.t ; RV64-NEXT: ret @@ -180,7 +180,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 -; RV32-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -188,7 +188,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v9 -; RV64-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, <8 x i8> %idxs @@ -256,7 +256,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 ; RV32-NEXT: vsoxei32.v v26, (zero), v9, v0.t ; RV32-NEXT: ret @@ -265,7 +265,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 2, e32,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetivli zero, 2, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 ; RV64-NEXT: vsoxei64.v v26, (zero), v9, v0.t ; RV64-NEXT: ret @@ -346,7 +346,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -355,7 +355,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, <8 x i8> %idxs @@ -369,7 +369,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -378,7 +378,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i16> @@ -393,7 +393,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -402,7 +402,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i16> @@ -417,7 +417,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -426,7 +426,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, <8 x i16> %idxs @@ -569,7 +569,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i8> %idxs @@ -591,7 +591,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i32> @@ -614,7 +614,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i32> @@ -637,7 +637,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i16> %idxs @@ -659,7 +659,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i32> @@ -682,7 +682,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i32> @@ -704,7 +704,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, <8 x i32> %idxs @@ -820,7 +820,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v12 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -886,7 +886,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v12 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -951,7 +951,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v12, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1138,7 +1138,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1147,7 +1147,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, <8 x i8> %idxs @@ -1161,7 +1161,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1170,7 +1170,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i16> @@ -1185,7 +1185,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1194,7 +1194,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i16> @@ -1209,7 +1209,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v9 ; RV32-NEXT: vsll.vi v26, v26, 1 -; RV32-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1218,7 +1218,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v9 ; RV64-NEXT: vsll.vi v28, v28, 1 -; RV64-NEXT: vsetivli zero, 8, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, <8 x i16> %idxs @@ -1342,7 +1342,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i8> %idxs @@ -1364,7 +1364,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i8> %idxs to <8 x i32> @@ -1387,7 +1387,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf8 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i8> %idxs to <8 x i32> @@ -1410,7 +1410,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i16> %idxs @@ -1432,7 +1432,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = sext <8 x i16> %idxs to <8 x i32> @@ -1455,7 +1455,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vzext.vf4 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %eidxs = zext <8 x i16> %idxs to <8 x i32> @@ -1477,7 +1477,7 @@ ; RV64-NEXT: vsetivli zero, 8, e64,m4,ta,mu ; RV64-NEXT: vsext.vf2 v28, v10 ; RV64-NEXT: vsll.vi v28, v28, 2 -; RV64-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v28, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, <8 x i32> %idxs @@ -1593,7 +1593,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v12 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1659,7 +1659,7 @@ ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v12 ; RV32-NEXT: vsll.vi v26, v26, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1724,7 +1724,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; RV32-NEXT: vsll.vi v26, v12, 3 -; RV32-NEXT: vsetivli zero, 8, e64,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v26, v0.t ; RV32-NEXT: ret ; @@ -1810,7 +1810,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetivli zero, 16, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v9 -; RV32-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1818,7 +1818,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 16, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v9 -; RV64-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, <16 x i8> %idxs @@ -1834,7 +1834,7 @@ ; RV32-NEXT: addi a1, zero, 32 ; RV32-NEXT: vsetvli zero, a1, e32,m8,ta,mu ; RV32-NEXT: vsext.vf4 v16, v10 -; RV32-NEXT: vsetvli zero, a1, e8,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v16, v0.t ; RV32-NEXT: ret ; @@ -1842,7 +1842,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetivli zero, 16, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 -; RV64-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: vsetivli zero, 16, e8,m2,ta,mu ; RV64-NEXT: vslidedown.vi v26, v8, 16 diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-vselect.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-vselect.ll --- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-vselect.ll +++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-vselect.ll @@ -8,9 +8,9 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vle32.v v28, (a1) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmerge.vvm v26, v28, v26, v0 ; CHECK-NEXT: vse32.v v26, (a3) ; CHECK-NEXT: ret @@ -27,9 +27,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a1) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmerge.vxm v26, v26, a0, v0 ; CHECK-NEXT: vse32.v v26, (a3) ; CHECK-NEXT: ret @@ -47,9 +47,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmerge.vim v26, v26, -1, v0 ; CHECK-NEXT: vse32.v v26, (a2) ; CHECK-NEXT: ret @@ -68,9 +68,9 @@ ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) ; CHECK-NEXT: vle32.v v28, (a1) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmerge.vvm v26, v28, v26, v0 ; CHECK-NEXT: vse32.v v26, (a3) ; CHECK-NEXT: ret @@ -87,9 +87,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vfmerge.vfm v26, v26, fa0, v0 ; CHECK-NEXT: vse32.v v26, (a2) ; CHECK-NEXT: ret @@ -107,9 +107,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu ; CHECK-NEXT: vle32.v v26, (a0) -; CHECK-NEXT: vsetivli zero, 8, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetivli zero, 8, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmerge.vim v26, v26, 0, v0 ; CHECK-NEXT: vse32.v v26, (a2) ; CHECK-NEXT: ret @@ -128,9 +128,9 @@ ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) ; CHECK-NEXT: vle16.v v28, (a1) -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmerge.vvm v26, v28, v26, v0 ; CHECK-NEXT: vse16.v v26, (a3) ; CHECK-NEXT: ret @@ -147,9 +147,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a1) -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmerge.vxm v26, v26, a0, v0 ; CHECK-NEXT: vse16.v v26, (a3) ; CHECK-NEXT: ret @@ -167,9 +167,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu ; CHECK-NEXT: vle16.v v26, (a0) -; CHECK-NEXT: vsetivli zero, 16, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetivli zero, 16, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmerge.vim v26, v26, 4, v0 ; CHECK-NEXT: vse16.v v26, (a2) ; CHECK-NEXT: ret @@ -189,9 +189,9 @@ ; CHECK-NEXT: vsetvli zero, a4, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) ; CHECK-NEXT: vle16.v v8, (a1) -; CHECK-NEXT: vsetvli zero, a4, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vle1.v v0, (a2) -; CHECK-NEXT: vsetvli zero, a4, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmerge.vvm v28, v8, v28, v0 ; CHECK-NEXT: vse16.v v28, (a3) ; CHECK-NEXT: ret @@ -209,9 +209,9 @@ ; CHECK-NEXT: addi a3, zero, 32 ; CHECK-NEXT: vsetvli zero, a3, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetvli zero, a3, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vfmerge.vfm v28, v28, fa0, v0 ; CHECK-NEXT: vse16.v v28, (a2) ; CHECK-NEXT: ret @@ -230,9 +230,9 @@ ; CHECK-NEXT: addi a3, zero, 32 ; CHECK-NEXT: vsetvli zero, a3, e16,m4,ta,mu ; CHECK-NEXT: vle16.v v28, (a0) -; CHECK-NEXT: vsetvli zero, a3, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vle1.v v0, (a1) -; CHECK-NEXT: vsetvli zero, a3, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmerge.vim v28, v28, 0, v0 ; CHECK-NEXT: vse16.v v28, (a2) ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/interleave-crash.ll b/llvm/test/CodeGen/RISCV/rvv/interleave-crash.ll --- a/llvm/test/CodeGen/RISCV/rvv/interleave-crash.ll +++ b/llvm/test/CodeGen/RISCV/rvv/interleave-crash.ll @@ -21,7 +21,7 @@ ; RV64-1024-NEXT: vslideup.vx v16, v12, a3 ; RV64-1024-NEXT: lui a2, %hi(.LCPI0_0) ; RV64-1024-NEXT: addi a2, a2, %lo(.LCPI0_0) -; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; RV64-1024-NEXT: vle16.v v20, (a2) ; RV64-1024-NEXT: vrgather.vv v24, v16, v20 ; RV64-1024-NEXT: vsetvli zero, a3, e16,m4,tu,mu @@ -30,7 +30,7 @@ ; RV64-1024-NEXT: vslideup.vx v28, v12, a3 ; RV64-1024-NEXT: lui a2, %hi(.LCPI0_1) ; RV64-1024-NEXT: addi a2, a2, %lo(.LCPI0_1) -; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; RV64-1024-NEXT: vle16.v v12, (a2) ; RV64-1024-NEXT: vrgather.vv v8, v24, v12 ; RV64-1024-NEXT: lui a2, 1026731 @@ -54,9 +54,9 @@ ; RV64-1024-NEXT: addi a2, a2, %lo(.LCPI0_2) ; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; RV64-1024-NEXT: vle16.v v12, (a2) -; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,tu,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; RV64-1024-NEXT: vrgather.vv v8, v28, v12, v0.t -; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; RV64-1024-NEXT: vse16.v v8, (a0) ; RV64-1024-NEXT: ret ; @@ -78,7 +78,7 @@ ; RV64-2048-NEXT: vslideup.vx v8, v28, a3 ; RV64-2048-NEXT: lui a2, %hi(.LCPI0_0) ; RV64-2048-NEXT: addi a2, a2, %lo(.LCPI0_0) -; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-2048-NEXT: vle16.v v10, (a2) ; RV64-2048-NEXT: vrgather.vv v12, v8, v10 ; RV64-2048-NEXT: vsetvli zero, a3, e16,m2,tu,mu @@ -87,7 +87,7 @@ ; RV64-2048-NEXT: vslideup.vx v26, v28, a3 ; RV64-2048-NEXT: lui a2, %hi(.LCPI0_1) ; RV64-2048-NEXT: addi a2, a2, %lo(.LCPI0_1) -; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-2048-NEXT: vle16.v v28, (a2) ; RV64-2048-NEXT: vrgather.vv v30, v12, v28 ; RV64-2048-NEXT: lui a2, 1026731 @@ -111,9 +111,9 @@ ; RV64-2048-NEXT: addi a2, a2, %lo(.LCPI0_2) ; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; RV64-2048-NEXT: vle16.v v28, (a2) -; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-2048-NEXT: vrgather.vv v30, v26, v28, v0.t -; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-2048-NEXT: vse16.v v30, (a0) ; RV64-2048-NEXT: ret entry: @@ -167,6 +167,7 @@ ; RV64-1024-NEXT: andi sp, sp, -512 ; RV64-1024-NEXT: addi a3, zero, 256 ; RV64-1024-NEXT: vsetvli zero, a3, e16,m4,ta,mu +; RV64-1024-NEXT: addi a3, zero, 256 ; RV64-1024-NEXT: vle16.v v16, (a1) ; RV64-1024-NEXT: lui a1, %hi(.LCPI1_0) ; RV64-1024-NEXT: addi a1, a1, %lo(.LCPI1_0) @@ -178,7 +179,7 @@ ; RV64-1024-NEXT: addi a1, a1, 1944 ; RV64-1024-NEXT: vs4r.v v28, (a1) # Unknown-size Folded Spill ; RV64-1024-NEXT: vrgather.vv v0, v16, v20 -; RV64-1024-NEXT: vsetvli zero, a3, e32,m8,ta,mu +; RV64-1024-NEXT: vsetvli zero, zero, e32,m8,ta,mu ; RV64-1024-NEXT: vmv.v.i v8, 0 ; RV64-1024-NEXT: addi a1, zero, 128 ; RV64-1024-NEXT: vsetvli zero, a1, e32,m8,tu,mu @@ -189,7 +190,7 @@ ; RV64-1024-NEXT: vle16.v v24, (a2) ; RV64-1024-NEXT: vrgather.vv v0, v16, v24 ; RV64-1024-NEXT: vrgather.vv v24, v0, v20 -; RV64-1024-NEXT: vsetvli zero, a3, e32,m8,tu,mu +; RV64-1024-NEXT: vsetvli zero, zero, e32,m8,tu,mu ; RV64-1024-NEXT: vslideup.vx v8, v24, a1 ; RV64-1024-NEXT: addi a1, zero, 127 ; RV64-1024-NEXT: vsetivli zero, 1, e64,m8,ta,mu @@ -978,31 +979,30 @@ ; RV64-1024-NEXT: vslideup.vi v0, v25, 2 ; RV64-1024-NEXT: vsetivli zero, 4, e64,m1,tu,mu ; RV64-1024-NEXT: vslideup.vi v0, v25, 3 +; RV64-1024-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; RV64-1024-NEXT: lui a1, %hi(.LCPI1_2) ; RV64-1024-NEXT: addi a1, a1, %lo(.LCPI1_2) -; RV64-1024-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; RV64-1024-NEXT: vle16.v v12, (a1) ; RV64-1024-NEXT: lui a1, %hi(.LCPI1_3) ; RV64-1024-NEXT: addi a1, a1, %lo(.LCPI1_3) ; RV64-1024-NEXT: vle16.v v16, (a1) ; RV64-1024-NEXT: vrgather.vv v20, v28, v12 -; RV64-1024-NEXT: vsetvli zero, a2, e16,m4,tu,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; RV64-1024-NEXT: csrr a1, vlenb ; RV64-1024-NEXT: slli a1, a1, 3 ; RV64-1024-NEXT: add a1, sp, a1 ; RV64-1024-NEXT: addi a1, a1, 1944 ; RV64-1024-NEXT: vl4re8.v v24, (a1) # Unknown-size Folded Reload ; RV64-1024-NEXT: vrgather.vv v20, v24, v16, v0.t -; RV64-1024-NEXT: vsetvli zero, a2, e16,m4,ta,mu +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; RV64-1024-NEXT: lui a1, %hi(.LCPI1_4) ; RV64-1024-NEXT: addi a1, a1, %lo(.LCPI1_4) ; RV64-1024-NEXT: vle16.v v28, (a1) ; RV64-1024-NEXT: vrgather.vv v16, v8, v12 -; RV64-1024-NEXT: vsetvli zero, a2, e16,m4,tu,mu -; RV64-1024-NEXT: addi a1, zero, 256 +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; RV64-1024-NEXT: vrgather.vv v16, v24, v28, v0.t -; RV64-1024-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; RV64-1024-NEXT: addi a1, a0, 512 +; RV64-1024-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; RV64-1024-NEXT: vse16.v v16, (a1) ; RV64-1024-NEXT: vse16.v v20, (a0) ; RV64-1024-NEXT: addi sp, s0, -2048 @@ -1063,6 +1063,7 @@ ; RV64-2048-NEXT: andi sp, sp, -512 ; RV64-2048-NEXT: addi a3, zero, 256 ; RV64-2048-NEXT: vsetvli zero, a3, e16,m2,ta,mu +; RV64-2048-NEXT: addi a3, zero, 256 ; RV64-2048-NEXT: vle16.v v26, (a1) ; RV64-2048-NEXT: lui a1, %hi(.LCPI1_0) ; RV64-2048-NEXT: addi a1, a1, %lo(.LCPI1_0) @@ -1074,7 +1075,7 @@ ; RV64-2048-NEXT: addi a1, a1, 1944 ; RV64-2048-NEXT: vs2r.v v28, (a1) # Unknown-size Folded Spill ; RV64-2048-NEXT: vrgather.vv v12, v26, v8 -; RV64-2048-NEXT: vsetvli zero, a3, e32,m4,ta,mu +; RV64-2048-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-2048-NEXT: vmv.v.i v28, 0 ; RV64-2048-NEXT: addi a1, zero, 128 ; RV64-2048-NEXT: vsetvli zero, a1, e32,m4,tu,mu @@ -1085,7 +1086,7 @@ ; RV64-2048-NEXT: vle16.v v10, (a2) ; RV64-2048-NEXT: vrgather.vv v12, v26, v10 ; RV64-2048-NEXT: vrgather.vv v16, v12, v8 -; RV64-2048-NEXT: vsetvli zero, a3, e32,m4,tu,mu +; RV64-2048-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-2048-NEXT: vslideup.vx v28, v16, a1 ; RV64-2048-NEXT: addi a1, zero, 127 ; RV64-2048-NEXT: vsetivli zero, 1, e64,m4,ta,mu @@ -1872,31 +1873,30 @@ ; RV64-2048-NEXT: vslideup.vi v0, v25, 2 ; RV64-2048-NEXT: vsetivli zero, 4, e64,m1,tu,mu ; RV64-2048-NEXT: vslideup.vi v0, v25, 3 +; RV64-2048-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; RV64-2048-NEXT: lui a1, %hi(.LCPI1_2) ; RV64-2048-NEXT: addi a1, a1, %lo(.LCPI1_2) -; RV64-2048-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; RV64-2048-NEXT: vle16.v v30, (a1) ; RV64-2048-NEXT: lui a1, %hi(.LCPI1_3) ; RV64-2048-NEXT: addi a1, a1, %lo(.LCPI1_3) ; RV64-2048-NEXT: vle16.v v8, (a1) ; RV64-2048-NEXT: vrgather.vv v10, v28, v30 -; RV64-2048-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-2048-NEXT: csrr a1, vlenb ; RV64-2048-NEXT: slli a1, a1, 2 ; RV64-2048-NEXT: add a1, sp, a1 ; RV64-2048-NEXT: addi a1, a1, 1944 ; RV64-2048-NEXT: vl2re8.v v12, (a1) # Unknown-size Folded Reload ; RV64-2048-NEXT: vrgather.vv v10, v12, v8, v0.t -; RV64-2048-NEXT: vsetvli zero, a2, e16,m2,ta,mu +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-2048-NEXT: lui a1, %hi(.LCPI1_4) ; RV64-2048-NEXT: addi a1, a1, %lo(.LCPI1_4) ; RV64-2048-NEXT: vle16.v v28, (a1) ; RV64-2048-NEXT: vrgather.vv v8, v26, v30 -; RV64-2048-NEXT: vsetvli zero, a2, e16,m2,tu,mu -; RV64-2048-NEXT: addi a1, zero, 256 +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-2048-NEXT: vrgather.vv v8, v12, v28, v0.t -; RV64-2048-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; RV64-2048-NEXT: addi a1, a0, 512 +; RV64-2048-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-2048-NEXT: vse16.v v8, (a1) ; RV64-2048-NEXT: vse16.v v10, (a0) ; RV64-2048-NEXT: addi sp, s0, -2048 diff --git a/llvm/test/CodeGen/RISCV/rvv/legalize-scalable-vectortype.ll b/llvm/test/CodeGen/RISCV/rvv/legalize-scalable-vectortype.ll --- a/llvm/test/CodeGen/RISCV/rvv/legalize-scalable-vectortype.ll +++ b/llvm/test/CodeGen/RISCV/rvv/legalize-scalable-vectortype.ll @@ -7,7 +7,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %v = trunc %a to @@ -19,7 +19,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %v = trunc %a to diff --git a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll @@ -49,7 +49,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -57,7 +57,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -70,7 +70,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -78,7 +78,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -91,7 +91,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vsext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -99,7 +99,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vsext.vf4 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -112,7 +112,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vzext.vf4 v8, v9 ; RV32-NEXT: ret ; @@ -120,7 +120,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vzext.vf4 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -133,7 +133,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vsext.vf8 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -142,7 +142,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vsext.vf8 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -155,7 +155,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vzext.vf8 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -164,7 +164,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e8,mf4,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vzext.vf8 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i8.nxv2p0i8( %ptrs, i32 1, %m, %passthru) @@ -251,7 +251,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 -; RV32-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t ; RV32-NEXT: vmv1r.v v8, v9 ; RV32-NEXT: ret @@ -260,7 +260,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t ; RV64-NEXT: vmv1r.v v8, v9 ; RV64-NEXT: ret @@ -314,7 +314,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vsext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -322,7 +322,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i16.nxv2p0i16( %ptrs, i32 2, %m, %passthru) @@ -335,7 +335,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vzext.vf2 v8, v9 ; RV32-NEXT: ret ; @@ -343,7 +343,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i16.nxv2p0i16( %ptrs, i32 2, %m, %passthru) @@ -356,7 +356,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vsext.vf4 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -365,7 +365,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vsext.vf4 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i16.nxv2p0i16( %ptrs, i32 2, %m, %passthru) @@ -378,7 +378,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vzext.vf4 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -387,7 +387,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vzext.vf4 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i16.nxv2p0i16( %ptrs, i32 2, %m, %passthru) @@ -475,7 +475,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -485,7 +485,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -500,7 +500,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -510,7 +510,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -526,7 +526,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -536,7 +536,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -552,7 +552,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -562,7 +562,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -616,7 +616,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vsext.vf2 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -625,7 +625,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vsext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i32.nxv2p0i32( %ptrs, i32 4, %m, %passthru) @@ -638,7 +638,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,tu,mu ; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t -; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV32-NEXT: vzext.vf2 v26, v9 ; RV32-NEXT: vmv2r.v v8, v26 ; RV32-NEXT: ret @@ -647,7 +647,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,tu,mu ; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t -; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; RV64-NEXT: vzext.vf2 v8, v10 ; RV64-NEXT: ret %v = call @llvm.masked.gather.nxv2i32.nxv2p0i32( %ptrs, i32 4, %m, %passthru) @@ -734,7 +734,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -744,7 +744,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -759,7 +759,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -769,7 +769,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -785,7 +785,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -795,7 +795,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -811,7 +811,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -821,7 +821,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -836,7 +836,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -846,7 +846,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -862,7 +862,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -872,7 +872,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -887,7 +887,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -897,7 +897,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1025,7 +1025,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1035,7 +1035,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1050,7 +1050,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1060,7 +1060,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1076,7 +1076,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1086,7 +1086,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1102,7 +1102,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1112,7 +1112,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1127,7 +1127,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1137,7 +1137,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1153,7 +1153,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1163,7 +1163,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1178,7 +1178,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1188,7 +1188,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1203,7 +1203,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1213,7 +1213,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1229,7 +1229,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1239,7 +1239,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1254,7 +1254,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsll.vi v8, v8, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1263,7 +1263,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsll.vi v8, v8, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1458,7 +1458,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1468,7 +1468,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1483,7 +1483,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1493,7 +1493,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1509,7 +1509,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1519,7 +1519,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1535,7 +1535,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -1545,7 +1545,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,tu,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -1673,7 +1673,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1683,7 +1683,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1698,7 +1698,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1708,7 +1708,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1724,7 +1724,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1734,7 +1734,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1750,7 +1750,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1760,7 +1760,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1775,7 +1775,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1785,7 +1785,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1801,7 +1801,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1811,7 +1811,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1826,7 +1826,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 2 -; RV32-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -1836,7 +1836,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v16, v8 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,tu,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 ; RV64-NEXT: ret @@ -1964,7 +1964,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1974,7 +1974,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -1989,7 +1989,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -1999,7 +1999,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2015,7 +2015,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf8 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2025,7 +2025,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2041,7 +2041,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v8 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2051,7 +2051,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2066,7 +2066,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2076,7 +2076,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2092,7 +2092,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf4 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2102,7 +2102,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2117,7 +2117,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v8, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2127,7 +2127,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2142,7 +2142,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2152,7 +2152,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2168,7 +2168,7 @@ ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vzext.vf2 v24, v8 ; RV32-NEXT: vsll.vi v8, v24, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2178,7 +2178,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf2 v24, v8 ; RV64-NEXT: vsll.vi v8, v24, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2193,7 +2193,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV32-NEXT: vsll.vi v8, v8, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV32-NEXT: vmv8r.v v8, v16 ; RV32-NEXT: ret @@ -2202,7 +2202,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsll.vi v8, v8, 3 -; RV64-NEXT: vsetvli a1, zero, e64,m8,tu,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t ; RV64-NEXT: vmv8r.v v8, v16 ; RV64-NEXT: ret @@ -2218,7 +2218,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m8,ta,mu ; RV32-NEXT: vsext.vf4 v16, v8 -; RV32-NEXT: vsetvli a1, zero, e8,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t ; RV32-NEXT: vmv2r.v v8, v10 ; RV32-NEXT: ret @@ -2227,7 +2227,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t ; RV64-NEXT: csrr a1, vlenb ; RV64-NEXT: srli a1, a1, 3 @@ -2235,7 +2235,7 @@ ; RV64-NEXT: vslidedown.vx v0, v0, a1 ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v9 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v11, (a0), v16, v0.t ; RV64-NEXT: vmv2r.v v8, v10 ; RV64-NEXT: ret @@ -2251,7 +2251,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m8,ta,mu ; RV32-NEXT: vsext.vf4 v16, v8 -; RV32-NEXT: vsetvli a1, zero, e8,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; RV32-NEXT: vloxei32.v v12, (a0), v16, v0.t ; RV32-NEXT: csrr a1, vlenb ; RV32-NEXT: srli a1, a1, 2 @@ -2259,7 +2259,7 @@ ; RV32-NEXT: vslidedown.vx v0, v0, a1 ; RV32-NEXT: vsetvli a1, zero, e32,m8,ta,mu ; RV32-NEXT: vsext.vf4 v16, v10 -; RV32-NEXT: vsetvli a1, zero, e8,m2,tu,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; RV32-NEXT: vloxei32.v v14, (a0), v16, v0.t ; RV32-NEXT: vmv4r.v v8, v12 ; RV32-NEXT: ret @@ -2269,7 +2269,7 @@ ; RV64-NEXT: vmv1r.v v25, v0 ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v8 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t ; RV64-NEXT: csrr a1, vlenb ; RV64-NEXT: srli a1, a1, 3 @@ -2277,7 +2277,7 @@ ; RV64-NEXT: vslidedown.vx v0, v0, a1 ; RV64-NEXT: vsetvli a2, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v9 -; RV64-NEXT: vsetvli a2, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v13, (a0), v16, v0.t ; RV64-NEXT: slli a2, a1, 1 ; RV64-NEXT: vsetvli a3, zero, e8,mf2,ta,mu @@ -2286,11 +2286,11 @@ ; RV64-NEXT: vslidedown.vx v0, v25, a1 ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v11 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vloxei64.v v15, (a0), v16, v0.t -; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 -; RV64-NEXT: vsetvli a1, zero, e8,m1,tu,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; RV64-NEXT: vmv1r.v v0, v25 ; RV64-NEXT: vloxei64.v v14, (a0), v16, v0.t ; RV64-NEXT: vmv4r.v v8, v12 diff --git a/llvm/test/CodeGen/RISCV/rvv/mscatter-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/mscatter-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/mscatter-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/mscatter-sdnode.ll @@ -64,7 +64,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 ; RV32-NEXT: vsoxei32.v v26, (zero), v9, v0.t ; RV32-NEXT: ret @@ -73,7 +73,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 ; RV64-NEXT: vsoxei64.v v26, (zero), v10, v0.t ; RV64-NEXT: ret @@ -87,9 +87,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v25, v26, 0 ; RV32-NEXT: vsoxei32.v v25, (zero), v10, v0.t ; RV32-NEXT: ret @@ -98,9 +98,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v25, v26, 0 ; RV64-NEXT: vsoxei64.v v25, (zero), v10, v0.t ; RV64-NEXT: ret @@ -180,7 +180,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v9 -; RV32-NEXT: vsetvli a1, zero, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -188,7 +188,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v9 -; RV64-NEXT: vsetvli a1, zero, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i8, i8* %base, %idxs @@ -256,7 +256,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vnsrl.wi v25, v8, 0 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 ; RV32-NEXT: vsoxei32.v v26, (zero), v10, v0.t ; RV32-NEXT: ret @@ -265,7 +265,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vnsrl.wi v25, v8, 0 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 ; RV64-NEXT: vsoxei64.v v26, (zero), v10, v0.t ; RV64-NEXT: ret @@ -346,7 +346,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -355,7 +355,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, %idxs @@ -369,7 +369,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -378,7 +378,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -393,7 +393,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -402,7 +402,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -417,7 +417,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -426,7 +426,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i16, i16* %base, %idxs @@ -569,7 +569,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -591,7 +591,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -614,7 +614,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -637,7 +637,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -659,7 +659,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -682,7 +682,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -704,7 +704,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds i32, i32* %base, %idxs @@ -820,7 +820,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v16 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -886,7 +886,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v16 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -951,7 +951,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v16, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1138,7 +1138,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1147,7 +1147,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, %idxs @@ -1161,7 +1161,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1170,7 +1170,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1185,7 +1185,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vzext.vf4 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1194,7 +1194,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1209,7 +1209,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v10 ; RV32-NEXT: vsll.vi v28, v28, 1 -; RV32-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1218,7 +1218,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v10 ; RV64-NEXT: vsll.vi v16, v16, 1 -; RV64-NEXT: vsetvli a1, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds half, half* %base, %idxs @@ -1342,7 +1342,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1364,7 +1364,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1387,7 +1387,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf8 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1410,7 +1410,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1432,7 +1432,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = sext %idxs to @@ -1455,7 +1455,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vzext.vf4 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %eidxs = zext %idxs to @@ -1477,7 +1477,7 @@ ; RV64-NEXT: vsetvli a1, zero, e64,m8,ta,mu ; RV64-NEXT: vsext.vf2 v16, v12 ; RV64-NEXT: vsll.vi v16, v16, 2 -; RV64-NEXT: vsetvli a1, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vsoxei64.v v8, (a0), v16, v0.t ; RV64-NEXT: ret %ptrs = getelementptr inbounds float, float* %base, %idxs @@ -1593,7 +1593,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf4 v28, v16 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1659,7 +1659,7 @@ ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsext.vf2 v28, v16 ; RV32-NEXT: vsll.vi v28, v28, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; @@ -1724,7 +1724,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a1, zero, e32,m4,ta,mu ; RV32-NEXT: vsll.vi v28, v16, 3 -; RV32-NEXT: vsetvli a1, zero, e64,m8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; RV32-NEXT: vsoxei32.v v8, (a0), v28, v0.t ; RV32-NEXT: ret ; diff --git a/llvm/test/CodeGen/RISCV/rvv/named-vector-shuffle-reverse.ll b/llvm/test/CodeGen/RISCV/rvv/named-vector-shuffle-reverse.ll --- a/llvm/test/CodeGen/RISCV/rvv/named-vector-shuffle-reverse.ll +++ b/llvm/test/CodeGen/RISCV/rvv/named-vector-shuffle-reverse.ll @@ -55,7 +55,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v25 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV32-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -92,7 +92,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,mf4,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v25 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV64-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -133,7 +133,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v25 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV32-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -170,7 +170,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,mf2,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v25 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV64-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -211,7 +211,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m1,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v25 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV32-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -248,7 +248,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m1,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v25 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v26, v25, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV64-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -288,7 +288,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m2,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v26 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v26, v26, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV32-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -322,7 +322,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m2,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v26 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v26, v26, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v25, v8, v26 ; RV64-BITS-UNKNOWN-NEXT: vmv1r.v v8, v25 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -361,7 +361,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m4,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v28 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v28, v28, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v26, v8, v28 ; RV32-BITS-UNKNOWN-NEXT: vmv2r.v v8, v26 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -398,7 +398,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m4,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v28 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v28, v28, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v26, v8, v28 ; RV64-BITS-UNKNOWN-NEXT: vmv2r.v v8, v26 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -439,7 +439,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m8,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v16 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v16, v16, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v28, v8, v16 ; RV32-BITS-UNKNOWN-NEXT: vmv4r.v v8, v28 ; RV32-BITS-UNKNOWN-NEXT: ret @@ -476,7 +476,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m8,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v16 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v16, v16, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v28, v8, v16 ; RV64-BITS-UNKNOWN-NEXT: vmv4r.v v8, v28 ; RV64-BITS-UNKNOWN-NEXT: ret @@ -517,7 +517,7 @@ ; RV32-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m8,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vid.v v16 ; RV32-BITS-UNKNOWN-NEXT: vrsub.vx v24, v16, a0 -; RV32-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v20, v8, v24 ; RV32-BITS-UNKNOWN-NEXT: vrgatherei16.vv v16, v12, v24 ; RV32-BITS-UNKNOWN-NEXT: vmv8r.v v8, v16 @@ -556,7 +556,7 @@ ; RV64-BITS-UNKNOWN-NEXT: vsetvli a1, zero, e16,m8,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vid.v v16 ; RV64-BITS-UNKNOWN-NEXT: vrsub.vx v24, v16, a0 -; RV64-BITS-UNKNOWN-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-BITS-UNKNOWN-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v20, v8, v24 ; RV64-BITS-UNKNOWN-NEXT: vrgatherei16.vv v16, v12, v24 ; RV64-BITS-UNKNOWN-NEXT: vmv8r.v v8, v16 diff --git a/llvm/test/CodeGen/RISCV/rvv/saddo-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/saddo-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/saddo-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/saddo-sdnode.ll @@ -10,9 +10,9 @@ ; CHECK-NEXT: vadd.vv v25, v8, v9 ; CHECK-NEXT: vmslt.vv v26, v25, v8 ; CHECK-NEXT: vmsle.vi v27, v9, -1 -; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v27, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vmerge.vim v8, v25, 0, v0 ; CHECK-NEXT: ret %a = call { , } @llvm.sadd.with.overflow.nxv2i32( %x, %y) diff --git a/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv32.ll @@ -291,7 +291,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 ; CHECK-NEXT: vmflt.vv v26, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -304,7 +304,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -319,7 +319,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -356,7 +356,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v10 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -370,7 +370,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -386,7 +386,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -401,7 +401,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v10 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -415,7 +415,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -430,7 +430,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 ; CHECK-NEXT: vmflt.vv v26, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -443,7 +443,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -458,7 +458,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -494,7 +494,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v10 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -506,7 +506,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -520,7 +520,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -556,7 +556,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -568,7 +568,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -582,7 +582,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -618,7 +618,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v25, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -630,7 +630,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -644,7 +644,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -680,7 +680,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -692,7 +692,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -706,7 +706,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -799,7 +799,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v25, v10, v10 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -813,7 +813,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -829,7 +829,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -844,7 +844,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v25, v10, v10 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -858,7 +858,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -1153,7 +1153,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 ; CHECK-NEXT: vmflt.vv v26, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -1166,7 +1166,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1181,7 +1181,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1218,7 +1218,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v12 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -1232,7 +1232,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1248,7 +1248,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1263,7 +1263,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v12 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -1277,7 +1277,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1292,7 +1292,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 ; CHECK-NEXT: vmflt.vv v26, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -1305,7 +1305,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1320,7 +1320,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1356,7 +1356,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v12 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -1368,7 +1368,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1382,7 +1382,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1418,7 +1418,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -1430,7 +1430,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1444,7 +1444,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1480,7 +1480,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v25, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -1492,7 +1492,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1506,7 +1506,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1542,7 +1542,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -1554,7 +1554,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1568,7 +1568,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1661,7 +1661,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v25, v12, v12 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -1675,7 +1675,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1691,7 +1691,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1706,7 +1706,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v25, v12, v12 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -1720,7 +1720,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -2015,7 +2015,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -2028,7 +2028,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2043,7 +2043,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2080,7 +2080,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v16, v16 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -2094,7 +2094,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2110,7 +2110,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2125,7 +2125,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v16, v16 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -2139,7 +2139,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2154,7 +2154,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -2167,7 +2167,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2182,7 +2182,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2218,7 +2218,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v16 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -2230,7 +2230,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2244,7 +2244,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2280,7 +2280,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -2292,7 +2292,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2306,7 +2306,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2342,7 +2342,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vv v25, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -2354,7 +2354,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2368,7 +2368,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2404,7 +2404,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -2416,7 +2416,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2430,7 +2430,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2523,7 +2523,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfne.vv v25, v16, v16 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -2537,7 +2537,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2553,7 +2553,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2568,7 +2568,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfne.vv v25, v16, v16 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -2582,7 +2582,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/setcc-fp-rv64.ll @@ -291,7 +291,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 ; CHECK-NEXT: vmflt.vv v26, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -304,7 +304,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -319,7 +319,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -356,7 +356,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v10 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -370,7 +370,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -386,7 +386,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -401,7 +401,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v10 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -415,7 +415,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfeq.vf v25, v26, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -430,7 +430,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 ; CHECK-NEXT: vmflt.vv v26, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -443,7 +443,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -458,7 +458,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -494,7 +494,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v10 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -506,7 +506,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -520,7 +520,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -556,7 +556,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v10 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -568,7 +568,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -582,7 +582,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -618,7 +618,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v25, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -630,7 +630,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -644,7 +644,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -680,7 +680,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v25, v10, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -692,7 +692,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -706,7 +706,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -799,7 +799,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v25, v10, v10 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -813,7 +813,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -829,7 +829,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -844,7 +844,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v25, v10, v10 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -858,7 +858,7 @@ ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vmfne.vf v25, v26, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %b, i32 0 @@ -1153,7 +1153,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 ; CHECK-NEXT: vmflt.vv v26, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -1166,7 +1166,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1181,7 +1181,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1218,7 +1218,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v12 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -1232,7 +1232,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1248,7 +1248,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1263,7 +1263,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v12 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -1277,7 +1277,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfeq.vf v25, v28, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1292,7 +1292,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 ; CHECK-NEXT: vmflt.vv v26, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -1305,7 +1305,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1320,7 +1320,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1356,7 +1356,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v12 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -1368,7 +1368,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1382,7 +1382,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1418,7 +1418,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v12 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -1430,7 +1430,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1444,7 +1444,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1480,7 +1480,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v25, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -1492,7 +1492,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1506,7 +1506,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1542,7 +1542,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v25, v12, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -1554,7 +1554,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1568,7 +1568,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1661,7 +1661,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v25, v12, v12 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -1675,7 +1675,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1691,7 +1691,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -1706,7 +1706,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v25, v12, v12 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -1720,7 +1720,7 @@ ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vmfne.vf v25, v28, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, float %b, i32 0 @@ -2015,7 +2015,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp one %va, %vb @@ -2028,7 +2028,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2043,7 +2043,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2080,7 +2080,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v16, v16 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -2094,7 +2094,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2110,7 +2110,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2125,7 +2125,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfeq.vv v25, v16, v16 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ord %va, %vb @@ -2139,7 +2139,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfeq.vf v25, v16, fa0 ; CHECK-NEXT: vmfeq.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmand.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2154,7 +2154,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 ; CHECK-NEXT: vmflt.vv v26, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp ueq %va, %vb @@ -2167,7 +2167,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 ; CHECK-NEXT: vmfgt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2182,7 +2182,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 ; CHECK-NEXT: vmflt.vf v26, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2218,7 +2218,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vv v25, v8, v16 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ugt %va, %vb @@ -2230,7 +2230,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2244,7 +2244,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2280,7 +2280,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v8, v16 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp uge %va, %vb @@ -2292,7 +2292,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2306,7 +2306,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2342,7 +2342,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vv v25, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ult %va, %vb @@ -2354,7 +2354,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfge.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2368,7 +2368,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfle.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2404,7 +2404,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vv v25, v16, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %vc = fcmp ule %va, %vb @@ -2416,7 +2416,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfgt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2430,7 +2430,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmflt.vf v25, v8, fa0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmnand.mm v0, v25, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2523,7 +2523,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfne.vv v25, v16, v16 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -2537,7 +2537,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2553,7 +2553,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v25, v26 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 @@ -2568,7 +2568,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vmfne.vv v25, v16, v16 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %vc = fcmp uno %va, %vb @@ -2582,7 +2582,7 @@ ; CHECK-NEXT: vfmv.v.f v16, fa0 ; CHECK-NEXT: vmfne.vf v25, v16, fa0 ; CHECK-NEXT: vmfne.vv v26, v8, v8 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmor.mm v0, v26, v25 ; CHECK-NEXT: ret %head = insertelement undef, double %b, i32 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/vaadd-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vaadd-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vaadd-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vaadd-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vaadd.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vaadd.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vaadd.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vaadd.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vaaddu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vaaddu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vaaddu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vaaddu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vaaddu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vaaddu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vaaddu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vaaddu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vadd-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vadd-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vadd-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vadd-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vadd.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vadd.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vadd.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vadd.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vand-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vand-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vand-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vand-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vand.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vand.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vand.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vand.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vasub-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vasub-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vasub-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vasub-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vasub.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vasub.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vasub.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vasub.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vasubu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vasubu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vasubu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vasubu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vasubu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vasubu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vasubu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vasubu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vdiv-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vdiv-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vdiv-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vdiv-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vdiv.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vdiv.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vdiv.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vdiv.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vdivu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vdivu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vdivu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vdivu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vdivu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vdivu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vdivu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vdivu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vfcopysign-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/vfcopysign-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/vfcopysign-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vfcopysign-sdnode.ll @@ -69,7 +69,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -98,7 +98,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -115,7 +115,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -129,9 +129,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vfsgnj.vv v8, v8, v25 ; CHECK-NEXT: ret @@ -147,7 +147,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -162,9 +162,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v25, v26 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v25 ; CHECK-NEXT: ret @@ -337,7 +337,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfmv.v.f v28, fa0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -366,7 +366,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfmv.v.f v28, fa0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -383,7 +383,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -397,9 +397,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vfmv.v.f v16, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -415,7 +415,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -430,9 +430,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vfmv.v.f v16, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.rod.f.f.w v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v28 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -593,7 +593,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v25 ; CHECK-NEXT: ret %e = fpext %vs to @@ -607,7 +607,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -622,7 +622,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v25 ; CHECK-NEXT: ret %n = fneg %vs @@ -637,7 +637,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -665,7 +665,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -694,7 +694,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v26, v25 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret @@ -855,7 +855,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v12 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v28 ; CHECK-NEXT: ret %e = fpext %vs to @@ -869,7 +869,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v28 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -884,7 +884,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v12 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v28 ; CHECK-NEXT: ret %n = fneg %vs @@ -899,7 +899,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v28 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -927,7 +927,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vfmv.v.f v16, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v28, v16 ; CHECK-NEXT: vfsgnj.vv v8, v8, v28 ; CHECK-NEXT: ret @@ -956,7 +956,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu ; CHECK-NEXT: vfmv.v.f v16, fa0 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfncvt.f.f.w v28, v16 ; CHECK-NEXT: vfsgnjn.vv v8, v8, v28 ; CHECK-NEXT: ret @@ -1069,9 +1069,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret %e = fpext %vs to @@ -1085,9 +1085,9 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v26 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -1102,9 +1102,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret %n = fneg %vs @@ -1119,9 +1119,9 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v26 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v25 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -1137,7 +1137,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v25 ; CHECK-NEXT: ret %e = fpext %vs to @@ -1151,7 +1151,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %s, i32 0 @@ -1166,7 +1166,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v25, v9 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v25 ; CHECK-NEXT: ret %n = fneg %vs @@ -1181,7 +1181,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vfmv.v.f v25, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v26, v25 -; CHECK-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v26 ; CHECK-NEXT: ret %head = insertelement undef, float %s, i32 0 @@ -1341,9 +1341,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v16 ; CHECK-NEXT: ret %e = fpext %vs to @@ -1357,9 +1357,9 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v16 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -1374,9 +1374,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v28, v16 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v16 ; CHECK-NEXT: ret %n = fneg %vs @@ -1391,9 +1391,9 @@ ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vfmv.v.f v26, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v28, v26 -; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v16 ; CHECK-NEXT: ret %head = insertelement undef, half %s, i32 0 @@ -1409,7 +1409,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v24, v16 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v24 ; CHECK-NEXT: ret %e = fpext %vs to @@ -1423,7 +1423,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnj.vv v8, v8, v16 ; CHECK-NEXT: ret %head = insertelement undef, float %s, i32 0 @@ -1438,7 +1438,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfwcvt.f.f.v v24, v16 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v24 ; CHECK-NEXT: ret %n = fneg %vs @@ -1453,7 +1453,7 @@ ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vfmv.v.f v28, fa0 ; CHECK-NEXT: vfwcvt.f.f.v v16, v28 -; CHECK-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,ta,mu ; CHECK-NEXT: vfsgnjn.vv v8, v8, v16 ; CHECK-NEXT: ret %head = insertelement undef, float %s, i32 0 diff --git a/llvm/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll @@ -29,7 +29,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v8, v25 ; RV32-NEXT: ret ; @@ -37,7 +37,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v8, v25 ; RV64-NEXT: ret %evec = fpext %va to @@ -69,7 +69,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v8, v25 ; RV32-NEXT: ret ; @@ -77,7 +77,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v8, v25 ; RV64-NEXT: ret %evec = fpext %va to @@ -109,7 +109,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v26, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v8, v26 ; RV32-NEXT: ret ; @@ -117,7 +117,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v26, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v8, v26 ; RV64-NEXT: ret %evec = fpext %va to @@ -149,7 +149,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v28, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v8, v28 ; RV32-NEXT: ret ; @@ -157,7 +157,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v28, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v8, v28 ; RV64-NEXT: ret %evec = fpext %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll @@ -113,7 +113,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v25 ; RV32-NEXT: ret ; @@ -121,7 +121,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v25 ; RV64-NEXT: ret %evec = fptosi %va to @@ -133,7 +133,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v25 ; RV32-NEXT: ret ; @@ -141,7 +141,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v25 ; RV64-NEXT: ret %evec = fptoui %va to @@ -257,7 +257,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v25 ; RV32-NEXT: ret ; @@ -265,7 +265,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v25 ; RV64-NEXT: ret %evec = fptosi %va to @@ -277,7 +277,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v25, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v25 ; RV32-NEXT: ret ; @@ -285,7 +285,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v25, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v25 ; RV64-NEXT: ret %evec = fptoui %va to @@ -401,7 +401,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v26, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v26 ; RV32-NEXT: ret ; @@ -409,7 +409,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v26, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v26 ; RV64-NEXT: ret %evec = fptosi %va to @@ -421,7 +421,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v26, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v26 ; RV32-NEXT: ret ; @@ -429,7 +429,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v26, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v26 ; RV64-NEXT: ret %evec = fptoui %va to @@ -545,7 +545,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v28, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v28 ; RV32-NEXT: ret ; @@ -553,7 +553,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v28, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v28 ; RV64-NEXT: ret %evec = fptosi %va to @@ -565,7 +565,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV32-NEXT: vfwcvt.f.f.v v28, v8 -; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v28 ; RV32-NEXT: ret ; @@ -573,7 +573,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV64-NEXT: vfwcvt.f.f.v v28, v8 -; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v28 ; RV64-NEXT: ret %evec = fptoui %va to @@ -757,7 +757,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -765,7 +765,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -777,7 +777,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -785,7 +785,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -901,7 +901,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -909,7 +909,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -921,7 +921,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -929,7 +929,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1045,7 +1045,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1053,7 +1053,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1065,7 +1065,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1073,7 +1073,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1189,7 +1189,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1197,7 +1197,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1209,7 +1209,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1217,7 +1217,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1333,7 +1333,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v28, 0 ; RV32-NEXT: ret ; @@ -1341,7 +1341,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v28, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1353,7 +1353,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v28, 0 ; RV32-NEXT: ret ; @@ -1361,7 +1361,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v28, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1441,9 +1441,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1451,9 +1451,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1465,9 +1465,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1475,9 +1475,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1489,7 +1489,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1497,7 +1497,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1509,7 +1509,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1517,7 +1517,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1597,9 +1597,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1607,9 +1607,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1621,9 +1621,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v25, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1631,9 +1631,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v25, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1645,7 +1645,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1653,7 +1653,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1665,7 +1665,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1673,7 +1673,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1753,9 +1753,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vnsrl.wi v25, v26, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1763,9 +1763,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vnsrl.wi v25, v26, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1777,9 +1777,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vnsrl.wi v25, v26, 0 -; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v25, 0 ; RV32-NEXT: ret ; @@ -1787,9 +1787,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vnsrl.wi v25, v26, 0 -; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v25, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1801,7 +1801,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1809,7 +1809,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1821,7 +1821,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1829,7 +1829,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1909,9 +1909,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v28, 0 -; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1919,9 +1919,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v28, 0 -; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1933,9 +1933,9 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vnsrl.wi v26, v28, 0 -; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV32-NEXT: vnsrl.wi v8, v26, 0 ; RV32-NEXT: ret ; @@ -1943,9 +1943,9 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vnsrl.wi v26, v28, 0 -; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; RV64-NEXT: vnsrl.wi v8, v26, 0 ; RV64-NEXT: ret %evec = fptoui %va to @@ -1957,7 +1957,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v28, 0 ; RV32-NEXT: ret ; @@ -1965,7 +1965,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v28, 0 ; RV64-NEXT: ret %evec = fptosi %va to @@ -1977,7 +1977,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vnsrl.wi v8, v28, 0 ; RV32-NEXT: ret ; @@ -1985,7 +1985,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vnsrl.wi v8, v28, 0 ; RV64-NEXT: ret %evec = fptoui %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll @@ -105,7 +105,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.rod.f.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -113,7 +113,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.rod.f.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = fptrunc %va to @@ -145,7 +145,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.rod.f.f.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -153,7 +153,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.rod.f.f.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = fptrunc %va to @@ -185,7 +185,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.rod.f.f.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v26 ; RV32-NEXT: ret ; @@ -193,7 +193,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.rod.f.f.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v26 ; RV64-NEXT: ret %evec = fptrunc %va to @@ -225,7 +225,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.rod.f.f.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v28 ; RV32-NEXT: ret ; @@ -233,7 +233,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.rod.f.f.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v28 ; RV64-NEXT: ret %evec = fptrunc %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll --- a/llvm/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll @@ -1549,7 +1549,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.f.x.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -1557,7 +1557,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.f.x.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = sitofp %va to @@ -1569,7 +1569,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV32-NEXT: vfncvt.f.xu.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -1577,7 +1577,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; RV64-NEXT: vfncvt.f.xu.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = uitofp %va to @@ -1657,7 +1657,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.f.x.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -1665,7 +1665,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.f.x.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = sitofp %va to @@ -1677,7 +1677,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV32-NEXT: vfncvt.f.xu.w v25, v8 -; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v25 ; RV32-NEXT: ret ; @@ -1685,7 +1685,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; RV64-NEXT: vfncvt.f.xu.w v25, v8 -; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v25 ; RV64-NEXT: ret %evec = uitofp %va to @@ -1765,7 +1765,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.f.x.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v26 ; RV32-NEXT: ret ; @@ -1773,7 +1773,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.f.x.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v26 ; RV64-NEXT: ret %evec = sitofp %va to @@ -1785,7 +1785,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV32-NEXT: vfncvt.f.xu.w v26, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v26 ; RV32-NEXT: ret ; @@ -1793,7 +1793,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; RV64-NEXT: vfncvt.f.xu.w v26, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v26 ; RV64-NEXT: ret %evec = uitofp %va to @@ -1873,7 +1873,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.f.x.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v28 ; RV32-NEXT: ret ; @@ -1881,7 +1881,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.f.x.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v28 ; RV64-NEXT: ret %evec = sitofp %va to @@ -1893,7 +1893,7 @@ ; RV32: # %bb.0: ; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV32-NEXT: vfncvt.f.xu.w v28, v8 -; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV32-NEXT: vfncvt.f.f.w v8, v28 ; RV32-NEXT: ret ; @@ -1901,7 +1901,7 @@ ; RV64: # %bb.0: ; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; RV64-NEXT: vfncvt.f.xu.w v28, v8 -; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; RV64-NEXT: vfncvt.f.f.w v8, v28 ; RV64-NEXT: ret %evec = uitofp %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vlseg-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vlseg-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vlseg-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vlseg-rv32.ll @@ -24,7 +24,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -58,7 +58,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -93,7 +93,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -129,7 +129,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -166,7 +166,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -204,7 +204,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -243,7 +243,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -283,7 +283,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -317,7 +317,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu ; CHECK-NEXT: vlseg2e8.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg2e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -352,7 +352,7 @@ ; CHECK-NEXT: vlseg3e8.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg3e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -388,7 +388,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg4e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -422,7 +422,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -457,7 +457,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -493,7 +493,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -530,7 +530,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -568,7 +568,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -607,7 +607,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -647,7 +647,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -681,7 +681,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -716,7 +716,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -752,7 +752,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -789,7 +789,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -827,7 +827,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -906,7 +906,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -940,7 +940,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -975,7 +975,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1011,7 +1011,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1048,7 +1048,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1086,7 +1086,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1125,7 +1125,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1165,7 +1165,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1199,7 +1199,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -1234,7 +1234,7 @@ ; CHECK-NEXT: vlseg3e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg3e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -1270,7 +1270,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg4e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -1304,7 +1304,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1339,7 +1339,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1375,7 +1375,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1412,7 +1412,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1450,7 +1450,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1489,7 +1489,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1529,7 +1529,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1563,7 +1563,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -1597,7 +1597,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1632,7 +1632,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1668,7 +1668,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1705,7 +1705,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1743,7 +1743,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1782,7 +1782,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1822,7 +1822,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1856,7 +1856,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1891,7 +1891,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1927,7 +1927,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1964,7 +1964,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2002,7 +2002,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2041,7 +2041,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2081,7 +2081,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2115,7 +2115,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu ; CHECK-NEXT: vlseg2e8.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vlseg2e8.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2149,7 +2149,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2184,7 +2184,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2220,7 +2220,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2257,7 +2257,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2295,7 +2295,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2334,7 +2334,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2374,7 +2374,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2408,7 +2408,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2443,7 +2443,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2479,7 +2479,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2516,7 +2516,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2554,7 +2554,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2593,7 +2593,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2633,7 +2633,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2667,7 +2667,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -2702,7 +2702,7 @@ ; CHECK-NEXT: vlseg3e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg3e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -2738,7 +2738,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg4e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -2772,7 +2772,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2806,7 +2806,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m4,ta,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2840,7 +2840,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m1,ta,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2875,7 +2875,7 @@ ; CHECK-NEXT: vlseg3e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg3e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2911,7 +2911,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg4e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2948,7 +2948,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg5e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2986,7 +2986,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg6e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3025,7 +3025,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg7e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3065,7 +3065,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg8e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3099,7 +3099,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3134,7 +3134,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3170,7 +3170,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3207,7 +3207,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3245,7 +3245,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3284,7 +3284,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3324,7 +3324,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3358,7 +3358,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3393,7 +3393,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3429,7 +3429,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3466,7 +3466,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3504,7 +3504,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3543,7 +3543,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3583,7 +3583,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3617,7 +3617,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3652,7 +3652,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3688,7 +3688,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3725,7 +3725,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3763,7 +3763,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3802,7 +3802,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3842,7 +3842,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3876,7 +3876,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -3911,7 +3911,7 @@ ; CHECK-NEXT: vlseg3e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg3e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -3947,7 +3947,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg4e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -3981,7 +3981,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -4015,7 +4015,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m2,ta,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4050,7 +4050,7 @@ ; CHECK-NEXT: vlseg3e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg3e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4086,7 +4086,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg4e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4120,7 +4120,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4155,7 +4155,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4191,7 +4191,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4228,7 +4228,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4266,7 +4266,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4305,7 +4305,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4345,7 +4345,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4379,7 +4379,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4414,7 +4414,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4450,7 +4450,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4487,7 +4487,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4525,7 +4525,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4564,7 +4564,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4604,7 +4604,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4638,7 +4638,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4673,7 +4673,7 @@ ; CHECK-NEXT: vlseg3e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg3e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4709,7 +4709,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg4e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vlseg-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vlseg-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vlseg-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vlseg-rv64.ll @@ -24,7 +24,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -58,7 +58,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -93,7 +93,7 @@ ; CHECK-NEXT: vlseg3e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg3e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -129,7 +129,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg4e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -163,7 +163,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu ; CHECK-NEXT: vlseg2e8.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg2e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -198,7 +198,7 @@ ; CHECK-NEXT: vlseg3e8.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg3e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -234,7 +234,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlseg4e8.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -268,7 +268,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m1,ta,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -303,7 +303,7 @@ ; CHECK-NEXT: vlseg3e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg3e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -339,7 +339,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg4e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -376,7 +376,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg5e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -414,7 +414,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg6e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -453,7 +453,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg7e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -493,7 +493,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg8e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -527,7 +527,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -562,7 +562,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -598,7 +598,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -635,7 +635,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -673,7 +673,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -712,7 +712,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -752,7 +752,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -786,7 +786,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -821,7 +821,7 @@ ; CHECK-NEXT: vlseg3e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg3e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -857,7 +857,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg4e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -891,7 +891,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -926,7 +926,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -962,7 +962,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -999,7 +999,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1037,7 +1037,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1076,7 +1076,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1116,7 +1116,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1150,7 +1150,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1185,7 +1185,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1221,7 +1221,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1258,7 +1258,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1296,7 +1296,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1335,7 +1335,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1375,7 +1375,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1409,7 +1409,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1444,7 +1444,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1480,7 +1480,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1517,7 +1517,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1555,7 +1555,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1634,7 +1634,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1668,7 +1668,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1703,7 +1703,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1739,7 +1739,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1776,7 +1776,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1814,7 +1814,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1853,7 +1853,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1893,7 +1893,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1927,7 +1927,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m4,ta,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -1961,7 +1961,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1996,7 +1996,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2032,7 +2032,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2069,7 +2069,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2107,7 +2107,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2146,7 +2146,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2186,7 +2186,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2220,7 +2220,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2255,7 +2255,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2291,7 +2291,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2328,7 +2328,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2366,7 +2366,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2405,7 +2405,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2445,7 +2445,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2479,7 +2479,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg2e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2514,7 +2514,7 @@ ; CHECK-NEXT: vlseg3e8.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg3e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2550,7 +2550,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg4e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2587,7 +2587,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg5e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2625,7 +2625,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg6e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2664,7 +2664,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg7e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2704,7 +2704,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlseg8e8.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2738,7 +2738,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2772,7 +2772,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu ; CHECK-NEXT: vlseg2e8.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vlseg2e8.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2806,7 +2806,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2841,7 +2841,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2877,7 +2877,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2914,7 +2914,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2952,7 +2952,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2991,7 +2991,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3031,7 +3031,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3065,7 +3065,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m2,ta,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -3100,7 +3100,7 @@ ; CHECK-NEXT: vlseg3e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg3e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -3136,7 +3136,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg4e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -3170,7 +3170,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -3204,7 +3204,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m4,ta,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlseg2e64.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -3238,7 +3238,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m1,ta,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg2e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3273,7 +3273,7 @@ ; CHECK-NEXT: vlseg3e64.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg3e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3309,7 +3309,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg4e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3346,7 +3346,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg5e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3384,7 +3384,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg6e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3423,7 +3423,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg7e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3463,7 +3463,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlseg8e64.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3497,7 +3497,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3532,7 +3532,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3568,7 +3568,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3605,7 +3605,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3643,7 +3643,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3682,7 +3682,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3722,7 +3722,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3756,7 +3756,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3791,7 +3791,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3827,7 +3827,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3864,7 +3864,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3902,7 +3902,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3941,7 +3941,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3981,7 +3981,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4015,7 +4015,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg2e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4050,7 +4050,7 @@ ; CHECK-NEXT: vlseg3e32.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg3e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4086,7 +4086,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg4e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4123,7 +4123,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg5e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4161,7 +4161,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg6e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4200,7 +4200,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg7e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4240,7 +4240,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlseg8e32.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4274,7 +4274,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg2e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4309,7 +4309,7 @@ ; CHECK-NEXT: vlseg3e16.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg3e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4345,7 +4345,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlseg4e16.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4379,7 +4379,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlseg2e32.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -4413,7 +4413,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m2,ta,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg2e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4448,7 +4448,7 @@ ; CHECK-NEXT: vlseg3e64.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg3e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4484,7 +4484,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlseg4e64.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4518,7 +4518,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4553,7 +4553,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4589,7 +4589,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4626,7 +4626,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4664,7 +4664,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4703,7 +4703,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4743,7 +4743,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4777,7 +4777,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg2e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4812,7 +4812,7 @@ ; CHECK-NEXT: vlseg3e16.v v7, (a0) ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg3e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4848,7 +4848,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg4e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4885,7 +4885,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg5e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4923,7 +4923,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg6e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4962,7 +4962,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg7e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -5002,7 +5002,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlseg8e16.v v7, (a0), v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -5036,7 +5036,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg2e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -5071,7 +5071,7 @@ ; CHECK-NEXT: vlseg3e32.v v6, (a0) ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg3e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -5107,7 +5107,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlseg4e32.v v6, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv32.ll @@ -24,7 +24,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -58,7 +58,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf8,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -93,7 +93,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -129,7 +129,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -166,7 +166,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -204,7 +204,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -243,7 +243,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -283,7 +283,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -317,7 +317,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu ; CHECK-NEXT: vlsseg2e8.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg2e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -352,7 +352,7 @@ ; CHECK-NEXT: vlsseg3e8.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg3e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -388,7 +388,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg4e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -422,7 +422,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m1,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -457,7 +457,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -493,7 +493,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -530,7 +530,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -568,7 +568,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -607,7 +607,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -647,7 +647,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -681,7 +681,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m1,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -716,7 +716,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -752,7 +752,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -789,7 +789,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -827,7 +827,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -906,7 +906,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -940,7 +940,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,mf2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -975,7 +975,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1011,7 +1011,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1048,7 +1048,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1086,7 +1086,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1125,7 +1125,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1165,7 +1165,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1199,7 +1199,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -1234,7 +1234,7 @@ ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -1270,7 +1270,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -1304,7 +1304,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m1,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1339,7 +1339,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1375,7 +1375,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1412,7 +1412,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1450,7 +1450,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1489,7 +1489,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1529,7 +1529,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1563,7 +1563,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m4,ta,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -1597,7 +1597,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf2,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1632,7 +1632,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1668,7 +1668,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1705,7 +1705,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1743,7 +1743,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1782,7 +1782,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1822,7 +1822,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1856,7 +1856,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1891,7 +1891,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1927,7 +1927,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1964,7 +1964,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2002,7 +2002,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2041,7 +2041,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2081,7 +2081,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2115,7 +2115,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu ; CHECK-NEXT: vlsseg2e8.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vlsseg2e8.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2149,7 +2149,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf4,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2184,7 +2184,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2220,7 +2220,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2257,7 +2257,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2295,7 +2295,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2334,7 +2334,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2374,7 +2374,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2408,7 +2408,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2443,7 +2443,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2479,7 +2479,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2516,7 +2516,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2554,7 +2554,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2593,7 +2593,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2633,7 +2633,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2667,7 +2667,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -2702,7 +2702,7 @@ ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -2738,7 +2738,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -2772,7 +2772,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2806,7 +2806,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2840,7 +2840,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2875,7 +2875,7 @@ ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2911,7 +2911,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg4e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2948,7 +2948,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg5e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2986,7 +2986,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg6e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3025,7 +3025,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg7e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3065,7 +3065,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg8e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3099,7 +3099,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m1,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3134,7 +3134,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3170,7 +3170,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3207,7 +3207,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3245,7 +3245,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3284,7 +3284,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3324,7 +3324,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3358,7 +3358,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3393,7 +3393,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3429,7 +3429,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3466,7 +3466,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3504,7 +3504,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3543,7 +3543,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3583,7 +3583,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3617,7 +3617,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,mf2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3652,7 +3652,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3688,7 +3688,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3725,7 +3725,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3763,7 +3763,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3802,7 +3802,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3842,7 +3842,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3876,7 +3876,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -3911,7 +3911,7 @@ ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -3947,7 +3947,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -3981,7 +3981,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m4,ta,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -4015,7 +4015,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4050,7 +4050,7 @@ ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4086,7 +4086,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg4e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4120,7 +4120,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m1,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4155,7 +4155,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4191,7 +4191,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4228,7 +4228,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4266,7 +4266,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4305,7 +4305,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4345,7 +4345,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4379,7 +4379,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4414,7 +4414,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4450,7 +4450,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4487,7 +4487,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4525,7 +4525,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4564,7 +4564,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4604,7 +4604,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4638,7 +4638,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4673,7 +4673,7 @@ ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4709,7 +4709,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vlsseg-rv64.ll @@ -24,7 +24,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -58,7 +58,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -93,7 +93,7 @@ ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -129,7 +129,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -163,7 +163,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m2,ta,mu ; CHECK-NEXT: vlsseg2e8.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg2e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -198,7 +198,7 @@ ; CHECK-NEXT: vlsseg3e8.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg3e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -234,7 +234,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vlsseg4e8.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -268,7 +268,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -303,7 +303,7 @@ ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -339,7 +339,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg4e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -376,7 +376,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg5e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -414,7 +414,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg6e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -453,7 +453,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg7e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -493,7 +493,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg8e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -527,7 +527,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,mf2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -562,7 +562,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -598,7 +598,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -635,7 +635,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -673,7 +673,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -712,7 +712,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -752,7 +752,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -786,7 +786,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -821,7 +821,7 @@ ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -857,7 +857,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -891,7 +891,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf2,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -926,7 +926,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -962,7 +962,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -999,7 +999,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1037,7 +1037,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1076,7 +1076,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1116,7 +1116,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1150,7 +1150,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1185,7 +1185,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1221,7 +1221,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1258,7 +1258,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1296,7 +1296,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1335,7 +1335,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1375,7 +1375,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1409,7 +1409,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m1,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1444,7 +1444,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1480,7 +1480,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1517,7 +1517,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1555,7 +1555,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1634,7 +1634,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1668,7 +1668,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m1,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1703,7 +1703,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -1739,7 +1739,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -1776,7 +1776,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -1814,7 +1814,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -1853,7 +1853,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -1893,7 +1893,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -1927,7 +1927,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -1961,7 +1961,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m1,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -1996,7 +1996,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2032,7 +2032,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2069,7 +2069,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2107,7 +2107,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2146,7 +2146,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2186,7 +2186,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2220,7 +2220,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf8,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2255,7 +2255,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2291,7 +2291,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2328,7 +2328,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2366,7 +2366,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2405,7 +2405,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2445,7 +2445,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2479,7 +2479,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,mf4,ta,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg2e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2514,7 +2514,7 @@ ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg3e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2550,7 +2550,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg4e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2587,7 +2587,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg5e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2625,7 +2625,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg6e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2664,7 +2664,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg7e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -2704,7 +2704,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vlsseg8e8.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -2738,7 +2738,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m4,ta,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2772,7 +2772,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e8,m4,ta,mu ; CHECK-NEXT: vlsseg2e8.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vlsseg2e8.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -2806,7 +2806,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -2841,7 +2841,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -2877,7 +2877,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -2914,7 +2914,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -2952,7 +2952,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -2991,7 +2991,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3031,7 +3031,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3065,7 +3065,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -3100,7 +3100,7 @@ ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -3136,7 +3136,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg4e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -3170,7 +3170,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -3204,7 +3204,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vlsseg2e64.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -3238,7 +3238,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg2e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3273,7 +3273,7 @@ ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg3e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3309,7 +3309,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg4e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3346,7 +3346,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg5e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3384,7 +3384,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg6e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3423,7 +3423,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg7e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3463,7 +3463,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vlsseg8e64.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3497,7 +3497,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m1,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3532,7 +3532,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3568,7 +3568,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3605,7 +3605,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3643,7 +3643,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3682,7 +3682,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3722,7 +3722,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -3756,7 +3756,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -3791,7 +3791,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -3827,7 +3827,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -3864,7 +3864,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -3902,7 +3902,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -3941,7 +3941,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -3981,7 +3981,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4015,7 +4015,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,mf2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4050,7 +4050,7 @@ ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4086,7 +4086,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4123,7 +4123,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg5e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4161,7 +4161,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg6e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4200,7 +4200,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg7e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4240,7 +4240,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vlsseg8e32.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4274,7 +4274,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4309,7 +4309,7 @@ ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4345,7 +4345,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4379,7 +4379,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m4,ta,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetvli zero, a2, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vlsseg2e32.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -4413,7 +4413,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg2e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -4448,7 +4448,7 @@ ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg3e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -4484,7 +4484,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vlsseg4e64.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret @@ -4518,7 +4518,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,m1,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4553,7 +4553,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4589,7 +4589,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4626,7 +4626,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4664,7 +4664,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4703,7 +4703,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -4743,7 +4743,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -4777,7 +4777,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e16,mf2,ta,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg2e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8 ; CHECK-NEXT: ret @@ -4812,7 +4812,7 @@ ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1 ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg3e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9 ; CHECK-NEXT: ret @@ -4848,7 +4848,7 @@ ; CHECK-NEXT: vmv1r.v v8, v7 ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg4e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10 ; CHECK-NEXT: ret @@ -4885,7 +4885,7 @@ ; CHECK-NEXT: vmv1r.v v9, v7 ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg5e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11 ; CHECK-NEXT: ret @@ -4923,7 +4923,7 @@ ; CHECK-NEXT: vmv1r.v v10, v7 ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg6e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12 ; CHECK-NEXT: ret @@ -4962,7 +4962,7 @@ ; CHECK-NEXT: vmv1r.v v11, v7 ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg7e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13 ; CHECK-NEXT: ret @@ -5002,7 +5002,7 @@ ; CHECK-NEXT: vmv1r.v v12, v7 ; CHECK-NEXT: vmv1r.v v13, v7 ; CHECK-NEXT: vmv1r.v v14, v7 -; CHECK-NEXT: vsetvli zero, a2, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vlsseg8e16.v v7, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8 killed $v8 killed $v7_v8_v9_v10_v11_v12_v13_v14 ; CHECK-NEXT: ret @@ -5036,7 +5036,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e32,m2,ta,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg2e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2 ; CHECK-NEXT: ret @@ -5071,7 +5071,7 @@ ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1 ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg3e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2 ; CHECK-NEXT: ret @@ -5107,7 +5107,7 @@ ; CHECK-NEXT: vmv2r.v v8, v6 ; CHECK-NEXT: vmv2r.v v10, v6 ; CHECK-NEXT: vmv2r.v v12, v6 -; CHECK-NEXT: vsetvli zero, a2, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vlsseg4e32.v v6, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m2 killed $v8m2 killed $v6m2_v8m2_v10m2_v12m2 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmacc-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmacc-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmacc-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmacc-rv32.ll @@ -1534,7 +1534,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmacc.vv v8, v25, v9 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1564,7 +1564,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmacc.vv v8, v25, v9, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmacc.vv v8, v26, v10 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1624,7 +1624,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmacc.vv v8, v26, v10, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1654,7 +1654,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmacc.vv v8, v28, v12 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1684,7 +1684,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmacc.vv v8, v28, v12, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmadd-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmadd-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmadd-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmadd-rv32.ll @@ -1534,7 +1534,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmadd.vv v8, v25, v9 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1564,7 +1564,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmadd.vv v8, v25, v9, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmadd.vv v8, v26, v10 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1624,7 +1624,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmadd.vv v8, v26, v10, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1654,7 +1654,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmadd.vv v8, v28, v12 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1684,7 +1684,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmadd.vv v8, v28, v12, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmax-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmax-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmax-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmax-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmax.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmax.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmax.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmax.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmaxu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmaxu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmaxu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmaxu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmaxu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmaxu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmaxu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmaxu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfeq-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfeq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfeq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfge-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmfge-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfge-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfge-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfge-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmfge-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfge-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfge-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfgt-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfle-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmfle-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfle-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfle-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfle-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmfle-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfle-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfle-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmflt-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmflt-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmflt-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmflt-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmflt-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmflt-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmflt-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmflt-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmflt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmflt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmflt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmflt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfne-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmfne-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfne-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfne-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmfne-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmfne-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmfne-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmfne-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmfne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmfne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmfne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmfne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmin-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmin-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmin-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmin-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmin.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmin.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmin.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmin.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vminu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vminu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vminu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vminu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vminu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vminu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vminu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vminu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmseq-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmseq-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmseq-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmseq-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmseq.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmseq.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmseq.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmseq-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmseq-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmseq-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmseq-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmseq.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmseq.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmseq.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmseq.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsge-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsge-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsge-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsge-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -972,7 +972,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1021,7 +1021,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1070,7 +1070,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1119,7 +1119,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1168,7 +1168,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1217,7 +1217,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1266,7 +1266,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1315,7 +1315,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1364,7 +1364,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1413,7 +1413,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1462,7 +1462,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1511,7 +1511,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1560,7 +1560,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1609,7 +1609,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1658,7 +1658,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1715,7 +1715,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsle.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1775,7 +1775,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsle.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1835,7 +1835,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsle.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -2763,7 +2763,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 @@ -2789,7 +2789,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 @@ -2815,7 +2815,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsge-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsge-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsge-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsge-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -972,7 +972,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1021,7 +1021,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1070,7 +1070,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1119,7 +1119,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1168,7 +1168,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1217,7 +1217,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1266,7 +1266,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1315,7 +1315,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1364,7 +1364,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1413,7 +1413,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1462,7 +1462,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1511,7 +1511,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1560,7 +1560,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1609,7 +1609,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1658,7 +1658,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1707,7 +1707,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1756,7 +1756,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -972,7 +972,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1021,7 +1021,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1070,7 +1070,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1119,7 +1119,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1168,7 +1168,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1217,7 +1217,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1266,7 +1266,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1315,7 +1315,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1364,7 +1364,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1413,7 +1413,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1462,7 +1462,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1511,7 +1511,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1560,7 +1560,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1609,7 +1609,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1658,7 +1658,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1715,7 +1715,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsleu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1775,7 +1775,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsleu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1835,7 +1835,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsleu.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -2763,7 +2763,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 @@ -2789,7 +2789,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 @@ -2815,7 +2815,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: addi sp, sp, 16 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgeu-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -972,7 +972,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf8,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1021,7 +1021,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1070,7 +1070,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1119,7 +1119,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1168,7 +1168,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1217,7 +1217,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e8,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e8,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1266,7 +1266,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1315,7 +1315,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1364,7 +1364,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1413,7 +1413,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1462,7 +1462,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e16,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e16,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1511,7 +1511,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,mf2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1560,7 +1560,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1609,7 +1609,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1658,7 +1658,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e32,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e32,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: @@ -1707,7 +1707,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v9 ; CHECK-NEXT: ret entry: @@ -1756,7 +1756,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v10 ; CHECK-NEXT: ret entry: @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: vsetvli zero, a1, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vx v25, v8, a0, v0.t -; CHECK-NEXT: vsetvli zero, a1, e64,m4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,ta,mu ; CHECK-NEXT: vmxor.mm v0, v25, v12 ; CHECK-NEXT: ret entry: diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgt-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vv v25, v26, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vv v25, v28, v8, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsgtu-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v9, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v9, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v10, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v12, v8 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v16, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsle-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsle-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsle-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsle-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsle.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsle.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsle.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsle-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsle-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsle-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsle-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsle.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsle.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsle.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsle.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsleu.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsleu.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsleu.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsleu-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsleu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsleu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmslt-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmslt-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmslt-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmslt-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmslt.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmslt.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmslt.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmslt-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmslt-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmslt-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmslt-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmslt.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmslt.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmslt.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmslt.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsltu.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsltu.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsltu.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsltu-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsltu.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsltu.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsne-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmsne-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsne-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsne-rv32.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -1685,7 +1685,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmv1r.v v0, v9 ; CHECK-NEXT: vmsne.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1745,7 +1745,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmv1r.v v0, v10 ; CHECK-NEXT: vmsne.vv v25, v8, v26, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 @@ -1805,7 +1805,7 @@ ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero ; CHECK-NEXT: vmv1r.v v25, v0 -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmv1r.v v0, v12 ; CHECK-NEXT: vmsne.vv v25, v8, v28, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 diff --git a/llvm/test/CodeGen/RISCV/rvv/vmsne-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vmsne-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmsne-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmsne-rv64.ll @@ -34,7 +34,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf8,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -86,7 +86,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -138,7 +138,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -190,7 +190,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e8,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -242,7 +242,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e8,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -294,7 +294,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e8,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e8,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -346,7 +346,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -398,7 +398,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -450,7 +450,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e16,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -502,7 +502,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e16,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -554,7 +554,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e16,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -606,7 +606,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,mf2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,mf2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,mf2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -658,7 +658,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e32,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -710,7 +710,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e32,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -762,7 +762,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e32,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e32,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e32,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -814,7 +814,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m1,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v9 -; CHECK-NEXT: vsetvli zero, a0, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmsne.vv v25, v9, v10, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -866,7 +866,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m2,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v10 -; CHECK-NEXT: vsetvli zero, a0, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmsne.vv v25, v10, v12, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret @@ -918,7 +918,7 @@ ; CHECK-NEXT: vmv1r.v v25, v0 ; CHECK-NEXT: vsetvli zero, a0, e64,m4,ta,mu ; CHECK-NEXT: vmsne.vv v0, v8, v12 -; CHECK-NEXT: vsetvli zero, a0, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmsne.vv v25, v12, v16, v0.t ; CHECK-NEXT: vmv1r.v v0, v25 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmul-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmul-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmul-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmul-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmul.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmul.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmul.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmul.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmulh-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmulh-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmulh-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmulh-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmulh.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmulh.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmulh.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmulh.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmulhsu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmulhsu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmulhsu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmulhsu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmulhsu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmulhsu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmulhsu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmulhsu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vmulhu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vmulhu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vmulhu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vmulhu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vmulhu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vmulhu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vmulhu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vmulhu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vnmsac-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vnmsac-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vnmsac-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vnmsac-rv32.ll @@ -1534,7 +1534,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v25, v9 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1564,7 +1564,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v25, v9, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v26, v10 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1624,7 +1624,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v26, v10, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1654,7 +1654,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v28, v12 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1684,7 +1684,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vnmsac.vv v8, v28, v12, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vnmsub-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vnmsub-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vnmsub-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vnmsub-rv32.ll @@ -1534,7 +1534,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v25, v9 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1564,7 +1564,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v25, v9, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1594,7 +1594,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v26, v10 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1624,7 +1624,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v26, v10, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1654,7 +1654,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v28, v12 ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1684,7 +1684,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vnmsub.vv v8, v28, v12, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vor-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vor-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vor-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vor-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vor.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vor.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vor.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vor.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vrem-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vrem-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vrem-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vrem-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vrem.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vrem.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vrem.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vrem.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vremu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vremu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vremu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vremu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vremu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vremu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vremu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vremu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vrsub-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vrsub-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vrsub-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vrsub-rv32.ll @@ -835,7 +835,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vsub.vv v8, v25, v9, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -892,7 +892,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vsub.vv v8, v26, v10, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -949,7 +949,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vsub.vv v8, v28, v12, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1006,7 +1006,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vsub.vv v8, v24, v16, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vsadd-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vsadd-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vsadd-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vsadd-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vsadd.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vsadd.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vsadd.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vsadd.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vsaddu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vsaddu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vsaddu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vsaddu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vsaddu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vsaddu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vsaddu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vsaddu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert-crossbb.mir b/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert-crossbb.mir --- a/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert-crossbb.mir +++ b/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert-crossbb.mir @@ -230,12 +230,12 @@ ; CHECK: PseudoBR %bb.1 ; CHECK: bb.1.if.then: ; CHECK: successors: %bb.3(0x80000000) - ; CHECK: dead $x0 = PseudoVSETVLI [[COPY]], 88, implicit-def $vl, implicit-def $vtype + ; CHECK: dead $x0 = PseudoVSETVLI killed $x0, 88, implicit-def $vl, implicit-def $vtype, implicit $vl ; CHECK: early-clobber %1:vr = PseudoVZEXT_VF2_M1 [[PseudoVLE32_V_MF2_]], $noreg, 6, implicit $vl, implicit $vtype ; CHECK: PseudoBR %bb.3 ; CHECK: bb.2.if.else: ; CHECK: successors: %bb.3(0x80000000) - ; CHECK: dead $x0 = PseudoVSETVLI [[COPY]], 88, implicit-def $vl, implicit-def $vtype + ; CHECK: dead $x0 = PseudoVSETVLI killed $x0, 88, implicit-def $vl, implicit-def $vtype, implicit $vl ; CHECK: early-clobber %2:vr = PseudoVSEXT_VF2_M1 [[PseudoVLE32_V_MF2_]], $noreg, 6, implicit $vl, implicit $vtype ; CHECK: bb.3.if.end: ; CHECK: [[PHI:%[0-9]+]]:vr = PHI %1, %bb.1, %2, %bb.2 diff --git a/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert.mir b/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert.mir --- a/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert.mir +++ b/llvm/test/CodeGen/RISCV/rvv/vsetvli-insert.mir @@ -193,7 +193,7 @@ ; CHECK: [[COPY1:%[0-9]+]]:gpr = COPY $x10 ; CHECK: dead $x0 = PseudoVSETVLI [[COPY]], 87, implicit-def $vl, implicit-def $vtype ; CHECK: [[PseudoVLE32_V_MF2_:%[0-9]+]]:vr = PseudoVLE32_V_MF2 [[COPY1]], $noreg, 5, implicit $vl, implicit $vtype - ; CHECK: dead $x0 = PseudoVSETVLI [[COPY]], 88, implicit-def $vl, implicit-def $vtype + ; CHECK: dead $x0 = PseudoVSETVLI killed $x0, 88, implicit-def $vl, implicit-def $vtype, implicit $vl ; CHECK: early-clobber %3:vr = PseudoVZEXT_VF2_M1 killed [[PseudoVLE32_V_MF2_]], $noreg, 6, implicit $vl, implicit $vtype ; CHECK: $v8 = COPY %3 ; CHECK: PseudoRET implicit $v8 diff --git a/llvm/test/CodeGen/RISCV/rvv/vsmul-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vsmul-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vsmul-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vsmul-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vsmul.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vsmul.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vsmul.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vsmul.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vssub-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vssub-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vssub-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vssub-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vssub.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vssub.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vssub.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vssub.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vssubu-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vssubu-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vssubu-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vssubu-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vssubu.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vssubu.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vssubu.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vssubu.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vsub-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vsub-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vsub-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vsub-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vsub.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vsub.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vsub.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vsub.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv32.ll @@ -61,7 +61,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -84,7 +84,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -107,7 +107,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -130,7 +130,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -153,7 +153,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v28, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -176,9 +176,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -190,7 +190,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -213,9 +213,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -227,7 +227,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -250,9 +250,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -264,7 +264,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -287,9 +287,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v28, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -301,7 +301,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v28, 0 ; CHECK-NEXT: ret %tvec = trunc %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv64.ll b/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv64.ll --- a/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv64.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vtruncs-sdnode-rv64.ll @@ -61,7 +61,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -84,7 +84,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -107,7 +107,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -130,7 +130,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -153,7 +153,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e16,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v28, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -176,9 +176,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf8,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -190,7 +190,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -213,9 +213,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v25, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf4,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -227,7 +227,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -250,9 +250,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v25, v26, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,mf2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v25, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -264,7 +264,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -287,9 +287,9 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v26, v28, 0 -; CHECK-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e8,m1,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v26, 0 ; CHECK-NEXT: ret %tvec = trunc %va to @@ -301,7 +301,7 @@ ; CHECK: # %bb.0: ; CHECK-NEXT: vsetvli a0, zero, e32,m4,ta,mu ; CHECK-NEXT: vnsrl.wi v28, v8, 0 -; CHECK-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m2,ta,mu ; CHECK-NEXT: vnsrl.wi v8, v28, 0 ; CHECK-NEXT: ret %tvec = trunc %va to diff --git a/llvm/test/CodeGen/RISCV/rvv/vxor-rv32.ll b/llvm/test/CodeGen/RISCV/rvv/vxor-rv32.ll --- a/llvm/test/CodeGen/RISCV/rvv/vxor-rv32.ll +++ b/llvm/test/CodeGen/RISCV/rvv/vxor-rv32.ll @@ -1807,7 +1807,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m1,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v25, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m1,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m1,tu,mu ; CHECK-NEXT: vxor.vv v8, v9, v25, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1864,7 +1864,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m2,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v26, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m2,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m2,tu,mu ; CHECK-NEXT: vxor.vv v8, v10, v26, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1921,7 +1921,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m4,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v28, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m4,tu,mu ; CHECK-NEXT: vxor.vv v8, v12, v28, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret @@ -1978,7 +1978,7 @@ ; CHECK-NEXT: vsetvli zero, a2, e64,m8,ta,mu ; CHECK-NEXT: addi a0, sp, 8 ; CHECK-NEXT: vlse64.v v24, (a0), zero -; CHECK-NEXT: vsetvli zero, a2, e64,m8,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e64,m8,tu,mu ; CHECK-NEXT: vxor.vv v8, v16, v24, v0.t ; CHECK-NEXT: addi sp, sp, 16 ; CHECK-NEXT: ret diff --git a/llvm/test/CodeGen/RISCV/rvv/zvlsseg-zero-vl.ll b/llvm/test/CodeGen/RISCV/rvv/zvlsseg-zero-vl.ll --- a/llvm/test/CodeGen/RISCV/rvv/zvlsseg-zero-vl.ll +++ b/llvm/test/CodeGen/RISCV/rvv/zvlsseg-zero-vl.ll @@ -14,7 +14,7 @@ ; CHECK-NEXT: vsetivli zero, 0, e16,m4,ta,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0) ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetivli zero, 0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlseg2e16.v v4, (a0), v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -35,7 +35,7 @@ ; CHECK-NEXT: vsetivli zero, 0, e16,m4,ta,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1 ; CHECK-NEXT: vmv4r.v v8, v4 -; CHECK-NEXT: vsetivli zero, 0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vlsseg2e16.v v4, (a0), a1, v0.t ; CHECK-NEXT: # kill: def $v8m4 killed $v8m4 killed $v4m4_v8m4 ; CHECK-NEXT: ret @@ -55,7 +55,7 @@ ; CHECK-NEXT: vsetivli zero, 0, e16,m4,ta,mu ; CHECK-NEXT: vloxseg2ei16.v v12, (a0), v8 ; CHECK-NEXT: vmv4r.v v16, v12 -; CHECK-NEXT: vsetivli zero, 0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vloxseg2ei16.v v12, (a0), v8, v0.t ; CHECK-NEXT: vmv4r.v v8, v16 ; CHECK-NEXT: ret @@ -76,7 +76,7 @@ ; CHECK-NEXT: vsetivli zero, 0, e16,m4,ta,mu ; CHECK-NEXT: vluxseg2ei16.v v12, (a0), v8 ; CHECK-NEXT: vmv4r.v v16, v12 -; CHECK-NEXT: vsetivli zero, 0, e16,m4,tu,mu +; CHECK-NEXT: vsetvli zero, zero, e16,m4,tu,mu ; CHECK-NEXT: vluxseg2ei16.v v12, (a0), v8, v0.t ; CHECK-NEXT: vmv4r.v v8, v16 ; CHECK-NEXT: ret