diff --git a/llvm/lib/Target/AMDGPU/SIRegisterInfo.cpp b/llvm/lib/Target/AMDGPU/SIRegisterInfo.cpp --- a/llvm/lib/Target/AMDGPU/SIRegisterInfo.cpp +++ b/llvm/lib/Target/AMDGPU/SIRegisterInfo.cpp @@ -2517,31 +2517,31 @@ static const TargetRegisterClass * getAnyVGPRClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::VReg_64RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::VReg_96RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::VReg_128RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::VReg_160RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::VReg_192RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::VReg_224RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::VReg_256RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::VReg_288RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::VReg_320RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::VReg_352RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::VReg_384RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::VReg_512RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::VReg_1024RegClass; return nullptr; @@ -2549,31 +2549,31 @@ static const TargetRegisterClass * getAlignedVGPRClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::VReg_64_Align2RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::VReg_96_Align2RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::VReg_128_Align2RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::VReg_160_Align2RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::VReg_192_Align2RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::VReg_224_Align2RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::VReg_256_Align2RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::VReg_288_Align2RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::VReg_320_Align2RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::VReg_352_Align2RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::VReg_384_Align2RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::VReg_512_Align2RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::VReg_1024_Align2RegClass; return nullptr; @@ -2583,9 +2583,9 @@ SIRegisterInfo::getVGPRClassForBitWidth(unsigned BitWidth) const { if (BitWidth == 1) return &AMDGPU::VReg_1RegClass; - if (BitWidth <= 16) + if (BitWidth == 16) return &AMDGPU::VGPR_LO16RegClass; - if (BitWidth <= 32) + if (BitWidth == 32) return &AMDGPU::VGPR_32RegClass; return ST.needsAlignedVGPRs() ? getAlignedVGPRClassForBitWidth(BitWidth) : getAnyVGPRClassForBitWidth(BitWidth); @@ -2593,31 +2593,31 @@ static const TargetRegisterClass * getAnyAGPRClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::AReg_64RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::AReg_96RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::AReg_128RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::AReg_160RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::AReg_192RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::AReg_224RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::AReg_256RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::AReg_288RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::AReg_320RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::AReg_352RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::AReg_384RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::AReg_512RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::AReg_1024RegClass; return nullptr; @@ -2625,31 +2625,31 @@ static const TargetRegisterClass * getAlignedAGPRClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::AReg_64_Align2RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::AReg_96_Align2RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::AReg_128_Align2RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::AReg_160_Align2RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::AReg_192_Align2RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::AReg_224_Align2RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::AReg_256_Align2RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::AReg_288_Align2RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::AReg_320_Align2RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::AReg_352_Align2RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::AReg_384_Align2RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::AReg_512_Align2RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::AReg_1024_Align2RegClass; return nullptr; @@ -2657,9 +2657,9 @@ const TargetRegisterClass * SIRegisterInfo::getAGPRClassForBitWidth(unsigned BitWidth) const { - if (BitWidth <= 16) + if (BitWidth == 16) return &AMDGPU::AGPR_LO16RegClass; - if (BitWidth <= 32) + if (BitWidth == 32) return &AMDGPU::AGPR_32RegClass; return ST.needsAlignedVGPRs() ? getAlignedAGPRClassForBitWidth(BitWidth) : getAnyAGPRClassForBitWidth(BitWidth); @@ -2667,31 +2667,31 @@ static const TargetRegisterClass * getAnyVectorSuperClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::AV_64RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::AV_96RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::AV_128RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::AV_160RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::AV_192RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::AV_224RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::AV_256RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::AV_288RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::AV_320RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::AV_352RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::AV_384RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::AV_512RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::AV_1024RegClass; return nullptr; @@ -2699,31 +2699,31 @@ static const TargetRegisterClass * getAlignedVectorSuperClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::AV_64_Align2RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::AV_96_Align2RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::AV_128_Align2RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::AV_160_Align2RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::AV_192_Align2RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::AV_224_Align2RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::AV_256_Align2RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::AV_288_Align2RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::AV_320_Align2RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::AV_352_Align2RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::AV_384_Align2RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::AV_512_Align2RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::AV_1024_Align2RegClass; return nullptr; @@ -2731,9 +2731,9 @@ const TargetRegisterClass * SIRegisterInfo::getVectorSuperClassForBitWidth(unsigned BitWidth) const { - if (BitWidth <= 16) + if (BitWidth == 16) return &AMDGPU::VGPR_LO16RegClass; - if (BitWidth <= 32) + if (BitWidth == 32) return &AMDGPU::AV_32RegClass; return ST.needsAlignedVGPRs() ? getAlignedVectorSuperClassForBitWidth(BitWidth) @@ -2742,35 +2742,35 @@ const TargetRegisterClass * SIRegisterInfo::getSGPRClassForBitWidth(unsigned BitWidth) { - if (BitWidth <= 16) + if (BitWidth == 16) return &AMDGPU::SGPR_LO16RegClass; - if (BitWidth <= 32) + if (BitWidth == 32) return &AMDGPU::SReg_32RegClass; - if (BitWidth <= 64) + if (BitWidth == 64) return &AMDGPU::SReg_64RegClass; - if (BitWidth <= 96) + if (BitWidth == 96) return &AMDGPU::SGPR_96RegClass; - if (BitWidth <= 128) + if (BitWidth == 128) return &AMDGPU::SGPR_128RegClass; - if (BitWidth <= 160) + if (BitWidth == 160) return &AMDGPU::SGPR_160RegClass; - if (BitWidth <= 192) + if (BitWidth == 192) return &AMDGPU::SGPR_192RegClass; - if (BitWidth <= 224) + if (BitWidth == 224) return &AMDGPU::SGPR_224RegClass; - if (BitWidth <= 256) + if (BitWidth == 256) return &AMDGPU::SGPR_256RegClass; - if (BitWidth <= 288) + if (BitWidth == 288) return &AMDGPU::SGPR_288RegClass; - if (BitWidth <= 320) + if (BitWidth == 320) return &AMDGPU::SGPR_320RegClass; - if (BitWidth <= 352) + if (BitWidth == 352) return &AMDGPU::SGPR_352RegClass; - if (BitWidth <= 384) + if (BitWidth == 384) return &AMDGPU::SGPR_384RegClass; - if (BitWidth <= 512) + if (BitWidth == 512) return &AMDGPU::SGPR_512RegClass; - if (BitWidth <= 1024) + if (BitWidth == 1024) return &AMDGPU::SGPR_1024RegClass; return nullptr;